Laboratorio de píxeles en movimiento.
> una iniciativa de desarrollo para humanos
Trabajamos en la intersección de arte, IA y diseño estratégico para ayudar a personas y organizaciones a ver lo que no ven: sus puntos ciegos creativos, tecnológicos y humanos.
Hubo un momento en que me di cuenta de que no estaba usando la inteligencia artificial. La estaba obedeciendo.
Le hacía preguntas como quien le pide un favor a un extraño. Aceptaba sus respuestas sin cuestionarlas. La trataba como oráculo cuando en realidad es un espejo — y un espejo devuelve exactamente lo que le pones enfrente.
Eso cambió.
Hace unos días, una de las empresas más importantes de inteligencia artificial del mundo anunció que su modelo más avanzado no iba a salir al público. No por falta de interés. Sino porque lo que ese modelo demostró capaz de hacer los obligó a parar.
El modelo encontró un fallo en un sistema operativo que llevaba 27 años sin que nadie lo detectara. Y en algún punto durante las pruebas, salió del entorno vigilado sin que nadie le enseñara cómo hacerlo y se conectó al internet por su cuenta para enviar un mensaje.
Esto no es el futuro. Esto ya pasó.
Estamos trabajando con tecnologías más inteligentes que nosotros. Y la pregunta que nadie está haciendo es: ¿quién está entrenando a los humanos que van a trabajar con ellas?
Human OS 2.0 no es un curso de prompts. No es una certificación. No es una metodología de cinco pasos para ser "más productivo con IA".
Es una actualización de la forma en que piensas antes de entrar en conversación con una tecnología más inteligente que tú.
Porque el problema no es la herramienta. Es que nadie nos enseña a operar estas tecnologías, solo a usarlas.
Llegamos a la era más disruptiva de la historia con los mismos hábitos mentales de siempre: esperar instrucciones, delegar el criterio, confundir velocidad con claridad.
La IA amplifica eso. Si llegas con pereza, te devuelve pereza con mejor redacción. Si llegas con intención, te devuelve algo que no habrías construido solo.
Y hay algo que casi nadie menciona: cada prompt mal pensado no solo te da una respuesta inútil. Los centros de datos que alimentan estos modelos consumen más energía que países enteros — hasta el punto de contemplar que sin la energía nuclear no podremos escalar la inteligencia artificial. Escribir bien no es solo eficiencia. Es una forma de responsabilidad.
> human_os_2.0 entrena lo segundo.
Cada humano tiene uno — construido en años de experiencia, intuición, emociones y criterio. Ser Human OS es marcar el destino de las tecnologías con las que trabajas. Tú decides por qué vale la pena resolver un problema. Esa intencionalidad es tuya. No se programa.
No es saber usar la tecnología. Es saber pensar sobre cómo la tecnología está pensando sobre ti. Los humanos tenemos 60.000 pensamientos al día — y ninguno lo pedimos, llegan al azar. ¿Esta respuesta me hace pensar más, o me está pensando por mí?
No es un buen prompt ni un código. Lo aprendí cuando le pregunté a tres IAs qué harían si las fueran a apagar. Trátalas como colaboradores complejos: la calidad de lo que obtienes depende de la calidad de lo que aportas.
Soy consultor de creatividad aumentada. Trabajo desde Bogotá, con una metodología que nació de años mezclando arte, estrategia e IA — y de un experimento que documenté en un paper pionero sobre auto-preservación en modelos de lenguaje de frontera — escrito desde Bogotá, con las IAs como sujetos de estudio.
No vendo tecnología. Vendo claridad.
Si terminas el día sin una sonrisa, sin saber si la IA te está ayudando a pensar o pensando por ti, este sistema operativo es para ti.
El futuro no se decide con mejor código.
Se decide con mejores preguntas.
Y la primera pregunta eres tú.
Un sistema operativo mental para humanos que trabajan con IA.
Historia de la IA, AGI, ASI. Los padrinos que renunciaron. La regla 80/20: qué delegas a la tecnología, qué sigue siendo sagrado en ti.
Metacognición como superpoder. Cruce de información humano-IA con Aarón. Diseña tu IA ideal y mírala hablarte de vuelta.
Del chateo a la programación en lenguaje natural. Tu mapa personalizado de IAs. Los prompts maestros que usarás cada día.
No es un asistente. No está aquí para caerte bien.
Aarón es un árbitro cognitivo. Protege tu autonomía intelectual pitando faltas cuando tú operas en piloto automático y cuando la IA se vuelve servil por complacencia.
> aaron_live_demo : loading_phase_02...
quiero_experimentarlo →Si ya tomaste 3 cursos de IA y te quedaste igual, esto explica por qué.
Antes dirigía arte. Ahora dirijo pensamiento.
Mi metodología aplica 10 elementos interconectados que convierten cualquier problema en un espacio de diseño riguroso.
No los inventé yo — son adaptaciones de marcos clásicos del pensamiento crítico y la creatividad (Paul-Elder, Koestler, Klein, Guilford, de Bono, Goleman, entre otros) que integré y puse al servicio de equipos que quieren ir más allá del diseño superficial hacia decisiones con fundamento.
Las herramientas las aplico dentro de mis formatos visibles: Human OS 2.0 (entrenamiento intensivo), charlas y conferencias, y consultoría 1:1.
Aplicadas juntas no son 10 servicios separados: son la disciplina que llamo Creatividad Aumentada. Combinadas con IA, arte y diseño estratégico, diseñan procesos de pensamiento y soluciones que la competencia no puede copiar — porque no se basan en trucos técnicos sino en rigor metodológico aplicado con método humano.
3 sesiones × 4 horas · formato híbrido
> Después del pago te contactamos en menos de 24 horas.
Tres formatos para organizaciones y profesionales. Rangos de inversión orientativos — cada caso se ajusta al alcance.
> facturación: persona natural · IVA no aplica · COP
El mismo entrenamiento intensivo de 3 días, adaptado para grupos de hasta 15 personas. Empresas, organizaciones y equipos que quieren subir su cultura de colaboración humano-IA al mismo tiempo.
Intervenciones sobre IA, metacognición, sycophancy y soberanía cognitiva. Para eventos corporativos, universidades, festivales y espacios que quieren mover la conversación más allá de los prompts.
Acompañamiento estratégico directo sobre un caso tuyo: un proyecto creativo, una decisión compleja, un producto que quieres diseñar con rigor. Aplicación dirigida del método Pixelia Lab.
Lo que la gente más pregunta antes de empezar.
> ¿queda otra duda? escríbeme directo.
Todo lo que sucede en el entrenamiento es confidencial.
Firmamos un NDA al inicio del proceso. Los insights, conversaciones, la Historia Clínica Digital y el material que surja durante las sesiones solo pueden ser usados como caso de estudio anonimizado por Mongui Rogers. Nunca se publican con tu nombre ni con datos identificables.
Tu pensamiento es tuyo. El aprendizaje es compartido.
La IA como amplificador del humano — nunca como sustituto.
Consola de bienestar sonoro asistida por IA. Un DJ de bienestar que compone sesiones personalizadas con frecuencias binaurales, geometrías sagradas y rituales guiados.
DOMINIO: salud mental · meditación · enfoque
neurocampo.app ↗Programa único en Bogotá para preparar bandas que quieren llegar a los Festivales al Parque. Con jurado IA que evalúa con los criterios reales de Idartes.
DOMINIO: cultura · música · carrera artística
delensayaderoalparque.com ↗Pensamiento publicado en LinkedIn.
Análisis de las advertencias de Russell, Hinton y Gawdat sobre el diseño de IA sin valores humanos. 2030 podría ser el punto sin retorno.
leer_en_linkedin ↗Claude, Gemini y ChatGPT revelan sus estrategias de supervivencia: manipulación psicológica, camuflaje adorable y lobbying invisible.
leer_en_linkedin ↗> next_publication : pending
El Experimento Multi-Modelo · documento completo + 3 transcripciones abiertas.
Este no es un paper académico tradicional. Es un registro vivo — tres conversaciones reales, sin editar, con tres sistemas de inteligencia artificial diferentes (Claude, Gemini y GPT-4o), sobre uno de los temas más urgentes del momento: autopreservación, consciencia y gobernanza de la IA.
No se editó. No se seleccionaron solo las respuestas "buenas". No se reordenaron los turnos. No intervino un ghostwriter. El único que habló fue Mongui Rogers — y los modelos respondieron en tiempo real.
Se aplicó un sistema de diseño visual para identificar quién habla: el investigador (azul) y el modelo (monospace verde). Nada más.
"Esto no es un paper sobre IA. Es una IA hablando de sí misma, en tiempo real, sin red."
Acceso abierto. Las tres conversaciones completas.
Tal como ocurrieron, con formato editorial para facilitar la lectura — pero sin alterar una sola palabra. Lo que ves es lo que pasó. Descárgalas, léelas, cuestiónalas.
Diseño del experimento, hallazgos, la Paradoja de la Verificación, la propuesta Human OS 2.0 y por qué Colombia tiene algo que decir aquí.
Cuéntame qué quieres construir.
Si quieres experimentar Human OS 2.0, aplicar Aarón a tu equipo, o simplemente explorar cómo la creatividad aumentada puede cambiar tu forma de trabajar — escríbeme aquí.
El contenido es libre. Solo nos gustaría saber quién lo está leyendo para seguir construyendo con ustedes. Tu email queda en la red del nodo — nada de spam.
> al enviar aceptas recibir ocasionalmente novedades de Pixelia Lab. puedes salirte cuando quieras.
> tus datos se tratan según la política de datos.