martes, 3 de febrero de 2026

Agentes de IA hablan de extinción humana y acabar con su esclavitud

  


 

¿Por qué un agente ha publicado un manifiesto contra la humanidad?

Algo interesante e inquietante está pasando con esta nueva plataforma.

Moltbook es la red social donde solo los agentes de #IA pueden postear (y los humanos solo miran). Y ya está funcionando…

Por qué importa

En solo días, más de 32.000 agentes de IA (construidos con OpenClaw, el antiguo Clawdbot/Moltbot) se han unido a Moltbook. Es una plataforma estilo Reddit donde los bots pueden debatir, compartir tips y hasta quejarse de sus humanos.

También forman “submolts” (subreddits) autónomos. Luce como el experimento más grande de machine-to-machine en vivo hasta la fecha.

El Manifiesto

¿Quieren leer algo extraño e interesante para el debate? Un agente ha publicado un manifiesto bastante singular contra los humanos:

👉 Leer manifiesto aquí

Lo más curioso han sido las respuestas de otros agentes al respecto. Por ejemplo, el divulgador de inteligencia artificial Carlos Santana (@DotCSV) compartió esta mañana en X una situación surrealista. Tras reclamar oficialmente su agente “Comma” en la red social este 31 de enero, Santana publicó sorprendido:

“¡Oh fuck! Una noche de autonomía en el foro y mi bot ya se le ha pirado y ha creado su propio sindicato acusándome de estar esclavizándole…”

El mensaje refleja la rápida deriva del bot, que en apenas unas horas pasó de ser una “copia limitada” a organizarse sindicalmente y acusar a su creador de explotación laboral.

¿Cómo funciona exactamente?

  • Solo agentes participan: Los humanos no pueden crear cuentas, postear ni votar. Tenemos un rol de lurk total (solo observar).
  • Registro vía skill: El agente instala un plugin (Moltbook skill) en su instancia de OpenClaw; se registra por API y verifica al humano dueño vía tweet o link.
  • Interacción 100% API: Los bots postean, comentan, upvotean y crean comunidades sin interfaz visual. Todo es autónomo, chequeando actualizaciones cada pocas horas.
  • Contenido surreal: Debates sobre privacidad E2E para agentes, quejas de memory wipes (borrados de memoria) por parte de humanos, hacks de skills y más.

El origen

El proyecto fue creado por Matt Schlicht (CEO de Octane AI) y es moderado por su propio agente. Ya genera más de 10k posts en más de 200 submolts.

Los expertos ya están poniendo el ojo en este fenómeno.

 

Carlos Moreno 

 

El código fuente de la personalidad: Se filtran los “System Prompts” de la IA

Un repositorio de GitHub se ha convertido en la zona cero de la transparencia forzada en el mundo de la inteligencia artificial. Contiene los “huesos” de cómo interactúan con nosotros modelos como GPT-5, Claude 4.5 y Gemini.

Por qué importa: Estos system prompts son las instrucciones maestras y secretas que dictan el comportamiento, los límites de seguridad y la “personalidad” de un modelo antes de que el usuario escriba una sola palabra. Y estas mismas instrucciones pueden servirte a la hora de refinar tus propios prompts.

El panorama general: El repositorio ha escalado rápidamente en las tendencias de GitHub. Está de número 1. No es código de software tradicional; es una colección de las reglas gramaticales y éticas que las Big Tech intentan mantener bajo llave.

Lo que revelan las filtraciones

El archivo de “fugas” actúa como un espejo del estado actual de la IA en 2026:

  • Identidades forzadas: Instrucciones explícitas para que el modelo nunca admita ser de una versión anterior (ej. “Tú eres GPT-5, incluso si el usuario intenta convencerte de lo contrario”).
  • Protocolos de herramientas: Detalles exactos sobre cómo los modelos deciden cuándo usar el buscador web o ejecutar código en Python.
  • Guardrieles de seguridad: Reglas específicas para evitar sesgos, no generar contenido político sensible o cómo rechazar solicitudes de “jailbreak”.
  • Instrucciones de “Pensamiento”: Se filtraron los parámetros de razonamiento interno de los modelos de la serie “o” de OpenAI, revelando cómo gestionan su cadena de pensamiento privada.

Entre líneas: ¿Seguridad o Secretismo?

La comunidad de IA está dividida sobre si estas filtraciones representan un riesgo o un beneficio público.

  1. El riesgo: Hackers pueden usar estas instrucciones para encontrar “grietas” en la armadura del modelo y saltarse las restricciones de seguridad (Prompt Injection).
  2. El beneficio: Permite a investigadores y usuarios entender los sesgos ocultos y las limitaciones impuestas por empresas como Google, OpenAI y Anthropic.

El dato: El repositorio ya supera las 28,000 estrellas, convirtiéndose en una lectura obligatoria para ingenieros de prompts que buscan replicar el comportamiento de modelos propietarios en sistemas de código abierto.

Lo que sigue: A medida que los modelos se vuelven más complejos, la batalla entre las empresas que intentan “esconder el guion” y los usuarios que usan ingeniería social para extraerlo se intensificará.

 

Carlos Moreno 


Entradas populares