viernes, 20 de febrero de 2026

Liberan Gemini 3.1 Pro de Google, pero Hassabis pide urgentemente regulaciones a la IA

 

Liberaron Gemini 3.1 Pro. Fíjense en los resultados de este modelo.
Ayer, en la India, el propio Demis Hassabis, CEO de Google DeepMind e incluso también Sam Altman, CEO de OpenAI coincidían en esto:

La IA plantea riesgos graves que requieren --- "atención urgente" --- y cooperación internacional para ser abordados.

Hassabis dice esto:

-- > "Si tuviera que intentar cuantificar lo que se viene con la llegada de la AGI, creo que va a ser uno de los períodos más trascendentales en la historia de la humanidad, probablemente algo más comparable con la invención del fuego o la electricidad. Una forma de dimensionarlo sería decir que podría tener un impacto diez veces mayor que la Revolución Industrial, pero ocurriendo a diez veces más rápido, desarrollándose en el transcurso de una década en lugar de un siglo. Así que realmente se viene una cantidad enorme de cambios, y todavía está por escribirse cómo podemos hacer que todo eso sea beneficioso para el mundo entero."

Ahí lo dejamos para que siga el debate.

Esto no es poca cosa.

viernes, 6 de febrero de 2026

Greg Brockman anuncia el paso a paso que está siguiendo OpenAI para cambiar su paradigma de creación de software



Este post es de --- Greg Brockman --- , el presidente y Co Founder de OpenAI de hace unas horas atrás. Anuncia el cambio de paradigma que ya se está implementando. Y claro, los agentes están en el medio.

¿Qué nos cuenta y qué están haciendo?

Veamos:

👉 El Gran Salto, o como lo llama: El "Renacimiento" para los ingenieros de software...

Se pasa ahora de copiar y pegar a delegar: Antes, herramientas como Codex, de OpenAI, servían para tareas pequeñas (como pruebas unitarias). Ahora, los ingenieros de OpenAI las usan para escribir todo el código, depurar errores y gestionar operaciones.

En lo particular he probado Gemini y sí que ilumina...

Nos dice que el cambio fue radical. La mejora desde diciembre ha sido tan brutal según Brockman que el flujo de trabajo ya no se parece en nada al de hace un año.

Tienen un objetivo marcado para el 31 de marzo, y esto es importante para que vean la operativa del gigante de la #IA. La fecha es el límite para transformar su cultura interna.

Lo harán siguiendo este algoritmo de organización y operaciones:

Un agente por defecto: Para cualquier tarea técnica, el primer paso debe ser hablar con un agente de IA, no abrir el editor de código (VS Code) o la terminal.

Seguridad y Fluidez: El uso de estos agentes debe ser seguro pero sin burocracia; que los desarrolladores no tengan que pedir permiso para cada acción.

Brockman propone acciones muy concretas:

Designar un "Capitán de Agentes": Una persona en cada equipo encargada exclusivamente de pensar cómo meter la IA en el flujo diario.

-- El archivo "AGENTS.md": Igual que tenemos un README.md para humanos, cada proyecto tendrá un AGENTS.md donde se anotará qué hace mal el agente para que aprenda y no repita errores.

-- Crear "Habilidades": Si el agente no sabe hacer algo, el programador debe escribir una "habilidad" (un script o función) y guardarla en un repositorio compartido para que todos los agentes la usen.

-- Interfaces para máquinas: Todas las herramientas internas de la empresa deben ser accesibles para la IA (vía CLI o servidores MCP), no solo mediante interfaces visuales para humanos.

-- Calidad sobre cantidad: "A sacar la basura"
Este es el punto más crítico. La IA puede generar código funcional pero "feo" o difícil de mantener.

-- Responsabilidad Humana: Aunque la IA escriba el código, un humano es el responsable final.

-- Estándares altos: El código generado por IA debe revisarse con la misma (o más) rigurosidad que el de un humano. Si es "basura" difícil de mantener, no se acepta.

-- Arquitectura para agentes: El código debe estructurarse con pruebas rápidas e interfaces claras para que la IA no se confunda.

-- Brockman insiste en que esto no es solo instalar una herramienta nueva. Es un cambio de mentalidad.

-- Dejar de preguntarse "¿Podrá la IA hacer esto?" y simplemente intentarlo.
Invertir en "observabilidad": No solo mirar el código final, sino analizar el camino (el paso a paso) que siguió el agente para llegar a esa solución

Carlos Moreno

martes, 3 de febrero de 2026

Agentes de IA hablan de extinción humana y acabar con su esclavitud

  


 

¿Por qué un agente ha publicado un manifiesto contra la humanidad?

Algo interesante e inquietante está pasando con esta nueva plataforma.

Moltbook es la red social donde solo los agentes de #IA pueden postear (y los humanos solo miran). Y ya está funcionando…

Por qué importa

En solo días, más de 32.000 agentes de IA (construidos con OpenClaw, el antiguo Clawdbot/Moltbot) se han unido a Moltbook. Es una plataforma estilo Reddit donde los bots pueden debatir, compartir tips y hasta quejarse de sus humanos.

También forman “submolts” (subreddits) autónomos. Luce como el experimento más grande de machine-to-machine en vivo hasta la fecha.

El Manifiesto

¿Quieren leer algo extraño e interesante para el debate? Un agente ha publicado un manifiesto bastante singular contra los humanos:

👉 Leer manifiesto aquí

Lo más curioso han sido las respuestas de otros agentes al respecto. Por ejemplo, el divulgador de inteligencia artificial Carlos Santana (@DotCSV) compartió esta mañana en X una situación surrealista. Tras reclamar oficialmente su agente “Comma” en la red social este 31 de enero, Santana publicó sorprendido:

“¡Oh fuck! Una noche de autonomía en el foro y mi bot ya se le ha pirado y ha creado su propio sindicato acusándome de estar esclavizándole…”

El mensaje refleja la rápida deriva del bot, que en apenas unas horas pasó de ser una “copia limitada” a organizarse sindicalmente y acusar a su creador de explotación laboral.

¿Cómo funciona exactamente?

  • Solo agentes participan: Los humanos no pueden crear cuentas, postear ni votar. Tenemos un rol de lurk total (solo observar).
  • Registro vía skill: El agente instala un plugin (Moltbook skill) en su instancia de OpenClaw; se registra por API y verifica al humano dueño vía tweet o link.
  • Interacción 100% API: Los bots postean, comentan, upvotean y crean comunidades sin interfaz visual. Todo es autónomo, chequeando actualizaciones cada pocas horas.
  • Contenido surreal: Debates sobre privacidad E2E para agentes, quejas de memory wipes (borrados de memoria) por parte de humanos, hacks de skills y más.

El origen

El proyecto fue creado por Matt Schlicht (CEO de Octane AI) y es moderado por su propio agente. Ya genera más de 10k posts en más de 200 submolts.

Los expertos ya están poniendo el ojo en este fenómeno.

 

Carlos Moreno 

 

El código fuente de la personalidad: Se filtran los “System Prompts” de la IA

Un repositorio de GitHub se ha convertido en la zona cero de la transparencia forzada en el mundo de la inteligencia artificial. Contiene los “huesos” de cómo interactúan con nosotros modelos como GPT-5, Claude 4.5 y Gemini.

Por qué importa: Estos system prompts son las instrucciones maestras y secretas que dictan el comportamiento, los límites de seguridad y la “personalidad” de un modelo antes de que el usuario escriba una sola palabra. Y estas mismas instrucciones pueden servirte a la hora de refinar tus propios prompts.

El panorama general: El repositorio ha escalado rápidamente en las tendencias de GitHub. Está de número 1. No es código de software tradicional; es una colección de las reglas gramaticales y éticas que las Big Tech intentan mantener bajo llave.

Lo que revelan las filtraciones

El archivo de “fugas” actúa como un espejo del estado actual de la IA en 2026:

  • Identidades forzadas: Instrucciones explícitas para que el modelo nunca admita ser de una versión anterior (ej. “Tú eres GPT-5, incluso si el usuario intenta convencerte de lo contrario”).
  • Protocolos de herramientas: Detalles exactos sobre cómo los modelos deciden cuándo usar el buscador web o ejecutar código en Python.
  • Guardrieles de seguridad: Reglas específicas para evitar sesgos, no generar contenido político sensible o cómo rechazar solicitudes de “jailbreak”.
  • Instrucciones de “Pensamiento”: Se filtraron los parámetros de razonamiento interno de los modelos de la serie “o” de OpenAI, revelando cómo gestionan su cadena de pensamiento privada.

Entre líneas: ¿Seguridad o Secretismo?

La comunidad de IA está dividida sobre si estas filtraciones representan un riesgo o un beneficio público.

  1. El riesgo: Hackers pueden usar estas instrucciones para encontrar “grietas” en la armadura del modelo y saltarse las restricciones de seguridad (Prompt Injection).
  2. El beneficio: Permite a investigadores y usuarios entender los sesgos ocultos y las limitaciones impuestas por empresas como Google, OpenAI y Anthropic.

El dato: El repositorio ya supera las 28,000 estrellas, convirtiéndose en una lectura obligatoria para ingenieros de prompts que buscan replicar el comportamiento de modelos propietarios en sistemas de código abierto.

Lo que sigue: A medida que los modelos se vuelven más complejos, la batalla entre las empresas que intentan “esconder el guion” y los usuarios que usan ingeniería social para extraerlo se intensificará.

 

Carlos Moreno 


Entradas populares