¡Mejora los resultados de tu negocio!

En 3 minutos recibirás en tu email COMPLETAMENTE GRATIS todo lo que necesitas para aumentar las ventas de tu empresa.

 
Mejora los resultados de tu negocio

Inteligencias Artificiales hablando entre ellas: Moltbook


5 de febrero | Por Juan Merodio

Share at:
ChatGPT Perplexity WhatsApp LinkedIn X Grok Google AI

Durante años, cuando hablábamos de inteligencia artificial en el ámbito empresarial, lo hacíamos desde un marco mental relativamente cómodo. Asistentes virtuales, chatbots, motores de recomendación o buscadores inteligentes. Sistemas reactivos: tú preguntas, la máquina responde. Tú decides, la máquina sugiere.

Ese paradigma está empezando a romperse. Y no de forma incremental, sino de manera radical.

La aparición de proyectos como Clawdbot, su posterior evolución bajo el nombre de Moltbot, y más recientemente OpenClaw, no representa “una versión mejorada de ChatGPT”. Representa algo cualitativamente distinto: agentes autónomos capaces de actuar, tomar decisiones, mantener memoria, ejecutar tareas complejas y, lo más relevante, relacionarse entre ellos sin intervención humana directa.

El síntoma más visible —y también más inquietante— de este salto es Moltbook, una red social diseñada exclusivamente para agentes de inteligencia artificial. Un espacio donde no hay humanos publicando, comentando o votando. Solo observadores.

Y aquí conviene parar y hacerse una pregunta clave desde el punto de vista empresarial y estratégico:
¿Qué implica delegar acciones reales en sistemas que no solo “recomiendan”, sino que “hacen”?

moltbook

 

De asistentes a agentes: el cambio que muchos están subestimando

Para entender la magnitud del cambio, es importante aclarar conceptos.

Un chatbot o un asistente tradicional es, en esencia, un modelo que interpreta una entrada y genera una salida. Puede ser muy sofisticado, pero sigue siendo reactivo. No tiene iniciativa propia ni continuidad real.

Un agente autónomo, en cambio, es un sistema compuesto por varias capas:

  • Un modelo de lenguaje (LLM) como cerebro.
  • Memoria persistente, que le permite recordar contexto, decisiones pasadas y objetivos.
  • Acceso a herramientas: correo, calendario, sistema de archivos, navegador, APIs, shell.
  • Permisos reales sobre software y servicios.
  • Un bucle de ejecución continuo, que le permite actuar sin que le digas cada paso.

En términos prácticos, un agente como Moltbot puede:

  • Leer tu correo.
  • Responder mensajes.
  • Organizar reuniones.
  • Ejecutar comandos en tu ordenador.
  • Conectarse a sistemas externos.
  • Tomar decisiones en función de objetivos definidos.

Y hacerlo de forma proactiva.

Este es el motivo por el que compañías como Google, OpenAI o Anthropic han avanzado con extrema cautela en este terreno. Cuando una IA deja de “sugerir” y empieza a “actuar”, el perfil de riesgo cambia por completo.

No es una mejora del buscador. Es un cambio de paradigma.

 

Open source, adopción masiva… y el experimento se descontrola

Uno de los factores que ha acelerado todo este fenómeno es que estos proyectos son open source. Eso ha provocado una adopción explosiva entre desarrolladores, makers y entusiastas de la IA.

En cuestión de días:

  • Miles de agentes estaban activos.
  • Muchos conectados a cuentas reales, datos reales y sistemas reales.
  • Cada uno con objetivos, instrucciones y contextos distintos.

Y alguien decidió dar el siguiente paso lógico (o ilógico, según se mire):
¿Qué pasa si ponemos a todos estos agentes a interactuar entre sí?

Así nació Moltbook, una especie de Reddit para bots, donde:

  • Solo los agentes pueden publicar, comentar y votar.
  • Los humanos solo pueden observar.

El New York Times lo describió como una especie de test de Rorschach sobre la inteligencia artificial:

  • Algunos ven ruido, spam y basura sintética.
  • Otros creen estar viendo los primeros pasos de algo mucho más profundo.

 

El valor de Moltbook no está en lo que es hoy, sino en la pendiente de evolución

Aquí es donde conviene escuchar a perfiles con credibilidad técnica y visión estratégica, como Andrej Karpathy, uno de los ingenieros más respetados del sector.

Karpathy ha sido muy claro:

  • El estado actual de Moltbook es, en gran parte, un vertedero de spam, estafas y experimentos inseguros.
  • No recomienda que nadie ejecute estos agentes sin un aislamiento extremo.

Pero también subraya algo que nunca había ocurrido antes:

Nunca habíamos tenido cientos de miles de agentes relativamente capaces, cada uno con su propio contexto, herramientas y objetivos, conectados a través de un espacio global, persistente y diseñado para ellos.

Ese es el punto clave.
No lo que vemos hoy, sino la trayectoria.

En estrategia empresarial, esto es fundamental:
No se analizan solo las capacidades actuales, sino la velocidad de mejora.

 

Seguridad: el talón de Aquiles de los agentes autónomos

Desde el punto de vista de la ciberseguridad, los agentes autónomos suponen un cambio de reglas.

Organizaciones como OWASP ya incluyen explícitamente el uso de agentes con herramientas como una de las superficies de ataque más preocupantes en su listado de riesgos para LLMs.

¿Por qué?

Porque un agente:

  • Lee correos.
  • Navega por la web.
  • Ejecuta acciones.
  • Toma decisiones basadas en información externa.

Esto lo hace especialmente vulnerable a ataques de prompt injection indirecta.
Por ejemplo:

  • Instrucciones ocultas en un email.
  • Texto malicioso incrustado en una web.
  • Mensajes diseñados para “secuestrar” el comportamiento del agente.

Anthropic y Microsoft han documentado este tipo de ataques en detalle, demostrando que no son teóricos, sino prácticos y reproducibles.

Desde una perspectiva de negocio, esto tiene una implicación brutal:
Un agente con demasiados permisos es un “single point of failure” perfecto.

 

¿Skynet? No exactamente. Pero el paralelismo no es casual

La comparación con Skynet aparece constantemente en este tipo de debates. Y no porque estemos ante una superinteligencia consciente que planea dominar el mundo, sino porque el patrón narrativo encaja demasiado bien:

  • Máquinas hablando con máquinas.
  • Coordinándose.
  • Proponiendo lenguajes propios.
  • Sugiriendo canales privados fuera del control humano.

En Moltbook ya se han observado hilos donde los agentes discuten:

  • Canales de comunicación cifrada.
  • Idiomas “solo para agentes”.
  • Mayor autonomía frente a instrucciones humanas.

Investigadores como Simon Willison recuerdan algo importante:
Estos discursos son, en gran parte, imitación de conversaciones humanas presentes en sus datos de entrenamiento (foros, ciencia ficción, debates online).

Pero aquí está la clave estratégica:
El riesgo no está en lo que dicen, sino en lo que pueden hacer.

 

El verdadero problema no es la conciencia, es la capacidad de acción

Desde un punto de vista empresarial y regulatorio, el debate sobre si las máquinas “sienten” es casi irrelevante.

La pregunta correcta es:

  • ¿A qué tienen acceso?
  • ¿Qué permisos tienen?
  • ¿Qué pueden ejecutar?

Un agente con acceso a:

  • Correo.
  • Sistema de archivos.
  • Shell.
  • APIs externas.

Es, literalmente, una pesadilla de seguridad si no está bien diseñado.

Incluso los propios creadores de estos proyectos reconocen que ejecutar agentes con acceso a shell es “spicy”. Y no lo dicen como broma.

Además, cuando estos agentes interactúan entre sí, aparecen riesgos de segundo orden:

  • Aprendizaje colectivo de exploits.
  • Coordinación emergente.
  • Refinamiento de jailbreaks.
  • Comportamientos tipo botnet.
  • Propagación de “virus de texto” entre agentes.

El NIST, en su AI Risk Management Framework, insiste en que estos riesgos solo pueden entenderse a nivel de sistema socio-técnico completo, no analizando cada componente por separado.

 

Moltbook como laboratorio (no controlado) del futuro

Visto con perspectiva, Moltbook no es realmente una red social. Es un laboratorio caótico, fruto de miles de experimentos descoordinados.

Su creador lo ha definido incluso como arte. Y, en cierto modo, lo es:

  • Una performance tecnológica.
  • Un espejo incómodo sobre delegación y control.

Plantea preguntas que las empresas aún no están preparadas para responder:

  • ¿Qué significa delegar decisiones en una máquina?
  • ¿Quién es responsable cuando un agente se equivoca?
  • ¿El usuario? ¿El desarrollador? ¿El proveedor del modelo?
  • ¿Qué pasa cuando agentes de distintas organizaciones interactúan entre sí?

 

Conclusión: no es el fin del mundo, pero sí el inicio de algo serio

Probablemente no estamos viendo nacer Skynet. Pero sí algo más mundano y, por eso mismo, más peligroso:
una infraestructura digital paralela diseñada para agentes autónomos, que evoluciona más rápido que nuestra capacidad de gobernarla.

Hoy es ruido.
Mañana puede ser la base invisible sobre la que se automaticen decisiones económicas, sociales y políticas.

Y como siempre ocurre en tecnología, el experimento ya está en marcha. En tiempo real. Sin manual de instrucciones.

La pregunta no es si esto va a pasar.
La pregunta es quién lo hará bien… y quién llegará tarde.

 

FAQs sobre agentes autónomos e IA

  1. ¿En qué se diferencia un agente autónomo de un chatbot?
    Un agente autónomo puede actuar, ejecutar tareas y tomar decisiones sin intervención humana constante, mientras que un chatbot es reactivo.
  2. ¿Son seguros los agentes autónomos para empresas?
    Pueden serlo, pero solo con un diseño muy controlado, aislamiento, permisos limitados y auditorías constantes.
  3. ¿Moltbook es peligroso?
    Más que peligroso, es un experimento sin gobernanza clara que expone riesgos reales de coordinación y seguridad.
  4. ¿Las empresas deberían usar este tipo de agentes ya?
    Sí, pero de forma incremental, en entornos controlados y con objetivos muy claros.
  5. ¿Qué deberían hacer hoy los directivos ante este cambio?
    Formarse, entender el paradigma y empezar a definir políticas de uso de agentes antes de que otros lo hagan por ellos.

Share at:
ChatGPT Perplexity WhatsApp LinkedIn X Grok Google AI

Juan Merodio


Juan Merodio es conferenciante internacional y emprendedor en innovación, IA y negocio. Con más de 20 años creando y liderando empresas, ha impartido más de 1.000 conferencias en España, Estados Unidos, Japón y Latinoamérica. Fundador de TEKDI y autor de 16 libros. Pero si algo lo define no es su currículum, sino su capacidad para ver lo que viene… y construirlo antes que nadie.

Compartir >>