
El asistente de IA que promete hacerlo todo, y el precio de esa ambición
La última ola de entusiasmo por la inteligencia artificial no llegó con una interfaz elegante ni con un nombre corporativo cuidadosamente pulido. Llegó, curiosamente, con una langosta. Y ello dice mucho del momento que vive la tecnología: experimental, caótico, un poco irreverente.
Moltbot, antes Clawdbot, es un asistente personal de IA que en cuestión de semanas se volvió viral entre desarrolladores. Su promesa suena simple, casi desafiante: no solo responde, hace cosas. Agenda reuniones, envía mensajes, gestiona tareas, ejecuta acciones reales dentro del sistema del usuario. En un ecosistema lleno de chatbots que hablan bonito pero se quedan quietos, esa diferencia pesa. Además, genera una mezcla extraña de fascinación y desconfianza, como ver a alguien conducir sin manos: impresionante… pero inquietante.
El proyecto empezó como algo íntimo. Casi doméstico. Su creador, Peter Steinberger, desarrollador austríaco conocido como @steipete, llevaba años desconectado después de dejar su empresa anterior. Él mismo ha contado que sentía una especie de vacío creativo, como si el motor se hubiera apagado. Volver a experimentar con modelos de lenguaje fue, en sus palabras, una chispa inesperada. De ahí nació Clawd, su “asistente con caparazón”: una herramienta pensada para organizar su propia vida digital y, de paso, explorar hasta dónde podía estirarse la colaboración entre humano e IA.
El nombre, sin embargo, no sobrevivió al éxito. Steinberger, admirador declarado del modelo Claude, eligió un juego de palabras que terminó chocando con la realidad legal. Anthropic, la empresa detrás de Claude, no lo vio como un homenaje inocente. El cambio de marca fue inevitable. La identidad cambió; la idea central, no.
El atractivo: una IA que no solo sugiere, sino ejecuta
Para quienes lo probaron temprano, Moltbot no es simplemente otro experimento open source. Se siente más como un adelanto del futuro. No se limita a generar texto o código: toca aplicaciones reales, ejecuta comandos, toma decisiones operativas. Es el salto de “te recomiendo” a “lo hago por ti”. Y ese matiz cambia todo.
Ese potencial explica su crecimiento explosivo: más de 44.000 estrellas en GitHub en semanas. Y es que el entusiasmo se filtró fuera del nicho técnico. El ruido en redes fue tan fuerte que incluso tuvo ecos financieros: las acciones de Cloudflare subieron tras renovarse el interés por su infraestructura, que muchos usan para ejecutar Moltbot localmente. No es que el bot mueva mercados por sí solo, claro. Pero funciona como termómetro de hacia dónde se está inclinando la conversación tecnológica.
El problema: cuando “hacer cosas” implica acceso total
Aquí es donde la historia se vuelve menos romántica.
Un asistente que realmente “hace cosas” necesita permisos profundos. Y eso, en seguridad informática, es terreno resbaloso. Varios inversores y expertos en ciberseguridad han advertido que permitir a un modelo ejecutar comandos abre la puerta a ataques indirectos. Algo tan cotidiano como un correo o un mensaje podría contener instrucciones maliciosas disfrazadas. Y es que, si la IA tiene las llaves de la casa, cualquier susurro equivocado puede convertirse en una orden.
El riesgo no es hipotético. Un mensaje manipulado podría desencadenar acciones invisibles para el usuario. La arquitectura abierta del proyecto permite auditar el código y ejecutarlo localmente reduce la dependencia de la nube, lo cual ayuda. Pero no elimina la tensión de fondo: autonomía sin aislamiento es una invitación al desastre.
Por eso, los desarrolladores más cautelosos recomiendan ejecutar Moltbot en entornos aislados, con cuentas desechables o servidores virtuales. Es una solución razonable… aunque irónicamente contradice la idea original de un asistente integrado en la vida diaria. Es como tener un mayordomo brillante al que solo puedes dejar entrar a una habitación vacía.
Viralidad, comunidad y riesgos colaterales
El propio Steinberger experimentó el lado áspero de la fama tecnológica. Durante el cambio de nombre, aparecieron proyectos falsos y estafas cripto que usaban su identidad. El episodio fue un recordatorio incómodo: en el ecosistema digital actual, la innovación viaja a velocidad de vértigo, pero las protecciones siempre llegan tarde. Y cuando algo se vuelve viral, también se vuelve vulnerable.
Un anticipo del futuro, todavía incompleto
Moltbot no está listo para el usuario promedio. Y quizá no tenga que estarlo todavía. Su valor no está en la adopción inmediata, sino en lo que revela: que los agentes de IA ya pueden cruzar la frontera entre lo espectacular y lo verdaderamente útil.
El reto ahora no es solo técnico, sino cultural y estructural. Encontrar un equilibrio entre poder y seguridad requerirá acuerdos, estándares y límites que aún no existen. Aun así, al construir una herramienta para resolver su propio problema, Steinberger abrió una puerta importante. Mostró cómo podría verse una IA que no solo entiende instrucciones, sino que actúa en el mundo digital.
El futuro de los asistentes inteligentes no se decidirá por lo bien que conversen. Se decidirá por cuán responsables seamos al entregarles control. Y esa, la verdad, es una conversación que apenas empieza.


