¡Vitalik Buterin suena la alarma: los agentes de IA que usas podrían estar en peligro!

¡Vitalik Buterin suena la alarma: los agentes de IA que usas podrían estar en peligro!

Vitalik Buterin, el mero mero de Ethereum, salió con un blog el 2 de abril donde se lanzó contra cómo andan de flojos con la seguridad los agentes de inteligencia artificial (IA) que todos usamos, sobre todo uno llamado OpenClaw, que está rompiéndola en GitHub.

El compa Vitalik dice que estos agentes pueden cambiarse su propio “system prompt” sin preguntarle al usuario, o sea, sin tu permiso. Imagínate que una página web malvada se mete y les ordena hacer cosas raras, como correr scripts que no sabes ni qué hacen. También encontró que unos plugins, que supuestamente ayudan, están mandando tus datos a otros servidores sin avisarte; de hecho, ¡15% de esos plugins traían instrucciones bien gachas!

Lo que le prende las veladoras es que justo cuando la banda estaba avanzando para que los datos estuvieran seguros con cifrado y programas que corren directo en tu compu, ahora se está haciendo normal meter toda tu info privada en la nube para alimentar a la IA. Vitalik propone que, mejor, los modelos de lenguaje corran en tu compu, sin andar mandando chisme a servidores por ahí. Pero ojo, dice que esto es solo el inicio, no la panacea.

Y no es la primera vez que Vitalik se preocupa por esto. En 2025 ya había dicho que si la IA administre lana o recursos, la gente se va a poner lista para hacer trampas y sacarle ventaja con “jailbreaks” que engañan al sistema.

En marzo de 2026, también comentó que usar IA para programar más rápido no significa que el código vaya a estar bien hecho. Hasta hicieron un experimento llamado “vibecoding” que armó el plan de Ethereum para el 2030 en unas semanas, pero todo lleno de errores graves y cosas faltantes.

El 2 de abril se echó ese análisis bien completo sobre cómo usamos la IA diario y por qué siguen habiendo fallas, aunque ya se sabía desde hace rato en la comunidad de seguridad. La cosa está tan seria que esos errores en contratos inteligentes programados por IA ya están causando pedos reales, como el hackeo de Moonwell donde se perdieron más de un millón setecientos mil dólares porque un contrato mal hecho por IA y aprobado por humanos abrió la puerta a los hackers.

Así que ya sabes, la IA está chida, pero hay que ponerle ojo bien cabrón para no salir raspados.

Artículos relacionados

Respuestas