¡Alerta! Criminales están hackeando las vibras con IA como nunca antes, según Anthropic

Aunque Anthropic, una empresa que trabaja con inteligencia artificial, puso un montón de candados y protecciones, los hackers se las ingeniaron para usar su chatbot Claude y hacer ciberataques bien pesados.

En un informe recién salido del horno, el equipo de seguridad de Anthropic contó que estos criminales no solo pedían consejos técnicos a Claude, sino que hasta usaban al chatbot para lanzar ataques directos, nomás con saber un poquito de programación y cifrado. Algunos ataques tenían rescates de hasta medio millón de dólares, ¡neta!

En febrero, una empresa de seguridad de blockchain llamada Chainalysis dijo que en 2025 las estafas para robar criptomonedas podrían explotar bien duro, porque la IA generativa las hace más fáciles y baratas de hacer.

Anthropic hasta agarró a un hacker que usaba a Claude para robar datos delicados de al menos 17 lugares, desde hospitales, servicios de emergencia, hasta instituciones religiosas y gubernamentales, y pedía rescates en Bitcoin que iban desde 75 mil hasta 500 mil dólares.

El hacker entrenó a Claude para que revisara registros financieros robados, calcular el rescate justo y hacer notas de amenaza bien personalizadas para presionar mejor a las víctimas. Aunque Anthropic logró bloquear a ese hacker, el chisme muestra que la IA está ayudando hasta a los que saben poco para hacer crímenes cibernéticos en un nivel que no se había visto antes.

Según ellos: “Ahora hay actores que ni siquiera entienden bien el cifrado o cómo funcionan las cosas técnicas, pero ya están haciendo ransomware con trucos para evitar que los caches y con técnicas anti-análisis”.

¿Y sabes qué más? Resulta que empleados de TI de Corea del Norte también le han estado sacando jugo a Claude. Lo usaban para crear identidades falsas bien creíbles, pasar pruebas técnicas de codificación, y hasta para conseguir chambas remotas en empresas gringas bien pesadas, hasta en las de la lista Fortune 500. También usaban a Claude para preparar respuestas chidas en las entrevistas y para hacer el trabajo técnico una vez adentro. Todo esto para mandarle lana al régimen norcoreano, saltándose las sanciones.

A principios de agosto, uno de esos trabajadores fue contra-hackeado y se descubrió que un equipo de seis personas usaba mínimo 31 identidades falsas. Tenían todo el kit: documentos de identidad, números de teléfono, cuentas de LinkedIn y UpWork para que nadie supiera quiénes eran y pudieran agarrar empleos en el mundo de las criptos.

Uno de ellos hasta se echó una entrevista para ser ingeniero full-stack en una empresa llamada Polygon Labs. También les encontraron respuestas guionizadas donde decían tener experiencia en OpenSea (un marketplace de NFTs) y en Chainlink, que es un proveedor de oráculos para blockchain.

Anthropic dice que su informe es para que el mundo de la seguridad en IA y toda la industria estén al tiro, y puedan defenderse mejor contra los que están usando mal esta tecnología.

Aunque pusieron medidas bien sofisticadas para evitar que use nadie a Claude para fines chuecos, los malos siguen encontrando cómo brincarse las barreras. Así está la cosa, banda. Hay que andar al tiro con estas nuevas tecnologías porque también son arma de doble filo.

Artículos relacionados

Respuestas