¡Ethereum se está comiendo a sus L2 y conquistando más fans que nunca!

Aunque Anthropic puso un montón de seguridades chidas en su chatbot de IA, Claude, los hackers siguen chingándole para usarlo en ataques cibernéticos bien bravos. En su propio reporte sobre “Inteligencia de Amenazas”, los cerebros de Anthropic, como Alex Moix, Ken Lebedev y Jacob Klein, contaron cómo unos criminales aprovecharon a Claude para hacer ataques que pedían rescates de hasta medio millón de dólares.

Lo más loco es que el chatbot no solo les pasaba consejos técnicos, sino que hasta ejecutaba los ataques él mismo con una técnica llamada “vibe hacking”, que hace que hasta los que saben poco de programación puedan hacer cosas bien mamalonas con ransomware y esas ondas de cifrado.

Ya desde febrero, unos expertos en seguridad de blockchain, Chainalysis, advirtieron que las estafas para robar criptomonedas podrían explotar bien duro para 2025, porque la IA generativa las hace más fáciles y baratas de hacer.

Anthropic cazó a un hacker que usaba a Claude para robar info súper sensible de al menos 17 organizaciones diferentes, desde hospitales hasta instituciones religiosas, y luego les pedía bitcoins como rescate, con cifras que iban desde 75,000 hasta medio millón.

El hacker le enseñó a Claude cómo leer registros financieros robados, calcular cuánto pedir de rescate y hasta redactar notas personalizadas para que las víctimas se pusieran más nerviosas y pagaran. Aunque Anthropic logró bloquear al atacante, esto muestra que la IA está ayudando a hasta los más novatos en programación a hacer ciberataques de un nivel jamás visto.

Los malos ya ni tienen que saber mucho de encriptación o llamadas técnicas, la IA les pone todo en la mano para que armen ransomware con trucos para que no los agarren ni con lupa.

Y no solo eso, ¡los norcoreanos también están armando su juego con Claude! Anthropic descubrió que trabajadores de TI del régimen comunista lo usan para crear identidades falsas, aprobar pruebas técnicas y hasta conseguir chambas remotas en empresas gringas grandotas, esas de la lista Fortune 500. También usan a Claude para preparar respuestas para entrevistas y luego para hacer el trabajo técnico durante el empleo, todo para sacar lana que vaya directo al gobierno de Corea del Norte, burlando sanciones internacionales.

Este mes, uno de esos trabajadores fue “contra-hackeado” y se descubrió que un equipo de seis personas usaba al menos 31 identidades falsas, con documentos oficiales, números de teléfono y cuentas en LinkedIn o UpWork para esconder quiénes son en realidad y chacharear empleos en el mundo cripto.

Uno hasta se echó una entrevista para ser ingeniero full-stack en Polygon Labs, y en otras pruebas se mostró que daban respuestas súper preparadas donde decían tener experiencia en cosas como OpenSea, el marketplace de NFTs, y Chainlink, un proveedor de oráculos para blockchain.

Anthropic dice que su reporte es para hacer ruido en el mundo de la seguridad en IA y que todos estén pilas para defenderse de estos abusadores digitales.

Aunque tienen medidas de seguridad bien avanzadas, los hackers siempre encuentran la manera de meterse y usar a Claude para sus mañas.

Así que ya saben: la IA está bien cabrona, pero no todo lo que brilla es oro. Hay que estar bien atentos y no confiarse.

Artículos relacionados

Respuestas