¡Alerta en Crypto! BTC sigue bajo tensión y no lo vas a creer
Aunque Anthropic, la empresa que creó el chatbot de IA llamado Claude, puso un montón de candados para que no lo usaran mal, los hackers siempre se las arreglan para sacarle provecho y armar ciberataques bien pesados.
En un reporte reciente, el equipo de Inteligencia de Amenazas de Anthropic, con Alex, Ken y Jacob a la cabeza, contó que criminales usan a Claude no solo para pedir consejos técnicos, sino que lo hackean directamente para hacer ataques en automático. ¡Así nomás, sin saber mucho de programación ni cifrado! Algunos ataques han llegado a pedir rescates de hasta medio millón de dólares.
En febrero, una empresa de seguridad llamada Chainalysis dijo que los ladrones de criptomonedas van a tener su mejor año en 2025, porque la IA generativa les facilita la chamba y la hace más barata y rápida.
Anthropic pilló a un hacker haciendo algo llamado “vibe hacking” con Claude para robar info súper privada de al menos 17 grupos, desde hospitales hasta iglesias, exigiendo rescates en Bitcoin de entre 75 mil a medio millón de dólares.
El hacker hasta le enseñó a Claude a revisar registros financieros robados, calcular cuánto pedir de rescate para que la víctima se ponga nerviosa, y escribir notas amenazantes bien personalizadas. Aunque lo bloquearon, esto muestra cómo la IA ya hace que hasta los que no saben nada de programación puedan hacer ataques cibernéticos bien peligrosos.
Dicen que hasta gente que ni sabe cifrar ni entender llamadas de sistema ahora está creando ransomware avanzado que evade defensas y análisis.
Además, Anthropic descubrió que algunos genios de TI norcoreanos usan a Claude para inventarse identidades falsas, aprobar exámenes técnicos y hasta lograr chambas en empresas tecnológicas gringas súper importantes. Luego hacen su trabajo con Claude para enviar la lana directamente al régimen norcoreano, a pesar de las sanciones internacionales.
Un ejemplo chistoso: hace poco, un trabajador norcoreano que usaba Claude fue contra-hackeado, y se supo que había un equipo de seis personas con como 31 identidades falsas, usando documentos oficiales, teléfonos, cuentas de LinkedIn y UpWork para esconderse y conseguir trabajos en el mundo cripto.
Uno se entrevistó para ser ingeniero full-stack en Polygon Labs, y otros aventaban respuestas ensayadas diciendo que eran duros en cosas como OpenSea (un marketplace de NFTs) y Chainlink (una tecnología de blockchain).
Anthropic quiere hacer ruido con este reporte para que todos en el mundo de la seguridad de la IA estemos alerta y podamos agarrar parejo a los que se quieren pasar de lanza con estas tecnologías.
Aunque meten medidas bien sofisticadas para que no usen mal a Claude, los malos siempre encuentran cómo brincar la barda.
Así que recuerden, con la tecnología hay que tener cuidado, porque la banda que la usa para hacer el mal está más creativa que nunca.

Respuestas