¡La Base Blockchain Está a Punto de Lanzar su Propio Token Nativo, Según su Creador Jesse Pollak!

¡La Base Blockchain Está a Punto de Lanzar su Propio Token Nativo, Según su Creador Jesse Pollak!

Jason Jiang, director de negocios en CertiK, nos cuenta lo que piensa

Desde que las finanzas descentralizadas, o DeFi, empezaron a dar de qué hablar, todo ha sido pura innovación: desde los intercambios sin intermediarios (los llamados DEX) hasta prestamos, stablecoins y un chorro de cosas más.

Pero ahora lo nuevo es DeFAI, que es DeFi con inteligencia artificial incluida. Aquí, unos bots súper entrenados con montones de datos pueden hacer que todo funcione más rápido y bien: ayudar a hacer trades, manejar riesgos y hasta participar en decisiones importantes dentro de la comunidad.

Claro, como todo lo nuevo en blockchain, esto trae riesgos. DeFAI puede abrir puertas para que hackers se aprovechen si no le ponemos ojo bien. Por eso, hay que entender a fondo dónde pueden estar las vulnerabilidades para proteger a los usuarios.


DeFAI no es como los contratos inteligentes normales

Los contratos inteligentes en blockchain han sido bien sencillos: “Si pasa X, entonces hago Y”. Como son transparentes, cualquiera puede checarlos y auditar que no haya trampa.

Pero DeFAI es diferente. Los agentes con IA toman decisiones más complicadas, basadas en datos que cambian, la historia y el contexto. No sólo reaccionan, sino que se adaptan. Eso suena chido, pero también significa que pueden fallar o ser engañados, porque no todo es cien por ciento predecible.

Ya hay bots de trading en DeFi usando IA que buscan patrones en el mercado para hacer movimientos en segundos. Lo malo es que muchos dependen de tecnología aun centrada en sistemas tradicionales (Web2), y eso crea un punto débil en la cadena de bloques (Web3), donde se supone que no hay un jefe que pueda caer.


DeFAI abre nuevas puertas para ataques

No hay que dejarse llevar sólo por lo padrísimo que suena usar IA en estos sistemas, porque también puede crear nuevas formas para que los malos la rifen. Los hackers podrían manipular los datos con los que se entrenan los bots, envenenar la información o hacer ataques para que el bot tome malas decisiones.

Por ejemplo, un bot de IA que busca oportunidades para arbitraje entre DEXs puede ser engañado con datos falsos. Así el bot haría trades que no dejan ganancias o hasta vacíe alguna piscina de liquidez (los fondos que mantienen el mercado). Y si un bot es comprometido, puede engañar a todo un protocolo y abrir la puerta a ataques todavía peores.

Además, estos agentes con IA son como cajas negras: ni los propios desarrolladores siempre entienden bien qué rollo con sus decisiones. Eso choca con el espíritu de Web3, que es transparencia a toda madre.


La seguridad es tarea de todos, banda

Con todo esto, algunos piden hasta que se pare el avance de DeFAI para evitar broncas. Pero la neta, esto va a seguir creciendo y más gente lo va a usar. Por eso lo que necesitamos son nuevas reglas de seguridad donde todos: desarrolladores, usuarios y revisores externos, trabajen juntitos para evitar problemas.

Los bots de IA deben ser tratados igual que cualquier infraestructura en la cadena: con mucho cuidado y análisis. Eso implica revisar el código a fondo, hacer simulaciones de escenarios pesados y hasta ejercicios de “equipo rojo” para encontrar fallos antes que los malos. También es clave que todo sea lo más transparente posible — como abrir el código o hacer buena documentación.


Confianza más allá del código

Cuando los bots pueden mover tu lana, interactuar con contratos y hasta votar en decisiones importantes, la confianza ya no es sólo que el código se vea bien, sino saber qué onda con sus intenciones. Hay que pensar cómo asegurarnos que lo que un bot quiere hacer choca o encaja con tus metas, a corto y largo plazo.


¿Y ahora qué?

La salida está en combinar distintas técnicas. Por ejemplo, la criptografía de “pruebas de cero conocimiento” puede ayudar a verificar que los bots hagan lo correcto sin mostrar toda la información. También se pueden usar sistemas en la cadena para rastrear de dónde viene cada decisión y usar IA para auditar la IA.

Pero la realidad es que todavía no estamos del todo listos. Por ahora, lo mejor es revisar, probar y sacar a relucir todos los posibles errores antes de subirse a esta montaña rusa. Si vas a entrarle a DeFAI, checa que el protocolo sea transparente y esté bien auditado.


DeFAI puede ser seguro, pero cuidado con la prisa

DeFAI no es peligroso por naturaleza, pero sí es muy diferente a lo que ya conocemos en Web3. Si la gente se avienta sin reglas ni controles, esto puede terminar en desastre.

Pronto, estos bots de IA van a manejar activos, tomar decisiones y moldear sistemas. Por eso, la industria debe tener en mente que cada línea de código puede ser aprovechada por los malos si no se cuida.

Si vamos a jalar con DeFAI sin sacrificar la seguridad, hay que hacerlo con transparencia desde el principio. Si no, vamos a tener los mismos problemas que estábamos tratando de evitar con la descentralización.


Opinión de Jason Jiang, director de negocios en CertiK.

Este texto es para que te informes, no es consejo legal ni para invertir. Lo que aquí se dice es sólo la opinión del autor y no refleja necesariamente la postura de Cointelegraph.

Artículos relacionados

Respuestas