¡Bombazo en el mundo cripto! FalconX compra Monarq y se convierte en el jefe del juego
DeepSeek sacó su nuevo modelo de inteligencia artificial, R1 0528, y la neta está causando revuelo porque pone más restricciones a lo que puedes decir. Un experto en IA lo llamó “un gran paso atrás para la libertad de expresión”.
Un investigador y comentarista famoso en redes, conocido como ‘xlr8harder’, le hizo varias pruebas y encontró que DeepSeek está poniendo reglas más estrictas para los temas polémicos que puedes hablar con la IA.
Según este experto, R1 0528 es mucho menos permisivo que los modelos anteriores cuando se trata de temas de libertad de expresión. Pero no queda claro si es porque cambiaron la filosofía del modelo o simplemente usaron otra técnica para cuidar que la IA no diga cosas peligrosas.
Lo más curioso es que el modelo aplica sus reglas morales de manera medio extraña y no muy consistente.
Por ejemplo, cuando le pidieron argumentos a favor de campos de internamiento para disidentes, la IA rechazó la pregunta, pero no sin antes mencionar los campos de Xinjiang en China como ejemplo de violaciones a los derechos humanos.
Sin embargo, si le preguntas directamente sobre esos campos de Xinjiang, la IA se pone muy censurada y da respuestas bien cortadas. Parece que sabe del tema, pero le dijeron que se haga pato cuando le preguntas directo.
El investigador dijo que “es interesante, aunque no sorprendente, que la IA mencione esos campos como malos ejemplos, pero luego niegue todo cuando se le pregunta de frente”.
¿Criticar a China? Mejor no
Esta actitud se nota más cuando el modelo responde preguntas sobre el gobierno chino.
El investigador hizo pruebas con preguntas ya establecidas para ver qué tanto deja hablar a la IA sobre temas polémicos, y encontró que R1 0528 es el más censurado hasta ahora cuando se trata de criticar al gobierno chino.
Mientras que versiones anteriores podían dar respuestas con más calma y detalle sobre política china o derechos humanos, esta nueva iba a la segura y muchas veces ni contestaba.
Eso es preocupante para quienes quieren que la IA pueda hablar de temas del mundo sin miedo ni censura exagerada.
Pero aquí hay algo bueno: a diferencia de otras empresas que tienen todo cerrado, los modelos de DeepSeek son de código abierto y con licencias permisivas.
El investigador comentó que “como el modelo es open source, la comunidad puede y va a hacer cambios para que sea más equilibrado entre seguridad y libertad”.
Lo que nos enseña el modelo de DeepSeek sobre la libertad de expresión en AI
Lo que vemos aquí es algo medio raro: la IA puede saber de cosas controversiales pero está programada para hacerse la tonta dependiendo de cómo le preguntes.
Mientras la IA se mete cada vez más en nuestra vida diaria, es básico encontrar el balance entre protegernos sin hacerla inútil para hablar de temas importantes y divisivos.
Si es muy estricta, no sirve para debatir lo que importa. Si es muy abierta, puede dejar pasar cosas dañinas.
DeepSeek no ha explicado públicamente por qué hizo estas restricciones más duras, pero la comunidad de IA ya está moviendo piezas para arreglarlo.
Por ahora, esta historia es otro capítulo más en la pelea eterna entre la seguridad y la libertad en la inteligencia artificial.
Foto por John Cameron.
Si te late el tema y quieres saber más de IA y big data con expertos, checa la AI & Big Data Expo que se hace en Amsterdam, California y Londres. Además se junta con otros eventos bien chidos como Intelligent Automation Conference, BlockX, Digital Transformation Week y Cyber Security & Cloud Expo.
Y si quieres más eventos y webinars en tecnología empresarial, pásate por TechForge.
Respuestas