¡Circle sube la apuesta! Ahora quiere salir a bolsa con ¡896 millones de dólares y todos los inversionistas están que no creen!
Claro, aquí te va una versión sencilla, divertida y con un toque mexicano para conectar con jóvenes:
¿Por qué debemos ponerle ojo a la ética en la inteligencia artificial?
Hoy en día, las empresas usan cada vez más sistemas automáticos para tomar decisiones que antes hacían personas. Estos algoritmos deciden quién consigue trabajo, quién recibe un préstamo, quién tiene acceso a atención médica y hasta qué pasa en tribunales. ¡Eso está bien poderoso, pero también trae mucha responsabilidad! Si no hay reglas claras y principios éticos, la automatización puede hacer que las cosas sean injustas y dañen a la banda.
Cuando se deja la ética de lado, la bronca no es solo que la gente confíe menos en estas máquinas, sino que de verdad puede afectar la vida de muchas personas. Por ejemplo, sistemas que tienen prejuicios pueden negar préstamos, chambas o atención médica a ciertos grupos. Y si no hay límites, las malas decisiones pueden volar rápido sin que nadie pueda quejarse o entender qué pasó. Cuando no se sabe qué hace el algoritmo, los errores chiquitos se convierten en tremendas problemas.
¿Qué onda con el sesgo en la inteligencia artificial?
El sesgo o prejuicio en estas máquinas viene mucho de la información con la que se entrenan. Si los datos que les damos tienen discriminación o injusticias de antes, la máquina las va a repetir. Por ejemplo, si un programa para selección de personal aprendió con datos que favorecen a hombres, entonces va a rechazar a mujeres, personas de ciertas razas o mayores por edad, sin que nadie se dé cuenta. También puede haber sesgo en decisiones de diseño, como qué cosas medir o qué resultados buscar.
Hay distintos tipos de sesgo. Por ejemplo, el sesgo de muestra pasa cuando los datos no incluyen a todos los grupos (como si solo tomas en cuenta a un barrio y olvidas a otros), o el sesgo de etiquetas cuando alguien mete su opinión al clasificar la información. Hasta las decisiones técnicas, como qué tipo de algoritmo usar, pueden cambiar los resultados.
Y esto no es teoría loca. En 2018, Amazon tiró un programa para contratar gente porque favorecía a hombres. Otros sistemas de reconocimiento facial identifican mal a personas de color más que a personas blancas, lo que genera injusticias legales y sociales.
Un problema escondido es el llamado “sesgo por sustituto”. Aunque no se use directamente rasgos como la raza, otras cosas como el código postal o el nivel de educación pueden funcionar como sustitutos, provocando discriminación escondida. Esto se detecta solo con pruebas exhaustivas, aunque los casos de sesgo en IA van en aumento y dejan claro que debemos poner más atención.
Las leyes sí están entrando al quite
En Europa, la ley llamada AI Act, aprobada en 2024, pone a los sistemas de IA en categorías por riesgo. Los de alto riesgo —como los que deciden quién contratan o quién recibe crédito— tienen que seguir reglas bien estrictas: transparencia, control humano y revisiones de sesgo. En Estados Unidos no hay una ley única, pero ya andan al tiro agencias como la Comisión para la Igualdad en el Empleo (EEOC) y la Comisión Federal de Comercio (FTC), que avisan a las empresas que usar sistemas discriminatorios puede violar reglas.
La Casa Blanca lanzó un plan que sirve como guía llamado “Carta de Derechos para la IA”, que explica cinco puntos clave para usar la IA con seguridad y respeto: sistemas seguros, protección contra discriminación, privacidad, transparencia y siempre dejar la puerta abierta a que alguien explique o revise las decisiones.
Además, varios estados como California y ciudades como Nueva York ya están poniendo leyes que exigen auditorías para sistemas de IA, transparencia y que avisen a los candidatos cuando se usan estos sistemas para contratar.
Cumplir con las leyes no es sólo para evitar multas; también es para generar confianza entre usuarios y reguladores.
¿Cómo hacer que los sistemas sean más justos?
La ética no es algo que se pone de último momento, ni de milagro. Se tiene que planear desde el principio. Hay que fijar metas claras, elegir buena información y sumar a las personas correctas en el diseño.
Algunas cosas claves para lograrlo:
-
Buscar el sesgo: Hay que hacer checadas tempranas y constantes para detectar si hay decisiones injustas. Si pueden, los filtros y chequeos deben ser hechos por gente externa, para que sean objetivos y cuestionen todo.
-
Usar datos variados: Para que la máquina entienda a todos por igual, hay que darle datos de diferentes grupos, géneros, edades, partes del país, costumbres y maneras de hablar. Si el asistente de voz solo aprende de hombres, le va a fallar a las mujeres. Además, los datos tienen que estar bien revisados para no meter confusión.
-
Diseñar con inclusión: Es clave invitar a la gente afectada a opinar antes de lanzar sistemas. Grupos que defienden derechos, expertos y comunidades deben ser escuchados desde el principio. También los equipos deben ser diversos y tener expertos de distintas disciplinas para que vean riesgos que otros no notan.
Lo que algunas empresas ya están haciendo bien
No todo está perdido; algunas empresas y gobiernos ya están poniendo atención:
-
En Holanda, un sistema de impuestos acusó mal a unas 26,000 familias por fraude, afectando sobre todo a gente con doble nacionalidad o bajos recursos. Esto llevó a que el gobierno se tuviera que ir para su casa en 2021.
-
LinkedIn tuvo un rollo con sus algoritmos que daban preferencia a hombres para trabajos de liderato. Tras investigarlo, hicieron otro sistema para equilibrar las cosas y dar más oportunidades.
-
En Nueva York, la ley que regula el uso de IA en empleo obliga a hacer auditorías imparciales y avisar a los candidatos que usan estas tecnologías.
-
Aetna, una aseguradora, detectó que sus algoritmos retrasaban servicios a pacientes con menos dinero, y ajustó esas malas prácticas.
Estos ejemplos muestran que sí se puede corregir, con ganas, objetivos claros y rendición de cuentas.
¿Y qué sigue?
La automatización llegó para quedarse, pero para confiar en ella debe ser justa y tener reglas claras. El sesgo en IA puede hacer daño y traer problemas legales, por eso cumplir no es solo un trámite, sino hacer las cosas bien.
Ser éticos con la IA empieza por informarse, usar datos buenos, revisar todo seguido y diseñar con la gente correcta. Las leyes ayudarán, pero el verdadero cambio viene de las empresas que quieran hacer las cosas con cabeza y corazón.
¿Quieres conocer más? Checa eventos como el AI & Big Data Expo que se hacen en varios lados para aprender todo sobre inteligencia artificial y tecnología.
¡Así que ya sabes! La ética no es un lujo, es básico para que la tecnología funcione para todas y no sea un problema pa’ nadie.
¿Quieres que te eche paro con algo más?
Respuestas