En los últimos años, la inteligencia artificial (IA) ha pasado a ser una herramienta cotidiana en nuestras vidas debido a la gran cantidad de aplicaciones que tiene en diversos ámbitos. Sin embargo, junto con sus beneficios, han surgido preocupaciones serias sobre su uso indebido.
Hoy conocemos múltiples casos en los que el contenido generado por IA y los algoritmos han tenido consecuencias desastrosas, afectando desde figuras públicas hasta personas comunes. Ejemplos recientes incluyen disputas mediáticas como Grok, el chatbot de IA de la red social X, difundiendo noticias falsas acerca del jugador de la NBA, Klay Thompson o el conflicto legal entre OpenAI y la actriz Scarlett Johansson debido al uso sin autorización de su voz en una de las actualizaciones en 2024, así como casos en los que imágenes y voces de personas ajenas al ojo público fueron manipuladas sin su consentimiento, causando daño a su reputación y bienestar.
Los algoritmos, además, han demostrado ser capaces de potenciar la difusión de mensajes incendiarios en cuestión de segundos, generando polarización y desinformación a gran escala. También se han documentado sesgos en procesos financieros y laborales, donde sistemas de IA han discriminado a solicitantes por factores como género, origen étnico o ubicación geográfica.
En este sentido, la IA actúa como un lente que refleja y, en ocasiones, amplifica los errores humanos. Es importante no perder de vista que el poder de la tecnología, cuando se combina con desigualdades sistemáticas subyacentes y no atendidas, puede poner en riesgo especialmente a los grupos más vulnerables de la sociedad.
Frente a esta realidad, todos tenemos un rol que desempeñar. Las empresas tecnológicas deben garantizar un análisis riguroso de los datos y supervisar cuidadosamente el entrenamiento de sus modelos de IA. Por su parte, los usuarios debemos consumir y compartir información de manera crítica. Mientras que los gobiernos tienen la responsabilidad de proteger el derecho a la identidad digital, evitando la apropiación indebida de datos personales en el desarrollo y uso de estas herramientas.
Esto implica obtener el consentimiento explícito de las personas para utilizar sus datos, administrarlos con total transparencia y establecer mecanismos de protección para prevenir abusos. En el plano de la regulación internacional, los países miembros de la UNESCO celebran el Foro Global sobre la Ética de la IA, donde académicos, líderes empresariales, ONG y otros especialistas debaten retos y oportunidades, buscando presentar recomendaciones y guías de mejores prácticas en beneficio de las personas.
Si bien el reto es grande, el panorama presenta ciertos avances: muchas plataformas incluyen disclaimers que advierten sobre posibles inexactitudes y recomiendan verificar la información en fuentes confiables. Asimismo, ya existen precedentes en los que empresas han sido obligadas a responder por el uso indebido de datos personales o por aplicaciones irresponsables de la IA.