Después de tanto estira y afloja, de postergar globalmente lo que debía suceder, se llegó este pasado octubre 2023 a la aprobación de la primera ley integral de inteligencia artificial del mundo. Esto sucedió en Europa (Bruselas), y lo que esta ley busca es proporcionar certeza legal y técnica a ciudadanos y empresas, estableciendo obligaciones y normas para el uso de la inteligencia artificial. Es posible que los legisladores consideren la atención a controversias morales y éticas como un subproducto de la misma legislación. Además, pretende ser flexible y adaptable a funciones o tecnologías aún desconocidas o amoldable a los cambios que experimenten las ya existentes. Suena bien, aunque a este día todo ha sido a grandes rasgos y la letra pequeña aún no se ha publicado. Queda claro que desean establecer sanciones a los infractores y que buscan delimitar con mucha claridad lo que se considerará fuera de la ley. De entrada, las herramientas como el ChatGPT y las verificaciones de tipo biométrico (como el reconocimiento facial, por ejemplo) son de las que más área gris han dejado por resolver debido al grado de complejidad que arrojan en su aplicación. Por ejemplo, crear bases de datos a partir de reconocimientos faciales para vincular individuos con su religión, afiliación política, orientación sexual, etnia; un recurso utilizado en la actualidad por corporaciones y gobiernos en algunos países para discriminar empleo, servicio e incluso proveeduría.
Ya que el tema está en la mesa, aquí una imagen con un mapa que muestra el número de legislaciones relacionadas con IA por país:

Tomando en consideración que estos números son a 2022, sorprende ver a Brasil y a Argentina aunque sea con menos de cinco leyes (a la par que Canadá). México, nulo en este apartado, a pesar de la vecindad con Estados Unidos, líder en la materia.
Los factores que la Ley de Inteligencia Artifical tendrá como objetivo regular serán:
1. La calidad de datos (incorruptos y veraces)
2. La transparencia sobre la utlización de esta herramienta.
3. La supervisión humana sobre la tecnología IA
4. La responsabilidad sobre la tecnología IA
No es un paquete fácil ni pequeño. Es abordar un espectro amplio y vasto de información, de casos y sobre todo, de criterios que afectan amplias áreas de interés como lo son la educación, la atención médica, energía, finanzas y el mismo sector tecnológico.
Atrás quedaron los tiempos visionarios y especulativos de Asimov en 1942 cuando estableció las tres leyes de la robótica. En nuestros días estamos expuestos a una orden de avance y progreso tecnológico que relega a las generaciones lectoras del mismo Asimov y las obliga a correr o ser asimiladas, quizás aplanadas ante los algoritmos discriminantes de la actualidad.
Estas leyes deberían atender el concepto de ética en la IA en el respecto de predictibilidad, puesto que resulta difícil verificar lo que una máquina está tratando de hacer. Pueden haber fallas de programación o de criterio y éstas podrían ser provocadas con premonición por parte de un humano. El robot carece de cognición, es el hombre quien lo instruye acorde a su propia cognición ética, pero al final, ¿cómo demostrar la responsabilidad indirecta de un robot que simula aprendizaje y razonamiento?
Esta ética se refiere al concepto conocido como «sesgo algorítmico», el cual ocurre cuando un sistema informático refleja los valores de los humanos implicados en la codificación de sus algoritmos. Estos sesgos pueden ser entrenados a discrminar sistemática e injustamente a las personas. Empieza con algo tan simple como una red social que arroja publicidad de productos y servicios determinados a un segmento particular vinculado con la etnia o preferencia sexual meta. Esto puede activar una bandera que evolucione en otras implicaciones que eventualmente criban a los usuarios y los exponen a movimientos sociales o religiosos de ultraderecha o subversivos, de cuya existencia no habrían tenido idea sin la ayuda de este hilo generado por la IA.
Por lo pronto, llama la atención el desarrollo de una herramienta llamada «deepfake», la cual es un video o imagen modificado de una persona con el fin de retratar a alguien más. El término se originó desde el alias de un usuario de Reddit, quien en 2017 utilizó herramientas del dominio público para colocar artificialmente rostros de mujeres famosas en los cuerpos de actrices porno en videos para adultos. Eventualmente otro usuario publicó una app para que el público en general fuera capaz de crear sus propios videos deepfake. De esta forma, videos muy reales han sido creados, en muchos casos con el afán subrepticio de engañar y desorientar al público en temas políticos y sociales. El principal ejemplo es el deepfake de Obama junto al presidente iraní Hassan Rouhani que el senador de Arizona, Paul Gosar, twiteó e hizo viral. Cuando su autenticidad fue rechazada y el senador fue increpado al respecto, él se limitó a contestar: «nunca dije que fuera real».
El apartado de derechos de autor ofrece un panorama preocupante, en especial en un país tan poco regulado como México. Cuando un ser humano crea una obra literaria tendrá ciertas inspiraciones e influencias, si son textuales, habrá de mencionarlas. La IA no se molesta en estas citas y toma oraciones de aquí y de allá para concretarlas en un solo texto que cumpla con la orden que haya recibido por parte del usuario. Es interesante la opacidad con la que la lógica del IA genera textos que parecerían originales, sin embargo, al presentarlos a otros humanos con mayor experiencia literaria, terminan inequívocamente detectados. Aún así, nos enfrentamos a estudiantes con una mayor posibilidad de plagio. Recaemos en que los profesores que administran las asignaturas cuenten con un alto nivel de compromiso académico y sean capaces de leerlos y discernir si fueron generados en un chatGPT.
México es un país en blanco en lo que respecta a regulación IA y preocupan las libertades con las que empresas, gobiernos y delincuencia organizada pueden operar. Como población, nos encontramos en plena vulnerabilidad para ser discriminados, elegidos como blanco, segregados, manipulados, agrupados, engañados. No hay consecuencias ni responsabilidades para nadie. Ni siquiera reprimendas. ¿Fue alguien víctima de un abuso a través de IA? Antes de que pueda recibir ayuda, los demás dirán: «por dormido te pasó, ya ni modo.» Estamos a tiempo de cambiar los escenarios y evitar reactividad. El último esfuerzo que hubo fue en mayo de 2023 y fue sólo una propuesta de ley sin ningún avance reciente a inicio de 2024.
