La máquina imperfecta, hablamos de la IA

El profesor Fernando Bordignon será nuestro próximo invitado en el seminario permanente que programa todos los años el GICID (Grupo de Investigación en Información y Comunicación Digital), de la Universidad de Zaragoza. Aprovechamos su breve estancia en España para que nos presente una de sus líneas de investigación alrededor de la inteligencia artificial. No es un relato complaciente, pero provoca una actitud crítica frente al entorno inmersivo de la IA. Se trata de una mirada relacional, pues viaja en la exploración de las relaciones entre la inteligencia humana y la IA.

La aparición del servicio ChatGPT en noviembre de 2022, trajo y repuso una diversidad de miradas y discusiones acerca de la inteligencia artificial y sobre todo de aquello que es la novedad en sí mismo, la inteligencia artificial generativa (IAG). Desde la mirada socio técnica nada novedoso, tanto quienes lo celebraron acríticamente hasta quienes se posicionaron como detractores de lo nuevo. Con el correr de los meses, el período de sobre expectación ha sido recorrido y hoy podemos pensar más tranquilamente (fuera de este tsunami tecnológico) y observar las apropiaciones del “algoritmo que aprendió a narrar”.

Máquinas imperfectas por naturaleza

En este corto tiempo en el que se ha interactuado y evaluado las nuevas aplicaciones de la IAG, se observan diferentes tipos de fallas. Algunas proceden de los datos de entrenamiento, en particular por los sesgos que contienen. La situación se agrava cuando se comprueba que no existe comprensión sobre las relaciones internas que el modelo aprendió, porque se conduce por la pura mecánica probabilística. Al no existir comprensión, tampoco existe manejo del conocimiento.

Estas fallas tienen diferentes formatos según el tipo de aplicación que se utilice. Si se trata de un objeto visual o auditivo, la distorsión se manifiesta en aspectos sustanciales de la obra, por ejemplo, Dall-e ha pintado humanos con seis dedos en una mano. En otras ocasiones como la generación de contenidos, que pueden pasar inadvertidos para el usuario, algunos textos producidos artificialmente son descripciones inexistentes, llamadas alucinaciones, como reflejan determinados estudios como el de Woody (2023) que sitúan la tasa de alucinaciones entre un 15% y un 20 %.

Algunas preguntas incómodas

En este sentido, surgen algunos interrogantes (Bordignon, Dughera y Tolosa, 2023), por ejemplo, si la respuesta infringe derechos de autor y un usuario lo utiliza en un trabajo, ¿quién es el responsable: el usuario o la compañía que provee el servicio de IAG? Más aún, si se usa un servicio de pago (ya existen), ¿qué tipo de contrato relaciona a los usuarios con estos respecto de estas obligaciones?

Otra propuesta está dirigida a maestros para brindar formación personalizada a sus diferentes estudiantes usando la IA para planificar las lecciones de acuerdo al nivel y características de cada uno (Gates, 2023). Nuevamente, esta es otra situación en la cual un sistema de IAG podría ayudar, pero también complicar (¿qué sesgos pueden incluirse en el material personalizado a cada estudiante? O incluso ¿Qué nivel de desarrollo del pensamiento crítico necesitan estos estudiantes para poder validar la información provista, detectando, sesgos, errores y alucinaciones?).

No están claros los límites de los potenciales perjuicios que pueden estar asociados al uso de la IAG por lo que se precisa que los sistemas sean explicables (puedan mostrar cómo llegaron a la respuesta), transparentes (se conozcan los datos utilizados para el entrenamiento), imparciales e inclusivos (minimicen/eliminan los posibles sesgos).

Como respuesta, la comunidad científica ha definido el concepto de “IA Responsable”, la cual persigue que el uso de estas tecnologías no perjudique a las personas ni a la sociedad. En este sentido, se reconoce que la intervención humana es necesaria tanto en la fase de entrenamiento, como en la prueba de modelos (human in the loop), con el fin de producir mejores respuestas sobre la base de un ciclo de retroalimentación.

Fernando Bordignon. Profesor asociado regular e investigador de la Universidad Pedagógica Nacional de Argentina

Referencias

Bordignon, F., Dughera, L., & Tolosa, G. (2023). IAG y el momento de las máquinas imperfectas. Hipertextos, 11(19), 069. En  https://doi.org/10.24215/23143924e069

Gates, B. (2023). The Age of AI has begun. Artificial intelligence is as revolutionary as mobile phones and the Internet. En https://www.gatesnotes.com/The-Age-of-AI-Has-Begun

Woody, A. (2023). Hallucinations, Plagiarism, and ChatGPT. Datanami. En https://www.datanami.com/2023/01/17/hallucinations-plagiarism-and-chatgpt/

Artículo anterior
José Antonio Gabelas
José Antonio Gabelas
José Antonio Gabelas-Barroso. Profesor titular de la Universidad de Zaragoza. Creador del Factor Relacional y las TRIC (Tecnologías de la Relación, Información y Comunicación).

ARTÍCULOS RELACIONADOS

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

ARTÍCULOS RELACIONADOS