¿Cómo identificar cuando la inteligencia artificial inventa información?

En el último año, la inteligencia artificial se consolidó como una herramienta innovadora para impulsar los aprendizajes, pero también desató un intenso debate sobre las desigualdades que genera en el ámbito educativo. Las plataformas que operan con algoritmos predictivos tienden a reproducir los sesgos presentes en sus datos de entrenamiento, favoreciendo información del norte global y dando lugar a errores que pueden estigmatizar a las personas por su origen étnico, género, orientación sexual, capacidades físicas o ideologías políticas. Por su parte, la inteligencia artificial generativa produce información sin respaldo en datos reales o fidedignos, repitiendo errores o inventando contenido para llenar vacíos en sus respuestas, lo que puede distorsionar la comprensión de quienes la utilizan. Mientras los estudiantes con una alfabetización informacional avanzada pueden beneficiarse de las herramientas generativas, aquellos que no logran superar la brecha digital se ven en desventaja frente a las potenciales alucinaciones de la inteligencia artificial. “En Argentina, la mayoría de los jóvenes carece de las competencias digitales básicas para interactuar de manera efectiva con la inteligencia artificial. Esta situación se presenta incluso en familias de nivel socioeconómico medio o alto, cuando la falta de capital cultural limita su capacidad para abordar estas tecnologías de manera crítica”, explica Alejandro Artopoulos, profesor e investigador de la Escuela de Educación de la Universidad de San Andrés.
En un artículo publicado recientemente en Revista Diálogo Educacional, Artopoulos y Alejandra Lliteras, investigadora de la Universidad Nacional de La Plata, identifican los desafíos cognitivos que plantean los resultados ambiguos de la inteligencia artificial generativa. A partir de ello, exploran la posibilidad de desarrollar una alfabetización crítica que permita a los estudiantes identificar y comprender las alucinaciones de esta tecnología. Al mismo tiempo, en una investigación presentada por los autores en Trayectorias Universitarias, evaluaron tres herramientas de procesamiento de lenguaje, dos sin inteligencia artificial y una de inteligencia artificial generativa, para analizar la obra “La Casa de Bernarda Alba” de Federico García Lorca. Las dos primeras herramientas les permitieron generar una nube de palabras con los términos más frecuentes en la obra y diagramar una red de interacciones entre sus personajes. La tercera, un chat de inteligencia artificial generativa, fue utilizada para determinar si proporcionaba información errónea. Al preguntarle distintos aspectos sobre los personajes de la obra, los investigadores descubrieron que uno de ellos no aparecía en las respuestas generadas, a pesar de estar presente en los resultados de las dos herramientas anteriores.
“Agudizar el sentido crítico respecto a los textos generados por la inteligencia artificial implica evitar la humanización de las máquinas probabilísticas. A diferencia de las herramientas clásicas de procesamiento de lenguaje de acceso abierto, la inteligencia artificial generativa opera como una caja negra”, explica Artopoulos. Por este motivo, los investigadores destacan la importancia de formar a docentes y estudiantes en competencias críticas. Actualmente, la mayoría de las capacitaciones en inteligencia artificial son puramente técnicas y no abordan los problemas de sesgos o alucinaciones. Además, las narrativas públicas que presentan a la inteligencia artificial como intrínsecamente democratizadora muchas veces ignoran cómo estas tecnologías pueden perpetuar desigualdades. “La inteligencia artificial es comparable a la energía nuclear. Esta tecnología poderosa es capaz de transformar conflictos, curar enfermedades y actuar como una fuente de energía económica. Sin embargo, si no la utilizamos adecuadamente, podríamos enfrentar escenarios más graves que los que teníamos originalmente”, concluye el investigador de UdeSA.