Buscador UdeSA

Filtrar búsqueda por categorías
FuenteLa Nación

El escándalo de la inteligencia artificial

sosaescudero-ia-paper

“Agradezco especialmente a Daron Acemoglu, por su guía y apoyo”, escribe Aidan Toner-Rodgers en la primera nota al pie de su llamativo paper. Una jugada inicial que, a la luz de lo que sucedió, combina astucia y ambigüedad: al agradecer a un tótem como Acemoglu –último Nobel en Economía–, el autor reconoce la generosidad del mentor mientras sugiere, sutilmente, que el respaldo lo blinda. Porque, en el fondo, cuestionar su paper sería, en cierta forma, cuestionar también a Acemoglu. El que avisa no traiciona. ¿O sí?

Tal vez “la” pregunta más relevante de la actualidad se refiera al impacto de la inteligencia artificial (IA, de aquí en más), cuestión tan urgente como difícil de abarcar. ¿El impacto sobre qué?, ¿sobre la educación?, ¿sobre el futuro del trabajo?, ¿sobre el bienestar general de la población? A pocos años de la irrupción masiva de la IA, y, en particular, de su “hijo dilecto”, el ChatGPT y sus variantes, estas preguntas flotan en un mar de anécdotas. No debe haber ámbito, desde congresos académicos a asados de amigotes, en donde la conversación no gire rápidamente a un intercambio de experiencias de cómo la IA ayuda, más o menos efectivamente, a diversas tareas, de si complementa o sustituye, de si seremos reemplazados por estos “loros predictivos”.

La ciencia tiene una relación ambigua con las anécdotas: la estadística es, en el fondo, una acumulación de ellas, pero usadas de forma rigurosa para evitar lo arbitrario. Por eso el experimento controlado es el “Santo Grial” del análisis causal: al asignar una droga al azar a un grupo y no al otro, cualquier diferencia observada (como la temperatura corporal) puede atribuirse al efecto puro de la causa. Si, en cambio, se da ibuprofeno solo a quienes tienen frío, las diferencias reflejan condiciones iniciales, no el efecto de la droga. El azar es la clave que permite aislar causas de efectos.

Ahora bien, pregúntese el lector si alguna vez tiró una moneda para decidir si consultar o no a ChatGPT, o si conoce a alguien (que pase un psicotécnico, digamos) que actúe así. Las únicas excepciones parecen ser Sheldon Cooper, en The Big Bang Theory, quien recurre a este método para decidir si comer una hamburguesa, o los personajes de La lotería en Babilonia, el célebre cuento de Borges, donde el azar rige decisiones cruciales. Borges y Sheldon: dos ejemplos alejados del ciudadano promedio, que acude a la IA por curiosidad o desesperación.

El trabajo de Toner-Rodgers empieza anunciando que él parece haber dado con el autentico Santo Grial de la exploración causal de los efectos de la IA: la “Implementación aleatoria de una herramienta de inteligencia artificial para el descubrimiento de materiales entre 1018 científicos del laboratorio de I+D de una gran empresa estadounidense”. Y así, habiendo encontrado la llave de la luz que permite abordar tal vez la pregunta más difícil y urgente de la actualidad, procede, de manera quirúrgica, a desentrañar el misterio de los efectos de la IA.

Y aquí es donde esta nota debería develar el misterio sobre el impacto causal de la IA, sobre quienes se benefician y quienes no. Pero no. Como ocurre con esas series cuyo final queda trunco por falta de presupuesto o interés, hasta aquí llegamos con esta historia, porque es esencialmente falsa. Emma Zunz, el también épico cuento de Borges, termina diciendo “solo eran falsas las circunstancias, la hora y uno o dos nombres propios”, en uno de los finales mas espeluznantes de la literatura argentina. Tal vez todo lo contrario ocurra con el caso del trabajo de Toner-Rodgers, entonces un promisorio estudiante doctoral en el prestigiosísimo MIT, quizás la mejor escuela de economía del mundo. Salvo el mismísimo Toner-Rodgers (y que efectivamente fue alumno de Acemoglu), todo parece haber sido producto de esa mezcla de ingenio y desvergüenza de quien, casi oximorónicamente, “miente bien”: son falsas las empresas en cuestión, falsos los 1018 investigadores, falsa la aleatorización del uso de la IA, y falso todo lo que se deriva del estudio, todo parece falso.

Lo de “parece falso” tiene que ver con que el escueto pero demoledor comunicado del MIT, prudentemente, no da detalles y se limita a decir que, luego de una detallada investigación interna, “el MIT cuestiona el origen, la fiabilidad y la validez de los datos, así como la veracidad de la investigación presentada en el artículo”.

El artículo de marras se hallaba subido a la plataforma arXiv, el depositario de artículos científicos más relevante, y se encontraba bajo revisión en el Quarterly Journal of Economics, una de las tres revistas científicas mas prestigiosas en Economia. Tras el comunicado de MIT, el artículo fue inmediatamente dado de baja y ya no hay registro alguno que relacione a Toner-Rodgers con el MIT. Alguna consulta informal que el autor de esta nota hizo con algunos de sus compañeros de doctorado dice que, como pasó con los oficiales que vieron morir a Manuel Santillán, el León (la canción de los Fabulosos Cadillacs), de Toner-Rodgers no se hablo más, nunca más se supo de él, jamás hizo ningún descargo ni expresó formalmente su postura sobre este escándalo.

La pregunta sobre los efectos de la inteligencia artificial sigue abierta, tal como la encontró Toner-Rodgers. Pero este caso reabre la caja de Pandora de la honestidad intelectual. En un contexto de tensiones entre el mundo académico y los simpatizantes de Donald Trump, muchos aprovecharon el episodio para poner en duda la integridad de las élites científicas. La lógica implícita es: si esto ocurre en el MIT, ¿qué no puede pasar en el resto?

¿Qué podemos aprender del caso Toner-Rodgers sobre la confiabilidad de la ciencia? Casi nada. Los episodios individuales y las anécdotas no bastan para validar o refutar afirmaciones generales. Es cierto que las cuantificaciones universales pueden caer con un contraejemplo, pero aquí la afirmación relevante no es que no haya episodios infames en la academia, sino que ocurren con una frecuencia ínfima. Un caso flagrante dice tanto sobre la ciencia como un pasajero que pasa con un ladrillo por un escáner dice sobre la seguridad aérea. Ni la academia ni la aviación operan con error cero: el objetivo no es eliminar fallas, sino reducir drásticamente su probabilidad. Porque la única forma de evitar accidentes aéreos es dejar de volar.

La pregunta central no es si existen errores como el de Toner-Rodgers, sino con qué frecuencia ocurren. Y en ese punto, este caso aporta poco –si algo– al panorama general. De hecho, fue detectado y desactivado de forma contundente por el propio MIT. Lo que realmente falta es información sobre los casos que logran pasar desapercibidos en la densa trama de revisiones, contrarrevisiones y –en tiempos de redes sociales– comentarios y rumores que regulan las publicaciones científicas. Un sistema donde, con una curiosa combinación de heroísmo y envidia, siempre hay alguien dispuesto a denunciar cualquier conducta dudosa de un colega.

Hay dos preguntas que se caen de maduro. Una es hasta qué punto la IA fue una clave para elaborar este fraude y qué culpa le toca. Y también si no será la mismísima IA la que permitirá detectar estos casos vergonzantes. Al respecto, que alguien que se apellida “Toner” se haya “copiado” no deja de ser un evento premonitorio, de esos que les encantan a los conspirativos y a los loros predictivos como el ChatGPT.

* El autor es profesor de la Universidad de San Andrés (UdeSA)

Este sitio utiliza Cookies