
En marzo de 2023, una imagen del Papa Francisco vestido con una extravagante campera de color blanco revolucionó las redes sociales, alcanzando millones de visualizaciones en cuestión de minutos. Para muchos, se trató de una fotografía real. Sin embargo, fue creada con Midjourney, una herramienta de inteligencia artificial (IA).
Las fake news no son una novedad: en 2017, el Digital News Report del Instituto Reuters reveló que el miedo a encontrar noticias falsas era significativamente alto en varios países. En Estados Unidos, por ejemplo, el 64% de los encuestados manifestó preocupación respecto a este tema.
Hoy, con la irrupción de la IA, la desinformación parece escalar a un nivel desconocido no solo para los usuarios, sino también para los principales medios de comunicación y plataformas del mundo. En este sentido, más de la mitad de los argentinos se encontró con fake news en las redes sociales de Meta -la compañía del multimillonario Mark Zuckerberg-, mientras que un 32% halló contenidos que más tarde descubrió que eran falaces. Los datos se desprenden de un estudio realizado por la agencia de comunicación Sherlock Communications, en el que participaron 3222 personas de América Latina, incluyendo la Argentina (455), Brasil (635), Chile (411), Colombia (428), Perú (658) y México (635).
“A medida que se extienda la revolución de la IA, también lo harán las falsificaciones posibilitadas por la IA. Esto es inevitable, pero puede controlarse, siempre que los consumidores, los creadores de contenidos y los propietarios de las plataformas se preparen para ello”, señaló a LA NACION Patrick O’Neill, managing partner de Sherlock Communications.
Para Franco Piccato, director ejecutivo de Chequeado, la sociedad es víctima de un ecosistema de desinformación que busca manipular, confundir o “encender el fuego de la polarización, explotando las emociones humanas”. “El resultado es que la gente ya no distingue qué es real y qué no. Se erosiona la confianza pública y se debilita la democracia”, detalló.
Un factor que potencia a este ecosistema de desinformación es la desconfianza sobre las instituciones. “Esa desconfianza, en buena medida vinculada al crecimiento de una experiencia de usuario online que es netamente individual –aunque en ese proceso podamos generar comunidades con otros–, hace más fértil la posibilidad de creer en lo que Silvio Waibord llama ‘propias verdades’”, analizó Natalí Schejtman, profesora de la Universidad Torcuato Di Tella (UTDT) e investigadora especializada en medios, periodismo y tecnologías.
En esta línea, Piccato sostuvo que el objetivo de las campañas de desinformación no es convencer a las masas, sino reforzar las creencias de quienes ya están de acuerdo con el mensaje. “Es imperioso seguir enfrentando las fake news desde varios ángulos”, advirtió.
El rol del periodismo
La investigación de Sherlock Communications revela que el 58% de los encuestados argentinos investiga en internet para asegurarse que la información que consume es veraz. “Fomentar un enfoque crítico y tener un sano nivel de escepticismo a la hora de leer contenidos en línea es un buen enfoque básico”, dijo O’Neill.
Además, un 40% consulta a medios de comunicación tradicionales. “El periodismo mantiene su capacidad de aplicar técnicas probadas de verificación: entrevistar fuentes, analizar registros públicos y examinar el contexto digital”, explicó Piccato. Sin embargo, las fake news -ahora potenciadas con la IA- se mueven a una mayor velocidad, de manera que muchas veces los periodistas llegan tarde a desmentir tal información. “La pérdida de confianza en los medios y la polarización dificultan aún más la tarea”, agregó.
Por su parte, Schejtman opinó: “Hay muchas historias, miradas y temas en los que el buen periodismo hace muchísima diferencia -corrupción, narcotráfico, territorios vulnerables e investigación sobre tecnología-y eso podría ponerse en valor como un distintivo respecto de lo que circula en otros espacios comunicativos e informativos”.
Sin embargo, la IA también puede ser una aliada para combatir la desinformación, según aseguró a este medio Fredi Vivas, ingeniero y docente de IA en la Universidad de San Andrés. “La IA puede, por ejemplo, detectar patrones de contenido falso, verificar fuentes en tiempo real y frenar la viralización de fake news”, comentó, aunque remarcó que el diferencial reside en combinar la tecnología con la inteligencia humana.
Un ejemplo de esto es el sistema de Notas de la Comunidad de la red social X, que permite a los usuarios añadir contexto de forma colaborativa a los posteos potencialmente engañosos. Luego, X utiliza algoritmos para ordenar la información más valiosa y neutral.
O’Neill coincidió con la mirada de Vivas, pero subrayó la importancia de que las plataformas lleven adelante mayores iniciativas al respecto. De hecho, para el 82% de los encuestados debería ser un requisito legal para Meta “eliminar contenido, desactivar cuentas y cooperar con las autoridades policiales cuando crean que existe un riesgo real de daño físico o amenazas directas a la seguridad pública”.
Bajo esta línea, el 43% de los entrevistados consideró cambiar de plataforma, ya que el 70% opina que Meta no tiene derecho democrático de permitir la distribución de noticias falsas por el sólo hecho de ser una empresa privada.
Notas comunitarias, ¿un arma de doble filo?
En enero, Meta anunció que cesará su programa de fact-checking (verificación digital) en Estados Unidos, un importante retroceso en sus políticas de moderación de contenido. ”Vamos a eliminar a los fact-checkers (verificadores de contenido) para reemplazarlos por notas comunitarias similares a las de X (antes Twitter), empezando en Estados Unidos”, dijo Zuckerberg en redes sociales. Y agregó: “Es hora de volver a nuestras raíces en torno a la libre expresión y dar voz a las personas en nuestras plataformas”.
Vivas advirtió sobre los riesgos de esta decisión: “Un sistema basado solo en usuarios puede ser un arma de doble filo. Analizar muchísima información en tiempo real es algo que a las personas nos cuesta”. A su vez, podría conducir a sesgos y manipulaciones.
En relación a la iniciativa de Meta, el estudio indica que, al momento de encontrar contenido falso, solo un 20% de las personas hace un comentario público para corregirla, mientras que un 49% evita interactuar con tal información.
“El cyberbullying, las noticias falsas y difusión de imágenes ilegales son simplemente demasiado serios como para dejarlos en manos de Notas de Comunidad”, sumó O’Neill. Por su parte, Schejtman subrayó la importancia de trabajar en la “alfabetización mediática” desde la infancia.
Es aquí donde la regulación juega un rol clave, según los expertos consultados por LA NACION. “El espacio digital debe ser abierto, neutral y accesible para todos. Es importante que cualquier regulación contemple a todos los actores y tenga salvaguardas para proteger la libertad de prensa y la libertad de expresión”, puntualizó Piccato.
En este sentido, Vivas sugirió medidas como el etiquetado de contenido generado por IA y las auditorías externas. “El desafío está en encontrar un equilibrio: evitar los riesgos sin frenar la capacidad de innovar”, sintetizó.