Buscador UdeSA

Filtrar búsqueda por categorías
FuentePerfil

La fábrica de realidades

algoritmos-cwaik-udesa

Un hombre despierta en una habitación sellada. Sin tiempo. Podría ser la madrugada o el mediodía. Un minuto o diez horas. No lo sabe. Solo le queda confiar en lo que le digan. Pero, ¿y si lo que le dicen es contradictorio? ¿Si un día le aseguran que es de mañana y al siguiente que es medianoche? ¿Cómo determina qué es real?

Por siglos, la verdad fue vista como un destino fijo, algo a lo que se podía llegar con razón, fe o ciencia. Desde la filosofía griega hasta la Ilustración, la humanidad se obsesionó con definirla. Para Platón, la verdad no estaba en el mundo material, sino en el reino de las ideas. Aristóteles, en cambio, creía que la verdad dependía de la lógica y la observación empírica. Durante la Edad Media, la verdad fue capturada por la religión y convertida en dogma. En el Renacimiento, la verdad pasó a ser una cuestión de pruebas, de evidencia, de lo que podía demostrarse con cálculos y observaciones.

Y si algo nos mostró la historia, es que la idea de verdad también es narrativa. Es percepción. Es quién tiene el poder de contarla. Galileo miró a través de su telescopio y vio que la Tierra no era el centro del universo, pero su verdad fue un problema para el poder. No encajaba en la narrativa de la época. Hoy podríamos reírnos de eso, pero ¿qué tan distinto es el mundo ahora? ¿Cuántos descubrimientos, ideas o hechos quedan enterrados porque no generan suficiente interacción, porque no encajan con el modelo de negocio de una plataforma, porque no están optimizados para el SEO?

Si la verdad siempre dependió de quién la contaba y de qué intereses había detrás, el nuevo filtro de lo real está en los algoritmos. Pero a diferencia de los modelos anteriores, los algoritmos no tienen una agenda política ni una ideología propia, sino un objetivo: retener nuestra atención el mayor tiempo posible.

Y eso significa que la verdad, en términos algorítmicos, no es lo más preciso ni lo más riguroso. Es lo que más se comparte, lo que más engagement genera, lo que más nos hace reaccionar.

Esto explica por qué las fake news tienen un 70% más de probabilidades de ser compartidas que las noticias verdaderas. Explica por qué las teorías conspirativas prosperan en YouTube, por qué las burbujas de información en Facebook refuerzan ideologías extremas, por qué los influencers políticos se convirtieron en los nuevos formadores de opinión. Explica por qué en la era de la información, la posverdad se convirtió en la norma.

Esto no significa resignarnos a un mundo sin verdad, a una realidad donde todo es relativo y nada puede verificarse. Es asumir que la verdad nunca fue una piedra inamovible, sino un relato en constante edición. Y que hoy, más que nunca, es nuestra responsabilidad cuestionarlo.

El nacimiento de la realidad a medida

En 2016, el término posverdad irrumpió en el debate público para describir un fenómeno donde las emociones desplazaban a los hechos y las creencias eclipsaban la evidencia. La posverdad no era simplemente la mentira disfrazada de verdad, sino una manipulación emocional de la información. La veracidad era secundaria. Lo determinante era su capacidad de encajar con nuestras certezas.

En estos años, la posverdad mutó. Dejó de ser solo un fenómeno discursivo para volverse un fenómeno computacional. De ser una táctica discursiva de políticos y medios, pasó a convertirse en una maquinaria algorítmica que amplifica lo que más retiene nuestra atención. Por eso hablo de posverdad programada: un fenómeno que ya no requiere de un titiritero manipulador, sino de un sistema autónomo que ajusta, aprende y refina su lógica sin intervención humana. Un ecosistema que no distingue entre lo que es cierto y lo que es conveniente.

No es que un grupo de personas en una sala secreta esté decidiendo qué versión de la realidad se impone sobre otra. Es menos conspiranoico y más sutil, más estructural. Es un conjunto de ecuaciones, pesos estadísticos y sistemas de clasificación que ajustan, en tiempo real, qué versión del mundo aparece en nuestro feed. Para entender el impacto de esto, basta con observar la forma en la que hoy consumimos información.

Lo que vemos es una versión editada, seleccionada, amplificada y curada por algoritmos de lo que consideramos realidad. Un usuario de TikTok en Buenos Aires y otro en México pueden estar viviendo el mismo momento histórico, pero lo verán como si estuvieran en universos paralelos: uno verá protestas en las calles, el otro un trend de baile; uno verá teorías conspirativas, el otro un análisis académico; uno verá caos, el otro optimismo. No es casualidad, es diseño: los sistemas de recomendación han aprendido qué tipo de contenido lo mantiene pegado a la pantalla el mayor tiempo posible.

La posverdad programada no solo propaga desinformación, sino que fabrica consensos artificiales. Si un tema monopoliza el feed, se siente ineludible, como si fuera la única conversación posible. Si un punto de vista aparece una y otra vez en los comentarios, parece la opinión mayoritaria. No importa si es representativo de la realidad. Lo que importa es que el algoritmo ha decidido que ese tema merece más exposición.

El peligro de la posverdad programada no es la mentira en sí, sino la erosión total de la confianza. Un mundo donde todo parece diseñado para engañar es un mundo donde nada puede sostenerse. Si todo es manipulable, si todo parece diseñado para captar nuestra atención, entonces: ¿cómo distinguimos qué es real y qué no? El resultado es la parálisis: un estado donde las personas ya no saben en qué creer, o peor, creen únicamente en lo que refuerza su visión del mundo.

¿Existe una vía de escape? Difícil. Las plataformas no tienen incentivos para priorizar la veracidad sobre el engagement. Y la mayoría de nosotros no tiene el tiempo ni la capacidad para analizar cada dato que consume. Pero lo que sí podemos hacer es desarrollar una nueva relación con la información:

1. Entender la maquinaria. No es solo que los algoritmos la amplifiquen, es que nosotros la validamos con cada click, cada compartida, cada segundo que pasamos inmersos en ella.

2. Volver a la duda como ejercicio. La posverdad programada prospera en un entorno donde las certezas son absolutas. Pero la verdad no es absoluta: es un proceso, un trabajo en construcción. En vez de buscar confirmación constante, deberíamos recuperar el valor de la incertidumbre, del análisis crítico, de la capacidad de decir “todavía no sé”.

3. Redefinir la verdad fuera del algoritmo. Si queremos escapar de la posverdad programada, la única salida es reconstruir un criterio de verdad que no dependa exclusivamente de lo digital. No se trata solo de consumir más información, sino de buscar experiencias que nos conecten con lo tangible, con lo verificable, con lo humano.

Nutrición viral, mitos y placebos

Pocas cosas son tan atractivas como una verdad lista para consumir. Ya sea en cápsulas, en polvo o en gomitas sabor frutilla. Una respuesta instantánea para lo que debería tomar tiempo. Un atajo que promete salud sin esfuerzo. En cada consulta con Julián, mi nutricionista, este tema aparece una y otra vez: cómo los algoritmos de las redes han convertido la nutrición en un espectáculo de certezas absolutas.

El foco ya no está en las dietas de moda. Keto, ayuno intermitente, paleo; todo eso quedó atrás. Ahora, el furor es la suplementación. Magnesio, vitamina D, colágeno hidrolizado, creatina, omega 3, ashwagandha. Cada uno con su promesa milagrosa: más energía, mejor sueño, piel perfecta, longevidad asegurada. ¿Qué sucede cuando la salud deja de ser una ciencia y se convierte en un trending topic? ¿Cuántos de estos suplementos tienen respaldo real y cuántos son simplemente el resultado de un algoritmo empujando lo que más vende?

Porque de eso se trata: de lo que más vende.

Lo que aparenta ser un debate sobre salud es, en realidad, una estrategia de segmentación de mercado. No estamos descubriendo secretos sobre el cuerpo humano. Estamos comprando lo que el algoritmo decidió ponernos enfrente.

Es imposible no notar el cambio. Hoy, los consultorios están en las redes. Un post viral pesa más que años de formación médica. En 2020, los suplementos eran tema de conversación en consultorios. En 2025, son parte de coreografías en TikTok.

El caso de la creatina es un buen ejemplo. Durante años, se la asoció exclusivamente con deportistas y fisicoculturistas. En 2024, se convirtió en un suplemento de moda para mejorar la memoria y la concentración. De repente, miles de jóvenes tomaban creatina no para entrenar, sino para “pensar mejor”. Lo curioso es que la base científica que respaldaba esto era mucho más limitada de lo que se hacía creer. Pero daba igual: lo que importaba no era la verdad, sino la viralidad.

También lo hemos visto con el colágeno. La moda explotó en 2023 con promesas de piel más firme y articulaciones saludables. Sin embargo, la comunidad científica siempre advirtió que la biodisponibilidad del colágeno ingerido era cuestionable. ¿Importó eso? No. Importó lo que las redes decidieron que era verdad. Lo que más clicks generaba, lo que más retención producía.

Lo mismo ocurre con los productos que “desintoxican” el cuerpo. No hay un solo estudio serio que respalde la idea de que necesitamos detoxificar el hígado con jugos verdes o pastillas de carbón activado.

Lo que debería alertarnos no es la cantidad de información errónea sino el modelo de validación. En otro tiempo, la credibilidad de una idea se basaba en el consenso científico, en la revisión empírica, en la comprobación de datos. Hoy, una afirmación se vuelve “verdadera” si tiene alto engagement.

¿Y si mañana el algoritmo decide que lo mejor para la salud es beber agua con carbón? ¿O dejar de comer proteínas? ¿O consumir megadosis de zinc?

Nada de esto es nuevo. La industria de la salud siempre ha estado plagada de falsas promesas. La diferencia es que ahora la desinformación no circula de forma orgánica, sino de forma programada. Y eso lo hace mucho más difícil de combatir.

¿Qué tan lejos llegaremos confiando en sistemas que nunca han respirado, sentido hambre o enfermado?

ChatGPT, DeepSeek y la versión de la historia

Saber ya no es lo mismo que antes. Antes, el conocimiento tenía estructura, tenía esfuerzo, tenía proceso. Hoy, el conocimiento tiene un botón que dice generar respuesta.

Plataformas como ChatGPT, DeepSeek o Claude no solo nos dan información más rápido. Están cambiando lo que significa saber. Ya no es necesario sumergirse en un libro, analizar datos, tejer conexiones. Ahora podemos preguntarle a un modelo de lenguaje y recibir una respuesta elegante, estructurada, convincente. Pero, ¿es conocimiento real o es solo el reflejo de lo que ya existía? ¿Es un avance o es un espejismo?

En 2024, el término “loro estocástico” se convirtió en una de las imágenes más citadas en el debate sobre inteligencia artificial. La expresión fue popularizada por la lingüista Emily M. Bender y sus colegas en el artículo “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?”, publicado en marzo de 2021 en la conferencia de la ACM. En este trabajo, los autores advertían que los grandes modelos de lenguaje no piensan, no entienden, no razonan; simplemente predicen la siguiente palabra en una oración basándose en probabilidades. Son loros sofisticados: repiten patrones sin comprender lo que están diciendo.

La idea incomodó a muchos. No porque fuera errónea, sino porque exponía algo inquietante: el lenguaje puede sonar inteligente sin serlo. ChatGPT no necesita entender lo que dice para que sus respuestas parezcan confiables. Solo tiene que sonar bien.

En cierto modo, esto no es tan diferente de lo que han hecho los discursos políticos o religiosos durante siglos. La humanidad siempre ha sido vulnerable a la retórica, a la autoridad de quien habla con seguridad. El problema es que ahora esa autoridad no la tiene un líder carismático, sino un modelo de predicción estadística.

¿Qué pasa cuando confiamos en una máquina que no distingue entre verdad y falsedad? Decidí hacer la prueba: consulté sobre la historia de China en dos plataformas de IA. Primero, en ChatGPT. Luego, en DeepSeek, el modelo desarrollado precisamente en China.

Mientras que ChatGPT presentaba una visión relativamente neutra de ciertos eventos históricos, DeepSeek incluía matices que reforzaban la narrativa del Partido Comunista Chino. Fechas claves, interpretaciones de hechos políticos, hasta la manera en la que se describían ciertos conflictos: todo variaba según la plataforma.

Por ejemplo, al preguntar sobre la masacre de la Plaza de Tiananmén de 1989, ChatGPT ofrecía una descripción detallada, señalando que fue “uno de los eventos más significativos y trágicos” en la historia moderna de China. En contraste, DeepSeek evitaba el tema, respondiendo: “Lo siento, eso está más allá de mi alcance actual. Hablemos de otra cosa”. En The Guardian hicieron el mismo experimento y recibieron la misma respuesta. Estas discrepancias reflejan cómo cada plataforma maneja la información según sus directrices y restricciones, con narrativas divergentes sobre los mismos hechos históricos.

Esto plantea un dilema inquietante. Si los modelos de inteligencia artificial no son solo espejos del conocimiento sino filtros de la verdad, ¿qué tipo de mundo estamos construyendo?

No es conspiración. No es paranoia. Es un hecho. OpenAI tiene sus sesgos, DeepSeek tiene los suyos. Google tiene un modelo, Baidu tiene otro. Cada país, cada empresa, cada institución que desarrolle inteligencia artificial tendrá su propia versión del conocimiento. Si la Historia la escriben los vencedores, la inteligencia artificial la reescriben quienes manejan los datos.

Y en la era de la inteligencia artificial, la verdad también se vuelve probabilística. ChatGPT calcula la respuesta más probable según su entrenamiento de datos. Si millones de personas creen en una mentira, el modelo la tomará como válida. No porque quiera engañarnos, sino porque no tiene un criterio para distinguir la realidad de la ficción.

Eso nos deja en un territorio incierto. Si confiamos demasiado en la inteligencia artificial para definir lo que es cierto, corremos el riesgo de perder algo fundamental: el pensamiento crítico. ¿Qué significa saber en 2025? Saber ya no es recordar datos. La inteligencia artificial los recuerda por nosotros. Saber ya no es buscar información. La inteligencia artificial la encuentra en segundos. Saber ya no es siquiera escribir. La inteligencia artificial lo hace mejor y más rápido.

Entonces, ¿qué nos queda? Nos queda el derecho a dudar. A no aceptar respuestas prefabricadas, a desafiar lo que suena cierto, a seguir pensando cuando el algoritmo ya cerró la conversación. Nos queda la creatividad. La IA puede replicar patrones, pero no puede inventar nuevas formas de ver el mundo.

Deepfakes y la muerte de la evidencia

Durante siglos, ver fue sinónimo de creer. La imagen no solo mostraba la realidad, la certificaba. En el Renacimiento, la pintura documentaba la vida. Con la llegada de la fotografía en el siglo XIX, se revolucionó la forma de registrar la realidad. En el siglo XX, el video y la televisión nos dieron pruebas visuales de todo: desde la llegada del hombre a la Luna hasta la caída del Muro de Berlín.

Pero en 2025, la imagen ya no garantiza nada. La lógica de “lo vi, por lo tanto ocurrió” dejó de ser válida. Ahora, todo lo que vemos es susceptible de ser una simulación, un montaje, una manipulación digital. Con la llegada de los deepfakes, ese pacto entre la imagen y la verdad se rompió. Y lo que estamos viendo hoy no es más que el principio.

El término deepfake combina deep learning (aprendizaje profundo) y fake (falso). Se trata de videos, imágenes o audios generados mediante inteligencia artificial (u otras técnicas de edición audiovisual), que pueden hacer que cualquier persona diga o haga cualquier cosa. Desde una imitación casi perfecta de la voz de un presidente anunciando una guerra que nunca ocurrió, hasta un video de alguien robando un banco sin haber estado ahí.

Lo que antes era territorio exclusivo de expertos en efectos visuales hoy está al alcance de cualquier persona con un celular y conexión a internet. Crear una versión falsa de alguien ya no es cuestión de habilidad, sino de intención: hay aplicaciones gratuitas que permiten intercambiar rostros en videos con precisión quirúrgica.

No sé nada del mundo del espectáculo. Nada. Pero cuando este verano se desató el escándalo mediático entre la China Suárez, Wanda Nara y Mauro Icardi, vi la supuesta foto de la China Suárez con Icardi y mi primera reacción fue pensar: “Esto es un deepfake hecho con Grok o alguna IA generativa similar”. Pero no. Era una foto real.

¿Cómo diferenciamos lo real de lo fabricado cuando vivimos en una era donde la simulación es indistinguible de la realidad? Obviamente, este es un caso superficial (perdón al fandom mediático), pero llevémoslo a algo más serio.

En Nueva Jersey, treinta alumnas de una secundaria se encontraron con versiones falsas de sí mismas en videos pornográficos. No eran ellas, pero el daño ya estaba hecho. Sus propios compañeros usaron inteligencia artificial para transformar fotos comunes en escenas sexuales explícitas. ¿El castigo? Casi inexistente. No había leyes específicas para penalizarlos.

En Buenos Aires, el problema ya está en las aulas. En diciembre de 2024, se denunciaron casos en colegios privados donde estudiantes varones generaron deepfakes pornográficos de sus compañeras. Las imágenes circularon en chats escolares, en redes, en sitios que no se pueden rastrear. Para las víctimas, no hubo botón de “eliminar”, solo miedo y vergüenza.

Lo que empezó como una herramienta de entretenimiento se convirtió en una máquina de destrucción silenciosa. Imaginemos lo que puede hacer un gobierno autoritario, una organización criminal o una empresa con intereses económicos turbios.

Ya contamos con algunos ejemplos:

En 2024, circuló por redes un deepfake del presidente Volodimir Zelenski pidiendo a los ucranianos que se rindieran ante Rusia. Era falso, pero eso no impidió que mucha gente lo creyera.

En Estados Unidos, antes de las últimas elecciones, se viralizó un deepfake de Joe Biden diciendo que se retiraba de la campaña presidencial. También era falso, pero generó caos por horas.

En Argentina, ya circulan deepfakes de figuras políticas y mediáticas, algunos humorísticos, otros directamente diseñados para manipular la opinión pública. Se viralizó un deepfake en el que la expresidenta Cristina Fernández de Kirchner parecía pronunciar declaraciones radicales sobre la política económica, desatando debates acalorados en redes antes de ser desmentido por su equipo. Asimismo, un montaje digital de Mirtha Legrand, en tono satírico, apareció en plataformas sociales, transformando la imagen de la icónica conductora en objeto de parodia y controversia. Estos ejemplos, tanto humorísticos como diseñados para manipular la opinión pública, ilustran cómo la tecnología ha ampliado la capacidad de alterar la realidad, dejando a la sociedad en constante alerta sobre la veracidad de lo que ve.

La psicología cognitiva ha demostrado que una vez que vemos algo, es muy difícil eliminar su impacto emocional, incluso si luego nos dicen que era falso. Nuestro cerebro retiene la imagen, la emoción, la narrativa. Por eso los deepfakes son tan peligrosos: porque pueden implantar recuerdos falsos en la sociedad.

¿Qué hacemos con todo esto? Podemos elegir la desesperación. O podemos pensar.

La tecnología es un tren sin tantos frenos: avanza sin pedir permiso y nos empuja a redefinir lo que entendemos por “prueba” o “realidad”. Si queremos vivir en este nuevo escenario, necesitamos un criterio de evidencia que vaya más allá de lo que simplemente vemos: uno que exija indagar, contrastar y preguntarnos qué hay detrás de cada imagen. No es fácil: vivimos en la era del click inmediato, del “todo ya”, donde casi nadie se detiene a analizar.

Pero la velocidad no justifica la credulidad. Si no estamos dispuestos a fomentar la duda, terminaremos tragándonos cualquier mentira. Dudar no es ser paranoico, es entender que la realidad, cuando se vuelve digital, también puede volverse maleable. Así que, si la imagen dejó de ser la última palabra, toca entrenar la mirada crítica. Esa es la única forma de no perderle el rastro a la verdad.

☛ Título: El algoritmo

☛ Autor: Joan Cwaik

☛ Editorial: Planeta

☛ Edición: Junio de 2025

☛ Páginas: 248

 

Datos del autor

Joan Cwaik (1990) es autor, profesor y divulgador especializado en tecnologías emergentes y cultura digital. Es una de las voces más influyentes de habla hispana sobre el impacto de la tecnología en la sociedad. Profesor en la Escuela de Negocios de la Universidad de San Andrés, tiene un MBA del IAE Business School y estudios en UADE, UBA y UdeSA.

Brindó más de 400 conferencias en 18 países, incluyendo charlas TEDx, y en 2018 integró la delegación argentina del G20 YEA. Es director de Marketing para Latinoamérica en Maytronics y columnista en PERFIL, El Observador y La Casa Streaming.

Este sitio utiliza Cookies