Un celular, una foto y un comando: por culpa de la IA, nunca más podremos saber si una imagen es real
Manipular imágenes es algo que existe desde los inicios de la fotografía, aunque solía ser algo exclusivo de los llamados “maestros del Photoshop”, expertos que dedicaban horas, días, a cambiar cosas, eliminar objetos de una imagen, alterar otras o incluso poder modificar caras, cuerpos, historias. ¿Y ahora? Las herramientas de inteligencia artificial avanzan, literalmente, a diario; y estas herramientas no requieren conocimiento alguno: Con un prompt (una breve descripción de texto) podemos crear una imagen indistinguible de una verdadra en la que Bill Gates y Donald Trump festejen un cumpleaños. O que el candidato republicano se bese con su rival demócrata Kamala Harris. Sin perder tiempo. Sin Photoshop. Sin habilidad alguna: solamente conociendo una herramienta como Ideogram.
Pero eso no es todo. Google lanzó en agosto sus nuevos teléfonos Pixel serie 9. Y entre sus flamantes herramientas hay una llamada “Reimaginar”, dentro del Magic Editor. ¿Qué permite? Modificar fotos, reimaginando escenarios, alterando, borrando o agregando elementos en muy poco tiempo. Gratis (por lo menos el primer año de uso, después cobrarían una suscripción) y con un altísimo grado de sofisticación: tiene en cuenta la iluminación, las sombras, el punto de foco, el tamaño relativo de las cosas, qué está adelante o qué oculta el agregado. Todo con calidad fotográfica y -de nuevo- con la imaginación como único requerimiento: se hace en dos minutos, y sin experiencia previa alguna: no hay que saber editar, ni tener un archivo de imágenes para “ubicar” en la foto original. Sólo hay que saber qué queremos agregar o quitar de la imagen, y la IA hace el resto.
La plataforma tiene una intención inocente: poder poner una bicicleta al lado de un nene en una plaza, por ejemplo. O sacarle una foto a la mascota y ponerla en un escenario natural. Pero es muy fácil usarla para simular un auto chocado en una esquina, un “paquete sospechoso” en un aeropuerto, o tanques o armas en cualquier ciudad del planeta. ¿Hay forma de darse cuenta de que lo que vemos no estaba en la imagen original? Salvo casos muy burdos, no por ahora, a excepción de las políticas de uso que plantea Google para usar este servicio. Es decir: hay que confiar en la gente, y hay que comenzar a hacer una pausa, al ver pasar una imagen compartida en redes sociales, antes de recircularla, o creerla como evidentemente real.
Lo demostró una nota de The Verge, probando el flamante Pixel 9: con un par de observaciones sobre una foto podía crear un mundo (y un relato) completamente nuevos, y diferentes del original; es una herramienta que podría usarse para montar una campaña de desinformación o una estafa en minutos y sin costo alguno.
Fernando Barbella es un creativo argentino que vive en Berlín y hace tiempo que hace muchísimas cosas con Inteligencia Artificial y las comparte en redes. Parte de su trabajo se puede ver en y en su Instagram, y son muchas las imágenes que sorprenden por su realismo.
“A mí en general toda esta movida de las IAs generativas me entusiasma bastante. Creo que no estamos en un lugar de tener que negarlo o ponernos negativos acerca del asunto: está pasando, nos guste o no, y tratar de frenarlo es como intentar tapar el sol con la mano. Como tantas otras movidas de nuevas tecnologías que se nos han presentado en los últimos 20, 30 años, algunas tienen mayor y otras menor adopción”, reflexiona el experto.
Para él es buena la democratización de las herramientas, aunque tenga sus riesgos. “Yo sigo con mi enamoramiento con Internet, y si es por eso quiero que todo el mundo pueda acceder. El tema es que lamentablemente los humanos somos como somos y no todos tenemos las mismas intenciones, me parece que eso es lo que nos diferencia cuando usamos las herramientas, porque hay que tener un uso responsable. Creo que hay ciertas herramientas que solamente deberían ser usadas por expertos, sí. Pero tampoco creo mucho en la regulación. Me parece que la gente se tiene que autorregular, no necesito que esté el Big Brother mirándome todo el tiempo y es el mismo que después decide las regulaciones”, afirma.
Juan Ramiro Fernández es periodista y profesor de comunicación digital en la Universidad de San Andrés y en la UCA. También es Chief Storyteller de Youniversal. Y tiene una visión parecida a la de Barbella. “El filósofo Paul Virilio dijo una vez que la invención del barco conlleva también la invención del naufragio. La frase es inteligente, porque demuestra que cada avance tecnológico lo que hace es presentarnos con un Jano, un dios de dos caras que en una nos sonríe y en otra nos mira enojados. Con el fuego podemos cocinar alimentos y no tener frío, pero también podemos incendiar la choza del vecino. Con la energía atómica podemos hacer una bomba, o podemos curar ciertas formas de cáncer”, afirma. Y con la IA pasa algo parecido, reflexiona.
“El Photoshop era algo reservado a aquellos que tenían una computadora y conocían los secretos técnicos de ese arte. ¿Cuál es la diferencia al día de hoy? En la actualidad, modificar una imagen de una manera casi indistinguible de la realidad usando Inteligencia Artificial está a ‘un prompt’ de distancia de cualquier persona que tenga un teléfono, conexión a internet y sepa escribir con un mínimo de claridad. ¿Significa esto que vamos a entrar en una época de ‘humos y espejos’ donde lo real y lo ficticio va a ser indistinguible? No necesariamente. Cuando aparece la flecha, aparece el escudo. Cuando aparece el escudo, llega la pólvora. Si algo tiene la tecnología es que es un constante diálogo entre tecnologías que se superan. Si la IA me sirve para hacer una imagen de un político drogándose, también me sirve para detectar si la imagen fue manipulada”, agrega.
Una “etiqueta” para las imágenes por IA
Quizás ahí está una de las claves, escondida dentro de la reflexión: las mismas herramientas que permiten crear imágenes podrían detectar cuando no son originales, cuando fueron modificadas o literalmente cuando es algo completamente hecho con IA. Como pasa con los textos actualmente, algo que muchos docentes tuvieron que aprender a la fuerza para “revisar” el trabajo de sus alumnos.
Hoy todavía se pueden reconocer las imágenes hechas con IA, pero falta poco, nada, para que el ojo humano no sea suficiente. “Los riesgos asociados a las fake news o deepfakes son reales. Circuló hace poco una foto de Trump y Kamala Harris dándose un beso y todavía salta la perdiz, pero falta poco para que no podamos distinguir una foto real de una falsa”, afirma Barbella, pero suma un detalle que puede ser clave: las etiquetas.
“Sé que hay plataformas que están empezando a implementar, o trabajando en eso, como LinkedIn, para incluir metamarcas de agua en las fotos o imágenes, detectadas por el algoritmo. De la misma forma que la foto de una cámara o del celular tiene estos datos meta, invisibles, que te dicen cuándo se sacó o con qué dispositivo, las redes o plataformas podrían hacer lo mismo. Creo que para temas periodísticos, informativos, sí, las cosas deberían tener esta marca de agua. Para otras cosas más de entretenimiento, no. No necesitamos que Marvel nos diga ‘esto que está viendo no es real’”, concluye.
Fernández resume esta disyuntiva de la siguiente manera: “no se abre una nueva era de confusión, sino que los seres humanos, los mentirosos, los que quieren engañar, tienen una nueva herramienta para hacerlo. Y los que creemos en la verdad, los que preferimos entender antes que juzgar, también tenemos una nueva herramienta para llegar a la verdad”. O como decía John Custer, el padre del personaje ficticio Jesse Custer, protagonista del cómic Predicador: “Tienes que ser de los buenos, porque ya hay demasiados malos en el mundo”.