Buscador UdeSA

Filtrar búsqueda por categorías
FuenteSemanario Voces

Carolina Aguerre: La inteligencia artificial presenta serios problemas éticos

Carolina Aguerre: La inteligencia artificial presenta serios problemas éticos

PERFIL
Nació en Montevideo, vivió en Pocitos. Sus padres eran contadores. Hizo la licenciatura en Comunicación Social y trabajó como periodista en la revista Posdata y en El País. Trabajó en la embajada británica en el área de cooperación. Estuvo fuera del país por varios años y hoy es docente en la Universidad Católica. Es doctora en Ciencias Sociales.

¿Cómo saltaste del periodismo a la investigación?
Empecé con un proyecto de investigación en tecnologías, y cómo las tecnologías de información y comunicación, en ese momento, podían impactar en las carreras de aquel entonces. Apliqué a una beca de maestría en Tecnología de la Cultura, y me fui al Goldsmith College, de la Universidad de Londres. Ahí hice mi tesis sobre las industrias culturales en América Latina.

¿Cuándo te fuiste a Buenos Aires?
Me fui en 2007. Empecé a trabajar en la Universidad de San Andrés, en el Centro de Estudios en Tecnología y Sociedad. Ahí trabajé con el profesor Hernán Galperin, un sociólogo argentino. Hice mi doctorado en Argentina y él fue mi director de tesis. Es un pionero en la región en lo que implicaba el acceso a internet para achicar la desigualdad social vinculada al uso de tecnologías en información y comunicación. En aquel entonces se hablaba de la gobernanza en internet para todos. “Las reglas son estas”, y lo que tienen que pensar los países es cómo se adoptan y qué se hace con ellas. Me planteé que quizás no era tan así, viendo lo que pasaba en la región.

La banda ancha como una herramienta para combatir la desigualdad. ¿Se logró efectivamente?
El acceso a la banda ancha implica el acceso a la red y a un dispositivo. Sólo eso no alcanza para saldar las brechas de desarrollo social y económico. Es una condición necesaria, pero insuficiente. Uruguay es uno de los países con un programa como el Ceibal. Ha tenido este programa y lo cumplió a rajatabla en términos de acceso en la educación pública; pero, por otro lado, tenemos niveles de deserción en educación secundaria muy tristes, que empatan con los países de menores ingresos y de mayores problemáticas sociales en la región, como los países centroamericanos. La tecnología está, la tenemos, ¿pero salda una deuda social y educativa? No. Podemos hablar de si se podría haber usado mejor o peor, ¿pero es sólo eso lo que va a hacer que no se vayan los chiquilines del sistema?

¿Y no es al revés? ¿No ha contribuido a empeorar la situación? Cada vez se lee menos y todas las fuentes son del teléfono.
Ahí entramos en otra discusión que tiene que ver con las capacidades cognitivas, la desatención o lo poco focalizados que nos encontramos como personas, a nivel individual. Aclaro que mi foco no es el individuo y los procesos cognitivos. Sí es claro que hay una pérdida. Hay varios estudios.

Estos días ha salido un estudio que dice que ha bajado el coeficiente intelectual de la humanidad con respecto a hace unas décadas.
Es el tema de la atención robada, o “los mercaderes de la atención”, como lo llamó Tim Wu en su libro de 2016. Todo este ecosistema digital de aplicaciones, plataformas, sonidos, videítos de corta duración. Un estudio realizado en los Estados Unidos hace unos cinco años da cuenta de que una persona interactúa con la pantalla del celular aproximadamente unas tres mil veces por día, en promedio. Uno de altos usos llega a cinco mil interacciones. Y hay evidencias de lo que implica el conectarse y desconectarse, no solamente en los adolescentes sino también en ámbitos laborales. Lo que implica tener la bandeja de entrada de correo y los mensajes que no dejan de llegar, y cómo esto impacta en la productividad.

La disminuye.
La disminuye. Impacta en la ansiedad que les genera a las personas, que nunca sienten que están al día.

Siempre hay algo nuevo que tienen que ver.
Exactamente. Tenemos que aprender a gestionarnos de nuevo con esta realidad. Y creo que nosotros, a pesar de que a fines de los noventa nos subimos al carro, con lo que todas estas tecnologías implicaban en términos de liberación, de utopías, y que desde Uruguay podías escribir una nota y subirla a un blog y que no tuviera barreras para poder tener éxito. Pero hoy vemos que no es un mundo de libertad sin reglas. Las hay y siempre las hubo. Hoy esas reglas están marcadas por la performance económica. Y los actores que están intermediando en las plataformas quieren que uno interactúe en ellas, que deje ahí sus datos. También ha habido intentos que los algoritmos empiecen a dejar de funcionar, o que la plataforma misma se apague después de determinado tiempo. Empieza a haber estas autorregulaciones que algunas aplicaciones se proponen. Nosotros, como adultos, podemos pensar en cómo estudiábamos antes de internet y los smartphones. Pero una persona que creció con esto, no conoce otra cosa. Algo muy positivo es que estamos dejando de idealizarlo.

¿Te parece que estamos dejando de idealizarlo?
Es mi deseo, y en mis últimos años de trabajo empieza a ser mi bandera. Siempre me interesó explorar cómo se puede incidir en cambiar las reglas desde lugares menos centrales como Uruguay o América Latina. En cómo pensamos con evidencias de qué es lo que toda esta inmersión tecnológica digital está generando.

Cuando entraste a este mundo, ¿imaginabas el desarrollo que iba a tener?
No estaba ni cerca.

¿Alguien dentro de ese mundo podía preverlo?
El cientista de Google Geoffrey Hinton, que renunció, preveía que esta inteligencia artificial llegaba dentro de cincuenta años. Alan Turing, en 1950, cuando publica ¿Pueden las máquinas pensar?, pensaba para dentro de uno o dos siglos. Nadie pensaba que esto se iba a acelerar de la manera en que se aceleró.

¿Cómo se prevé lo que no se puede prever? ¿Cómo se hace para legislar?
Vamos a no hablar de predicciones, pero sí de lo que implica pensar en tecnologías como la inteligencia artificial, que es lo que ordena todas las plataformas y aplicaciones que usamos hoy en día. En los cables invisibles de todos estos llamados de atención, de las recomendaciones de contenido. En el mundo de los noventa y los dos mil, se decía: “No toquen nada, dejen innovar, dejemos que esto florezca”. Hoy en día ni la Casa Blanca está diciendo esto. Hay evidencia muy concreta, tomada desde la década de 1980 y publicada el año pasado por dos estudios distintos de dos economistas distintos en Estados Unidos: Erik Brynjolfsson y Daron Acemoglu, donde se habla de la destrucción de la clase media vinculada al sector obrero fabril, y también de los puestos administrativos del país, y de la enorme polarización que va a surgir de la concentración de la riqueza. Buscando identificar un factor para esa concentración, ambos investigadores, en estudios distintos, llegan a decir que la inteligencia artificial ha sido utilizada por el sector privado para automatizar y reemplazar a las personas. Pero no ha sido el famoso discurso de que la inteligencia artificial nos potencia. ¿Cuántas aplicaciones son las que aumentan las capacidades del ser humano? ¿Cuáles lo vuelven mejor, más creativo? Todo este verso de una inteligencia artificial que elimine los trabajos rutinarios, la parte pesada, aburrida, mientras todos hacemos otras cosas más interesantes. Ellos, en Estados Unidos, no en América Latina, en África o en Asia, lo han documentado. ¿Qué podemos esperar de economías menos desarrolladas, como las nuestras, en términos de qué responsabilidad se va a tomar en relación a este tipo de decisiones? Ya vemos lo que pasa en Estados Unidos.

¿Queremos ir hacia ahí?
Creo que estamos mucho peor preparados, y esto no lo digo yo, sino que lo dicen muchos estudios, en particular en América Latina, una región de ingresos medios, donde no despegamos industrialmente, donde dependemos de materias primas, donde tenemos un sector de servicios que, aunque no es así en Uruguay, no representa un sector alto del PBI. No estamos muy bien posicionados si no pensamos, efectivamente, en regular proactivamente. El cheque en blanco de la innovación no existe más. No existe en Estados Unidos, no existe en Europa. Supongo que América Latina no va a querer ser tan burra.

La innovación es la panacea, el mito. En todo hay que innovar.
Esto de que no hay más cheque en blanco lo dicen economistas muy importantes. Es innovación con responsabilidad, no un “si lo puedo hacer, lo hago”, con cierta perspectiva de discurso ingenieril de “pruebo”, como decía Zuckerberg cuando fundó Facebook, con todos esos mantras de romper todo para generar nuevas reglas. Ojo, porque se está demostrando que nuestras sociedades, las democracias y los mercados laborales son muchísimo más frágiles de lo que pensábamos.

Pero hay un grupo importante de intelectuales pidiendo la moratoria con la inteligencia artificial.
Hinton que es el padre de las redes neuronales, empieza sus estudios en 1973 y define el modelo de red neuronal, que es lo que hoy sustenta la inteligencia artificial de aprendizaje profundo. En los setenta dijeron que era una porquería, que no servía. Él dice que no firma esas moratorias, porque no alcanzan, y que lo que tenemos que hacer es repensar nuestro contrato social acerca de hacia dónde queremos ir. Esto no es bueno. Y por eso se va de Google, para tener la libertad de hablar de estos riesgos.

¿Se puede frenar? ¿No hay intereses muy fuertes? Alguien gana.
Ganan diez empresas a nivel mundial.

Son las que ganan en todo siempre.
Ganan hasta que dejan de ganar, hasta que empieza a ser más complicado. Veo un momento interesante por varios frentes en cuanto a redefinición de reglas. Por ejemplo, Biden puso a Lina Khan, una persona de la derecha conservadora según el entendimiento de cómo deben funcionar los mercados económicos. Ella dice que volvamos a hablar de separación estructural, lo que implica que no podés ser una plataforma de servicios, información e indexación y a su vez tener tu propia tienda. ¿No lo hace el supermercado con los precios bajos en sus góndolas? Por supuesto que lo van a hacer los otros, entonces. Esa separación estructural hoy no está garantizada en la mayor parte de los mercados digitales. Ella lo está proponiendo en los Estados Unidos. Las regulaciones europeas lo están proponiendo también, y están imponiendo regulaciones a las grandes plataformas. Es un poder enorme. Tienen más capital que el de decenas de países combinados.

Además, con la visión liberal que predomina en el mundo, ¿cómo se combate esto?
Se combate con educación. En América Latina tenemos un déficit y hay que trabajar mucho más con las agencias de defensa de la competencia, y aprender a regular en términos de competencia digital. Se combate con educación en todos los ámbitos. Se combate con repensar esto del tecnodeterminismo y el tecnosolucionismo. Se combate desde todos lados.

Se ganan elecciones utilizando esto.
Pero también las instituciones, cuando son fuertes, y por eso es importante tener buenas instituciones de regulación de la competencia. Lo que pasó en el ataque al Capitolio el 6 de enero. ¿Por qué se logra llegar hasta donde se llega? Porque hay independencia de poderes, porque hay comisiones que funcionan. A pesar de todo se logró demostrar que hubo una incitación. Me parece que se gana cambiando una narrativa. Muchos colegas del ámbito de las ciencias sociales hablan de este contexto con la metáfora de la colonización, descolonización, imperialismo. Cuando estuve en Alemania el año pasado, escribí un trabajo que todavía no publiqué, porque tengo muchas dudas acerca de usar los conceptos de imperialismo y colonialismo. Hay muchas cosas que nos debemos en América Latina, donde tuvimos un tipo de imperio muy diferente a los de Asia o África. Tenemos que tener mucho más cuidado. Creo que tenemos que hablar de poder, lisa y llanamente. No sólo de poder entendido como el Estado y la soberanía…

La soberanía de los países está muy cuestionada hoy por hoy.
Sí, y es muy interesante, la Unión Europea también habla de soberanía y de cómo protegerla. Merkel llegó a decir, antes de irse: “Europa no es una colonia.” ¿Qué metáforas de poder tenemos que usar para esto, entonces?

Hablanos del metaverso, ¿qué es?
El metaverso es internet, inteligencia artificial y plataformas. Es esa combinación, una coctelera de esas tres grandes cosas. Son tres tecnologías de base, a las que podemos sumar la nube, una tecnología que llevó a una concentración enorme de internet, por seguridad, por eficiencia. El metaverso, que prometió Zuckerberg en octubre de 2021, en aquel famoso discurso, está lejos. Tuve la oportunidad de estar en Palo Alto el año pasado, en una reunión de The Economist en conferencia con académicos e industrias sobre el metaverso. Hoy ellos no se imaginan que existe una tecnología para eso, para tener una realidad 3D totalmente inmersiva, hologramática. ¿A qué se parece el metaverso? Al mundo de los videojuegos. Se va a avanzar más hacia eso. Y aparece un actor que es un poquito nuevo, pero que muestra todas las características de concentración y de no separación estructural de las que hablábamos antes, que es la industria de los videojuegos. Ellos son los que hoy están mejor posicionados para defender la posición de lo que es un metaverso en términos de experiencia y de lo que es la interacción con el usuario en esos mundos de realidad inmersiva.

Neuronalmente te puede llevar a creer que ese metaverso es la realidad. Hay un ejemplo de una gurisa que se sintió agredida sexualmente en su avatar.
Esa discusión entre la división entre el mundo real y el mundo del ciberespacio se tuvo y se sigue teniendo, pero creo que ya se está saldando. ¿Robar en una plataforma en internet es lo mismo que robar en la calle? ¿Qué ley se aplica, cómo se tipifica el delito? Hay ajustes a la ley, pero es lo mismo, es robo. La división del mundo físico y el virtual, desde principios de la década pasada, empieza a estar saldada. Los actores y las leyes van en esa misma línea. Hay zonas muy grises y muy oscuras.

Y paraísos virtuales.
Sí, y hablemos de las guerras y de las armas y los robots autónomos. Son nuevas guerras, con nuevas reglas del juego. Ahí hay toda una enorme discusión, sobre si se utilizan los convenios actuales para definir qué es un arma, qué es un arma letal, cuándo es una acción de guerra, o si se generan espacios alternativos y distintos para esto. En el mundo del metaverso, la inteligencia artificial y demás está interviniendo fuerte la industria, con el argumento de salvar vidas humanas, recursos y demás, pero obviamente hay todo un tema importante que es la responsabilidad de la institución, de la persona, y la no autonomía de la máquina, que es lo que propugna, con mucha fuerza y contundencia, América Latina casi que en su conjunto.

¿Es viable la no autonomía de las máquinas, si seguimos desarrollando inteligencia artificial?
La inteligencia artificial, por las características de las redes neuronales, puede aprender cada vez más de sí misma. Hay una diferencia entre exponer un resultado y tomar una decisión. Por ejemplo, un estudiante que quiere hacer una monografía con ChatGPT toma una decisión. Yo no le voy a decir que no. Veremos el grado de calidad que puede tener. Por ahora hay un consenso en la comunidad internacional en cuanto a que haya un robot que tome la decisión autónoma de disparar sin una decisión respaldada por una persona. Puede haber sucedido, y hay algunos episodios confusos, pero que un dron mate a una persona por decisión propia no es algo que esté aceptado y validado.

Ya hay científicos que auguran que en algún momento lo van a hacer.
El robot no se arma solo. El disparo no lo puede producir una línea de código. Hubo muchas personas e instituciones involucradas para que eso sucediera. Por eso la pregunta de base es para qué queremos esta tecnología. ¿Qué queremos lograr con esto? Vayamos a algo mucho más sencillo, que vemos en muchas ciudades de nuestra región. Tenemos cámaras que penalizan, que multan. ¿Por qué no hay más cartelería avisando que te desvíes porque vas a tener un accidente? Prevención, ayuda. El uso de la tecnología es punitivo, generalmente.

Es una decisión política.
Usarla como la usamos y no para tener semáforos mejor sincronizados es una decisión política. Nuestras ciudades funcionan así.

¿La inteligencia artificial nos va a volver más libres o no?
Eso es lo que dicen, que supuestamente vamos a dejar de hacer las tareas rutinarias.

Pero no sólo eso, porque ya hay juicios que se están llevando adelante con inteligencia artificial. Hay medicina con inteligencia artificial.
Los seres humanos desarrollamos inteligencia artificial, pero después están los usos que le demos. Me parece fascinante que una empresa como DeepMind haya podido, con inteligencia artificial, mapear toda la secuencia de proteínas existentes, que luego puso públicamente en el AlphaFold famoso. ¿Cuánto le hubiera llevado al ser humano? Centenares de personas durante muchísimos años. Nunca lo hubiéramos podido lograr. Desarrollar las vacunas que se desarrollaron en la época del Covid-19. Se hizo gracias a que se utilizó inteligencia artificial para procesar esas grandes cantidades de datos. Por supuesto que hay que usar inteligencia artificial. Lo que hacen los ChatGPT 3 y 4, basados en toda la información que está disponible en internet, que es un bien público digital, del cual se han apropiado todos lo que han podido y que después la cierran. Veamos qué pasa, para qué se puede usar. Una empresa lo puede usar para mejorar su atención al cliente, otro para acelerar los procesos de pedidos y administración. Los estudiantes para mejorar la comparación de textos y saber qué piensan dos autores sobre un tema, sin tener que leer tanto, y así todo va más rápido y se acelera.

¿Pensamos esas consecuencias?
A las ingenieras, a los Data Scientist los aplaudimos y decimos: “¡Qué bueno, es la tecnología lo que nos va a salvar!”. Depende. ¿Qué tecnología? ¿Para qué? ¿Por qué? Son las preguntas básicas que uno se hace como persona: ¿para qué quiero hacer esto? ¿Por qué no lo estamos haciendo con la tecnología? Porque es el cheque en blanco de la innovación sobre el cual hemos venido montados durante tanto tiempo. Castells dice que la tecnología siempre estuvo presente en todos los momentos históricos. Esta tecnología de hoy tiene una capacidad muy particular para captar, almacenar y procesar a velocidades inimaginables en épocas pasadas. Pero no es que no hubo tecnología en los últimos miles de años y que no moldearon a la sociedad. La escritura cuneiforme de la Mesopotamia, por ejemplo. Eran tecnologías poderosísimas que permitieron hablar del comercio. Decimos que somos una sociedad de tecnología. Bueno, no. O somos una sociedad frívola, banal, una sociedad que no se puede hacer las preguntas fundamentales, que no puede ver que el cambio climático viene. Por un lado queremos datos y toda esta tecnología basada en la evidencia, y por otro tenemos la irracionalidad absoluta o la superficialidad de no querer hacernos las preguntas fundamentales. El mundo que se viene para las próximas generaciones es muy duro.

Y todavía no tocaste otro tema fundamental: la computadora cuántica. Va a ser el arma de dominio del mundo. Estados Unidos o China, el que se imponga va a marcar las condiciones.
Ningún país o potencia quiere quedarse atrás cuando aparece una tecnología emergente potencialmente. Hoy la computación cuántica todavía es un signo de interrogación.

Pero ya están los prototipos.
Porque nadie se quiere quedar atrás. Pero hay que esperar y ver un poco más efectivamente qué va a pasar. Hoy miramos ahí pero no es tan claro, por lo menos para las personas con las que hablo, que quantum sea el futuro. Puede ser otra cosa, otros arreglos, o algo combinado.

Si se termina de desarrollar y hace los cálculos cien mil veces más rápido que la computación actual, rompe con todas las reglas sobre las que está establecido el mundo.
De Blockchain y de las cripto se decía eso hace siete años. Para volver a la analogía, ¿de todo lo que aparece como nuevo tenemos que ver cómo crece y cómo nos va a sacar de la miseria? Creo que no. Bitcoin, las cripto y Blockchain siempre dieron señales de algo, y que empezamos a tener un poquito más claro con su primo hermano, internet, con cómo eso evoluciona y con las plataformas. Vimos las reacciones de los bancos centrales y de los mercados de capitales. Hace cuatro años un jerarca de Google decía que en cada panel de gobernanza en el que había estado aparecía la palabra Blockchain. No sé cuánto va a aparecer Blockchain en el foro de gobernanza de internet en octubre de este año en Japón. Aparecerá en un 20% de los paneles, pero no en todos. Navegamos a distintas velocidades. Pero creo que sí hay instituciones que quieren cambiar más rápido que otras, y sí es muy evidente que hay un poder en las corporaciones que está demasiado concentrado, que es demasiado opaco, demasiado poco transparente, que no rinde cuentas a la ciudadanía global.

Que a medida que más poder tiene, más condiciones impone. Cuando Europa quiso frenar, amenazó con que no se pudieran usar más sus productos en Europa.
Sí, pero no es absoluto. Les molestaría mucho perder casi quinientos millones de usuarios de internet con alto poder adquisitivo. Se cuidan bastante.

Aceptan esas multas simbólicas de un par de miles de millones de dólares.
Cincuenta mil millones, en algunos casos. No es algo que no duele del todo. Pero Europa lo puede hacer. El tema es qué hacen otros que no son Europa, como Uruguay, un país con un mercado digital de tres millones.

¿Cómo es la gobernanza en nuestro país?
Para mí Uruguay tiene cosas muy interesantes hechas a nivel de gobernanza digital. Tiene una estrategia de inteligencia artificial que es acotada al sector público. Vino la pandemia y todavía no se pudo desplegar. Uruguay, como casi todos los Estados, ratificó las recomendaciones éticas de la UNESCO del 2021 para la inteligencia artificial. La estrategia de inteligencia artificial uruguaya es muy interesante, habla de ética y de aspectos legales. Pero la contiene a un ámbito muy específico, que es la administración pública. No habla de una estrategia más macro país.

Pero acá lo desarrolla todo el Estado.
Pensemos lo que representan el software y las TIC, son el tercer sector de exportación de servicios en Uruguay. Y después Uruguay tiene una posición en términos de pensar los datos, no sólo en regulación de datos personales, que es muy importante. El salto que hay que dar es hacer esa gobernanza de datos para hacerlos más productivos. Ahí es donde hoy en Uruguay hay mucho más potencial, porque tenés una Agencia Nacional de Innovación que quiere promover la ciencia abierta, lo que implica no solamente publicar artículos en formato abierto, sino, además, crear repositorios para esos datos abiertos. Por otro lado, tenés la AEGESIC, que quiere promover que el Estado se despliegue más. Ahí hay círculos virtuosos que son interesantes para pensar no sólo en protección sino en uso y reúso de datos para hacer crecer la economía, para emprendimientos. La AEGESIC es un organismo interesante. En otros países no existen agencias tan transversales. Pero hay que darle una nueva inyección de energía, para que esa digitalización vaya más allá de la superficie de la web y vaya profundo, como que uno pueda hacer todo un trámite en formato digital.

Mencionaste el tema de la ética y la inteligencia artificial. ¿Cuáles serían los temas claves?
Los temas de sesgos, discriminación, transparencia y rendición de cuentas. La inteligencia artificial presenta serios problemas éticos. El más llamativo y el que más ha sido estudiado, desde hace nueve años, con publicaciones consistentes de los cientistas sociales y los antropólogos, que estudian los impactos, es el de reproducir sesgos. El diseño de algoritmos que van a predecir, por ejemplo, qué persona tiene capacidad de pago de un préstamo hipotecario, según tenga determinado nombre o viva en determinada localidad. En Estados Unidos hasta tu nombre identifica tu origen étnico. El sistema financiero está cargado de sesgos.

¿Y eso se puede controlar? Si el sector privado lo tiene, lo usa.
¿Por qué hablar de ética cuando los efectos sociales son tan profundos, cuando no son individuales? Aparece una lógica que me parece interesante en la discusión sobre ética en la inteligencia artificial, y es en la comparación con los médicos. Un médico tiene una ética profesional. Un periodista la tiene también.

Algunos.
Y hay empresas que tienen un código explicitado. Me sorprende que en Estados Unidos las empresas de tecnología ya tienen incorporado qué son los marcos y los principios éticos en el desarrollo de su tecnología, y que sus tecnólogos, al desarrollar estos algoritmos, van a tener en cuenta de dónde están tomando estos datos, o con qué sesgos pueden venir. ¿Se le puede explicar a una persona por qué se tomó la decisión que se tomó? ¿Se puede corregir? Todas esas son discusiones éticas. En un trabajo que hice con colegas de Argentina con 2021 hubo sesenta startups relevadas en América Latina, y veinticinco entrevistas en profundidad, para entender qué es lo que entiende en términos éticos una pyme o startup que se define como una empresa de inteligencia artificial. La verdad es que de lo que te hablaban es de la regulación, de querer saber cuál es la regulación y cómo eso impacta en si estás trabajando bien o no con los datos personales que son sensibles. Eso es bastante interesante, porque habla de una mirada de “que me regulen de afuera y que yo sepa bien claro cuáles son esas reglas y cómo las tengo que usar para el desarrollo de estos sistemas”, y creo que la ética, combinada con los marcos legales, lo que hace es poner los principios éticos en un sándwich dentro del cual hay que moverse. Que no se trata de “innová y hacé todo lo que quieras sin pensar en ninguna consecuencia”.

En el sándwich nosotros somos el salame del medio. La ética es una rodaja de pan, y la otra es la regulación.
Lo que estamos viendo con ChatGPT y los usos de esta tecnología es que esto se va a regular, que no va a ser libre. El Parlamento Europeo va a votar en mayo su ley de inteligencia artificial, donde ya incluyó tecnología generativa basada en grandes modelos de lenguaje, como el ChatGPT, al que se identifica como una tecnología de alto riesgo, y que va a tener que seguir una suerte de parámetros a la hora de desarrollarse. No va a ser cualquier cosa en cualquier lado. Pero es mucho más difícil regular esto que otros elementos. Esto se puede estar desarrollando con dos o tres personas en una oficina, desplegando un sistema. La Casa Blanca con sus medidas busca entender qué opinan sobre esta tecnología la sociedad civil y las distintas agencias del gobierno. No es tomar una decisión por tomarla. Y voy a ir a un ejemplo que me encanta para hablar de por qué hay mucha gente que está dispuesta a movilizarse cuando pasan cosas malas con sus libertades y sus derechos.

¿Cuál es?
El último año del gobierno se Obama se hizo una consulta sobre la famosa neutralidad de la red, una de las primeras medidas que Donald Trump tiró abajo. Básicamente la consulta tenía posiciones a favor y en contra, y estaba bastante dividida. Obama dijo algo que demuestra qué piensa, cuando dijo que era una decisión demasiado importante, la de cambiar algo sobre lo que no hay claramente un sí y un no, como para llegar a algo que le va a sacar derechos a la gente. Quitar el principio de neutralidad de la red iba a quitarle capacidad de agencia a los individuos, y a los más chicos, no a los más grandes. La sociedad civil se movilizó, se organizó mucho en campañas. Todo el movimiento callejero que hubo para la visibilidad de este problema fue muy importante. ¿Qué pasa cuando un problema que parece ser de los políticos y de las grandes empresas se ve que puede tocar un derecho de las personas? Ahí es donde hay una responsabilidad de los medios y el periodismo, en poner en evidencia esos temas para que la población pueda ver cuándo es que algo va a cambiar radicalmente las reglas del juego. Los casos de escándalo de suicidios de niños y adolescentes que habían interactuado con chatbots, habla de la creatividad que tienen estos sistemas de inteligencia artificial para simular ser una persona e incitar a otros. Estos casos, vía escándalo, lamentablemente, son los que muchas veces ponen de manifiesto por qué hay que repensar cómo están funcionando estas reglas del juego del mundo digital.

¿Ves a la clase política uruguaya con la cabeza puesta en esto?
No. Veo que a la clase política uruguaya le preocupan temas que obviamente son importantes, en relación a estos temas, como en los casos de protección de menores. Es uno de los pocos temas en los cuales hay consenso a nivel internacional, sea el país que sea, con democracia plena o autoritario. Es preocupante cómo se activan agendas vinculadas con los derechos de propiedad intelectual, por ejemplo, con las productoras, los partidos de fútbol y el streaming, y todo eso que pasó. Y no está mal en sí mismo, pero se hace como un cheque en blanco demostrando el poco conocimiento que existe de las plataformas de internet. Si conocen poco las plataformas de internet, menos van a estar interactuando y conociendo sobre inteligencia artificial.

No se regula sobre el juego online, que es un flagelo feroz.
Porque hay un lobby muy claro acerca de quiénes son los actores que están por detrás. Creo que el espectro político más o menos lo entiende. Me refiero más al ámbito parlamentario. Insisto en que Uruguay tiene la AGESIC y ministerios con gente muy calificada. Pero no hay una agenda de futuro, proactiva.

El futuro es algo que llegará.
No lo veo en el espectro político, entre quienes están concursando por los cargos a cinco años. Lo veo más en los cuadros que Uruguay tiene, que se forman y que tienen permanencia, y eso está bueno.

Se formó la Comisión del Futuro en el Parlamento. Se habla del futuro del trabajo y de tecnología. ¿Y?
Me parece que no hay una mirada un poco más sistémica, que es la mirada que yo traigo, multinivel, teniendo en cuenta el Estado, los actores y el sistema internacional. Son temas que no son fáciles. No los ponen cómodos. No hay un actor que hable de cómo seguir trabajando para esto. Pero la hay, dentro del Estado la tienen. Y algo de lo que sí se habló el año pasado en el Foro de Gobernanza en Internet en Uruguay, es acerca de tener más procesos de carácter multisectorial para impulsar agendas sobre temas específicos. La sociedad civil reaccionó cuando se dio la rebaja de contenidos, porque afectaba el derecho de libertad de expresión de otras personas, y se marquizó esta ley de plataformas. Pero son acciones reactivas, como pasa en muchos países de la región. El Parlamento chileno fue un actor central en convocar a una estrategia nacional sobre inteligencia artificial que fuera abarcativa, de muchos sectores, convocando a la ciencia y la tecnología, al sector empresarial, a la sociedad civil. Creo que Uruguay puede imaginarse mejores espacios con lo que ya tiene. Creo que desde los planos de los funcionarios hay mucho potencial para seguir haciendo cosas. Pero hay una agenda del día a día que se come los temas de futuro, los que para mí son esenciales. Tener el Plan Ceibal, algo tan modélico, y a la vez tener estos resultados, es algo espeluznante. Empecemos a hacernos preguntas y revisar eso. Pensemos qué piensan sobre inteligencia artificial las pymes uruguayas exportadoras de software y cómo eso las afectaría en diversas variables, y cómo impactaría en el empleo.

¿Tenía razón Graciela Bianchi cuando dijo que el Plan Ceibal iba a generar idiotas informáticos?
El problema no es el Plan Ceibal, que para mí es maravilloso. El problema es el tecnosolucionismo, el pensar que porque tenemos Plan Ceibal ya estamos a la vanguardia de la educación. Los problemas estructurales de la educación no fueron resueltos por el Plan Ceibal, porque no era ese el cometido del plan. No se le puede pedir al Plan Ceibal algo que no venía a hacer. Era otra cosa.

¿Y cómo estamos en educación terciaria?
Voy a tomar estadísticas de 2020 y de 2021, relevadas por unas colegas del BID, en un laboratorio que trabaja en la región sobre inteligencia artificial y políticas sociales. Uruguay, en estos temas, tiene un déficit grande en formación de recursos humanos, entendido en el amplio espectro, no sólo en Data Scientists, en programadores o en matemáticos que diseñen algoritmos, sino también en gente que esté pensando en estos problemas. Me gusta investigar sobre ciencia y tecnología viniendo del mundo de la educación, me gusta hablar con ingenieros, me gusta entender cómo funciona un artefacto para entender qué valores promueve. Pero la verdad es que, después, cuando uno pasa por los comités del Sistema Nacional de Investigadores, de la ANII y demás, la puntuación de la interdisciplina, a pesar de esta universidad en la que es muy interesante el modelo interdisciplinario que se busca generar con los departamentos, facultades y materias Core, y el mezclar estudiantes de distintas disciplinas y ponerlos en contacto y poder personalizar tu carrera, eso, de todas formas, es muy incipiente, cuando es lo que tendría que ser a futuro, con mucha más interdisciplinaridad, aplicándola en la práctica y con los incentivos específicos para eso. Eso es importantísimo.

¿No sos muy optimista respecto al poder de las multinacionales, después de que Twitter tenga capacidad de censurar el presidente de los Estados Unidos?
No podemos poner todo en una misma bolsa y con eso querer entender cómo funcionan las instituciones y el mercado de capitales y demás. En América Latina y en Europa tenemos una matriz por la cual el Estado regula y la sociedad acata, y son democracias delegativas, más allá de que tenemos momentos de democracia directa, con referéndums y plebiscitos. Estados Unidos estructura reglas del juego que nos afectan a todos y son importantes los mecanismos de autorregulación. Una empresa considera que pierde mercado si no se porta bien con sus consumidores, porque si eso sucede van a querer cambiar. Creo que hay algunas señales de que a la gente sí le importan las prácticas de vigilancia de las grandes corporaciones. Hay evidencia de que hay cierto corrimiento, quizás todavía no de las empresas, pero sí de los valores que esas empresas representan. Los mecanismos de selección de privacidad y de seguimiento que hacen las aplicaciones. Cuando Apple hace esta modificación en la que dice que va a obligar a que todas las aplicaciones del grupo, como Instagram o Facebook, te permitan optar para no ser trackeado. ¿Y con qué se encuentran? Obviamente fue una estrategia brillante de marketing, porque entienden que hay una valoración mucho más positiva de la ciudadanía por la privacidad, y aun cuando tengan que empezar a tener algo premium por no ser vigilados. La autorregulación tiene elementos que en parte funcionan cuando tenés vasos comunicantes que te permiten tener separación funcional, cuando no sos la plataforma que produce la mermelada, la comercializa, la vende y se la muestra al usuario, que es lo que Amazon quiere hacer con los alimentos. Si estás en toda la cadena de producción, entonces es muy difícil para un regulador poder establecer cuándo hay discriminación con la competencia.

¿Pero cuál fue el avance de Amazon? Empezó con los libros hasta dominar todo el mercado editorial del mundo. Siguió con lo textil, y tiene un dominio impresionante. Y va rubro a rubro.
La mayor concentración de mercado que tiene Amazon es la nube, y es lo que le da más recursos. Amazon Web Services, ese es el corazón del negocio de Amazon, y es ahí donde está el mayor núcleo de poder. Obviamente que la plataforma de comercio es fundamental, pero por ahí aparece un poco más de competencia y se empieza a plantear lo que dicen algunos autores que es hacer activismo ciudadano. Cualquiera de estas plataformas depende de una base física material, y de depósitos en ciudades. En Estados Unidos los grandes centros de logística, y ni que hablar de la gente formada, se concentraron en ocho ciudades. Pero la pugna entre ciudades de Estados Unidos, que ha sido muy estudiada, por captar esos grandes depósitos de Amazon que congregan a centenares de trabajadores. También pasa en Europa. Estos autores hablan de vayamos a que las propias ciudades empiecen a generar mecanismos de regulación, incentivos y condicionamientos a ese tipo de prácticas. El año pasado, en esta conferencia sobre metaverso en Palo Alto, había un especialista en un ámbito de indumentaria, que había trabajado en Banana Republic y en muchas otras. Ellos usaban tecnología 3D, que se parece al metaverso, y por eso estaban en esa conferencia, y lo que mostraban es el mal uso y lo ineficiente que es que cada empresa de retail y de comercio electrónico use y desarrolle su propia línea de distribución, y cómo, compartiendo información sobre espacio disponible en depósito y sobre choferes dispuestos a transportar las mercaderías, todo se vuelve más amigable y no te va a llegar dos meses más tarde el pantalón que te compraste. Aun cuando parece que todos estos grandes están solucionando problemas, por ser tan grandes, tienen unos cuellos de botella que no les permiten lograrlo. Creo que no es multicausal que estemos en el lugar en que estamos en relación a estas grandes empresas de tecnología e inteligencia artificial y los datos que controlan. Y tampoco es que tenemos sólo una forma de entrarle al problema. Es una batería de problema y recursos. Ni la mejor ley que pueda desarrollar e implementar la Unión Europea va a solucionar el tema. Es una batería de recursos, más o menos para la misma parte del monstruo, y no hablemos, después, de todo el tema de educación y demás. No es que se va a resolver sólo con un tipo de reglas, de mecanismos o un actor.

Los Cambridge Analytics para imponer gobiernos que les respondan.
Acá hay una experiencia interesante y creo que esto es algo que le interesa mucho al espectro político uruguayo. La regulación de las campañas electorales, la comuni9cacion en las plataformas. Empieza a haber un efecto de cumplimiento de las plataformas y los contenidos sobre las autoridades y las reglas del juego locales, que aún, aunque no necesariamente siempre, se puede llegar a cumplir, sí vemos mecanismos interesantes. Cito un caso argentino de una ONG que desarrolla una aplicación que hace un monitoreo sobre qué tipo de propaganda estaban recibiendo usuarios que se ponían en el experimento, que violaban con la veda electoral. Lo de Cambridge Analytics es un escándalo.

Es la punta del iceberg.
Sí. No es por minimizar el tema con cómo están las cosas en términos de compartir datos y del perfilamiento que puede hacer una plataforma que comparte datos con terceros. Cualquier otra agencia de comunicación con esas intenciones lo podría haber hecho. Lo que hay es una intención humana. No defiendo a Meta, pero Meta no estaba permitiendo hacer con los datos lo que esta empresa hizo.

Pero lo facilitó.
No ejerció los deberes de los controles necesarios. Es una empresa que, teniendo esos datos, los usó. De hecho, si bien sí hay evidencia de las campañas que realizó Cambridge Analytics en diversos países, incluyendo el propio Reino Unido, sí está demostrando que con la campaña de Trump no tuvo ese éxito. Esos doscientos mil perfiles, que eran a los que tenían que llegar para voltear las elecciones en los consejos electorales de esos estados, no fueron finalmente tan decisivos ni lo que terminó cambiando la elección. La elección cambió por otros motivos y, también, porque Estados Unidos sigue teniendo el perverso sistema electoral que tiene desde el siglo XIX, con el colegio electoral. Por eso digo que conviven reglas viejas, de las instituciones antiguas, con otras nuevas. Esa forma electoral está asociada a la época de no querer permitir que las minorías de origen afro tuvieran relevancia electoral. Eso se mantiene, y choca con estas nuevas prácticas habilitadas por el sistema digital. Estamos en un momento interesante.

¿Tenés gurises?
Tengo una nena.

¿Usás la política de Silicon Valley? ¿Cómo hacés para que no sea manipulable?
Le tengo muy controlada la pantalla. Tiene seis años. La mandé a un jardín Waldorf en Alemania. Sin duda no son muy protecnología, pero tampoco es que no usan nada. Lo hablé con otras madres, y sí, se usa algo de pantalla, como el WhatsApp.

La gente que se supone que más sabe del tema es la que más límites pone. Por algo es. Todos estamos muy manipulados.
Este estudio habla de los efectos de la dopamina, la serotonina, la adrenalina, en un círculo vicioso que se refuerza, con el sonido, con la novedad, con el sentir qué es lo que pasa si no me conecto. La ansiedad, el conectarse para ver que está todo bien. O el sentir que te estás perdiendo de algo, el “fear of missing out”, como le llaman, el FOMO. El no saber si tus amigos se van a juntar esta tarde y te perdés el programa, eso es el FOMO. Y eso refuerza un patrón de conducta. Hoy la sociabilidad de los adolescentes, y de muchos niños, lamentablemente, está mediada por la tecnología. Pero creo que, también, con todo lo negativo que tuvo la pandemia en diversos ámbitos, incluyendo la mayor dependencia de estas tecnologías para la comunicación, puso de manifiesto lo que se disfruta del contacto humano, del cara a cara, de volver al cumpleaños en el parque, en el salón.

¿Por qué hay tan pocas mujeres en tu rama?
No sé por qué, la verdad.

A nivel de las ciencias duras, en general, hay pocas mujeres. ¿Seguimos siendo tan patriarcales en eso?
La carrera universitaria y científica implica un sacrificio y está demostrado que, cuantos más años de estudio tiene una mujer, menos hijos tiene y más posterga la maternidad. Hay una presión constante, y parece que no, que yo con mucho placer elijo esta vida. Pero lo cierto es que uno no enciende y apaga la cabeza con la luz del escritorio. Si tengo una idea, un paper o un artículo en la cabeza, una investigación, una hipótesis o una pregunta, la tengo todo el tiempo, ya sea el fin de semana o a las tres de la mañana. No sé si es algo que a todo el mundo le guste vivir. Y también sucede que en los temas que yo trabajo mucha gente se pregunta para qué vas a estar en la academia ganando la quinta o la décima parte de lo que podrías ganar en una empresa, y teniendo acceso a gente muy interesante, porque está lleno de doctores, PHD y científicos en esas empresas, haciendo cosas muy interesantes. Pero bueno, no me interesa tanto el fin de estar en una organización de esa naturaleza.

¿Renta básica universal para la catástrofe laboral que va a significar la inteligencia artificial?
Puede ser una salida. Creo que hay que pensar que, si vas a automatizar con un robot, que ese robot pague impuestos. La persona paga impuestos sobre su salario, ¿y el robot? Eso es parte de lo que ha generado la ganancia de los billonarios. El ser humano tiene una carga impositiva, y las empresas una carga social, pero el robot no. Es reamente muy desigual. Creo que hay que ir por un camino muy distinto, repensar las reglas. Por ejemplo, acerca de quién es el dueño de los datos. Quién los usa. Obviamente que a las grandes empresas tecnológicas no es lo que más les interesa. Pero si se usan datos de una persona, ¿esos datos no le pertenecen a esa persona? Hoy no. Hoy lo que podemos tener son resguardos legales acerca de que tus datos personales en Uruguay van a ser tratados con una ley que tiene amplias protecciones y garantías, incluso extraterritoriales, en muchos casos. Uno puede decir que quiere usar las plataformas y tener mucho más control de esos datos y decidir con quién, cómo y cuándo los comparte. Esos temas me parecen centrales, también para repensar esto de la renta básica y demás. En principio digo que sí a la renta básica porque va a haber muchos empleos destruidos, pero creo que no es sólo eso, y sobre todo no lo es porque, con el clientelismo que hay en muchos países de la región, tenemos que cuidar muy bien cómo se maneja esa renta básica, yendo atado a un nuevo contrato social con el mundo digital, y que tiene que ver con un control mucho mayor de los datos. Así como uno aprende a ser un ciudadano alfabetizado, a saber leer, escribir, sumar y restar, en el mundo digital no sos una persona de carne y hueso, estás digitalizado.

¿Qué implica eso?
Hay que tener mucha más noción de esos deberes y derechos que vienen con estas nuevas reglas del juego y estas tecnologías que queremos para entretenernos o ver el Louvre sin ir a París. Esas discusiones se están empezando a dar. Todavía no aparentan tener la fuerza o la capacidad de voltear modelos de negocios ya establecidos, pero hay muchas, se van dando, y empiezan a sumarse.

Pero son dos borrachos en un cafetín oscuro en Berlín.
No, no. Sucede en San Francisco. En la costa oeste de los Estados Unidos ya hay empresas que están experimentando con esto. Las hay en Europa también. Surge a partir de una discusión con un británico que hace unos años puso en eBay los datos que Facebook tenía sobre él y preguntó cuánto le pagaban por eso. El piso eran cincuenta libras, o algo así, y una semana más tarde terminó como en seiscientas. Finalmente, eBay no dejó que la transacción se realizara, con el motivo de que esos datos no eran suyos, que no se podían vender. Y eso disparó la discusión. Haciendo una analogía con el mundo anterior a la internet, si uno participaba de una investigación de mercado tenía que ir al focus group, mientras que hoy con el celular va dejando las huellas todo el tiempo, sin tener que estar con un encuestador y contarle lo que hizo. Ya se sabe a qué hora te levantás, porque prendiste el celular. Eso empieza a tener otro valor, y los intermediaros y las agencias como esta de San Francisco, empiezan a tener estos modelos de negocios, con empresas que quieren tus datos, para instalar una cadena de cafeterías. Te van a seguir, y te van a pagar. Hay un contrato. Hoy en día este modelo es interesantísimo. Internet es una red abierta y descentralizada que permite que todos generemos contenido, innovemos y demás. Pagás una conexión a internet, querés tener un buscador de noticias y le pagás, querés leer una noticia en el diario y le pagás. ¿Por qué no fue esa la posibilidad, la de ser suscriptor de todo lo que nosotros hacíamos? Ahí hubo decisiones que quizás no se tomaron teniendo en cuenta las consecuencias, pero que sí fueron deliberadas. Cobrar o no cobrar por los buscadores fue una decisión que se tomó. Google dijo que no cobraba. Al principio cobró por la publicidad. Todo eso fue desarrollando un sistema, con ciertas reglas, en el que no estamos dispuestos a pagar por todo. Antes, cuando navegábamos por internet, conseguíamos material protegido por derecho de autor. Hoy en día con las plataformas se empezó a ver que se puede generar un modelo interesante de negocios, para los artistas musicales, por ejemplo, con una suscripción muy barata. ¿Pero todo lo que consumimos en contenidos en internet está plataformizado de esa manera, mediante suscripción? No. Son muy pocas las plataformas que están en este modelo. Las otras son suscripciones con nuestra data, pero es una suscripción al fin, con Instagram, con TikTok, con Meta, con Facebook.

Lo más peligroso siguen siendo los políticos utilizando nuestros datos para hacer los discursos para cada público.
En Uruguay el año pasado hubo un informe que sacó una organización sobre el uso de reconocimiento facial en tiempo real. Ese tipo de debates de decir que tenemos una buena ley de protección de datos personales y que las fuerzas de seguridad de la ley tienen sus mecanismos y sus reglas, pero tiene que haber una adecuación. El reconocimiento facial en tiempo real en vía pública sin consentimiento es algo que hoy la ley europea, que va a ser aprobada en unos días, lo considera un sistema de alto riesgo.

Entonces estuvo bien el Brexit, porque los ingleses tienen cámaras por todos lados. China tiene cientos de millones de cámaras.
Para diferenciar el sistema chino del británico, o por lo menos el británico tal como era hasta hace un tiempo, una cosa es que una persona esté caminando en una estación de tren y otra cosa es que eso quede guardado y que eventualmente haya un metadato. Con el sistema en China se sabe exactamente quién es la persona, o se aproxima bastante, porque sabemos que estos algoritmos todavía tienen fallas y falsos positivos. Pero es distinto tener cámaras que ya están generando información y saben que a las tres de la tarde estuviste en Tres Cruces, y a las seis y media en Facal. Eventualmente se puede.

Acá va a ayudar a combatir la delincuencia, cuando lleguemos a ese grado.
Los que dicen que usar estos sistemas de reconocimiento facial masivo en espacios de vía pública para combatir la delincuencia tienen una fe muy alta en que esta tecnología funciona muy bien, y nosotros como ciudadanos tenemos que tener una fe muy alta en que se va a usar bien, en que no la van a usar para otros propósitos, en que no va a haber falsos positivos. Pero además están los enormes problemas de ciberseguridad y la presión que se le pone, porque sobre esos sistemas informáticos que están procesando esos datos, ¿qué pasa si hay un ataque, una fuga de esos datos? ¿Qué pasa si se accede a ese sistema desde afuera? Ya no acceden solamente las fuerzas legales de un país, sino que accede cualquier hacker. ¿Es una responsabilidad a la que están dispuestas las autoridades que toman esas decisiones? ¿Dónde van a estar esos datos, en una nube afuera del país?

Cualquier Astesiano puede llegar a…
Absolutamente, sin tener que poner una persona para que lo siga. Estamos hablando precisamente de eso, ni más ni menos.

------------

Carolina Aguerre es Doctora en Ciencias Sociales por la Universidad de Buenos Aires y máster en Comunicación y Cultura por el Goldsmiths College de la Universidad de Londres. Es codirectora del Centro de Estudios en Tecnología y Sociedad (CETyS) de la Universidad de San Andrés e investigadora asociada del Centro de Estudios para la Cooperación Global (GCR21) de la Universidad de Duisburg-Essen. Es directora académica y fundadora del Diploma en Gobernanza de Internet (DiGI desde 2017) y fundadora de la iniciativa GUIA.ai para la promoción del conocimiento sobre ética y gobernanza de la IA desde la región. Tiene experiencia en el desempeño de diferentes funciones de asesoramiento en políticas internacionales en materia de IA e Internet, como la Global Partnership on AI (GPAI) (2020-2022), InTouchAI de la Comisión Europea (2022), el Grupo de Expertos Ad Hoc de la UNESCO sobre Recomendaciones Éticas para la Inteligencia Artificial (2020) y el Grupo Asesor de Múltiples Partes Interesadas para el FGI designado por el secretario general de la ONU (2012-2014), así como el Consejo Asesor Internacional del Centro de Comercio Digital y Gobernanza de Datos de la Escuela Elliott de Asuntos Internacionales (Universidad George Washington).

Este sitio utiliza Cookies