Buscador UdeSA

Filtrar búsqueda por categorías
FuenteNoticias

ChatGPT: ¿Cuáles son los límites del futuro?

ia

La inteligencia artificial propone reemplazar las tareas automatizables. Los anuncios de sistemas de inteligencia artificial se multiplican y el impacto cambiará la relación de los usuarios con la tecnología.

Ya no es tan fácil saber si esta nota la escribió Pablo Wahnon o una máquina. Tampoco se sabe si la editó María Fernanda Villoso. La mayoría de las personas de la actualidad son completamente incapaces de saber si un texto traducido proviene de un traductor online basado en Inteligencia Artificial (IA) o de un especialista humano en la materia. La tecnología evolucionó tanto que los especialistas dan por sentado que “hemos resuelto el problema de la traducción”, como señala Roberto Bunge, director de la carrera de Ingeniería en Inteligencia Artificial en UdeSA.

El que no se sepa si esta nota proviene de una IA es parte del gran avance reciente y la raíz de problemas a los que la humanidad se expondrá por primera vez en su historia. El auge de ChatGPT remixó una frase de Bill Gates y ahora entramos en la era: “La inteligencia artificial en la punta de tus dedos”. Si bien la IA ya era parte del día a día cuando se realizan acciones como la búsqueda de fotos de un amigo o el dictado por voz, recién ahora la semántica de los textos es comprendida por los sistemas de IA al punto tal que el diálogo hombre-máquina es posible.

Y es así que en los grupos de WhatsApp se van comentando las charlas más divertidas que se tienen con ChatGPT. El software de la empresa OpenAI llevó al estrellato a su joven CEO Sam Altman, y desató una carrera en Silicon Valley por financiar empresas de todo tipo relacionadas con el rubro. El objetivo de las compañías es reemplazar tareas automatizables liberando más tiempo de creatividad.

NOVEDADES. Los docentes ya cuestionan si estas tecnologías deben ser prohibidas. Es que ChatGPT aprobó exámenes de gran complejidad como los universitarios. No estaba preparado el sistema educativo para recibir el impacto de la criatura de OpenAI. El mundo de los negocios está siendo sacudido por lanzamientos casi diarios. Por ejemplo, la empresa Salesforce lanzó EinsteinGPT que bucea dentro de los datos corporativos. Globant compró la empresa GeneXus y presentó una solución de IA para programadores. Type.ai permite escribir con un asistente inteligente que va aconsejando cómo realizar cada párrafo desterrando el síndrome de la página en blanco. Y los anuncios se multiplican sin cesar.

Las tendencias en IA caminan hacia lo que definen como multimodalidad. Por ejemplo, la nueva versión de ChatGPT es capaz de extraer información de imágenes y video. La semántica entonces se expande por diversas fuentes de contenido. Por otra parte, la IA evoluciona para que se le pida cosas como: “Necesito una imagen de una mesa con cinco ejecutivos” o “Armar un video de una mariposa sobre flores amarillas”.

REGLAS. Tantos éxitos no están llenos de desafíos. La IA aprende a partir de datos. La información que maneja ChatGPT llega hasta 2021. No sabe que Messi fue campeón del mundo, pero sobre todo no entiende si las reglas básicas cambian. Si el lenguaje inclusivo hubiese surgido este año le sería incomprensible de tratar. Y esto es así porque la IA es muy fuerte cuando los datos de los que parte son confiables y las reglas del juego están claras. En el ajedrez nadie, ni el gran campeón Magnus Carlsen le puede hacer ni sombra a un sistema de IA. Pero en la vida real los datos a veces no son del todo claros, y las reglas para interpretarlos pueden cambiar.

Hay áreas que a su vez son grises. La conducción autónoma surgió hace más de 10 años. Los autos de Google andaban bárbaro por el campus de San Francisco y se pensaba que muy pronto conducir ya no sería una tarea para humanos. “El problema fue más difícil de lo que se pensaba inicialmente. Hoy sabemos que cada lugar requiere un entrenamiento específico de la IA, no es lo mismo conducir en Argentina que en la India o Estados Unidos”, comenta Bunge.

Otro tema donde la IA es cuestionada es que no puede mostrar de dónde saca sus resultados. Estos sistemas aprenden por ensayo y error (Machine Learning) en un proceso basado en técnicas de probabilidades y estadísticas. Nos pueden decir que dos rostros son iguales, pero no por qué se llegó a esa conclusión. “No es como una ecuación donde conocemos los datos ingresados y los que salieron, y además sabemos que esa ecuación es un modelo como la ley de la gravitación que entendemos cómo se formó”, advierte Irad Ben-Gal, director del laboratorio de Machine Learning de la Universidad de Tel Aviv. Pioneras como IBM advierten la necesidad de establecer una ética desde el momento mismo en que se desarrollan los sistemas.

PROBLEMAS. Los desarrollos de la IA son tan vertiginosos que nuevos peligros se desatan en el corazón de las aplicaciones tecnológicas. Raúl Cebral, un destacado físico argentino, desarrolló modelos para predecir la ruptura de aneurismas cerebrales desde la Universidad George Mason en Estados Unidos. Se trata de un área compleja de la mecánica de fluidos. La sangre tiene su viscosidad, densidad, temperatura, presión y otros parámetros que vuelven complejos los cálculos. “Pero comprendemos la teoría, tenemos la ecuación de Navier Stokes. Debemos usar supercomputadoras, pero el comprender la teoría física subyacente nos hace que podamos extrapolar escenarios. Podemos reconstruir la red de arterias de cada cerebro en particular y así estudiar los casos de cada persona”, afirma Cebral.

Sin embargo, otros investigadores vieron que era mucho más rápido entrenar un modelo de Machine Learning. “El problema es el sesgo que parte desde el conjunto de datos con el cual fue entrenado. Entonces si hay un cambio no previsto los resultados van a estar mal. Por ejemplo, desde un plano inclinado se puede deducir la ley de gravitación con Machine Learning, pero si viene un viento fuerte que interfiere van a decir cualquier cosa. Estamos entonces en situaciones donde tenemos la ecuación porque entendemos el problema e igual no quieren usarla”, advierte Cebral.

Si los datos del mundo físico que son “duros” en el sentido que sus valores son más inmutables que sucede sobre los datos “blandos” del mundo humano cuya semántica cultural y emocional cambia. Y es por eso que los problemas recién comienzan. El fanatismo es precisamente una modalidad que endurece la semántica y es por lo tanto tierra fértil para los algoritmos de IA. Si Putin necesitó un ejército de trolls para derrotar a Hilary Clinton ahora su inversión bajaría a centavos.

La IA en la punta de los dedos es un arma de la cual sólo un nuevo sentido del entendimiento podrá defendernos. En un mar de falsedades habrá que distinguir si lo dicho provino de un humano que dice lo que dice y además más y otra cosa cómo enseñara Alejandra Pizarnik.

El nuevo escenario quizás evolucione hacia la curación de contenidos donde los medios tengan su revancha. Y sino solo puedo decir que esta nota la escribí yo porque escuché ese silencio aterrador que reinó en la redacción de NOTICIAS ese lunes 27 de enero de 1997. Sólo el sonido de los teclados trozaba el silencio. No conocíamos otra forma para defender a nuestro compañero José Luis Cabezas. Y, desde ese día, aunque escribamos más despacio que la IA, sabemos que foto debemos teclear.

Este sitio utiliza Cookies