El Martes 13 de junio tuvo lugar la segunda edición del Seminario de Inteligencia Artificial y Ciencia de Datos en el Campus Victoria de la Universidad de San Andrés
En su exposición, explicó cómo en los últimos 10 años el NLP ha experimentado un progreso significativo, lo cual ha permitido masificar el uso de tecnologías tales como el análisis de sentimientos, los agentes conversacionales, la traducción automática y la búsqueda de información. Además, hizo hincapié en que la disponibilidad de grandes volúmenes de datos y el acceso a dispositivos de cálculo especializados, como las GPUs y TPUs, han sido factores clave en el avance del NLP. Estos avances tecnológicos, combinados con el desarrollo de algoritmos eficientes para el entrenamiento de redes neuronales, han posibilitado el entrenamiento de modelos de lenguaje más grandes y profundos, alcanzando una escala que anteriormente resultaba difícil de imaginar. Juan Manuel concluyó que estos grandes modelos de lenguaje (LLMs, por sus siglas en inglés) son capaces, o al menos aparentan serlo, de capturar patrones sutiles y generar representaciones ricas del lenguaje, demostrando un desempeño sólido en diversas tareas.