Sábado 2 de noviembre de 8:30 a 16:30 | Campus Victoria
- Inicio
- /sciaa
Simposio Científico de IA y Aplicaciones
Fecha límite para pre-inscripción y presentación de abstracts
Oradores
Luciana Ferrer
Liliana Forzani
Gabriel Mindlin
Gerardo Simari
Rodrigo Echeveste
Charlas SCIAA
Abstract:
Hoy en día los jóvenes científicos deben enfrentarse a una decisión intelectual crucial a la hora de abordar un problema científico: la de hallar un balance entre los enfoques interpretables y aquellos basados en datos.
En esta charla discutiremos las diferencias y las profundas conexiones entre los sistemas dinámicos y las herramientas estrella de la IA, las redes neuronales, centrándonos en de qué manera los autocodificadores (autoencoders) y las redes recurrentes representan el flujo de un sistema dinámico no lineal de baja dimensión.
Abstract:
En los últimos años, las herramientas de aprendizaje automático se han vuelto cada vez más eficaces como medio para modelar el procesamiento sensorial en la corteza. Una de las ideas centrales detrás de este enfoque es que al optimizar redes neuronales artificiales para tareas que son relevantes para el cerebro, es posible encontrar modelos que imitan diferentes aspectos del procesamiento cortical. Las redes neuronales convolucionales profundas (DNNs) se inspiraron originalmente en el procesamiento sensorial visual y son actualmente los mejores predictores de las respuestas neuronales medias en múltiples áreas del cerebro.
Sin embargo, estos modelos no están diseñados para representar fielmente la incertidumbre de sus predicciones, que es central en el contexto de la percepción, donde la información que recibimos de nuestros sentidos es siempre parcial e incompleta. Además, estos modelos carecen de dinámica y no capturan la rica variabilidad de las respuestas corticales. En esta charla, primero daré una breve descripción general del estado del arte en métodos basados en DNNs como modelos de procesamiento visual cortical, para luego enfocarme en modelos propios, diseñados específicamente para representar fielmente la incertidumbre y variabilidad mediante la realización de inferencia bayesiana en dos enfoques diferentes.
En primer lugar, dentro del marco del muestreo, con redes que incorporan conexiones recurrentes para extraer muestras de distribuciones de probabilidad de interés. Curiosamente, estas redes muestran características muy generales de la dinámica cortical, como transitorios y oscilaciones. Finalmente, mostraré nuestro reciente trabajo dentro del marco de inferencia variacional, particularmente sobre cómo extender los autocodificadores variacionales clásicos (VAEs) para obtener modelos de percepción visual con estimaciones de incertidumbre bien comportadas.
Abstract:
El manejo efectivo y eficiente de los datos y del conocimiento experto yace -- en mayor o menor medida -- en el corazón de toda aplicación exitosa de la Inteligencia Artificial en cualquiera de sus variantes en el espectro que va desde lo puramente perceptual (IA subsimbólica) hasta los abordajes que emplean maquinaria basada en lógica computacional (IA simbólica).
La IA híbrida o Neurosimbólica (NeSy, por su abreviatura en inglés) nació hace décadas como una forma prometedora de desarrollar herramientas inteligentes que puedan gozar de lo mejor de los dos mundos, y hoy en día está cobrando mayor relevancia de cara a las debilidades que exhibe el software en producción basado en métodos subsimbólicos. En esta charla, primero se brindará una breve introducción a la IA NeSy y la Ciberseguridad, disciplina que está actualmente sufriendo una revolución por la irrupción de la IA tanto del lado defensivo como el ofensivo. Luego, se presentarán algunas de las principales amenazas que se observan en el ecosistema socio-técnico moderno, y se presentarán resultados preliminares sobre el uso de IA NeSy para salir a su rescate.
Abstract:
Un clasificador probabilístico es aquel que produce a su salida la probabilidad a posteriori de cada clase dada la muestra entrada. Estas probabilidades pueden ser usadas para tomar decisiones categóricas para cualquier función de costo, usando la teoría de decisión de Bayes. Además, las probabilidades a posteriori pueden ser directamente interpretadas por los usuarios como la información que el sistema pudo extraer de la muestra de entrada.
La calidad de las probabilidades a posteriori está dada por la calidad de las decisiones que pueden ser tomadas con esas probabilidades. Esta es la idea detrás de las proper scoring rules (PSR), una familia de métricas que sirven para evaluar la calidad de clasificadores probabilísticos. En esta charla se describirán las PSRs y su relación con la teoría de decisión de Bayes. A continuación, se discutirán las razones principales por las cuales los clasificadores probabilísticos pueden producir probabilidades a posteriori muy pobres aún cuando la calidad de sus decisiones es muy buena. Finalmente, se describirá una solución sencilla a este problema que consiste en agregar al sistema una etapa de calibración dada por una simple transformación de las probabilidades a posteriori.
Abstract:
Explicaré cómo el desafío de tener más predictores p que muestras n llevó al desarrollo de los Mínimos Cuadrados Parciales (PLS), un método preferido por los químicos pero inicialmente ignorado por los estadísticos. A pesar de su popularidad en campos como la quimiometría, donde tanto p como n crecen, se demostró que PLS era inconsistente bajo los marcos estadísticos tradicionales. Sin embargo, trabajos posteriores han demostrado que, en el contexto específico de la quimiometría, el estimador PLS puede ser consistente, resolviendo así un enigma clave en su aplicación.