Buscador UdeSA

Filtrar búsqueda por categorías
FuenteiProfesional

La inteligencia artificial plantea estos desafíos y retos urgentes a la educación argentina

masnatta

¿Cómo impacta hoy la inteligencia artificial (IA) en el sistema educativo en la Argentina? Cada vez es más difícil detectar qué es generado por esta tecnología y qué no. ¿Es eso una preocupación para el sistema educativo? ¿Debería existir una legislación o un protocolo sobre la aplicación específica de la IA en el sistema educativo?

En torno a estos interrogantes y otros, iProfesional entrevistó a Melina Masnatta, emprendedora en tecnología, educación y diversidad; y autora del flamante libro "Educar en tiempos sintéticos. Pasión por enseñar. Deseo de aprender", de editorial Galerna.

Con una licenciatura en ciencias de la educación y una maestría en tecnología educativa, Masnatta encabezó durante los últimos 15 años procesos y programas de innovación social con escala mundial, tanto en el sector público y privado, y en organismos internacionales.

Cofundadora de la iniciativa Chicas en Tecnología, fue su directora ejecutiva hasta el 2021, cuando fue convocada por la empresa Globant como la primera directora global de formación, diversidad, equidad e inclusión de esta compañía, uno de los "unicornios" informáticos argentinos.

Masnatta es subdirectora en el posgrado de inteligencia artificial y género de la Universidad de Buenos Aires (UBA), coordinadora académica del MBA con orientación en negocios tecnológicos y digitales y profesora de la Universidad de San Andrés, y cofundadora de Enki, una organización latinoamericana que trabaja con IA y docencia.

La campaña "Enseña tu voz" impulsada por Enki, reveló que un 93.33% de los docentes en América latina señalan que usan algún tipo de herramienta tecnológica en el proceso de enseñanza; el 97.4% considera que la inteligencia artificial impacta en la práctica docente; y el 72.51% de las respuestas dan cuenta que lo hará de manera positiva.

El libro de Masnatta traza un recorrido por la tríada de la educación -el sistema educativo, sus protagonistas y el diálogo en los nuevos escenarios- de la mano de preguntas, la incorporación de voces de expertos y diferentes personas que son parte única, y a veces poco visibilizadas, y mediante experiencias y casos alrededor del mundo.

-¿Cómo impacta hoy la inteligencia artificial en el sistema educativo y sus componentes en la Argentina?

-En todos los países impacta de manera diferente, aunque tenemos tendencias regionales, por ejemplo en América latina la mayoría de los docentes consideran que impacta positivamente, pero menos de la mitad la utilizó para sus clases.

El punto radica en que sea lo suficientemente visible para darnos cuenta de en qué está impactando (¿en la producción de contenidos?, ¿en la evaluación?), y entender quién lo está regulando y cómo. Algunos países tienen regulaciones, buenas prácticas, formas de inclusión en el aula. La Argentina todavía está definiendo esos puntos que no son menores, sobre todo a nivel nacional.

Por un lado, está la oportunidad de reforzar qué queremos que pase en las aulas con la IA. Pero por el otro, están los usos que no son sistematizados en donde todas las aplicaciones que tenemos o utilizamos en el entorno educativo.

Incluso las redes sociales tienen inteligencia artificial solo que como no tenemos entrenamiento en qué implica la IA o qué es, no lo sabemos. Eso trae aparejado algunos riesgos como dar datos o cuestiones de adicciones a estas plataformas sin entenderlas.

Sí bien hay jurisdicciones que tienen experiencias a nivel estatal, lo que se está relevando es más en la gestión privada, donde hay algunas experiencias donde se están automatizando puntos relacionados con tareas administrativas para entender algunos "dashboard" de gestión de matrículas, de exámenes, planificación de horarios.

También se empiezan a observar algunas iniciativas más experimentales y de mayor innovación donde se trabaja con el análisis de datos, la posibilidad de personalizar el aprendizaje y que acompaña procesos de evaluación para poder dar después respuestas mucho más enfocadas. Estas son fases experimentales que son interesantes y que pueden "cascadear" y enseñar al resto.

-Cada vez es más difícil detectar qué es generado por una IA y qué no. ¿Es eso una preocupación para el sistema educativo?

-Sí, se trata de la primera preocupación que aparece en el sistema educativo porque desde casos del uso de la Wikipedia, como un montón de otras historicidades vinculadas a la tecnología educativa siempre estuvo presente este temor.

Cada vez es más difuso el límite entre quién lo creó; si un humano fue la primera persona que creó el código y después eso se automatizó. Entonces desde mediados de 2023 comenzó a haber un montón de plataformas que identifican si los trabajos prácticos entregados están realizados con ChatGPT u otras IA. A su vez, con todo lo que pasó con la IA para imágenes como Dall-e o Midjourney, aparecieron algunos en los que la persona sube una imagen e identifica si es creada o no.

Y a su vez, hubo un patrón y esto lo amplío más en mi libro "Educar en Tiempos Sintéticos", donde empezó a haber una forma de resaltar que el trabajo humano es un trabajo artesanal, diferente, que si bien tiene sesgos - la IA también lo tiene - pero que tiene algunos valores asociados.

Entonces aparecieron algunos sellos para destacar desde un lugar positivo, indicando que algo está creado por humanos y no por IA. Esto es muy interesante. Si bien es cierto que es más difícil de detectar, aparecen siempre plataformas que traen esta otra forma de resolverlo, aunque no es sostenible en el tiempo.

El modo de abordarlo es poder trabajar con todo lo que tiene que ver con formación en el uso responsable de la tecnología, entenderla y solicitarla, pensar en objetivos y criterios que se tengan que enseñar desde la autenticidad y la credibilidad del contenido, proporcionar estrategias para darse cuenta y ahí aparecen un montón de otras preguntas como los desafíos más éticos y morales que están conectados directamente con esta alfabetización digital.

Es una preocupación que por lo general trae una alerta de "prohibido usar esto" y en consecuencia un montón de límites que no es el que estamos buscando, porque no es sostenible con este tipo de tecnología.

-¿Debería existir una legislación o un protocolo sobre la aplicación específica de la IA en el sistema educativo?

-Sí, debería existir. De hecho la ley de IA que tiene la Unión Europea hace un apartado con todo lo que tiene que ver con la educación desde los usos de los datos, la trazabilidad de esa información, la transparencia de contar que eso que estás haciendo tiene que ver con un algoritmo y a su vez, te va a acompañar a lo largo de la vida con esa huella digital que estamos haciendo.

Además es muy clara en cómo estos algoritmos y bases de datos con las que se alimenta la IA no solo tiene sesgos sino que también es susceptible a ser modificada para manipular emociones. Estos son puntos claves y que se detallan en esta ley.

Debería haber una legislación o protocolo basada en una acción crítica, dinámica y proactiva en la que no sólo estén sentados los educadores o tecnólogos sino que puedan converger y conectar a las familias, y a otros protagonistas del sector educativo. ¿Por qué? Porque todo lo que estamos haciendo con inteligencia artificial se da por fuera del sistema escolar. Y hay casos como en Chile, Ecuador y Costa Rica, que son lugares que tienen experiencia tecnológica educativa, que es importante tenerlos en cuenta.

-Para los docentes que están preocupados de que la IA les quite el trabajo, ¿qué deberían hacer? ¿Qué pueden hacer?

-Se trata de un desafío muy grande. Muchas profesiones se van a ver impactadas y reconvertidas. Eso no significa que se eliminarán, sino que van a aparecer otras que seguramente puedan ser ocupadas por estas mismas personas. Por eso se habla de una era donde vamos hacia las ocupaciones y a lo largo de nuestras vidas vamos a ocuparnos en diferentes oficios, ya no solo una carrera profesional como lo solíamos vivenciar.

Hay plataformas educativas que utilizan IA con foco en la personalización del aprendizaje y hacen preguntas y generan un diálogo socrático muy bueno, que interpelan a la persona de una manera interesante. ¿Qué puede hacer ese docente? En principio entender cómo funciona la lógica, no implica aprender a programar, implica producir para entenderla.

Al atravesar eso, van a encontrar muchos diferenciales, lo cual está buenísimo porque el docente debería aprender a complementar y a potenciarse, y que su rol esté más enfocado en puntos estratégicos, e incluso en esos de los que nunca se debería haber corrido.

Pueden atravesar este ámbito como usuarios críticos, creativos, curiosos, perteneciendo a comunidades, haciendo incluso cursos libres y gratuitos. La clave está en poder pensarse desde ese lugar más amplio, y esto va a ser de muchísimo valor.

En este camino, los y las docentes no deberían estar en soledad. Hay un currículo, hay un sistema, hay un montón de otras cosas que definen su hacer y se deberían implicar y garantizar el oficio, que es uno de los que nos hizo llegar hasta acá, nos hizo como humanidad crear una inteligencia artificial. ¡Vaya sino es crucial! ¿Qué queremos para los próximos años? Es una pregunta completa que depende de un diálogo y compromisos interseccionales.

-La IA puede salirse de conceptos preconcebidos, aprendidos a través de interacciones humanas. ¿Cómo se garantiza que los estudiantes no tengan acceso a contenidos sesgados o prejuiciosos?

-Lamentablemente el desafío que trae la IA es la celeridad, una concepción del tiempo acelerado para determinados procesos. Vamos a buscar esas herramientas porque nos dan una rápida mirada de algo, pero no profunda o validada. Tenemos que ponerle un filtro para entender su relevancia y veracidad.

El desafío grande que tenemos es la alfabetización digital para que se entienda qué es una fuente confiable, poder promover el pensamiento crítico para comprender y desafiar, a la vez que tener muchos espacios de discusión abierta y debates.

Esto se juega mucho como una habilidad en la era de la post verdad. No sólo es la información sino también los formatos (como videos o imágenes) en que nos llega la información los que nos confunden y hacen pensar qué algo es genuino y que es confiable.

Otro punto importante es la retroalimentación continua que deben tener las inteligencias artificiales con los humanos, esta idea del "human in the loop", para entender dónde vamos a empezar a revisar, a chequear, porque algo que puede hacer muy bien la IA orientada y guiada es rápidamente acercarnos un pantallazo de algo, pero necesita de esa orientación. Y para eso está este punto de la validación humana, que probablemente sea parte de las tareas y los roles del futuro.

-¿La aplicación de la IA en el sistema educativo profundizará las desigualdades en oportunidades y en la calidad de la educación entre los países más pobres y los más ricos?

-Lamentablemente sí va a profundizar las desigualdades si no está ordenada y regulada. Sabemos que también es muy difícil eso porque requiere de políticas y estrategias específicas para quienes no tengan un acceso a la infraestructura, a la formación a docentes.

También hay que pensar si ese contenido educativo está personalizado o no, si es un contenido generalizado entonces genera desigualdades porque, por ejemplo, no todas las personas pueden acceder si está en un idioma como inglés y sólo las escuelas bilingües podrían entender de qué se trata.

Pero por otro lado, podría generar una equidad, al reparar muchas de las cosas que ya vienen con problemas desde los aspectos socioeconómicos, de acceso y demás, potenciando rápidamente si estuviera bien ordenada, categorizada y trabajada.

Podría acercar información que en muchos lugares, como los ambientes rurales, donde no se tiene mucho acceso a bibliotecas o espacios más inmersivos. Puede acercar experiencias educativas rápidamente y con una inversión baja para poder equiparar esas desigualdades.

Pero para ello se necesita un foco, un propósito y una decisión política, no sólo a nivel Estado sino también a nivel región, y ahí los organismos internacionales tienen mucho para aportar en cuanto a datos o estrategias de financiamiento a ciertos programas y demás. Se requiere una decisión interseccional, pero rápida, porque mientras estamos hablando, la IA está avanzando, y no tenemos seguridad o consenso si es hacia dónde queremos ir.

-¿El sector educativo debería dejar el despliegue y la aplicación de la IA en manos de las empresas que la desarrollan?

-La realidad es que en la mayoría de los casos las empresas desarrollan sin ningún tipo de revisión, conversación o validación con el sistema educativo. Lo primero que se debería hacer es dialogar y tener personas que entienden las necesidades educativas, comprendan que hay una responsabilidad y una ética cuando se enseña algo.

Por otro lado, hay otros tiempos que se utilizan en el aprendizaje, y hay condiciones para el aprendizaje como la atención, que deberían ponerse también sobre la mesa, porque las pantallas compiten o ya educaron sobre los modos de aproximarnos a esta tecnología.

Creo que hay algunos puntos donde se podría realizar una articulación entre sectores. Uno puede ser la evaluación del impacto, que se puedan hacer mesas intersectoriales para resolver, apuntar y conocer de qué se trata y las implicancias.

Y a su vez, tener un fuerte manifiesto desde la ética que acompañe a través de soporte y capacitación para que algunos sectores como el educativo, que no tiene tantos recursos, pueda estar a la par de estos otros sectores que avanzan de manera acelerada.

-Habitualmente se necesitan más autorizaciones para aprobar un nuevo libro de texto que para validar el uso de la IA en escuelas y aulas. ¿Se corre el peligro de bajar los estándares de la educación con la IA?

-Es una pregunta muy interesante, porque es una pregunta que trae al soporte a la conversación. En el ámbito editorial, el desafío está en que aquello que va a estar impreso tiene que ser fidedigno, verdadero, estar chequeado, porque una vez que se imprime ya está, no hay vuelta atrás. El soporte digital no necesita de eso, entonces hay menos tamiz sobre cuán fidedigno y confiable es, se corre el peligro de bajar los estándares de la educación.

Se debería regular la IA, evaluar los desafíos de los derechos de autor, las bases de datos, los procesos de validación, la transparencia, que se puedan hacer consensos con formación, encuentros intersectoriales, y con una evaluación y monitoreo continuo.

No está claro dónde cada persona y/o tecnología aporta valor, y este es uno de los desafíos más grandes que tenemos en los próximos años, quienes avancen en esta agenda, van a avanzar en los desarrollos y economías, no solo desde el aspecto educativo.

Estamos en tiempo de descuento, y con escenarios que traen continuamente otras urgencias (como la falta de infraestructura, pobreza, cambio climático, etc.), sin embargo es por acá donde además se pueden traer soluciones y transformar oportunidades. Pero eso implica decisión y posicionamiento frente a la IA, que en general resulta desconocido para la mayoría de las personas qué es y cómo funciona.

Este sitio utiliza Cookies