
El uso excesivo de la inteligencia artificial generativa puede generar una deuda cognitiva. Es decir, una dependencia que reduce capacidades como la memoria, la creatividad y el procesamiento profundo a lo largo del tiempo. A esa conclusión llegó el estudio Tu cerebro en ChatGPT: acumulación de deuda cognitiva cuando usás asistentes de IA para escribir ensayos, realizado por investigadores del MIT (Instituto Tecnológico de Massachusetts).
El impacto de trabajar con o sin asistencia de IA
El estudio se llevó a cabo con 54 estudiantes universitarios, divididos en tres grupos: uno escribió ensayos sin asistencia (“brain-only”), otro utilizó un buscador tradicional como Google, y el tercero trabajó con ayuda de ChatGPT-4o. Durante tres sesiones, cada participante redactó ensayos, mientras se registraba su actividad cerebral mediante electroencefalografía (EEG) de alta densidad. En una cuarta sesión, un subconjunto cambió de condición: quienes usaban IA escribieron sin ella y viceversa. Además de los datos neuronales, se analizaron los textos generados, la calidad percibida y el grado de apropiación que los participantes sentían sobre sus producciones.
Los resultados mostraron que el grupo que escribió sin asistencia presentó una conectividad cerebral más robusta, especialmente en regiones asociadas al pensamiento crítico, la creatividad y la memoria. En cambio, quienes usaron ChatGPT mostraron una actividad cerebral significativamente más baja y menor sentido de autoría. Al dejar de usar la IA, estos participantes no recuperaron plenamente su involucramiento cognitivo, mientras que quienes comenzaron sin IA y luego la incorporaron lograron mantener una alta implicación mental.
Los autores concluyen que el uso continuado de inteligencia artificial desde etapas tempranas puede generar una “deuda cognitiva” acumulativa, reduciendo el desarrollo de habilidades cognitivas clave. Sin embargo, sugieren que un uso equilibrado -comenzando con pensamiento propio y utilizando IA en etapas posteriores- podría mitigar estos efectos.
Consultamos a cinco expertos para analizar los resultados de este informe y evaluar de qué manera se puede integrar la IA en el aula de manera significativa para no impactar de manera nociva en los procesos cognitivos.
Usar la inteligencia artificial sin mediación
El uso intensivo de inteligencia artificial sin una base cognitiva previa puede tener efectos negativos medibles en el desarrollo mental, especialmente en etapas formativas, advierten los especialistas.
“Durante la niñez y adolescencia, la corteza prefrontal y los sistemas de memoria aún están en maduración. El uso excesivo de IA sin entrenamiento previo de habilidades básicas puede afectar: la consolidación de memoria a largo plazo (hipocampo); la inhibición conductual y atención sostenida (corteza prefrontal); la mentalización social (redes de la empatía y teoría de la mente)”, subraya Claudio Waisburg, médico neurocientífico y director del Instituto SOMA.
En su experiencia clínica ha observado que muchos niños y adolescentes muestran “dificultades para explicar lo que escriben con IA, problemas para sostener la atención y recordar contenido procesado digitalmente, homogeneización del pensamiento y pérdida de sentido de autoría”, explica en diálogo con LA NACION.
Por su parte, Alejandra Gómez, psicoanalista integrante de APA (Asociación Psicoanalítica Argentina), psiquiatra y magister en psiconeurofarmacología, afirma que “el uso ‘irrestricto’ de chatbots de IA como ChatGPT, conducen a una limitación para ‘apropiarse del conocimiento’”. Y añade que con estas herramientas tecnológicas “en un clic los datos están ‘servidos’: en corto tiempo, con organización, datos precisos (¡a veces, no!) pero de modo uniforme. Es decir, no hay una búsqueda guiada por el deseo de ese sujeto a investigar un tema”.
El conocimiento se construye
El conocimiento es parte de una construcción subjetiva. Alejandra Gómez lo explica así: “el infante humano lleva un largo proceso en ‘captar’ e integrar el conocimiento de los objetos del mundo externo. Esto siempre se produce cuando su entorno, su ambiente, sostenga y facilite este conocimiento”. Cuando se estudia y se investiga ocurre algo similar: “hay búsqueda de textos (siempre hay una curiosidad y un interés singular), lectura, comprensión, asociación de contenidos, asociación singular con la persona que lo lee. Escribir, hacer esquemas, dibujos son modalidades creativas que ayudan a volver a pensar una y otra vez los contenidos encontrados”.
Por su parte, Natalia Jasin, directora general y fundadora de Bounty EdTech, advierte que “el uso constante de IA puede generar una pérdida sutil de iniciativa personal, sobre todo en tareas que requieren pensamiento original o toma de decisiones”. Y agrega: “me preocupa especialmente el uso de estas tecnologías en infancias y adolescencias, donde todavía no hay marcos regulatorios claros, ni protocolos de contención”. Para Jasin, “el diferencial no está en lo que hacés, sino en cómo lo hacés, desde qué lugar humano, único e irrepetible construís tu propuesta”. Y concluye: “eso no se automatiza, se humaniza”.
Integrar la IA con sentido
“Para prevenir el impacto nocivo, utilicemos la inteligencia artificial para contribuir a nuestros procesos de pensamiento, no para reemplazarlos. Como cualquier tecnología, el punto es cómo lo usamos, no la tecnología en sí misma.”, afirma Federico Fros Campelo, director de Ciencias del Comportamiento en el ITBA. El especialista advierte que “los procesos neuronales de índole cognitiva si no se ejercitan se van atrofiando”, y plantea una propuesta concreta: “iniciar instancias creativas que luego puedan ser potenciadas por la IA y no un reemplazo y movida”.
Claudio Waisburg coincide: “La inteligencia artificial no es buena ni mala en sí misma. Todo depende de su integración”. Propone un uso consciente y progresivo: “Esfuerzo primero, IA después: iniciar tareas sin asistencia externa. Hay que usar la IA como prótesis cognitiva, no reemplazo; y destacar el entrenamiento metacognitivo explícito: enseñar a pensar sobre el pensamiento; y luego una evaluación de proceso, no solo de producto. Eso es: valorar el camino, no solo el resultado”.
Melina Masnatta, emprendedora en tecnología educativa y profesora de la Escuela de Negocios UdeSA, sostiene que “el informe es una llamada a la acción para repensar cómo y para qué usamos IA en la educación”. Advierte sobre efectos como “la delegación cognitiva, el excesivo antropomorfismo que conduce luego a un menor uso del pensamiento crítico, así como también al FOBO (compararnos con IA y sentirnos obsoletos)”. Y propone actividades pedagógicas como “pedir primero que los estudiantes escriban sin ayuda de IA, luego que comparen con respuestas generadas por IA y finalmente reflexionen sobre diferencias y valor añadido”. Destaca que “la IA con un marco y propósito educativo sí tiene impactos positivos. De hecho, algunas investigaciones mencionan que si está mediada por un docente puede ayudar al pensamiento crítico”. Y concluye: “se necesita una aldea para criar, y una que no sea digital”.
Por su parte, Jasin subraya que “la IA tiene un potencial enorme como nivelador de oportunidades, siempre y cuando se la integre con sentido pedagógico y humano. Puede personalizar procesos, ofrecer feedback inmediato, facilitar tareas repetitivas y liberar tiempo valioso para que docentes y estudiantes se enfoquen en lo que realmente importa: la comprensión, la empatía, la conexión humana”.