Tinta Artificial.

Tinta Artificial.

Escrito con IA.

No use la palabra gilipollas.

Alarmismo y corrección política a cuenta de un estudio que demuestra los riesgos cognitivos del uso de la IA.

Avatar de Marco Laucelli
Marco Laucelli
jul 17, 2025
∙ De pago

Pregunta 1. ¿Es seguro decir que los LLM, en esencia, nos están haciendo más “tontos”?

¡No! Por favor, no usen palabras como "estúpido", "tonto", "descerebrado", "daño", "perjuicio", "pasividad", "recorte", etc. Le hacen un flaco favor a este trabajo, ya que no usamos este vocabulario en el artículo, especialmente si eres un periodista que informa sobre él.

Esta es la primera de las FAQs de la web [1] específicamente dedicada a un artículo científico cuyas conclusiones - basadas en evidencias impactantes - indican precisamente lo contrario. No quieren que se diga, pero el estudio lo insinúa claramente: la IA nos va a hacer a todos gilipollas.

El artículo al que hago referencia, fue publicado el pasado mes de junio por un equipo de MIT Media Lab [2] que, mediante un experimento con estudiantes en tareas de escritura creativa, ha encontrado evidencias de una pérdida estructural de capacidades de aprendizaje en aquellos que escriben sus ensayos delegando habitualmente todo el trabajo a un asistente de IA.

Los ecos de las conclusiones del artículo han saltado de redes sociales a plataforma de opinión, y de plataforma en plataforma, han llegado a los periódicos, e incluso a la televisión. Las reacciones viscerales, la indignación tecno-optimista y los chistes fáciles que se pueden leer sobre las conclusiones del estudio, explican la obsesión por esta estricta corrección terminológica que reclama todo el tiempo a quien quiera oírlo la autora del estudio:.

Además del vocabulario de la Pregunta 1 evite usar "escáneres cerebrales", "Los LLM te hacen dejar de pensar", "tienen un impacto negativo", "daño cerebral" o "hallazgos aterradores".

Es cierto, que no cunda el pánico. No debería ser necesario insistir en que hay que ser prudentes, que el estudio es limitado y específico, sólo basado en 54 estudiantes universitarios que ejecutan sólo un tipo de tarea: la escritura de ensayos. Pero algunos resultados y las evidencias que los explican son impactantes y, necesariamente, nos alertan de un riesgo.

El descubrimiento principal del estudio es que los estudiantes que sólo emplearon - durante 3 sesiones seguidas - la ayuda de LLM para escribir, manifestaron una conectividad cerebral más baja que los estudiantes que utilizaron la búsqueda tradicional - no la enciclopedia, si no el buscador de Google - o los que sólo tuvieron a disposición su cerebro para escribir sus ensayos.

Una baja conectividad cerebral implica la activación menor de capacidades cerebrales como la memoria de trabajo, la atención interna, el procesamiento semántico y el control ejecutivo de la tarea, es decir el manejo y la toma de decisiones sobre los pasos a seguir en el proceso de escritura. Es conocido que todas estas capacidades están vinculadas directamente con la fijación del aprendizaje, con retener lo que se escribe y con haber digerido todo lo que se investiga antes de escribir. Esta falta de fijación del conocimiento la demuestran claramente otros resultados llamativos del estudio.

Los estudiantes que emplearon sólo LLM en sus tareas de escritura, presentaron una casi nula capacidad para citar sus propios trabajos - percepción de autoría - o para profundizar y defender los argumentos empleados en sus ensayos. Igualmente, a medida que se escribían más textos, estos estudiantes tendieron hacia una clara homogeneización lingüística y estilística.

Porcentaje de usuarios incapaces de citar sus propios textos (en rojo los usuarios sólo LLM, con casi un 90%)

La homogeneización lingüística tiene múltiples causas y es una consecuencia colateral - aunque muy relevante - de lo que más ha impactado del estudio: la aparición de una deuda cognitiva, una pérdida de capacidad y control sobre el aprendizaje.

Inconscientes

El artículo sugiere que las evidencias mostradas en el experimento indican la aparición de cierta atrofia de algunas capacidades cognitivas que resultan relevantes para el proceso de aprendizaje. A largo plazo, la ganancia en efectividad - los estudiantes que sólo empleaban LLM sacaron mejores resultados académicos al principio - esconde la generación de una deuda de aprendizaje, algo así como una menor capacidad para fijar conocimiento a largo plazo - los mismos estudiantes no recordaban sus propios artículos semanas después - y de manejar todo el proceso mental para aprender.

Estaréis de acuerdo conmigo que si perdemos la capacidad de aprender, y además perdemos la propia capacidad de gestionar el proceso de aprendizaje, la probabilidad de convertirnos todos en gilipollas aumenta significativamente.

El abanico de reacciones ha cubierto el espectro habitual. En primer lugar los alarmados-zafios carentes del menor interés, que ya venían diciendo hace tiempo que la tecnología nos hace tontos. Por otro lado, los analistas cautos y correctos, que se fijan en los datos, hacen caso a la prudencia y proponen soluciones. Por último los tecno-optimistas, con el argumento de que la IA no es mala per sé, sino que hay que usarla con cabeza. Como las armas, como la droga.

El argumento principal de este último grupo es que ya hemos vivido situaciones similares y no nos ha ocurrido gran cosa. Que otras tecnologías han aumentado algunas de nuestras capacidades intelectuales a cambio de perder otras que hemos cedido sin que la humanidad se haya convertido en un mayor desastre. Los ejemplos habituales son la calculadora, que ha ampliado nuestra capacidad de hacer cálculos aritméticos; las hojas de cálculo, que nos permiten hacer esos cálculos sobre muchos números a la vez. Con su uso, hemos perdido parte de la capacidad de hacer esos cálculos complejos rápidamente y de memoria, pero hemos ganado muchísima eficiencia en la tarea. Visto en conjunto, el precio que hemos pagado no es para tanto. Ya nadie quiere parecerse a los genios calculadores de la tele de los noventa. Ahora sólo nos parecen unos locos absurdos con mucho tiempo que perder.

Otros ejemplos son el GPS, que ha atrofiado un poco nuestra capacidad de orientación; las búsquedas en Google Search y la wikipedia, que nos han hecho olvidar información fácilmente accesible on-line; el corrector ortográfico, que ha hecho que tiremos los textos sin control que ya se corrigen solos. O Facebook, cuya aportación principal a este tema es que hoy en día se feliciten más cumpleaños que nunca, y sin embargo nadie se acuerde de ninguno.

En todos estos ejemplos hemos cedido algo de capacidad cognitiva a cambio de una capacidad aumentada, una mayor eficiencia en una tarea que requiere un esfuerzo mental. Algunos lo llaman el efecto Google, y está ampliamente analizado con el consenso general de que estas cesiones no nos han convertido en seres acríticos, incapaces de aprender, o de abordar la resolución de un problema.

He llamado al departamento de comunicación de TikTok preguntando qué capacidad aumentan ellos y me han dicho que no saben, que quizás sólo la de volvernos gilipollas [3].

Perezosos

El problema que plantean estos resultados preliminares relacionados con el uso de la IA, es que no parece que sólo estemos ante la nueva versión más potente del efecto Google. De perdurar a largo plazo los efectos observados en el estudio del MIT, no podemos afirmar que estamos sólo ante una extensión lineal de los casos anteriores. El cambio es más profundo.

Avatar de User

Continúa leyendo este Post gratis, cortesía de Marco Laucelli.

O compra una suscripción de pago.
© 2026 Marco Laucelli · Privacidad ∙ Términos ∙ Aviso de recolección
Crea tu SubstackDescargar la app
Substack es el hogar de la gran cultura