12 min de lectura
Alejandro Capdevila Tárrega

Alejandro Capdevila Tárrega

Colaboración

Autor invitado

IA y deuda cognitiva: lo que he aprendido usándola a diario

La IA multiplica tu capacidad de análisis, pero puede atrofiar tu pensamiento si no la usas con intención. Tres estudios científicos y experiencia real de un Staff Engineer que la usa a diario.

iacarreraingeniería
Colaboración Editorial

Colaboración EditorialEspacio donde invito a expertos para compartir aprendizajes tácticos sobre producto, ingeniería y liderazgo.

Emilio Carrión
Alejandro Capdevila Tárrega
Emilio CarriónEditor
Hoy escribe Alejandro Capdevila, compañero mío en Mercadona Tech y uno de los ingenieros con los que más disfruto debatiendo. Alejandro lleva meses usando IA de forma intensiva en su día a día como Staff Engineer y, en vez de quedarse en el hype o en el rechazo, ha hecho lo que hace siempre: ir a los datos, contrastarlos con su experiencia, y sacar sus propias conclusiones. Este artículo es el resultado.
Por Alejandro Capdevila Tárrega · Colaboración

Nos guste más o menos, la IA ha irrumpido en nuestro entorno laboral trastocando el status quo que manteníamos desde hace años. Actualmente trabajo como Staff Engineer con siete equipos bajo mi paraguas, y uso IA todos los días: análisis transversales, spikes donde pruebo enfoques distintos antes de comprometerme con uno, decisiones arquitectónicas que impactan a varios equipos, y un largo etcétera. Y algo de lo que me he dado cuenta es del hecho de que la máquina ya saca más opciones que yo ante ciertos problemas. Opciones que a mí ni se me habían ocurrido.

Esto ha provocado que haya un pensamiento que se ha ido instalando poco a poco en mi cabeza. ¿Me estoy haciendo mejor ingeniero, o me estoy haciendo dependiente?

Es muy tentador dejar que la máquina lo haga todo. Que sea ella quien decida qué analizar, cómo analizarlo, y qué conclusiones sacar. Y cuando llevas semanas usándola intensivamente, la línea entre "la IA me ayuda a pensar" y "la IA piensa por mí" se vuelve muy fina.

Cuando comento esto con compañeros, veo que tienen unas preocupaciones similares. Una creciente sensación de estar volviéndose dependientes. Y un miedo que no había oído antes: que si mañana por lo que sea el precio del token se dispara o la herramienta deja de estar disponible, ya no seamos capaces de sacar la faena adelante por nosotros mismos.

¿Qué le pasa a tu cerebro cuando usas un LLM?

Investigadores del MIT Media Lab decidieron no quedarse en encuestas ni en opiniones subjetivas. Montaron un estudio de cuatro meses midiendo la actividad cerebral de los participantes con electroencefalogramas.

El estudio ("Your Brain on ChatGPT", Kosmyna et al., 2025) cogió a 54 participantes y los dividió en tres grupos. A cada grupo se le asignó una herramienta distinta: uno usaba ChatGPT, otro un buscador, y otro solo su cerebro. La tarea era escribir ensayos, así durante tres sesiones. En la cuarta invirtieron las tornas, haciendo que el grupo que había usado ChatGPT tuviese que escribir sin ninguna herramienta, y el grupo que había trabajado solo con su cerebro pasó a usar ChatGPT.

Estos fueron los resultados:

  • La conectividad cerebral disminuyó sistemáticamente cuanto más soporte externo tenía el grupo. El grupo que escribió solo con su cerebro tuvo las redes neuronales más fuertes en contraposición con el grupo que hizo uso de ChatGPT.
  • Los usuarios de ChatGPT no eran capaces de citar los ensayos que acababan de escribir. No recordaban lo que habían "producido".
  • Cuando los usuarios de ChatGPT intentaron escribir sin IA en la cuarta sesión, mostraron conectividad neuronal más débil que quienes nunca la habían usado. Es decir, el efecto no desaparece cuando dejas la herramienta.

Además, este estudio se realizó antes de la llegada del pasado noviembre de Claude Opus 4.5 o Gemini 3.0, que marcaban una gran diferencia con los modelos anteriores.

Los investigadores llaman a esto deuda cognitiva. La IA te ahorra esfuerzo mental ahora, pero acabas pagando las consecuencias a la larga. Pensamiento crítico reducido, creatividad disminuida, procesamiento superficial de la información.

Seguro que esto os suena de algo. Generas código con IA, haces commit, y al día siguiente no recuerdas qué hace ese código ni por qué lo escribiste así.

Vale, pero eso es con ensayos. ¿Qué pasa con el aprendizaje?

Hamsa Bastani y su equipo en Wharton/UPenn se hicieron esa misma pregunta. Diseñaron un ensayo controlado con casi 1.000 estudiantes de matemáticas (publicado en PNAS, 2025). Tres grupos:

  1. GPT Base: acceso libre a GPT-4, sin ninguna restricción. Los alumnos podían preguntar lo que quisieran y copiar directamente las respuestas.
  2. GPT Tutor: acceso a GPT-4 pero con guardarraíles diseñados por los profesores. En vez de dar respuestas directas, la IA hacía preguntas de vuelta, daba pistas y guiaba al alumno para que llegara a la solución por sí mismo. Es lo que se conoce como enfoque socrático, por el método de Sócrates de enseñar a base de preguntas en vez de afirmaciones.
  3. Control: sin IA. Solo libros de texto y apuntes.

En la fase de práctica (con IA), los resultados fueron muy buenos. GPT Base rindió un 48% mejor que el control. GPT Tutor, un 127% mejor. Hasta aquí, todo parecía indicar que la IA ayudaba.

Luego llegó el examen. Sin IA.

El grupo GPT Base rindió un 17% peor que los que nunca habían tenido IA. No un 17% peor que con IA, sino peor que si nunca la hubieras usado. Y no solo eso, sino que esos mismos alumnos eran excesivamente optimistas sobre sus capacidades. Creían que habían aprendido, pero cuando les quitaron la herramienta, quedó claro que no. Es lo que en la literatura se denomina ilusión de competencia. Los resultados de la IA enmascaran tus carencias reales, y tú no te das cuenta.

En cambio, el grupo con el tutor socrático no tuvo ese efecto negativo. Rindió mejor con IA y no empeoró sin ella. Ahí está la clave de la cuestión, y es que el efecto no depende de usar o no IA, sino de cómo la usas.

¿Y qué pasa con los developers?

Los dos estudios anteriores son con estudiantes y ensayos o problemas de matemáticas. La pregunta obvia es si esto aplica también a ingenieros de software.

En enero de 2026, Anthropic publicó un ensayo controlado con 52 ingenieros de software, mayoritariamente júniors. Los dividieron en dos grupos, uno con acceso a IA y otro sin. La tarea consistía en aprender una librería Python nueva (Trio, para programación asíncrona), completar una serie de ejercicios, y luego hacer un quiz para medir cuánto habían comprendido realmente.

El grupo con IA sacó un 17% menos en el quiz (50% vs 67%). La diferencia fue especialmente grande en las preguntas de debugging, que medían la capacidad de entender cuándo el código está mal y por qué. Es decir, los que usaron IA para aprender fueron peores justamente en lo que más necesitas cuando algo falla en producción.

Pero lo más interesante del estudio no es el resultado global, sino que Anthropic analizó cómo usaba la IA cada participante. No todos los que usaron IA sacaron mala nota. Dependía mucho de la forma en que interactuaban con ella.

Patrones de bajo rendimiento (media <40%):

  • Delegación total: le pedían a la IA que escribiera todo el código. Terminaban los ejercicios más rápido, pero luego en el quiz no sabían responder. No habían aprendido nada.
  • Dependencia progresiva: empezaban intentando hacer las cosas por su cuenta, pero poco a poco iban delegando más y más hasta que la IA lo hacía todo.
  • Debugging iterativo con IA: cuando algo fallaba, pegaban el error en la IA y aplicaban la solución sin pararse a entender qué había pasado.

Patrones de alto rendimiento (media >65%):

  • Investigación conceptual: usaban la IA solo para hacer preguntas conceptuales ("¿por qué Trio maneja la concurrencia así?", "¿qué diferencia hay entre esto y asyncio?"). Cometían muchos errores en los ejercicios pero los resolvían solos. Fue el patrón más rápido entre los de alto rendimiento.
  • Generación + comprensión: dejaban que la IA generara código, pero luego le hacían preguntas de seguimiento para entender por qué funcionaba y qué pasaría si cambiaran algo.

Una de las conclusiones de Anthropic en el paper es que "cognitive effort — and even getting painfully stuck — is likely important for fostering mastery." El esfuerzo cognitivo, incluso quedarte atascado de forma dolorosa, es probablemente importante para desarrollar maestría.

Entonces, ¿qué hacemos?

Cuando comento estos estudios con compañeros, suelo ver tres reacciones.

La primera es "no uses IA". No me parece realista ni deseable. La IA multiplica tu capacidad de análisis, de research, de explorar opciones. Renunciar a eso no tiene sentido.

La segunda es "úsala para todo". Pero esto es exactamente lo que los tres estudios muestran que no funciona. Si delegas el pensamiento, tu cerebro trabaja menos (MIT), aprendes menos (Bastani), y debuggeas peor (Anthropic). Y además no te das cuenta de que está pasando, porque la ilusión de competencia te hace creer que vas bien mientras te atrofias.

La tercera es "ya me acostumbraré". Los datos no apuntan en esa dirección. En el estudio del MIT, después de cuatro meses, los que usaron LLM e intentaron escribir sin IA mostraron conectividad neuronal más débil que quienes nunca la habían usado. El efecto se acumula, no mejora con el tiempo.

Cuando la IA te hace pensar más

Hace poco un par de equipos de la empresa se metieron de lleno en introducir IA en sus productos. Uno de los retos gordos era cómo validar que los agentes hicieran realmente lo que se esperaba de ellos, que no alucinaran. Me pidieron ayuda.

Empecé usando la IA para aprender sobre el tema. Hice un research de cómo se está moviendo la industria en evaluación de agentes, qué enfoques existen, qué está maduro y qué no. Ya con ese conocimiento encima, usé la IA para iterar sobre las distintas posibilidades, librerías, implementaciones, pros y contras de cada una.

Con todas esas opciones delante, no me quedé con la que la máquina recomendaba. Implementé varias. Las probé. Vi de primera mano cómo quedaba cada una, qué implicaciones tenía. Y fui iterando, dando forma a las implementaciones, decidiendo yo qué estructura tenía sentido para que los otros equipos pudieran usarlas y mantenerlas. La máquina llegaba a sus conclusiones, pero era yo quien debía validarlas o corregirlas e ir encauzando la solución hacia donde quería llegar.

Al final terminamos con varios enfoques e implementaciones de referencia funcionando en un entorno de pruebas, que llevamos a los equipos para que analizasen cuál encajaba mejor en su contexto. En el pasado, algo así me hubiese tomado mucho más tiempo, o directamente no hubiese hecho un análisis tan profundo ni con tantas posibilidades sobre la mesa.

No fui más rápido, pero tomé decisiones mejor informado.

Cuando la IA te hace pensar menos

Pero no todo es un camino de rosas.

Hace un tiempo estaba implementando una user story en un producto y dejé demasiado libre a la máquina para hacer la implementación. Esto hizo que crease una batería de tests que realmente no estaban validando la implementación real del código. La implementación podría haber estado mal, y esos tests hubiesen sido verdes igualmente. No fue hasta que una compañera me llamó la atención que me di cuenta.

Eso podría haber provocado una incidencia en producción. Por no prestar la atención que se merecía. La IA había generado algo que tenía pinta de estar bien, y yo no me había parado a comprobar si realmente lo estaba.

Lo que he aprendido

Si miro los tres estudios y lo que me ha pasado a mí, todo apunta en la misma dirección. La IA amplifica lo que ya haces. Si piensas, te ayuda a pensar más. Si delegas, te ayuda a delegar más.

Con todo esto encima de la mesa, yo intento seguir una serie de reglas para no caer en esta trampa:

Tareas mecánicas: para la IA. Formatear, generar boilerplate, refactors rutinarios. Ahí no hay pérdida cognitiva.

Amplificar análisis: le pido que me dé más opciones, más profundidad, ángulos que no se me habían ocurrido. Pero las opciones las valoro yo y no acepto lo primero que me da. En el spike de evaluación de agentes, implementé varias opciones precisamente para poder comparar de primera mano, no para quedarme con la recomendación de la máquina.

Tomar decisiones yo: eso no se lo delego. Hace poco dos equipos acudieron a mí para resolver una integración que les afectaba a ambos. Primero le di vueltas en mi cabeza, pregunté a las partes implicadas para tener más contexto, y mentalmente ya pensé en varias opciones. Luego volqué todo ese conocimiento a la IA: el contexto, la problemática, por qué era un problema, y las opciones que había pensado yo con sus pros y contras. Le pedí que buscase más información, que me hiciera challenge, que plantease opciones adicionales tomando como punto de partida las mías. La IA hizo una recomendación, pero el que tenía el contexto completo era yo. Yo era quien tomaba la decisión y quien se responsabilizaba de la misma.

No paro de ver en LinkedIn gente que se levanta no sé cuántas sesiones o agentes en paralelo para sacar un montón de faena de golpe. Sinceramente no sé cómo lo hacen. Soy incapaz de mantener tantos contextos a la vez en mi cabeza, y forzarlo provoca que no les preste la atención necesaria. Para mí, la IA se ha convertido en una herramienta para hacer research en profundidad, para hacer ping pong en un tema concreto, para profundizar mucho más de lo que lo hacía antes, no para ir más rápido.

El código que sube a producción es tu responsabilidad. Da igual que lo haya generado una IA. Si ese código falla a las tres de la mañana, no vale decir "lo ha hecho la IA". Tú eres el owner y las consecuencias son tuyas. Y para ser owner de verdad de algo, tienes que entenderlo.

Ian Cooper, en su ensayo "Coding is Dead, Long Live Programming", habla de lo que él llama la "teoría del programa". Es el entendimiento profundo de por qué el código es como es. Y propone un test muy sencillo para saber si tienes esa teoría. Pregúntate si puedes explicárselo a otra persona. Si eres capaz de explicarlo con tus propias palabras, es que has sido capaz de retener el contexto necesario y comprender qué es lo que se ha hecho. Si por el contrario no puedes, quizás estés delegando demasiado a la IA.

Para terminar

Una herramienta que piensa por ti no te hace más inteligente. Te hace más cómodo.

Yo uso IA todos los días y no creo que deje de usarla en el corto/medio plazo. Pero me he propuesto que si mañana me la quitan, tengo que seguir sabiendo. Seguir siendo capaz de debuggear mi propio código, de tomar decisiones de diseño, de explicarle a alguien por qué el sistema está construido así.

Es una buena pregunta para hacerse de vez en cuando.

Reflexión final
Emilio Carrión
Alejandro Capdevila Tárrega
Emilio CarriónEditor
Llevo tiempo dándole vueltas a esto mismo. Uso IA todos los días y noto exactamente lo que describe Alejandro: esa línea fina entre que te ayude a pensar y que piense por ti. Lo que más me gusta del artículo es que no cae en el extremismo. No dice que dejes de usarla ni que lo delegues todo. Dice algo más difícil: que seas honesto contigo mismo sobre cómo la estás usando. La pregunta de si puedes explicar tu propio código me parece el mejor test de realidad que he visto hasta ahora.
Compartir:
Alejandro Capdevila Tárrega
Autor invitado

Alejandro Capdevila Tárrega

Staff Engineer en Mercadona Tech. Lidera iniciativas transversales con siete equipos. Obsesionado con tomar mejores decisiones técnicas y con entender de verdad lo que construye.

Conocer más sobre Alejandro

¿Tienes una historia técnica que contar?

Este blog es un espacio abierto para compartir aprendizajes reales sobre ingeniería, producto y liderazgo. Si quieres ser el próximo autor invitado, hablemos.

Proponer un artículo