Pensar en voz alta: la técnica que volvió más humana a la IA

Por Bruno Cortés

En 2025, las inteligencias artificiales aprendieron un truco que las hace parecer menos máquinas y más cerebritos con ansiedad: el chain-of-thought prompting. En español, “cadena de pensamiento”. Básicamente, consiste en decirle al modelo: “oye, razona paso a paso antes de contestar”. Y como por arte de magia, la IA deja de improvisar tonterías y empieza a sonar como alguien que sí sabe lo que dice.

Todo empezó como un experimento en foros y papers, y hoy es la fiebre del año en el mundo tech. Ingenieros, prompters y startuperos lo presumen en X con hilos que parecen terapia grupal: “le pedí a mi modelo que pensara paso a paso… y resolvió el problema mejor que yo”. En tareas de matemáticas o programación, las tasas de acierto se dispararon de un lamentable 20 % a un respetable 80 %. Solo por agregar una línea: “razona paso a paso”.

La idea es tan simple como poderosa. En lugar de pedirle directamente una respuesta, el prompt obliga al modelo a escribir su proceso mental, como si se hablara a sí mismo. Primero plantea el problema, luego analiza opciones, y al final saca conclusiones. Es el equivalente digital de “pensar en voz alta”, solo que sin café ni crisis existenciales.

Por supuesto, el método también tiene su lado oscuro. Mientras más “piensa” la IA, más tokens consume, y los tokens cuestan. Hay quien dice que dejarla razonar sin límite es como pagarle terapia al algoritmo: se desahoga largo y tendido, pero te deja la factura. Por eso surgieron versiones minimalistas: CoT-zero, CoT-lite, y otros nombres que suenan a dieta cognitiva.

Aun así, la moda crece. Ahora los modelos combinan esta técnica con autocrítica: después de razonar, se piden a sí mismos revisar sus errores. Es decir, piensan, dudan, y se corrigen. Una especie de “yo contra mí” digital. Algunos lo llaman el modo zen de la IA; otros, con más humor, lo bautizaron como “la IA en terapia intensiva”.

Las empresas ya lo están aplicando en tareas reales: revisión de código, clasificación de correos, diagnósticos médicos, estrategias de negocio. Donde antes había un modelo que contestaba sin pensar, ahora hay uno que justifica cada paso. Y eso, dicen los optimistas, ayuda a confiar más en sus decisiones. Por primera vez, la máquina explica el “por qué” detrás del “qué”.

Claro, hay quien se burla. En Reddit abundan los memes: “CoT: porque tu IA también necesita hablar de sus traumas”. Pero entre chistes y sarcasmos, la técnica sigue escalando. Cada vez más creadores la usan para hacer que sus bots “piensen” como coaches o mentores. Las newsletters ahora tienen modo reflexivo: la IA ya no te da tips, te guía paso a paso para que llegues tú solo a la respuesta.

Lo más interesante es que esta forma de “razonar en voz alta” no solo mejora la precisión, sino que vuelve a la IA más transparente. Antes, era como un genio que te daba la solución sin decir cómo llegó a ella. Hoy, muestra su proceso, se equivoca, se corrige, y deja el rastro completo. En un mundo saturado de cajas negras, eso suena casi… humano.

Y aunque algunos lo vean como moda pasajera, lo cierto es que el chain-of-thought cambió las reglas del juego. Porque al final, enseñar a una IA a pensar paso a paso no solo la hace más inteligente: también nos recuerda que, a veces, los humanos podríamos hacer lo mismo antes de abrir la boca.

Author: admin

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *