El año pasado, en medio de una discusión con alguien que hoy ya no está, me encontré diciendo algo que no pensé que tendría que pedir nunca: “por favor, respóndeme tú y no ChatGPT”. No era una frase metafórica. Era una expresión literal y sensatamente desesperada.
La reacción fue inmediata: se ofendió. Pero lo que me inquietaba no era si podía escribir o no. Era algo más sutil: sus respuestas no sonaban a él. No tenían su ritmo, ni sus giros, ni sus silencios. Eran impecables, bien estructuradas, emocionalmente correctas, pero extrañamente ajenas. Era como si alguien estuviera hablando bien, pero no estuviera hablando él.
En ese momento no supe ponerle nombre a lo que sentí. Hoy sí: era la ausencia de conocimiento tácito, un concepto que el filósofo Michael Polanyi acuñó a mediados del siglo pasado y cuya urgencia no ha hecho más que crecer.
Polanyi instauró, por así decirlo, el concepto de conocimiento tácito. La idea parece simple -”sabemos más de lo que podemos decir”-, pero sus implicaciones son enormes.
Gran parte de lo que somos como seres pensantes no es formalizable: está en el cuerpo, en la experiencia acumulada, en el modo particular en que cada uno habita el mundo. Está también en la forma en que alguien escribe cuando de verdad está escribiendo. Lo que yo sentía al leer esas respuestas era la ausencia de ese saber que no se dice, pero que se reconoce.
Días después, presenté un curso a una universidad y me lo devolvieron con un juicio insultante: el 75% del contenido, según sus herramientas de detección, había sido generado por inteligencia artificial. Era falso. La situación me obligó a una pregunta incómoda: ¿en qué momento empezamos a desconfiar tanto de lo humano que lo humano empezó a parecer artificial?
La respuesta simbólica llegó sola, poco después: a un detector de IA le introdujeron el inicio de Cien años de soledad y concluyó que había sido escrito por una máquina. García Márquez, según el algoritmo, escribiendo como un algoritmo. No es un chiste; es un síntoma de cuando lo bien escrito se vuelve sospechoso y la excelencia se convierte en evidencia de fraude.
Hannah Arendt distinguía entre conocer y pensar. Conocer es acumular información, resolver problemas, llegar a conclusiones verificables. Pensar, en cambio, es detenerse, hacerse preguntas sin respuesta inmediata, habitar la incertidumbre.
Para Arendt, pensar era una actividad esencialmente perturbadora y humana. La inteligencia artificial conoce -y conoce extraordinariamente bien-, pero no piensa: no porque le falte potencia, sino porque pensar exige precisamente lo que una máquina no puede tener: una vida que esté en juego en lo que se dice.
Byung-Chul Han ha sentenciado que la sociedad contemporánea ha convertido el rendimiento en el único valor que importa. En ese contexto, la IA no es una anomalía: es la herramienta perfecta para un tiempo que confunde producir con existir. Primero la usamos para escribir más rápido. Luego, para escribir mejor. Sin darnos cuenta, empezamos a usarla para no tener que pensar.
Volver a nuestra inteligencia natural no es rechazar la tecnología, sino usarla sin entregarle lo que no le pertenece. Es recordar que pensar no es producir respuestas impecables, sino hacerse preguntas reales. Es confiar en que nuestra forma de pensar -incluso cuando es defectuosa o dudosa- tiene un valor que ninguna máquina puede replicar.
En un mundo saturado de respuestas correctas, lo verdaderamente escaso empieza a ser algo mucho más simple y mucho más humano: alguien que, de verdad, esté pensando.
****
Escuche el episodio del podcast de esta columna con el escritor y columnista Julián Bernal en
podcast.luisfmolina.com
01 Abr, 2026
Volvamos a nuestra inteligencia natural
La inteligencia artificial conoce -y conoce extraordinariamente bien-, pero no piensa, porque pensar exige precisamente lo que una máquina no puede tener.