La última proposición del Tractatus es probablemente la frase más citada y menos obedecida de la historia de la filosofía. Wittgenstein la escribió como un límite: hay cosas que el lenguaje no puede alcanzar, y frente a ellas lo honesto es detenerse. No por cobardía. Por precisión.
Los modelos de lenguaje hacen exactamente lo contrario. Cuando no saben, hablan más. Cuando la pregunta excede sus datos, no se detienen: completan. Producen una respuesta que suena bien, que tiene la textura de lo verdadero, pero que no lo es. No mienten en el sentido humano del término: no tienen intención de engañar. Sócrates fue declarado el más sabio de Atenas por una sola razón: era el único que sabía que no sabía. Esa capacidad — evaluar los límites del propio conocimiento — es precisamente lo que un modelo de lenguaje no tiene.1 No sabe que no sabe. Para él, un hueco en el conocimiento y un hueco en la oración se resuelven de la misma manera: con la palabra más probable.
Cualquiera que haya trabajado con IA generativa algo más de una semana reconoce este fenómeno. Lo que se discute menos es por qué resulta tan difícil construir lo contrario.
Diseñar un sistema que responda bien es un problema de ingeniería. Diseñar un sistema que sepa no responder es un problema de otra naturaleza. Porque la abstención no es un fallo del sistema: es una decisión del sistema. Y las decisiones requieren criterio, no solo datos.
En el cine — el territorio donde he pasado la mayor parte de mi vida intelectual — esto se entiende desde hace un siglo. El montaje no consiste en poner planos uno detrás de otro. Consiste en decidir qué no se muestra. Hitchcock lo explicaba con una claridad brutal: el terror no está en lo que ves, sino en lo que imaginas porque el director decidió mirar a otro lado, no mostrar. Bresson fue más lejos: eliminó la actuación misma, para que el espectador pusiera lo que faltaba. Tarkovski esculpía el tiempo vaciándolo.
Pascal Bonitzer lo formuló con exactitud: «En el cine, el campo visual se duplica, entonces, en un campo ciego. La pantalla es un cache, una visión parcial».3 La contención — el corte preciso, el plano que no aparece, el diálogo que se calla — es lo que separa una película que funciona de una que simplemente se proyecta.
Con la escritura académica pasa algo parecido. Cualquier investigador sabe que el momento más difícil de un texto no es escribir lo que sabe, sino decidir qué deja fuera. Qué dato no incluye. Qué matiz no desarrolla. Qué hipótesis menciona pero no defiende, porque la evidencia todavía no alcanza. Ese gesto — el de contenerse con intención — es lo que convierte un borrador en un argumento.
Los modelos de lenguaje no hacen ese gesto. No pueden, al menos no por diseño. Su arquitectura está optimizada, en su base, para producir la secuencia más probable dado un contexto. Hay técnicas de ajuste que mitigan esto — instrucciones, alineamiento, filtros — pero la tendencia de fondo persiste: más texto, más completitud, más flujo. Cuando un modelo produce una cita inventada con autor, editorial y año, no está fabulando: está completando un patrón. El formato de la cita académica le resulta tan familiar que lo reproduce con la misma facilidad con la que reproduce una receta de cocina o un fragmento de código.
La falla no es la capacidad. Es la ausencia de un mecanismo que diga: aquí no tengo base suficiente, me detengo. El problema es que, para una arquitectura diseñada para predecir el siguiente token de manera ininterrumpida, el vacío no existe — o no debe existir —; es solo otro espacio probabilístico que debe ser llenado. Citar de memoria, para un modelo, es citar de probabilidad; y la diferencia entre ambas cosas es exactamente lo que separa una herramienta útil de una herramienta fiable.
En el Tractatus, Wittgenstein no propone el silencio como renuncia. Lo propone como forma superior de honestidad intelectual. Callar donde no se puede hablar con precisión no es un defecto del pensamiento: es su punto más alto.
La pregunta que me interesa es si ese gesto se puede instruir.
No entrenar: instruir — o diseñar, si queremos una terminología más precisa —. La diferencia importa. Escalar los datos de entrenamiento no le enseña a callarse: le da más material con el que rellenar. Lo que necesita un sistema de consulta riguroso no es más cobertura, sino un protocolo de abstención: condiciones explícitas bajo las cuales la respuesta correcta es no tengo evidencia suficiente para responder esto.
Es un problema que parece técnico pero es epistemológico. ¿Cómo se formaliza el criterio? ¿Cómo se distingue, dentro de un flujo de inferencia, entre una ausencia que es ignorancia y una ausencia que es prudencia? ¿Cómo se le enseña a una máquina que a veces lo más preciso que puede decir es nada?
La pregunta por la abstención no nace en el vacío; es la consecuencia directa de un triunfo histórico. Durante años, la gran épica de las humanidades digitales fue material: digitalizar, indexar y hacer consultable lo que antes exigía presencia física y meses de archivo.4 Esa primera generación resolvió el acceso, arrojándonos a una disponibilidad casi absoluta del texto. Pero esa misma abundancia es la que hoy vuelve crítico el problema de los modelos de lenguaje. Al tener acceso a un archivo prácticamente inagotable, la máquina encuentra siempre el material estadístico para mantener su fluidez, para sonar convincente. La segunda generación de las humanidades digitales se enfrenta a un problema mucho más oscuro que el acceso: el criterio. Cuando la fluidez algorítmica permite generar respuestas sobre cualquier corpus, la pregunta ya no es ¿puede responder? sino ¿debería?
Aunque conviene ser precisos con lo que esto implica. Pedirle a un modelo en su prompt que responda «no tengo información suficiente» no es dotarlo de conciencia sobre su propia ignorancia. Para el modelo, generar esa frase de rechazo sigue siendo un ejercicio probabilístico; simplemente calcula que, bajo ciertos parámetros, esa es la secuencia de palabras más adecuada. Sigue operando bajo la lógica del oráculo, o, dicho en términos psicoanalíticos, bajo la figura del Sujeto supuesto Saber: aquel a quien se le dirige una demanda con la ilusión de que tiene la respuesta para todo.
Romper esa elocuencia ininterrumpida requiere algo más que buenas instrucciones. Requiere un diseño arquitectónico donde el modelo de lenguaje deje de ser el motor absoluto de la verdad y pase a estar subordinado a un sistema de verificación estricto. La abstención no emerge del LLM por sí misma: emerge, si emerge, del sistema que lo limita, lo audita y le impide completar cuando la evidencia no alcanza. Un protocolo de abstención donde la respuesta por defecto, ante la falta de evidencia documental, sea el corte. Un límite explícito que le enseñe a la máquina que a veces, lo más preciso y riguroso que puede decir es nada.
El silencio deliberado — el que nace del criterio y no de la ignorancia — es probablemente la capacidad más difícil de construir en un sistema de inteligencia artificial. No genera métricas impresionantes. No se demuestra fácilmente en un benchmark. No produce el tipo de asombro que vende licencias.
Pero es lo que separa una herramienta que responde de una herramienta en la que se puede confiar.
Wittgenstein cerró el Tractatus con siete palabras. Llevaba todo el libro intentando trazar los límites del lenguaje, y al final los encontró — no en una demostración, sino en un acto: dejar de hablar. Setenta proposiciones de lógica formal para llegar a la conclusión de que lo más importante que podía hacer era callarse.
Me pregunto si no estaremos, con la inteligencia artificial, en un momento parecido. Hemos demostrado que los modelos pueden hablar de casi cualquier cosa. La pregunta que queda — la más difícil, la que de verdad importa — es si pueden aprender a no hacerlo.
1. La razón es arquitectónica. Un modelo de lenguaje grande (LLM) se entrena mediante una tarea única: dada una secuencia de palabras, predecir la siguiente. La función de pérdida — cross-entropy loss — mide la distancia entre la predicción del modelo y la palabra que realmente aparece en el texto de entrenamiento. Esta señal es idéntica sin importar si el texto de origen es un artículo científico verificado, una novela de ficción, una entrada errónea de Wikipedia o una especulación en un foro. No existe durante el entrenamiento una señal separada que distinga «esto es un hecho» de «esto suena a hecho». El resultado es que el modelo aprende a producir secuencias estadísticamente plausibles, pero carece de un mecanismo interno para evaluar si lo que genera corresponde a algo verdadero o simplemente a algo probable. Técnicas posteriores como RLHF (Reinforcement Learning from Human Feedback) o el alineamiento por instrucciones mitigan parcialmente este problema, pero no lo resuelven en su base: la arquitectura genera, no evalúa. Para una discusión técnica accesible, ver Bender, E. M. y Koller, A.: «Climbing towards NLU: On Meaning, Form, and Understanding in the Age of Data», Proceedings of the 58th Annual Meeting of the Association for Computational Linguistics, 2020, pp. 5185-5198.
2. Traducción propia a partir del original alemán: Wittgenstein, L.: Logisch-philosophische Abhandlung, en Annalen der Naturphilosophie, 14, 1921, pp. 185-262. Primera edición como libro: Londres, Kegan Paul, 1922. Se ha consultado también la traducción de Alberto Buscató Vázquez (revisada por Santiago M. Olábarri Oriol) publicada en The Ludwig Wittgenstein Project bajo licencia CC BY-SA 4.0, y la de Luis M. Valdés Villanueva: Tractatus logico-philosophicus, Madrid, Tecnos, 2007 (3.ª ed.).
3. Bonitzer, P.: El campo ciego. Ensayos sobre el realismo en el cine, Buenos Aires, Santiago Arcos Editor, 2007, p. 68.
4. La periodización clásica de las humanidades digitales suele identificar una «primera ola» o generación enfocada primordialmente en la infraestructura, la codificación de textos y la creación de repositorios a gran escala. Este inmenso esfuerzo material abarca desde los trabajos computacionales pioneros del jesuita Roberto Busa (cuyo Index Thomisticus comenzó a gestarse a finales de la década de 1940) hasta el establecimiento de la Text Encoding Initiative (TEI) en los años ochenta y los masivos proyectos de digitalización institucional y corporativa de principios del siglo XXI. Esta etapa sentó las bases de legibilidad maquínica sin las cuales el análisis contemporáneo sería imposible. Para una cartografía fundacional de este desarrollo, véase Schreibman, S., Siemens, R. y Unsworth, J. (eds.): A Companion to Digital Humanities, Oxford, Blackwell, 2004.