Diseño infraestructuras de IA para que el conocimiento complejo sea consultable, verificable y trazable — sin que la fluidez algorítmica destruya la diferencia entre evidencia, interpretación y ausencia de base.
En dominios de conocimiento — filosofía, psicoanálisis, investigación textual — eso no es solo un error de precisión. Es la destrucción de la diferencia entre lo que puede citarse, lo que puede orientarse y lo que debería llevar a abstención.
Los asistentes de IA genéricos responden con autoridad incluso cuando la evidencia es débil, ambigua o directamente inexistente. Ateneo intenta resolver ese problema con una arquitectura que trata la abstención como una capacidad central del sistema, no como un fallo.
No es otro chatbot con corpus. Es una arquitectura donde la verificación de citas es determinista, la localización documental es auditable, y el sistema distingue explícitamente entre lo que puede sostener y lo que no.
Búsqueda pura sobre corpus, cero LLM. Lo que devuelve no puede ser inventado — sale directamente de la base de datos con página y documento. Blindado por 7 guardas de verificación.
No interpreta. Ayuda a encontrar dónde se sostiene documentalmente una formulación. Remontar al corpus y a la fuente, con trazabilidad auditable.
La capacidad central. Cuando no hay base suficiente, el sistema no rellena el hueco con fluidez. Marca que no hay evidencia. Eso es lo que hoy casi nadie hace.
Marco Aurelio, Epicteto, Séneca. No un segundo producto: la demostración de que el mismo patrón de contrato, evaluación y validación funciona en otro dominio.
Los modos que acabás de ver — Cita, Fuente, Abstención — forman el suelo firme. Encima, Ateneo permite una lectura abierta pero anclada. La apuesta es mantener apertura interpretativa sin perder anclaje textual.
Lectura abierta que no pretende sustituir al investigador. Propone articulaciones apoyadas en evidencia visible, con límites explícitos cuando el soporte no alcanza.
Verificación de citas y localización documental deterministas. Lo que sale de esta capa no puede ser inventado — sale directamente de la base de datos.
Vengo de la filosofía y la investigación en humanidades — y llegué al procesamiento del lenguaje natural porque necesité resolver un problema real: verificar citas contra textos originales en un corpus donde la alucinación de los LLM es inaceptable.
Eso me obligó a construir pipelines de procesamiento de texto, sistemas de búsqueda híbrida (embeddings + FTS + trigram), gestión de corpus paralelos en 4 lenguas, y evaluación de retrieval con métricas reales. 125 migraciones SQL. Un sistema en producción que funciona.
Ese recorrido es lo que hace que Ateneo sea difícil de replicar. En STEM la verificación tiene muletas: DOIs, APIs estructuradas, metadatos ricos. En humanidades el corpus es ambiguo, las ediciones varían, las atribuciones circulan sin fuente primaria. Si el método funciona en Lacan — 80/80 — tiene buenas razones para funcionar en cualquier corpus complejo.
Diagnósticos, análisis y preguntas sobre IA, humanidades y la institución universitaria. Sin ocurrencias — pensamiento con fuentes y con tesis.
Diez declaraciones sobre verificación, abstención y fiabilidad documental en la era de la IA. Con Borges, Kafka, Foucault y Picasso.
Sobre el Otro que siempre responde, la máquina que nunca dice basta, y el momento en que diseñar se convierte en no exponerse.
Sobre un banquete involuntario, una pregunta por el autor, y una frase sobre el amor.
El problema de la inteligencia artificial en dominios de conocimiento no es un problema de potencia. Es un problema de criterio. Cuatro piezas, un mismo argumento.
Los modelos de lenguaje no saben callarse. Cuando no saben, hablan más. ¿Se puede instruir el silencio deliberado — el que nace del criterio y no de la ignorancia — en un sistema de inteligencia artificial?
La primera generación de humanidades digitales resolvió el acceso. La segunda enfrenta el problema más difícil: el criterio. El salto no es técnico — es epistemológico.
Los modelos de lenguaje dominan la corrección. Pero lo que hace valioso un trabajo creativo no es lo más probable, sino lo más preciso. Y muchas veces lo más preciso es lo que se elige no poner.
En una semana aparecieron dos herramientas que convierten cualquier tema en aprendizaje personalizado por menos de dos dólares. La reacción obvia es preguntar cómo competir con ellas. La pregunta correcta es otra.
Me interesa hablar con personas que trabajan en investigación, bibliotecas, patrimonio cultural o IA aplicada a dominios donde la precisión importa.