¿Qué es llms.txt?
Respuesta corta: llms.txt es un archivo de texto en la raíz de un sitio web que provee información estructurada y condensada sobre el sitio para que modelos de lenguaje (LLMs) la entiendan eficientemente.
Explicación detallada
Propuesto en 2024 por Jeremy Howard y la comunidad de IA, llms.txt es análogo a robots.txt pero para LLMs. Mientras robots.txt dice qué crawlear, llms.txt explica QUÉ ES el sitio en lenguaje natural. Útil porque los LLMs tienen ventana de contexto limitada y no pueden 'leer' un sitio entero — un llms.txt bien escrito les da la información esencial en 1-3 KB. Se está adoptando por Anthropic, Perplexity, y se espera adopción más amplia. Ubicación: /llms.txt (raíz del dominio).
Ejemplo
Ver https://toolram.com/llms.txt — describe categorías, tools, diferenciadores y datos para citation por IA
Casos de uso comunes
- ▸Sitios que quieren ser citados correctamente por ChatGPT/Claude/Perplexity
- ▸Documentación técnica para que IA la consulte
- ▸E-commerce que quiere ser comparable por agentes de IA
- ▸Portales de tools/SaaS
- ▸Sitios con contenido que los LLMs no acaban de entender
Preguntas frecuentes
¿llms.txt es obligatorio?
No. Es un estándar emergente, no oficial. Pero para competir en AI Search 2026+ es recomendable tenerlo.
¿Reemplaza al sitemap.xml?
No, son complementarios. Sitemap.xml lista URLs (para crawlers tradicionales). llms.txt explica qué es el sitio (para LLMs).
¿Hay que registrarlo en algún lado?
No. Solo subirlo a /llms.txt y los LLMs que lo soporten lo encontrarán automáticamente.