# llms.txt: cómo preparar tu web para que la IA te entienda de verdad

> Qué es llms.txt y llms-full.txt, cómo los LLMs usan tu contenido para RAG, y por qué tu web necesita un resumen estructurado para ChatGPT, Claude y Perplexity en 2026.

**Autor:** Pedro Luis Cuevas Villarrubia | **Fecha:** 2026-05-12 | **Tags:** IA, SEO, tecnología
**URL:** https://asturwebs.es/blog/llms-txt-como-preparar-tu-web-para-ia-2026/

---
El otro día pregunté a ChatGPT por mi propia web. Me dijo algo vago sobre "una empresa de diseño web en Asturias". Ni los precios, ni los servicios concretos, ni el teléfono. Básicamente, lo que Google sabía en 2010.

El problema no era ChatGPT. Era que **mi web no estaba preparada para que la IA la entendiera**. Eso cambió cuando implementé `llms.txt`.

Este es el segundo post de una serie sobre cómo la web evoluciona para comunicarse con la IA. En el [anterior te conté cómo robots.txt y sitemap](/blog/robots-txt-sitemap-para-que-sirven-2026/) siguen siendo la base para Google. Ahora vamos un nivel más arriba: cómo hacer que los modelos de lenguaje te entiendan.

## Qué es RAG y por qué te importa

**RAG** (Retrieval-Augmented Generation) es la técnica que usan ChatGPT, Claude y Perplexity para responder con información actual: en vez de inventar, **buscan contenido real y lo usan como contexto**.

El flujo es así:

1. Alguien pregunta: "¿diseño web barato en Asturias?"
2. El LLM busca en su índice (o en la web en tiempo real)
3. Encuentra tu `llms.txt` o el contenido de tu web
4. Genera una respuesta basada en **tu contenido real**

Si tu web no tiene contenido estructurado para IA, el modelo usa lo que encuentre — que puede ser tu competencia, una review antigua, o nada.

## llms.txt: tu tarjeta de presentación para la IA

`llms.txt` es un archivo Markdown en la raíz de tu web (`https://tudominio.es/llms.txt`). Contiene un resumen estructurado de quién eres y qué ofreces.

### Estructura básica

```markdown
# Nombre de tu negocio

> Tu tagline o descripción en una línea

## Servicios

- **Servicio 1**: Descripción corta | Precio | URL
- **Servicio 2**: Descripción corta | Precio | URL

## Contacto

- Email: info@tudominio.es
- Teléfono: +34 XXX XX XX XX
- Web: https://tudominio.es
```

### Mi llms.txt real

En asturwebs.es genero `llms.txt` automáticamente desde un [Single Source of Truth en TypeScript](/blog/agents-txt-openapi-descubrimiento-agentes-ia-2026/). El resultado:

```markdown
# AsturWebs — Socio Digital para Autónomos y PYMEs

> Diseño web profesional, hosting propio, SEO e IA desde Asturias

## Servicios

| Servicio | Desde | Detalle |
|----------|-------|---------|
| Asesoría digital | 95€/mes | Soporte continuo, consultas ilimitadas |
| Diseño web | 375€ + 95€/mes | A medida, Astro, rendimiento nativo |
...
```

Cuando un LLM lee esto, tiene todo lo que necesita para responder correctamente: servicios, precios, contacto, URL. No tiene que adivinar.

## llms-full.txt: el contexto profundo

Si `llms.txt` es tu tarjeta de presentación, `llms-full.txt` es tu catálogo completo. Contiene el contenido de tus **páginas principales** en formato markdown limpio.

Lo uso para las 12 páginas clave: home, servicios, planes, portfolio, contacto, sobre mí. El LLM obtiene contexto completo sin parsear HTML, sin JavaScript, sin CSS.

| Archivo | Contenido | Tamaño | Uso |
|---------|-----------|--------|-----|
| `llms.txt` | Resumen + tabla de servicios | ~2 KB | Respuestas rápidas |
| `llms-full.txt` | Contenido de 12 páginas | ~25 KB | Contexto profundo RAG |

![Red neuronal absorbiendo datos de una página web](/images/2026-05-central-llms-rag-ingesta.webp)

## Por qué markdown y no HTML

Los LLMs **entienden HTML**, pero no es eficiente. Una página HTML tiene:

- Etiquetas de estructura (`<div>`, `<section>`, `<article>`)
- Clases CSS, IDs, atributos `data-*`
- Scripts inline, meta tags, JSON-LD
- Navegación, footer, sidebar (contenido repetido)

Todo eso es ruido para un modelo de lenguaje. Markdown va directo al contenido:

```markdown
## Servicios de diseño web

Diseño web profesional a medida desde 375€. Incluye hosting propio,
SSL, dominio y soporte técnico continuo.
```

Menos tokens = mejor comprensión = respuestas más precisas.

<div class="not-prose my-8 px-5 py-4 border-l-4 border-primary/30 bg-primary/5 rounded-r-lg">
<p class="text-sm text-gray-700 m-0">Tu web ya genera tráfico orgánico con Google, pero ¿apareces cuando alguien pregunta a ChatGPT o Perplexity? <a href="/servicios/ia/" class="text-primary font-semibold hover:underline">Puedo preparar tu web para que la IA te encuentre y te recomiende</a>.</p>
</div>

## El ecosistema de discovery en 2026

Tu web necesita comunicarse con tres tipos de visitantes:

| Visitante | Qué lee | Qué necesita |
|-----------|---------|--------------|
| **Googlebot** | robots.txt + sitemap | Saber qué rastrear |
| **LLM (ChatGPT, Claude)** | llms.txt + llms-full.txt | Contexto semántico |
| **Agente IA autónomo** | [agents.txt + openapi.json](/blog/agents-txt-openapi-descubrimiento-agentes-ia-2026/) | Identidad + permisos + API |

Ninguno reemplaza al otro. Son capas complementarias.

## Discovery mesh: cómo se conectan todo

En mi web, todos estos archivos se referencian entre sí:

```text
robots.txt ──→ Sitemap: sitemap-index.xml
           ──→ Agent-discovery: agents.txt
           ──→ LLM-context: llms.txt
           ──→ LLM-context-full: llms-full.txt

agents.txt ──→ Discovery: robots.txt, llms.txt, openapi.json
llms.txt   ──→ Referencia: agents.txt para uso con herramientas
```

Cualquier IA que llegue por cualquier archivo encuentra el resto. Es un **mesh de descubrimiento** — no dependes de que el bot sepa buscar un archivo específico.

## Cómo implementar llms.txt hoy

1. **Crea `llms.txt`** con tu resumen de negocio en markdown
2. **Opcional: crea `llms-full.txt`** con el contenido de tus páginas principales
3. **Añade referencias en `robots.txt`**: `LLM-context: https://tudominio.es/llms.txt`
4. **Sirvelo como `text/plain`** con UTF-8 — algunos servidores no configuran el MIME type para `.txt` con markdown

> **Nota técnica:** Astro genera mi `llms.txt` automáticamente en cada build desde un archivo TypeScript que también alimenta el chatbot y la API. Si cambio un precio, se actualiza en todos los sitios. Es lo que llaman Single Source of Truth.

## ¿Merece la pena?

Pregúntate esto: en 2026, **¿cuántos de tus clientes potenciales usan ChatGPT o Perplexity para buscar servicios?** La respuesta es más de los que piensas. Y va a crecer.

Si tu web solo habla con Google, solo exists para la mitad de las búsquedas. Con `llms.txt`, existes para la otra mitad también.

En el [siguiente post](/blog/agents-txt-openapi-descubrimiento-agentes-ia-2026/) te cuento el siguiente paso: cómo agents.txt permite que los agentes IA no solo te lean, sino que interactúen con tu web.

---

<div class="not-prose my-12 bg-indigo-50 border border-indigo-100 rounded-2xl p-8 text-center">
<p class="text-xl font-semibold text-gray-900 mb-2">¿Quieres que ChatGPT recomiende tu negocio?</p>
<p class="text-gray-600 mb-6">Preparo tu web con llms.txt, agents.txt y OpenAPI para que la IA te encuentre, te entienda y te recomiende.</p>
<a href="/contacto/" class="inline-block bg-primary text-white px-8 py-3 rounded-lg font-semibold hover:bg-primary-hover transition-colors">Cuéntame tu proyecto →</a>
</div>