Zum Inhalt
Startseite » Glossar » llms.txt

llms.txt

    Die Datei llms.txt ist eine neue Konvention (analog zu robots.txt oder sitemap.xml), mit der Websites KI-Sprachmodellen eine strukturierte Übersicht ihrer wichtigsten Inhalte zur Verfügung stellen. Vorgeschlagen 2024 von Jeremy Howard (Answer.AI), gewinnt der Standard 2026 schnell an Bedeutung. Anders als robots.txt blockiert llms.txt nichts — sie fördert die richtige Wahrnehmung, indem sie LLMs einen kuratierten Pfad durch Ihre Inhalte zeigt.

    Was bedeutet das für Ihr KMU?

    Während Suchmaschinen-Crawler über Jahre gelernt haben, sich durch Navigation, Werbung und Boilerplate zu kämpfen, sind KI-Sprachmodelle bei dieser Arbeit ineffizient. Sie verarbeiten Token-basiert (mit Kostendruck), bevorzugen kompakte, strukturierte Eingaben und können bei zu viel Rauschen Hauptinhalte übersehen.

    Die Datei llms.txt löst genau dieses Problem. Im Markdown-Format aufgebaut, listet sie URLs mit Kurzbeschreibungen — fast wie ein verkleinertes Inhaltsverzeichnis Ihrer Website, optimiert für LLM-Aufnahme. Für Ihr KMU bedeutet das: Eine kleine technische Massnahme, die die Wahrscheinlichkeit erhöht, in KI-Antworten zitiert zu werden — mit überschaubarem Aufwand.

    Wie llms.txt aufgebaut ist

    Die Datei folgt einer einfachen Struktur. Ein Beispiel für eine Schweizer KMU-Website:

    # Xindaya — WordPress & Web-Beratung für Schweizer KMU
    
    > Unabhängiger Web-Experte aus Zürich, spezialisiert auf
    > WordPress, SEO und KI-Integration für KMU.
    
    ## Wichtige Seiten
    
    - [Angebot](https://www.xindaya.ch/angebot-web-agentur/): Webdesign, Entwicklung, SEO und Beratung für KMU
    - [Glossar](https://www.xindaya.ch/glossar/): Fachbegriffe rund um WordPress, SEO und KI erklärt
    - [FAQ](https://www.xindaya.ch/faq-fragen-antworten-kmu-websites/): Häufige Fragen zu KMU-Webseiten
    
    ## Optional
    
    - [Blog](https://www.xindaya.ch/wissenswertes/): Aktuelle Artikel
    - [Kunden](https://www.xindaya.ch/kunden/): Referenzen

    Drei Abschnitte: Eine Titel-Zeile mit Marken-Beschreibung, eine Liste der wichtigsten Seiten, und optional ergänzende Inhalte. Mehr braucht es nicht.

    Wo llms.txt liegt und wer sie nutzt

    Die Datei liegt auf der obersten Ebene der Domain: https://www.ihre-domain.ch/llms.txt. Genauso wie robots.txt unter /robots.txt erreichbar ist.

    Stand Mai 2026 ist llms.txt noch kein offizieller W3C-Standard, aber bereits gut etabliert:

    • Anthropic (Claude) unterstützt llms.txt aktiv
    • Perplexity nutzt die Datei beim Crawling
    • Mehrere SEO-Tools (Sistrix, Surfer, Frase) prüfen und generieren llms.txt
    • WordPress-Plugins entstehen aktuell, die automatisch llms.txt aus der Sitemap generieren

    OpenAI (ChatGPT) hat den Standard noch nicht offiziell übernommen, scheint aber in Tests Inhalte aus llms.txt zu nutzen.

    llms.txt vs. robots.txt — die Unterschiede

    Beide Dateien sprechen Crawler an, haben aber gegensätzliche Funktionen:

    • robots.txt sagt: «Diese URLs darfst du NICHT crawlen» (Blocklist-Logik)
    • llms.txt sagt: «Diese URLs sind die wichtigsten — bevorzuge sie» (Allowlist-Logik)

    Beide Dateien ergänzen sich. Sie sollten parallel existieren. Eine gut konfigurierte Website hat:

    • robots.txt mit ausdrücklicher Erlaubnis für GPTBot, ClaudeBot, PerplexityBot, Google-Extended
    • llms.txt mit kuratierter Inhalts-Übersicht
    • Sitemap.xml für klassische Suchmaschinen-Crawler

    Mehrsprachige llms.txt

    Speziell für Schweizer KMU mit mehrsprachigem Auftritt: llms.txt sollte alle Sprachversionen referenzieren oder pro Subdomain separat existieren. Die genaue Konvention ist noch nicht endgültig festgelegt — pragmatischer Ansatz: Pro Sprachversion eine eigene Seitenliste in derselben Datei.

    Wie ich das für Sie umsetze

    Ich erstelle für Ihre Website eine llms.txt-Datei mit den wichtigsten Inhalten Ihres Angebots, Ihrer Blog-Artikel, Glossar und FAQ — in der korrekten Markdown-Struktur. Bei WordPress geschieht das entweder über ein Plugin oder als statische Datei direkt im Root-Verzeichnis. Zusätzlich prüfe ich, ob KI-Crawler (GPTBot, ClaudeBot, PerplexityBot) in Ihrer robots.txt nicht versehentlich blockiert sind. Diese Massnahme ist Teil des technischen Setups in jedem WordPress-Webentwicklungsmandat oder als einmalige Optimierung im Rahmen einer Web-Beratung umsetzbar.

    → Verwandte Begriffe: GEO | LLMO | Strukturierte Daten | JSON-LD | SEO
    → Mehr erfahren: SEO für KMU in der Schweiz | WordPress-Webentwicklung
    → Externe Ressourcen: llms.txt Spezifikation (Jeremy Howard) | Anthropic — Über AI-Crawler | Wikipedia — robots.txt

    Zurück zum Glossar