← Zurück zum Blog

The State of Docs in 2026: Fünf Trends, die die nächste Ära bestimmen werden

Die KI-Leserschaft ist um 500% gestiegen. Notion hat 21.000 Agenten ausgeliefert. Confluence hat Rovo bekommen. GitBook veröffentlichte den State of Docs. Fünf Trends aus der gesamten Branche, die uns zeigen, wohin sich die Dokumentation entwickelt.

Laut gedacht
The State of Docs in 2026: Fünf Trends, die die nächste Ära bestimmen werden

Alle paar Monate nehme ich mir einen Vormittag Zeit, um einfach nur zu lesen. Nicht Rasepi-Code, nicht GitHub-Probleme. Blogs von Mitbewerbern, Branchenberichte, Ankündigungen von Keynotes, Umfragen unter Entwicklern. Alles, was im letzten Quartal veröffentlicht wurde und mit Dokumentation, Wissensmanagement oder KI-gestützten Workflows zu tun hat.

Das habe ich letzte Woche getan, und das Bild, das sich dabei ergab, war schärfer als erwartet. Nicht, weil eine einzelne Ankündigung bahnbrechend war, sondern weil fünf verschiedene Trends zusammenlaufen, die zusammengenommen ein klares Bild davon zeichnen, was Dokumentationsplattformen in den nächsten zwei Jahren leisten müssen.

Hier ist, was ich gefunden habe.

1. KI ist jetzt der wichtigste Leser. Nicht der Mensch.

GitBook hat in seinem [AI docs data report] (https://www.gitbook.com/blog/ai-docs-data-2025) eine beeindruckende Zahl veröffentlicht: Die KI-Leserschaft von Dokumentationen stieg 2025 um über 500%. Fünfhundert Prozent. Das ist kein Rundungsfehler.

Die 2024 Developer Survey von Stack Overflow zeigt, dass 61% der Entwickler/innen mehr als 30 Minuten pro Tag mit der Suche nach Antworten verbringen. Aber die Art und Weise, wie sie suchen, hat sich verändert. GitHubs eigene Umfrage ergab, dass 97% der Unternehmensentwickler KI-Coding-Tools verwenden. Im Jahr 2026 werden 84% der Entwickler täglich KI-Tools verwenden, wobei 41% des Codes inzwischen von KI generiert wird. Diese Leute navigieren nicht durch die Seitenleiste deines Wikis. Sie fragen Claude oder Copilot, und die KI liest deine Dokumente in ihrem Namen.

Die Auswirkungen sind kaum zu überschätzen. Dein häufigster Dokumentationskonsument ist nicht mehr eine Person, die einen Browser-Tab geöffnet hat. Es ist ein Sprachmodell, das Suchanfragen stellt. Und dieses Modell ist nicht in der Lage, auf eine Seite zu schielen und zu denken: "Hm, das sieht veraltet aus."

GitBook hat das früh erkannt und mit seinem [State of Docs 2026 report] (https://www.gitbook.com/blog/state-of-docs-2026) und einem Vorstoß in Richtung maschinenlesbare Formate reagiert. Außerdem haben sie [skill.md] (https://www.gitbook.com/blog/skill-md) veröffentlicht, eine Konvention zur Strukturierung von Produktinformationen speziell für KI-Agenten. Google ging mit seinem Gemini API Docs MCP noch weiter, das Kodieragenten über das Model Context Protocol mit der aktuellen Dokumentation verbindet. Die Argumentation war eindeutig: Agenten erzeugen veralteten Code, weil ihre Trainingsdaten ein Stichtag sind. Mit der MCP-Lösung stieg die Erfolgsquote auf 96,3 %.

Der erste Trend ist also bestätigt. KI ist der wichtigste Leser. Die Plattformen, die dies als eine zentrale Designvorgabe behandeln und nicht als eine Funktion, die später hinzugefügt werden kann, werden einen strukturellen Vorteil haben.

2. Frische und vertrauenswürdige Metadaten werden zur Pflicht

Anthropic befragte [81.000 Claude-Nutzer] (https://www.anthropic.com/81k-interviews) im Dezember 2025 und veröffentlichte die Ergebnisse im März 2026. Es ist die größte qualitative Studie über KI-Nutzer, die jemals durchgeführt wurde (159 Länder, 70 Sprachen). Die meistgenannte Sorge? Die Unzuverlässigkeit. 27% der Befragten nannten sie als ihre größte Sorge und 79% dieser Menschen haben sie am eigenen Leib erfahren.

Diese Zahl sollte jedes Dokumentationsteam nachts wach halten.

Wenn KI-Antworten unzuverlässig sind, liegt das Problem nicht immer am Modell. Oft gibt das Modell getreu wieder, was es in einem veralteten Dokument gefunden hat. Das Modell hat nicht halluziniert. Deine Dokumente waren einfach falsch, und niemand hat sie gemeldet.

Die Daten von Stack Overflow untermauern dies aus einem anderen Blickwinkel: 81% der Entwickler erwarten, dass KI im kommenden Jahr stärker in die Art und Weise, wie sie Code dokumentieren, integriert wird. Wenn 81 % deiner Nutzer/innen die KI mit Dokumenten füttern und 27 % der KI-Nutzer/innen die Unzuverlässigkeit als größtes Problem bezeichnen, hast du ein Vertrauensproblem, das keine noch so prompte Entwicklung beheben kann. Die Lösung liegt an der Quelle.

Deshalb sind Metadaten zur Aktualität so wichtig. Nicht der Zeitstempel "zuletzt bearbeitet" (er sagt aus, wann jemand die Datei angefasst hat, und nicht, ob der Inhalt noch aktuell ist). Echte Aktualität: Überprüfungsstatus, Linkstatus, Übersetzungsabgleich, Lesersignale, Erkennung von Inhaltsabweichungen. Metadaten, die eine Maschine lesen und nutzen kann, um zu entscheiden, ob ein Dokument sicher zitiert werden kann.

Ich komme immer wieder auf eine einfache Formulierung zurück. Deine Dokumentation braucht einen Credit Score. Nicht einen Zeitstempel. Eine Kreditwürdigkeit. (Wir haben genau das mit dem Frische-Scoring-System von Rasepi entwickelt, und wenn ich mir die Daten aus der Branche ansehe, bin ich noch mehr davon überzeugt, dass es die richtige Entscheidung ist).

3. Die Übersetzung wird von "Projekt" auf "Pipeline" umgestellt

DeepL veröffentlichte im Februar einen Artikel mit dem Titel ["The 6 Translation Transformations Global Businesses Can't Afford to Miss"] (https://www.deepl.com/en/blog/six-translation-transformations). Ihr Argument: Übersetzung wird zu einer kontinuierlichen betrieblichen Herausforderung, nicht zu einem vierteljährlichen Stapelprojekt.

Das deckt sich mit allem, was ich sehe.

Das alte Modell war ganz einfach. Schreibe auf Englisch. Wenn du ein gewisses Budget hast, engagiere einen Übersetzer oder beauftrage einen Übersetzungsdienst. Erhalte die Übersetzungen zurück. Lade sie hoch. Erledigt bis zum nächsten Mal. Das Problem ist, dass das "nächste Mal" immer schneller kommt, wenn dein Produkt wöchentlich ausgeliefert wird und deine Dokumente ständig aktualisiert werden. Bis die deutsche Version von der Überprüfung zurück ist, hat sich der englische Quelltext bereits zweimal geändert.

Der [Customization Hub] (https://www.deepl.com/customization-hub) von DeepL bietet jetzt Glossare, Stilregeln und Formalitätseinstellungen, was großartig ist. Aber wenn diese Tools außerhalb deiner Dokumentationsplattform liegen, musst du eine ganze Übersetzungs-Toolchain verwalten: Editor, Export, Übersetzung, Überprüfung, Reimport, Wiederholung. Jeder Schritt birgt die Gefahr, dass du abweichst.

Notion hat keine native mehrsprachige Unterstützung. Confluence bietet sie über Marketplace-Plugins an. GitBook [fügte die automatische Übersetzung im August 2025 hinzu] (https://www.gitbook.com/blog/new-in-gitbook-august-2025), das ist ein Schritt, aber er funktioniert auf Seitenebene.

Die wirkliche Veränderung ist der Wechsel von der Seitenebene zur Blockebene. Wenn du die Übersetzungen auf der Absatzebene verfolgst, übersetzst du nur das, was sich tatsächlich geändert hat. Bei einer typischen Bearbeitung werden vielleicht zwei von vierzig Absätzen geändert. Das sind 94 % weniger Übersetzungsarbeit. (Das ist der Kern von Rasepis Übersetzungsarchitektur und ehrlich gesagt das, worauf ich bei dem Produkt am meisten stolz bin. Aber selbst wenn man uns beiseite lässt, ist die Richtung klar: Kontinuierliche, inkrementelle, eingebettete Übersetzung ist die Richtung, in die es geht).

4. KI-Agenten brauchen strukturierte Inhalte, keine Wikiseiten

Das hat sich für mich herauskristallisiert, als Notion im Februar [Custom Agents] (https://www.notion.com/blog/introducing-custom-agents) ankündigte. 21.000 Agenten wurden während des frühen Zugangs gebaut. Agenten, die Fragen aus Wissensdatenbanken beantworten, Aufgaben weiterleiten und Statusberichte erstellen. Allein Ramp hat über 300 Agenten.

Atlassian ging in eine ähnliche Richtung. [Rovo AI in Confluence] (https://www.atlassian.com/blog/confluence/create-and-edit-with-rovo) zieht Kontext aus allen Anwendungen von Atlassian und Drittanbietern, um Inhalte zu erstellen. Ihr Argument: "Kontextreiche, qualitativ hochwertige Inhalte, die auf der bestehenden Arbeit deines Teams basieren".

Und dann hat Anthropic Agententeams in Claude Code entwickelt, bei dem mehrere KI-Agenten komplexe Aufgaben selbstständig koordinieren. Opus 4.6 erreicht 76 % beim 8-Nadel 1M MRCR Benchmark (gegenüber 18,5 % beim Vorgängermodell), d. h. es kann tatsächlich Informationen aus riesigen Dokumentenmengen abrufen, ohne den Überblick zu verlieren.

Alle drei Unternehmen entwickeln Agenten, die Dokumente auswerten. Keines von ihnen hat das Problem der Quellenqualität gelöst.

In der Dokumentation der Custom Agents von Notion wird ausdrücklich auf das Prompt Injection Risk hingewiesen, wenn Agenten nicht vertrauenswürdige Inhalte lesen. Rovo von Atlassian liest alles, was es in deinem Confluence findet. Wenn dieser Inhalt drei Monate alt ist, weiß Rovo das nicht. Er baut trotzdem darauf auf.

Damit Agenten zuverlässig arbeiten können, brauchen sie mehr als nur Textseiten. Sie brauchen strukturierte Inhalte mit stabilen Bezeichnern, eindeutigen Aktualitätssignalen, klaren Klassifizierungsmetadaten und der Möglichkeit, zwischen "das ist aktuell und geprüft" und "das gibt es, aber niemand hat es seit einem Jahr angefasst" zu unterscheiden. Wiki-Seiten bieten das nicht. Strukturierte Inhalte auf Blockebene mit vertrauenswürdigen Metadaten schon.

5. Open Source und Self-Hosting erleben ein Comeback

Der letzte Punkt ist eher ein Bauchgefühl, das durch Daten gestützt wird, als eine einzelne Ankündigung.

GitBook [hat seine veröffentlichte Dokumentation] (https://www.gitbook.com/blog/free-open-source-documentation) Ende 2024 als Open Source veröffentlicht und einen OSS-Fonds eingerichtet. Die Begründung: Open-Source-Projekte verdienen kostenlose, hochwertige Dokumentationswerkzeuge. Aber der Schritt ist auch ein Zeichen für etwas Größeres.

Notion ist ein reines Cloud-Angebot. Es gibt keine selbstgehostete Option. Das Confluence Data Center ist zwar vorhanden, erfordert aber eine Lizenz. Wenn deine Dokumentationsplattform dein sensibelstes betriebliches Wissen enthält (Playbooks für Vorfälle, Compliance-Verfahren, Architekturentscheidungen), ist die Frage, wer diese Daten kontrolliert, nicht abstrakt.

Der Beitrag von Anthropic ["Claude is a space to think"] (https://www.anthropic.com/news/claude-is-a-space-to-think) vom Februar enthält ein interessantes Argument über Vertrauen und Geschäftsmodelle. Ihre Kernaussage: Werbeanreize sind unvereinbar mit einem wirklich hilfreichen KI-Assistenten. Sie haben sich dafür entschieden, werbefrei zu bleiben, damit die Nutzer dem Tool vertrauen können.

Ich denke, es gibt eine Parallele für Dokumentationsplattformen. Wenn dein Dokumentsystem ein Closed-Source-System ist und nur in der Cloud läuft, kannst du nicht überprüfen, was es an die KI weitergibt. Du kannst die Berechnung der Aktualität nicht überprüfen. Du kannst nicht sicherstellen, dass deine Daten unter deiner Kontrolle bleiben. Für Teams, die KI-Assistenten auf ihre Wissensdatenbank aufsetzen (und das tun zunehmend alle), ist die Überprüfbarkeit wichtig.

Dies ist keine Polemik darüber, dass Open Source moralisch überlegen ist. Closed-Source-Produkte können durchaus vertrauenswürdig sein. Aber wenn du KI-gestützte Workflows auf deiner internen Dokumentation aufbaust, ist die Möglichkeit, das System zu prüfen und zu verifizieren, ein praktischer Vorteil. Für uns war die MIT-Lizenzierung von Rasepi kein nachträglicher Einfall. Es war eine Designentscheidung, die auf derselben Logik beruht: Die Dokumentationsinfrastruktur sollte überprüfbar sein.

Was diese fünf Trends zusammen bedeuten

Für sich genommen ist jeder dieser Trends überschaubar. KI liest deine Dokumente? Okay, füge ein paar maschinenlesbare Metadaten hinzu. Frische ist wichtig? Gut, füge Überprüfungsdaten hinzu. Die Übersetzung muss kontinuierlich erfolgen? Klar, integriere DeepL. Agenten brauchen Struktur? Gut, verbessere dein Inhaltsmodell. Souveränität ist wichtig? Gut, biete eine selbst gehostete Option an.

Aber zusammengenommen beschreiben sie eine Plattform, die sich grundlegend von dem unterscheidet, was die meisten Teams heute nutzen.

Der Unterschied liegt in der Architektur. Es handelt sich nicht um fünf Funktionen, die man anbauen kann. Es sind fünf Annahmen, die in das Fundament eingebaut werden müssen. Wie die Inhalte gespeichert werden (auf Blockebene, nicht auf Seitenebene). Wie das Vertrauen modelliert wird (Freshness Scores, nicht Zeitstempel). Wie die Übersetzung funktioniert (inkrementell, eingebettet, pro Absatz). Wie KI-Agenten auf Inhalte zugreifen (strukturierte APIs mit Metadaten, keine Seitenabfragen). Wie die Daten kontrolliert werden (offen, überprüfbar, selbst-hostbar).

Keine etablierte Plattform wurde für alle fünf Punkte gleichzeitig entwickelt. Einige fügen sie Stück für Stück hinzu. GitBook ist bei der KI-Lesbarkeit am weitesten fortgeschritten. Notion baut eine Agenteninfrastruktur auf. Atlassian hat eine Enterprise Distribution.

Aber vom ersten Tag an für alle fünf entwickeln? Das ist der Vorteil, wenn man ganz neu anfängt, wenn sich das Terrain verschiebt.

Ich weiß, dass ich hier voreingenommen bin. Wir haben Rasepi entwickelt, weil wir sahen, dass diese Trends zusammenlaufen und wir wollten eine Plattform, die von Anfang an alle diese Trends berücksichtigt. Übersetzung auf Blockebene, erzwungenes Verfallsdatum, Freshness Scoring, strukturierte KI-kompatible Inhalte, Open Source. Das ist die These des ganzen Projekts.

Aber selbst wenn es uns nicht gäbe, denke ich, dass jede ehrliche Betrachtung dessen, was im ersten Quartal 2026 passiert, in dieselbe Richtung weist. Die Dokumentation wird zur Infrastruktur. Und Infrastruktur hat andere Anforderungen als Wikiseiten.

Die Teams, die das zuerst herausfinden, werden nicht nur bessere Dokumentationen haben. Sie werden zuverlässigere KI-Agenten, niedrigere Übersetzungskosten, weniger Überraschungen bei der Einhaltung von Vorschriften und Wissensdatenbanken haben, die auch im Laufe der Zeit vertrauenswürdig bleiben.

Das ist der Zustand der Dokumente im Jahr 2026. Die Frage ist nicht, ob diese Trends real sind. Die Frage ist, ob deine Plattform für sie entwickelt wurde.

Fünf Trends. Eine architektonische Frage: Wurde deine Dokumentationsplattform für das Jahr 2026 entwickelt oder bedient sie immer noch Annahmen aus dem Jahr 2016?


Quellen: GitBook AI docs data report, GitBook State of Docs 2026, GitBook skill.md, Google Gemini API Docs MCP, Stack Overflow 2024 Developer Survey, GitHub 2024 developer survey, Index.dev developer productivity statistics, Anthropic "What 81,000 People Want from AI", Anthropic "Claude is a space to think", Claude Opus 4.6, Notion Custom Agents, Atlassian Rovo in Confluence, DeepL "6 Translation Transformations", DeepL Customization Hub, GitBook open source documentation, GitBook auto-translate.

Halte deine Doku aktuell. Automatisch.

Rasepi erzwingt Überprüfungstermine, verfolgt die Inhaltsqualität und veröffentlicht in über 40 Sprachen.

Kostenlos starten →