„700 Millionen wöchentlich aktive ChatGPT-Nutzer – und was passiert eigentlich im Browser?“ Diese Frage haben sich die Forscher des HTTP Archive gestellt und mit dem Web Almanac 2025 eine der umfassendsten Analysen zum Stand von Generative AI im Web veröffentlicht. Bei Never Code Alone begleiten wir seit über 15 Jahren Unternehmen bei der Softwarequalität, Open Source und Remote Consulting – und dieser Report liefert Erkenntnisse, die eure nächsten Entscheidungen maßgeblich beeinflussen sollten.
Der HTTP Archive crawlt regelmäßig Millionen von Websites und analysiert, welche Technologien tatsächlich im Einsatz sind. Keine Marketing-Versprechen, keine Hype-Prognosen – sondern harte Daten darüber, was Developer wirklich auf Production-Systemen deployen. Das Generative AI Kapitel des Almanac 2025 zeigt deutlich: Die KI-Integration ins Web ist keine Zukunftsmusik mehr, sondern messbare Realität.
1. Was ist der HTTP Archive Web Almanac und warum ist das Generative AI Kapitel so bedeutend?
Der Web Almanac ist ein jährlicher Report des HTTP Archive, der den Zustand des Webs durch Analyse von Millionen realer Websites dokumentiert. Im Juli 2025 wurden rund 12,9 Millionen Websites gecrawlt und auf ihre technischen Eigenschaften untersucht. Das Besondere daran: Es handelt sich nicht um Umfragen oder Schätzungen, sondern um tatsächlich gemessene Nutzungsdaten.
Das Generative AI Kapitel erscheint 2025 zum ersten Mal als eigenständiges Kapitel – ein klares Signal dafür, wie relevant das Thema geworden ist. Die Autoren Christian Liebel, Yash Vekaria und Jonathan Pagel haben dabei drei zentrale Bereiche untersucht: lokale KI-Technologien im Browser, die Auffindbarkeit von KI-Inhalten, und die sogenannten „AI Fingerprints“ – also Spuren, die KI-generierte Inhalte im Web hinterlassen.
Für euch als Developer und Entscheider liefert der Report konkrete Zahlen statt Bauchgefühl. Ihr seht, welche APIs wirklich genutzt werden, welche Frameworks Traktion haben und wo der Markt tatsächlich steht.
2. Wie unterscheiden sich Cloud-basierte und lokale KI-Modelle für Web-Anwendungen?
Die meisten von euch nutzen Generative AI über Cloud-Dienste wie OpenAI, Anthropic oder Google Cloud AI. Das hat gute Gründe: Die Modelle sind leistungsstark, die Antwortzeiten schnell, und ihr braucht keine spezielle Hardware. Der Almanac zeigt aber auch die Kehrseite: Ihr seid abhängig von Netzwerkverbindung, Server-Verfügbarkeit und – besonders kritisch für europäische Unternehmen – eure Daten verlassen den Client.
Lokale KI-Technologien lösen genau diese Probleme. Wenn das Modell im Browser des Nutzers läuft, bleiben sensible Daten dort, wo sie hingehören. Die Inferenz funktioniert offline, und ihr zahlt keine API-Kosten pro Token. Der Haken: Open-Weight-Modelle, die lokal laufen können, hinken laut Epoch AI im Durchschnitt etwa drei Monate hinter dem State-of-the-Art her.
Aus unserer Consulting-Praxis wissen wir: Für DSGVO-sensible Anwendungen – Personalverwaltung, Finanzdaten, Gesundheitsinformationen – ist die lokale Variante oft die einzig vertretbare Option. Der initiale Aufwand amortisiert sich durch eingesparte Cloud-Kosten und reduzierte Compliance-Risiken.
3. Was ist WebGPU und warum ist es der Game-Changer für KI im Browser?
WebGPU ist der moderne Nachfolger von WebGL und ermöglicht erstmals echte Compute-Shader im Browser. Das bedeutet: Massive parallele Berechnungen, wie sie KI-Modelle brauchen, laufen direkt auf der Grafikkarte des Nutzers. Der Almanac dokumentiert ein beeindruckendes Wachstum: Die WebGPU-Nutzung stieg von Juli 2024 bis Juli 2025 um 591% auf Desktop und 709% auf Mobile.
Mit Firefox 141 im November 2025 ist WebGPU jetzt in allen relevanten Browser-Engines verfügbar – Chromium, Gecko und WebKit. Das ist ein Wendepunkt: Zum ersten Mal können Web-Developer performante KI-Anwendungen bauen, die überall laufen, ohne dass Nutzer spezielle Software installieren müssen.
In der Praxis heißt das für euch: Libraries wie WebLLM nutzen WebGPU unter der Haube, um Modelle wie Llama 3, Phi oder Mistral direkt im Browser auszuführen. Die npm-Downloads von WebLLM sind 2025 um 340% gestiegen – ein klarer Indikator dafür, dass Developer diese Technologie ernst nehmen.
4. Wie funktionieren Built-in AI APIs und welche Browser unterstützen sie bereits?
Google und Microsoft arbeiten an einer Initiative namens „Built-in AI“, die High-Level KI-APIs direkt im Browser bereitstellt. Der Unterschied zu WebGPU: Hier liefert der Browser das Modell mit, nicht der Entwickler. Chrome nutzt Gemini Nano, Edge setzt auf Phi-4-mini.
Der Almanac zeigt den aktuellen Stand:
Die Prompt API ist seit Chrome 138 für Browser-Extensions verfügbar, für Webseiten allerdings noch im Origin Trial. Die Translator und Language Detector APIs haben mit 0.277% die höchste Adoption unter den Built-in AI APIs erreicht – viele davon durch das Review-Tool Judge.me, das als Shopify-Add-on große Verbreitung hat. Der Summarizer API ist seit Chrome 138 ausgeliefert, Writer und Rewriter befinden sich noch im Origin Trial.
Unser Rat aus der Praxis: Experimentiert mit diesen APIs, aber plant noch keine Production-Features darauf. Die Spezifikationen sind noch nicht auf dem W3C Recommendation Track, und die Verfügbarkeit variiert stark zwischen Browsern und Plattformen.
5. Was sind die besten JavaScript-Frameworks für lokale LLM-Inference im Browser?
Der Almanac vergleicht die führenden Optionen anhand ihrer npm-Download-Zahlen:
ONNX Runtime Web verzeichnete von Januar bis November 2025 einen Anstieg von 185% auf über 2,2 Millionen Downloads monatlich. Das Framework unterstützt verschiedene Backends wie WebGPU, WebGL und WebNN. Transformers.js von Hugging Face legte um 70% zu und bietet die vertraute Python-Transformers-API für JavaScript-Entwickler. WebLLM ist spezialisiert auf LLM-Inference und wuchs um 340% – besonders interessant für Chatbot-Anwendungen.
Die Wahl hängt von eurem Use Case ab: WebLLM für reine LLM-Anwendungen mit OpenAI-kompatibler API, Transformers.js für NLP und Vision-Modelle mit breiter Modellunterstützung, ONNX Runtime Web für maximale Flexibilität bei verschiedenen ML-Modellen.
6. Wie schütze ich meine Website vor KI-Crawlern mit robots.txt?
Der Almanac zeigt: 94,1% aller analysierten Websites haben eine robots.txt mit mindestens einer Direktive. Aber die spannende Entwicklung liegt bei den AI-spezifischen Einträgen. GPTBot von OpenAI wird inzwischen von 4,5% aller Websites explizit adressiert – ein deutlicher Anstieg gegenüber 2,6% im Vorjahr.
Die meistblockierten KI-Bots sind GPTBot (OpenAI), ClaudeBot und Anthropic-AI (Anthropic), Google-Extended (Google) und PerplexityBot (Perplexity).
Interessant dabei: Je populärer eine Website, desto wahrscheinlicher blockiert sie KI-Crawler. Bei den Top-1000-Websites erwähnen 20,9% den GPTBot in ihrer robots.txt. Der Grund liegt auf der Hand – große Websites können es sich leisten, auf potentiellen Traffic aus KI-Antworten zu verzichten.
Für eure Implementierung empfehlen wir: Überlegt genau, ob ihr KI-Training auf euren Inhalten erlauben wollt. Denkt daran, dass robots.txt ein freiwilliges Protokoll ist – es gibt keine Garantie, dass sich alle Crawler daran halten.
7. Was ist llms.txt und sollte ich es für meine Website implementieren?
Während robots.txt regelt, was gecrawlt werden darf, hat llms.txt einen anderen Zweck: Es hilft LLMs dabei, eure Website zur Inference-Zeit zu verstehen. Stellt es euch vor wie eine strukturierte Sitemap speziell für KI-Agenten.
Der Almanac zeigt allerdings: Die Adoption ist noch minimal. Nur 2,13% der Desktop-Seiten und 2,1% der Mobile-Seiten haben valide llms.txt-Einträge. Das ist ein klares Zeichen für ein frühes Adopter-Stadium.
Wenn ihr zu den Early Adopters gehören wollt, kann llms.txt interessant sein für die Generative Engine Optimization (GEO) – also die Optimierung für KI-basierte Suchen wie Perplexity oder Google AI Mode. Das ist kein Ersatz für klassisches SEO, aber eine Ergänzung, die an Relevanz gewinnen wird.
8. Gibt es typische KI-Fingerabdrücke in Web-Designs und wie vermeide ich sie?
Ihr habt bestimmt schon Witze über „KI-Lila“ und schmelzende Uhren gehört. Der Almanac hat diese Annahmen tatsächlich mit Daten überprüft – und die Ergebnisse sind überraschend.
Die Forscher analysierten die Verbreitung typischer „AI Purple“-Farben wie Tailwind’s indigo-500 (#6366f1). Das Ergebnis: Auf Tailwind-Seiten selbst gab es keinen merklichen Anstieg dieser Farben. Der beobachtete Zuwachs im Gesamtweb lässt sich eher durch die allgemeine Popularität von Tailwind CSS erklären als durch KI-generierte Designs.
Adam Wathan, der Entwickler von Tailwind, vermutet übrigens, dass die violetten Töne in KI-Outputs daher stammen, dass die Trainingsdaten aus einer Zeit stammen, als Tailwind’s Dokumentation diese Farben prominent verwendete.
Für euch bedeutet das: Macht euch weniger Sorgen um vermeintliche KI-Fingerabdrücke und mehr Gedanken über bewusste Design-Entscheidungen. Die Daten zeigen, dass die „KI-Ästhetik“ eher ein Meme als eine messbare Realität ist.
9. Was sind Vibe Coding Plattformen und wie verändern sie die Web-Entwicklung?
Plattformen wie v0, Replit und Lovable ermöglichen es, Websites durch Konversation mit KI zu erstellen. Der Almanac trackt deren Subdomains und zeigt: Lovable wuchs von 10 Subdomains Anfang 2025 auf 315 im Oktober. Vercel bleibt mit seinen *.vercel.app Domains der dominante Player, wobei diese Infrastruktur schon vor dem KI-Boom existierte.
Laut Lovable selbst werden täglich 100.000 neue Projekte auf ihrer Plattform erstellt – Zahlen, die nicht vollständig im HTTP Archive erscheinen, da viele Projekte nie öffentlich gecrawlt werden.
Für Agenturen und Enterprise-Teams ist die Frage nicht ob, sondern wie ihr mit diesen Tools umgeht. Sie sind keine Konkurrenz für komplexe, maßgeschneiderte Lösungen – aber sie verändern die Erwartungen eurer Kunden an Time-to-Market für einfache Web-Projekte.
10. Was bedeutet Agentic AI für die Zukunft des Webs?
Der Almanac schließt mit einem Ausblick auf Agentic AI – autonome Agenten, die nicht nur antworten, sondern eigenständig Aufgaben lösen. Browser wie Perplexity Comet, ChatGPT Atlas oder Opera Neon zeigen die Richtung: KI-Assistenten, die im Web navigieren, Formulare ausfüllen und komplexe Workflows abarbeiten.
Das W3C arbeitet bereits an WebMCP (Web Model Context Protocol), einem Standard, der regeln soll, wie Agenten Web-Interfaces wahrnehmen und manipulieren können. Ähnlich wie HTTP die Übertragung von Ressourcen standardisiert hat, soll WebMCP die Interaktion von KI-Agenten mit Websites standardisieren.
Für eure Entwicklung bedeutet das: Accessibility und semantisches HTML werden noch wichtiger. Agenten verstehen gut strukturierte Seiten besser. Und wer jetzt llms.txt und saubere APIs implementiert, ist für die agentenbasierte Zukunft vorbereitet.
Euer nächster Schritt mit Generative AI im Web
Der HTTP Archive Web Almanac 2025 zeigt klar: Generative AI im Web ist keine experimentelle Spielerei mehr. WebGPU ist in allen Browsern verfügbar, die Frameworks sind ausgereift, und die Adoption steigt messbar. Gleichzeitig sind viele APIs noch im Fluss, und die Standards entwickeln sich weiter.
Was ihr jetzt tun könnt:
Evaluiert WebGPU und lokale LLM-Frameworks für datensensible Anwendungen. Überprüft eure robots.txt auf AI-Crawler-Direktiven. Experimentiert mit llms.txt für bessere KI-Auffindbarkeit. Plant eure Architektur mit Blick auf kommende Agent-Interaktionen.
Ihr braucht Unterstützung bei der Umsetzung? Bei Never Code Alone haben wir über 15 Jahre Erfahrung in Softwarequalität, Open Source und Remote Consulting. Wir helfen euch, die richtigen Technologie-Entscheidungen zu treffen – von der ersten Evaluation bis zum Production-Deployment.
Schreibt uns einfach eine E-Mail an roland@nevercodealone.de – wir freuen uns auf euer Projekt!
Never Code Alone – Gemeinsam für bessere Software-Qualität!
