Agentic Web 2027: Wenn KI-Agenten deine Website besuchen
Nach dem GEO-Zeitalter kommt das agentische Web. ChatGPT Agent, Claude Computer Use und Perplexity Actions handeln stellvertretend für Nutzer — sie klicken, buchen und kaufen. Was KMU jetzt vorbereiten müssen.
Paul Mill
Webdesign & Entwicklung
Inhaltsverzeichnis
Stell dir vor, ein potenzieller Kunde sagt zu seinem ChatGPT-Agent: „Finde mir einen Elektriker in Göttingen, der nächste Woche Zeit hat, hol drei Angebote ein und buche den günstigsten mit vier oder mehr Sternen.” Fünf Minuten später meldet der Agent zurück: Termin gebucht, Bestätigung liegt im Postfach. Der Nutzer hat keine einzige Website selbst geöffnet.
Das ist keine Science-Fiction. ChatGPT Agent ist seit Juli 2025 allgemein verfügbar. Claude Computer Use ist seit Oktober 2024 in der Beta. Perplexity hat bereits im November 2024 „Buy with Pro” eingeführt. Und Anthropic hat Ende 2025 das Model Context Protocol (MCP) an die neu gegründete Agentic AI Foundation unter der Linux Foundation übergeben — mitfinanziert von OpenAI, Block und Anthropic selbst. Über 10.000 öffentliche MCP-Server sind bereits aktiv.
Nach dem GEO-Zeitalter — in dem es darum ging, von KI-Suchmaschinen zitiert zu werden — beginnt die nächste Phase: das agentische Web. Hier liest die KI nicht nur deine Seite, sie handelt auf ihr. Sie füllt Formulare aus, fragt nach Preisen, bucht Termine, schließt Verträge ab. Dieser Beitrag zeigt, was das konkret für KMU-Websites bedeutet — und welche sieben Maßnahmen du jetzt vorbereiten solltest.

Was ist das agentische Web?
Das klassische Web wurde für Menschen gebaut. Der Nutzer tippt eine URL ein, liest Text, klickt Buttons, füllt Formulare aus. Das agentische Web fügt eine zweite Ebene hinzu: autonome KI-Systeme, die dieselben Aktionen stellvertretend ausführen.
Ein Agent ist kein Chatbot. Ein Chatbot antwortet auf Fragen. Ein Agent verfolgt ein Ziel über mehrere Schritte: recherchieren, vergleichen, entscheiden, handeln. Er öffnet deine Website, interpretiert die Inhalte, navigiert durch Menüs, klickt Links, füllt Eingabefelder und sendet Anfragen — ohne dass ein Mensch dazwischen eingreift.
Der Unterschied zum bisherigen Web-Scraping: Agenten agieren zielgerichtet und kontextuell. Sie folgen keiner vorgeschriebenen Sequenz, sondern passen ihre Schritte in Echtzeit an, basierend auf dem, was sie auf der Seite sehen. Das ist möglich, weil moderne multimodale Modelle — Claude 3.5 Sonnet, GPT-5, Gemini 2.5 — Screenshots von Websites verstehen und daraus Aktionen ableiten können.
Das Ausmaß: Zahlen, die die Richtung zeigen
Die Adoption verläuft schneller als bei jeder vorherigen Web-Technologie:
- 45 % der Käufer nutzen laut einer Studie von Ekamoira bereits KI-Shopping-Agenten für Kaufentscheidungen
- 900 Millionen wöchentliche Nutzer hat ChatGPT mit aktivem Web-Zugriff (Stand 2026)
- 1.445 % mehr Anfragen zu Multi-Agent-Systemen verzeichnete Gartner von Q1 2024 bis Q2 2025
- McKinsey prognostiziert 3–5 Billionen US-Dollar an agentischem Handelsvolumen bis 2030
Das ist keine Randerscheinung. Das ist der nächste Infrastrukturwandel — vergleichbar mit dem Mobile-Web-Wechsel um 2013.
Die fünf Arten von KI-Agenten, die deine Website besuchen
Nicht jeder Agent verhält sich gleich. Für die technische und strategische Vorbereitung ist es wichtig, die Typen zu unterscheiden:
| Agent | Herkunft | Was er tut | Dein Handlungsbedarf |
|---|---|---|---|
| ChatGPT Agent | OpenAI | Surft, klickt, füllt Formulare, kauft ein | Strukturierte Inhalte, klare CTAs |
| Claude Computer Use | Anthropic | Steuert Browser wie ein Mensch, per Screenshot | Visuelle Hierarchie, lesbare UI |
| Perplexity Actions | Perplexity | Recherchiert + handelt (z. B. Buchungen) | Verifizierbare Fakten, klare Preise |
| Google Gemini mit Project Mariner | Web-Navigation direkt aus dem Browser | Schema Markup, semantisches HTML | |
| MCP-basierte Custom Agents | Unternehmen / Entwickler | Spezialisierte Workflows via Protokoll | MCP-Endpunkt (optional) |
Der entscheidende Punkt: Alle fünf Typen interpretieren deine Website wie ein Mensch, aber mit anderen Stärken und Schwächen. Eine KI liest HTML-Struktur schneller, erkennt aber versteckte CSS-Tricks schlechter. Sie versteht Tabellen besser als Fließtext. Und sie kapituliert vor schlecht beschrifteten Buttons.
Agentic Commerce: Wenn die KI einkauft
Der am weitesten fortgeschrittene Anwendungsfall ist der Handel. Hier sind bereits drei konkurrierende Protokolle im Einsatz:
OpenAI ACP (Agentic Commerce Protocol). Integriert in ChatGPT als „Instant Checkout”. Live seit September 2025 mit Stripe-Abwicklung. OpenAI hat den ersten Anlauf im März 2026 wieder eingestellt, nachdem nur rund 30 Händler aktiv waren — die Produktdaten kamen aus Web-Scraping und waren zu ungenau. Die zweite Generation läuft jetzt über strukturierte Produkt-Feeds.
Google UCP (Unified Commerce Protocol). Kooperation mit Walmart, Target, Shopify, Etsy und über 20 weiteren Händlern. Fokus: intent-basierte Discovery — „Ich brauche winterfeste Arbeitsschuhe, Größe 44, unter 150 Euro” führt direkt zu passenden Produkten mit Kauf-Option.
Shopify Storefront MCP. Seit Frühjahr 2026 live. Hydrogen-Stores auf Oxygen können nun custom AI-Agenten direkt in den Storefront einbinden. Das bedeutet: Dein Shopify-Shop kann mit ChatGPT, Claude und Perplexity sprechen — nicht nur Daten ausliefern, sondern Bestellprozesse durchführen.
Für KMU heißt das: Wer heute einen Shopify-Shop betreibt, hat den Grundbaustein für Agentic Commerce bereits gelegt. Wer eine Custom-Lösung nutzt, sollte prüfen, ob die Produktdaten in einem strukturierten Format verfügbar sind (Google Merchant Feed, Schema.org Product Markup, offene API).
Was passiert, wenn du nicht mitmachst?
Nichts — und genau das ist das Problem. Ein Agent, der deine Website nicht versteht, ignoriert dich. Er wählt den Wettbewerber, bei dem der Checkout funktioniert, die Produktdaten sauber sind und die Preise klar angegeben. Sichtbarkeit in der klassischen Google-Suche schützt dich nicht: Wenn der Nutzer nie bei Google landet, sondern direkt beim Agent, verlierst du den Zugang zum Kunden.
MCP: Das Protokoll, das das Web verändert
Model Context Protocol ist das, was TCP/IP für das Internet war: ein offener Standard, der eine gemeinsame Sprache schafft. MCP definiert, wie KI-Systeme mit externen Tools, Datenquellen und Websites kommunizieren — standardisiert, authentifiziert, auditierbar.
Für Website-Betreiber öffnet MCP drei Optionen:
Option 1: Nichts tun — passiv erreichbar bleiben. Die einfachste Strategie. Agenten greifen über normales Web-Browsing zu. Dein Job: die Seite so bauen, dass sie für einen Agenten verständlich ist. Das ist für 90 % der KMU-Websites die richtige Wahl.
Option 2: Öffentliche Daten als MCP-Server bereitstellen. Wenn deine Website strukturierte Informationen hat (Preisliste, Verfügbarkeiten, Produktkatalog, Wissensdatenbank), kannst du einen eigenen MCP-Server anbieten. Agenten holen sich die Daten dann direkt, statt die Seite zu scrapen. Schneller, genauer, energiesparender.
Option 3: Aktionen über MCP zulassen. Die fortgeschrittenste Stufe. Dein MCP-Endpunkt erlaubt Agenten nicht nur Daten zu lesen, sondern auch Aktionen auszuführen — Termine buchen, Angebote anfordern, Bestellungen aufgeben. Das ist technisch aufwendig und erfordert durchdachte Authentifizierung, öffnet aber neue Conversion-Kanäle.
{
"mcpServers": {
"paulmill-verfuegbarkeit": {
"command": "npx",
"args": ["-y", "@paulmill/mcp-server"],
"env": { "API_KEY": "..." }
}
}
}
Praktisch: Wer heute einen Kalender-Buchungslink wie Cal.com oder Calendly nutzt, hat faktisch bereits einen MCP-kompatiblen Endpunkt — die Integration ist nur noch eine Frage des Standards.
Die sieben Maßnahmen, die KMU jetzt vorbereiten sollten
Keine dieser Maßnahmen erfordert eine komplette Neuentwicklung. Es geht darum, bestehende Best Practices konsequent umzusetzen — und an einigen Stellen einen Schritt weiterzudenken.
1. Semantisches HTML statt div-Suppe
Ein Agent, der deine Seite per Screenshot interpretiert, verlässt sich auf visuelle Hierarchie. Ein Agent, der das DOM liest, braucht korrekte HTML-Elemente. <nav>, <main>, <article>, <button>, <form> — nicht generische <div>-Container mit Click-Handlern. Das ist dieselbe Anforderung, die auch der BFSG-Checkliste zugrunde liegt — Accessibility und Agentic-Readiness sind zwei Seiten derselben Medaille.
2. Schema Markup ausbauen
Strukturierte Daten sind für Agenten, was Straßenschilder für Autos sind. Besonders relevant:
LocalBusinessmit Öffnungszeiten, Adresse, KontaktProductmit Preis, Verfügbarkeit, BildernServicemit Beschreibung und PreisrahmenFAQPagefür häufige FragenOffermit Konditionen
Mehr dazu im GEO-Artikel — die Prinzipien decken sich zu 80 %.
3. Klare, eindeutige CTA-Buttons
„Jetzt buchen”, „Angebot anfordern”, „Produkt in den Warenkorb legen” — nicht „Mehr erfahren” oder „Weiter”. Ein Agent, der eine Handlung ausführen soll, muss den Button-Text eindeutig einer Intention zuordnen können. Verstecke Aktionen nicht hinter Icons ohne aria-label. Ein nackter Pfeil-Icon-Button ist für einen Agenten unsichtbar.
4. Preise transparent machen
Nichts frustriert einen Agenten — und den Nutzer dahinter — wie „Preis auf Anfrage”. Wenn deine Leistungen nicht pauschal sind, biete wenigstens einen Rahmen, Paketpreise oder einen Kalkulator. Mein Kosten-Rechner zum Beispiel liefert einen Agenten eine verwendbare Antwort, ohne dass er ein Kontaktformular ausfüllen muss.
5. Formulare vereinfachen
Jedes Pflichtfeld, jedes CAPTCHA, jede mehrstufige Wizard-Logik ist eine Hürde — für Menschen und Agenten gleichermaßen. Reduziere Kontaktformulare auf das Minimum: Name, E-Mail, Nachricht. Alles andere kann in einem zweiten Schritt kommen.
Besonders wichtig: Keine Cloudflare-Turnstile- oder reCAPTCHA-Challenges, die Agenten aktiv aussperren. Wenn du Spam-Schutz brauchst, nutze Honeypot-Felder oder Rate-Limiting auf Server-Seite — beides für Agenten unsichtbar.
6. Seitenlogik server-seitig rendern
Websites, die Inhalte erst per JavaScript nachladen, sind für Agenten nur bedingt lesbar. Die meisten Agenten warten maximal 3–5 Sekunden auf Hydration. Wer serverseitig rendert — wie diese Website mit Astro — ist sofort parsebar.
Performance ist im agentischen Web doppelt wichtig: Ein Agent, der zehn Websites vergleicht, bricht langsame Seiten ab. Die Grundlagen im Core Web Vitals Praxisleitfaden gelten weiter.
7. llms.txt und agents.txt einrichten
llms.txt ist der bestehende Standard für KI-Systeme und wird auch 2026 noch von neuen Anbietern unterstützt. Ergänzend zeichnet sich agents.txt als möglicher neuer Standard ab — eine Datei, die Agenten erklärt, welche Aktionen auf der Seite erlaubt sind, welche MCP-Endpunkte existieren und wie Rate-Limits funktionieren.
Wer heute eine saubere llms.txt hat, ist für den Übergang gut vorbereitet. Ein Beispiel findest du im GEO-Artikel.
Agentic-Design: Zwei Zielgruppen, ein Interface
Das Spannende am agentischen Web ist, dass man nicht zwischen Mensch und Agent wählen muss. Eine Website, die für Agenten gut lesbar ist, ist auch für Menschen besser: klarer, schneller, zugänglicher.
Drei Prinzipien, die sich in der Praxis bewährt haben:
Explizit vor implizit. Ein Icon allein reicht nicht. Ein Warenkorb-Icon ohne Text oder aria-label ist für einen Agenten unsichtbar — und für jeden Nutzer mit schlechter Sehkraft auch. Nutze Text UND Icon, nicht nur eins von beidem.
Struktur vor Schmuck. Eine Seite mit fünf verschachtelten Animationen, die nacheinander aufbauen, irritiert Agenten, die einen Screenshot interpretieren. Setze Animation gezielt ein, nicht dekorativ. Die Diskussion in Webdesign-Trends 2026 dazu ist nach wie vor aktuell.
Redundanz ist OK. Ein Preis in einem Schema-Markup, im sichtbaren Text UND in einem <meta>-Tag ist keine Verschwendung — es ist Robustheit. Verschiedene Agenten extrahieren Informationen auf verschiedenen Wegen.
Was du messen solltest
Klassische Analytics greifen zu kurz. Ein Agent-Besuch erzeugt oft keinen klassischen Session-Traffic im Google-Analytics-Sinne — aber er führt zu Conversions, die du sonst übersiehst.
Drei KPIs, die im agentischen Web zählen:
Agent-Traffic identifizieren. In den Server-Logs tauchen spezifische User-Agents auf: ChatGPT-User, Claude-Web, PerplexityBot, Bytespider. Prüfe in deiner Log-Analyse, welcher Anteil deiner Zugriffe von Agenten kommt. Tools wie Cloudflare Analytics und GoatCounter visualisieren das out-of-the-box.
Referrals aus KI-Quellen. Besucher mit Referer chat.openai.com, perplexity.ai, gemini.google.com oder claude.ai zeigen, dass ein Agent deine Seite empfohlen hat und der Nutzer direkt geklickt hat. Das ist pures Gold.
Conversion-Pfad „Nullkontakt”. Manche Conversions laufen ohne sichtbaren Referer — der Agent hat den Nutzer bereits überzeugt, bevor er auf deine Seite kommt. Achte auf Direct-Traffic mit hoher Conversion-Rate nach bestimmten Kampagnen oder Content-Releases.
Häufige Fragen zum agentischen Web
Ist das nicht alles nur Hype?
Nein. ChatGPT hat 900 Millionen aktive Wochennutzer. Claude Computer Use läuft produktiv in Enterprise-Umgebungen. MCP hat über 10.000 aktive Server und wird von einer gemeinnützigen Foundation unter dem Linux-Dach weiterentwickelt. Das sind keine Demo-Zahlen — das ist Infrastruktur.
Was Hype ist: Die Prognosen, dass klassisches Web in zwei Jahren tot sei. Die Realität ist hybrid — Menschen werden weiter klicken, aber ein wachsender Anteil des Handels und der Informationssuche läuft über Agenten.
Muss ich jetzt einen MCP-Server bauen?
Für 90 % der KMU: Nein. Eine saubere, semantische, schnelle Website mit strukturiertem Content erreicht alle Agenten über normales Web-Browsing. MCP-Server sind sinnvoll, wenn du strukturierte Daten hast (Produktkatalog, Verfügbarkeiten, umfangreiche Wissensdatenbank) oder komplexe Transaktionen (Termine, Bestellungen mit Konfiguration).
Was ist mit Agenten, die Preise vergleichen?
Ein Risiko — und zugleich eine Chance. Wer den niedrigsten Preis bietet, gewinnt automatisch. Wer nicht auf Preis konkurrieren kann, muss andere Signale liefern: Bewertungen, Referenzen, klare Differenzierungsmerkmale. Transparente Preise verlieren Vergleichssieger — undurchsichtige Preise verlieren alle.
Wie blockiere ich unerwünschte Agenten?
Über robots.txt. Aber Vorsicht: Wer GPTBot blockiert, verliert Sichtbarkeit in ChatGPT und damit zunehmend Traffic. Cloudflare bietet unter Security → Bots eine „AI Bot Blocking”-Funktion, die standardmäßig viele Agenten aussperrt. Prüfe dort, ob deine Einstellungen zu deiner Strategie passen.
Werden Agenten Google ersetzen?
Nicht in der absehbaren Zeit. Aber der Anteil der Suchen, die über Agenten laufen, wird wachsen. Gartner prognostiziert bis Ende 2026 einen Rückgang klassischer Suchvolumina um 25 %. Ein Vierteljahrhundert Google-Optimierung wird zum Baustein einer breiteren Strategie — nicht zum alleinigen Spielfeld.
Was bleibt
Das agentische Web ist die logische Fortsetzung des GEO-Zeitalters: Erst lernten KIs, deine Inhalte zu zitieren — jetzt lernen sie, mit ihnen zu arbeiten. Die gute Nachricht: Wer heute gute Grundlagen legt (semantisches HTML, Schema Markup, schnelle Seiten, transparente Informationen), ist automatisch vorbereitet. Es gibt keine geheime Agenten-Optimierung, die neben der Nutzer-Optimierung existiert — es ist dieselbe Arbeit, nur mit einem zweiten Publikum im Kopf.
Die sieben Maßnahmen aus diesem Artikel sind keine Zukunftsmusik. Semantisches HTML, saubere CTAs, transparente Preise, serverseitiges Rendering — das alles ist heute schon gutes Handwerk. Wer diese Punkte konsequent umsetzt, gewinnt in klassischen Suchergebnissen, in AI Overviews und im agentischen Web gleichzeitig.
Der rote Faden: Mach es der Maschine einfach, dich zu verstehen — und du machst es jedem Menschen einfach, dich zu nutzen. Das ist kein Trend. Das ist der neue Baseline.
Wenn du wissen willst, wie agentic-ready deine Website heute ist, schau dir mein Performance & SEO-Angebot an — oder nutze den Kosten-Rechner für eine erste Einschätzung deines Projekts.