KI-Modelle beantworten mittlerweile die Fragen, die Ihre Kunden früher bei Google gesucht haben. Wenn Ihre Marke in diesen Antworten nicht vorkommt, sind Sie fast unsichtbar – und wissen es wahrscheinlich nicht einmal. Ich habe ein kostenloses Open-Source-Tool entwickelt, um genau das zu verfolgen. Hier erfahren Sie, was ich gelernt habe und warum die Scraper-APIs von Bright Data die einzige Infrastruktur waren, mit der dies funktionierte.
Kurzzusammenfassung:
- Der GEO/AEO Tracker ist ein kostenloses Open-Source-Dashboard zur KI-Sichtbarkeit, das 6 KI-Modelle gleichzeitig verfolgt.
- Es nutzt die LLM-Scraper von Bright Data, um ChatGPT, Gemini, Perplexity, Grok, Copilot und den Google KI-Modus abzufragen.
- Bright Data liefert strukturierte Ausgaben (Zitate, Quellen, Antworttext) pro Modell über ein einziges API-Muster.
- Bezahlte Tools für Unternehmen kosten 200–600 $/Monat und sperren Ihre Daten; dieser Stack kostet nur Bruchteile eines Cent pro Abfrage, wobei alle Daten lokal verbleiben.
- Die SRO-Pipeline nutzt die SERP-API, den Web Unlocker und die LLM-Scrapers von Bright Data in einem durchgängigen Workflow.
- Alle Daten verbleiben in Ihrer eigenen Umgebung. Keine Anbieterabhängigkeit, keine externe Datenbank.
Das GEO-Problem, das noch niemand vollständig gelöst hat
ChatGPT hat Anfang 2026 die Marke von 900 Millionen aktiven Nutzern pro Woche überschritten. Google AI Overviews erscheinen mittlerweile bei etwa 16 % aller Suchanfragen. Und Traffic, der von KI-Suchmaschinen kommt, konvertiert 23-mal besser als herkömmlicher organischer Traffic. Ahrefs bestätigte dies anhand eigener Daten und stellte fest, dass 0,5 % ihres Traffics aus KI-Quellen 12,1 % aller Anmeldungen generierten.
McKinsey prognostiziert, dass bis 2028 in den USA 750 Milliarden US-Dollar an Umsatz über KI-gestützte Suchanfragen generiert werden. Das ist keine Prognose über einen zukünftigen Zustand. Es geschieht bereits, Suchanfrage für Suchanfrage, jedes Mal, wenn jemand ChatGPT fragt: „Welches CRM sollte ich verwenden?“ oder Perplexity: „Wer stellt die beste Projektmanagement-Software her?“
Man kann nicht optimieren, was man nicht messen kann. Und die Messung der KI-Sichtbarkeit war bisher entweder zu teuer, zu begrenzt oder beides.
Was ich entwickelt habe: Der GEO/AEO Tracker in 60 Sekunden
Der GEO/AEO Tracker ist ein Open-Source-Dashboard für KI-Sichtbarkeitsanalysen, das den lokalen Kontext in den Vordergrund stellt. Sie können die Live-Demo sofort und ohne API-Schlüssel ausprobieren.
Er verfolgt Ihre Marke gleichzeitig und parallel in ChatGPT, Perplexity, Gemini, Grok, Google KI-Mode und Microsoft Copilot, wobei alle Daten lokal in Ihrem Browser über IndexedDB gespeichert werden. Keine externe Datenbank. Keine Anbieterabhängigkeit.
13 Funktionen, 6 KI-Modelle, keine Herstellerabhängigkeit
Ich habe das Tool entwickelt, weil ich immer wieder auf dasselbe Problem stieß: Jedes Tool, das ich evaluierte, war entweder zu teuer, band mich an sein Ökosystem oder deckte nicht genügend Modelle ab. Also habe ich das Tool entwickelt, das ich selbst nutzen wollte.
Die Funktionen, die für das Marken-Tracking in der Praxis am wichtigsten sind:
Prompt Hub führt jede Eingabeaufforderung gleichzeitig über alle 6 Modelle aus. Für ein Produktmarketing-Team, das Wettbewerbsanfragen verfolgt, ist das der Unterschied zwischen der Durchführung von 6 separaten Experimenten und der Durchführung von nur einem. Sie können eine vollständige Bibliothek mit Eingabeaufforderungen verwalten, {brand} für dynamische Ersetzungen nutzen und Batch-Läufe auslösen – alles parallel.
Visibility Analytics liefert dir eine Bewertung von 0 bis 100, basierend auf der Markenerwähnungsrate, der Position in den Antworten, der Zitierhäufigkeit und der Stimmung im Zeitverlauf. Dies ist der KPI, den CMOs ohne eine 20-seitige Erklärung nach oben berichten können. Er lässt sich auch als CSV exportieren.
„Citation Opportunities“ ist die Funktion, auf die ich am meisten stolz bin. Sie zeigt, für welche URLs Wettbewerber zitiert werden, während Sie dort nicht erscheinen. Das ist ein direkter Feed zu Content-Lücken und Linkbuilding-Intelligence, der automatisch bereitgestellt wird.
Die SRO-Analyse (mehr dazu weiter unten) ist eine 6-stufige Pipeline, die bewertet, wie gut eine bestimmte Seite für KI-Suchergebnisse optimiert ist, auf einer Skala von 0 bis 100, mit priorisierten, umsetzbaren Empfehlungen. Sie nutzt mehrere Bright Data-Produkte in einem einzigen Workflow.
Drift-Alerts werden automatisch ausgelöst, wenn sich Ihr Sichtbarkeitswert erheblich ändert. Eine Verschiebung der Markenreputation in KI-Antworten kann sich schnell verstärken. Dies innerhalb weniger Tage zu erfahren, ist etwas ganz anderes, als es erst bei Ihrer monatlichen Überprüfung zu erfahren.
Warum Bright Data die einzige tragfähige Grundlage war
Dies ist der Teil der Entwicklungsgeschichte, den die meisten Leute überspringen, aber er ist der eigentliche Grund, warum das Tool in Produktionsqualität funktioniert, anstatt jede Woche auszufallen.
Die Scraping-Herausforderung, über die niemand spricht
ChatGPT, Perplexity, Gemini, Grok, Google KI Mode und Copilot sind alle:
- vollständig in JavaScript gerendert. Eine einfache HTTP-Anfrage liefert nichts Brauchbares.
- Aggressiv gegen Bots abgeschirmt. Sie erkennen automatisierte Traffic-Muster und weisen diese zurück. Die gängigsten Anti-Scraping-Techniken – darunter Browser-Fingerprinting, CAPTCHA-Herausforderungen und Verhaltensanalysen – kommen auf diesen Plattformen alle gleichzeitig zum Einsatz.
- Strukturell voneinander verschieden. Jede Plattform gibt Daten in einem anderen Format zurück. Perplexity verwendet Markdown mit Inline-Quellen. Gemini gibt Zitate als separates strukturiertes Array zurück. Grok verfügt neben
„answer_text_markdown“über ein„response_raw“-Feld. - Geolokationsabhängig. Dieselbe Eingabe kann je nach dem Land, aus dem die Anfrage scheinbar stammt, unterschiedliche Antworten und unterschiedliche Quellenangaben zurückgeben.
Das Erstellen und Warten von Scrapern für alle sechs Plattformen von Grund auf würde eine Infrastruktur mit Residential-Proxys, CAPTCHA-Lösung, Sitzungsverwaltung, Normalisierung der Antworten über alle Modelle hinweg, Abfrage nach asynchronen Antworten und fortlaufende Wartung bei jeder Strukturänderung einer Plattform erfordern. Das sind Monate an Entwicklungsarbeit, bevor man auch nur eine einzige Zeile Tracking-Logik schreiben kann.
Bright Data reduziert all das auf einen einzigen API-Aufruf pro Modell.
Sechs Scraper, ein API-Schlüssel: So funktioniert es im Code
Die Kernintegration in brightdata-scraper.ts folgt einem einfachen, wiederholbaren Muster für alle sechs Anbieter:
// Schritt 1: POST an den Bright Data-Datensatz-Endpunkt
const scrapeResponse = await fetch(
`https://api.brightdata.com/datasets/v3/scrape?dataset_id=${datasetId}&format=json`,
{
method: "POST",
headers: { Authorization: `Bearer ${BRIGHT_DATA_KEY}`, "Content-Type": "application/json" },
body: JSON.stringify({
input: [{ url: providerBaseUrl[provider], prompt: request.prompt, index: 1 }]
}),
}
);
// Schritt 2: Asynchrone Antwort verarbeiten – auf Bereitschaft des Snapshots abwarten
if (scrapeResponse.status === 202) {
const { snapshot_id } = await scrapeResponse.json();
await monitorUntilReady(snapshot_id); // fragt alle 2 Sekunden /progress/{id} ab
payload = await downloadSnapshot(snapshot_id); // GET /snapshot/{id}?format=json
}
// Schritt 3: Ergebnis normalisieren
const answer = normalizeAnswer(record); // verarbeitet alle 6 Modellformate
const sources = extractSourcesFromAnswer(answer); // führt Text und strukturierte Zitate zusammen
Jedes Modell verwendet dasselbe Muster. Das Einzige, was sich ändert, ist die dataset_id, eine Umgebungsvariable pro Anbieter: BRIGHT_DATA_DATASET_CHATGPT, BRIGHT_DATA_DATASET_PERPLEXITY und so weiter.
Das ist die Architektur: ein Integrationsmuster, sechs Modelle, jedes Mal konsistente strukturierte Ausgabe.
So sieht die strukturierte Ausgabe tatsächlich aus
Jeder Bright Data-Scraper gibt modellspezifische Felder zurück. Die Funktion normalizeAnswer() gleicht modellübergreifende Formatunterschiede aus, sodass der Rest der Anwendung eine einheitliche Schnittstelle sieht:
| Modell | Zurückgegebene Schlüsselfelder |
|---|---|
| ChatGPT | answer_text, links_attached, citations, recommendations, country |
| Perplexity | answer_text_markdown, sources, source_html, is_shopping_data |
| Gemini | Antworttext, Zitate, angehängte Links, Index, Land |
| Grok | Antworttext, Antworttext_Markdown, Zitate, Rohantwort |
| Google-KI-Modus | Antworttext, Zitate, angehängte Links, Index, Land |
| Copilot | answer_text_markdown, sources, answer_section_html, index |
Die Normalisierungsschicht prüft zunächst answer_text, greift dann auf answer_text_markdown zurück, anschließend auf response_raw und führt schließlich eine tiefgehende rekursive Extraktion des Rohdatensatzes durch. Bright Data übernimmt die plattformspezifische Komplexität; die Anwendung übernimmt die plattformübergreifende Normalisierung. Klare Trennung der Aufgabenbereiche.
Die SRO-Pipeline: Bright Datas Full Stack in einer Funktion
Die SRO-Analyse ist die technisch anspruchsvollste Funktion im Tracker und zugleich der deutlichste Beweis dafür, was die Infrastruktur von Bright Data in großem Maßstab ermöglicht.
Die Idee: Bewertung, wie gut eine bestimmte Seite für KI-Suchergebnisse optimiert ist, auf einer Skala von 0 bis 100, mit konkreten Empfehlungen. Die sechsstufige Pipeline hinter dieser Bewertung:
Stufe 1: Gemini Grounding. Nutzt die Google Gemini API, um zu verstehen, wie KI-Systeme die Seite wahrnehmen, einschließlich ihres Themas, ihrer Autoritätssignale und ihrer Inhaltsstruktur.
Stufe 2: Plattformübergreifende Zitate. Ruft alle 6 Bright Data LLM-Scraper parallel über scrapeAllPlatforms() auf, um zu prüfen, ob die Ziel-URL oder -Domain zitiert wird, wenn das relevante Keyword in ChatGPT, Perplexity, Gemini, Grok, Google AI Mode und Copilot abgefragt wird.
Phase 3: SERP-Analyse. Nutzt die SERP-API von Bright Data, um organische Ranking-Daten für das Keyword abzurufen. Wenn die Seite organisch auf Platz 1 rangiert, aber in keiner KI-Antwort zitiert wird, ist das eine GEO-Lücke, die es wert ist, aufgezeigt zu werden.
Phase 4: Page Scraping. Nutzt Bright Datas Web Unlocker, um den tatsächlichen Seiteninhalt abzurufen und dessen Struktur, Tiefe, BLUF-Dichte, Überschriftenhierarchie und Schema-Markup zu analysieren. Keine Paywall, kein Bot-Block.
Phase 5: Website-Kontext. Nutzt erneut den Web Unlocker von Bright Data, um die Startseite abzurufen und Signale zur Markenautorität zu extrahieren, die KI-Systeme bei der Entscheidung verwenden, ob eine Quelle zitiert wird.
Phase 6: LLM-Analyse. Fasst alle oben genannten Punkte zu einem endgültigen SRO-Score sowie einer priorisierten Empfehlungsliste zusammen: Was muss zuerst behoben werden, welche Inhaltslücken bestehen, wo übertreffen Sie Ihre Konkurrenten bei der KI-Zitierung?
Eine Funktion. Sechs Produktintegrationen von Bright Data. Das Ergebnis ist ein Audit-Workflow, dessen Aufbau von Grund auf ein Unternehmensteam Monate kosten würde – und genau darum geht es.
Anwendungsfälle in Unternehmen: Was Unternehmen tatsächlich damit machen
Der Tracker ist Open Source, aber die Infrastruktur, auf der er aufbaut (die LLM-Scraper-APIs von Bright Data), ist es, die sich auf echte Unternehmens-Workloads skalieren lässt. So sieht das in der Praxis aus.
Überwachung der Markenreputation in großem Maßstab
Ein CMO eines mittelständischen SaaS-Unternehmens muss wissen: Wenn ein Nutzer ChatGPT fragt: „Welcher [Produktkategorie] sollte ich vertrauen?“, was antwortet es? Ist die Antwort korrekt? Ist die Stimmung positiv? Wird die Marke überhaupt erwähnt?
Ohne ein Tracking-Tool erfahren Sie das erst drei Monate später, wenn ein potenzieller Kunde Ihnen erzählt, dass er eine KI gefragt hat und diese einen Wettbewerber empfohlen hat. Mit dem Tracker führen Sie wöchentlich eine Reihe von reputationsrelevanten Abfragen durch, Drift-Alerts werden ausgelöst, wenn sich die Stimmung ändert, und der Reiter „Citation Opportunities“ zeigt genau, welche Inhalte produziert oder welche Backlinks generiert werden müssen, um die Antwort der KI zu ändern. Für Teams, die tiefer in die Materie einsteigen möchten, gibt es eine detaillierte Anleitung zum Aufbau eines automatisierten Workflows zur Überwachung der Markenreputation mithilfe des SDK von Bright Data.
Wettbewerbsanalyse für Vertriebsteams
Sales-Enablement- und Produktmarketing-Teams stehen vor einem spezifischen Problem: Konkurrenten tauchen in KI-Antworten auf Fragen auf, die eigentlich ihnen gehören sollten. Sie wissen nicht, bei welchen Fragen, in welchen Modellen, warum oder was sie dagegen tun können.
Die Registerkarte „Competitor Battlecards“ erstellt KI-gestützte Gegenüberstellungen zwischen Ihrer Marke und beliebigen Wettbewerbern. Die Zitationslückenanalyse zeigt genau, für welche URLs der Wettbewerber zitiert wird, während Sie nicht erscheinen. Früher war dies die Art von Informationen, für deren Erstellung Agenturen 50.000 $ pro Jahr verlangten.
GEO-Strategie für Multi-Brand- oder Agenturteams
Eine Agentur, die 12 Marken betreut, kann sich keine 500 $ pro Monat und Marke für KI-basiertes Sichtbarkeits-Tracking leisten. Die Rechnung geht schnell nicht mehr auf.
Dank der Multi-Workspace-Unterstützung des Trackers und des BYOK-Modells (Bring Your Own Key) zahlen Sie nur für die Nutzung der Bright Data API. Bei 1,50 $ pro 1.000 Datensätzen im Pay-as-you-go-Modell kostet die Durchführung eines vollständigen wöchentlichen Tracking-Batches über 10 Prompts und 6 Modelle nur Bruchteile eines Dollars pro Marke. Zehn Marken werden für weniger als die Kosten eines einzigen SaaS-Lizenzplatzes getrackt.
Technische GEO-Audits für SEO-Kunden
Wenn SEO-Kunden fragen: „Sind wir GEO-optimiert?“, ist die ehrliche Antwort ohne Tools vage. Die SRO-Analyse ändert das. Sie liefert eine Bewertung von 0 bis 100 pro Seite mit einer konkreten Prioritätenliste: Schema-Markup korrigieren, BLUF-Dichte im ersten Absatz verbessern, Zitate von diesen drei Domains erhalten. Das ist der Unterschied zwischen einem Audit, das sagt: „KI-Optimierung ist wichtig“, und einem, das sagt: „Hier sind die fünf Dinge, die diese Woche zu tun sind.“ Wenn Sie sehen möchten, wie ein solcher Multi-Agent-GEO-Optimierungs-Workflow durchgängig aufgebaut werden kann, führt der Leitfaden zur GEO- und SEO-Content-Optimierung mit CrewAI genau durch diesen Prozess.
Anforderungen an die Datenhoheit
Beschaffungs- und Rechtsabteilungen in Unternehmen haben ein berechtigtes Anliegen: Sie dürfen keine Daten zur Markenüberwachung an die Server eines externen SaaS-Anbieters senden. Dies verhindert den Einsatz fast aller kommerziellen GEO-Tools auf Unternehmensebene.
Dank der „Local-First“-Architektur des Trackers (IndexedDB + localStorage) liefert Bright Data strukturierte Daten über eine API, und das Unternehmen entscheidet, wohin diese gelangen. Bright Data selbst ist SOC 2 Typ II-, ISO 27001-, DSGVO- und CCPA-konform und besteht somit die Sicherheitsprüfungen von Unternehmen. Der Datenfluss ist sauber: strukturierte Antwort eingehend, lokale Speicherung, keine Zwischeninstanz.
Was dies bedeutet, wenn Sie etwas Ähnliches entwickeln möchten
Der Tracker ist eine Anwendung der LLM-Scraper-APIs von Bright Data. Die Infrastruktur, auf der er läuft, ist universell einsetzbar.
Wenn Sie ein KI-Monitoring-Dashboard, ein Brand-Intelligence-Tool, ein Produkt für Wettbewerbsanalysen oder eine andere Anwendung entwickeln, die KI-Modelle in großem Umfang abfragen und strukturierte Daten zurückgeben muss, sind die Bausteine dieselben. Um einen Überblick darüber zu erhalten, was für diese Anwendungsfälle verfügbar ist, bietet der Vergleich der führenden SERP-APIs und Websuch-APIs einen guten Überblick über die Landschaft. Das Netzwerk von Bright Data mit über 150 Millionen Residential-IPs in 195 Ländern sorgt dafür, dass KI-Plattformen echten Traffic sehen. Die Verfügbarkeit von 99,99 % bedeutet, dass Ihre automatisierten Pipelines nicht einfach an einem Dienstagmorgen ausfallen. Die Verarbeitung von Massenanfragen mit bis zu 5.000 URLs ermöglicht es Ihnen, Batch-Tracking im Unternehmensmaßstab in einem einzigen Vorgang durchzuführen. Die Ausgabebereitstellung an S3, GCS, Snowflake, Azure und SFTP bedeutet, dass die Daten direkt in den Stack gelangen, den Sie bereits nutzen.
Wenn Sie zudem nach den besten KI-Agent-Frameworks suchen, um diese Scraper zu einer vollständig autonomen Pipeline zu orchestrieren, ist das ein logischer nächster Schritt. Alle führenden Frameworks lassen sich direkt in Bright Data integrieren.
Die Frage ist nicht, ob Sie die KI-Sichtbarkeit tracken sollten. Die Frage ist, wie schnell Sie die Infrastruktur einrichten können, um auf Ihre Ergebnisse zu reagieren.
Erste Schritte mit den LLM-Scrapern von Bright Data
Wenn Sie Ihre eigene Instanz des GEO/AEO-Trackers ausführen möchten, klonen Sie das Repo und fügen Sie Ihren Bright Data-API-Schlüssel hinzu. In weniger als 10 Minuten sind Sie startklar:
git clone https://github.com/danishashko/geo-aeo-tracker.git
cd geo-aeo-tracker && npm install
# Fügen Sie BRIGHT_DATA_KEY + 6 Datensatz-IDs zu .env hinzu
npm run dev
Die sechs Bright Data-Scraper-Datensatz-IDs (für die ChatGPT-Scraper-API, den Perplexity-Scraper, den Gemini-Scraper, den Grok-Scraper, den Google-KI-Mode-Scraper und den Copilot-Scraper) sind direkt im Bright Data Scrapers Marketplace verfügbar, sobald Sie ein Konto haben.
Wenn du etwas Maßgeschneidertes im Unternehmensmaßstab entwickeln möchtest, bilden die LLM-Scrapers die Infrastruktur-Ebene. Beide Wege beginnen am selben Ort: einer kostenlosen Bright Data-Testversion.