Browser-Infrastruktur für autonome KI-Agenten
Mit Agent-Browser können Sie agentengestützte Workflows auf Remote-Browsern ausführen, die nie blockiert werden. u2028Unbegrenzt skalierbar, headless oder headful und vom weltweit zuverlässigsten Proxy-Netzwerk betrieben.
Browsen Sie durch jede Website wie ein Mensch
- Greifen Sie mittels Browser-Fingerprinting und CAPTCHA-Auflösung nahtlos auf jede öffentliche Website zu.
- Eröffnen Sie unbegrenzte parallele Sitzungen von jedem beliebigen Standort aus und ohne Leistungseinbußen.
- Nutzen Sie Headful- oder Headless-Browser zur Verwaltung von Kontext, Cookies und Registerkarten.
- Nahtlose Integration über API oder MCP, ohne Bedarf an einer standortspezifischen Konfiguration.
Machen Sie das Web KI-fähig
Greifen Sie mittels Browser-Fingerprinting und CAPTCHA-Auflösung nahtlos auf jede öffentliche Website zu.
Eröffnen Sie unbegrenzte parallele Sitzungen von jedem beliebigen Standort aus und ohne Leistungseinbußen.
Nutzen Sie Headful- oder Headless-Browser zur Verwaltung von Kontext, Cookies und Registerkarten.
Nahtlose Integration über API oder MCP, ohne Bedarf an einer standortspezifischen Konfiguration.
Bright Data unterstützt die Top-Marken der Welt
Bright Data ermöglicht autonomen KI-Agenten, in einer einfach zu integrierenden, konsistenten und zuverlässigen Umgebung automatisch auf Websites zu navigieren, Informationen zu finden und Aktionen durchzuführen.
Optimieren Sie Ihre komplexesten Arbeitsabläufe
Agenten-Interaktion
- Automatisierung agenturgestützter Aufgaben
- Ausfüllen von Formularen, Suchen und mehr
- Schnellstart mit geringer Latenz
- Gewährleistung sicherer, isolierter Sitzungen
Browsing im Stealth-Modus
- Nutzung von Geolokalisierungs-Proxys
- Menschenähnliches Fingerprinting
- Lösen Sie CAPTCHAs ganz automatisch
- Cookies und Sitzung verwalten
KI-fähige Datenpipeline
- Erkennung relevanter Datenquellen
- Echtzeit- oder Batch-Erfassung
- Strukturierte oder unstrukturierte Ausgabe
- Nahtlose Integration über MCP
Headless- und Headful-Browser für unbegrenzten, kostengünstigen Web-Zugriff und -Navigation
Menschenähnliche Fingerabdrücke
Emuliert die Browser echter Benutzer, um eine menschliche Erfahrung zu simulieren
Stealth-Modus
Ethische Umgehung von Bot-Erkennung und Auflösung von CAPTCHAs
Sitzungen mit niedriger Latenzzeit
Sekundenschneller Verbindungsaufbau und stabile Sitzungen für eine flüssige Interaktion
Einstellung von Empfehlungs-Headern
Simuliert Traffic, der von beliebten oder vertrauenswürdigen Websites stammt
Verwaltung von Cookies und Sitzungen
Verhindert mögliche Blockaden durch Cookie-bezogene Faktoren
Automatische Wiederholungen und IP-Rotation
Wiederholt kontinuierlich Anfragen und rotiert die IP-Adressen im Hintergrund
Weltweite Geo-Abdeckung
Greift auf lokalisierte Inhalte aus einem beliebigen Land, einer Stadt, einem Bundesland oder einer ASN zu
Unterstützung für die Browser-Automatisierung
Kompatibel mit Playwright, Puppeteer und Selenium
Sicherheit auf Unternehmensniveau
Browser-Instanzen können mit VPN und Anmeldung im Unternehmen integriert werden
const pw = require('playwright');
const SBR_CDP = 'wss://brd-customer-CUSTOMER_ID-zone-ZONE_NAME:[email protected]:9222';
async function main() {
console.log('Connecting to Scraping Browser...');
const browser = await pw.chromium.connectOverCDP(SBR_CDP);
try {
const page = await browser.newPage();
console.log('Connected! Navigieren Sie zu https://example.com...');
await page.goto('https://example.com');
console.log('Navigiert! Scraping von Seiteninhalten ...');
const html = await page.content();
console.log(html);
} finally {
await browser.close();
}
}
main().catch(err =>
console.error(err.stack || err);
process.exit(1);
});
import asyncio
from playwright.async_api import async_playwright
SBR_WS_CDP = 'wss://brd-customer-CUSTOMER_ID-zone-ZONE_NAME:[email protected]:9222'
async def run(pw):
print('Connecting to Scraping Browser...')
browser = await pw.chromium.connect_over_cdp(SBR_WS_CDP)
try:
page = await browser.new_page()
print('Verbunden! Navigieren Sie zu https://example.com...')
await page.goto('https://example.com')
print('Navigiert! Scraping von Seiteninhalten...')
html = await page.content()
print(html)
finally:
await browser.close()
u2028
async def main():
async with async_playwright() as playwright:
await run(playwright)
u2028
if __name__ == '__main__':
asyncio.run(main())
const puppeteer = require('puppeteer-core');
const SBR_WS_ENDPOINT = 'wss://brd-customer-CUSTOMER_ID-zone-ZONE_NAME:[email protected]:9222';
async function main() { {
console.log('Connecting to Scraping Browser...');
const browser = await puppeteer.connect({
browserWSEndpoint: SBR_WS_ENDPOINT,
});
try {
const page = await browser.newPage();
console.log('Connected! Navigieren Sie zu https://example.com...');
await page.goto('https://example.com');
console.log('Navigiert! Scraping von Seiteninhalten ...');
const html = await page.content();
console.log(html)
} finally {
await browser.close();
}
}
main().catch(err =>
console.error(err.stack || err);
process.exit(1);
});
const { Builder, Browser } = require('selenium-webdriver');
const SBR_WEBDRIVER = 'https://brd-customer-CUSTOMER_ID-zone-ZONE_NAME:[email protected]:9515';
async function main() {
console.log('Connecting to Scraping Browser...');
const driver = await new Builder()
.forBrowser(Browser.CHROME)
.usingServer(SBR_WEBDRIVER)
.build();
try
console.log('Verbunden! Navigieren Sie zu https://example.com...');
await driver.get('https://example.com');
console.log('Navigiert! Scraping von Seiteninhalten ...');
const html = await driver.getPageSource();
console.log(html);
} finally {
driver.quit();
}
}
main().catch(err =>
console.error(err.stack || err);
process.exit(1);
});
from selenium.webdriver import Remote, ChromeOptions
from selenium.webdriver.chromium.remote_connection import ChromiumRemoteConnection
SBR_WEBDRIVER = 'https://brd-customer-CUSTOMER_ID-zone-ZONE_NAME:[email protected]:9515'
u2028
def main():
print('Verbinden mit Scraping Browser...')
sbr_connection = ChromiumRemoteConnection(SBR_WEBDRIVER, 'goog', 'chrome')
with Remote(sbr_connection, options=ChromeOptions()) as driver:
print('Verbunden! Navigieren Sie zu https://example.com...')
driver.get('https://example.com')
print('Navigiert! Scraping von Seiteninhalten ...')
html = driver.page_source
print(html)
u2028
if __name__ == '__main__':
main()
Einfache Integration Ihres Tech-Stacks
- Führen Sie Ihre Puppeteer-, Selenium- oder Playwright-Skripte aus
- Automatisiertes Proxy-Management und Web-Entsperrung
- Abruf von Daten in unstrukturierten oder strukturierten Formaten
- Abruf von Daten in unstrukturierten oder strukturierten Formaten
Agent Browser
Scalable browser infrastructure with autonomous unlocking
FAQ
Was ist ein Agent-Browser?
Bei einem Agent-Browser handelt es sich um eine serverlose Browsing-Infrastruktur zur Bereitstellung und Steuerung von Cloud-Browsern mit integrierten Funktionen zur Entsperrung von Websites. Der Agent-Browser verwaltet automatisch alle Vorgänge zum Freischalten von Websites unterhalb der Benutzeroberfläche, einschließlich: CAPTCHA-Auflösung, Browser-Fingerprinting, automatische Wiederholungsversuche, Auswahl von Headern, Cookies sowie Javascript-Rendering und mehr, damit Sie Zeit und Ressourcen sparen können.
Wann sollte ich einen Agent-Browser verwenden?
Bei der Erstellung und Ausführung von KI-Agenten verwenden Entwickler Cloud-Browser, um Informationen zu suchen und abzurufen, auf Websites zu browsen, Aktionen durchzuführen und Daten zu extrahieren. Genauso, wie es ein Mensch tun würde, aber autonom und in großem Umfang.
Ist der Agent-Browser ein Headless-Browser oder ein Headfull-Browser?
Scraping Browser ist ein GUI-Browser (auch bekannt als „Headfull“-Browser), der eine grafische Benutzeroberfläche verwendet. Ein Entwickler wird den Agent-Browser jedoch als headless erleben und mit dem Browser über eine API oder MCP interagieren. Der Agent-Browser wird jedoch als GUI-Browser auf der Infrastruktur von Bright Data geöffnet.
Was ist der Unterschied zwischen Headfull- und Headless-Browsern für Scraping?
Bei der Auswahl eines automatisierten Browsers können Entwickler zwischen einem Headless- oder einem GUI-/Headful-Browser wählen. Der Begriff „Headless-Browser“ bezieht sich auf Webbrowser ohne grafische Benutzeroberfläche. In Verbindung mit einem Proxy können Headless-Browser zum Scrapen von Daten verwendet werden, aber sie werden leicht von Bot-Schutzsoftware erkannt, was das Scrapen von Daten im großen Stil erschwert. GUI-Browser, wie Agent-Browser (auch bekannt als „Headfull“), verwenden eine grafische Benutzeroberfläche. Es ist weniger wahrscheinlich, dass Bot-Erkennungssoftware GUI-Browser erkennt.
Ist der Agent-Browser mit Frameworks zur Browser-Automatisierung kompatibel?
Ja, Agent-Browser ist völlig kompatibel mit Puppeteer, Selenium und Playwright.
Wann sollte ich einen Agent-Browser anstelle anderer Bright Data-Proxy-Produkte verwenden?
Der Agent-Browser ist ein automatisierter Browser, der für autonome KI-Agenten optimiert ist und diesen die Leistung der automatisierten Entsperrfunktionen von Web-Unlocker für mehrstufige Arbeitsabläufe bietet. Während der Web-Unlocker mit einstufigen Anfragen operiert, empfiehlt sich der Agent-Browser besonders bei der Interaktion von KI-Agenten mit Websites. Er ist auch ideal für jedes Data-Scraping-Projekt, das Browser, Skalierung und automatisierte Verwaltung aller Website-Entsperrungsaktionen erfordert.