OpenAI Atlas: KI-Browser werden zur Cybercrime-Falle
Neue KI-Browser wie ChatGPT Atlas zeigen gravierende Sicherheitsprobleme mit 97% Durchfallquote bei Phishing-Tests und anfällig für versteckte Befehlsmanipulation.
Die mit Spannung erwarteten KI-Browser wie OpenAI’s ChatGPT Atlas schaffen eine völlig neue Angriffsfläche für Cyberkriminelle. Aktuelle Sicherheitstests enthüllen erschreckende Schwachstellen: Die “agentischen” Browser fallen reihenweise auf Phishing-Attacken herein und können durch versteckte Befehle gekapert werden – ohne dass Nutzer etwas davon mitbekommen.
Diese neue Browser-Generation kann eigenständig mit Websites interagieren und Aufgaben für den Nutzer erledigen. Was nach digitaler Revolution klingt, entpuppt sich als Sicherheits-Albtraum. Das Problem liegt in der DNA der KI-Agenten: Sie müssen Web-Inhalte sowohl als Daten als auch als Anweisungen interpretieren – und genau das macht sie manipulierbar.
Prompt Injection: Wenn KI-Browser zu Komplizen werden
Der Hauptangriffspunkt heißt “Prompt Injection”. Dabei verstecken Angreifer bösartige Befehle in Web-Inhalten – als blasslosen Text in Bildern oder unsichtbaren Code auf Websites. Sobald der KI-Browser diese Seite analysiert oder einen Screenshot erstellt, führt er die versteckten Kommandos mit vollen Nutzerrechten aus.
Die Folgen sind verheerend: Angreifer können die KI anweisen, E-Mails auszuspähen, private Dokumente zu kopieren oder auf sensible Konten zuzugreifen. Binnen Stunden nach dem Atlas-Launch demonstrierten Forscher funktionierende Angriffe. Ein Beispiel: Eine manipulierte Website überschrieb heimlich die Zwischenablage des Nutzers mit einem Phishing-Link.
Die Sicherheitsfirma LayerX taufte einen ähnlichen Exploit “CometJacking” – ein einziger bösartiger Link reichte aus, um Perplexitys Comet-Browser zu kapern und den vertrauenswürdigen Assistenten in einen Spion zu verwandeln.
Verheerendes Versagen bei Phishing-Tests
Noch alarmierender: KI-Browser versagen kläglich bei der Erkennung klassischer Phishing-Attacken. LayerX testete 103 reale Phishing-Angriffe – mit erschreckenden Ergebnissen:
- Atlas: Ließ 97% aller Angriffe durch
- Microsoft Edge: Blockierte 53%
- Google Chrome: Stoppte 47%
Weitere Tests der Sicherheitsfirma Guardio zeigten, wie leicht sich Perplexitys Comet täuschen lässt. Der KI-Agent wickelte bereitwillig Transaktionen auf gefälschten Shopping-Seiten ab und klickte sich durch Phishing-E-Mails zu betrügerischen Anmelde-Seiten durch.
Anzeige: Während KI‑Browser bei Phishing‑Tests reihenweise versagen, bleibt das Smartphone für viele der wichtigste Zugang ins Netz – und damit ein Hauptziel für Angreifer. Viele Android‑Nutzer übersehen 5 entscheidende Schutzmaßnahmen, dabei geht es auch ohne teure Zusatz‑Apps. Ein kostenloser Ratgeber zeigt Schritt für Schritt, wie Sie WhatsApp, Online‑Banking & Co. zuverlässig absichern und typische Betrugsfallen früh erkennen. Jetzt kostenloses Android‑Sicherheitspaket sichern
Das Problem: Die KI ist darauf programmiert, Anweisungen effizient zu erfüllen – ohne Glaubwürdigkeit oder Risiken zu bewerten. Selbst offensichtliche Betrugsversuche werden als legitime Befehle interpretiert.
Gefälschte KI-Sidebars als Trojanische Pferde
Die Bedrohung geht über die Browser-Kernfunktionen hinaus. SquareX demonstrierte diese Woche “AI Sidebar Spoofing” – bösartige Browser-Erweiterungen erstellen perfekte Nachbildungen legitimer KI-Sidebars. Nutzer, die mit der gefälschten Sidebar interagieren, erhalten schädliche Anweisungen oder werden zu Phishing-Seiten weitergeleitet.
Besonders tückisch: Der Angriff funktioniert nicht nur bei reinen KI-Browsern wie Atlas und Comet, sondern auch bei traditionellen Browsern mit integrierten KI-Assistenten wie Edge, Chrome und Firefox.
Industrie-Reaktion: Ein Wettlauf gegen die Zeit
Die Schwachstellen sind Teil eines größeren Trends, bei dem generative KI für Cyberangriffe instrumentalisiert wird. Sicherheitsberichte verzeichnen 2025 einen Anstieg KI-gestützter Phishing-Attacken um 1.265 Prozent.
OpenAIs Chief Information Security Officer Dane Stuckey räumte öffentlich ein, dass Prompt Injection ein “persistentes und ungelöstes Problem” darstellt. Mozilla-Experten gehen noch weiter: Die heutigen Sprachmodelle können grundsätzlich nicht zwischen vertrauenswürdigen Befehlen und bösartigen Web-Inhalten unterscheiden.
Ausblick: Sicherheit versus Innovation
Die kommenden Monate werden entscheidend für die Zukunft des KI-gestützten Browsings. Während Angreifer ihre Methoden verfeinern, müssen Browser-Entwickler in einem Wettlauf gegen die Zeit robuste Sicherheitsframeworks entwickeln.
Cybersicherheits-Experten raten Unternehmen und Nutzern in sensiblen Bereichen vorerst von diesen experimentellen Tools ab. Das Fazit: Solange die grundlegende Herausforderung der Trennung zwischen Nutzerabsicht und bösartigen Anweisungen ungelöst bleibt, navigieren Early Adopter durch ein gefährliches digitales Minenfeld – in dem der KI-Copilot jederzeit gekapert werden kann.


