Wenn die KI falsch liegt: Kann man Google für fehlerhafte AI Overviews verklagen?

Stell dir vor, du bist Arzt oder Ärztin, hast eine spezialisierte Praxis aufgebaut – und dann fasst Googles KI deine Behandlungsmethode in der Suche falsch zusammen. Potenzielle Patienten lesen das, klicken gar nicht erst auf deine Website und wählen vielleicht einen anderen Anbieter. Was kannst du dagegen tun? Ein deutsches Gericht hat sich nun erstmals detailliert mit genau dieser Frage beschäftigt – und die Antwort ist komplizierter, aber auch ermutigender, als viele erwartet hätten.

Was sind „AI Overviews“ überhaupt?

Seit einiger Zeit zeigt Google über den klassischen Suchergebnissen eine sogenannte „KI-Übersicht“ an – auf Englisch als AI Overview bekannt. Dabei handelt es sich um eine kurze, automatisch generierte Zusammenfassung, die ein großes Sprachmodell (englisch: Large Language Model, kurz LLM) auf Basis mehrerer Webseiten erstellt. Das Ziel: Der Nutzer soll seine Frage sofort beantwortet bekommen, ohne erst auf verschiedene Links klicken zu müssen.

Das klingt praktisch – hat aber einen Haken, den wir hier im Blog in Artikeln über Halluzinationen kennen: KI-Systeme können Dinge sehr überzeugend formulieren und trotzdem sachlich falsch liegen. Und wenn das auf der Startseite der weltweit meistgenutzten Suchmaschine passiert, kann das echte Konsequenzen haben.

Der Fall: Ein Ärzteverbund gegen Google

Genau das ist einem Ärzteverbund passiert. Bei Suchanfragen zum Thema Penisvergrößerung zeigte Googles KI-Box eine Zusammenfassung an, die einen medizinischen Fachbegriff ungenau verwendete: Die KI sprach vom „Durchtrennen“ von Haltebändern, während der korrekte medizinische Ausdruck „Lösen“ lautet. Das ist kein bloßes Wortklauben – im medizinischen Kontext kann eine solche Formulierung bei Patienten Angst erzeugen und den Eindruck erwecken, der Eingriff sei invasiver oder riskanter als er tatsächlich ist.

Der Ärzteverbund klagte daraufhin vor dem Landgericht Frankfurt am Main (Az. 2-06 O 271/25) und beantragte eine einstweilige Verfügung – also eine schnelle, vorläufige Unterlassung. Die rechtliche Grundlage: Wettbewerbs- und Kartellrecht, konkret das Gesetz gegen Wettbewerbsbeschränkungen (GWB), sowie der europäische Digital Markets Act (DMA).[4]

Was das Gericht entschieden hat – und warum es trotzdem wichtig ist

Das LG Frankfurt wies den Antrag im September 2025 ab. Der Ärzteverbund bekam also nicht recht – zumindest nicht in diesem konkreten Fall. Warum das trotzdem ein wichtiges Urteil ist, zeigt ein Blick auf die Begründung:

Google ist kein neutraler „Bote“ mehr

Das Gericht stellte klar: Eine Haftungsfreistellung für KI-generierte Inhalte gibt es nicht automatisch. Wer bisher dachte, Google könne sich einfach hinter dem Algorithmus verstecken und sagen „Das hat die KI gemacht, nicht wir“ – der hat jetzt eine andere Antwort. Das Gericht sieht Google bei den KI-Boxen als Verantwortlichen für den generierten Inhalt, nicht nur als neutralen Vermittler von Drittinhalten.

Das ist ein wesentlicher Unterschied zu den klassischen Suchergebnissen, bei denen Google lediglich Links zu fremden Webseiten anzeigt. Bei AI Overviews formuliert das System eine eigene Aussage – und für eigene Aussagen trägt man Verantwortung.

Kartellrecht als Hebel: § 19 GWB und der Zero-Click-Effekt

Das Gericht erkannte explizit an, dass Googles marktbeherrschende Stellung (in Deutschland nutzen weit über 90% der Nutzer Google als Suchmaschine) eine besondere Verantwortung mit sich bringt. Eine fehlerhafte oder geschäftsschädigende KI-Zusammenfassung kann eine unbillige Behinderung im Sinne von § 19 Abs. 2 Nr. 1 GWB darstellen.

Besonders bemerkenswert: Das Gericht anerkannte den sogenannten Zero-Click-Effekt als reale wettbewerbliche Beeinträchtigung. Was bedeutet das? Wenn Nutzer ihre Frage durch die KI-Box bereits beantwortet bekommen, klicken sie oft gar nicht mehr auf die darunter liegenden Suchergebnisse. Für Webseitenbetreiber, die auf Traffic angewiesen sind, kann das erhebliche wirtschaftliche Schäden verursachen – selbst wenn die KI-Antwort inhaltlich korrekt ist. Das Gericht machte aber deutlich: Der Zero-Click-Effekt allein reicht nicht für einen Unterlassungsanspruch. Er muss mit einer objektiv falschen Darstellung zusammentreffen.

Warum Google diesen Fall gewann: Der Gesamtkontext entscheidet

Die Klage scheiterte letztlich an einer relativ hohen Hürde: Der beanstandete Begriff „Durchtrennen“ wurde in der KI-Box durch nachfolgende Sätze wieder eingeordnet und relativiert. Das Gericht kam deshalb zu dem Schluss, dass die Aussage im Gesamtkontext der KI-Antwort für einen Durchschnittsnutzer nicht irreführend genug war, um einen Unterlassungsanspruch zu begründen.

Das ist eine wichtige Erkenntnis für alle, die ähnliche Fälle prüfen möchten: Es reicht nicht, eine einzelne falsche oder ungenaue Formulierung herauszugreifen. Die KI-Antwort muss als Ganzes betrachtet werden. Wenn Kontext und Erläuterungen die problematische Aussage auffangen, sinkt die Chance auf Erfolg vor Gericht – zumindest nach dem aktuellen Stand der Rechtsprechung.

Kein Verstoß gegen den DMA

Ein weiterer interessanter Aspekt: Das Gericht wertete die KI-Übersicht nicht als eigenständiges Produkt im Sinne des Digital Markets Act. Stattdessen gilt sie als integraler Bestandteil der Suche. Das ist relevant, weil der DMA sogenannten Gatekeepern (also marktmächtigen Plattformen wie Google) verbietet, eigene Dienste gegenüber Drittanbietern bevorzugt zu behandeln. Wäre die KI-Box ein eigenes Produkt, hätte dieses Verbot greifen können. Da das Gericht sie aber als Teil der Suche sieht, scheidet dieser Ansatz vorerst aus.

Was bedeutet das für Webseitenbetreiber und Unternehmen?

Das Urteil ist – wie so oft bei juristischen Erstentscheidungen – ein zweischneidiges Schwert.

Auf der einen Seite: Es ist jetzt höchstrichterlich bestätigt, dass Google für „halluzinierte“ oder sachlich falsche Aussagen in AI Overviews grundsätzlich rechtlich zur Verantwortung gezogen werden kann. KI-generierte Inhalte sind kein haftungsfreier Raum. Das ist ein Signal, das Unternehmen und Plattformbetreiber ernst nehmen sollten – nicht nur Google.

Auf der anderen Seite: Die Beweislast ist hoch. Wer klagen möchte, muss nachweisen, dass:

  • die KI-Aussage objektiv falsch ist,
  • sie auch im Gesamtkontext der Antwort irreführend wirkt,
  • und ein Durchschnittsnutzer dadurch tatsächlich in die Irre geführt wird.

Das ist keine leichte Aufgabe – besonders dann nicht, wenn Google in der KI-Box Erläuterungen und relativierende Sätze einbaut, die eine Falschaussage abschwächen.

Der größere Zusammenhang: Eine neue Ära von KI-Rechtsstreitigkeiten

Das LG Frankfurt hat mit diesem Urteil Neuland betreten. Es markiert den Beginn einer Rechtsprechungsentwicklung, die sich in den kommenden Jahren erheblich weiterentwickeln wird – denn AI Overviews sind kein Nischenphänomen. Millionen von Menschen rufen täglich Suchanfragen ab und erhalten dabei KI-generierte Zusammenfassungen zu medizinischen, rechtlichen, finanziellen oder sonstigen Fragen.

Was uns das aus KI-Perspektive lehrt: Ein KI-System ist kein neutrales Werkzeug, sobald es Aussagen über die Welt trifft und diese Aussagen öffentlich wahrnehmbar sind. Die Stärke generativer KI – nämlich sprachlich überzeugend und flüssig zu formulieren – wird genau dann zur Gefahr, wenn die Inhalte nicht stimmen. Der Satz aus dem Kapitel über Halluzinationen gilt hier im wörtlichsten Sinne: Gut klingende Sprache ist nicht automatisch gute Substanz.

Für Unternehmen und Webseitenbetreiber bedeutet das: Es lohnt sich, die eigene Darstellung in KI-Suchergebnissen aktiv zu beobachten. Tools und Dienstleister, die auf genau diesen Bereich spezialisiert sind, werden in den nächsten Jahren eine wachsende Rolle spielen. Und wer eine fehlerhafte Darstellung entdeckt, sollte diese sorgfältig dokumentieren – mit Screenshots, Datum, konkreter Formulierung und einer klaren Analyse, warum die KI-Aussage auch im Gesamtkontext nicht korrekt ist.

Das Recht hinkt der Technologie wie immer ein wenig hinterher. Aber es holt auf.

Hast du schon einmal bemerkt, dass eine KI-Zusammenfassung – bei Google oder einem anderen Dienst – dein Unternehmen, dein Produkt oder dich als Person falsch dargestellt hat? Und wie bist du damit umgegangen? Schreib es in die Kommentare – ich bin gespannt, ob andere ähnliche Erfahrungen gemacht haben!

Schreibe einen Kommentar