Informatik Die größte Lüge im Internet

Wer im Internet einkauft, muss stets die Allgemeinen Geschäfts­bedingungen lesen – oder zumindest versichern, dies getan zu haben. In Zukunft könnten Algorithmen diese lästige Aufgabe für uns über­­nehmen. Eine gute Nachricht auch für den Verbraucher­schutz

von Dr. Daniel Braun

„Ja, ich habe die AGB gelesen und akzeptiere sie.” Das ist eine Lüge, der wir uns fast alle schon schuldig gemacht haben. Studien gehen davon aus, dass nicht mal jede:r Hundertste beim Online­einkauf das Klein­gedruckte liest. Kein Wunder, angesichts seiten­langer Texte in Juristen­deutsch. Damit Unternehmen diese Situation nicht ausnutzen und wir, auch im europäischen Ausland, sicher einkaufen können, gibt es EU-weit starke Verbraucher­schutz­regeln. Sie setzen Unternehmen enge Grenzen, welche Regelungen in AGB enthalten sein dürfen. Diese zu überwachen, ist angesichts Hundert­tausender Online­shops jedoch kaum noch zu bewältigen.

In Deutschland kümmern sich darum unter anderem die 16 Verbraucher­zentralen. Wir haben erforscht, wie wir ihre Arbeit unter­stützen können. Und zwar mit Künstlicher Intelligenz (KI). Der Einsatz von KI im Rechts­wesen wird kritisch beäugt. Aus gutem Grund. Denn wenn Algorithmen zum Beispiel bei der Vorhersage helfen sollen, wie wahrscheinlich ein:e Straf­täter:in rück­fällig wird, dann führt das nicht etwa automatisch zu objektiveren Entscheidungen. Häufig manifestieren sich historisch gewachsene Vorurteile nämlich bereits in den den Algorithmen zugrunde liegenden Daten. Forschende vieler Disziplinen arbeiten daher seit Längerem an Regeln für den Einsatz von KI, die dafür sorgen sollen, dass niemandem Schaden entsteht. Neu ist das Forschungs­feld „KI für das soziale Wohl”, das nicht nur Schaden begrenzen will, sondern aktiv nach Einsatz­möglichkeiten für KI sucht, von denen die gesamte Gesellschaft profitiert.

Ganz in diesem Sinne wollen wir mit unserer Forschung die Arbeit der Verbraucher­schützer:innen unter­stützen und zum Verbraucher­schutz beitragen. Dazu entwickelten wir, zusammen mit den Verbraucher­zentralen Brandenburg und Hamburg, eine spezielle Software. Sie kann AGB lesen und einzelne Klauseln auf Rechts­treue über­prüfen. Dazu musste der Algorithmus beispiels­weise „lernen”, dass es beim Online­einkauf ein 14-tägiges Rück­tritts­recht gibt.

Grundsätzlich kann ein Computer auf zwei Arten lernen. Der kürzeste Weg ist, eine explizite Regel direkt in einer Programmier­sprache zu formulieren. Zum Beispiel: Wenn ein Satz eine Variation des Wortes „Widerruf” enthält und eine Zeit­spanne angegeben ist, die kürzer als 14 Tage ist, dann ist die Klausel vermutlich ungültig. Dieser Ansatz hat viele Vorteile. Die vom Computer getroffene Entscheidung ist transparent – weil sie der explizit formulierten Regel folgt. Sollte sich die Gesetzes­lage einmal ändern, lässt sich diese Regel leicht anpassen.

Aber es gibt auch ein großes Problem – nämlich dass es kaum eine Regel ohne Ausnahme gibt. So gilt beispiels­weise im vermeintlich einfachen Fall des Wider­rufs­rechts, dass geöffnete Hygiene­produkte oder Maß­anfertigungen vom Umtausch ausgeschlossen sind. In anderen Bereichen wie der Haftungs­begrenzung sind die Regeln noch komplizierter, und es ist nahezu unmöglich, sie umfassend und für den Computer verständlich auf­zu­bereiten.

So einsam, wie es hier scheint, ist Daniel Brauns Arbeit nicht. Im Gegenteil: Sie ist in hohem Maße interdisziplinär. Ziel seiner Forschung ist, die KI-Algorithmen zum Wohle von Ver­braucher:innen einzusetzen
©KTS/Annette Mueck
So einsam, wie es hier scheint, ist Daniel Brauns Arbeit nicht. Im Gegenteil: Sie ist in hohem Maße interdisziplinär. Ziel seiner Forschung ist, die KI-Algorithmen zum Wohle von Ver­braucher:innen einzusetzen

Aus diesen Gründen wählten wir einen anderen Ansatz, und zwar den des maschinellen Lernens. Dabei werden keine fest programmierten Regeln vorgegeben. Statt­dessen lernt das Programm auf der Basis entsprechender Beispiele. Füttert man es etwa mit zahl­reichen Klauseln zum Thema Wider­rufs­recht und deren juristischer Einordnung – ob diese gültig oder ungültig sind –, kann der Computer diese statistisch auswerten. Hat er genügend viele Beispiele bearbeitet, kann er daraus eigene Regeln ableiten. Wenn also eine Klausel ein Rück­gabe­recht ausschließt – und damit auf den ersten Blick ungültig ist –, wird der KI-Algorithmus aufgrund seiner Erfahrungen weiter differenzieren. Erkennt er, dass es um Hygiene­produkte geht, wird der Algorithmus die Klausel also nicht beanstanden.

Damit dies funktioniert, muss die Daten­grund­lage Hunderte, besser Tausende Beispiele umfassen. Dank einer Förderung des Bundes­ministeriums der Justiz und für Verbraucher­schutz konnten Jurist:innen der Verbraucher­zentralen in monate­langer Arbeit weit über tausend Klauseln für uns aufbereiten. Über­raschender­weise erwies sich schon bei dieser ersten Analyse jede 20. Klausel als rechts­widrig. Einige Verstöße waren so eklatant, dass die Verbraucher­zentralen juristische Schritte einleiteten. Viele Unternehmen legen zum Beispiel pauschale, überhöhte Mahn­gebühren fest. Klauseln, die eine automatische Preiserhöhung bei Abodiensten vorsehen, waren fast alle rechtswidrig.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Mit den Daten trainierten wir sogenannte Transformer­modelle. Diese erlernen zunächst anhand riesiger Daten­mengen die Grundlage der deutschen Sprache. So können sie zum Beispiel durch das Lesen von Nachrichten lernen, welche Wörter eine ähnliche Bedeutung haben, etwa solche, die häufig im selben Kontext auftauchen. Aus Sätzen wie „Der Bundes­kanzler hat sein Büro im Bundes­kanzler­amt” und „Der Regierungs­chef sitzt im Bundes­kanzler­amt” lässt sich ableiten, dass die Wörter „Bundes­kanzler” und „Regierungs­chef” analog verwendet werden. Nur bearbeiten die Trans­former­modelle nicht zwei, sondern Millionen von Sätzen. Erst danach werden sie zusätzlich mit den von den Expert:innen bewerteten Daten gefüttert.

Mit diesem zweistufigen Lern­verfahren entwickelten wir ein Modell, das in 90 Prozent der Fälle korrekt erkennt, ob eine Klausel gültig ist oder nicht. Für die praktische Anwendung in Verbraucher­zentralen integrierten wir dieses Modell in eine Software. Sie unter­stützt nicht nur diesen juristischen Analyse­schritt, sondern kann mit derselben Technologie auch AGB-Seiten im Internet automatisch aufspüren und Klauseln thematisch sortieren.

In Zukunft, so hoffen wir, können wir eine App bereit­stellen, die jede:n von uns vor unfairen AGB warnt. Bis dahin ist es aber noch ein weiter Weg. Denn obwohl die Treffer­quote von 90 Prozent unsere Erwartungen über­traf, bedeutet das im Umkehr­schluss auch: In jedem zehnten Fall liegen wir daneben. Das kann schwer­wiegende Konsequenzen haben, wenn Unternehmen dadurch einen wirtschaftlichen Schaden erleiden. Oder wenn ein:e Verbraucher:in in Vertrauen auf die Analyse bestellt, obwohl diese falsch war. Überdies stellt sich auch die Frage, ob ein solches Angebot eine Rechts­dienst­leistung darstellt. Diese dürfen in Deutschland – das regelt das Rechts­dienst­leistungs­gesetz – neben Jurist:innen nur eine Handvoll qualifizierter Personen erbringen.

Gewiss ist aber: Wir müssen als Gesellschaft nicht nur den schädlichen Einsatz von KI unterbinden, wir müssen auch ihren positiven Einsatz fördern – und zugleich rechtlich absichern. Es gilt Haftungsregeln zu finden, die Nutzer:innen schützen, ohne unrealistische Ansprüche an die Technik zu stellen. Denn auch wenn Wissen­schaftler:innen auf der ganzen Welt daran arbeiten, die darunter­liegende Technologie zu verbessern, wird sie – wie wir Menschen ja auch – nicht unfehlbar sein. Um eine Zukunft zu schaffen, in der nicht nur Unternehmen, sondern auch Verbraucher:innen von KI profitieren, müssen wir lernen, mit diesen Fehlern verantwortungs­voll umzugehen.

Zum Thema

Das Abitur hilft einem nicht

Kein Wunder, dass kaum jemand die AGB prüft. Denn man versteht sie ja nicht

Dass man in die Allgemeinen Geschäfts­bedingungen schreiben kann (nicht darf!), was man will, bewies vor ein paar Jahren ein britischer WLAN-Anbieter. Er hatte im Klein­gedruckten alle Unter­zeichnenden eines Vertrages zur Ableistung von 1000 Stunden gemein­nütziger Arbeit verpflichtet. Zur Wahl standen: Putzen von Klos auf Festivals, Entfernung alter Kaugummis vom Gehweg und Reinigung von Abwasser­rohren. 22.000 Menschen „willigten ein”, nur eine einzige Person hatte den Unfug gelesen, ihn gemeldet und dafür vom Unternehmen sogar eine Belohnung bekommen. Das Ganze war ein Spaß.

„Die Allgemeinen Geschäftsbedingungen vieler Unternehmen bewegen sich auf dem sprachlichen Niveau einer Doktor­arbeit”, sagte der Kommunikations­wissenschaftler Frank Brettschneider im Gespräch mit der „Süddeutschen Zeitung”. „Die Sätze bestehen teilweise aus mehr als 100 Wörtern und sind stark verschachtelt.” In einer Umfrage der Gesellschaft für deutsche Sprache in Wiesbaden gaben 86 Prozent der Teilnehmenden an, solche und andere amtliche Texte schwer zu verstehen. Und das liegt nicht am Bildungs­hinter­grund. Denn 81 Prozent hatten Abitur oder einen Hoch­schul­abschluss. Kein Wunder also, dass die meisten Menschen die AGB einfach „wegklicken”.

Ähnlich kompliziert geht es auch im Steuer­recht zu, dem man aber nicht so leicht entkommt. Die Weltbank hat sich damit 2015 im Rahmen einer Studie befasst. Demnach arbeiteten deutsche Mittelständler:innen jedes Jahr im Durch­schnitt 218 Stunden an ihren Steuer­angelegen­heiten. In der Schweiz liegt der Aufwand bei nur 63 Stunden. Wenn also immer wieder die Rede von jenen ist, die aktiv Steuern hinter­ziehen, muss auch die Frage gestattet sein, wie viele Menschen dem Fiskus Geld schenken – nur weil sie die Texte des Finanz­amtes nicht verstehen.
— JS

Sie verwenden einen veralteten Browser oder haben Javascript in Ihrem Browser deaktiviert.
Bitte aktualisieren Sie Ihren Browser oder aktivieren Sie Javascript.
x