ANZEIGE

Google setzt auf künstliche Intelligenz, um irreführende Werbung und Beiträge von der Plattform zu entfernen - Illustration: Created with Imagine

Google setzt auf künstliche Intelligenz, um irreführende Werbung und Beiträge von der Plattform zu entfernen - Illustration: Created with Imagine

Online-Werbung

Wie Google den Betrug minimieren will

Millionen von Menschen weltweit setzen auf digitale Angebote, wenn es um die Befriedigung ihres Wissensdurstes geht. Sei es in Sachen Nachrichten, Informationen zu Themen des Interesses oder über Produkte. Insofern stellt was World Wide Web natürlich auch die Plattform der Wahl, wenn es um betrügerische Inhalte geht. Um die Menschen hiervor zu schützen, setzt Google seit Jahren darauf, irreführende Inhalte zu identifizieren und aus der weltweit größten Suchmaschine zu entfernen. Allein im Jahr 2023 waren das, so das Unternehmen, 5,5 Milliarden Anzeigen, die als laut den eigenen und gesetzlichen Vorgaben als „unzulässig“ erkannt und entfernt wurden.

Dass solche Mengen nicht allein von Menschenauge ausgemacht werden können, versteht sich von selbst. Entsprechend erklärt Duncan Lennox, Vice President/General Manager Ads Privacy & Safety von Google, man setze seit langem Künstliche Intelligenz, insbesondere Large Language Models (LLMs) ein, um die Richtlinien durchzusetzen. Vergisst aber auch nicht zu erwähnen, dass diese maschinellen Lernmodelle zwar immer noch hochentwickelt seien, aber in der Vergangenheit ausgiebig trainiert werden mussten. „Sie stützen sich oft auf Hunderttausende, wenn nicht gar Millionen von Beispielen für rechtswidrige Inhalte“, sagt Lennox. „LLMs hingegen sind in der Lage, Inhalte in großem Umfang schnell zu überprüfen und zu interpretieren und dabei auch wichtige Nuancen innerhalb dieser Inhalte zu erfassen. Diese fortschrittlichen Argumentationsfähigkeiten haben bereits zu umfangreicheren und präziseren Durchsetzungsentscheidungen bei einigen unserer komplexeren Richtlinien geführt“, so Lennox weiter.

Gegen Betrug und Abzocke

Im Jahr 2023 nahmen Betrug und Abzocke auf allen Online-Plattformen zu. Böswillige Akteure entwickeln ihre Taktiken zur Manipulation digitaler Werbung ständig weiter, um Menschen und seriöse Unternehmen gleichermaßen zu betrügen. Um diesen sich ständig verändernden Bedrohungen entgegenzuwirken, hat Google nach eigenen Angaben seine Richtlinien aktualisiert, Durchsetzungsteams eingesetzt und die Techniken zum Erkennen entsprechender Inhalte verfeinert.

So wurde beispielsweise im November 2023 eine Richtlinie zur eingeschränkten Schaltung von Anzeigen (Limited Ads Serving) eingeführt, die dem Schutz der Nutzer dienen soll, indem sie die Reichweite von Werbetreibenden einschränkt, die Google nicht oder kaum kennt. Im Rahmen dieser Richtlinie wurde eine „Kennenlernphase für Werbetreibende“ eingeführt, die für genau diese Kundengruppe gedacht ist. Während dieser Phase können beispielsweise die Impressions auf Anzeigen unter bestimmten Umständen eingeschränkt werden. Lennox nannte als Beispiel eine unklare Beziehung zwischen einem Werbetreibenden und einer Marke, auf die in der Anzeige verwiesen wird, besteht. Letztendlich werde das Limited Ads Serving, das sich noch in der Anfangsphase befindet, dazu beitragen, dass wohlmeinende Werbetreibende Vertrauen bei den Nutzern aufbauen können, während die Reichweite der schwarzen Schafe begrenzt und damit das Risiko von Betrug und irreführender Werbung verringert wird.

Schnelle Reaktion für besseren Schutz

Im November vergangenen Jahres bis hinein in den Anfang 2024 sahen sich Lennox und sein Team auf einmal mit einer gezielten Werbekampagne konfrontiert, bei der das Konterfei von Persönlichkeiten des öffentlichen Lebens genutzt wurde, um offensichtlich die Nutzer mit gezielten Informationen – häufig durch den Einsatz von Deepfakes - in die Irre zu führen. „Als wir diese Bedrohung entdeckten, richteten wir prompt ein spezielles Team ein, das Muster im Verhalten der Akteure hinter den Anzeigen zu erkennen und die KI entsprechend zu trainieren und ähnliche Anzeigen auszumachen“, erklärte Lennox das Vorgehen. Zudem wurde die bestehende Richtlinie zur Falschdarstellung von Meldungen entsprechend angepasst, um die betreffenden Kundenkonten schneller sperren zu können.

2024 ist das Jahr der Wahlen

Bekanntermaßen wird 2024 weltweit so oft gewählt, wie nie zuvor. Entsprechend versuchen sowohl bestimmte Gruppen – um es mal diplomatisch auszudrücken – die Wähler:innen durch gezielte Falschmeldungen und/oder Anzeigen zu manipulieren. Dennoch kann auch Google nicht verschweigen, dass Wahlwerbung zum Prozess demokratischer Wahlen dazugehört. Dennoch wolle man sicherstellen, dass die Interessierten den auf der Plattform ausgespielten Anzeigen und Beiträgen in vollem Umfang vertrauen können. „Aus diesem Grund haben wir seit langem Anforderungen an die Identitätsprüfung und Transparenz für Wahlwerber sowie Beschränkungen für die Art und Weise, wie diese Werbetreibenden ihre Wahlwerbung ausrichten können. Alle Wahlwerbung muss außerdem den Hinweis ,bezahlt von‘ enthalten und wird in unserem öffentlich zugänglichen Transparenzbericht zusammengestellt“, erklärt Alejandro Boriga, Director of Product Management bei Google. Das Ergebnis: Allein in 2023 wurden mehr als 5.000 Unternehmen/Agenturen überprüft, die Wahlwerbung auf der Plattform platzieren wollten. Außerdem wurden über 7,3 Millionen Anzeigen off geschaltet, weil sich die Unternehmen respektive Agenturen ihre Überprüfung entsprechend der Richtlinien nicht abgeschlossen oder nicht bestanden haben. Außerdem habe Google im vergangenen Jahr als ersten Technologieunternehmen überhaupt die Offenlegungspflicht von sogenannten synthetischen Inhalten eingeführt. „Da immer mehr Werbetreibende die Möglichkeiten der künstlichen Intelligenz nutzen, wollen wir sicherstellen, dass wir den Menschen auch weiterhin die größere Transparenz und die Informationen bieten, die sie benötigen, um fundierte Entscheidungen zu treffen,“ sagt Borgia. Darüber hinaus habe man Richtlinien gegen Anzeigen aufgesetzt, die nachweislich falsche Wahlbehauptungen aufstellen und somit das Vertrauen oder die Beteiligung an demokratischen Prozessen untergraben könnten.

Alles in Allem weiß man aber auch im Silicon Valley, dass alle Bemühungen des Unternehmens gegen Ad Fraud, Deepfakes und sonstigen Betrug im Netz immer nur ein Hinterherlaufen nach aufkommenden Trends ist und damit den Betrügern immer einen Schritt hinterherhinken wird. Dennoch wolle man alles daransetzen, dass ihr Vorsprung nicht zu groß wird. Dass ein wichtiger Schritt in diese Richtung eine umfangreiche Änderung der Algorithmen sein könnte, wurde in der Vorstellung des Safety Reports 2023 nicht mit einer Silbe erwähnt. Wäre wahrscheinlich für das Unternehmen auch nicht sinnführend, schließlich beruht das gesamte Geschäftsmodell und damit der finanzielle Erfolg der Plattform genau darauf.