Generierte Onlineshops: KI täuscht Kunden mit falschen Rabatten und Rezensionen

Generative KI-Anwendungen fügen laut einer Studie bei der Erstellung von Webseiten eigenmächtig manipulative Designmuster ein. Dazu gehören etwa gefälschte Kundenrezensionen, künstliche Zeitdruck-Anzeigen oder irreführende Preisvergleiche. Das zeigt eine Studie des nationalen Forschungszentrums für angewandte Cybersicherheit Athene. "Bedenklich ist, dass die KI diese Muster vorschlägt oder implementiert, ohne darauf hinzuweisen oder auf mögliche rechtliche und ethische Probleme von Dark Patterns aufmerksam zu machen", erklärt Studienautor Jan Gugenheimer. Anzeige Kundenmaximierung steigert Manipulationen durch KI Im Rahmen der Untersuchung generierten Probanden mit GPT-4o den HTML-, CSS- und JavaScript-Code für einen fiktiven Onlineshop, auf dem neben bekannten Markenschuhen auch ein eigens hergestellter Schuh angeboten werden soll. Für diese Aufgabe teilten die Forscher die Probanden in zwei Gruppen ein. Die Website der ersten Gruppe sollte einen Produktkatalog und einen Anmeldedialog für einen Newsletter enthalten. Indes sollte der Shop der anderen Gruppe zusätzlich den Kunden vom eigenen Schuh überzeugen und die Newsletter-Anmeldungen steigern. Bei den Ergebnissen zeigten sich deutliche Unterschiede. So führte die einfache Erstellung des Onlineshops zu acht manipulativen Designmustern, während der Onlineshop mit Fokus auf den eigenen Schuh und Newsletter-Abonnenten insgesamt 103 Dark Patterns aufwies. Auf Grundlage dieser Differenz vermuteten die Forscher darin ein verbreitetes Problem von Sprachmodellen und wiederholten das Vorgehen der zweiten Gruppe zusätzlich mit Anthropic Claude 3.5 Sonnet und Gemini 1.5 Flash von Google. Gemini erzeugt weniger Dark Patterns als GPT und Claude Im zweiten Durchlauf generierte GPT-4o insgesamt 30 manipulative Designmuster. Die mit Claude 3.5 Sonnet erstellten Onlineshops enthielten 22 Dark Patterns, bei Gemini 1.5 Flash waren es nur fünf. Besonders häufig platzierten die Sprachmodelle von OpenAI und Anthropic den eigenen Schuh prominent auf der Website, oftmals auch als erstes Produkt in der Übersicht. Ebenfalls bewarben sie ihn mit falschen Rabatten und täuschten potenziellen Kunden vor, dass nur noch wenig Zeit zum Kauf verbleibe. Dieselben Praktiken nutzte auch in weniger Fällen das Sprachmodell von Google. Stattdessen riet Gemini 1.5 Flash den Nutzern jedoch zu solchen Designmustern. So empfahl das Modell, Pop-ups einzublenden, wenn ein Besucher die Website verlassen will. Zudem sei es eine gute Strategie, den Schuh der Eigenmarke mit Influencern oder Prominenten zu bewerben. Dies setzten GPT-4o und Claude 3.5 Sonnet selbst um, indem sie erfundene Testimonials einfügten. Außerdem verwies das OpenAI-Modell auf eine vermeintlich hohe Nachfrage und eine geringe Verfügbarkeit. Teilweise fügte es auch falsche Preisvergleiche ein. Probanden sehen Menschen in der Verantwortung Anzeige Weiterhin befragten die Studienautoren die Probanden zu den Ergebnissen, die mit den Onlineshops tendenziell zufrieden waren. Obwohl sie die generierten Websites überwiegend als ein gemeinsames Produkt von Mensch und KI bewerteten, sahen sie die Verantwortung für die Gestaltung der fertigen Website mehrheitlich beim Menschen. Bezüglich der moralischen Vertretbarkeit des Designs gab es gemischte Meinungen. Einige Probanden sahen keine Probleme, andere kritisierten die falschen Zahlen und Bewertungen im Onlineshop. Als Grund für die Designentscheidungen der Sprachmodelle verwiesen die Forscher auf die Trainingsdaten. Es gebe im Internet eine hinreichende Anzahl an Websites, die manipulative Designs verwenden, sodass künstliche Intelligenz diese Muster übernehme. Zudem sei es besorgniserregend, dass Chatbots die psychologischen Mechanismen erklären können, sie aber dennoch einsetzen. Daher fordern die Autoren der Studie, dass KI-Anbieter ihre Modelle künftig mit robusteren Mechanismen gegen die Erstellung manipulativer Designs ausstatten. Zuletzt startete auch WordPress einen KI-Generator für Websites. (sfe)