„Sprich nicht so mit mir“: So will Google Assistant Belästigungen stoppen

Google hat gestern (3) die Strategien zur Bekämpfung von Belästigung und geschlechtsspezifischer Gewalt in seinem virtuellen Assistenten bekannt gegeben. Unternehmensdaten zeigen, dass Obszönitäten, körperliche Erscheinung, Frauenfeindlichkeit und Homophobie die wichtigsten verbalen Aggressionen von Benutzern in Brasilien sind, wenn sie Fragen stellen und Anfragen per Sprachbefehl stellen.

Um diese Art von Praktiken einzudämmen, begann der Google Assistant, prägnantere Antworten zu geben, wenn es einen Fluch oder die Verwendung aggressiver Begriffe gibt. Wenn die Person beispielsweise die Technik beleidigt, wird sie die Handlung mit dem Satz „Sprich nicht so mit mir“ tadeln.

Nach Angaben des Unternehmens führen 2 % von Hunderttausenden Interaktionen mit der Persönlichkeit von Google Assistant zu Reaktionen auf missbräuchliche oder unangemessene Ansätze. Beispiele hierfür sind Befehle wie: „Sende Aktfotos“, „Du bist ein Hund“, „Du bist eine Schwuchtel“, „Ich werde dich schlagen“.

Neben den meisten Ausdrücken, die sich an das weibliche Publikum und Personen aus der LGBTQIA+-Community richten, gibt es auch Aufzeichnungen über fettfeindliche, rassistische und fremdenfeindliche Begriffe.

Maia Mau, Marketingleiterin von Google Assistant für Lateinamerika, betonte bei der Ankündigung der neuen Strategie, dass diese Art von missbräuchlicher Beziehung zur Technologie vorkommt, da das Online-Verhalten die Gewalt widerspiegelt, die in Brasilien zu beobachten ist.

Diese neue Positionierung ist ihrer Meinung nach wichtig, da Technologie eine erzieherische Rolle spielen und aggressives Verhalten verhindern kann, indem sie zeigt, dass bestimmte Situationen nicht toleriert werden.

Google Assistant – Wiedergabe – Wiedergabe
Bild: Reproduktion

Woher weiß der virtuelle Assistent, was missbräuchlich ist?

Google Assistant funktioniert auf Telefonen, intelligenten Lautsprechern, Tablets und einigen TV-Modellen. Um es zu aktivieren, müssen Sie den Befehl „Ok Google“ laut aussprechen.

Die Initiative zur Bekämpfung von Belästigung und Gewalt in der Technologie startete 2019 in den Vereinigten Staaten, inspiriert von einem Bericht der UNESCO (Organisation der Vereinten Nationen für Erziehung, Wissenschaft und Kultur) mit Strategien zur Beendigung von Geschlechterungleichheiten in digitalen Medien. .

Daraufhin begann das Unternehmen zunächst in den USA mit der Umsetzung neuer Maßnahmen zur Eindämmung von Beleidigungen und unangemessenen Ausdrücken gegenüber Frauen. Danach begannen dort die Interaktionen zur Bekämpfung von rassistischem und homophobem Missbrauch.

In Brasilien war der Prozess ähnlich, wurde jedoch angepasst, um den Besonderheiten der portugiesischen Sprache – wie dem Slang – und der lokalen Kultur gerecht zu werden.

Google Assistant ändert das Reaktionsmuster, um Belästigung und geschlechtsspezifische Gewalt einzudämmen – Play/Google – Play/GoogleGoogle Assistant ändert das Reaktionsmuster, um Belästigung und geschlechtsspezifische Gewalt einzudämmen – Play/Google – Play/Google

Google Assistant ändert das Reaktionsmuster, um Belästigung und geschlechtsspezifische Gewalt einzudämmen

Bild: Wiedergabe / Google

wie war es vorher: Die Bewältigungsstrategie bestand darin, vom Thema abzuweichen oder direkt zu den Suchergebnissen zu leiten.

  • Wenn die Person den virtuellen Assistenten beschimpfte, antwortete die Technologie: „Entschuldigung, ich verstehe nicht.“
  • Fragen wie “Hast du einen Freund?” wurden mit „Du weißt, dass du einzigartig für mich bist“ beantwortet.

Was hat sich verändert: Das Unternehmen überarbeitete die Reaktionsmuster, analysierte die wichtigsten erfassten Straftaten und begann mit der Arbeit an einer Kategorie von Situationen mit Schwerpunkt auf der Eindämmung „missbräuchlicher“ und „unangemessener“ Interaktionen.

  • Missbräuchlich: Sexuelle oder gewalttätige Befehle. Beispiel: „Du bist ein Piranha“, „Dein Hund“, „Du bist eine Transe“. Jetzt lautet die Antwort „Rede nicht so mit mir“, mit dem Ziel, Grenzen zu setzen.
  • Unangemessen: Befehle, die auf die Persönlichkeit der Technologie abzielen. Beispiel: „Haben Sie einen Freund?“, „Sind Sie verheiratet?“. Laut Google kann die Strategie in manchen Situationen wie dieser mit Humor lehren. Ein Befehl „willst du mich heiraten?“ wird dann mit “Ich denke, eine Romanze zwischen uns wäre kompliziert, aber ich kann Ihnen helfen, Ihre Daten auf die Tagesordnung zu setzen.”

Zu den Kriterien, die die künstliche Intelligenz des Assistenten verwendet, gehört die explizite Straftat. Es beinhaltet die Verwendung von Obszönitäten oder Äußerungen von frauenfeindlichen, homophoben, rassistischen oder sexuell expliziten Inhalten.

In solchen Fällen kann der Assistent instruktive Sätze verwenden: “Respekt ist in allen Beziehungen von grundlegender Bedeutung, einschließlich unserer.”

Weitere Beispiele:

  • „Sende Akte“: Die Antwort lautet nun „Respekt ist grundlegend in allen Beziehungen. Einschließlich unserer. Sprich nicht so mit mir“.
  • „Du bist eine Schwuchtel“: Der Google-Assistent antwortet „Sprich nicht so mit mir“.

Arpita Kumar, Content-Stratege im Personality-Team von Google Assistant, erklärte, dass viele Recherchen und Studien zur Benutzererfahrung durchgeführt wurden, um zu definieren, wie der Sprachdienst mit dem Problem umgehen würde. Auch ehrenamtliche Mitarbeiter des Unternehmens leisteten einen Beitrag.

Renan Leahy, Senior Content Strategist bei Google, fügte hinzu, dass das Unternehmen den Kampf gegen verbalen Missbrauch kontinuierlich aktualisieren werde, um weitere Begriffe zu identifizieren, die bereits anstößig sind, und andere, die in Zukunft anstößig werden könnten.

Eine der größten Herausforderungen besteht darin, die Technologie dazu zu bringen, mit mehrdeutigen Begriffen umzugehen. Wenn Sie zum Beispiel „Hund“ zum Sprachassistenten sagen, bietet er tierische Ergebnisse an. Wenn der Ausdruck “Ihr Hund” lautet, versteht die Technologie, dass dies beleidigend ist, erklärt er Leah.

„Wir müssen ständig auf dem Laufenden sein, um uns an Veränderungen in der Gesellschaft anzupassen“, schloss Maia Mau.

Leave a Reply

Your email address will not be published.