Google verwendet eine neue Methode zur Messung von Hauttönen, um die Suchergebnisse umfassender zu gestalten

Google arbeitet mit einem Harvard-Professor zusammen, um eine neue Skala zur Messung von Hauttönen zu fördern, in der Hoffnung, Probleme mit Voreingenommenheit und Vielfalt in den Produkten des Unternehmens zu beheben.

Der Technologieriese arbeitet mit Ellis Monk zusammen, einem Assistenzprofessor für Soziologie in Harvard und dem Schöpfer der Monk Skin Tone-Skala oder MST. Die MST-Skala wurde entwickelt, um veraltete Hauttonskalen zu ersetzen, die auf hellere Haut ausgerichtet sind. Wenn diese älteren Skalen von Technologieunternehmen zur Kategorisierung der Hautfarbe verwendet werden, kann dies zu Produkten führen, die für Menschen mit dunklerer Hautfarbe schlechter abschneiden, sagt Monk.

„Wenn wir keine ausreichenden Unterschiede im Hautton haben, können wir das nicht wirklich in Produkte integrieren, um sicherzustellen, dass sie integrativer sind“, sagt Monk Der Rand. „Die Monk-Hauttonskala ist eine 10-Punkte-Hauttonskala, die bewusst so gestaltet wurde, dass sie viel repräsentativer ist und ein breiteres Spektrum verschiedener Hauttöne umfasst, insbesondere für Menschen [with] dunklere Hauttöne. ”

Es gibt zahlreiche Beispiele für Tech-Produkte, insbesondere solche, die KI verwenden, die bei dunkleren Hauttönen schlechter abschneiden. Diese beinhalten Apps zur Erkennung von Hautkrebs, Gesichtserkennungssoftwareund sogar Bildverarbeitungssysteme, die von selbstfahrenden Autos verwendet werden.

Obwohl es viele Möglichkeiten gibt, wie diese Art von Verzerrung in diese Systeme einprogrammiert ist, ist ein gemeinsamer Faktor die Verwendung veralteter Hauttonskalen beim Sammeln von Trainingsdaten. Die beliebteste Hauttonskala ist die Fitzpatrick-Skala, die sowohl in der Wissenschaft als auch in der KI weit verbreitet ist. Diese Skala wurde ursprünglich in den 70er Jahren entwickelt, um zu klassifizieren, wie Menschen mit hellerer Haut in der Sonne bräunen oder braun werden, und wurde erst später um dunklere Haut erweitert.

Dies hat zu einigen geführt Kritik dass die Fitzpatrick-Skala nicht alle Hauttöne erfassen kann und möglicherweise bedeutet, dass Bildverarbeitungssoftware, wenn sie auf Fitzpatrick-Daten trainiert wird, auch auf hellere Hauttypen ausgerichtet ist.

Die 10-Punkte-Mönchshauttonskala.
Bild: Ellis Monk / Google

Die Fitzpatrick-Skala besteht aus sechs Kategorien, aber die MST-Skala erweitert sie auf 10 verschiedene Hauttöne. Laut Monk wurde diese Nummer auf der Grundlage seiner eigenen Forschung ausgewählt, um Vielfalt und Benutzerfreundlichkeit in Einklang zu bringen. Einige Hauttonskalen bieten mehr als hundert verschiedene Kategorien, sagt er, aber zu viel Auswahl kann zu inkonsistenten Ergebnissen führen.

„Normalerweise, wenn Sie auf dieser Art von Skalen über 10 oder 12 Punkte hinausgekommen sind [and] Bitten Sie dieselbe Person, wiederholt dieselben Töne herauszupicken, je mehr Sie diese Tonleiter erhöhen, desto weniger Menschen sind dazu in der Lage “, sagt Monk. “Kognitiv gesehen wird es einfach sehr schwierig, genau und zuverlässig zu unterscheiden.” Eine Auswahl von 10 Hauttönen sei viel überschaubarer, sagt er.

Die Erstellung einer neuen Hauttonskala ist jedoch nur ein erster Schritt, und die eigentliche Herausforderung besteht darin, diese Arbeit in reale Anwendungen zu integrieren. Um für die MST-Skala zu werben, hat Google eine neue Website erstellt, skintone.google, die sich der Erläuterung der Forschung und bewährten Verfahren für ihre Verwendung in der KI widmet. Das Unternehmen sagt, es arbeite auch daran, die MST-Skala auf eine Reihe seiner eigenen Produkte anzuwenden. Dazu gehören die Fotofilter „Real Tone“. entwickelt, um besser mit dunkleren Hauttönen zu funktionierenund die Ergebnisse der Bildersuche.

Google wird es Nutzern ermöglichen, bestimmte Suchergebnisse mit Hauttönen zu verfeinern, die aus der MST-Skala ausgewählt wurden.
Bild: Google

Google sagt, dass es eine neue Funktion für die Bildsuche einführt, mit der Benutzer die Suche basierend auf Hauttönen verfeinern können, die von der MST-Skala klassifiziert werden. Wenn Sie also beispielsweise nach „Augen-Make-up“ oder „Braut-Make-up-Looks“ suchen, können Sie die Ergebnisse anschließend nach Hautton filtern. Künftig will das Unternehmen die Vielfalt seiner Ergebnisse auch mit der MST-Skala überprüfen, damit bei der Suche nach Bildern von „süßen Babys“ oder „Ärzten“ nicht nur weiße Gesichter angezeigt werden.

„Eines der Dinge, die wir tun, ist eine Reihe von [image] Ergebnisse, zu verstehen, wann diese Ergebnisse über einige wenige Töne hinweg besonders homogen sind, und die Vielfalt der Ergebnisse zu verbessern “, sagte Tulsee Doshi, Produktleiterin von Google für verantwortungsvolle KI Der Rand. Doshi betonte jedoch, dass sich diese Updates in einem „sehr frühen“ Entwicklungsstadium befänden und noch nicht in den Diensten des Unternehmens eingeführt worden seien.

Dies sollte ein Hinweis zur Vorsicht sein, nicht nur für diese spezifische Änderung, sondern auch für Googles Ansatz zur Behebung von Problemen mit Voreingenommenheit in seinen Produkten im Allgemeinen. Das Unternehmen hat eine lückenhafte Geschichte Wenn es um diese Themen geht, neigt die KI-Branche insgesamt dazu, ethische Richtlinien und Leitplanken zu versprechen und dann an der Durchsetzung zu scheitern.

Nehmen Sie zum Beispiel den berüchtigten Google Fotos-Fehler, der zu seinem Suchalgorithmus führte Markieren von Fotos von Schwarzen als „Gorillas“ und „Schimpansen“. Dieser Fehler wurde erstmals 2015 bemerkt, doch Google bestätigte dies Der Rand diese Woche, dass es das Problem noch nicht behoben hat, sondern diese Suchbegriffe einfach ganz entfernt hat. „Obwohl wir unsere Modelle aufgrund von Feedback erheblich verbessert haben, sind sie immer noch nicht perfekt“, sagte Michael Marconi, Sprecher von Google Fotos Der Rand. “Um diese Art von Fehlern zu verhindern und möglicherweise zusätzlichen Schaden anzurichten, bleiben die Suchbegriffe deaktiviert.”

Die Einführung dieser Art von Änderungen kann auch kulturell und politisch herausfordernd sein, da sie allgemeinere Schwierigkeiten bei der Integration dieser Art von Technologie in die Gesellschaft widerspiegelt. Im Falle der Filterung von Bildsuchergebnissen stellt Doshi beispielsweise fest, dass „Vielfalt“ in verschiedenen Ländern unterschiedlich aussehen kann, und wenn Google Bildergebnisse basierend auf dem Hautton anpasst, muss es diese Ergebnisse möglicherweise basierend auf der Region ändern.

„Was Vielfalt zum Beispiel bedeutet, wenn wir Ergebnisse in Indien präsentieren [or] Wenn wir Ergebnisse in verschiedenen Teilen der Welt präsentieren, wird es von Natur aus anders sein “, sagt Doshi. “Es ist schwer zu sagen: ‘Oh, das ist genau die Menge an guten Ergebnissen, die wir wollen’, denn das wird je nach Benutzer, Region und Abfrage unterschiedlich sein.”

Die Einführung einer neuen und umfassenderen Skala zur Messung von Hauttönen ist ein Schritt nach vorne, aber viele heiklere Probleme im Zusammenhang mit KI und Voreingenommenheit bleiben bestehen.

Leave a Reply

Your email address will not be published.