Zwei Google-Führungskräfte sagten am Freitag, dass Voreingenommenheit in der künstlichen Intelligenz bereits marginalisierte Gemeinschaften in Amerika schädige und dass mehr getan werden müsse, um sicherzustellen, dass dies nicht geschieht. X. Eyeé, Outreach-Leiter für verantwortungsvolle Innovation bei Google, und Angela Williams, Richtlinienmanager bei Google, sprach bei (Nicht IRL) Pride Summit, eine Veranstaltung von Lesbians Who Tech & Allies, der weltweit größten technologieorientierten LGBTQ-Organisation für Frauen, nicht-binäre und transsexuelle Menschen auf der ganzen Welt.
In separateGesprächeSie befassten sich mit den Möglichkeiten, wie maschinelle Lerntechnologie eingesetzt werden kann, um der schwarzen Gemeinschaft und anderen Gemeinschaften in Amerika – und darüber hinaus auf der ganzen Welt – Schaden zuzufügen.
Empfohlene Videos
Verzerrungen in Algorithmen sind nicht nur ein Datenproblem. Die Entscheidung, KI zu verwenden, kann voreingenommen sein, die Art und Weise, wie der Algorithmus lernt, kann voreingenommen sein, und die Art und Weise, wie Benutzer beeinflusst werden/mit einem System interagieren/ein System wahrnehmen, kann Voreingenommenheit verstärken! Kasse
@timnitGebruWir arbeiten daran, mehr zu erfahren!- X. Eyeé??? (@TechWithX) 26. Juni 2020
Williams diskutierte den Einsatz von KI. für eine umfassende Überwachung, ihre Rolle in übermäßige Polizeiarbeitund seine Umsetzung für eine voreingenommene Verurteilung. „[Es ist] nicht, dass die Technologie rassistisch ist, aber wir können unsere eigene unbewusste Voreingenommenheit in die Technologie einbauen“, sagte sie. Williams hob das hervor Fall von Robert Julian-Borchak Williams, ein Afroamerikaner aus Detroit, der kürzlich fälschlicherweise verhaftet wurde, nachdem ein Gesichtserkennungssystem sein Foto fälschlicherweise mit Sicherheitsaufnahmen eines Ladendiebs abgeglichen hatte. Frühere Studien haben gezeigt, dass Gesichtserkennungssysteme Schwierigkeiten haben können zwischen verschiedenen schwarzen Menschen unterscheiden. „Hier kommt K.I. … Überwachung kann in der realen Welt furchtbar schief gehen“, sagte Williams.
X. Eyeé diskutierte auch, wie K.I. kann dazu beitragen, „unfaire Voreingenommenheit zu skalieren und zu verstärken“. Zusätzlich zu den eher quasi-dystopischen, aufmerksamkeitsstarken Verwendungen von Im Rahmen seines Projekts A.I. konzentrierte sich Eyeé auf die Art und Weise, wie sich Voreingenommenheit in scheinbar alltäglichere, alltägliche Nutzungen von Technologie einschleichen kann – einschließlich der von Google Werkzeuge. „Bei Google sind uns diese Herausforderungen nicht fremd“, sagte Eyeé. „In den letzten Jahren … gerieten wir mehrfach in die Schlagzeilen, weil sich unsere Algorithmen negativ auf die Menschen ausgewirkt haben.“ Google hat beispielsweise ein Tool dafür entwickelt Klassifizierung der Toxizität von Online-Kommentaren. Das kann zwar sehr hilfreich sein, war aber auch problematisch: Sätze wie „Ich bin eine schwarze schwule Frau“ wurden zunächst als eher eingestuft giftiger als „Ich bin ein weißer Mann.“ Dies war auf eine Lücke in den Trainingsdatensätzen zurückzuführen, bei der mehr Gespräche über bestimmte Identitäten geführt wurden als Andere.
Es gebe keine umfassenden Lösungen für diese Probleme, sagten die beiden Google-Manager. Wo immer Probleme gefunden werden, arbeitet Google daran, Voreingenommenheit auszuräumen. Aber die Bandbreite möglicher Orte, an denen Voreingenommenheit in Systeme eindringen kann – vom Design der Algorithmen bis hin zu deren Die Bereitstellung im gesellschaftlichen Kontext, in dem Daten erstellt werden, bedeutet, dass es immer Probleme geben wird Beispiele. Der Schlüssel liegt darin, sich dessen bewusst zu sein, die Prüfung solcher Tools zu ermöglichen und verschiedenen Gemeinschaften die Möglichkeit zu geben, sich über den Einsatz dieser Technologien Gehör zu verschaffen.
Empfehlungen der Redaktion
- Kann K.I. menschliche Ingenieure bei der Entwicklung von Mikrochips schlagen? Google glaubt es
- Die BigSleep A.I. ist wie die Google-Bildersuche nach Bildern, die noch nicht existieren
- Google holt Menschen zurück, um die Moderation von YouTube-Inhalten von der KI zu übernehmen.
- Fake-News? K.I. Der Algorithmus enthüllt politische Voreingenommenheit in den Geschichten, die Sie lesen
- K.I. Durch die Hochskalierung sieht dieser Film aus dem Jahr 1896 so aus, als wäre er in atemberaubendem 4K gedreht worden
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.