Jak rozwiązać problem taki jak internet? To pytanie, które, szczerze mówiąc, nie miałoby większego sensu nawet ćwierć wieku temu. Internet, dzięki możliwości rozpowszechniania informacji i wartości demokratycznych w każdym odległym zakątku Ziemi, był odpowiedź.
Zawartość
- Głos dla tych, którzy nie mają głosu
- Podkreślaj pozytyw
- Żadnych łatwych poprawek
Proszenie o lekarstwo na Internet było jak proszenie o lekarstwo na lekarstwo na raka. Tutaj, w 2020 r., obraz jest nieco bardziej zamazany. Tak, Internet jest zdumiewająco genialny do wielu rzeczy. Ale stwarza to również problemy, począwszy od rozpowszechnianie fałszywych wiadomości do, cóż, cyfrowego szamba, jakim jest każda sekcja komentarzy na YouTube. Inaczej mówiąc, Internet może być bardzo toksyczny. Jak to posprzątać?
Nie ma tu prostych odpowiedzi. Czy odpowiedzią jest cenzura algorytmiczna czy kierowana przez człowieka? Czy powinniśmy zamknąć wszystkie sekcje z komentarzami na kontrowersyjne tematy? Czy platforma prywatna naprawdę musi czuć się zobowiązana do zapewnienia każdemu głosu? Jak blokowanie skrajnych opinii dla dobra publicznego ma się do marzenia Internetu o oddaniu głosu każdemu?
Powiązany
- Analogowa sztuczna inteligencja? Brzmi szalenie, ale może to być przyszłość
- Przeczytaj niesamowicie piękne „syntetyczne pismo” AI. który myśli, że jest Bogiem
- Architektura algorytmiczna: czy powinniśmy pozwolić A.I. projektować dla nas budynki?
Naukowcy z Carnegie Mellon University stworzyli nowe, intrygujące narzędzie, które ich zdaniem może okazać się pomocne. Jest to algorytm sztucznej inteligencji, który nie blokuje negatywnej mowy, ale raczej podkreśla lub wzmacnia „mowę pomocy”, aby ułatwić jej znalezienie. Mają nadzieję, że przy okazji pomoże to w realizacji cybertopijnych ambicji lepszego uczynienia Internetu głosem wzmacniającym pozycję osób pozbawionych głosu.
Polecane filmy
Głos dla tych, którzy nie mają głosu
Sztuczna inteligencja opracowany przez zespół z Carnegie Mellon’s Instytut Technologii Językowych, przegląda komentarze w YouTube i podkreśla komentarze, które w tym przypadku bronią mniejszości pozbawionych praw wyborczych, takich jak społeczność Rohingya, lub sympatyzują z nimi. Od października 2016 r. muzułmański lud Rohingja jest przedmiotem szeregu, w dużej mierze ciągłych, prześladowań ze strony rządu Birmy. Kryzys ludobójczy zmusił ponad milion Rohingjów do ucieczki do krajów sąsiadujących. To rozpaczliwa sytuacja obejmująca prześladowania religijne i czystki etniczne – ale niekoniecznie można to poznać z wielu komentarzy, które pojawiły się w lokalnych mediach społecznościowych; przytłaczająca liczba komentarzy na temat drugiej strony problemu.
„Opracowaliśmy ramy wspierania sprawy pozbawionej praw mniejszości – w tym przypadku Rohingjów – w celu automatycznego wykrywania wspierających ich treści internetowych” Ashique Khudabukhsh, naukowiec zajmujący się projektem na Wydziale Informatyki w Carnegie Mellon, powiedział Digital Trends. „Skoncentrowaliśmy się na YouTube, platformie mediów społecznościowych niezwykle popularnej w Azji Południowej. Z naszych analiz wynika, że duża liczba komentarzy na temat Rohingjów była wobec nich pogardliwa. Opracowaliśmy zautomatyzowaną metodę wykrywania komentarzy popierających ich sprawę, które w przeciwnym razie zostałyby zagłuszone przez ogromną liczbę ostrych, negatywnych komentarzy”.
„Z ogólnego punktu widzenia nasza praca różni się od tradycyjnej pracy związanej z wykrywaniem mowy nienawiści, na której skupiamy się głównie polega na blokowaniu negatywnych treści, [chociaż jest to] aktywny i bardzo ważny obszar badawczy”, Khudabukhsh nieprzerwany. „Z drugiej strony nasza praca polegająca na wykrywaniu wspierających komentarzy – co nazywamy mową pomocy – wyznacza nowy kierunek poprawy doświadczeń online poprzez wzmacnianie pozytywów”.
Aby wyszkolić ich sztuczną inteligencję. filtrowania, badacze zebrali ponad ćwierć miliona komentarzy na YouTube. Korzystając z najnowocześniejszej technologii modelowania językowego, stworzyli algorytm, który może przeszukiwać te komentarze i szybko wyróżniać komentarze, które opowiadają się za społecznością Rohingya. Zautomatyzowana analiza semantyczna komentarzy użytkowników nie jest, jak można się spodziewać, łatwa. Na samym subkontynencie indyjskim obowiązują 22 główne języki. Podczas oceny języka często występują również błędy ortograficzne i niestandardowe odmiany pisowni.
Podkreślaj pozytyw
Niemniej jednak A.I. opracowane przez zespół były w stanie znacznie zwiększyć widoczność pozytywnych komentarzy. Co ważniejsze, był w stanie to zrobić znacznie szybciej, niż byłoby to możliwe w przypadku moderatora będącego człowiekiem, którzy nie byliby w stanie ręcznie przeglądać dużej liczby komentarzy w czasie rzeczywistym i przypinać konkretnych uwagi. Może to być szczególnie ważne w scenariuszach, w których jedna ze stron może mieć ograniczone umiejętności w zakresie dominującego języka, do którego dostęp jest ograniczony Internecie lub kwestiach o wyższym priorytecie (czytaj: unikanie prześladowań), które mogą mieć pierwszeństwo przed uczestnictwem w Internecie rozmowy.
„A co, jeśli nie uczestniczysz w globalnej dyskusji na twój temat i nie możesz się obronić?”
„Wszyscy doświadczyliśmy bycia tym jednym przyjacielem, który wstawiał się za innym przyjacielem podczas jego nieobecności” – kontynuował Khudabukhsh. „Teraz rozważmy to w skali globalnej. A co jeśli nie uczestniczysz w globalnej dyskusji na Twój temat i nie możesz się obronić? Jak A.I. pomóc w tej sytuacji? Nazywamy to problemem XXI wieku: kryzysy migracyjne w dobie wszechobecnego Internetu, gdzie głosy uchodźców są nieliczne. Uważamy, że w przyszłości kwestie geopolityczne, klimat i zasoby mogą wywołać nowe kryzysy migracyjne, a nasza praca na rzecz obrony zagrożonych społeczności w świecie online jest niezwykle ważna”.
Ale czy wystarczy samo uwypuklenie głosów pewnych mniejszości, czy też jest to jedynie algorytmiczna wersja powtarzanej co kilka lat koncepcji uruchomienia serwisu informacyjnego, który podaje wyłącznie dobre wiadomości? Być może w pewnym sensie, ale wykracza to daleko poza zwykłe podkreślanie symbolicznych komentarzy bez oferowania sposobów rozwiązania szerszych problemów. Mając to na uwadze, naukowcy rozszerzyli już projekt, aby przyjrzeć się sposobom wykorzystania sztucznej inteligencji. można wykorzystać do wzmocnienia pozytywnych treści w inny, ale mimo to duży wpływ społeczny scenariusze. Jednym z przykładów są dyskusje w Internecie podczas wzmożonego napięcia politycznego między przeciwnikami nuklearnymi. Prace te, które zespół zaprezentuje w czerwcu na Europejskiej Konferencji na temat Sztucznej Inteligencji (ECAI 2020), mogą pomóc w wykrywaniu i prezentowaniu treści szerzących wrogość. Podobną technologię można stworzyć dla wielu innych scenariuszy – z odpowiednim dostosowaniem do każdego z nich.
Są to wskaźniki akceptacji dla #ECAI2020 składki:
– Artykuły pełne: 26,8%
– Papiery wyróżnione: 45%Dziękujemy bardzo za wysiłek włożony w proces recenzji!
— ECAI2020 (@ECAI2020) 15 stycznia 2020 r
„Podstawowe założenie dotyczące tego, jak można pomóc społeczności, zależy od społeczności, o której mowa” – powiedział Khudabukhsh. „Nawet różne kryzysy uchodźcze wymagałyby różnych koncepcji pomocy. Na przykład w sytuacjach kryzysowych, w których głównym problemem jest wybuch choroby zakaźnej, zapewnienie pomocy medycznej może być niezwykle pomocne. Dla niektórych grup znajdujących się w niekorzystnej sytuacji ekonomicznej podkreślanie historii sukcesu członków społeczności może być czynnikiem motywującym. Dlatego każda społeczność wymagałaby różnych, bardziej szczegółowych klasyfikatorów mowy, aby automatycznie znajdować pozytywne treści. Nasza praca stanowi dla tego wzór.”
Żadnych łatwych poprawek
Choć ta praca jest fascynująca, nie ma łatwych rozwiązań, jeśli chodzi o rozwiązanie problemu mowy w Internecie. Częścią wyzwania jest to, że obecny Internet nagradza głośne głosy. Na przykład algorytm Google PageRank ocenia strony internetowe według ich postrzeganej ważności, zliczając liczbę i jakość linków do strony. Popularne tematy na Twitterze zależą od tego, o czym tweetuje największa liczba osób. Sekcje komentarzy często podkreślają te opinie, które wywołują najsilniejsze reakcje.
Niewyobrażalnie duża liczba głosów w Internecie może zagłuszyć głosy sprzeciwu; często marginalizujące głosy, które przynajmniej w teorii mają ten sam poziom co wszyscy inni.
Zmiana tego będzie wymagała znacznie więcej niż jednego fajnego algorytmu przeszukiwania komentarzy w YouTube. Nie jest to jednak zły początek.
Zalecenia redaktorów
- Wykończenie: jak naukowcy nadają robotom zmysły dotyku przypominające ludzkie
- Zabawna formuła: dlaczego humor generowany maszynowo jest świętym Graalem sztucznej inteligencji?
- sztuczna inteligencja zazwyczaj niczego nie zapomina, ale nowy system Facebooka tak. Dlatego
- Sztuczna inteligencja wyczuwająca emocje już tu jest i może pojawić się podczas Twojej następnej rozmowy kwalifikacyjnej
- Supermodelka językowa: jak GPT-3 po cichu wprowadza A.I. rewolucja