Hoe los je een probleem als internet op? Het is een vraag die, eerlijk gezegd, zelfs een kwart eeuw geleden weinig zin zou hebben gehad. Het internet, met zijn vermogen om zowel informatie als democratische waarden naar alle uithoeken van de aarde te verspreiden, was het antwoord.
Inhoud
- Een stem voor de stemlozen
- Het positieve benadrukken
- Geen gemakkelijke oplossingen
Vragen om een geneesmiddel voor het internet was hetzelfde als vragen om een geneesmiddel tegen kanker. Hier in 2020 is het beeld wat troebeler. Ja, internet is verbazingwekkend briljant voor allerlei dingen. Maar het levert ook problemen op, van de verspreiding van nepnieuws naar, nou ja, de digitale beerput die elke YouTube-commentaarsectie ooit is. Anders gezegd: internet kan op allerlei manieren giftig zijn. Hoe maken we het schoon?
Er zijn hier geen eenvoudige antwoorden. Is algoritmische of door mensen aangestuurde censuur het antwoord? Moeten we alle commentaarsecties over controversiële onderwerpen sluiten? Moet een particulier platform zich echt verplicht voelen om iedereen een stem te geven? Hoe komt het blokkeren van marginale meningen voor het algemeen belang overeen met de droom van het internet om iedereen een stem te geven?
Verwant
- Analoge AI? Het klinkt gek, maar het zou de toekomst kunnen zijn
- Lees het griezelig mooie ‘synthetische geschrift’ van een A.I. die denkt dat het God is
- Algoritmische architectuur: moeten we A.I. gebouwen voor ons ontwerpen?
Onderzoekers van de Carnegie Mellon Universiteit hebben een intrigerend nieuw hulpmiddel ontwikkeld waarvan zij denken dat het zou kunnen helpen. Het is een algoritme voor kunstmatige intelligentie dat niet werkt door negatieve spraak te blokkeren, maar eerder door ‘hulptoespraak’ te benadrukken of te versterken om het gemakkelijker te maken deze te vinden. In dit proces hopen ze dat het kan bijdragen aan de cybertopische ambitie om het internet beter tot een stem te maken voor het versterken van de stemlozen.
Aanbevolen video's
Een stem voor de stemlozen
De A.I. bedacht door het team, van Carnegie Mellon's Instituut voor Taaltechnologieën, doorzoekt YouTube-commentaren en benadrukt commentaren die, in dit geval, rechteloze minderheden zoals de Rohingya-gemeenschap verdedigen of sympathiseren. De islamitische Rohingya-bevolking is sinds oktober 2016 onderworpen aan een reeks grotendeels aanhoudende vervolgingen door de regering van Myanmar. De genocidecrisis heeft meer dan een miljoen Rohingya's gedwongen naar de buurlanden te vluchten. Het is een wanhopige situatie die gepaard gaat met religieuze vervolging en etnische zuivering – maar dat zou je niet noodzakelijkerwijs weten uit de vele commentaren die op lokale sociale media zijn verschenen; Het aantal reacties aan de andere kant van de kwestie is overweldigend.
“We hebben een raamwerk ontwikkeld om op te komen voor de zaak van een rechteloze minderheid – in dit geval de Rohingya’s – om automatisch webinhoud te detecteren die hen ondersteunt,” Ashique Khudabukhsh, een projectwetenschapper op de afdeling Computerwetenschappen van Carnegie Mellon, aan Digital Trends. “We concentreerden ons op YouTube, een socialemediaplatform dat immens populair is in Zuid-Azië. Uit onze analyses bleek dat een groot aantal opmerkingen over de Rohingya’s hen kleineerde. We hebben een geautomatiseerde methode ontwikkeld om opmerkingen te detecteren die hun zaak verdedigen en die anders zouden worden overstemd door een groot aantal harde, negatieve opmerkingen.”
“Vanuit een algemeen raamwerkperspectief verschilt ons werk van het traditionele detectiewerk voor haatzaaiende uitlatingen, waarop de nadruk ligt gaat over het blokkeren van de negatieve inhoud, [hoewel dit] een actief en zeer belangrijk onderzoeksgebied is”, aldus Khudabukhsh voortgezet. “Ons werk van het detecteren van ondersteunende opmerkingen – wat wij help-speech noemen – markeert daarentegen een nieuwe richting in het verbeteren van de online-ervaring door het versterken van de positieve punten.”
Om hun A.I. filtersysteem verzamelden de onderzoekers meer dan een kwart miljoen YouTube-reacties. Met behulp van geavanceerde taalkundige modelleringstechnologie creëerden ze een algoritme dat deze opmerkingen kan doorzoeken om snel opmerkingen te benadrukken die de kant van de Rohingya-gemeenschap kiezen. Geautomatiseerde semantische analyse van gebruikerscommentaren is, zoals je zou verwachten, niet eenvoudig. Alleen al op het Indiase subcontinent zijn er 22 grote talen. Er zijn ook vaak spelfouten en niet-standaard spellingsvariaties waarmee rekening moet worden gehouden als het gaat om het beoordelen van taal.
Het positieve benadrukken
Niettemin heeft de A.I. die door het team zijn ontwikkeld, hebben de zichtbaarheid van positieve reacties aanzienlijk kunnen vergroten. Belangrijker nog was dat zij dit veel sneller kon doen dan mogelijk zou zijn voor een menselijke moderator. die niet in staat zou zijn om grote hoeveelheden reacties in realtime handmatig door te nemen en met name vast te pinnen opmerkingen. Dit kan met name van belang zijn in scenario's waarin de ene partij beperkte vaardigheden heeft in een dominante taal, waartoe de toegang beperkt is het internet, of kwesties met een hogere prioriteit (lees: het vermijden van vervolging) die voorrang kunnen hebben op deelname aan online gesprekken.
“Wat als je niet aanwezig bent in een mondiale discussie over jou, en jezelf niet kunt verdedigen?”
“We hebben allemaal meegemaakt dat we die ene vriend waren die tijdens hun afwezigheid opkwam voor een andere vriend”, vervolgde Khudabukhsh. “Beschouw dit nu eens op mondiale schaal. Wat als je niet aanwezig bent in een mondiale discussie over jou, en jezelf niet kunt verdedigen? Hoe kan A.I. hulp in deze situatie? We noemen dit een probleem van de 21e eeuw: migrantencrises in het tijdperk van het alomtegenwoordige internet, waarin de stemmen van vluchtelingen schaars zijn. In de toekomst zijn we van mening dat geopolitieke kwesties, klimaat- en hulpbronnengerelateerde redenen nieuwe migrantencrises kunnen veroorzaken en ons werk om risicogemeenschappen in de online wereld te verdedigen is van groot belang.
Maar is het eenvoudigweg benadrukken van bepaalde minderheidsstemmen voldoende, of is dit slechts een algoritmische versie van het ouderwetse concept van het lanceren van een nieuwskanaal dat alleen goed nieuws vertelt? Misschien in sommige opzichten, maar het gaat ook veel verder dan alleen het benadrukken van symbolische opmerkingen, zonder manieren te bieden om bredere problemen aan te pakken. Met dat in gedachten hebben de onderzoekers het project al uitgebreid om te kijken naar manieren waarop A.I. kan worden gebruikt om positieve inhoud te versterken in andere, maar niettemin hoge sociale impact scenario's. Een voorbeeld zijn online discussies tijdens verhoogde politieke spanningen tussen nucleaire tegenstanders. Dit werk, dat het team in juni zal presenteren op de Europese Conferentie over Kunstmatige Intelligentie (ECAI 2020), zou kunnen worden gebruikt om vijandigheid verspreidende inhoud te helpen detecteren en presenteren. Soortgelijke technologie zou voor een groot aantal andere scenario's kunnen worden ontwikkeld, met voor elk een passend maatwerk.
Dit zijn de acceptatiepercentages voor #ECAI2020 bijdragen:
– Volledige papieren: 26,8%
– Markeerpapieren: 45%Hartelijk dank voor de moeite die u in het beoordelingsproces heeft gestoken!
— ECAI2020 (@ECAI2020) 15 januari 2020
“Het uitgangspunt van hoe een gemeenschap kan worden geholpen hangt af van de gemeenschap in kwestie”, aldus Khudabukhsh. “Zelfs verschillende vluchtelingencrises vereisen verschillende opvattingen over helpen. Bij crises waarbij het uitbreken van besmettelijke ziekten een groot probleem is, kan het verlenen van medische hulp bijvoorbeeld een enorme hulp zijn. Voor sommige economisch achtergestelde groepen kan het onder de aandacht brengen van succesverhalen van mensen in de gemeenschap een motiverende factor zijn. Daarom zou elke gemeenschap verschillende genuanceerde spraakclassificatoren nodig hebben om automatisch positieve inhoud te vinden. Ons werk biedt daarvoor een blauwdruk.”
Geen gemakkelijke oplossingen
Hoe fascinerend dit werk ook is, er zijn geen gemakkelijke oplossingen als het gaat om het oplossen van het probleem van online spraak. Een deel van de uitdaging is dat het internet zoals het nu bestaat, luide stemmen beloont. Het PageRank-algoritme van Google rangschikt bijvoorbeeld webpagina’s op basis van hun waargenomen belang door het aantal en de kwaliteit van links naar een pagina te tellen. Populaire onderwerpen op Twitter worden bepaald door waar het grootste aantal mensen over twittert. In de commentarensecties worden vaak de meningen belicht die de sterkste reacties uitlokken.
Het onvoorstelbaar grote aantal stemmen op internet kan afwijkende stemmen overstemmen; vaak marginaliserende stemmen die, althans in theorie, hetzelfde platform hebben als ieder ander.
Om dat te veranderen is veel meer nodig dan één cool YouTube-commentaarzoekalgoritme. Het is echter geen slecht begin.
Aanbevelingen van de redactie
- Finishing touch: hoe wetenschappers robots mensachtige tastzintuigen geven
- De grappige formule: waarom door machines gegenereerde humor de heilige graal is van A.I.
- AI normaal gesproken niets vergeet, maar het nieuwe systeem van Facebook wel. Dit is waarom
- Emotiegevoelige A.I. is hier, en het zou in je volgende sollicitatiegesprek kunnen zijn
- Taalsupermodel: hoe GPT-3 stilletjes de A.I. revolutie