Van een video van een zelfmoordslachtoffer op YouTube naar advertenties gericht op ‘Jodenhaters’, op FacebookSocialemediaplatforms worden geplaagd door ongepaste inhoud die door de mazen van het net glipt. In veel gevallen is de reactie van het platform het implementeren van slimmere algoritmen om ongepaste inhoud beter te identificeren. Maar wat kan kunstmatige intelligentie werkelijk vangen, hoeveel moeten we erop vertrouwen, en waar faalt het jammerlijk?
“A.I. kan aanstootgevende taal oppikken en kan afbeeldingen zeer goed herkennen. De kracht van het identificeren van het beeld is aanwezig”, zegt Winston Binch, de Chief Digital Officer van
Duits, een creatief bureau dat gebruik maakt van A.I. bij het creëren van digitale campagnes voor merken van Target tot Taco Bell. “Het grijze gebied wordt de bedoeling.”AI kan zowel tekst als afbeeldingen lezen, maar de nauwkeurigheid varieert
Met behulp van natuurlijke taalverwerking kan A.I. kan worden getraind om tekst in meerdere talen te herkennen. Een programma dat is ontworpen om berichten op te sporen die in strijd zijn met de richtlijnen van de gemeenschap, kan bijvoorbeeld worden geleerd racistische opmerkingen of termen die verband houden met extremistische propaganda op te sporen.
AI kan ook worden getraind om afbeeldingen te herkennen, om bepaalde vormen van naaktheid te voorkomen of om symbolen zoals de swastika te herkennen. In veel gevallen werkt het goed, maar het is niet waterdicht. Google Foto's kreeg bijvoorbeeld kritiek omdat het afbeeldingen van mensen met een donkere huidskleur met het trefwoord tagde "gorilla." Jaren later heeft Google nog steeds geen oplossing voor het probleem gevonden, maar ervoor gekozen om het te verwijderen de het vermogen van het programma om apen en gorilla's te taggen geheel.
Algoritmen moeten ook worden bijgewerkt naarmate de betekenis van een woord evolueert, of om te begrijpen hoe een woord in de context wordt gebruikt. Zo merkten LHBT-Twitter-gebruikers onlangs een gebrek aan zoekresultaten voor onder andere #homo en #biseksueel, waardoor sommigen het gevoel kregen dat de dienst hen censureerde. Twitter verontschuldigde zich voor de fout en gaf er de schuld aan een verouderd algoritme dat was het ten onrechte identificeren van berichten die waren getagd met de voorwaarden als mogelijk aanstootgevend. Twitter zei dat het algoritme de term in de context van het bericht moest beschouwen, maar dat dit met die trefwoorden niet was gelukt.
AI is bevooroordeeld
Het mislukken van het taggen van de gorilla brengt nog een belangrijke tekortkoming naar voren: AI is bevooroordeeld. Je vraagt je misschien af hoe een computer bevooroordeeld kan zijn, maar A.I. wordt getraind door te kijken hoe mensen taken voltooien, of door de resultaten van die taken in te voeren. Programma's om objecten op een foto te identificeren, worden bijvoorbeeld vaak getraind door duizenden afbeeldingen aan het systeem te leveren die aanvankelijk met de hand waren getagd.
Het menselijke element maakt het voor A.I. om taken uit te voeren, maar geeft het tegelijkertijd menselijke vooroordelen.
Het menselijke element maakt het voor A.I. om taken uit te voeren die voorheen onmogelijk waren met typische software, maar datzelfde menselijke element geeft ook onbedoeld menselijke vooroordelen aan een computer. Een A.I. programma is slechts zo goed als de trainingsgegevens – als het systeem bijvoorbeeld grotendeels zou worden gevoed met afbeeldingen van blanke mannen, zal het programma moeite hebben mensen met een andere huidskleur te identificeren.
“Een tekortkoming van AI in het algemeen als het gaat om het modereren van alles, van opmerkingen tot gebruikers inhoud, is dat het inherent eigenzinnig is door het ontwerp”, zegt PJ Ahlberg, technisch directeur regisseur van Stinkstudio's New York, een bureau dat gebruik maakt van A.I. voor het maken van sociale media-bots en het modereren van merkcampagnes.
Zodra een trainingsset is ontwikkeld, worden die gegevens vaak gedeeld tussen ontwikkelaars, wat betekent dat de bias zich naar meerdere programma's verspreidt. Ahlberg zegt dat deze factor betekent dat ontwikkelaars die datasets niet kunnen wijzigen in programma's die meerdere AI-systemen gebruiken. systemen, waardoor het moeilijk wordt eventuele vooroordelen weg te nemen nadat ze zijn ontdekt.
AI kan de bedoeling niet vaststellen
AI kan een swastika op een foto detecteren, maar de software kan niet bepalen hoe deze wordt gebruikt. Facebook heeft bijvoorbeeld onlangs zijn excuses aangeboden het verwijderen van een bericht met een swastika maar ging vergezeld van een pleidooi om de verspreiding van haat te stoppen.
Dit is een voorbeeld van het falen van A.I. opzet herkennen. Facebook heeft er zelfs een foto van getagd het standbeeld van Neptunus als seksueel expliciet. Bovendien kunnen algoritmen onbedoeld fotojournalistiek werk markeren vanwege haatsymbolen of geweld dat in de afbeeldingen kan voorkomen.
Historische afbeeldingen die voor educatieve doeleinden worden gedeeld, zijn een ander voorbeeld: in 2016 veroorzaakte Facebook daarna een controverse verwijderde de historische foto van het ‘napalmmeisje’ meerdere keren voordat de druk van gebruikers het bedrijf dwong zijn harde standpunt ten aanzien van naaktheid te veranderen en de foto te herstellen.
AI fungeert meestal als een eerste screening, maar er zijn vaak nog steeds menselijke moderators nodig om te bepalen of de inhoud daadwerkelijk de gemeenschapsnormen schendt. Ondanks verbeteringen aan AI is dit geen feit dat verandert. Facebook vergroot bijvoorbeeld de omvang van zijn beoordelingsteam dit jaar tot 20.000, een verdubbeling ten opzichte van vorig jaar.
AI helpt mensen sneller te werken
Een menselijk brein kan nog steeds nodig zijn, maar A.I. heeft het proces efficiënter gemaakt. AI kan helpen bepalen welke berichten een menselijke beoordeling vereisen, en helpen bij het prioriteren van die berichten. In 2017 deelde Facebook dat AI ontworpen om suïcidale neigingen op te sporen had geresulteerd in 100 oproepen naar de hulpdiensten in één maand. Destijds,
Getty Images/Blackzheep
“[A.I. heeft een lange weg afgelegd en boekt zeker vooruitgang, maar de realiteit is dat je nog steeds heel hard een menselijk element nodig hebt om dit te verifiëren dat je de juiste woorden, de juiste inhoud en de juiste boodschap aanpast”, zegt Chris Mele, directeur van Stink Studio's. “Waar het voelt dat A.I. wat het beste werkt, is het faciliteren van menselijke moderators en hen helpen sneller en op grotere schaal te werken. Ik denk niet dat A.I. is bijna 100 procent geautomatiseerd op elk platform.”
AI is snel, maar de ethiek is traag
Technologie heeft over het algemeen de neiging om sneller te groeien dan wetten en ethiek kunnen bijhouden – en moderatie op sociale media is daarop geen uitzondering. Binch suggereert dat deze factor zou kunnen leiden tot een grotere vraag naar werknemers met een achtergrond in de geesteswetenschappen of ethiek, iets wat de meeste programmeurs niet hebben.
Zoals hij het verwoordde: “We bevinden ons nu op een punt waar het tempo, de snelheid zo hoog is, dat we ervoor moeten zorgen dat de ethische component niet te ver achterop raakt.”
Aanbevelingen van de redactie
- Wanneer auteursrechten het moeilijk maken om videosoundtracks te vinden, kan deze A.I. muzikant kan helpen
- Van 8K tot AI, dit is wat er in 2019 naar camera's zou kunnen komen
- Computers zullen ons binnenkort te slim af zijn. Maakt dat een A.I. opstand onvermijdelijk?