Da un video di una vittima di suicidio su YouTube a annunci che hanno come target "odiatori degli ebrei" SU Facebook, le piattaforme di social media sono afflitte da contenuti inappropriati che riescono a sfuggire. In molti casi, la risposta della piattaforma è implementare algoritmi più intelligenti per identificare meglio i contenuti inappropriati. Ma cosa è realmente capace di cogliere l’intelligenza artificiale, quanto dovremmo fidarci di lei e dove fallisce miseramente?
“A.I. può captare il linguaggio offensivo e riconoscere molto bene le immagini. Il potere di identificare l’immagine è lì”, afferma Winston Binch, chief digital officer di
Tedesco, un'agenzia creativa che utilizza l'A.I. nella creazione di campagne digitali per marchi da Target a Taco Bell. “L’area grigia diventa l’intento.”A.I. può leggere sia testo che immagini, ma la precisione varia
Utilizzando l'elaborazione del linguaggio naturale, A.I. può essere addestrato a riconoscere il testo in più lingue. Un programma progettato per individuare post che violano le linee guida della community, ad esempio, può essere insegnato a rilevare insulti razzisti o termini associati alla propaganda estremista.
A.I. può anche essere addestrato a riconoscere le immagini, a prevenire alcune forme di nudità o a riconoscere simboli come la svastica. Funziona bene in molti casi, ma non è infallibile. Ad esempio, Google Foto è stato criticato per aver taggato le immagini di persone dalla pelle scura con la parola chiave "gorilla." Anni dopo, Google non ha ancora trovato una soluzione al problema, scegliendo invece di rimuoverlo IL la capacità del programma di taggare scimmie e gorilla interamente.
Anche gli algoritmi devono essere aggiornati man mano che il significato di una parola evolve o per capire come viene utilizzata una parola nel contesto. Ad esempio, gli utenti LGBT di Twitter hanno recentemente notato una mancanza di risultati di ricerca per #gay e #bisessuale, tra gli altri termini, portando alcuni a pensare che il servizio li stesse censurando. Twitter si è scusato per l'errore, incolpandolo un algoritmo obsoleto ciò identificava erroneamente i post contrassegnati con i termini come potenzialmente offensivi. Twitter ha affermato che il suo algoritmo avrebbe dovuto considerare il termine nel contesto del post, ma non è riuscito a farlo con quelle parole chiave.
A.I. è di parte
Il fallimento del gorilla tagging fa emergere un’altra importante lacuna: A.I. è di parte. Potresti chiederti come un computer possa essere parziale, ma l'A.I. viene addestrato osservando le persone completare le attività o inserendo i risultati di tali attività. Ad esempio, i programmi per identificare gli oggetti in una fotografia vengono spesso addestrati alimentando il sistema con migliaia di immagini inizialmente contrassegnate manualmente.
L’elemento umano è ciò che rende possibile all’A.I. svolgere compiti ma allo stesso tempo gli conferisce un pregiudizio umano.
L’elemento umano è ciò che rende possibile all’A.I. per completare compiti precedentemente impossibili su un software tipico, ma lo stesso elemento umano conferisce inavvertitamente un pregiudizio umano a un computer. Un'I.A. Il programma è valido tanto quanto i dati di addestramento: se il sistema fosse in gran parte alimentato da immagini di maschi bianchi, ad esempio, il programma avrebbe difficoltà a identificare le persone con altre tonalità della pelle.
“Un difetto dell’intelligenza artificiale, in generale, quando si tratta di moderare qualsiasi cosa, dai commenti agli utenti Il contenuto è che è intrinsecamente supponente in base alla progettazione", ha affermato PJ Ahlberg, il tecnico esecutivo direttore di Stink Studios di New York, un'agenzia che utilizza l'A.I. per creare bot sui social media e moderare le campagne del marchio.
Una volta sviluppato un set di formazione, i dati vengono spesso condivisi tra gli sviluppatori, il che significa che la distorsione si diffonde a più programmi. Ahlberg afferma che questo fattore significa che gli sviluppatori non sono in grado di modificare tali set di dati nei programmi che utilizzano più A.I. sistemi, rendendo difficile rimuovere eventuali pregiudizi dopo averli scoperti.
A.I. non è possibile determinare l'intento
A.I. può rilevare una svastica in una fotografia, ma il software non è in grado di determinare come viene utilizzata. Facebook, ad esempio, si è recentemente scusato rimozione di un post che conteneva una svastica ma era accompagnato da un appello testuale per fermare la diffusione dell'odio.
Questo è un esempio del fallimento di A.I. riconoscere l'intento. Facebook ha persino taggato una foto di la statua di Nettuno come sessualmente esplicito. Inoltre, gli algoritmi potrebbero involontariamente contrassegnare il lavoro fotogiornalistico a causa di simboli di odio o violenza che potrebbero apparire nelle immagini.
Le immagini storiche condivise per scopi educativi sono un altro esempio: nel 2016, Facebook ha causato una controversia rimossa la storica fotografia della “ragazza del napalm”. più volte prima che la pressione degli utenti costringesse l'azienda a cambiare la sua posizione dura sulla nudità e a ripristinare la foto.
A.I. tende a servire come screening iniziale, ma spesso sono ancora necessari moderatori umani per determinare se il contenuto viola effettivamente gli standard della comunità. Nonostante i miglioramenti all’intelligenza artificiale, questo non è un dato di fatto che sta cambiando. Facebook, ad esempio, quest’anno sta aumentando le dimensioni del suo team di revisione portandolo a 20.000, il doppio rispetto allo scorso anno.
A.I. aiuta gli esseri umani a lavorare più velocemente
Potrebbe ancora essere necessario un cervello umano, ma l’A.I. ha reso il processo più efficiente. A.I. può aiutare a determinare quali post richiedono una revisione umana, nonché a dare priorità a tali post. Nel 2017, Facebook lo ha condiviso A.I. progettato per individuare tendenze suicide aveva provocato 100 chiamate ai soccorritori in un mese. Al momento,
Getty Images/Blackzheep
“[A.I. ha] fatto molta strada e sta sicuramente facendo progressi, ma la realtà è che hai ancora molto bisogno di una verifica da parte dell'elemento umano che stai modificando le parole giuste, il contenuto giusto e il messaggio giusto", ha affermato Chris Mele, amministratore delegato di Stink Studi. “Dove sembra che A.I. funziona meglio è facilitare i moderatori umani e aiutarli a lavorare più velocemente e su scala più ampia. Non penso che l’A.I. è quasi automatizzato al 100% su qualsiasi piattaforma."
A.I. è veloce, ma l'etica è lenta
La tecnologia, in generale, tende a crescere a un ritmo più veloce di quanto le leggi e l’etica possano tenere il passo – e la moderazione dei social media non fa eccezione. Binch suggerisce che questo fattore potrebbe significare un aumento della domanda di dipendenti con un background in discipline umanistiche o etiche, qualcosa che la maggior parte dei programmatori non ha.
Come ha detto, “Siamo arrivati a un punto in cui il ritmo, la velocità, è così veloce, che dobbiamo assicurarci che la componente etica non venga trascinata troppo indietro”.
Raccomandazioni degli editori
- Quando i diritti d'autore rendono difficile la ricerca delle colonne sonore dei video, questa A.I. il musicista può aiutare
- Dall'8K all'A.I., ecco cosa potrebbe arrivare sulle fotocamere nel 2019
- Presto i computer ci supereranno in astuzia. Questo rende un'A.I. ribellione inevitabile?