Το διαδίκτυο έχει πρόβλημα ρητορικής μίσους.
Περιεχόμενα
- Αυτή είναι μια δουλειά για την αυτοματοποίηση. Περίπου
- Κάνοντας το πρόβλημα χειρότερο, όχι καλύτερο
- Πόλεμος σε δύο μέτωπα
- Μια διαρκής πρόκληση
- Το μέλλον του λόγου στο διαδίκτυο
Μεταβείτε σε οποιαδήποτε ενότητα σχολίων του YouTube ή αναζητήστε τα μέσα κοινωνικής δικτύωσης για μικρό χρονικό διάστημα και δεν θα βρείτε έλλειψη προσβλητικών, συχνά προκατειλημμένων σχολίων. Πώς όμως λύνετε αυτό το πρόβλημα; Και, κάνοντας αυτό, πώς θα αποφύγετε να το επιδεινώσετε κατά λάθος;
Αυτόν τον μήνα, δύο A.I που αναζητούν ρητορική μίσους. Ανακοινώθηκαν αλγόριθμοι: Ο ένας δημιουργήθηκε στο Ηνωμένο Βασίλειο, ο άλλος στις ΗΠΑ. Και οι δύο θα μπορούσαν μια μέρα να χρησιμοποιηθούν για να καθαρίσετε τα μέσα κοινωνικής δικτύωσης ή άλλες περιοχές του διαδικτυακού κόσμου και να τονίσετε τη ρητορική μίσους ή την προσβλητική ρητορική, ώστε να μπορεί να αναφερθεί, να διαγραφεί ή να αποκλειστεί.
Προτεινόμενα βίντεο
Το πρώτο, που αναπτύχθηκε από ερευνητές από το Πανεπιστήμιο του Έξετερ του Ηνωμένου Βασιλείου, είναι α
εργαλείο με το όνομα Λόλα που αξιοποιεί τις «πιό πρόσφατες εξελίξεις στην επεξεργασία της φυσικής γλώσσας και τη θεωρία συμπεριφοράς» για να σαρώσει χιλιάδες μηνύματα το λεπτό για να αποκαλύψει περιεχόμενο μίσους. «Το επίπεδο ακρίβειας είναι εξαιρετικό σε σύγκριση με τις υπάρχουσες λύσεις στην αγορά», Δρ Ντέιβιντ Λόπεζ, ένας από τους δημιουργούς της Lola, είπε στο Digital Trends.Το δεύτερο, το έργο του ερευνητές στο Πανεπιστήμιο της Νότιας Καλιφόρνια, ισχυρίζεται ότι είναι ικανός για κάτι παρόμοιο. «Ο αλγόριθμος που αναπτύξαμε είναι ένας ταξινομητής κειμένου, ο οποίος λαμβάνει αναρτήσεις στα μέσα κοινωνικής δικτύωσης —ή ενδεχομένως άλλο κείμενο— και προβλέπει εάν το κείμενο περιέχει ρητορική μίσους ή όχι». Μπρένταν Κένεντι, Διδάκτωρ επιστήμης υπολογιστών. φοιτητής που εργάστηκε στο έργο, είπε στο Digital Trends.
Αυτή είναι μια δουλειά για την αυτοματοποίηση. Περίπου
Για να κατανοήσουμε γιατί είναι απαραίτητο να στραφούμε σε αυτοματοποιημένες λύσεις για να λύσουμε αυτό το πιο ανθρώπινο πρόβλημα, είναι σημαντικό να κατανοήσουμε την τεράστια κλίμακα των μέσων κοινωνικής δικτύωσης. Κάθε δευτερόλεπτο της ημέρας αποστέλλονται κατά μέσο όρο 6.000 tweets. Αυτό ισοδυναμεί με 350.000 tweets το λεπτό, 500 εκατομμύρια tweets την ημέρα ή 200 δισεκατομμύρια tweets το χρόνο. Επί Facebook, περίπου 35 εκατομμύρια άνθρωποι ενημερώνουν την κατάστασή τους σε καθημερινή βάση.
Ακόμη και για καλά στελεχωμένους τεχνολογικούς γίγαντες, αυτοί οι αριθμοί καθιστούν ανέφικτο για τους ανθρώπινους συντονιστές να κάνουν την απαραίτητη μετριοπάθεια μόνοι τους. Τέτοιες αποφάσεις πρέπει να λαμβάνονται πολύ γρήγορα, όχι μόνο για να μένουν στην κορυφή του νέου περιεχομένου που παράγεται κάθε στιγμή, αλλά και για να μην είναι ορατά ορισμένα μηνύματα από μεγάλο αριθμό χρηστών. Οι καλά σχεδιασμένοι αλγόριθμοι είναι ο μόνος πρακτικός τρόπος επίλυσης αυτού του προβλήματος.
«Κάθε δευτερόλεπτο της ημέρας αποστέλλονται κατά μέσο όρο 6.000 tweets. Αυτό ισοδυναμεί με 350.000 tweets το λεπτό, 500 εκατομμύρια tweets την ημέρα ή 200 δισεκατομμύρια tweets το χρόνο».
Χρησιμοποιώντας τη μηχανική μάθηση, είναι δυνατό —τουλάχιστον θεωρητικά— να αναπτυχθούν εργαλεία που μπορούν να εκπαιδευτούν για την αναζήτηση ρητορικής μίσους ή προσβλητικής ομιλίας, ώστε να μπορεί να διαγραφεί ή να αναφερθεί. Αλλά αυτό δεν είναι εύκολο. Η ρητορική μίσους είναι ένας ευρύς και αμφισβητούμενος όρος. Οι προσπάθειες να οριστεί νομικά ή και ανεπίσημα μεταξύ των ανθρώπων αποδεικνύονται δύσκολες. Ορισμένα παραδείγματα ρητορικής μίσους μπορεί να είναι τόσο ξεκάθαρα που κανείς δεν μπορεί να τα αμφισβητήσει. Αλλά άλλες περιπτώσεις μπορεί να είναι πιο λεπτές. το είδος των ενεργειών που είναι πιο πιθανό να ταξινομηθούν ως «μικρο-επιθετικές». Όπως είπε περίφημα ο δικαστής του Ανωτάτου Δικαστηρίου των Ηνωμένων Πολιτειών, Πότερ Στιούαρτ, σχετικά με την αισχρότητα: «Το ξέρω όταν το βλέπω».
«Υπάρχουν πολλά είδη ρητορικής μίσους [και] προσβλητική γλώσσα», είπε ο Κένεντι στο Digital Trends. «Ορισμένες ρητορικές μίσους είναι εύκολο να επισημανθούν - για παράδειγμα, προσβολές. Αλλά η περισσότερη ρητορική μίσους είναι ρητορικά πολύπλοκη, δαιμονοποιεί και απανθρωποποιεί μέσω μεταφοράς, πολιτιστικά συγκεκριμένα στερεότυπα και «σφυρίχτρες για σκύλους».
Κάνοντας το πρόβλημα χειρότερο, όχι καλύτερο
Προηγούμενο A.I. Τα εργαλεία έχουν αποδειχθεί αναποτελεσματικά επειδή είναι πολύ ωμά ένα εργαλείο για να αποκαλυφθούν πιο περίπλοκα παραδείγματα προκατάληψης στο διαδίκτυο. Οι κακοσχεδιασμένοι αλγόριθμοι ανίχνευσης ρητορικής μίσους, δεν έχουν σταματήσει τη ρητορική μίσους στο διαδίκτυο στην πραγματικότητα αποδείχθηκε ότι ενισχύει πράγματα όπως η φυλετική προκατάληψη αποκλείοντας τα μη προσβλητικά tweets που στέλνονται από τη μειονότητα ομάδες. Αυτό θα μπορούσε να είναι κάτι τόσο απλό όσο το γεγονός ότι οι ταξινομητές ρητορικής μίσους είναι υπερευαίσθητοι σε όρους όπως "Μαύρος", "gay" ή "transgender" που μπορεί να είναι πιο πιθανό να συσχετιστεί με περιεχόμενο μίσους σε ορισμένα Ρυθμίσεις.
Ακριβώς όπως το διαβόητο chatbot Tay της Microsoft, το οποίο έμαθε ρατσιστική συμπεριφορά μετά από αλληλεπίδραση με χρήστες, οι ταξινομητές που έχουν εκπαιδευτεί σε πρωτότυπα δεδομένα κειμένου μέσων κοινωνικής δικτύωσης μπορεί να καταλήγουν να στηρίζονται σε μεγάλο βαθμό σε συγκεκριμένες λέξεις, ενώ αγνοούν ή αγνοούν το περιβάλλον τους.
μικρό
Η δυνατότητα καλύτερης ανάλυσης των διαδικτυακών μηνυμάτων στο πλαίσιο είναι αυτό που τα δύο νέα A.I. υπόσχονται συστήματα ανίχνευσης. Το σύστημα Lola του Ηνωμένου Βασιλείου ισχυρίζεται ότι είναι σε θέση να αναλύει 25.000 μηνύματα ανά λεπτό για να ανιχνεύσει επιβλαβείς συμπεριφορές - συμπεριλαμβανομένου του διαδικτυακού εκφοβισμού, του μίσους και της ισλαμοφοβίας - με ακρίβεια έως και 98%. Μέρος αυτού δεν εξετάζει μόνο λέξεις-κλειδιά, αλλά χρησιμοποιώντας μια «μηχανή ανίχνευσης συναισθημάτων» για να υπολογίσετε ποια συναισθήματα προκαλούνται στο κείμενο — είτε πρόκειται για αγάπη, θυμό, φόβο, εμπιστοσύνη ή άλλα.
Εν τω μεταξύ, το University of Southern California A.I. σύστημα ανίχνευσης υπόσχεται να εξετάσει το πλαίσιο καθώς και το περιεχόμενο.
«Η αφετηρία μας σε αυτήν την έρευνα είναι μια τυπική μέθοδος, η οποία κωδικοποιεί ακολουθίες από διακριτικά κειμένου σε αριθμητικά διανύσματα, τα οποία [στη συνέχεια] χρησιμοποιούνται για να εξάγουν πιθανολογικά την ετικέτα κλάσης «μίσος» ή «χωρίς μίσος»», Brandon είπε. «Χρησιμοποιώντας έναν αλγόριθμο «μετά την εξήγηση» που ανέπτυξαν τα μέλη της ομάδας μας, προγραμματίσαμε τη ρητορική μίσους ταξινομητές για να δίνουν λιγότερη σημασία στα αναγνωριστικά ομάδων και μεγαλύτερη σημασία στο περιβάλλον που περιβάλλει την ομάδα αναγνωριστικά."
Το σύστημα δοκιμάστηκε με την ανάλυση άρθρων από τον ιστότοπο της λευκής υπεροχής Stormfront και το πιο ουδέτερο ρεπορτάζ των New York Times. Οι δημιουργοί του ισχυρίζονται ότι ήταν σε θέση να ταξινομήσει το μίσος από το περιεχόμενο μη μίσους με επίπεδο ακρίβειας 90%.
Πόλεμος σε δύο μέτωπα
Ωστόσο, δεν είναι μόνο ανεξάρτητοι ερευνητές που αναπτύσσουν εργαλεία για τον εντοπισμό της ρητορικής μίσους. Τα κοινωνικά δίκτυα εργάζονται επίσης για να λύσουν αυτό το πρόβλημα.
«Τώρα αφαιρούμε 10 εκατομμύρια κομμάτια εχθρικός λόγος ένα τέταρτο», δήλωσε στο Digital Trends ο Amit Bhattacharyya, διευθυντής διαχείρισης προϊόντων στην ομάδα ακεραιότητας κοινότητας του Facebook. «Από αυτό, περίπου το 90% εντοπίστηκε πριν μας το αναφέρουν οι χρήστες. Έχουμε επενδύσει περισσότερα στον προληπτικό εντοπισμό περιεχομένου που ενδέχεται να παραβιάζει, συμπεριλαμβανομένης της ρητορικής μίσους, και βελτιωθήκαμε σε αυτό».
Οι τεχνικές ανίχνευσης του Facebook, εξήγησε ο Bhattacharyya, επικεντρώνονται σε πράγματα όπως η αντιστοίχιση κειμένου και εικόνας, στα οποία αναζητά εικόνες και πανομοιότυπες σειρές κειμένου που έχουν ήδη αφαιρεθεί ως ρητορική μίσους σε άλλα σημεία του πλατφόρμα. Χρησιμοποιεί επίσης ταξινομητές μηχανικής μάθησης που αναλύουν τη γλώσσα και άλλους τύπους περιεχομένου. Το Facebook έχει επιπλέον σημεία δεδομένων, καθώς μπορεί να δει τις αντιδράσεις και τα σχόλια σε μια ανάρτηση για να δει πώς Αυτά ταιριάζουν πολύ με κοινές φράσεις, μοτίβα και επιθέσεις που παρατηρήθηκαν προηγουμένως σε περιεχόμενο που παραβιάζει τη ρητορική μίσους πολιτικές.
«Η καταστολή της καταχρηστικής συμπεριφοράς στο διαδίκτυο δεν χρειάζεται να είναι αντιδραστική. Μπορεί επίσης να είναι προληπτική».
Το Twitter χρησιμοποιεί επίσης εργαλεία μηχανικής μάθησης για να καταπολεμήσει περιεχόμενο μίσους. Ορισμένα από αυτά βασίζονται σε λέξεις-κλειδιά, αλλά το Twitter αναλύει επιπλέον τη συμπεριφορά των χρηστών για να προσπαθήσει να προσδιορίσει πόσο άνετοι είναι οι χρήστες στις αλληλεπιδράσεις. Για παράδειγμα, ένας χρήστης που στέλνει tweet σε άλλο χρήστη και του απαντούν και στη συνέχεια ακολουθείται θα προβάλλεται διαφορετικά από αυτόν που κάνει tweet απευθείας σε άλλο άτομο επανειλημμένα αλλά αγνοείται ή αποκλείεται. Αυτές οι δυναμικές συμπεριφοράς μπορούν να βοηθήσουν στην αποκάλυψη μοτίβων παρενόχλησης ή ανεπιθύμητης στοχευμένης συμπεριφοράς που μπορεί στη συνέχεια να χρησιμοποιήσει το Twitter για να κατανοήσει καλύτερα το περιεχόμενο του τι συμβαίνει στην πλατφόρμα του.
Ωστόσο, ένας εκπρόσωπος του Twitter είπε στο Digital Trends ότι τα μηνύματα που έχουν επισημανθεί ως προσβλητικά ελέγχονται με μη αυτόματο τρόπο από ανθρώπους (με σειρά προτεραιότητας για τη μηχανή) ώστε να διαπιστωθεί ότι έχουν αναγνωριστεί σωστά ως τέτοιος.
Μια διαρκής πρόκληση
Ο Bhattacharyya του Facebook είπε ότι το κοινωνικό δίκτυο έχει σημειώσει «μεγάλη πρόοδο» όλα αυτά τα χρόνια στον περιορισμό της ρητορικής μίσους στις πλατφόρμες του και ότι η ομάδα του είναι περήφανη για όσα έχει καταφέρει. Ταυτόχρονα, ο Bhattacharyya είπε: «Η δουλειά μας δεν ολοκληρώνεται ποτέ και γνωρίζουμε ότι μπορεί να μην μπορέσουμε ποτέ να αποτρέψουμε κάθε περιεχόμενο μίσους να εμφανιστεί στις πλατφόρμες μας».
Η καταθλιπτική πραγματικότητα είναι ότι η διαδικτυακή ρητορική μίσους πιθανότατα δεν θα λυθεί ποτέ ως πρόβλημα. Τουλάχιστον, όχι χωρίς οι άνθρωποι να κάνουν μια αλλαγή. Το Διαδίκτυο θα μπορούσε, εις βάρος του, να ενισχύσει ορισμένες ανθρώπινες φωνές και να ενσωματώσει και να κωδικοποιήσει ιδιαίτερες ανθρώπινες προκαταλήψεις, αλλά αυτό οφείλεται στο γεγονός ότι η ανθρωπότητα είναι μεγάλη. Οποιαδήποτε προβλήματα υπάρχουν στον πραγματικό κόσμο, σε κάποιο βαθμό, θα ανοίξουν τον δρόμο τους στον διαδικτυακό κόσμο.
Τούτου λεχθέντος, η καταστολή της καταχρηστικής συμπεριφοράς στο διαδίκτυο δεν χρειάζεται να είναι αντιδραστική. Μπορεί επίσης να είναι προληπτικό. Για παράδειγμα, ο εκπρόσωπος του Twitter που μίλησε με το Digital Trends επεσήμανε ότι, από τους χρήστες που έχουν αποκλεισμένους λογαριασμούς για 12 ώρες λόγω παραβιάσεων των κανόνων, η πλειοψηφία προσβάλλει ξανά. Αυτό υποδηλώνει ότι μπορούν να συμβούν διδακτικές στιγμές. Είτε ζητούν πραγματικά τους χρήστες να επανεξετάσουν τη συμπεριφορά τους είτε απλώς τους σταματούν να συμπεριφέρονται με τρόπο που παραβιάζει τους κανόνες, ωστόσο μειώνει την ενοχλητική συμπεριφορά παραβίασης κανόνων στην πλατφόρμα.
Ο εκπρόσωπος είπε επίσης ότι το Twitter διερευνά τώρα ένα σύστημα που βασίζεται στο "nudge". Αυτό θα προσφέρει προτροπές προτού οι χρήστες κάνουν tweet, ειδοποιώντας τους ότι αυτό που πρόκειται να δημοσιεύσουν ενδέχεται να παραβιάζει τους κανόνες του Twitter. Αυτό μπορεί να οφείλεται σε μια συγκεκριμένη λέξη-κλειδί. Όταν μοιράζεστε ένα άρθρο που δεν έχετε ανοίξει μέσω Twitter, μπορεί επίσης να προσφέρει μια προειδοποίηση. Αυτό το σύστημα ώθησης δοκιμάστηκε πρόσφατα με μικρό αριθμό χρηστών. Ενώ η δοκιμή έχει πλέον ολοκληρωθεί, υπάρχει πιθανότητα να κυκλοφορήσει ως δυνατότητα σε όλους τους χρήστες στο μέλλον.
Το μέλλον του λόγου στο διαδίκτυο
Το ζήτημα της ρητορικής μίσους και άλλων προσβλητικών λόγου στα μέσα κοινωνικής δικτύωσης θα γίνει πιο πιεστικό. Στη Γαλλία, για παράδειγμα, α ο νόμος ψηφίστηκε τον Μάιο που απαιτεί την αφαίρεση ορισμένου εγκληματικού περιεχομένου από τα μέσα κοινωνικής δικτύωσης εντός μιας ώρας. Εάν δεν είναι, οι εν λόγω εταιρείες κοινωνικών μέσων θα αντιμετωπίσουν πρόστιμο έως και 4% των παγκόσμιων εσόδων τους. Άλλο «προδήλως παράνομο» περιεχόμενο πρέπει να αφαιρεθεί εντός 24 ωρών. Η υπουργός Δικαιοσύνης Nicole Belloubet είπε στο γαλλικό κοινοβούλιο ότι ο νόμος θα βοηθήσει στη μείωση της διαδικτυακής ρητορικής μίσους.
Κανένας τέτοιος νόμος δεν έχει προταθεί σοβαρά, από όσο γνωρίζουμε, στις Ηνωμένες Πολιτείες. Όμως, καθώς τα μέσα κοινωνικής δικτύωσης γίνονται ένα ολοένα μεγαλύτερο και πιο επιδραστικό μέρος του τρόπου επικοινωνίας μας, η καταστολή της τοξικής συμπεριφοράς θα γίνεται όλο και πιο σημαντική. Αυτό δεν είναι ένα πρόβλημα που μπορεί να αντιμετωπιστεί αποκλειστικά από ανθρώπινους συντονιστές. Αλλά είναι επίσης κάτι που, όταν πραγματοποιείται με χρήση A.I., πρέπει να γίνεται προσεκτικά — όχι απλώς για να διασφαλιστεί ότι βελτιώνει το πρόβλημα, αλλά για να εγγυηθεί ότι δεν θα το επιδεινώσει.
Το μέλλον του λόγου στο διαδίκτυο εξαρτάται από αυτό.
Συστάσεις των συντακτών
- Πώς η A.I. δημιούργησε αυτό το εκπληκτικό ρολό αθλητικών επισημάνσεων που δεν μπορείτε να σταματήσετε να παρακολουθείτε