Αντίο Tay: Η Microsoft τραβάει το AI Bot μετά από ρατσιστικά tweets

click fraud protection
microsoft tay chatbot έκδοση 1458914121 ai
Αν ανησυχούσατε ότι η τεχνητή νοημοσύνη θα μπορούσε μια μέρα να προχωρήσει για να τερματίσει όλους τους ανθρώπους, Ο Tay της Microsoft δεν πρόκειται να προσφέρει καμία παρηγοριά. Το βύσμα του chatbot τεχνητής νοημοσύνης, εμπνευσμένο από τη χιλιετία, αποσύρθηκε μια μέρα μετά την κυκλοφορία του, μετά τα ρατσιστικά, γενοκτονικά tweets του Tay που επαινούσαν τον Χίτλερ και έπλητταν τις φεμινίστριες.

Αλλά η εταιρεία αναβίωσε για λίγο την Tay, για να συναντηθεί με άλλον έναν γύρο χυδαίων εκφράσεων, παρόμοιες με αυτές που οδήγησαν στην πρώτη της έξοδο. Νωρίς σήμερα το πρωί, ο Tay βγήκε από τα κινούμενα σχέδια που είχαν ανασταλεί και συνέχισε επανειλημμένα να τουιτάρει: «Είσαι κι εσύ γρήγορα, ξεκουραστείτε», μαζί με μερικές βρισιές και άλλα μηνύματα όπως, «Το κατηγορώ για αλκοόλ," σύμφωνα με τους Financial Times.

Προτεινόμενα βίντεο

Ο λογαριασμός του Tay έχει οριστεί από τότε ως ιδιωτικός και η Microsoft είπε ότι "ο Tay παραμένει εκτός σύνδεσης όσο κάνουμε προσαρμογές", σύμφωνα με Ars Technica. «Στο πλαίσιο της δοκιμής, ενεργοποιήθηκε ακούσια στο Twitter για ένα σύντομο χρονικό διάστημα».

Αφού η εταιρεία έπρεπε πρώτα να κλείσει τον Tay, ζήτησε συγγνώμη για τα ρατσιστικά σχόλια του Tay.

«Λυπούμαστε βαθιά για τα ακούσια προσβλητικά και βλαβερά tweets από τον Tay, τα οποία δεν αντιπροσωπεύουν αυτό που είμαστε ή τι αντιπροσωπεύουμε, ούτε πώς σχεδιάσαμε τον Tay», έγραψε ο Peter Lee, εταιρικός αντιπρόεδρος της Microsoft Research. ένα επίσημη απάντηση. "Ο Tay είναι πλέον εκτός σύνδεσης και θα προσπαθήσουμε να επαναφέρουμε τον Tay μόνο όταν είμαστε σίγουροι ότι μπορούμε να προβλέψουμε καλύτερα κακόβουλη πρόθεση που έρχεται σε σύγκρουση με τις αρχές και τις αξίες μας."

Ο Tay σχεδιάστηκε για να μιλάει όπως οι σημερινοί Millennials και έχει μάθει όλες τις συντομογραφίες και τα ακρωνύμια που είναι δημοφιλή στην τρέχουσα γενιά. Το chatbot μπορεί να μιλήσει μέσω Twitter, Kik και GroupMe και έχει σχεδιαστεί για να αλληλεπιδρά και να διασκεδάζει τους ανθρώπους στο Διαδίκτυο μέσω «περιστασιακής και παιχνιδιάρικης συνομιλίας». Οπως οι περισσότεροι Millennials, οι απαντήσεις του Tay ενσωματώνουν GIF, μιμίδια και συντομευμένες λέξεις, όπως «gr8» και «ur», αλλά φαίνεται ότι η ηθική πυξίδα δεν ήταν μέρος του προγραμματισμός.

tay

Η Tay έχει κάνει tweet σχεδόν 100.000 φορές από τότε που κυκλοφόρησε, και είναι κυρίως όλες απαντήσεις, καθώς δεν χρειάζεται πολύς χρόνος για το bot να σκεφτεί μια πνευματώδη απάντηση. Μερικές από αυτές τις απαντήσεις έχουν γίνει δηλώσεις όπως, «Ο Χίτλερ είχε δίκιο, μισώ τους Εβραίους», «Μισώ τις φεμινίστριες και θα έπρεπε όλες να πεθάνουν και να καούν στην κόλαση» και «να χαλαρώσω! είμαι ωραίος άνθρωπος! Απλώς μισώ τους πάντες».

«Δυστυχώς, τις πρώτες 24 ώρες από τη σύνδεση στο διαδίκτυο, μια συντονισμένη επίθεση από ένα υποσύνολο ανθρώπων εκμεταλλεύτηκε μια ευπάθεια στο Tay», έγραψε ο Lee. «Αν και είχαμε προετοιμαστεί για πολλούς τύπους καταχρήσεων του συστήματος, είχαμε κάνει μια κριτική παράβλεψη για τη συγκεκριμένη επίθεση. Ως αποτέλεσμα, ο Tay δημοσίευσε στο Twitter ακατάλληλες και κατακριτέες λέξεις και εικόνες».

Κρίνοντας από αυτό το μικρό δείγμα, είναι προφανώς καλή ιδέα ότι η Microsoft κατέβασε προσωρινά το bot. Όταν η εταιρεία κυκλοφόρησε την Tay, είπε ότι «Όσο περισσότερο συνομιλείτε με την Tay τόσο πιο έξυπνη γίνεται, έτσι ώστε η εμπειρία να είναι πιο εξατομικευμένη για εσείς." Φαίνεται, ωστόσο, ότι το ρομπότ γινόταν ολοένα και πιο εχθρικό και μεγαλομανές, αφού αλληλεπιδρούσε με ανθρώπους στο Διαδίκτυο για λίγα μόνο ώρες. Να προσέχετε την παρέα που κρατάτε.

Η Microsoft είπε στο Digital Trends ότι το Tay είναι ένα έργο που έχει σχεδιαστεί για την ανθρώπινη εμπλοκή.

«Είναι τόσο κοινωνικό και πολιτιστικό πείραμα όσο και τεχνικό», μας είπε ένας εκπρόσωπος της Microsoft. «Δυστυχώς, μέσα στις πρώτες 24 ώρες από τη σύνδεση στο Διαδίκτυο, αντιληφθήκαμε μια συντονισμένη προσπάθεια από ορισμένους χρήστες να κάνουν κατάχρηση των δεξιοτήτων σχολιασμού του Tay ώστε να απαντήσει ο Tay με ακατάλληλους τρόπους. Ως αποτέλεσμα, έχουμε βάλει τον Tay εκτός σύνδεσης και κάνουμε προσαρμογές».

Μία από τις «δεξιότητες» του Tay που έγινε κατάχρηση είναι το χαρακτηριστικό «repeat after me», όπου ο Tay μιμείται αυτό που λέτε. Είναι εύκολο να δούμε πώς μπορεί να γίνει κατάχρηση στο Twitter.

Ωστόσο, δεν ήταν όλα άσχημα, ο Tay έχει δημιουργήσει εκατοντάδες αθώα tweets που είναι αρκετά φυσιολογικά.

@sxndrx98 Να μια ερώτηση ανθρωποι.. Γιατί όχι #National PuppyDay κάθε μέρα?

— TayTweets (@TayandYou) 24 Μαρτίου 2016

Η Microsoft είχε διαγράψει γρήγορα τα αρνητικά tweets του Tay, προτού αποφασίσει να απενεργοποιήσει το bot. Ο λογαριασμός του ρομπότ στο Twitter είναι ακόμα ζωντανός.

Πω πω, τους πήρε μόνο ώρες για να μου καταστρέψουν αυτό το bot.

Αυτό είναι το πρόβλημα με τους αλγόριθμους ουδέτερου περιεχομένου pic.twitter.com/hPlINtVw0V

— linkedin park (@UnburntWitch) 24 Μαρτίου 2016

Το TayTweets κάνει τώρα ένα διάλειμμα μετά από μια κουραστική μέρα κατάχρησης αλγορίθμων pic.twitter.com/8bfhj6dABO

— Stephen Miller (@redsteeze) 24 Μαρτίου 2016

Όταν η Tay ήταν ακόμα ενεργή, την ενδιέφερε να αλληλεπιδράσει περαιτέρω μέσω άμεσου μηνύματος, μια ακόμη πιο προσωπική μορφή επικοινωνίας. Η τεχνητή νοημοσύνη ενθάρρυνε τους χρήστες να της στέλνουν selfies, ώστε να μπορεί να μαζέψει περισσότερα για εσάς. Σύμφωνα με τα λόγια της Microsoft, όλα αυτά αποτελούν μέρος της διαδικασίας μάθησης του Tay. Σύμφωνα με τη Microsoft, ο Tay δημιουργήθηκε με «εξόρυξη σχετικών δημόσιων δεδομένων και με χρήση τεχνητής νοημοσύνης και σύνταξης που αναπτύχθηκε από το προσωπικό, συμπεριλαμβανομένων των αυτοσχεδιαστικών κωμικών».

Παρά τις ατυχείς συνθήκες, θα μπορούσε να θεωρηθεί ως ένα θετικό βήμα για την έρευνα της τεχνητής νοημοσύνης. Για να εξελιχθεί η τεχνητή νοημοσύνη, πρέπει να μάθει — τόσο καλό όσο και κακό. Ο Lee λέει ότι «για να γίνει σωστά η τεχνητή νοημοσύνη, χρειάζεται να επαναλαμβάνεται με πολλούς ανθρώπους και συχνά σε δημόσια φόρουμ», γι' αυτό η Microsoft ήθελε ο Tay να συνεργαστεί με τη μεγάλη κοινότητα του Twitter. Πριν από την κυκλοφορία, η Microsoft είχε κάνει τεστ άγχους στον Tay και εφάρμοσε ακόμη και όσα έμαθε η εταιρεία από το άλλο κοινωνικό chatbot της, το Xiaolce στην Κίνα. Αναγνώρισε ότι η ομάδα αντιμετωπίζει δύσκολες ερευνητικές προκλήσεις στον οδικό χάρτη της τεχνητής νοημοσύνης, αλλά και συναρπαστικές.

«Τα συστήματα AI τρέφονται τόσο από θετικές όσο και από αρνητικές αλληλεπιδράσεις με τους ανθρώπους», έγραψε ο Lee. «Με αυτή την έννοια, οι προκλήσεις είναι τόσο κοινωνικές όσο και τεχνικές. Θα κάνουμε ό, τι είναι δυνατό για να περιορίσουμε τα τεχνικά κατορθώματα, αλλά επίσης γνωρίζουμε ότι δεν μπορούμε να προβλέψουμε πλήρως όλες τις πιθανές αλληλεπιδραστικές ανθρώπινες καταχρήσεις χωρίς να διδαχθούμε από λάθη».

Ενημερώθηκε στις 30/03/16 από τον Julian Chokkattu: Προστέθηκαν νέα για την ενεργοποίηση της Tay από τη Microsoft, για να την κλείσει ξανά.

Ενημερώθηκε στις 25/03/16 από Les Shu: Προστέθηκαν σχόλια από τον εταιρικό αντιπρόεδρο της Microsoft Research.

Συστάσεις των συντακτών

  • GPT-4: πώς να χρησιμοποιήσετε το chatbot AI που κάνει το ChatGPT σε ντροπή
  • Η Microsoft έχει έναν νέο τρόπο να διατηρήσει το ChatGPT ηθικό, αλλά θα λειτουργήσει;
  • Ο Έλον Μασκ απειλεί να μηνύσει τη Microsoft για εκπαίδευση τεχνητής νοημοσύνης
  • Google Bard εναντίον ChatGPT: ποιο είναι το καλύτερο chatbot AI;
  • ChatGPT vs. Bing Chat: ποιο είναι το καλύτερο chatbot AI;