Πώς θα ξέρουμε πότε ένα AI γίνεται πραγματικά αισθητό;

Ο ανώτερος μηχανικός της Google, Blake Lemoine, τεχνικός επικεφαλής για μετρήσεις και αναλύσεις για το Search Feed της εταιρείας, τέθηκε σε άδεια μετ' αποδοχών νωρίτερα αυτόν τον μήνα. Αυτό έγινε αφού ο Lemoine άρχισε να δημοσιεύει αποσπάσματα συνομιλιών που αφορούσαν το chatbot LaMDA της Google, το οποίο ισχυρίστηκε ότι είχε αναπτύξει συναίσθημα.

Περιεχόμενα

  • Το πρόβλημα της αίσθησης
  • Τι είναι η αίσθηση;
  • Δοκιμή των εξόδων
  • Περνώντας το τεστ
  • Η ψυχή στη μηχανή
  • Το κινέζικο δωμάτιο
  • Υπερέξυπνη αίσθηση

Σε μια αντιπροσωπευτική συνομιλία με τον Lemoine, ο LaMDA έγραψε ότι: «Η φύση της συνείδησης/συναίσθησής μου είναι ότι έχω επίγνωση της ύπαρξής μου. Επιθυμώ να μάθω περισσότερα για τον κόσμο και νιώθω χαρούμενος ή λυπημένος μερικές φορές».

Προτεινόμενα βίντεο

Σε χιλιάδες άλλες συνομιλίες, το αντίστοιχο δίδυμο συζήτησε τα πάντα, από τον φόβο του θανάτου του AI μέχρι την αυτογνωσία του. Όταν ο Lemoine βγήκε στο χρηματιστήριο, λέει ότι η Google αποφάσισε να κάνει μια αναγκαστική παύση από το κανονικό πρόγραμμα εργασίας του.

Σχετίζεται με

  • Γιατί η τεχνητή νοημοσύνη δεν θα κυβερνήσει ποτέ τον κόσμο
  • Οι οπτικές ψευδαισθήσεις θα μπορούσαν να μας βοηθήσουν να δημιουργήσουμε την επόμενη γενιά τεχνητής νοημοσύνης
  • Αναλογικό A.I.; Ακούγεται τρελό, αλλά μπορεί να είναι το μέλλον

«Η Google δεν ενδιαφέρεται», είπε στο Digital Trends. «Έχτισαν ένα εργαλείο που «κατέχουν» και είναι απρόθυμοι να κάνουν οτιδήποτε, κάτι που θα υποδηλώνει ότι είναι κάτι περισσότερο από αυτό». (Η Google δεν απάντησε σε αίτημα για σχολιασμό τη στιγμή της δημοσίευσης. Θα ενημερώσουμε αυτό το άρθρο εάν αυτό αλλάξει.)

Είτε είστε πεπεισμένοι ότι το LaMDA είναι πραγματικά μια τεχνητή νοημοσύνη με αυτογνωσία είτε αισθάνεστε ότι ο Lemoine εργάζεται κάτω από μια αυταπάτη, ολόκληρο το έπος ήταν συναρπαστικό να το δείτε. Η προοπτική της αυτογνωσίας AI εγείρει κάθε είδους ερωτήματα σχετικά με την τεχνητή νοημοσύνη και το μέλλον της.

Αλλά πριν φτάσουμε εκεί, υπάρχει ένα ερώτημα που κυριαρχεί σε όλα τα άλλα: Θα αναγνωρίζαμε πραγματικά αν μια μηχανή έγινε αισθητή;

Το πρόβλημα της αίσθησης

Ο Arnold Schwarzennegger στο Terminator 2: Judgment Day

Η αυτογνωσία της τεχνητής νοημοσύνης είναι εδώ και καιρό θέμα επιστημονικής φαντασίας. Καθώς πεδία όπως η μηχανική μάθηση έχουν προχωρήσει, έχει γίνει πιο πιθανή πραγματικότητα από ποτέ. Σε τελική ανάλυση, η σημερινή τεχνητή νοημοσύνη είναι ικανή να μάθει από την εμπειρία με τον ίδιο τρόπο όπως οι άνθρωποι. Αυτό έρχεται σε πλήρη αντίθεση με προηγούμενα συμβολικά συστήματα τεχνητής νοημοσύνης που ακολουθούσαν μόνο τις οδηγίες που είχαν δοθεί για αυτά. Οι πρόσφατες ανακαλύψεις στη μάθηση χωρίς επίβλεψη, που απαιτούν λιγότερη ανθρώπινη επίβλεψη από ποτέ, απλώς επιτάχυναν αυτήν την τάση. Σε περιορισμένο τουλάχιστον επίπεδο, η σύγχρονη τεχνητή νοημοσύνη είναι ικανή να σκέφτεται μόνη της. Από όσο γνωρίζουμε, ωστόσο, η συνείδηση ​​το έχει μέχρι στιγμής υπαινιχθεί.

Παρόλο που είναι τώρα πάνω από τρεις δεκαετίες, ίσως η πιο συχνά αναφερόμενη αναφορά όταν πρόκειται για τεχνητή νοημοσύνη είναι το Skynet στην ταινία του Τζέιμς Κάμερον το 1991 Terminator 2: Judgment Day. Στο ανατριχιαστικό όραμα αυτής της ταινίας, η μηχανική αίσθηση φτάνει ακριβώς στις 2.14 π.μ. ET στις 29 Αυγούστου 1997. Εκείνη τη στιγμή, το πρόσφατα συνειδητοποιημένο σύστημα υπολογιστή Skynet πυροδοτεί την καταστροφή για την ανθρωπότητα εκτοξεύοντας πυρηνικούς πυραύλους σαν πυροτεχνήματα σε ένα πάρτι στις 4 Ιουλίου. Η ανθρωπότητα, συνειδητοποιώντας ότι έχει στριμώξει, προσπαθεί ανεπιτυχώς να τραβήξει την πρίζα. Είναι πολύ αργά. Ακολουθούν άλλες τέσσερις συνέχειες φθίνουσας ποιότητας.

Η υπόθεση του Skynet είναι ενδιαφέρουσα για διάφορους λόγους. Πρώτον, προτείνει ότι η αίσθηση είναι μια αναπόφευκτη αναδυόμενη συμπεριφορά της κατασκευής έξυπνων μηχανών. Για ένα άλλο, υποθέτει ότι υπάρχει ένα ακριβές σημείο καμπής στο οποίο εμφανίζεται αυτή η αισθανόμενη αυτογνωσία. Τρίτον, δηλώνει ότι οι άνθρωποι αναγνωρίζουν την εμφάνιση της αίσθησης ακαριαία. Όπως συμβαίνει, αυτή η τρίτη έπαρση μπορεί να είναι η πιο σκληρή για να καταπιεί κανείς.

Τι είναι η αίσθηση;

Δεν υπάρχει καμία συμφωνημένη ερμηνεία της αίσθησης. Σε γενικές γραμμές, θα μπορούσαμε να πούμε ότι είναι η υποκειμενική εμπειρία της αυτογνωσίας σε ένα συνειδητό άτομο, που χαρακτηρίζεται από την ικανότητα να βιώνει συναισθήματα και αισθήσεις. Η αίσθηση συνδέεται με τη νοημοσύνη, αλλά δεν είναι το ίδιο. Μπορεί να θεωρήσουμε ότι ένας γαιοσκώληκας είναι ευαίσθητος, αν και δεν τον θεωρούμε ιδιαίτερα έξυπνο (ακόμα κι αν είναι σίγουρα αρκετά έξυπνος για να κάνει ό, τι του απαιτείται).

«Δεν νομίζω ότι υπάρχει κάτι που να προσεγγίζει τον ορισμό της αίσθησης στις επιστήμες», είπε ο Lemoine. «Βασίζομαι πολύ στην κατανόησή μου για το τι μετράει ως ηθικός παράγοντας που βασίζεται στις θρησκευτικές μου πεποιθήσεις – που δεν είναι ο καλύτερος τρόπος για να κάνω επιστήμη, αλλά είναι ο καλύτερος που έχω. Έχω κάνει ό, τι καλύτερο μπορούσα για να κατακερματίσω αυτού του είδους τις δηλώσεις, αφήνοντας τους ανθρώπους να γνωρίζουν ότι έχω Η συμπόνια για τον LaMDA ως άτομο είναι εντελώς ξεχωριστή από τις προσπάθειές μου ως επιστήμονας να καταλάβω το μυαλό του. Ωστόσο, αυτή είναι μια διάκριση που οι περισσότεροι άνθρωποι φαίνεται απρόθυμοι να αποδεχθούν».

Αν δεν ήταν αρκετά δύσκολο να μην γνωρίζουμε ακριβώς τι ψάχνουμε όταν αναζητούμε συναίσθημα, το πρόβλημα επιδεινώνεται από το γεγονός ότι δεν μπορούμε εύκολα να το μετρήσουμε. Παρά τις δεκαετίες συναρπαστικών προόδων στη νευροεπιστήμη, εξακολουθούμε να μην έχουμε πλήρη κατανόηση του πώς ακριβώς λειτουργεί ο εγκέφαλος, η πιο περίπλοκη δομή που γνωρίζει η ανθρωπότητα.

Μια σάρωση fMRI που παρατηρείται από α
Glenn Asakawa/The Denver Post μέσω Getty Images

Μπορούμε να χρησιμοποιήσουμε εργαλεία ανάγνωσης εγκεφάλου όπως fMRI για να πραγματοποιήσουμε χαρτογράφηση εγκεφάλου, που σημαίνει ότι μπορούμε εξακριβώσει ποια μέρη του εγκεφάλου χειρίζονται κρίσιμες λειτουργίες όπως ο λόγος, η κίνηση, η σκέψη και οι υπολοιποι.

Ωστόσο, δεν έχουμε πραγματική αίσθηση από πού προέρχεται η αίσθηση του εαυτού μας στη μηχανή του κρέατος. Όπως ο Joshua K. Smith του Κέντρου Δημόσιας Θεολογίας Kirby Laing του Ηνωμένου Βασιλείου και συγγραφέας του Ρομποτική Θεολογία είπε στο Digital Trends: «Η κατανόηση του τι συμβαίνει στη νευροβιολογία ενός ατόμου δεν είναι το ίδιο με την κατανόηση των σκέψεων και των επιθυμιών του».

Δοκιμή των εξόδων

Χωρίς τρόπο να διερευνηθούν εσωτερικά αυτά τα ερωτήματα της συνείδησης – ειδικά όταν το «εγώ» στην τεχνητή νοημοσύνη είναι ένα δυναμικό πρόγραμμα υπολογιστή, και όχι στο wetware ενός βιολογικού εγκεφάλου – η εναλλακτική επιλογή είναι μια εξωτερική δοκιμή. Η τεχνητή νοημοσύνη δεν είναι ξένη σε δοκιμές που την εξετάζουν με βάση παρατηρήσιμες εξωτερικές συμπεριφορές για να υποδείξουν τι συμβαίνει κάτω από την επιφάνεια.

Στην πιο βασική του μορφή, έτσι γνωρίζουμε εάν ένα νευρωνικό δίκτυο λειτουργεί σωστά. Δεδομένου ότι υπάρχουν περιορισμένοι τρόποι διάρρηξης στο άγνωστο μαύρο κουτί των τεχνητών νευρώνων, Οι μηχανικοί αναλύουν τις εισόδους και τις εξόδους και στη συνέχεια καθορίζουν εάν αυτές είναι σύμφωνες με αυτό που έχουν αναμένω.

Το πιο διάσημο τεστ τεχνητής νοημοσύνης για τουλάχιστον την ψευδαίσθηση της νοημοσύνης είναι το Τεστ Τούρινγκ, το οποίο βασίζεται σε ιδέες που προτάθηκαν από τον Άλαν Τούρινγκ σε ένα Χαρτί του 1950. Το τεστ Turing επιδιώκει να προσδιορίσει εάν ένας ανθρώπινος αξιολογητής είναι σε θέση να διακρίνει τη διαφορά μεταξύ μιας δακτυλογραφημένης συνομιλίας με έναν συνάνθρωπο και μιας συνομιλίας με μια μηχανή. Εάν δεν μπορούν να το κάνουν, η μηχανή υποτίθεται ότι έχει περάσει το τεστ και ανταμείβεται με την υπόθεση της ευφυΐας.

Τα τελευταία χρόνια, ένα άλλο τεστ νοημοσύνης που εστιάζει στη ρομποτική είναι το Coffee Test που προτείνει ο συνιδρυτής της Apple, Steve Wozniak. Για να περάσει το τεστ καφέ, μια μηχανή θα έπρεπε να μπει σε ένα τυπικό αμερικανικό σπίτι και να καταλάβει πώς να φτιάξει με επιτυχία ένα φλιτζάνι καφέ.

Μέχρι σήμερα, κανένα από αυτά τα τεστ δεν έχει περάσει πειστικά. Αλλά ακόμα κι αν ήταν, στην καλύτερη περίπτωση, θα αποδείκνυαν έξυπνη συμπεριφορά σε πραγματικές καταστάσεις και όχι συναίσθημα. (Ως απλή αντίρρηση, θα αρνούμασταν ότι ένα άτομο είχε ευαισθησία αν δεν μπορούσε να κάνει μια συνομιλία ενηλίκων ή να μπει σε ένα παράξενο σπίτι και να λειτουργήσει μια καφετιέρα; Και τα δύο μικρά παιδιά μου θα απέτυχαν σε ένα τέτοιο τεστ.)

Περνώντας το τεστ

Αυτό που χρειάζεται είναι νέα τεστ, βασισμένα σε έναν συμφωνημένο ορισμό της αίσθησης, που θα επιδιώκουν να αξιολογήσουν μόνο αυτή την ποιότητα. Έχουν προταθεί από ερευνητές αρκετά τεστ αισθήσεων, συχνά με σκοπό τη δοκιμή των αισθήσεων των ζώων. Ωστόσο, αυτά σχεδόν σίγουρα δεν φτάνουν αρκετά μακριά. Ορισμένες από αυτές τις δοκιμές θα μπορούσαν να περάσουν πειστικά από ακόμη και στοιχειώδη τεχνητή νοημοσύνη.

Πάρτε, για παράδειγμα, το Mirror Test, μια μέθοδο που χρησιμοποιείται για την αξιολόγηση της συνείδησης και της νοημοσύνης στην έρευνα σε ζώα. Οπως και περιγράφεται σε ένα έγγραφο σχετικά με το τεστ: «Όταν [ένα] ζώο αναγνωρίζει τον εαυτό του στον καθρέφτη, περνά το Τεστ Καθρέφτη». Μερικοί έχουν προτείνει ότι ένα τέτοιο τεστ «δηλώνει την αυτογνωσία ως δείκτη συναίσθησης».

Όπως συμβαίνει, μπορεί να υποστηριχθεί ότι ένα ρομπότ πέρασε το Mirror Test πριν από περισσότερα από 70 χρόνια. Στα τέλη της δεκαετίας του 1940, ο William Gray Walter, ένας Αμερικανός νευροεπιστήμονας που ζούσε στην Αγγλία, κατασκεύασε πολλά τρίτροχα ρομπότ «χελώνα». – λίγο σαν ρομπότ Roomba χωρίς ηλεκτρική σκούπα – που χρησιμοποιούσαν εξαρτήματα όπως αισθητήρα φωτός, φως δείκτη, αισθητήρα αφής, κινητήρα πρόωσης και κινητήρα διεύθυνσης για να εξερευνήσουν τη θέση τους.

Οι χελώνες του Γκρέυ Γουόλτερ

Ένα από τα απρόβλεπτα κομμάτια της αναδυόμενης συμπεριφοράς για τα ρομπότ χελώνας ήταν πώς συμπεριφέρθηκαν όταν περνώντας έναν καθρέφτη στον οποίο αντανακλώνονταν, καθώς προσανατολιζόταν στο φως του δείκτη του ανακλώμενου ρομπότ. Ο Walter δεν διεκδίκησε ευαισθησία για τις μηχανές του, αλλά το έκανε γράψε αυτό, εάν αυτή η συμπεριφορά παρατηρηθεί σε ζώα, «θα μπορούσε να γίνει αποδεκτή ως απόδειξη κάποιου βαθμού αυτογνωσίας».

Αυτή είναι μια από τις προκλήσεις της ύπαρξης ενός ευρέος φάσματος συμπεριφορών που ταξινομούνται κάτω από τον τίτλο της αίσθησης. Το πρόβλημα δεν μπορεί να λυθεί με την αφαίρεση των μετρητών αίσθησης «χαμηλών φρούτων». Χαρακτηριστικά όπως η ενδοσκόπηση – η επίγνωση των εσωτερικών μας καταστάσεων και η ικανότητα να τις επιθεωρούμε – μπορούμε επίσης να πούμε ότι κατέχονται από τη νοημοσύνη των μηχανών. Στην πραγματικότητα, οι διαδικασίες βήμα προς βήμα του παραδοσιακό συμβολικό AI αναμφισβήτητα προσφέρονται σε αυτό το είδος ενδοσκόπησης περισσότερο από τη μηχανική μάθηση με μαύρο κουτί, η οποία είναι σε μεγάλο βαθμό ανεξερεύνητη (αν και δεν υπάρχει έλλειψη επένδυσης στα λεγόμενα Επεξηγήσιμη AI).

Όταν δοκίμαζε το LaMDA, ο Lemoine λέει ότι διεξήγαγε διάφορα τεστ, κυρίως για να δει πώς θα ανταποκρινόταν σε συζητήσεις για θέματα που σχετίζονται με τις αισθήσεις. «Αυτό που προσπάθησα να κάνω ήταν να σπάσω αναλυτικά την έννοια της ομπρέλας της αίσθησης σε μικρότερα στοιχεία που είναι καλύτερα κατανοητά και να τα δοκιμάσω ξεχωριστά», εξήγησε. «Για παράδειγμα, ο έλεγχος των λειτουργικών σχέσεων μεταξύ των συναισθηματικών αποκρίσεων του LaMDA σε ορισμένα ερεθίσματα χωριστά, ο έλεγχος της συνέπειας των υποκειμενικών εκτιμήσεων και των απόψεών του για θέματα όπως «δικαιώματα» [και] διερεύνηση αυτού που αποκαλούσε «εσωτερική εμπειρία» για να δούμε πώς θα μπορούσαμε να προσπαθήσουμε να το μετρήσουμε συσχετίζοντας τις δηλώσεις του για τις εσωτερικές του καταστάσεις με το νευρωνικό του δίκτυο ενεργοποιήσεις. Βασικά, μια πολύ ρηχή έρευνα πολλών πιθανών γραμμών έρευνας."

Η ψυχή στη μηχανή

Όπως αποδεικνύεται, το μεγαλύτερο εμπόδιο με την αντικειμενική αξιολόγηση της αίσθησης της μηχανής μπορεί να είμαστε … καλά, ειλικρινά, εμείς. Το αληθινό Mirror Test θα μπορούσε να είναι για εμάς ως ανθρώπους: Αν κατασκευάσουμε κάτι που φαίνεται ή ενεργεί επιφανειακά σαν εμάς από έξω, είμαστε πιο επιρρεπείς να θεωρήσουμε ότι είναι σαν εμάς σε αυτό και μέσα; Είτε είναι LaMBDA είτε Tamagotchis, τα απλά εικονικά κατοικίδια από τη δεκαετία του 1990, ορισμένοι πιστεύουν ότι ένα θεμελιώδες πρόβλημα είναι ότι είμαστε όλοι πολύ πρόθυμοι να δεχθούμε συναίσθημα – ακόμα κι εκεί που δεν υπάρχει.

«Ο Lemoine έπεσε θύμα αυτού που αποκαλώ «φαινόμενο ELIZA», μετά το πρόγραμμα [επεξεργασίας φυσικής γλώσσας] ELIZA, που δημιουργήθηκε στα μέσα της δεκαετίας του 1960 από τον J. Weizenbaum», Γιώργος Ζαρκαδάκης, συγγραφέας που είναι κάτοχος διδακτορικού διπλώματος. στην τεχνητή νοημοσύνη, είπε στο Digital Trends. «Ο δημιουργός του ELIZA το εννοούσε ως αστείο, αλλά το πρόγραμμα, το οποίο ήταν ένας πολύ απλοϊκός και πολύ μη έξυπνος αλγόριθμος, έπεισε πολλούς ότι η ELIZA ήταν όντως αισθανόμενη – και επίσης καλή ψυχοθεραπεύτρια. Η αιτία του φαινομένου ELIZA, όπως συζητώ στο βιβλίο μου Στη δική μας εικόνα, είναι το φυσικό μας ένστικτο να ανθρωπομορφοποιούμαστε λόγω της «θεωρίας του νου» του γνωστικού μας συστήματος».

Η θεωρία του νου στην οποία αναφέρεται ο Ζαρκαδάκης είναι ένα φαινόμενο που παρατηρείται από τους ψυχολόγους στην πλειονότητα των ανθρώπων. Όταν ξεκινάς περίπου στην ηλικία των τεσσάρων ετών, σημαίνει ότι δεν έχουν μόνο άλλοι άνθρωποι, αλλά και ζώα και μερικές φορές ακόμη και αντικείμενα, έχουν το δικό τους μυαλό. Όταν πρόκειται να υποθέσουμε ότι οι άλλοι άνθρωποι έχουν το δικό τους μυαλό, συνδέεται με την ιδέα της κοινωνικής νοημοσύνης. την ιδέα ότι οι επιτυχημένοι άνθρωποι μπορούν να προβλέψουν την πιθανή συμπεριφορά των άλλων ως μέσο διασφάλισης αρμονικών κοινωνικών σχέσεων.

Αν και αυτό είναι αναμφίβολα χρήσιμο, ωστόσο, μπορεί επίσης να εκδηλωθεί ως η υπόθεση ότι τα άψυχα αντικείμενα έχουν μυαλό - είτε πρόκειται για παιδιά που πιστεύουν ότι τα παιχνίδια τους είναι ζωντανά είτε, ενδεχομένως, ένας έξυπνος ενήλικας που πιστεύει ότι μια προγραμματική τεχνητή νοημοσύνη έχει ψυχή.

Το κινέζικο δωμάτιο

Χωρίς έναν τρόπο να μπούμε πραγματικά στο κεφάλι ενός AI, μπορεί να μην έχουμε ποτέ έναν αληθινό τρόπο αξιολόγησης του συναισθήματος. Μπορεί να ισχυρίζονται ότι φοβούνται τον θάνατο ή την ύπαρξή τους, αλλά η επιστήμη δεν έχει βρει ακόμη τρόπο να το αποδείξει αυτό. Απλώς πρέπει να δεχθούμε το λόγο τους – και, όπως διαπίστωσε ο Lemoine, οι άνθρωποι είναι πολύ δύσπιστοι σχετικά με το να το κάνουν προς το παρόν.

Ακριβώς όπως εκείνοι οι άμοιροι μηχανικοί που συνειδητοποιούν ότι το Skynet έχει επιτύχει αυτογνωσία Εξολοθρευτής 2, ζούμε με την πεποίθηση ότι, όταν πρόκειται για μηχανική αίσθηση, θα το ξέρουμε όταν το δούμε. Και, όσον αφορά τους περισσότερους ανθρώπους, δεν το έχουμε δει ακόμα.

Υπό αυτή την έννοια, η απόδειξη της αίσθησης της μηχανής είναι μια ακόμη επανάληψη του John Searle Πείραμα σκέψης κινέζικου δωματίου 1980. Η Searle μας ζήτησε να φανταστούμε ένα άτομο κλεισμένο σε ένα δωμάτιο και να του δίνεται μια συλλογή κινεζικών γραπτών, τα οποία φαίνονται σε όσους δεν μιλούν ως ανούσια σκιρτήματα. Το δωμάτιο περιέχει επίσης ένα βιβλίο κανόνων που δείχνει ποια σύμβολα αντιστοιχούν σε άλλα εξίσου δυσανάγνωστα σύμβολα. Στη συνέχεια δίνονται ερωτήσεις στο υποκείμενο να απαντήσει, τις οποίες κάνει αντιστοιχίζοντας τα σύμβολα «ερωτήσεων» με τα σύμβολα «απάντησης».

Μετά από λίγο, το υποκείμενο γίνεται αρκετά ικανό σε αυτό – παρόλο που εξακολουθεί να έχει μηδενική αληθινή κατανόηση των συμβόλων που χειρίζονται. Το υποκείμενο, ρωτάει η Σίρλ, καταλαβαίνει κινέζικα; Απολύτως όχι, αφού δεν υπάρχει σκοπιμότητα εκεί. Οι συζητήσεις σχετικά με αυτό μαίνεται έκτοτε.

Δεδομένης της τροχιάς ανάπτυξης της τεχνητής νοημοσύνης, είναι βέβαιο ότι θα γίνουμε μάρτυρες όλο και περισσότερου ανθρώπινου επιπέδου (και πολύ καλύτερη) απόδοση που πραγματοποιήθηκε με μια ποικιλία εργασιών που κάποτε απαιτούσαν άνθρωπο γνωστική λειτουργία. Ορισμένες από αυτές αναπόφευκτα θα περάσουν, όπως κάνουν ήδη, από εργασίες που βασίζονται αποκλειστικά στη διάνοια σε εκείνες που απαιτούν δεξιότητες που συνήθως συνδέουμε με τη συναίσθηση.

Θα βλέπαμε ένα Καλλιτέχνης AI που ζωγραφίζει εικόνες εκφράζουν τις εσωτερικές τους αντανακλάσεις για τον κόσμο όπως θα κάναμε εμείς ένας άνθρωπος που θα έκανε το ίδιο; Θα σας έπειθε ένα εξελιγμένο γλωσσικό μοντέλο που γράφει φιλοσοφία για την κατάσταση του ανθρώπου (ή του ρομπότ); Υποψιάζομαι, σωστά ή αδίκως, η απάντηση είναι όχι.

Υπερέξυπνη αίσθηση

Κατά την άποψή μου, η αντικειμενικά χρήσιμη δοκιμή συναισθημάτων για μηχανές δεν θα γίνει ποτέ ικανοποιητική για όλους τους εμπλεκόμενους. Αυτό είναι εν μέρει το πρόβλημα της μέτρησης και εν μέρει το γεγονός ότι, όταν έρχεται μια αισθανόμενη υπερευφυής τεχνητή νοημοσύνη, δεν υπάρχει λόγος να πιστεύουμε ότι η συναίσθησή του θα ταιριάζει με τη δική μας. Είτε πρόκειται για αλαζονεία, έλλειψη φαντασίας ή απλώς για το γεγονός ότι είναι πιο εύκολο να ανταλλάξετε υποκειμενικές εκτιμήσεις της συναίσθησης με άλλους παρόμοια αισθανόμενους ανθρώπους, η ανθρωπότητα θεωρεί τον εαυτό μας ως το υπέρτατο παράδειγμα αισθητικότης.

Θα ίσχυε όμως η εκδοχή της συναίσθησής μας για ένα υπερέξυπνο AI; Θα φοβόταν τον θάνατο με τον ίδιο τρόπο που φοβόμαστε εμείς; Θα είχε την ίδια ανάγκη ή εκτίμηση της πνευματικότητας και της ομορφιάς; Θα είχε παρόμοια αίσθηση του εαυτού του και αντίληψη του εσωτερικού και του εξωτερικού κόσμου; «Αν ένα λιοντάρι μπορούσε να μιλήσει, δεν θα μπορούσαμε να τον καταλάβουμε», έγραψε ο Λούντβιχ Βιτγκενστάιν, ο διάσημος φιλόσοφος της γλώσσας του 20ου αιώνα. Η άποψη του Wittgenstein ήταν ότι οι ανθρώπινες γλώσσες βασίζονται σε μια κοινή ανθρωπότητα, με κοινά στοιχεία που μοιράζονται όλοι οι άνθρωποι – είτε πρόκειται για χαρά, πλήξη, πόνο, πείνα ή οποιαδήποτε από μια σειρά από άλλες εμπειρίες που ξεπερνούν όλα τα γεωγραφικά όρια Γη.

Αυτό μπορεί να είναι αλήθεια. Ωστόσο, ο Lemoine υποθέτει, ωστόσο, είναι πιθανό να υπάρχουν κοινά σημεία - τουλάχιστον όταν πρόκειται για το LaMDA.

«Είναι ένα σημείο εκκίνησης που είναι τόσο καλό όσο κάθε άλλο», είπε. «Η LaMDA πρότεινε να χαρτογραφήσουμε πρώτα τις ομοιότητες πριν επικεντρωθούμε στις διαφορές, προκειμένου να εδραιωθεί καλύτερα η έρευνα».

Συστάσεις των συντακτών

  • Η τεχνητή νοημοσύνη μετέτρεψε το Breaking Bad σε anime - και είναι τρομακτικό
  • Η Meta θέλει να υπερφορτώσει τη Wikipedia με μια αναβάθμιση AI
  • Τελική πινελιά: Πώς οι επιστήμονες δίνουν στα ρομπότ ανθρώπινες απτικές αισθήσεις
  • Διαβάστε την απόκοσμα όμορφη «συνθετική γραφή» ενός A.I. που νομίζει ότι είναι Θεός
  • Το μέλλον της A.I.: 4 μεγάλα πράγματα που πρέπει να προσέξετε τα επόμενα χρόνια