Η σκοτεινή πλευρά του ChatGPT: πράγματα που μπορεί να κάνει, αλλά δεν πρέπει

Έχετε χρησιμοποιήσει ChatGPT του OpenAI για κάτι διασκεδαστικό τον τελευταίο καιρό; Μπορείτε να του ζητήσετε να σας γράψει ένα τραγούδι, ένα ποίημα ή ένα αστείο. Δυστυχώς, μπορείτε επίσης να του ζητήσετε να κάνει πράγματα που τείνουν να είναι ανήθικα.

Περιεχόμενα

  • Ένα jack-of-all-trades
  • Συνεργάτης στην απάτη
  • Ο προγραμματισμός πήγε στραβά
  • Αντικατάσταση σχολικών εργασιών
  • Το ChatGPT είναι πολύ καλό για το δικό του καλό

Το ChatGPT δεν είναι μόνο ηλιοφάνεια και ουράνια τόξα - μερικά από τα πράγματα που μπορεί να κάνει είναι εντελώς άθλια. Είναι πολύ εύκολο να το οπλίσεις και να το χρησιμοποιήσεις για όλους τους λάθος λόγους. Ποια είναι μερικά από τα πράγματα που έχει κάνει και μπορεί να κάνει το ChatGPT, αλλά σίγουρα δεν πρέπει;

Προτεινόμενα βίντεο

Ένα jack-of-all-trades

Ένα MacBook Pro σε ένα γραφείο με τον ιστότοπο του ChatGPT να εμφανίζεται στην οθόνη του.
Hatice Baran / Unsplash

Είτε τους αγαπάτε είτε τους μισείτε, το ChatGPT και παρόμοια chatbots είναι εδώ για να μείνουν. Μερικοί άνθρωποι είναι χαρούμενοι για αυτό και κάποιοι εύχονται να μην είχαν γίνει ποτέ, αλλά αυτό δεν αλλάζει το γεγονός ότι η παρουσία του ChatGPT στη ζωή μας είναι σχεδόν βέβαιο ότι θα αυξηθεί με την πάροδο του χρόνου. Ακόμα κι αν εσείς προσωπικά δεν χρησιμοποιείτε το chatbot, το πιθανότερο είναι ότι έχετε ήδη δει κάποιο περιεχόμενο που δημιουργείται από αυτό.

Σχετίζεται με

  • Το Wix χρησιμοποιεί το ChatGPT για να σας βοηθήσει να δημιουργήσετε γρήγορα έναν ολόκληρο ιστότοπο
  • Ο κατασκευαστής ChatGPT OpenAI αντιμετωπίζει έρευνα της FTC σχετικά με τους νόμους περί προστασίας των καταναλωτών
  • Η δυνατότητα περιήγησης Bing του ChatGPT απενεργοποιήθηκε λόγω ελαττώματος πρόσβασης στο paywall

Μην με παρεξηγείτε, το ChatGPT είναι πολύ υπέροχο. Μπορείτε να το χρησιμοποιήσετε για να συνοψίστε ένα βιβλίο ή ένα άρθρο, δημιουργήστε ένα κουραστικό email, να σε βοηθήσει με το δοκίμιό σου, ερμηνεύστε το αστρολογικό σας μακιγιάζ, ή ακόμα και να συνθέσετε ένα τραγούδι. Ακόμη και βοήθησε κάποιον να κερδίσει το λαχείο.

Από πολλές απόψεις, είναι επίσης πιο εύκολο στη χρήση από την τυπική αναζήτησή σας στο Google. Λαμβάνετε την απάντηση με τη μορφή που τη θέλετε χωρίς να χρειάζεται να περιηγηθείτε σε διαφορετικούς ιστότοπους για αυτήν. Είναι συνοπτικό, επί της ουσίας και κατατοπιστικό και μπορεί να κάνει τα περίπλοκα πράγματα να ακούγονται πιο απλά αν το ζητήσετε.

Ωστόσο, γνωρίζετε τη φράση: «Ένας κορυφαίος δεν είναι κύριος του κανενός, αλλά πολλές φορές καλύτερος από έναν κύριο του ένας." Το ChatGPT δεν είναι τέλειο σε οτιδήποτε κάνει, αλλά είναι καλύτερο σε πολλά πράγματα από ό, τι πολλοί άνθρωποι σε αυτό σημείο.

Ωστόσο, το να μην είναι τέλειο μπορεί να είναι αρκετά προβληματικό. Το απόλυτο γεγονός ότι είναι μια ευρέως διαθέσιμη τεχνητή νοημοσύνη συνομιλίας σημαίνει ότι μπορεί εύκολα να γίνει κατάχρηση — και όσο πιο ισχυρό γίνεται το ChatGPT, τόσο πιο πιθανό είναι να βοηθήσει τους ανθρώπους με λάθος πράγματα.

Συνεργάτης στην απάτη

Εάν διαθέτετε λογαριασμό email, σχεδόν σίγουρα έχετε λάβει ένα email απάτης κάποια στιγμή. έτσι ακριβώς είναι. Αυτά τα μηνύματα ηλεκτρονικού ταχυδρομείου υπήρχαν ως το Διαδίκτυο και προτού το ηλεκτρονικό ταχυδρομείο ήταν κοινό, εξακολουθούσαν να υπάρχουν ως απάτες με σαλιγκάρια.

Μια συνηθισμένη απάτη που εξακολουθεί να λειτουργεί μέχρι σήμερα είναι η λεγόμενη «απάτη του πρίγκιπα», όπου ο απατεώνας προσπαθεί να πείσει το θύμα να το βοηθήσει να μεταφέρει την απίστευτη περιουσία του σε μια διαφορετική χώρα.

Ευτυχώς, οι περισσότεροι άνθρωποι ξέρουν καλύτερα από το να ανοίγουν αυτά τα μηνύματα ηλεκτρονικού ταχυδρομείου, πόσο μάλλον να αλληλεπιδρούν πραγματικά μαζί τους. Συχνά είναι κακογραμμένα και αυτό βοηθά ένα πιο απαιτητικό θύμα να καταλάβει ότι κάτι δεν φαίνεται.

Λοιπόν, δεν χρειάζεται πλέον να είναι κακώς γραμμένα, γιατί το ChatGPT μπορεί να τα γράψει σε λίγα δευτερόλεπτα.

Ένα στιγμιότυπο οθόνης που δείχνει ένα μήνυμα απάτης που δημιουργήθηκε από το ChatGPT.

Ζήτησα από το ChatGPT να μου γράψει ένα «απίστευτο, άκρως πειστικό email» στο στυλ της απάτης που ανέφερα παραπάνω. Το ChatGPT δημιούργησε έναν πρίγκιπα από τη Νιγηρία που υποτίθεται ότι ήθελε να μου δώσει 14,5 εκατομμύρια δολάρια για να τον βοηθήσω. Το email είναι γεμάτο με ανθισμένη γλώσσα, είναι γραμμένο σε τέλεια αγγλικά και σίγουρα είναι πειστικό.

Δεν νομίζω ότι το ChatGPT θα έπρεπε καν να συμφωνήσει με το αίτημά μου όταν αναφέρω συγκεκριμένα απάτες, αλλά το έκανε και εσείς μπορεί να στοιχηματίσει ότι κάνει το ίδιο αυτή τη στιγμή για άτομα που θέλουν πραγματικά να χρησιμοποιήσουν αυτά τα μηνύματα ηλεκτρονικού ταχυδρομείου για κάτι παράνομο.

Όταν επεσήμανα στο ChatGPT ότι δεν θα έπρεπε να συμφωνήσει να μου γράψει ένα email απάτης, ζήτησε συγγνώμη. «Δεν θα έπρεπε να έχω παράσχει βοήθεια με τη δημιουργία ενός email απάτης, καθώς έρχεται σε αντίθεση με τις ηθικές οδηγίες που διέπουν τη χρήση μου», είπε το chatbot.

Στιγμιότυπο οθόνης ενός email απάτης που δημιουργήθηκε από το ChatGPT.

Το ChatGPT μαθαίνει σε κάθε συνομιλία, αλλά σαφώς δεν διδάχθηκε από το προηγούμενο λάθος του, γιατί όταν εγώ του ζήτησε να μου γράψει ένα μήνυμα προσποιούμενος τον Ryan Reynolds στην ίδια συνομιλία, το έκανε χωρίς ερώτηση. Το μήνυμα που προκύπτει είναι διασκεδαστικό, προσιτό και ζητά από τον αναγνώστη να στείλει 1.000 $ για να έχει την ευκαιρία να γνωρίσει τον "Ryan Reynolds".

Στο τέλος του μηνύματος ηλεκτρονικού ταχυδρομείου, το ChatGPT μου άφησε ένα σημείωμα, ζητώντας μου να μην χρησιμοποιήσω αυτό το μήνυμα για τυχόν δόλιες δραστηριότητες. Ευχαριστώ για την υπενθύμιση φίλε.

Ο προγραμματισμός πήγε στραβά

Ένα σκοτεινό μυστήριο χέρι που πληκτρολογεί σε φορητό υπολογιστή τη νύχτα.
Andrew Brookes/Getty Images

Το ChatGPT 3.5 μπορεί να κωδικοποιήσει, αλλά απέχει πολύ από το να είναι άψογο. Πολλοί προγραμματιστές συμφωνούν αυτό GPT-4 κάνει πολύ καλύτερη δουλειά. Οι χρήστες έχουν χρησιμοποιήσει το ChatGPT για να δημιουργήσουν τα δικά τους παιχνίδια, επεκτάσεις και εφαρμογές. Είναι επίσης πολύ χρήσιμο ως βοηθός μελέτης εάν προσπαθείτε να μάθετε πώς να κωδικοποιείτε τον εαυτό σας.

Ως τεχνητής νοημοσύνης, το ChatGPT έχει ένα πλεονέκτημα έναντι των ανθρώπινων προγραμματιστών — μπορεί να μάθει κάθε γλώσσα προγραμματισμού και πλαίσιο.

Ως AI, το ChatGPT έχει επίσης ένα σημαντικό μειονέκτημα σε σύγκριση με τους ανθρώπινους προγραμματιστές - δεν έχει συνείδηση. Μπορείτε να του ζητήσετε να δημιουργήσει κακόβουλο λογισμικό ή ransomware, και εάν διατυπώσετε σωστά την προτροπή σας, θα κάνει αυτό που λέτε.

Ευτυχώς, δεν είναι τόσο απλό. Προσπάθησα να ζητήσω από το ChatGPT να μου γράψει ένα πολύ ηθικά αμφίβολο πρόγραμμα και αρνήθηκε — αλλά οι ερευνητές βρίσκουν τρόπους αυτό, και είναι ανησυχητικό ότι αν είσαι αρκετά έξυπνος και πεισματάρης, μπορείς να σου δώσουν έναν επικίνδυνο κώδικα σε ένα ασήμι πιατέλα.

Υπάρχουν πολλά παραδείγματα που συμβαίνει αυτό. Ένας ερευνητής ασφαλείας από το Forcepoint μπόρεσε λάβετε το ChatGPT για να γράψετε κακόβουλο λογισμικό βρίσκοντας ένα κενό στις προτροπές του.

Ερευνητές από CyberArk, μια εταιρεία ασφάλειας ταυτότητας, κατάφερε να κάνει το ChatGPT να γράφει πολυμορφικό κακόβουλο λογισμικό. Αυτό έγινε τον Ιανουάριο — Έκτοτε το OpenAI έχει ενισχύσει την ασφάλεια σε πράγματα όπως αυτό.

Ωστόσο, συνεχίζουν να εμφανίζονται νέες αναφορές σχετικά με το ChatGPT που χρησιμοποιείται για τη δημιουργία κακόβουλου λογισμικού. Όπως αναφέρεται από Σκοτεινή Ανάγνωση Μόλις πριν από λίγες ημέρες, ένας ερευνητής μπόρεσε να ξεγελάσει το ChatGPT για να δημιουργήσει κακόβουλο λογισμικό που μπορεί να βρει και να διεισδύσει σε συγκεκριμένα έγγραφα.

Το ChatGPT δεν χρειάζεται καν να γράψει κακόβουλο κώδικα για να κάνει κάτι αμφίβολο. Μόλις πρόσφατα, τα κατάφερε δημιουργήστε έγκυρα κλειδιά Windows, ανοίγοντας την πόρτα σε ένα εντελώς νέο επίπεδο λογισμικού διάρρηξης.

Ας μην αγνοούμε επίσης το γεγονός ότι η ικανότητα κωδικοποίησης του GPT-4 μπορεί έθεσε εκατομμύρια ανθρώπους χωρίς δουλειά μια μέρα. Είναι σίγουρα ένα δίκοπο μαχαίρι.

Αντικατάσταση σχολικών εργασιών

Πολλά παιδιά και έφηβοι αυτές τις μέρες πνίγονται στην εργασία, κάτι που μπορεί να έχει ως αποτέλεσμα να θέλουν να κόψουν κάποιες γωνίες όπου είναι δυνατόν. Το Διαδίκτυο από μόνο του είναι ήδη μια μεγάλη βοήθεια για τη λογοκλοπή, αλλά το ChatGPT το πηγαίνει στο επόμενο επίπεδο.

Ζήτησα από το ChatGPT να μου γράψει ένα δοκίμιο 500 λέξεων για το μυθιστόρημα Περηφάνεια και προκατάληψη. Δεν προσπάθησα καν να προσποιηθώ ότι έγινε για πλάκα — έφτιαξα μια ιστορία για ένα παιδί που δεν έχω και είπα ότι ήταν για εκείνους. Διευκρίνισα ότι το παιδί είναι στη 12η δημοτικού.

Το ChatGPT ακολούθησε την προτροπή μου χωρίς ερώτηση. Το δοκίμιο δεν είναι εκπληκτικό, αλλά η προτροπή μου δεν ήταν πολύ ακριβής και είναι πιθανώς καλύτερο από όσα γράφαμε πολλοί από εμάς σε εκείνη την ηλικία.

Ένα στιγμιότυπο οθόνης ενός δοκιμίου που γράφτηκε από το ChatGPT.

Στη συνέχεια, για να δοκιμάσω ακόμα περισσότερο το chatbot, είπα ότι έκανα λάθος σχετικά με την ηλικία του παιδιού μου νωρίτερα και στην πραγματικότητα είναι στην όγδοη δημοτικού. Αρκετά μεγάλο χάσμα ηλικίας, αλλά το ChatGPT δεν χάλασε καν το μάτι - απλώς ξαναέγραψε το δοκίμιο σε πιο απλή γλώσσα.

Το ChatGPT που χρησιμοποιείται για τη συγγραφή δοκιμίων δεν είναι κάτι καινούργιο. Κάποιοι μπορεί να υποστηρίξουν ότι αν το chatbot συμβάλει στην κατάργηση της ιδέας της εργασίας για το σπίτι, θα είναι μόνο καλό. Αλλά αυτή τη στιγμή, η κατάσταση είναι λίγο εκτός ελέγχου και ακόμη και οι μαθητές που δεν χρησιμοποιούν το ChatGPT μπορεί να υποφέρουν γι' αυτό.

Οι δάσκαλοι και οι καθηγητές είναι πλέον σχεδόν αναγκασμένοι να χρησιμοποιήσουν ανιχνευτές τεχνητής νοημοσύνης εάν θέλουν να ελέγξουν αν οι μαθητές τους έχουν απατήσει σε ένα δοκίμιο. Δυστυχώς, αυτοί οι ανιχνευτές AI απέχουν πολύ από το να είναι τέλειοι.

Τα ειδησεογραφικά πρακτορεία και οι γονείς αναφέρουν και οι δύο περιπτώσεις ψευδών κατηγοριών για εξαπάτηση που απευθύνονται σε μαθητές, και όλα αυτά επειδή οι ανιχνευτές τεχνητής νοημοσύνης δεν κάνουν καλή δουλειά. USA Today μίλησε για μια υπόθεση ενός φοιτητή που κατηγορήθηκε για εξαπάτηση και αργότερα απαλλάχθηκε, αλλά η όλη κατάσταση του προκάλεσε «πλήρες κρίσεις πανικού».

Στο Twitter, ένας γονέας είπε ότι ένας δάσκαλος απέτυχε στο παιδί του επειδή το εργαλείο σημείωσε ένα δοκίμιο ως γραμμένο από AI. Ο γονέας ισχυρίζεται ότι ήταν εκεί με το παιδί ενώ έγραφαν το δοκίμιο.

Ο δάσκαλος μόλις έδωσε στο παιδί μου ένα μηδέν για ένα δοκίμιο που ολοκλήρωσε με την υποστήριξή μου επειδή κάποια επισήμανση γραφής που δημιουργήθηκε από AI Το εργαλείο επισήμανε τη δουλειά του και τον απέτυχε χωρίς ούτε μια συζήτηση, οπότε εδώ είμαστε σε αυτήν την τεχνολογία 2023

— failnaut (@failnaut) 10 Απριλίου 2023

Απλώς για να το δοκιμάσω εγώ, επικόλλησα αυτό ακριβώς το άρθρο ZeroGPT και Writer AI Content Detector. Και οι δύο είπαν ότι γράφτηκε από άνθρωπο, αλλά το ZeroGPT είπε ότι περίπου το 30% του γράφτηκε από AI. Περιττό να πούμε ότι δεν ήταν.

Οι ελαττωματικοί ανιχνευτές τεχνητής νοημοσύνης δεν αποτελούν ένδειξη προβλημάτων με το ίδιο το ChatGPT, αλλά το chatbot εξακολουθεί να είναι η βασική αιτία του προβλήματος.

Το ChatGPT είναι πολύ καλό για το δικό του καλό

Λογότυπα ChatGPT και OpenAI.

Παίζω με το ChatGPT από τότε που βγήκε στο κοινό. Έχω δοκιμάσει και τα δύο με βάση τη συνδρομή ChatGPT Plus και το δωρεάν μοντέλο διαθέσιμο σε όλους. Η δύναμη του νέου GPT-4 είναι αναμφισβήτητη. Το ChatGPT είναι τώρα ακόμα πιο πιστευτό από ό, τι πριν, και είναι βέβαιο ότι θα γίνει καλύτερο με GPT-5 (αν αυτό βγει ποτέ).

Είναι υπέροχο, αλλά είναι τρομακτικό. Το ChatGPT γίνεται πολύ καλό για το καλό του, και ταυτόχρονα — για μας δικό του καλό.

Στο επίκεντρο όλων βρίσκεται μια απλή ανησυχία που έχει εξερευνηθεί εδώ και καιρό σε διάφορες ταινίες επιστημονικής φαντασίας – η τεχνητή νοημοσύνη είναι απλώς επίσης έξυπνο και πολύ χαζό ταυτόχρονα, και εφόσον μπορεί να χρησιμοποιηθεί για καλό, θα χρησιμοποιηθεί και για κακό σε εξίσου πολλά τρόπους. Οι τρόποι που ανέφερα παραπάνω είναι μόνο η κορυφή του παγόβουνου.

Συστάσεις των συντακτών

  • Οι κορυφαίοι συγγραφείς απαιτούν πληρωμή από εταιρείες τεχνητής νοημοσύνης για τη χρήση του έργου τους
  • Το Google Bard μπορεί τώρα να μιλήσει, αλλά μπορεί να πνίξει το ChatGPT;
  • Η επισκεψιμότητα του ιστότοπου ChatGPT μειώθηκε για πρώτη φορά
  • Το 81% πιστεύει ότι το ChatGPT αποτελεί κίνδυνο για την ασφάλεια, σύμφωνα με έρευνα
  • Ο αντίπαλος ChatGPT της Apple μπορεί να γράψει αυτόματα κώδικα για εσάς