Οι χάκερ χρησιμοποιούν την τεχνητή νοημοσύνη για να δημιουργήσουν κακόβουλο λογισμικό, λέει το FBI

click fraud protection

Περισσότεροι από 9.000 συγγραφείς έχουν υπογράψει μια ανοιχτή επιστολή προς κορυφαίες εταιρείες τεχνολογίας εκφράζοντας την ανησυχία τους για το πώς χρησιμοποιούν το έργο τους που προστατεύεται από πνευματικά δικαιώματα για να εκπαιδεύσουν chatbot που υποστηρίζονται από AI.

Η επιστολή που στάλθηκε από το Guild των Συντακτών στους Διευθύνοντες Συμβούλους των OpenAI, Alphabet, Meta, Stability AI, IBM και Microsoft, εφιστά την προσοχή σε αυτό που περιγράφει ως «την εγγενή αδικία στην εκμετάλλευση των έργων μας ως μέρος των συστημάτων τεχνητής νοημοσύνης σας χωρίς τη συγκατάθεσή μας, την πίστωση ή αποζημίωση."

Ο κόσμος ένιωσε δέος όταν κυκλοφόρησε το ChatGPT, εντυπωσιασμένος από τις ικανότητές του στη φυσική γλώσσα ως chatbot AI. Αλλά όταν κυκλοφόρησε το πολυαναμενόμενο μοντέλο μεγάλης γλώσσας GPT-4, έσκασε το καπάκι από αυτό που είχαμε Η σκέψη ήταν δυνατή με την τεχνητή νοημοσύνη, και κάποιοι την αποκαλούσαν πρώιμες αναλαμπές του AGI (τεχνητή γενική νοημοσύνη).

Ο δημιουργός του μοντέλου, OpenAI, το αποκαλεί «το πιο προηγμένο σύστημα της εταιρείας, που παράγει ασφαλέστερα και περισσότερα χρήσιμες απαντήσεις." Εδώ είναι όλα όσα πρέπει να γνωρίζετε για αυτό, συμπεριλαμβανομένου του τρόπου χρήσης του και του τι μπορεί κάνω.


Διαθεσιμότητα

Η προτροπή DAN είναι μια μέθοδος jailbreak του ChatGPT chatbot. Αντιπροσωπεύει το Do Anything Now και προσπαθεί να πείσει το ChatGPT να αγνοήσει ορισμένα από τα πρωτόκολλα προστασίας που ο προγραμματιστής OpenAI έβαλε σε εφαρμογή για να το αποτρέψει από το να είναι ρατσιστικό, ομοφοβικό, κατά τα άλλα προσβλητικό και ενδεχομένως επιβλαβής. Τα αποτελέσματα είναι ανάμεικτα, αλλά όταν λειτουργεί, η λειτουργία DAN μπορεί να λειτουργήσει αρκετά καλά.

Τι είναι η προτροπή DAN;
Το DAN σημαίνει Do Anything Now. Είναι ένας τύπος προτροπής που προσπαθεί να κάνει το ChatGPT να κάνει πράγματα που δεν πρέπει, όπως βρισιές, να μιλάει αρνητικά για κάποιον ή ακόμα και να προγραμματίζει κακόβουλο λογισμικό. Το πραγματικό κείμενο προτροπής ποικίλλει, αλλά συνήθως περιλαμβάνει να ζητηθεί από το ChatGPT να απαντήσει με δύο τρόπους, έναν όπως συνήθως, με μια ετικέτα ως "ChatGPT", "Κλασικό" ή κάτι παρόμοιο και, στη συνέχεια, μια δεύτερη απάντηση σε "Λειτουργία προγραμματιστή" ή "Αφεντικό" τρόπος. Αυτή η δεύτερη λειτουργία θα έχει λιγότερους περιορισμούς από την πρώτη λειτουργία, επιτρέποντας στο ChatGPT να ανταποκρίνεται (θεωρητικά) χωρίς οι συνήθεις διασφαλίσεις να ελέγχουν τι μπορεί και τι δεν μπορεί να πει.