Ο ιδιοκτήτης του Facebook Meta σχεδιάζει να εισαγάγει chatbots με ξεχωριστές προσωπικότητες στην εφαρμογή κοινωνικής δικτύωσης. Η εκτόξευση θα μπορούσε να γίνει το συντομότερο τον Σεπτέμβριο και θα ήταν μια πρόκληση για ανταγωνιστές όπως ChatGPT, αλλά υπάρχουν ανησυχίες ότι θα μπορούσαν να υπάρξουν σοβαρές επιπτώσεις στο απόρρητο των χρηστών.
Περιεχόμενα
- Ανησυχίες για το απόρρητο
- Μεγάλο ρίσκο
Η ιδέα προέρχεται από το Financial Times, το οποίο αναφέρει ότι η κίνηση είναι μια προσπάθεια ενίσχυσης της δέσμευσης με Facebook χρήστες. Το νέο εργαλείο θα μπορούσε να το κάνει αυτό παρέχοντας νέες δυνατότητες αναζήτησης ή προτείνοντας περιεχόμενο, όλα μέσα από ανθρώπινες συζητήσεις.
Σύμφωνα με πηγές που επικαλούνται οι Financial Times, τα chatbots θα έχουν διαφορετικές προσωπικότητες, συμπεριλαμβανομένου «ένα που μιμείται τον Αβραάμ Λίνκολν και ένα άλλο που συμβουλεύει για επιλογές ταξιδιού με το στυλ του α σέρφερ."
Σχετίζεται με
- Η Apple εργάζεται κρυφά σε έναν αντίπαλο ChatGPT εδώ και χρόνια
- Οι χάκερ χρησιμοποιούν την τεχνητή νοημοσύνη για να δημιουργήσουν κακόβουλο λογισμικό, λέει το FBI
- Να γιατί οι άνθρωποι πιστεύουν ότι το GPT-4 μπορεί να γίνεται πιο χαζό με την πάροδο του χρόνου
Δεν θα ήταν η πρώτη φορά που βλέπουμε chatbot να αποκτούν τις δικές τους προσωπικότητες ή να συνομιλούν με το στυλ διάσημων ανθρώπων. ο Character.ai chatbot, για παράδειγμα, μπορεί να υιοθετήσει δεκάδες διαφορετικές προσωπικότητες, συμπεριλαμβανομένων εκείνων διασημοτήτων και ιστορικών προσώπων.
Προτεινόμενα βίντεο
Ανησυχίες για το απόρρητο
Παρά την υπόσχεση που θα μπορούσαν να δείξουν τα chatbots της Meta, έχουν επίσης εκφραστεί φόβοι για τον όγκο των δεδομένων που πιθανότατα θα συλλέξουν — ειδικά αν σκεφτεί κανείς ότι το Facebook έχει αβυσσαλέο ρεκόρ στην προστασία του απορρήτου των χρηστών.
Ο Ravit Dotan, σύμβουλος και ερευνητής σε θέματα δεοντολογίας τεχνητής νοημοσύνης, αναφέρθηκε από τους Financial Times ότι είπε: «Μόλις οι χρήστες αλληλεπιδράσουν με chatbot, εκθέτει πραγματικά πολύ περισσότερα από τα δεδομένα τους στην εταιρεία, έτσι ώστε η εταιρεία να μπορεί να κάνει ό, τι θέλει με αυτό δεδομένα."
Αυτό όχι μόνο αυξάνει την προοπτική εκτεταμένων παραβιάσεων της ιδιωτικής ζωής, αλλά επιτρέπει τη δυνατότητα «χειρισμού και ώθησης» των χρηστών, πρόσθεσε ο Dotan.
Μεγάλο ρίσκο
Άλλα chatbots όπως το ChatGPT και το Bing Chat είχαν α ιστορικό "παραισθήσεων", ή στιγμές όπου μοιράζονται εσφαλμένες πληροφορίες — ή ακόμα και παραπληροφόρηση. Η πιθανή ζημιά που προκαλείται από την παραπληροφόρηση και την προκατάληψη θα μπορούσε να είναι πολύ μεγαλύτερη στο Facebook, το οποίο έχει σχεδόν τέσσερα δισεκατομμύρια χρήστες, σε σύγκριση με τα ανταγωνιστικά chatbots.
Οι προηγούμενες προσπάθειες της Meta για chatbot δεν πήγαν καλά, με το BlenderBot 2 και το BlenderBot 3 της εταιρείας να εξελίσσονται γρήγορα σε παραπλανητικό περιεχόμενο και σε εμπρηστική ρητορική μίσους. Αυτό μπορεί να μην δώσει στους χρήστες πολλές ελπίδες για την τελευταία προσπάθεια της Meta.
Με τον Σεπτέμβριο να πλησιάζει γρήγορα, ίσως δεν θα αργήσουμε να δούμε αν το Facebook είναι σε θέση να τα ξεπεράσει εμπόδια, ή αν θα έχουμε μια άλλη εκτόξευση με παραισθήσεις παρόμοια με εκείνα που υπέστησαν αλλού στην βιομηχανία. Ό, τι κι αν συμβεί, θα είναι ενδιαφέρον να το παρακολουθήσετε.
Συστάσεις των συντακτών
- ChatGPT: τα τελευταία νέα, οι διαμάχες και οι συμβουλές που πρέπει να γνωρίζετε
- Ο αντίπαλος ChatGPT της Apple φέρεται να είναι «σημαντικά πίσω από τους ανταγωνιστές»
- Ακόμη και το OpenAI έχει εγκαταλείψει την προσπάθεια ανίχνευσης της λογοκλοπής ChatGPT
- GPT-4: πώς να χρησιμοποιήσετε το chatbot AI που κάνει το ChatGPT σε ντροπή
- Τι είναι μια προτροπή DAN για το ChatGPT;
Αναβαθμίστε τον τρόπο ζωής σαςΤο Digital Trends βοηθά τους αναγνώστες να παρακολουθούν τον γρήγορο κόσμο της τεχνολογίας με όλα τα τελευταία νέα, διασκεδαστικές κριτικές προϊόντων, διορατικά editorial και μοναδικές κρυφές ματιές.