Le propriétaire de Facebook, Meta, prévoit d'introduire des chatbots avec des personnalités distinctes dans son application de médias sociaux. Le lancement pourrait intervenir dès ce mois de septembre et constituerait un défi pour des rivaux comme ChatGPT, mais on craint qu'il n'y ait de graves conséquences pour la vie privée des utilisateurs.
Contenu
- Problèmes de confidentialité
- Un gros risque
L'idée vient du Financial Times, qui signale que cette décision est une tentative de renforcer l'engagement avec Facebook utilisateurs. Le nouvel outil pourrait le faire en fournissant de nouvelles capacités de recherche ou en recommandant du contenu, tout au long de discussions humaines.
Selon des sources citées par le Financial Times, les chatbots prendront différentes personnalités, dont "un qui émule Abraham Lincoln et un autre qui conseille sur les options de voyage dans le style d'un surfeur.
En rapport
- Apple travaille secrètement sur un rival ChatGPT depuis des années
- Les pirates utilisent l'IA pour créer des logiciels malveillants vicieux, selon le FBI
- Voici pourquoi les gens pensent que GPT-4 pourrait devenir plus stupide avec le temps
Ce ne serait pas la première fois que nous verrons des chatbots prendre leur propre personnalité ou converser à la manière de personnes célèbres. Le Chatbot Character.ai, par exemple, peut adopter des dizaines de personnalités différentes, y compris celles de célébrités et de personnages historiques.
Vidéos recommandées
Problèmes de confidentialité
Malgré la promesse que les chatbots de Meta pourraient montrer, des craintes ont également été soulevées quant à la quantité de données qu'ils collecteront probablement - d'autant plus que Facebook a un record abyssal à la protection de la vie privée des utilisateurs.
Ravit Dotan, conseiller en éthique et chercheur en intelligence artificielle, a été cité par le Financial Times comme ayant déclaré: « Une fois que les utilisateurs interagissent avec un chatbot, il expose vraiment beaucoup plus de leurs données à l'entreprise, de sorte que l'entreprise peut faire tout ce qu'elle veut avec ça données."
Cela soulève non seulement la perspective de violations de la vie privée de grande envergure, mais permet également la possibilité de "manipulation et de coup de coude" des utilisateurs, a ajouté Dotan.
Un gros risque
D'autres chatbots comme ChatGPT et Bing Chat ont eu un antécédents d'"hallucinations" ou des moments où ils partagent des informations incorrectes - ou même des informations erronées. Les dommages potentiels causés par la désinformation et les préjugés pourraient être beaucoup plus importants sur Facebook, qui compte près de quatre milliards d'utilisateurs, par rapport aux chatbots concurrents.
Les tentatives passées de Meta sur les chatbots ont mal fonctionné, les BlenderBot 2 et BlenderBot 3 de la société se transformant rapidement en contenu trompeur et en discours de haine incendiaire. Cela pourrait ne pas donner beaucoup d'espoir aux utilisateurs pour le dernier effort de Meta.
Avec septembre qui approche à grands pas, nous n'aurons peut-être pas longtemps pour voir si Facebook est capable de surmonter ces obstacles, ou si nous aurons un autre lancement criblé d'hallucinations semblable à ceux subis ailleurs dans le industrie. Quoi qu'il arrive, ce sera intéressant à regarder.
Recommandations des éditeurs
- ChatGPT: les dernières actualités, controverses et astuces à connaître
- Le rival ChatGPT d'Apple serait « nettement en retard sur ses concurrents »
- Même OpenAI a renoncé à détecter le plagiat ChatGPT
- GPT-4: comment utiliser le chatbot IA qui fait honte à ChatGPT
- Qu'est-ce qu'une invite DAN pour ChatGPT?
Améliorez votre style de vieDigital Trends aide les lecteurs à garder un œil sur le monde trépidant de la technologie avec toutes les dernières nouvelles, des critiques de produits amusantes, des éditoriaux perspicaces et des aperçus uniques.