Facebook-ejer Meta planlægger at introducere chatbots med forskellige personligheder til sin sociale medie-app. Lanceringen kunne komme allerede i september og ville være en udfordring for rivaler som ChatGPT, men der er bekymring for, at der kan være alvorlige konsekvenser for brugernes privatliv.
Indhold
- Bekymringer om privatlivets fred
- En stor risiko
Ideen kommer fra Financial Times, som rapporterer, at flytningen er et forsøg på at øge engagementet med Facebook brugere. Det nye værktøj kunne gøre dette ved at tilbyde nye søgefunktioner eller anbefale indhold, alt sammen gennem menneskelignende diskussioner.
![Facebook-appikonet på en iPhone-startskærm med andre app-ikoner omkring det.](/f/c9032b48b3b9f2ebc3a461c74052c739.jpg)
Ifølge kilder citeret af Financial Times, vil chatbots påtage sig forskellige personligheder, herunder "en, der efterligner Abraham Lincoln og en anden, der rådgiver om rejsemuligheder i stil med en surfer."
Relaterede
- Apple har i al hemmelighed arbejdet på en ChatGPT-rival i årevis
- Hackere bruger AI til at skabe ond malware, siger FBI
- Her er grunden til, at folk tror, at GPT-4 kan blive dummere med tiden
Dette ville ikke være første gang, vi har set chatbots påtage sig deres egne personligheder eller tale i stil med kendte mennesker. Det Character.ai chatbot, for eksempel, kan adoptere snesevis af forskellige personligheder, herunder berømtheders og historiske personers.
Anbefalede videoer
Bekymringer om privatlivets fred
![facebook privatliv mark zuckerberg](/f/22fc374044ab60738e09b1ea908e747b.jpg)
På trods af løftet, som Metas chatbots kunne vise, er frygten også blevet rejst over mængden af data, de sandsynligvis vil indsamle - især i betragtning af, at Facebook har en dyb rekord at beskytte brugernes privatliv.
Ravit Dotan, en AI-etisk rådgiver og forsker, blev citeret af Financial Times for at sige "Når brugere interagerer med en chatbot, det eksponerer virkelig meget mere af deres data for virksomheden, så virksomheden kan gøre hvad som helst med det data."
Dette øger ikke kun udsigten til vidtrækkende brud på privatlivets fred, men giver mulighed for "manipulation og nudging" af brugere, tilføjede Dotan.
En stor risiko
![Et Meta Connect 2022-skærmbillede, der viser Mark Zuckerberg-avatar.](/f/7c77d53e61186189cb0024c5a62a08fa.jpg)
Andre chatbots som ChatGPT og Bing Chat har haft en historie om "hallucinationer", eller øjeblikke, hvor de deler ukorrekt information - eller endda misinformation. Den potentielle skade forårsaget af misinformation og bias kan være meget højere på Facebook, som har næsten fire milliarder brugere, sammenlignet med rivaliserende chatbots.
Metas tidligere forsøg på chatbots har klaret sig dårligt, hvor virksomhedens BlenderBot 2 og BlenderBot 3 begge hurtigt udviklede sig til vildledende indhold og inflammatorisk hadefuld tale. Det giver måske ikke brugerne meget håb for Metas seneste indsats.
Med september nærmer sig med hastige skridt, har vi måske ikke lang tid til at se, om Facebook er i stand til at overvinde disse forhindringer, eller hvis vi vil have endnu en hallucinationsfyldt lancering, der ligner dem, der er blevet ramt andre steder i industri. Uanset hvad der sker, bliver det interessant at se.
Redaktørens anbefalinger
- ChatGPT: de seneste nyheder, kontroverser og tips, du har brug for at vide
- Apples ChatGPT-rival er angiveligt "betydeligt bagud konkurrenterne"
- Selv OpenAI har opgivet at forsøge at opdage ChatGPT-plagiat
- GPT-4: hvordan man bruger AI chatbot, der gør ChatGPT til skamme
- Hvad er en DAN-prompt til ChatGPT?
Opgrader din livsstilDigital Trends hjælper læserne med at holde styr på den hurtige teknologiske verden med alle de seneste nyheder, sjove produktanmeldelser, indsigtsfulde redaktionelle artikler og enestående smugkig.