Facebookägaren Meta planerar att introducera chatbots med distinkta personligheter i sin sociala medieapp. Lanseringen kan komma så snart som i september och skulle vara en utmaning för rivaler som ChatGPT, men det finns farhågor om att det kan få allvarliga konsekvenser för användarnas integritet.
Innehåll
- Integritetsfrågor
- En stor risk
Idén kommer från Ekonomiska tider, som rapporterar att flytten är ett försök att öka engagemanget med Facebook användare. Det nya verktyget skulle kunna göra detta genom att tillhandahålla nya sökfunktioner eller rekommendera innehåll, allt genom mänskliga diskussioner.
Enligt källor som citeras av Financial Times kommer chatbotarna att ta sig an olika personligheter, inklusive "en som efterliknar Abraham Lincoln och en annan som ger råd om resealternativ i stil med en surfare."
Relaterad
- Apple har i hemlighet arbetat på en ChatGPT-konkurrent i flera år
- Hackare använder AI för att skapa ond skadlig programvara, säger FBI
- Här är anledningen till att folk tror att GPT-4 kan bli dummare med tiden
Det här skulle inte vara första gången vi har sett chatbots ta på sig sin egen personlighet eller samtala i stil med kända personer. De Character.ai chatbot, till exempel, kan adoptera dussintals olika personligheter, inklusive kändisar och historiska personer.
Rekommenderade videor
Integritetsfrågor
Trots löftet som Metas chatbots kan visa, har rädslor också väckts över mängden data de sannolikt kommer att samla in - särskilt med tanke på att Facebook har en uruselt rekord på att skydda användarnas integritet.
Ravit Dotan, en AI-etisk rådgivare och forskare, citerades av Financial Times för att säga "När användare interagerar med en chatbot, den exponerar verkligen mycket mer av deras data för företaget, så att företaget kan göra vad de vill med det data."
Detta höjer inte bara utsikterna för långtgående integritetsintrång utan möjliggör möjligheten till "manipulation och nudging" av användare, tillade Dotan.
En stor risk
Andra chatbots som ChatGPT och Bing Chat har haft en historia av "hallucinationer", eller stunder där de delar felaktig information – eller till och med felaktig information. Den potentiella skadan orsakad av desinformation och partiskhet kan vara mycket högre på Facebook, som har nästan fyra miljarder användare, jämfört med rivaliserande chatbots.
Metas tidigare försök med chatbots har gått dåligt, med företagets BlenderBot 2 och BlenderBot 3 som båda snabbt övergår till vilseledande innehåll och inflammatoriskt hatretorik. Det kanske inte ger användarna mycket hopp för Metas senaste ansträngning.
När september närmar sig med stormsteg kanske vi inte har lång tid på oss att se om Facebook kan övervinna dessa hinder, eller om vi kommer att ha en annan hallucinationsfylld lansering som liknar dem som drabbats på andra håll i industri. Vad som än händer kommer det att bli intressant att se.
Redaktörens rekommendationer
- ChatGPT: de senaste nyheterna, kontroverserna och tipsen du behöver veta
- Apples ChatGPT-konkurrent är enligt uppgift "betydligt bakom konkurrenterna"
- Till och med OpenAI har gett upp försöken att upptäcka ChatGPT-plagiat
- GPT-4: hur man använder AI-chatboten som gör ChatGPT på skam
- Vad är en DAN-prompt för ChatGPT?
Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.