Facebook kan få chatbots – och det kan vara ett problem

click fraud protection

Facebookägaren Meta planerar att introducera chatbots med distinkta personligheter i sin sociala medieapp. Lanseringen kan komma så snart som i september och skulle vara en utmaning för rivaler som ChatGPT, men det finns farhågor om att det kan få allvarliga konsekvenser för användarnas integritet.

Innehåll

  • Integritetsfrågor
  • En stor risk

Idén kommer från Ekonomiska tider, som rapporterar att flytten är ett försök att öka engagemanget med Facebook användare. Det nya verktyget skulle kunna göra detta genom att tillhandahålla nya sökfunktioner eller rekommendera innehåll, allt genom mänskliga diskussioner.

Facebook-appikonen på en iPhone-startskärm, med andra appikoner som omger den.
Brett Johnson / Unsplash

Enligt källor som citeras av Financial Times kommer chatbotarna att ta sig an olika personligheter, inklusive "en som efterliknar Abraham Lincoln och en annan som ger råd om resealternativ i stil med en surfare."

Relaterad

  • Apple har i hemlighet arbetat på en ChatGPT-konkurrent i flera år
  • Hackare använder AI för att skapa ond skadlig programvara, säger FBI
  • Här är anledningen till att folk tror att GPT-4 kan bli dummare med tiden

Det här skulle inte vara första gången vi har sett chatbots ta på sig sin egen personlighet eller samtala i stil med kända personer. De Character.ai chatbot, till exempel, kan adoptera dussintals olika personligheter, inklusive kändisar och historiska personer.

Rekommenderade videor

Integritetsfrågor

facebook sekretessmark zuckerberg
Josh Edelson/Getty Images / Meta

Trots löftet som Metas chatbots kan visa, har rädslor också väckts över mängden data de sannolikt kommer att samla in - särskilt med tanke på att Facebook har en uruselt rekord på att skydda användarnas integritet.

Ravit Dotan, en AI-etisk rådgivare och forskare, citerades av Financial Times för att säga "När användare interagerar med en chatbot, den exponerar verkligen mycket mer av deras data för företaget, så att företaget kan göra vad de vill med det data."

Detta höjer inte bara utsikterna för långtgående integritetsintrång utan möjliggör möjligheten till "manipulation och nudging" av användare, tillade Dotan.

En stor risk

En skärmdump från Meta Connect 2022 som visar Mark Zuckerbergs avatar.
Meta

Andra chatbots som ChatGPT och Bing Chat har haft en historia av "hallucinationer", eller stunder där de delar felaktig information – eller till och med felaktig information. Den potentiella skadan orsakad av desinformation och partiskhet kan vara mycket högre på Facebook, som har nästan fyra miljarder användare, jämfört med rivaliserande chatbots.

Metas tidigare försök med chatbots har gått dåligt, med företagets BlenderBot 2 och BlenderBot 3 som båda snabbt övergår till vilseledande innehåll och inflammatoriskt hatretorik. Det kanske inte ger användarna mycket hopp för Metas senaste ansträngning.

När september närmar sig med stormsteg kanske vi inte har lång tid på oss att se om Facebook kan övervinna dessa hinder, eller om vi kommer att ha en annan hallucinationsfylld lansering som liknar dem som drabbats på andra håll i industri. Vad som än händer kommer det att bli intressant att se.

Redaktörens rekommendationer

  • ChatGPT: de senaste nyheterna, kontroverserna och tipsen du behöver veta
  • Apples ChatGPT-konkurrent är enligt uppgift "betydligt bakom konkurrenterna"
  • Till och med OpenAI har gett upp försöken att upptäcka ChatGPT-plagiat
  • GPT-4: hur man använder AI-chatboten som gör ChatGPT på skam
  • Vad är en DAN-prompt för ChatGPT?

Uppgradera din livsstilDigitala trender hjälper läsare att hålla koll på den snabba teknikvärlden med alla de senaste nyheterna, roliga produktrecensioner, insiktsfulla redaktioner och unika smygtittar.