Facebook-eier Meta planlegger å introdusere chatbots med distinkte personligheter til sin sosiale medie-app. Lanseringen kan komme så snart som i september og vil være en utfordring for rivaler som ChatGPT, men det er bekymring for at det kan få alvorlige konsekvenser for brukernes personvern.
Innhold
- Personvernhensyn
- En stor risiko
Ideen kommer fra Financial Times, som rapporterer at flyttingen er et forsøk på å øke engasjementet med Facebook brukere. Det nye verktøyet kan gjøre dette ved å tilby nye søkefunksjoner eller anbefale innhold, alt gjennom menneskelignende diskusjoner.
Ifølge kilder sitert av Financial Times, vil chatbotene ta på seg forskjellige personligheter, inkludert "en som emulerer Abraham Lincoln og en annen som gir råd om reisealternativer i stil med en surfer."
I slekt
- Apple har i all hemmelighet jobbet med en ChatGPT-rival i årevis
- Hackere bruker AI for å lage ond skadelig programvare, sier FBI
- Her er grunnen til at folk tror at GPT-4 kan bli dummere over tid
Dette ville ikke være første gang vi har sett chatbots ta på seg sin egen personlighet eller samtale i stil med kjente mennesker. De Character.ai chatbot, for eksempel, kan adoptere dusinvis av forskjellige personligheter, inkludert kjendiser og historiske personer.
Anbefalte videoer
Personvernhensyn
Til tross for løftet Metas chatbots kunne vise, har det også blitt reist frykt for mengden data de sannsynligvis vil samle inn - spesielt med tanke på at Facebook har en elendig rekord på å beskytte brukernes personvern.
Ravit Dotan, en AI-etikkrådgiver og -forsker, ble sitert av Financial Times for å si "Når brukere samhandler med en chatbot, den eksponerer virkelig mye mer av dataene deres for selskapet, slik at selskapet kan gjøre hva de vil med det data."
Dette øker ikke bare muligheten for vidtrekkende personvernbrudd, men åpner for muligheten for "manipulering og nudging" av brukere, la Dotan til.
En stor risiko
Andre chatbots som ChatGPT og Bing Chat har hatt en historie med "hallusinasjoner", eller øyeblikk hvor de deler feil informasjon – eller til og med feilinformasjon. Den potensielle skaden forårsaket av feilinformasjon og skjevhet kan være mye høyere på Facebook, som har nesten fire milliarder brukere, sammenlignet med rivaliserende chatbots.
Metas tidligere forsøk på chatbots har gått dårlig, med selskapets BlenderBot 2 og BlenderBot 3 som begge raskt har utviklet seg til villedende innhold og provoserende hatytringer. Det gir kanskje ikke brukerne mye håp for Metas siste innsats.
Når september nærmer seg med stormskritt, har vi kanskje ikke lenge til å se om Facebook er i stand til å overvinne disse hindringer, eller om vi vil ha en ny lansering med hallusinasjoner som ligner på de som ble rammet andre steder i industri. Uansett hva som skjer, blir det interessant å se.
Redaktørenes anbefalinger
- ChatGPT: de siste nyhetene, kontroversene og tipsene du trenger å vite
- Apples ChatGPT-rival er angivelig "betydelig bak konkurrentene"
- Til og med OpenAI har gitt opp forsøket på å oppdage ChatGPT-plagiat
- GPT-4: hvordan bruke AI-chatboten som gjør ChatGPT til skamme
- Hva er en DAN-forespørsel for ChatGPT?
Oppgrader livsstilen dinDigitale trender hjelper leserne å følge med på den fartsfylte teknologiverdenen med alle de siste nyhetene, morsomme produktanmeldelser, innsiktsfulle redaksjoner og unike sniktitter.