Facebook-Inhaber Meta plant die Einführung von Chatbots mit unterschiedlichen Persönlichkeiten in seiner Social-Media-App. Der Start könnte bereits im September dieses Jahres erfolgen und wäre eine Herausforderung für die Konkurrenz ChatGPTEs bestehen jedoch Bedenken, dass dies schwerwiegende Auswirkungen auf die Privatsphäre der Benutzer haben könnte.
Inhalt
- Datenschutzbedenken
- Ein großes Risiko
Die Idee stammt von der Financial Times, die berichtet, dass der Schritt ein Versuch ist, das Engagement zu steigern Facebook Benutzer. Das neue Tool könnte dies tun, indem es neue Suchfunktionen bereitstellt oder Inhalte empfiehlt – und das alles durch menschliche Diskussionen.
Laut von der Financial Times zitierten Quellen werden die Chatbots unterschiedliche Rollen annehmen, darunter „eines, das Abraham Lincoln nachahmt, und ein anderes, das Ratschläge zu Reisemöglichkeiten im Stil von a gibt.“ Surfer."
Verwandt
- Apple arbeitet seit Jahren heimlich an einem ChatGPT-Rivalen
- Hacker nutzen KI, um bösartige Malware zu erstellen, sagt das FBI
- Aus diesem Grund denken die Leute, dass GPT-4 mit der Zeit dümmer werden könnte
Dies wäre nicht das erste Mal, dass Chatbots ihre eigene Persönlichkeit annehmen oder sich im Stil berühmter Persönlichkeiten unterhalten. Der Character.ai-ChatbotBeispielsweise können Dutzende verschiedene Persönlichkeiten angenommen werden, darunter auch die von Prominenten und historischen Persönlichkeiten.
Empfohlene Videos
Datenschutzbedenken
Trotz des Versprechens, das die Chatbots von Meta zeigen könnten, wurden auch Befürchtungen hinsichtlich der Menge an Daten geäußert, die sie wahrscheinlich sammeln werden – insbesondere angesichts der Tatsache, dass Facebook über einen verfügt miserable Bilanz beim Schutz der Privatsphäre der Benutzer.
Ravit Dotan, ein KI-Ethikberater und Forscher, wurde von der Financial Times mit den Worten zitiert: „Sobald Benutzer mit a interagieren Chatbot stellt dem Unternehmen wirklich viel mehr seiner Daten zur Verfügung, so dass das Unternehmen damit alles machen kann, was es will Daten."
Dies erhöhe nicht nur die Aussicht auf weitreichende Datenschutzverletzungen, sondern ermögliche auch die Möglichkeit einer „Manipulation und Anstupsung“ von Benutzern, fügte Dotan hinzu.
Ein großes Risiko
Andere Chatbots wie ChatGPT und Bing Chat hatten eine Geschichte der „Halluzinationen“ oder Momente, in denen sie falsche Informationen weitergeben – oder sogar Fehlinformationen. Der potenzielle Schaden, der durch Fehlinformationen und Voreingenommenheit verursacht wird, könnte bei Facebook, das fast vier Milliarden Nutzer hat, im Vergleich zu konkurrierenden Chatbots viel höher sein.
Metas frühere Versuche mit Chatbots waren schlecht, da BlenderBot 2 und BlenderBot 3 des Unternehmens schnell zu irreführenden Inhalten und hetzerischen Hassreden führten. Das gibt den Benutzern möglicherweise nicht viel Hoffnung für Metas neueste Bemühungen.
Da der September immer näher rückt, werden wir vielleicht nicht lange abwarten, ob Facebook in der Lage ist, diese zu überwinden Hürden zu überwinden, oder ob wir einen weiteren von Halluzinationen geplagten Start erleben werden, ähnlich denen, die wir anderswo in der Welt erlitten haben Industrie. Was auch immer passiert, es wird interessant zu beobachten sein.
Empfehlungen der Redaktion
- ChatGPT: die neuesten Nachrichten, Kontroversen und Tipps, die Sie wissen müssen
- Apples ChatGPT-Rivale liegt Berichten zufolge „deutlich hinter der Konkurrenz“ zurück
- Sogar OpenAI hat den Versuch aufgegeben, ChatGPT-Plagiate zu erkennen
- GPT-4: So verwenden Sie den KI-Chatbot, der ChatGPT in den Schatten stellt
- Was ist eine DAN-Eingabeaufforderung für ChatGPT?
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.