Alphabet hat seine Mitarbeiter angewiesen, keine vertraulichen Informationen in Bard einzugeben, den generativen KI-Chatbot, der von Google entwickelt und betrieben wird und zu dem Alphabet gehört.
Die Warnung des Unternehmens erstreckt sich auch auf andere Chatbots, wie etwa den von Microsoft unterstützten ChatGPT von OpenAI. Reuters berichtete am Donnerstag.
Empfohlene Videos
Die KI-gestützten Chatbots haben in den letzten Monaten großes Interesse geweckt, da sie beeindruckend in der Lage sind, sich wie ein Mensch zu unterhalten, Aufsätze und Berichte zu schreiben und sogar in akademischen Tests erfolgreich zu sein.
Verwandt
- Google Bard kann jetzt sprechen, aber kann es ChatGPT übertönen?
- Elon Musks neues KI-Unternehmen will „das Universum verstehen“
- KI-Durchbrüche könnten über das Gehirn von Bienen erfolgen, sagen Wissenschaftler
Aber Alphabet hat Bedenken, dass seine Mitarbeiter über die Tools unbeabsichtigt interne Daten preisgeben könnten.
Im Rahmen der laufenden Arbeit zur Verfeinerung und Verbesserung der fortschrittlichen KI-Technologie können menschliche Prüfer die Gespräche lesen, die Benutzer mit den Chatbots führen. Dies stellt ein Risiko für die Privatsphäre und auch die potenzielle Offenlegung von Geschäftsgeheimnissen dar, wobei letzteres offenbar besonders für Alphabet von Belang ist um.
Darüber hinaus werden die Chatbots zum Teil über den Textaustausch der Nutzer trainiert, also mit bestimmten Eingabeaufforderungen, dem Tool könnte möglicherweise vertrauliche Informationen, die es in diesen Gesprächen erhält, an Mitglieder des Unternehmens weitergeben öffentlich.
Wie ChatGPT, Bard ist jetzt kostenlos erhältlich damit jeder es versuchen kann. Auf seiner Webseite warnt es Benutzer: „Bitte geben Sie in Ihren Bard-Gesprächen keine Informationen an, die zur Identifizierung von Ihnen oder anderen verwendet werden können.“
Es fügt hinzu, dass Google „Bard-Gespräche, zugehörige Produktnutzungsinformationen und Informationen über Sie“ sammelt Standort und Ihr Feedback“ und verwendet die Daten, um die Produkte und Dienste von Google zu verbessern Barde.
Google gibt an, die Bard-Aktivität bis zu 18 Monate lang zu speichern, obwohl ein Nutzer dies in seinem Google-Konto auf drei oder 36 Monate ändern kann.
Es fügt hinzu, dass Bard-Konversationen aus Datenschutzgründen von einem Google-Konto getrennt werden, bevor ein menschlicher Prüfer sie sieht.
Laut Reuters gilt die Warnung von Alphabet zwar schon seit einiger Zeit, das Unternehmen hat sie jedoch kürzlich ausgeweitet und seine Mitarbeiter aufgefordert, die Verwendung präziser, von Chatbots generierter Computercodes zu vermeiden. Das Unternehmen teilte der Nachrichtenagentur mit, dass Bard manchmal „unerwünschte Codevorschläge“ machen kann, obwohl die aktuelle Version des Tools immer noch als brauchbare Programmierhilfe angesehen wird.
Alphabet ist nicht das einzige Unternehmen, das seine Mitarbeiter vor den Datenschutz- und Sicherheitsrisiken warnt, die mit der Nutzung der Chatbots verbunden sind. Samsung hat kürzlich eine herausgegeben ähnliche Anweisungen für seine Arbeiter Nachdem einige von ihnen vertrauliche Halbleiterdaten in ChatGPT eingegeben hatten, haben Berichten zufolge unter anderem auch Apple und Amazon eine ähnliche interne Richtlinie erlassen.
Empfehlungen der Redaktion
- Die besten KI-Videobearbeitungstools
- Der ChatGPT-Hersteller OpenAI steht vor einer FTC-Untersuchung wegen Verbraucherschutzgesetzen
- Der ChatGPT-Website-Verkehr ist zum ersten Mal zurückgegangen
- OpenAI baut neues Team auf, um zu verhindern, dass superintelligente KI abtrünnig wird
- Das gesamte Internet gehört mittlerweile der KI von Google
Werten Sie Ihren Lebensstil aufDigital Trends hilft Lesern mit den neuesten Nachrichten, unterhaltsamen Produktrezensionen, aufschlussreichen Leitartikeln und einzigartigen Einblicken, den Überblick über die schnelllebige Welt der Technik zu behalten.