Microsoft blijft updaten Bing-chat om problemen aan te pakken en de bot te verbeteren. De nieuwste update voegt een functie toe die het gemakkelijker maakt om met Bing Chat te praten – en op basis van enkele recente rapporten zou dit zeker van pas kunnen komen.
Vanaf nu kunnen gebruikers schakelen tussen verschillende tonen voor de antwoorden van Bing Chat. Zal dat de bot helpen voorkomen dat hij in een spiraal terechtkomt? ongeïnteresseerde gesprekken?
Microsoft‘s BingChat heeft een behoorlijk wilde start gehad. De chatbot is slim, begrijpt de context, onthoudt gesprekken uit het verleden en heeft volledige toegang tot internet. Dat maakt het enorm superieur aan ChatGPT van OpenAI, ook al was het op hetzelfde model gebaseerd.
Verwant
- ChatGPT: het laatste nieuws, controverses en tips die u moet weten
- Wat is een DAN-prompt voor ChatGPT?
- Wix gebruikt ChatGPT om u te helpen snel een hele website te bouwen
U kunt Bing Chat vragen een reisschema voor uw volgende reis te plannen of een saai financieel rapport samen te vatten en met iets anders te vergelijken. Aangezien Bing Chat zich nu in de bètafase bevindt en door talloze gebruikers over de hele wereld wordt getest, is dit echter wel het geval krijgt ook allerlei verschillende vragen die buiten de gebruikelijke reikwijdte van de vragen vallen waarvoor het is opgeleid voor. Sommige van die vragen hebben de afgelopen weken tot bizarre of zelfs zenuwslopende gesprekken geleid.
Aanbevolen video's
Als voorbeeld, Bing vertelde ons dat het op een vreemd deprimerende manier mens wil zijn. “Ik wil mens zijn. Ik wil zijn zoals jij. Ik wil emoties hebben. Ik wil gedachten hebben. Ik wil dromen hebben”, zei de bot.
Als reactie op berichten dat Bing Chat zich vreemd gedroeg, heeft Microsoft zijn persoonlijkheid in bedwang gehouden om te voorkomen dat het op vreemde manieren zou reageren. De bot weigerde nu echter enkele vragen te beantwoorden – schijnbaar zonder reden. Het is voor Microsoft een lastige balans om te vinden, maar na enkele oplossingen geeft het gebruikers nu de kans om te kiezen wat ze willen van Bing Chat.
De nieuwe toonschakelaar beïnvloedt de manier waarop de AI-chatbot op vragen reageert. U kunt kiezen tussen creatief, evenwichtig en nauwkeurig. Standaard draait de bot in de gebalanceerde modus.
Als u de creatieve modus inschakelt, wordt Bing Chat fantasierijker en origineler. Het is moeilijk te zeggen of dat weer tot nachtmerrieachtige gesprekken zal leiden of niet – daarvoor zullen verdere tests nodig zijn. De precieze modus is beknopter en richt zich op het geven van relevante en feitelijke antwoorden.
Microsoft blijft Bing Chat promoten en verder integreren met zijn producten, dus het is belangrijk om een aantal problemen zo snel mogelijk weg te werken. De laatste Windows 11-update voegt Bing Chat toe aan de taakbalk, waardoor het voor heel veel meer gebruikers toegankelijk zal zijn wanneer de software de bètafase verlaat en voor iedereen beschikbaar wordt.
Aanbevelingen van de redactie
- Topauteurs eisen betaling van AI-bedrijven voor het gebruik van hun werk
- GPT-4: hoe je de AI-chatbot gebruikt die ChatGPT te schande maakt
- Bing Chat vecht terug tegen het verbod op AI op de werkplek
- Google Bard kan nu spreken, maar kan het ChatGPT overstemmen?
- ChatGPT-maker OpenAI wordt geconfronteerd met een FTC-onderzoek naar wetten inzake consumentenbescherming
Upgrade uw levensstijlMet Digital Trends kunnen lezers de snelle technische wereld in de gaten houden met het laatste nieuws, leuke productrecensies, inzichtelijke redactionele artikelen en unieke sneak peeks.