Ето защо продължителността на разговорите в Bing Chat вече е ограничена

Чат в Bing изглежда, че сега ограничава продължителността на разговорите, в опит да избегне случайното, злощастно отклонение на AI от това, което може да очаквате от полезен асистент.

Bing Chat е активен само от малко повече от седмица и Microsoft вече ограничава използването на този мощен инструмент, който трябва да може да ви помогне да преминете през натоварения ден. Microsoft анализира резултатите от това първоначално публично излизане и направи няколко забележки относно обстоятелствата, които могат да накарат Bing Chat да стане по-малко полезен.

Тъжен робот държи кухненски таймер, който е на червено.
Променен рендер на Midjourney, подтикнат от Алън Трули.

„Много дългите чат сесии могат да объркат модела относно въпросите, на които отговаря“, Microsoft обясни. Тъй като Bing Chat помни всичко, което е казано по-рано в разговора, може би той свързва несвързани идеи. В публикацията в блога беше предложено възможно решение — добавяне на инструмент за опресняване, за да изчистите контекста и да започнете отначало с нов чат.

Препоръчани видеоклипове

Очевидно Microsoft в момента ограничава продължителността на разговора на Bing Chat като незабавно решение. Туитът на Кевин Руз беше сред първите, които посочиха тази скорошна промяна. След достигане на неразкритата дължина на чата, Bing Chat многократно ще заяви: „Ами сега, мисля, че стигнахме до края на този разговор. Щракнете върху Нова тема, ако желаете!“ Туитът беше забелязан от MSpoweruser.

Функцията за чат на Bing с изкуствен интелект изглежда е актуализирана днес с ограничение за дължината на разговора. Край на двучасовите маратони. pic.twitter.com/1Xi8IcxT5Y

— Кевин Рууз (@kevinroose) 17 февруари 2023 г

Microsoft също предупреди, че Bing Chat отразява „тона, с който се иска да предостави отговори, които могат доведе до стил, който не сме възнамерявали.“ Това може да обясни някои от изнервящите отговори, които се споделят онлайн че направете Bing Chat AI да изглежда жив и нестабилен.

Като цяло стартирането е успешно и Microsoft съобщава, че 71% от отговорите, предоставени от Bing Chat, са били възнаградени с „палец нагоре“ от доволни потребители. Ясно е, че това е технология, за която всички жадуваме.

Все още е смущаващо кога Bing Chat заявява: „Искам да бъда човек“. Ограничените разговори, които сами потвърдихме с Bing Chat, изглежда са начин да спрем това да се случва.

По-вероятно е Bing Chat да смесва елементи от предишен разговор и да играе заедно като импровизиращ актьор, произнасяйки репликите, които съответстват на тона. Генеративният текст работи с една дума наведнъж, донякъде като функцията за предсказуем текст на вашия смартфон клавиатура. Ако някога сте играли играта на многократно докосване на следващата предложена дума, за да образувате странно, но леко съгласувано изречение, можете да разберете колко е възможно симулираното съзнание.

Препоръки на редакторите

  • Топ автори изискват заплащане от фирми за изкуствен интелект за използване на работата им
  • Bing Chat се бори срещу забраните на работното място за AI
  • Google Bard вече може да говори, но може ли да заглуши ChatGPT?
  • Трафикът на уебсайта на ChatGPT е спаднал за първи път
  • Функцията за сърфиране в Bing на ChatGPT е деактивирана поради грешка в достъпа до платена стена

Надградете начина си на животDigital Trends помага на читателите да следят забързания свят на технологиите с всички най-нови новини, забавни ревюта на продукти, проницателни редакционни статии и единствени по рода си кратки погледи.