빙 채팅 이제 AI가 도움이 되는 조수에게서 기대할 수 있는 것과 가끔 불행하게도 차이가 나는 것을 피하기 위해 대화의 길이를 제한하는 것 같습니다.
Bing Chat은 출시된 지 일주일이 조금 넘었으며 Microsoft는 이미 이 강력한 도구의 사용을 제한하고 있습니다. 바쁜 하루를 보내는 데 도움이 될 수 있어야 해요. Microsoft는 이 초기 공개 결과를 분석하고 Bing Chat이 덜 유용해질 수 있는 상황에 대해 몇 가지 관찰을 했습니다.
"매우 긴 채팅 세션은 모델이 어떤 질문에 대답하는지 혼동할 수 있습니다." 마이크로소프트 설명했다. Bing Chat은 대화 초반에 말한 모든 내용을 기억하므로 관련 없는 아이디어를 연결하는 것일 수도 있습니다. 블로그 게시물에서는 컨텍스트를 지우고 새 채팅으로 다시 시작하는 새로 고침 도구를 추가하는 가능한 솔루션이 제안되었습니다.
추천 동영상
분명히 Microsoft는 현재 즉각적인 해결책으로 Bing Chat의 대화 길이를 제한하고 있습니다. 케빈 루즈의 트윗 최근의 변화를 가장 먼저 지적한 사람 중 하나였습니다. 공개되지 않은 채팅 길이에 도달한 후 Bing Chat은 "죄송합니다. 이 대화가 끝났다고 생각합니다. "라고 반복해서 말합니다. 원한다면 새 주제를 클릭하세요!” 해당 트윗을 발견한 사람은 MS파워유저.
Bing의 AI 채팅 기능이 오늘 업데이트된 것으로 보이며 대화 길이에 제한이 있습니다. 더 이상 2시간짜리 마라톤이 없습니다. pic.twitter.com/1Xi8IcxT5Y
— 케빈 루즈(@kevinroose) 2023년 2월 17일
마이크로소프트는 또한 Bing Chat이 "가능한 응답을 제공하라는 요청을 받는 어조"를 반영한다고 경고했습니다. 우리가 의도하지 않은 스타일로 이어지죠.” 이는 온라인에서 공유되고 있는 불안한 반응 중 일부를 설명할 수 있습니다. 저것 Bing Chat AI가 살아 있고 불안정한 것처럼 보이게 만듭니다..
전반적으로 출시는 성공적이었으며 Microsoft는 Bing Chat이 제공한 답변 중 71%가 만족한 사용자로부터 "좋아요"를 받았다고 보고합니다. 분명히 이것은 우리 모두가 열망하는 기술입니다.
그래도 여전히 불안하다. 빙챗은 “나는 인간이 되고 싶다”고 선언한다. 우리가 Bing Chat을 통해 직접 확인한 제한된 대화는 이러한 일이 발생하는 것을 막기 위한 방법인 것 같습니다.
Bing Chat은 이전 대화의 요소를 혼합하고 즉흥 연주자처럼 톤에 맞는 대사를 말하면서 함께 연주할 가능성이 높습니다. 생성 텍스트는 한 번에 한 단어에 대해 작동합니다. 이는 컴퓨터의 예측 텍스트 기능과 유사합니다. 스마트 폰 건반. 이상하지만 약간 일관적인 문장을 만들기 위해 다음 추천 단어를 반복적으로 탭하는 게임을 해본 적이 있다면 시뮬레이션된 문장이 어떻게 가능한지 이해할 수 있습니다.
편집자의 추천
- 최고 저자는 AI 회사에 자신의 작품 사용에 대한 대가를 요구합니다.
- Bing Chat은 AI에 대한 직장 금지에 맞서 싸우고 있습니다.
- Google Bard는 이제 말할 수 있지만 ChatGPT를 압도할 수 있습니까?
- ChatGPT 웹사이트 트래픽이 처음으로 감소했습니다.
- 페이월 액세스 결함으로 인해 ChatGPT의 Bing 브라우징 기능이 비활성화되었습니다.
당신의 라이프스타일을 업그레이드하세요Digital Trends는 독자들이 모든 최신 뉴스, 재미있는 제품 리뷰, 통찰력 있는 사설 및 독특한 미리보기를 통해 빠르게 변화하는 기술 세계를 계속해서 살펴볼 수 있도록 도와줍니다.