최고의 ChatGPT 대안(ChatGPT에 따름)

채팅GPT 빠르게 생성 AI의 사랑을 받았지만 게임에서 유일한 플레이어는 아닙니다. 이외에 밖에 있는 다른 모든 AI 도구 이미지 생성과 같은 작업을 수행하는 ChatGPT에는 직접 경쟁자가 많이 있습니다.

내용물

  • Microsoft의 빙
  • Google의 BERT
  • Google의 미나
  • 로베르타(Facebook)
  • Google의 XLNet
  • Microsoft Research의 DialoGPT
  • 알버트 바이 구글
  • Google의 T5
  • Salesforce로 CTRL
  • G샤드 바이 구글
  • Facebook AI Research의 블렌더
  • Google의 페가수스

ChatGPT에 물어보지 않겠습니까? 그것이 바로 제가 이 목록을 얻기 위해 한 일입니다. "정원" 통지에 직면, 또는 새로운 것을 시도하고 싶은 다른 사람들. 이들 모두가 ChatGPT만큼 대중에게 접근할 수 있는 것은 아니지만 ChatGPT에 따르면 이것이 최고의 대안입니다.

추천 동영상

Microsoft의 빙

Microsoft의 재설계된 Bing 검색 엔진.

AI가 나열한 선택에 들어가기 전에 ChatGPT의 가장 좋은 대안은 ChatGPT입니다. 마이크로소프트는 최근 Bing 검색 엔진에 AI 추가, 곧 Edge 브라우저에 기능을 출시할 계획입니다.

관련된

  • ChatGPT 제조사 OpenAI, 소비자 보호법에 대한 FTC 조사 직면
  • ChatGPT의 기록적인 성장은 새로운 바이럴 앱에 의해 무너졌습니다.
  • 초지능 AI의 도적질을 막기 위해 새로운 팀을 구축하는 OpenAI

아직 미리보기 단계에 있지만 새로운 AI 챗봇을 계속 사용해 볼 수 있습니다. bing.com/new 지금 바로. Microsoft는 초기에 쿼리 수를 제한한다고 말하지만 Bing ChatGPT 대기자 명단에 가입하세요 정식 버전을 사용할 수 있을 때 알림을 받습니다.

Google의 BERT

BERT(Bidirectional Encoder Representations from Transformers)는 Google에서 개발한 기계 학습 모델입니다. 많은 ChatGPT 결과에서 Google의 프로젝트를 언급했으며 이 목록의 뒷부분에서 확인할 수 있습니다.

BERT는 질문 응답 및 감정 분석과 같은 자연어 처리(NLP) 기능으로 유명합니다. 그것은 각각 8억 단어와 25억 단어를 학습한 BookCorpus와 English Wikipedia를 참조 사전 학습을 위한 모델로 사용합니다.

BERT는 처음으로 오픈 소스 연구 프로젝트 그리고 학술지 2018년 10월. 이후 이 기술은 Google 검색에 구현되었습니다. 초기 문학 BERT에 대해 2018년 11월에 OpenAI의 ChatGPT와 비교하면서 Google의 기술은 들어오는 텍스트를 예측하는 데 도움이 되는 깊은 양방향성이라는 점에 주목했습니다. 한편 OpenAI GPT는 단방향이며 복잡한 쿼리에만 응답할 수 있습니다.

Google의 미나

Meena는 챗봇입니다. 구글 도입 2020년 1월, 인간다운 대화 능력으로 그 기능의 예로는 재미있는 농담과 말장난이 포함된 간단한 대화가 있습니다. 예를 들어 Meena는 암소에게 Harvard에서 "Bovine sciences"를 공부하라고 제안합니다.

Google Meena 챗봇 예시.

OpenAI의 GPT-2에 대한 직접적인 대안으로 Meena는 당시 경쟁 제품보다 8.5배 많은 데이터를 처리할 수 있었습니다. 신경망은 2.6개의 매개변수로 구성되며 공개 도메인 소셜 미디어 대화에 대해 훈련됩니다. Meena는 또한 SSA(Sensibleness and Specificity Average)에서 79%의 메트릭 점수를 받아 당시 가장 지능적인 챗봇 중 하나가 되었습니다.

Meena 코드는 다음에서 사용할 수 있습니다. GitHub.

로베르타(Facebook)

로베르타 (Robustly Optimized BERT Pretraining Approach)는 원래 BERT의 또 다른 고급 버전으로, 페이스북 발표 2019년 7월.

페이스북 사전 교육 모델로 더 큰 데이터 소스를 사용하여 이 NLP 모델을 만들었습니다. RoBERTa는 2016년 9월부터 2019년 2월 사이에 생성된 6,300만 개의 영어 뉴스 기사가 포함된 CommonCrawl(CC-News)을 76GB 데이터 세트로 사용합니다. 이에 비해 원본 BERT는 Facebook에 따르면 English Wikipedia와 BookCorpus 데이터 세트 간에 16GB의 데이터를 사용합니다.

XLNet과 마찬가지로 RoBERTa는 Facebook의 연구에 따라 일련의 벤치마크 데이터 세트에서 BERT를 이겼습니다. 이러한 결과를 얻기 위해 회사는 더 큰 데이터 소스를 사용했을 뿐만 아니라 더 긴 기간.

페이스북이 로버타를 만들었다 오픈 소스 2019년 9월에 코드는 GitHub에서 사용 가능 커뮤니티 실험용.

벤처비트 당시 떠오르는 AI 시스템 중 GPT-2도 언급했다.

Google의 XLNet

XLNET은 변환기 기반 자동 회귀 언어 모델로 팀에서 개발했습니다. Google Brain과 Carnegie Mellon University 연구원. 이 모델은 본질적으로 더 발전된 BERT이며 2019년 6월에 처음 선보였습니다. 그룹은 XLNet이 최소한 16% 더 효율적 2018년에 발표된 원래 BERT보다 20개의 NLP 작업 테스트에서 BERT를 이길 수 있었습니다.

XLNet: 20가지 작업(예: SQuAD, GLUE, RACE)에서 BERT를 크게 개선하는 NLP를 위한 새로운 사전 훈련 방법

arxiv: https://t.co/C1tFMwZvyW

github(코드 + 사전 훈련된 모델): https://t.co/kI4jsVzT1u

양지린과 함께 @ZihangDai, 양이밍, 제이미 카보넬, @rsalakhupic.twitter.com/JboOekUVPQ

— Quoc Le(@quocleix) 2019년 6월 20일

XLNet과 BERT 모두 "마스킹된" 토큰을 사용하여 숨겨진 텍스트를 예측하므로 XLNet은 프로세스의 예측 부분을 가속화하여 효율성을 향상시킵니다. 예를 들어, 아마존 알렉사 데이터 과학자 Aishwarya Srinivasan 설명 XLNet은 "York"라는 용어가 해당 용어와 연관되어 있다고 예측하기 전에 "New"라는 단어가 "is a city"라는 용어와 연관되어 있는 것으로 식별할 수 있습니다. 한편, BERT는 "New"와 "York"라는 단어를 별도로 식별한 다음 예를 들어 "is a city"라는 용어와 연결해야 합니다.

특히 GPT와 GPT-2는 또한 언급 2019년 이 설명자에서 자기회귀 언어 모델의 다른 예입니다.

XLNet 코드와 사전 훈련된 모델은 GitHub에서 사용 가능. 이 모델은 NLP 연구 커뮤니티에서 잘 알려져 있습니다.

Microsoft Research의 DialoGPT

DialoGPT(Dialogue Generative Pre-trained Transformer)는 자동 회귀 언어 모델입니다. 소개되었다 2019년 11월 마이크로소프트 리서치. GPT-2와 유사한 이 모델은 인간과 같은 대화를 생성하도록 사전 훈련되었습니다. 그러나 주요 정보 소스는 Reddit 스레드에서 스크랩한 1억 4,700만 개의 멀티턴 대화였습니다.

DiabloGPT 멀티턴 생성 예시.

HumanFirst 수석 전도사인 Cobus Greyling은 다음과 같이 말했습니다. Telegram 메시징 서비스에 DialoGPT를 성공적으로 구현하여 모델을 챗봇으로 구현했습니다. 그는 Amazon Web Services와 Amazon SageMaker를 사용하면 코드를 미세 조정하는 데 도움이 될 수 있다고 덧붙였습니다.

DialoGPT 코드는 다음에서 사용할 수 있습니다. GitHub.

알버트 바이 구글

ALBERT(라이트 BERT) 원본 BERT의 잘린 버전으로 2019년 12월 Google에서 개발했습니다.

ALBERT를 사용하여 Google은 "숨겨진 레이어 임베딩"이 있는 매개변수를 도입하여 모델에서 허용되는 매개변수의 수를 제한했습니다.

Google의 RACE 챌린지(SAT와 같은 독해)에서 머신 성능

이는 BERT 모델뿐만 아니라 XLNet 및 RoBERTa에서도 개선되었습니다. 더 작은 모델을 고수하면서 두 개의 최신 모델에 사용되는 동일한 더 큰 데이터 세트 정보 매개변수. 기본적으로 ALBERT는 기능에 필요한 매개변수로만 작동하므로 성능과 정확성이 향상되었습니다. Google은 SAT와 같은 독해력 벤치마크를 포함하여 12개의 NLP 벤치마크에서 ALBERT가 BERT를 초과하는 것으로 나타났습니다.

이름으로 언급되지는 않았지만 GPT는 Google 리서치 블로그의 ALBERT 이미지에 포함되어 있습니다.

Google은 2020년 1월 ALBERT를 오픈 소스로 출시했으며 Google의 TensorFlow 위에 구현되었습니다. 코드는 다음에서 사용할 수 있습니다. GitHub.

Google의 T5

T5(Text-to-Text Transfer Transformer)는 NLP 모델입니다. 구글이 소개한 2019년에는 GPT, BERT, XLNet, RoBERTa, ALBERT 등 이전 모델에서 차용했습니다. 그것은 추가 새롭고 독특한 데이터 세트 Colossal Clean Crawled Corpus(C4)라고 하는 트랜스포머가 더 높은 품질을 생성할 수 있도록 합니다. 일반적인 크롤링 웹 스크랩과 비교하여 다른 데이터 세트보다 컨텍스트 결과 XLNet.
Google T5 Text-to-Text Transfer Transformer 사전 교육.
T5 사전 교육은 다음을 포함하는 챗봇 애플리케이션 생성으로 이어졌습니다. InferKit이 Transformer와 대화 그리고 AI 던전 게임. 텍스트 생성기는 초기 프롬프트 또는 쿼리 후에 AI가 생성하는 내용을 기반으로 현실적인 대화를 생성할 수 있다는 점에서 ChatGPT와 유사합니다.
T5 코드는 다음에서 사용할 수 있습니다. GitHub.

Salesforce로 CTRL

Salesforce(Computational Trust and Reasoning Layer)의 CTRL은 공개적으로 발표된 가장 큰 언어 모델 중 하나였습니다. 발표되었다 Salesforce에서 2019년 9월. 16억 개의 매개변수 언어 모델을 사용하여 웹 페이지와 관련된 텍스트와 같은 대규모 텍스트 본문을 한 번에 분석할 수 있습니다. 몇 가지 잠재적인 실제 용도에는 리뷰, 평가 및 속성과의 페어링이 포함됩니다.
Salesforce CTRL 소스 속성 예시.
CTRL 언어 모델은 특정 쿼리의 의도를 구두점까지 구별할 수 있습니다. Salesforce가 언급 모델은 "지구 온난화는 거짓말입니다." 사이의 차이점을 선택할 수 있습니다. 인기 없는 의견으로 그리고 "지구 온난화는 거짓말”이라는 문구의 기간 차이로 인한 음모론으로 해당 Reddit 스레드를 초안합니다. 각.
CTRL 참조 Wikipedia, Project Gutenberg, Amazon 리뷰 및 Reddit을 포함한 소스의 사전 훈련을 위한 최대 140GB의 데이터. 또한 여러 국제 뉴스, 정보 및 퀴즈 리소스를 참조합니다.
CTRL 코드는 다음에서 사용할 수 있습니다. GitHub.

G샤드 바이 구글

G샤드는 거대한 언어 번역 모델 저것 구글 도입 신경망 확장을 위해 2020년 6월에 이 모델에는 6000억 개의 매개변수가 포함되어 있어 한 번에 많은 데이터 세트를 훈련할 수 있습니다. GShard는 특히 언어 번역 4일 안에 100개 언어를 영어로 번역하는 훈련을 받습니다.

Facebook AI Research의 블렌더

블렌더는 오픈소스 챗봇으로 2020년 4월 페이스북 AI 리서치. 챗봇은 경쟁 모델보다 향상된 대화 기술을 제공하는 기능을 제공하는 것으로 알려졌습니다. 매력적인 요점을 말하고, 파트너의 의견을 듣고 이해하고, 공감과 개성을 보여줍니다.

블렌더 챗봇 예시.

Blender는 Google의 Meena 챗봇과 비교되었으며 OpenAI의 GPT-2와 비교되었습니다.

Blender 코드는 다음에서 사용할 수 있습니다. Parl.ai.

Google의 페가수스

Pegasus는 자연어 처리 모델입니다. 구글이 소개한 2019년 12월. Pegasus는 요약을 생성하도록 훈련될 수 있으며 BERT, GPT-2, RoBERTa, XLNet, ALBERT 및 T5와 같은 다른 모델과 마찬가지로 특정 작업에 맞게 미세 조정할 수 있습니다. Pegasus는 인간 대상과 비교하여 뉴스, 과학, 이야기, 지침, 이메일, 특허 및 입법 법안을 요약하는 효율성에 대해 테스트되었습니다.

PEGASUS NLP는 요약 품질 측면에서 인간과 비교되었습니다.

Pegasus 코드는 다음에서 사용할 수 있습니다. GitHub.

편집자 추천

  • Google Bard는 이제 말할 수 있지만 ChatGPT를 익사시킬 수 있습니까?
  • ChatGPT: 최신 뉴스, 논란, 알아야 할 팁
  • ChatGPT 웹사이트 트래픽이 처음으로 감소했습니다.
  • 페이월 액세스 결함으로 ChatGPT의 Bing 브라우징 기능 비활성화
  • 시도해 볼 최고의 AI 챗봇: ChatGPT, Bard 등