채팅GPT 빠르게 생성 AI의 사랑을 받았지만 게임에서 유일한 플레이어는 아닙니다. 이외에 밖에 있는 다른 모든 AI 도구 이미지 생성과 같은 작업을 수행하는 ChatGPT에는 직접 경쟁자가 많이 있습니다.
내용물
- Microsoft의 빙
- Google의 BERT
- Google의 미나
- 로베르타(Facebook)
- Google의 XLNet
- Microsoft Research의 DialoGPT
- 알버트 바이 구글
- Google의 T5
- Salesforce로 CTRL
- G샤드 바이 구글
- Facebook AI Research의 블렌더
- Google의 페가수스
ChatGPT에 물어보지 않겠습니까? 그것이 바로 제가 이 목록을 얻기 위해 한 일입니다. "정원" 통지에 직면, 또는 새로운 것을 시도하고 싶은 다른 사람들. 이들 모두가 ChatGPT만큼 대중에게 접근할 수 있는 것은 아니지만 ChatGPT에 따르면 이것이 최고의 대안입니다.
추천 동영상
Microsoft의 빙
AI가 나열한 선택에 들어가기 전에 ChatGPT의 가장 좋은 대안은 ChatGPT입니다. 마이크로소프트는 최근 Bing 검색 엔진에 AI 추가, 곧 Edge 브라우저에 기능을 출시할 계획입니다.
관련된
- ChatGPT 제조사 OpenAI, 소비자 보호법에 대한 FTC 조사 직면
- ChatGPT의 기록적인 성장은 새로운 바이럴 앱에 의해 무너졌습니다.
- 초지능 AI의 도적질을 막기 위해 새로운 팀을 구축하는 OpenAI
아직 미리보기 단계에 있지만 새로운 AI 챗봇을 계속 사용해 볼 수 있습니다. bing.com/new 지금 바로. Microsoft는 초기에 쿼리 수를 제한한다고 말하지만 Bing ChatGPT 대기자 명단에 가입하세요 정식 버전을 사용할 수 있을 때 알림을 받습니다.
Google의 BERT
BERT(Bidirectional Encoder Representations from Transformers)는 Google에서 개발한 기계 학습 모델입니다. 많은 ChatGPT 결과에서 Google의 프로젝트를 언급했으며 이 목록의 뒷부분에서 확인할 수 있습니다.
BERT는 질문 응답 및 감정 분석과 같은 자연어 처리(NLP) 기능으로 유명합니다. 그것은 각각 8억 단어와 25억 단어를 학습한 BookCorpus와 English Wikipedia를 참조 사전 학습을 위한 모델로 사용합니다.
BERT는 처음으로 오픈 소스 연구 프로젝트 그리고 학술지 2018년 10월. 이후 이 기술은 Google 검색에 구현되었습니다. 초기 문학 BERT에 대해 2018년 11월에 OpenAI의 ChatGPT와 비교하면서 Google의 기술은 들어오는 텍스트를 예측하는 데 도움이 되는 깊은 양방향성이라는 점에 주목했습니다. 한편 OpenAI GPT는 단방향이며 복잡한 쿼리에만 응답할 수 있습니다.
Google의 미나
Meena는 챗봇입니다. 구글 도입 2020년 1월, 인간다운 대화 능력으로 그 기능의 예로는 재미있는 농담과 말장난이 포함된 간단한 대화가 있습니다. 예를 들어 Meena는 암소에게 Harvard에서 "Bovine sciences"를 공부하라고 제안합니다.
OpenAI의 GPT-2에 대한 직접적인 대안으로 Meena는 당시 경쟁 제품보다 8.5배 많은 데이터를 처리할 수 있었습니다. 신경망은 2.6개의 매개변수로 구성되며 공개 도메인 소셜 미디어 대화에 대해 훈련됩니다. Meena는 또한 SSA(Sensibleness and Specificity Average)에서 79%의 메트릭 점수를 받아 당시 가장 지능적인 챗봇 중 하나가 되었습니다.
Meena 코드는 다음에서 사용할 수 있습니다. GitHub.
로베르타(Facebook)
로베르타 (Robustly Optimized BERT Pretraining Approach)는 원래 BERT의 또 다른 고급 버전으로, 페이스북 발표 2019년 7월.
페이스북 사전 교육 모델로 더 큰 데이터 소스를 사용하여 이 NLP 모델을 만들었습니다. RoBERTa는 2016년 9월부터 2019년 2월 사이에 생성된 6,300만 개의 영어 뉴스 기사가 포함된 CommonCrawl(CC-News)을 76GB 데이터 세트로 사용합니다. 이에 비해 원본 BERT는 Facebook에 따르면 English Wikipedia와 BookCorpus 데이터 세트 간에 16GB의 데이터를 사용합니다.
XLNet과 마찬가지로 RoBERTa는 Facebook의 연구에 따라 일련의 벤치마크 데이터 세트에서 BERT를 이겼습니다. 이러한 결과를 얻기 위해 회사는 더 큰 데이터 소스를 사용했을 뿐만 아니라 더 긴 기간.
페이스북이 로버타를 만들었다 오픈 소스 2019년 9월에 코드는 GitHub에서 사용 가능 커뮤니티 실험용.
벤처비트 당시 떠오르는 AI 시스템 중 GPT-2도 언급했다.
Google의 XLNet
XLNET은 변환기 기반 자동 회귀 언어 모델로 팀에서 개발했습니다. Google Brain과 Carnegie Mellon University 연구원. 이 모델은 본질적으로 더 발전된 BERT이며 2019년 6월에 처음 선보였습니다. 그룹은 XLNet이 최소한 16% 더 효율적 2018년에 발표된 원래 BERT보다 20개의 NLP 작업 테스트에서 BERT를 이길 수 있었습니다.
XLNet: 20가지 작업(예: SQuAD, GLUE, RACE)에서 BERT를 크게 개선하는 NLP를 위한 새로운 사전 훈련 방법
arxiv: https://t.co/C1tFMwZvyW
github(코드 + 사전 훈련된 모델): https://t.co/kI4jsVzT1u
양지린과 함께 @ZihangDai, 양이밍, 제이미 카보넬, @rsalakhupic.twitter.com/JboOekUVPQ
— Quoc Le(@quocleix) 2019년 6월 20일
XLNet과 BERT 모두 "마스킹된" 토큰을 사용하여 숨겨진 텍스트를 예측하므로 XLNet은 프로세스의 예측 부분을 가속화하여 효율성을 향상시킵니다. 예를 들어, 아마존 알렉사 데이터 과학자 Aishwarya Srinivasan 설명 XLNet은 "York"라는 용어가 해당 용어와 연관되어 있다고 예측하기 전에 "New"라는 단어가 "is a city"라는 용어와 연관되어 있는 것으로 식별할 수 있습니다. 한편, BERT는 "New"와 "York"라는 단어를 별도로 식별한 다음 예를 들어 "is a city"라는 용어와 연결해야 합니다.
특히 GPT와 GPT-2는 또한 언급 2019년 이 설명자에서 자기회귀 언어 모델의 다른 예입니다.
XLNet 코드와 사전 훈련된 모델은 GitHub에서 사용 가능. 이 모델은 NLP 연구 커뮤니티에서 잘 알려져 있습니다.
Microsoft Research의 DialoGPT
DialoGPT(Dialogue Generative Pre-trained Transformer)는 자동 회귀 언어 모델입니다. 소개되었다 2019년 11월 마이크로소프트 리서치. GPT-2와 유사한 이 모델은 인간과 같은 대화를 생성하도록 사전 훈련되었습니다. 그러나 주요 정보 소스는 Reddit 스레드에서 스크랩한 1억 4,700만 개의 멀티턴 대화였습니다.
HumanFirst 수석 전도사인 Cobus Greyling은 다음과 같이 말했습니다. Telegram 메시징 서비스에 DialoGPT를 성공적으로 구현하여 모델을 챗봇으로 구현했습니다. 그는 Amazon Web Services와 Amazon SageMaker를 사용하면 코드를 미세 조정하는 데 도움이 될 수 있다고 덧붙였습니다.
DialoGPT 코드는 다음에서 사용할 수 있습니다. GitHub.
알버트 바이 구글
ALBERT(라이트 BERT) 원본 BERT의 잘린 버전으로 2019년 12월 Google에서 개발했습니다.
ALBERT를 사용하여 Google은 "숨겨진 레이어 임베딩"이 있는 매개변수를 도입하여 모델에서 허용되는 매개변수의 수를 제한했습니다.
이는 BERT 모델뿐만 아니라 XLNet 및 RoBERTa에서도 개선되었습니다. 더 작은 모델을 고수하면서 두 개의 최신 모델에 사용되는 동일한 더 큰 데이터 세트 정보 매개변수. 기본적으로 ALBERT는 기능에 필요한 매개변수로만 작동하므로 성능과 정확성이 향상되었습니다. Google은 SAT와 같은 독해력 벤치마크를 포함하여 12개의 NLP 벤치마크에서 ALBERT가 BERT를 초과하는 것으로 나타났습니다.
이름으로 언급되지는 않았지만 GPT는 Google 리서치 블로그의 ALBERT 이미지에 포함되어 있습니다.
Google은 2020년 1월 ALBERT를 오픈 소스로 출시했으며 Google의 TensorFlow 위에 구현되었습니다. 코드는 다음에서 사용할 수 있습니다. GitHub.
Google의 T5
Salesforce로 CTRL
G샤드 바이 구글
G샤드는 거대한 언어 번역 모델 저것 구글 도입 신경망 확장을 위해 2020년 6월에 이 모델에는 6000억 개의 매개변수가 포함되어 있어 한 번에 많은 데이터 세트를 훈련할 수 있습니다. GShard는 특히 언어 번역 4일 안에 100개 언어를 영어로 번역하는 훈련을 받습니다.
Facebook AI Research의 블렌더
블렌더는 오픈소스 챗봇으로 2020년 4월 페이스북 AI 리서치. 챗봇은 경쟁 모델보다 향상된 대화 기술을 제공하는 기능을 제공하는 것으로 알려졌습니다. 매력적인 요점을 말하고, 파트너의 의견을 듣고 이해하고, 공감과 개성을 보여줍니다.
Blender는 Google의 Meena 챗봇과 비교되었으며 OpenAI의 GPT-2와 비교되었습니다.
Blender 코드는 다음에서 사용할 수 있습니다. Parl.ai.
Google의 페가수스
Pegasus는 자연어 처리 모델입니다. 구글이 소개한 2019년 12월. Pegasus는 요약을 생성하도록 훈련될 수 있으며 BERT, GPT-2, RoBERTa, XLNet, ALBERT 및 T5와 같은 다른 모델과 마찬가지로 특정 작업에 맞게 미세 조정할 수 있습니다. Pegasus는 인간 대상과 비교하여 뉴스, 과학, 이야기, 지침, 이메일, 특허 및 입법 법안을 요약하는 효율성에 대해 테스트되었습니다.
Pegasus 코드는 다음에서 사용할 수 있습니다. GitHub.
편집자 추천
- Google Bard는 이제 말할 수 있지만 ChatGPT를 익사시킬 수 있습니까?
- ChatGPT: 최신 뉴스, 논란, 알아야 할 팁
- ChatGPT 웹사이트 트래픽이 처음으로 감소했습니다.
- 페이월 액세스 결함으로 ChatGPT의 Bing 브라우징 기능 비활성화
- 시도해 볼 최고의 AI 챗봇: ChatGPT, Bard 등