Najlepsze alternatywy ChatGPT (według ChatGPT)

ChatGPT szybko stał się ulubieńcem generatywnej sztucznej inteligencji, ale nie jest jedynym graczem w grze. oprócz wszystkie inne dostępne narzędzia AI które robią takie rzeczy, jak generowanie obrazu, jest też wielu bezpośrednich konkurentów z ChatGPT — a przynajmniej tak zakładałem.

Zawartość

  • Bing od Microsoftu
  • BERT od Google
  • Meena od Google
  • RoBERTa przez Facebooka
  • XLNet od Google
  • DialoGPT firmy Microsoft Research
  • ALBERT od Google
  • T5 od Google
  • CTRL przez Salesforce
  • Ghard od Google
  • Blender od Facebook AI Research
  • Pegasus od Google

Dlaczego nie zapytać o to ChatGPT? Właśnie to zrobiłem, aby uzyskać tę listę, mając nadzieję, że znajdę dla nich kilka opcji w obliczu zawiadomień „osiągniętych”.lub innych, którzy chcą po prostu spróbować czegoś nowego. Nie wszystkie z nich są tak dostępne dla publiczności jak ChatGPT, ale według ChatGPT są to najlepsze alternatywy.

Polecane filmy

Bing od Microsoftu

Przeprojektowana wyszukiwarka Bing firmy Microsoft.

Zanim przejdziemy do typów wymienionych przez sztuczną inteligencję, najlepszą alternatywą dla ChatGPT jest ChatGPT. ostatnio Microsoftu

dodał sztuczną inteligencję do swojej wyszukiwarki Bingi planuje wkrótce udostępnić tę funkcję w przeglądarce Edge.

Powiązany

  • Twórca ChatGPT OpenAI mierzy się z sondą FTC w sprawie przepisów dotyczących ochrony konsumentów
  • Rekordowy wzrost ChatGPT został właśnie zdetronizowany przez nową wirusową aplikację
  • OpenAI buduje nowy zespół, aby powstrzymać superinteligentną sztuczną inteligencję przed zbuntowaniem się

Jest tylko w wersji zapoznawczej, ale wciąż możesz wypróbować nowego chatbota AI pod adresem bing.com/new już teraz. Microsoft twierdzi, że początkowo ogranicza liczbę zapytań, ale możesz dołącz do listy oczekujących Bing ChatGPT zostać powiadomiony, gdy pełna wersja będzie dostępna.

BERT od Google

BERT (Bidirectional Encoder Representations from Transformers) to model uczenia maszynowego opracowany przez Google. Wiele wyników ChatGPT wspomniało o projektach Google, które zobaczysz później na tej liście.

BERT jest znany ze swoich umiejętności przetwarzania języka naturalnego (NLP), takich jak odpowiadanie na pytania i analiza nastrojów. Wykorzystuje BookCorpus i angielską Wikipedię jako modele do wstępnego szkolenia, po nauczeniu się odpowiednio 800 milionów i 2,5 miliarda słów.

BERT został po raz pierwszy ogłoszony jako projekt badawczy typu open source I artykuł naukowy w październiku 2018 r. Od tego czasu technologia została wdrożona w wyszukiwarce Google. Wczesna literatura o BERT porównuje go z ChatGPT OpenAI w listopadzie 2018 r., zauważając, że technologia Google jest głęboko dwukierunkowa, co pomaga w przewidywaniu przychodzącego tekstu. Tymczasem OpenAI GPT jest jednokierunkowy i może odpowiadać tylko na złożone zapytania.

Meena od Google

Meena to chatbot, który Google wprowadził w styczniu 2020 r. z możliwością rozmawiania po ludzku. Przykłady jego funkcji obejmują proste rozmowy, które zawierają ciekawe dowcipy i kalambury, takie jak Meena sugerująca, że ​​krowy studiują „nauki o bydle” na Harvardzie.

Przykład chatbota Google Meena.

Jako bezpośrednia alternatywa dla GPT-2 OpenAI, Meena miała możliwość przetwarzania 8,5 razy większej ilości danych niż jej ówczesny konkurent. Jego sieć neuronowa składa się z 2,6 parametrów i jest szkolona w zakresie publicznych konwersacji w mediach społecznościowych. Meena uzyskała również wynik metryczny w kategorii Sensibleness and Specificity Average (SSA) wynoszący 79%, co czyni go jednym z najinteligentniejszych chatbotów swoich czasów.

Kod Meena jest dostępny na GitHub.

RoBERTa przez Facebooka

RoBERTa (Robustly Optimized BERT Pretraining Approach) to kolejna zaawansowana wersja oryginalnego BERT, która ogłosił Facebook w lipcu 2019 r.

Facebook stworzył ten model NLP z większym źródłem danych jako model przedtreningowy. RoBERTa wykorzystuje CommonCrawl (CC-News), który zawiera 63 miliony artykułów w języku angielskim wygenerowanych między wrześniem 2016 r. a lutym 2019 r. jako zestaw danych o pojemności 76 GB. Dla porównania, według Facebooka, oryginalny BERT wykorzystuje 16 GB danych między swoją angielską Wikipedią i zestawami danych BookCorpus.

Silimar do XLNet, RoBERTa pokonał BERT w zestawie zestawów danych porównawczych, zgodnie z badaniami Facebooka. Aby uzyskać te wyniki, firma nie tylko wykorzystała większe źródło danych, ale także wstępnie wytrenowała swój model dla dłuższy okres czasu.

Facebook stworzył RoBERTę otwarte źródło we wrześniu 2019 r., a jego kod to dostępne na GitHubie do eksperymentów społecznościowych.

VentureBeat wymienił również GPT-2 wśród powstających w tym czasie systemów AI.

XLNet od Google

XLNET jest autoregresyjnym modelem językowym opartym na transformatorze, opracowanym przez zespół Badacze Google Brain i Carnegie Mellon University. Model jest zasadniczo bardziej zaawansowanym BERT-em i został po raz pierwszy zaprezentowany w czerwcu 2019 r. Grupa stwierdziła, że ​​XLNet jest co najmniej 16% wydajniejszy niż oryginalny BERT, który został ogłoszony w 2018 roku i był w stanie pokonać BERT w teście 20 zadań NLP.

XLNet: nowa metoda treningu wstępnego dla NLP, która znacznie poprawia BERT w 20 zadaniach (np. SQuAD, GLUE, RACE)

arxiv: https://t.co/C1tFMwZvyW

github (kod + wstępnie wytrenowane modele): https://t.co/kI4jsVzT1u

z Zhilinem Yangiem, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ

— Quoc Le (@quocleix) 20 czerwca 2019 r

Zarówno XLNet, jak i BERT używają „zamaskowanych” tokenów do przewidywania ukrytego tekstu, XLNet poprawia wydajność, przyspieszając predykcyjną część procesu. Na przykład Amazon Alexa analityk danych Aishwarya Srinivasan wyjaśnione że XLNet jest w stanie zidentyfikować słowo „Nowy” jako skojarzone z terminem „jest miastem”, zanim przewidzi, że termin „York” również będzie powiązany z tym terminem. Tymczasem BERT musi oddzielnie zidentyfikować słowa „Nowy” i „Jork”, a następnie powiązać je na przykład z terminem „to miasto”.

Warto zauważyć, że GPT i GPT-2 są również wspomniano w tym objaśnieniu z 2019 r. jako inne przykłady autoregresyjnych modeli językowych.

Kod XLNet i wstępnie wytrenowane modele są dostępne na GitHubie. Model ten jest dobrze znany w środowisku badaczy NLP.

DialoGPT firmy Microsoft Research

DialoGPT (Dialogue Generative Pre-trained Transformer) jest autoregresyjnym modelem językowym, który został wprowadzony w listopadzie 2019 r. przez Microsoft Research. Z podobieństwami do GPT-2, model został wstępnie przeszkolony do generowania ludzkiej rozmowy. Jednak jego głównym źródłem informacji było 147 milionów wieloturowych dialogów zeskrobanych z wątków Reddita.

Przykłady generowania wieloturowego DiabloGPT.

– zauważył główny ewangelista HumanFirst, Cobus Greyling jego sukces we wdrożeniu DialoGPT w usłudze przesyłania wiadomości Telegram, aby ożywić model jako chatbota. Dodał, że korzystanie z usług Amazon Web Services i Amazon SageMaker może pomóc w dopracowaniu kodu.

Kod DialoGPT jest dostępny na GitHub.

ALBERT od Google

ALBERT (Lekki BERT) jest okrojoną wersją oryginalnego BERT i została opracowana przez Google w grudniu 2019 r.

W przypadku ALBERT firma Google ograniczyła liczbę parametrów dozwolonych w modelu, wprowadzając parametry z „osadzeniem ukrytych warstw”.

Wydajność maszyny w wyzwaniu RACE (czytanie ze zrozumieniem podobne do SAT) od Google

Poprawiło się to nie tylko w modelu BERT, ale także w XLNet i RoBERTa, ponieważ ALBERT można trenować ten sam większy zestaw danych wykorzystany w dwóch nowszych modelach, przy jednoczesnym przestrzeganiu mniejszych parametry. Zasadniczo ALBERT działa tylko z parametrami niezbędnymi do jego funkcji, co zwiększa wydajność i dokładność. Google wyszczególniło, że ALBERT przekroczył BERT w 12 testach porównawczych NLP, w tym w teście porównawczym czytania ze zrozumieniem podobnym do SAT.

Chociaż nie wymieniono go z nazwy, GPT jest uwzględniony w obrazie ALBERT na blogu Google Research.

Google udostępnił ALBERT jako open source w styczniu 2020 r. i został zaimplementowany na TensorFlow firmy Google. Kod jest dostępny na GitHub.

T5 od Google

T5 (Text-to-Text Transfer Transformer) to model NLP wprowadzony przez Google'a w 2019 roku, który pożycza od wielu wcześniejszych modeli, w tym między innymi GPT, BERT, XLNet, RoBERTa i ALBERT. Dodaje A nowy i unikalny zestaw danych o nazwie Colossal Clean Crawled Corpus (C4), który pozwala transformatorowi na produkcję wyższej jakości i wyniki kontekstowe niż inne zestawy danych w porównaniu do zeskrobań sieci Common Crawl, do których zostały użyte XLNet.
Szkolenie wstępne Google T5 Text-To-Text Transfer Transformer.
Wstępne szkolenie T5 zaowocowało stworzeniem aplikacji chatbotowych m.in InferKit Porozmawiaj z Transformerem i Lochy SI gra. Generatory tekstu przypominają ChatGPT, ponieważ umożliwiają generowanie realistycznych konwersacji na podstawie tego, co sztuczna inteligencja generuje po początkowych monitach lub zapytaniach.
Kod T5 jest dostępny na GitHub.

CTRL przez Salesforce

CTRL by Salesforce (Computational Trust and Reasoning Layer) był jednym z największych publicznie udostępnionych modeli językowych, kiedy został ogłoszony we wrześniu 2019 przez Salesforce. Model języka o 1,6 miliarda parametrów może być używany do jednoczesnej analizy dużych tekstów, na przykład związanych ze stronami internetowymi. Niektóre potencjalne praktyczne zastosowania obejmują parowanie z recenzjami, ocenami i atrybucjami.
Przykład przypisania źródła Salesforce CTRL.
Model języka CTRL może rozróżnić intencje konkretnego zapytania aż do interpunkcji. Salesforce zauważył model może dostrzec różnicę między „Globalne ocieplenie to kłamstwo”. jako niepopularna opinia i „Globalne ocieplenie to kłamstwo” jako teorię spiskową ze względu na różnicę okresu we frazach i sporządzić odpowiednie wątki Reddit dla każdy.
Odwołania CTRL do 140 GB danych do wstępnego szkolenia ze źródeł, w tym Wikipedii, Project Gutenberg, recenzji Amazon i Reddit. Odwołuje się również do wielu międzynarodowych wiadomości, informacji i ciekawostek.
Kod CTRL jest dostępny na GitHub.

Ghard od Google

GShard jest gigantyczny model tłumaczenia językowego To Google wprowadził w czerwcu 2020 r. w celu skalowania sieci neuronowej. Model zawiera 600 miliardów parametrów, co pozwala na jednoczesne trenowanie dużych zestawów danych. GShard jest szczególnie biegły w tłumaczenie językowe i przeszkolenie w tłumaczeniu 100 języków na angielski w ciągu czterech dni.

Blender od Facebook AI Research

Blender to chatbot o otwartym kodzie źródłowym, który został wprowadzony w kwiecień 2020 r przez Facebook AI Research. Zauważono, że chatbot ma lepsze umiejętności konwersacyjne w porównaniu z modelami konkurencji, z możliwością zapewnienia angażujące tematy do rozmów, słuchaj i okazuj zrozumienie wkładu swojego partnera oraz okazuj empatię i osobowość.

Przykład chatbota Blendera.

Blender został porównany do chatbota Google Meena, który z kolei został porównany do GPT-2 OpenAI

Kod Blendera jest dostępny na Parl.ai.

Pegasus od Google

Pegasus to model przetwarzania języka naturalnego, który był wprowadzony przez Google'a w grudniu 2019 r. Pegasus można wyszkolić do tworzenia podsumowań i podobnie jak inne modele, takie jak BERT, GPT-2, RoBERTa, XLNet, ALBERT i T5, można go dostosować do określonych zadań. Pegasus został przetestowany pod kątem skuteczności podsumowywania wiadomości, nauki, historii, instrukcji, e-maili, patentów i projektów ustaw w porównaniu z ludźmi.

PEGASUS NLP został porównany do człowieka pod względem jakości podsumowania.

Kod Pegasus jest dostępny na GitHub.

Zalecenia redaktorów

  • Google Bard może teraz mówić, ale czy może zagłuszyć ChatGPT?
  • ChatGPT: najnowsze wiadomości, kontrowersje i wskazówki, które musisz znać
  • Ruch na stronie ChatGPT spadł po raz pierwszy
  • Funkcja przeglądania Bing w ChatGPT została wyłączona z powodu błędu w dostępie do paywalla
  • Najlepsze chatboty AI do wypróbowania: ChatGPT, Bard i inne