ChatGPT szybko stał się ulubieńcem generatywnej sztucznej inteligencji, ale nie jest jedynym graczem w grze. oprócz wszystkie inne dostępne narzędzia AI które robią takie rzeczy, jak generowanie obrazu, jest też wielu bezpośrednich konkurentów z ChatGPT — a przynajmniej tak zakładałem.
Zawartość
- Bing od Microsoftu
- BERT od Google
- Meena od Google
- RoBERTa przez Facebooka
- XLNet od Google
- DialoGPT firmy Microsoft Research
- ALBERT od Google
- T5 od Google
- CTRL przez Salesforce
- Ghard od Google
- Blender od Facebook AI Research
- Pegasus od Google
Dlaczego nie zapytać o to ChatGPT? Właśnie to zrobiłem, aby uzyskać tę listę, mając nadzieję, że znajdę dla nich kilka opcji w obliczu zawiadomień „osiągniętych”.lub innych, którzy chcą po prostu spróbować czegoś nowego. Nie wszystkie z nich są tak dostępne dla publiczności jak ChatGPT, ale według ChatGPT są to najlepsze alternatywy.
Polecane filmy
Bing od Microsoftu
Zanim przejdziemy do typów wymienionych przez sztuczną inteligencję, najlepszą alternatywą dla ChatGPT jest ChatGPT. ostatnio Microsoftu
dodał sztuczną inteligencję do swojej wyszukiwarki Bingi planuje wkrótce udostępnić tę funkcję w przeglądarce Edge.Powiązany
- Twórca ChatGPT OpenAI mierzy się z sondą FTC w sprawie przepisów dotyczących ochrony konsumentów
- Rekordowy wzrost ChatGPT został właśnie zdetronizowany przez nową wirusową aplikację
- OpenAI buduje nowy zespół, aby powstrzymać superinteligentną sztuczną inteligencję przed zbuntowaniem się
Jest tylko w wersji zapoznawczej, ale wciąż możesz wypróbować nowego chatbota AI pod adresem bing.com/new już teraz. Microsoft twierdzi, że początkowo ogranicza liczbę zapytań, ale możesz dołącz do listy oczekujących Bing ChatGPT zostać powiadomiony, gdy pełna wersja będzie dostępna.
BERT od Google
BERT (Bidirectional Encoder Representations from Transformers) to model uczenia maszynowego opracowany przez Google. Wiele wyników ChatGPT wspomniało o projektach Google, które zobaczysz później na tej liście.
BERT jest znany ze swoich umiejętności przetwarzania języka naturalnego (NLP), takich jak odpowiadanie na pytania i analiza nastrojów. Wykorzystuje BookCorpus i angielską Wikipedię jako modele do wstępnego szkolenia, po nauczeniu się odpowiednio 800 milionów i 2,5 miliarda słów.
BERT został po raz pierwszy ogłoszony jako projekt badawczy typu open source I artykuł naukowy w październiku 2018 r. Od tego czasu technologia została wdrożona w wyszukiwarce Google. Wczesna literatura o BERT porównuje go z ChatGPT OpenAI w listopadzie 2018 r., zauważając, że technologia Google jest głęboko dwukierunkowa, co pomaga w przewidywaniu przychodzącego tekstu. Tymczasem OpenAI GPT jest jednokierunkowy i może odpowiadać tylko na złożone zapytania.
Meena od Google
Meena to chatbot, który Google wprowadził w styczniu 2020 r. z możliwością rozmawiania po ludzku. Przykłady jego funkcji obejmują proste rozmowy, które zawierają ciekawe dowcipy i kalambury, takie jak Meena sugerująca, że krowy studiują „nauki o bydle” na Harvardzie.
Jako bezpośrednia alternatywa dla GPT-2 OpenAI, Meena miała możliwość przetwarzania 8,5 razy większej ilości danych niż jej ówczesny konkurent. Jego sieć neuronowa składa się z 2,6 parametrów i jest szkolona w zakresie publicznych konwersacji w mediach społecznościowych. Meena uzyskała również wynik metryczny w kategorii Sensibleness and Specificity Average (SSA) wynoszący 79%, co czyni go jednym z najinteligentniejszych chatbotów swoich czasów.
Kod Meena jest dostępny na GitHub.
RoBERTa przez Facebooka
RoBERTa (Robustly Optimized BERT Pretraining Approach) to kolejna zaawansowana wersja oryginalnego BERT, która ogłosił Facebook w lipcu 2019 r.
Facebook stworzył ten model NLP z większym źródłem danych jako model przedtreningowy. RoBERTa wykorzystuje CommonCrawl (CC-News), który zawiera 63 miliony artykułów w języku angielskim wygenerowanych między wrześniem 2016 r. a lutym 2019 r. jako zestaw danych o pojemności 76 GB. Dla porównania, według Facebooka, oryginalny BERT wykorzystuje 16 GB danych między swoją angielską Wikipedią i zestawami danych BookCorpus.
Silimar do XLNet, RoBERTa pokonał BERT w zestawie zestawów danych porównawczych, zgodnie z badaniami Facebooka. Aby uzyskać te wyniki, firma nie tylko wykorzystała większe źródło danych, ale także wstępnie wytrenowała swój model dla dłuższy okres czasu.
Facebook stworzył RoBERTę otwarte źródło we wrześniu 2019 r., a jego kod to dostępne na GitHubie do eksperymentów społecznościowych.
VentureBeat wymienił również GPT-2 wśród powstających w tym czasie systemów AI.
XLNet od Google
XLNET jest autoregresyjnym modelem językowym opartym na transformatorze, opracowanym przez zespół Badacze Google Brain i Carnegie Mellon University. Model jest zasadniczo bardziej zaawansowanym BERT-em i został po raz pierwszy zaprezentowany w czerwcu 2019 r. Grupa stwierdziła, że XLNet jest co najmniej 16% wydajniejszy niż oryginalny BERT, który został ogłoszony w 2018 roku i był w stanie pokonać BERT w teście 20 zadań NLP.
XLNet: nowa metoda treningu wstępnego dla NLP, która znacznie poprawia BERT w 20 zadaniach (np. SQuAD, GLUE, RACE)
arxiv: https://t.co/C1tFMwZvyW
github (kod + wstępnie wytrenowane modele): https://t.co/kI4jsVzT1u
z Zhilinem Yangiem, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ
— Quoc Le (@quocleix) 20 czerwca 2019 r
Zarówno XLNet, jak i BERT używają „zamaskowanych” tokenów do przewidywania ukrytego tekstu, XLNet poprawia wydajność, przyspieszając predykcyjną część procesu. Na przykład Amazon Alexa analityk danych Aishwarya Srinivasan wyjaśnione że XLNet jest w stanie zidentyfikować słowo „Nowy” jako skojarzone z terminem „jest miastem”, zanim przewidzi, że termin „York” również będzie powiązany z tym terminem. Tymczasem BERT musi oddzielnie zidentyfikować słowa „Nowy” i „Jork”, a następnie powiązać je na przykład z terminem „to miasto”.
Warto zauważyć, że GPT i GPT-2 są również wspomniano w tym objaśnieniu z 2019 r. jako inne przykłady autoregresyjnych modeli językowych.
Kod XLNet i wstępnie wytrenowane modele są dostępne na GitHubie. Model ten jest dobrze znany w środowisku badaczy NLP.
DialoGPT firmy Microsoft Research
DialoGPT (Dialogue Generative Pre-trained Transformer) jest autoregresyjnym modelem językowym, który został wprowadzony w listopadzie 2019 r. przez Microsoft Research. Z podobieństwami do GPT-2, model został wstępnie przeszkolony do generowania ludzkiej rozmowy. Jednak jego głównym źródłem informacji było 147 milionów wieloturowych dialogów zeskrobanych z wątków Reddita.
– zauważył główny ewangelista HumanFirst, Cobus Greyling jego sukces we wdrożeniu DialoGPT w usłudze przesyłania wiadomości Telegram, aby ożywić model jako chatbota. Dodał, że korzystanie z usług Amazon Web Services i Amazon SageMaker może pomóc w dopracowaniu kodu.
Kod DialoGPT jest dostępny na GitHub.
ALBERT od Google
ALBERT (Lekki BERT) jest okrojoną wersją oryginalnego BERT i została opracowana przez Google w grudniu 2019 r.
W przypadku ALBERT firma Google ograniczyła liczbę parametrów dozwolonych w modelu, wprowadzając parametry z „osadzeniem ukrytych warstw”.
Poprawiło się to nie tylko w modelu BERT, ale także w XLNet i RoBERTa, ponieważ ALBERT można trenować ten sam większy zestaw danych wykorzystany w dwóch nowszych modelach, przy jednoczesnym przestrzeganiu mniejszych parametry. Zasadniczo ALBERT działa tylko z parametrami niezbędnymi do jego funkcji, co zwiększa wydajność i dokładność. Google wyszczególniło, że ALBERT przekroczył BERT w 12 testach porównawczych NLP, w tym w teście porównawczym czytania ze zrozumieniem podobnym do SAT.
Chociaż nie wymieniono go z nazwy, GPT jest uwzględniony w obrazie ALBERT na blogu Google Research.
Google udostępnił ALBERT jako open source w styczniu 2020 r. i został zaimplementowany na TensorFlow firmy Google. Kod jest dostępny na GitHub.
T5 od Google
CTRL przez Salesforce
Ghard od Google
GShard jest gigantyczny model tłumaczenia językowego To Google wprowadził w czerwcu 2020 r. w celu skalowania sieci neuronowej. Model zawiera 600 miliardów parametrów, co pozwala na jednoczesne trenowanie dużych zestawów danych. GShard jest szczególnie biegły w tłumaczenie językowe i przeszkolenie w tłumaczeniu 100 języków na angielski w ciągu czterech dni.
Blender od Facebook AI Research
Blender to chatbot o otwartym kodzie źródłowym, który został wprowadzony w kwiecień 2020 r przez Facebook AI Research. Zauważono, że chatbot ma lepsze umiejętności konwersacyjne w porównaniu z modelami konkurencji, z możliwością zapewnienia angażujące tematy do rozmów, słuchaj i okazuj zrozumienie wkładu swojego partnera oraz okazuj empatię i osobowość.
Blender został porównany do chatbota Google Meena, który z kolei został porównany do GPT-2 OpenAI
Kod Blendera jest dostępny na Parl.ai.
Pegasus od Google
Pegasus to model przetwarzania języka naturalnego, który był wprowadzony przez Google'a w grudniu 2019 r. Pegasus można wyszkolić do tworzenia podsumowań i podobnie jak inne modele, takie jak BERT, GPT-2, RoBERTa, XLNet, ALBERT i T5, można go dostosować do określonych zadań. Pegasus został przetestowany pod kątem skuteczności podsumowywania wiadomości, nauki, historii, instrukcji, e-maili, patentów i projektów ustaw w porównaniu z ludźmi.
Kod Pegasus jest dostępny na GitHub.
Zalecenia redaktorów
- Google Bard może teraz mówić, ale czy może zagłuszyć ChatGPT?
- ChatGPT: najnowsze wiadomości, kontrowersje i wskazówki, które musisz znać
- Ruch na stronie ChatGPT spadł po raz pierwszy
- Funkcja przeglądania Bing w ChatGPT została wyłączona z powodu błędu w dostępie do paywalla
- Najlepsze chatboty AI do wypróbowania: ChatGPT, Bard i inne