Le migliori alternative a ChatGPT (secondo ChatGPT)

ChatGPT è diventato rapidamente il beniamino dell'IA generativa, ma non è certo l'unico giocatore in gioco. Inoltre tutti gli altri strumenti di intelligenza artificiale là fuori che fanno cose come la generazione di immagini, c'è anche un numero di concorrenti diretti con ChatGPT, o almeno così pensavo.

Contenuti

  • Bing di Microsoft
  • BERT di Google
  • Meena di Google
  • Roberta di Facebook
  • XLNet di Google
  • DialogoGPT di Microsoft Research
  • ALBERTO di Google
  • T5 di Google
  • CTRL di Salesforce
  • GShard di Google
  • Blender di Facebook AI Research
  • Pegaso di Google

Perché non chiedere a ChatGPT a riguardo? Questo è esattamente quello che ho fatto per ottenere questo elenco, sperando di trovare alcune opzioni per quelli di fronte agli avvisi di "capacità"., o altri che vogliono semplicemente provare qualcosa di nuovo. Non tutti sono accessibili al pubblico come ChatGPT, ma secondo ChatGPT, queste sono le migliori alternative.

Video consigliati

Bing di Microsoft

Il motore di ricerca Bing riprogettato di Microsoft.

Prima di entrare nelle scelte elencate dall'IA, la migliore alternativa a ChatGPT è, beh, ChatGPT. Microsoft di recente

ha aggiunto l'intelligenza artificiale nel suo motore di ricerca Binge prevede di implementare presto la funzionalità nel browser Edge.

Imparentato

  • Il produttore di ChatGPT OpenAI affronta un'indagine FTC sulle leggi sulla protezione dei consumatori
  • La crescita record di ChatGPT è stata appena detronizzata da una nuova app virale
  • OpenAI costruisce un nuovo team per impedire che l'IA superintelligente diventi canaglia

È solo in anteprima, ma puoi comunque provare il nuovo chatbot AI su bing.com/nuovo Proprio adesso. Microsoft afferma che inizialmente sta limitando il numero di query, ma puoi farlo unisciti alla lista d'attesa di Bing ChatGPT per essere avvisato quando sarà disponibile la versione completa.

BERT di Google

BERT (Bidirectional Encoder Representations from Transformers) è un modello di apprendimento automatico sviluppato da Google. Molti risultati di ChatGPT menzionano progetti di Google, che vedrai più avanti in questo elenco.

BERT è noto per le sue capacità di elaborazione del linguaggio naturale (NLP), come la risposta alle domande e l'analisi del sentimento. Utilizza BookCorpus e Wikipedia in inglese come modelli per i riferimenti di pre-addestramento, avendo appreso rispettivamente 800 milioni e 2,5 miliardi di parole.

BERT è stato annunciato per la prima volta come un progetto di ricerca open source E carta accademica nell'ottobre 2018. Da allora la tecnologia è stata implementata nella Ricerca Google. Letteratura antica su BERT confrontalo con ChatGPT di OpenAI nel novembre 2018, osservando che la tecnologia di Google è profondamente bidirezionale, il che aiuta a prevedere il testo in arrivo. Nel frattempo, OpenAI GPT è unidirezionale e può rispondere solo a query complesse.

Meena di Google

Meena è un chatbot che Google introdotto nel gennaio 2020 con la capacità di conversare in modo umano. Esempi delle sue funzioni includono conversazioni semplici che includono battute e giochi di parole interessanti, come Meena che suggerisce alle mucche di studiare "Scienze bovine" ad Harvard.

Esempio di chatbot di Google Meena.

Come alternativa diretta al GPT-2 di OpenAI, Meena aveva la capacità di elaborare una quantità di dati 8,5 volte maggiore rispetto al suo concorrente dell'epoca. La sua rete neurale comprende 2,6 parametri ed è addestrata su conversazioni di pubblico dominio sui social media. Meena ha anche ricevuto un punteggio metrico nella media di sensibilità e specificità (SSA) del 79%, rendendolo uno dei chatbot più intelligenti del suo tempo.

Il codice Meena è disponibile su Git Hub.

Roberta di Facebook

ROBERTA (Robustly Optimized BERT Pretraining Approach) è un'altra versione avanzata del BERT originale, che Facebook ha annunciato nel luglio 2019.

Facebook ha creato questo modello di PNL con una fonte di dati più ampia come modello di pre-addestramento. RoBERTa utilizza CommonCrawl (CC-News), che include 63 milioni di articoli di notizie in inglese generati tra settembre 2016 e febbraio 2019, come set di dati da 76 GB. In confronto, il BERT originale utilizza 16 GB di dati tra i set di dati di Wikipedia in inglese e BookCorpus, secondo Facebook.

Silimar a XLNet, RoBERTa ha battuto BERT in una serie di set di dati di riferimento, secondo la ricerca di Facebook. Per ottenere questi risultati, l'azienda non solo ha utilizzato un'origine dati più ampia, ma ha anche preaddestrato il proprio modello per a periodo di tempo più lungo.

Facebook ha creato Roberta open-source a settembre 2019, e il suo codice è disponibile su GitHub per la sperimentazione comunitaria.

VentureBeat ha anche menzionato GPT-2 tra i sistemi di intelligenza artificiale emergenti in quel periodo.

XLNet di Google

XLNET è un modello di linguaggio autoregressivo basato su trasformatore sviluppato da un team di Ricercatori della Google Brain e della Carnegie Mellon University. Il modello è essenzialmente un BERT più avanzato ed è stato presentato per la prima volta nel giugno 2019. Il gruppo ha ritenuto che XLNet fosse almeno 16% più efficiente rispetto al BERT originale, annunciato nel 2018, in grado di battere il BERT in un test di 20 attività di PNL.

XLNet: un nuovo metodo di pre-allenamento per la PNL che migliora significativamente il BERT su 20 attività (ad esempio, SQuAD, GLUE, RACE)

arxiv: https://t.co/C1tFMwZvyW

github (codice + modelli preaddestrati): https://t.co/kI4jsVzT1u

con Zhilin Yang, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ

— Quoc Le (@quocleix) 20 giugno 2019

Con XLNet e BERT che utilizzano token "mascherati" per prevedere il testo nascosto, XLNet migliora l'efficienza accelerando la parte predittiva del processo. Ad esempio Amazon Alexa la scienziata dei dati Aishwarya Srinivasan spiegato che XLNet è in grado di identificare la parola "New" come associata al termine "is a city" prima di prevedere il termine "York" come anch'esso associato a quel termine. Nel frattempo, BERT deve identificare separatamente le parole "New" e "York" e quindi associarle al termine "is a city", ad esempio.

In particolare, GPT e GPT-2 lo sono anche menzionato in questo spiegatore del 2019 come altri esempi di modelli linguistici autoregressivi.

Il codice XLNet e i modelli preaddestrati lo sono disponibile su GitHub. Il modello è ben noto nella comunità di ricerca sulla PNL.

DialogoGPT di Microsoft Research

Il DialoGPT (Dialogue Generative Pre-trained Transformer) è un modello di linguaggio autoregressivo che è stato presentato nel novembre 2019 da Microsoft Research. Con somiglianze con GPT-2, il modello è stato preaddestrato per generare conversazioni simili a quelle umane. Tuttavia, la sua principale fonte di informazioni erano 147 milioni di dialoghi a più turni estratti dai thread di Reddit.

Esempi di generazione multigiro di DiabloGPT.

Il capo evangelista di HumanFirst, Cobus Greyling, ha notato il suo successo nell'implementare DialoGPT nel servizio di messaggistica di Telegram per dare vita al modello come chatbot. Ha aggiunto che l'utilizzo di Amazon Web Services e Amazon SageMaker può aiutare a mettere a punto il codice.

Il codice DialoGPT è disponibile su Git Hub.

ALBERTO di Google

ALBERT (A Lite BERT) è una versione troncata del BERT originale ed è stato sviluppato da Google nel dicembre 2019.

Con ALBERT, Google ha limitato il numero di parametri consentiti nel modello introducendo parametri con "incorporamenti di livelli nascosti".

Prestazioni della macchina sulla sfida RACE (comprensione della lettura simile a SAT) di Google

Ciò è migliorato non solo sul modello BERT ma anche su XLNet e RoBERTa perché ALBERT può essere addestrato lo stesso set di dati più ampio di informazioni utilizzato per i due modelli più recenti aderendo a quelli più piccoli parametri. Essenzialmente, ALBERT funziona solo con i parametri necessari per le sue funzioni, che hanno aumentato le prestazioni e la precisione. Google ha spiegato in dettaglio di aver riscontrato che ALBERT supera BERT su 12 benchmark NLP, incluso un benchmark di comprensione della lettura simile a SAT.

Sebbene non sia menzionato per nome, GPT è incluso nell'immagine per ALBERT sul blog di ricerca di Google.

Google ha rilasciato ALBERT come open source nel gennaio 2020 ed è stato implementato in aggiunta a TensorFlow di Google. Il codice è disponibile su Git Hub.

T5 di Google

T5 (Text-to-Text Transfer Transformer) è un modello di PNL introdotto da Google nel 2019 che prende in prestito da una serie di modelli precedenti, tra cui GPT, BERT, XLNet, RoBERTa e ALBERT, tra gli altri. Aggiunge un set di dati nuovo e unico chiamato Colossal Clean Crawled Corpus (C4), che consente al trasformatore di produrre una qualità superiore e risultati contestuali rispetto ad altri set di dati rispetto agli scrap web di Common Crawl utilizzati per XLNet.
Pre-formazione sul trasformatore di trasferimento da testo a testo di Google T5.
Il pretraining T5 ha portato alla creazione di applicazioni chatbot, tra cui InferKit parla al trasformatore e il Sotterraneo AI gioco. I generatori di testo assomigliano a ChatGPT in quanto ti consentono di generare conversazioni realistiche basate su ciò che l'IA genera dopo le tue richieste o domande iniziali.
Il codice T5 è disponibile su Git Hub.

CTRL di Salesforce

CTRL di Salesforce (Computational Trust and Reasoning Layer) è stato uno dei più grandi modelli linguistici rilasciati pubblicamente quando è stato annunciato a settembre 2019 da Salesforce. Il modello linguistico da 1,6 miliardi di parametri può essere utilizzato per analizzare contemporaneamente grandi corpi di testo, come quelli associati alle pagine web. Alcuni potenziali usi pratici includono l'abbinamento con recensioni, valutazioni e attribuzioni.
Esempio di attribuzione della sorgente CTRL di Salesforce.
Il modello di linguaggio CTRL può differenziare fino alla punteggiatura l'intento di una query specifica. Salesforce notato il modello può cogliere la differenza tra "Il riscaldamento globale è una bugia". come opinione impopolare e “Il riscaldamento globale è un mentire" come teoria del complotto a causa della differenza del periodo nelle frasi e redigere i corrispondenti thread Reddit per ogni.
Riferimenti CTRL fino a 140 GB di dati per il pre-training da fonti, tra cui Wikipedia, Project Gutenberg, recensioni di Amazon e Reddit. Fa inoltre riferimento a una serie di notizie internazionali, informazioni e risorse trivia.
Il codice CTRL è disponibile su Git Hub.

GShard di Google

GShard è un gigantesco modello di traduzione linguistica Quello Google introdotto nel giugno 2020 ai fini del ridimensionamento della rete neurale. Il modello include 600 miliardi di parametri, che consentono l'addestramento di grandi set di dati contemporaneamente. GShard è particolarmente abile traduzione in lingua e essere addestrato a tradurre 100 lingue in inglese in quattro giorni.

Blender di Facebook AI Research

Blender è un chatbot open source introdotto in aprile 2020 dalla ricerca sull'intelligenza artificiale di Facebook. È stato notato che il chatbot ha migliorato le capacità di conversazione rispetto ai modelli della concorrenza, con la capacità di fornire spunti di discussione coinvolgenti, ascoltare e mostrare comprensione per l'input del partner e mostrare empatia e personalità.

Esempio di chatbot di Blender.

Blender è stato paragonato al chatbot Meena di Google, che a sua volta è stato paragonato al GPT-2 di OpenAI

Il codice Blender è disponibile su Parl.ai.

Pegaso di Google

Pegasus è un modello di elaborazione del linguaggio naturale che era introdotto da Google nel dicembre 2019. Pegasus può essere addestrato per creare riepiloghi e, analogamente ad altri modelli come BERT, GPT-2, RoBERTa, XLNet, ALBERT e T5, può essere messo a punto per compiti specifici. Pegasus è stato testato sulla sua efficienza nel riassumere notizie, scienza, storie, istruzioni, e-mail, brevetti e disegni di legge rispetto ai soggetti umani.

PEGASUS NLP è stato paragonato a un essere umano in termini di qualità riassuntiva.

Il codice Pegasus è disponibile su Git Hub.

Raccomandazioni della redazione

  • Google Bard ora può parlare, ma può soffocare ChatGPT?
  • ChatGPT: le ultime notizie, controversie e suggerimenti che devi conoscere
  • Il traffico del sito Web ChatGPT è diminuito per la prima volta
  • La funzione di navigazione Bing di ChatGPT è stata disabilitata a causa di un difetto di accesso al paywall
  • I migliori chatbot AI da provare: ChatGPT, Bard e altri