ChatGPT è diventato rapidamente il beniamino dell'IA generativa, ma non è certo l'unico giocatore in gioco. Inoltre tutti gli altri strumenti di intelligenza artificiale là fuori che fanno cose come la generazione di immagini, c'è anche un numero di concorrenti diretti con ChatGPT, o almeno così pensavo.
Contenuti
- Bing di Microsoft
- BERT di Google
- Meena di Google
- Roberta di Facebook
- XLNet di Google
- DialogoGPT di Microsoft Research
- ALBERTO di Google
- T5 di Google
- CTRL di Salesforce
- GShard di Google
- Blender di Facebook AI Research
- Pegaso di Google
Perché non chiedere a ChatGPT a riguardo? Questo è esattamente quello che ho fatto per ottenere questo elenco, sperando di trovare alcune opzioni per quelli di fronte agli avvisi di "capacità"., o altri che vogliono semplicemente provare qualcosa di nuovo. Non tutti sono accessibili al pubblico come ChatGPT, ma secondo ChatGPT, queste sono le migliori alternative.
Video consigliati
Bing di Microsoft

Prima di entrare nelle scelte elencate dall'IA, la migliore alternativa a ChatGPT è, beh, ChatGPT. Microsoft di recente
ha aggiunto l'intelligenza artificiale nel suo motore di ricerca Binge prevede di implementare presto la funzionalità nel browser Edge.Imparentato
- Il produttore di ChatGPT OpenAI affronta un'indagine FTC sulle leggi sulla protezione dei consumatori
- La crescita record di ChatGPT è stata appena detronizzata da una nuova app virale
- OpenAI costruisce un nuovo team per impedire che l'IA superintelligente diventi canaglia
È solo in anteprima, ma puoi comunque provare il nuovo chatbot AI su bing.com/nuovo Proprio adesso. Microsoft afferma che inizialmente sta limitando il numero di query, ma puoi farlo unisciti alla lista d'attesa di Bing ChatGPT per essere avvisato quando sarà disponibile la versione completa.
BERT di Google
BERT (Bidirectional Encoder Representations from Transformers) è un modello di apprendimento automatico sviluppato da Google. Molti risultati di ChatGPT menzionano progetti di Google, che vedrai più avanti in questo elenco.
BERT è noto per le sue capacità di elaborazione del linguaggio naturale (NLP), come la risposta alle domande e l'analisi del sentimento. Utilizza BookCorpus e Wikipedia in inglese come modelli per i riferimenti di pre-addestramento, avendo appreso rispettivamente 800 milioni e 2,5 miliardi di parole.
BERT è stato annunciato per la prima volta come un progetto di ricerca open source E carta accademica nell'ottobre 2018. Da allora la tecnologia è stata implementata nella Ricerca Google. Letteratura antica su BERT confrontalo con ChatGPT di OpenAI nel novembre 2018, osservando che la tecnologia di Google è profondamente bidirezionale, il che aiuta a prevedere il testo in arrivo. Nel frattempo, OpenAI GPT è unidirezionale e può rispondere solo a query complesse.
Meena di Google
Meena è un chatbot che Google introdotto nel gennaio 2020 con la capacità di conversare in modo umano. Esempi delle sue funzioni includono conversazioni semplici che includono battute e giochi di parole interessanti, come Meena che suggerisce alle mucche di studiare "Scienze bovine" ad Harvard.

Come alternativa diretta al GPT-2 di OpenAI, Meena aveva la capacità di elaborare una quantità di dati 8,5 volte maggiore rispetto al suo concorrente dell'epoca. La sua rete neurale comprende 2,6 parametri ed è addestrata su conversazioni di pubblico dominio sui social media. Meena ha anche ricevuto un punteggio metrico nella media di sensibilità e specificità (SSA) del 79%, rendendolo uno dei chatbot più intelligenti del suo tempo.
Il codice Meena è disponibile su Git Hub.
Roberta di Facebook
ROBERTA (Robustly Optimized BERT Pretraining Approach) è un'altra versione avanzata del BERT originale, che Facebook ha annunciato nel luglio 2019.
Facebook ha creato questo modello di PNL con una fonte di dati più ampia come modello di pre-addestramento. RoBERTa utilizza CommonCrawl (CC-News), che include 63 milioni di articoli di notizie in inglese generati tra settembre 2016 e febbraio 2019, come set di dati da 76 GB. In confronto, il BERT originale utilizza 16 GB di dati tra i set di dati di Wikipedia in inglese e BookCorpus, secondo Facebook.
Silimar a XLNet, RoBERTa ha battuto BERT in una serie di set di dati di riferimento, secondo la ricerca di Facebook. Per ottenere questi risultati, l'azienda non solo ha utilizzato un'origine dati più ampia, ma ha anche preaddestrato il proprio modello per a periodo di tempo più lungo.
Facebook ha creato Roberta open-source a settembre 2019, e il suo codice è disponibile su GitHub per la sperimentazione comunitaria.
VentureBeat ha anche menzionato GPT-2 tra i sistemi di intelligenza artificiale emergenti in quel periodo.
XLNet di Google
XLNET è un modello di linguaggio autoregressivo basato su trasformatore sviluppato da un team di Ricercatori della Google Brain e della Carnegie Mellon University. Il modello è essenzialmente un BERT più avanzato ed è stato presentato per la prima volta nel giugno 2019. Il gruppo ha ritenuto che XLNet fosse almeno 16% più efficiente rispetto al BERT originale, annunciato nel 2018, in grado di battere il BERT in un test di 20 attività di PNL.
XLNet: un nuovo metodo di pre-allenamento per la PNL che migliora significativamente il BERT su 20 attività (ad esempio, SQuAD, GLUE, RACE)
arxiv: https://t.co/C1tFMwZvyW
github (codice + modelli preaddestrati): https://t.co/kI4jsVzT1u
con Zhilin Yang, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ
— Quoc Le (@quocleix) 20 giugno 2019
Con XLNet e BERT che utilizzano token "mascherati" per prevedere il testo nascosto, XLNet migliora l'efficienza accelerando la parte predittiva del processo. Ad esempio Amazon Alexa la scienziata dei dati Aishwarya Srinivasan spiegato che XLNet è in grado di identificare la parola "New" come associata al termine "is a city" prima di prevedere il termine "York" come anch'esso associato a quel termine. Nel frattempo, BERT deve identificare separatamente le parole "New" e "York" e quindi associarle al termine "is a city", ad esempio.
In particolare, GPT e GPT-2 lo sono anche menzionato in questo spiegatore del 2019 come altri esempi di modelli linguistici autoregressivi.
Il codice XLNet e i modelli preaddestrati lo sono disponibile su GitHub. Il modello è ben noto nella comunità di ricerca sulla PNL.
DialogoGPT di Microsoft Research
Il DialoGPT (Dialogue Generative Pre-trained Transformer) è un modello di linguaggio autoregressivo che è stato presentato nel novembre 2019 da Microsoft Research. Con somiglianze con GPT-2, il modello è stato preaddestrato per generare conversazioni simili a quelle umane. Tuttavia, la sua principale fonte di informazioni erano 147 milioni di dialoghi a più turni estratti dai thread di Reddit.

Il capo evangelista di HumanFirst, Cobus Greyling, ha notato il suo successo nell'implementare DialoGPT nel servizio di messaggistica di Telegram per dare vita al modello come chatbot. Ha aggiunto che l'utilizzo di Amazon Web Services e Amazon SageMaker può aiutare a mettere a punto il codice.
Il codice DialoGPT è disponibile su Git Hub.
ALBERTO di Google
ALBERT (A Lite BERT) è una versione troncata del BERT originale ed è stato sviluppato da Google nel dicembre 2019.
Con ALBERT, Google ha limitato il numero di parametri consentiti nel modello introducendo parametri con "incorporamenti di livelli nascosti".

Ciò è migliorato non solo sul modello BERT ma anche su XLNet e RoBERTa perché ALBERT può essere addestrato lo stesso set di dati più ampio di informazioni utilizzato per i due modelli più recenti aderendo a quelli più piccoli parametri. Essenzialmente, ALBERT funziona solo con i parametri necessari per le sue funzioni, che hanno aumentato le prestazioni e la precisione. Google ha spiegato in dettaglio di aver riscontrato che ALBERT supera BERT su 12 benchmark NLP, incluso un benchmark di comprensione della lettura simile a SAT.
Sebbene non sia menzionato per nome, GPT è incluso nell'immagine per ALBERT sul blog di ricerca di Google.
Google ha rilasciato ALBERT come open source nel gennaio 2020 ed è stato implementato in aggiunta a TensorFlow di Google. Il codice è disponibile su Git Hub.
T5 di Google

CTRL di Salesforce

GShard di Google
GShard è un gigantesco modello di traduzione linguistica Quello Google introdotto nel giugno 2020 ai fini del ridimensionamento della rete neurale. Il modello include 600 miliardi di parametri, che consentono l'addestramento di grandi set di dati contemporaneamente. GShard è particolarmente abile traduzione in lingua e essere addestrato a tradurre 100 lingue in inglese in quattro giorni.
Blender di Facebook AI Research
Blender è un chatbot open source introdotto in aprile 2020 dalla ricerca sull'intelligenza artificiale di Facebook. È stato notato che il chatbot ha migliorato le capacità di conversazione rispetto ai modelli della concorrenza, con la capacità di fornire spunti di discussione coinvolgenti, ascoltare e mostrare comprensione per l'input del partner e mostrare empatia e personalità.

Blender è stato paragonato al chatbot Meena di Google, che a sua volta è stato paragonato al GPT-2 di OpenAI
Il codice Blender è disponibile su Parl.ai.
Pegaso di Google
Pegasus è un modello di elaborazione del linguaggio naturale che era introdotto da Google nel dicembre 2019. Pegasus può essere addestrato per creare riepiloghi e, analogamente ad altri modelli come BERT, GPT-2, RoBERTa, XLNet, ALBERT e T5, può essere messo a punto per compiti specifici. Pegasus è stato testato sulla sua efficienza nel riassumere notizie, scienza, storie, istruzioni, e-mail, brevetti e disegni di legge rispetto ai soggetti umani.

Il codice Pegasus è disponibile su Git Hub.
Raccomandazioni della redazione
- Google Bard ora può parlare, ma può soffocare ChatGPT?
- ChatGPT: le ultime notizie, controversie e suggerimenti che devi conoscere
- Il traffico del sito Web ChatGPT è diminuito per la prima volta
- La funzione di navigazione Bing di ChatGPT è stata disabilitata a causa di un difetto di accesso al paywall
- I migliori chatbot AI da provare: ChatGPT, Bard e altri