Οι καλύτερες εναλλακτικές λύσεις ChatGPT (σύμφωνα με το ChatGPT)

ChatGPT έχει γίνει γρήγορα ο αγαπημένος της γενετικής τεχνητής νοημοσύνης, αλλά δεν είναι ο μόνος παίκτης στο παιχνίδι. Επιπρόσθετα όλα τα άλλα εργαλεία AI εκεί έξω που κάνουν πράγματα όπως η δημιουργία εικόνων, υπάρχει επίσης ένας αριθμός άμεσων ανταγωνιστών με το ChatGPT — ή έτσι υπέθεσα.

Περιεχόμενα

  • Bing από τη Microsoft
  • BERT από την Google
  • Meena από την Google
  • RoBERTa από το Facebook
  • XLNet από την Google
  • DialoGPT από τη Microsoft Research
  • ALBERT από την Google
  • T5 από την Google
  • CTRL από την Salesforce
  • GShard από την Google
  • Blender από το Facebook AI Research
  • Pegasus από την Google

Γιατί να μην ρωτήσετε σχετικά το ChatGPT; Αυτό ακριβώς έκανα για να λάβω αυτήν τη λίστα, ελπίζοντας να βρω κάποιες επιλογές για αυτές αντιμετωπίζοντας ειδοποιήσεις «κατά την ικανότητα»., ή άλλοι που θέλουν απλώς να δοκιμάσουν κάτι νέο. Δεν είναι όλα αυτά τόσο προσβάσιμα στο κοινό όσο το ChatGPT, αλλά σύμφωνα με το ChatGPT, αυτές είναι οι καλύτερες εναλλακτικές λύσεις.

Προτεινόμενα βίντεο

Bing από τη Microsoft

Η επανασχεδιασμένη μηχανή αναζήτησης Bing της Microsoft.

Πριν μπείτε στις επιλογές που αναφέρονται από το AI, η καλύτερη εναλλακτική λύση για το ChatGPT είναι, λοιπόν, το ChatGPT. Η Microsoft πρόσφατα πρόσθεσε το AI στη μηχανή αναζήτησής του Bing, και σχεδιάζει να διαθέσει τη δυνατότητα στο πρόγραμμα περιήγησης Edge σύντομα.

Σχετίζεται με

  • Ο κατασκευαστής ChatGPT OpenAI αντιμετωπίζει έρευνα της FTC σχετικά με τους νόμους περί προστασίας των καταναλωτών
  • Η ανάπτυξη ρεκόρ του ChatGPT μόλις εκθρονίστηκε από μια νέα viral εφαρμογή
  • Η OpenAI χτίζει νέα ομάδα για να σταματήσει η υπερευφυής τεχνητή νοημοσύνη να γίνεται απατεώνας

Βρίσκεται μόνο σε προεπισκόπηση, αλλά μπορείτε ακόμα να δοκιμάσετε το νέο chatbot AI στο bing.com/new τώρα αμέσως. Η Microsoft λέει ότι περιορίζει τον αριθμό των ερωτημάτων αρχικά, αλλά μπορείτε εγγραφείτε στη λίστα αναμονής του Bing ChatGPT να ενημερωθείτε όταν είναι διαθέσιμη η πλήρης έκδοση.

BERT από την Google

Το BERT (Αμφίδρομες Αναπαραστάσεις Κωδικοποιητή από τους Transformers) είναι ένα μοντέλο μηχανικής μάθησης που αναπτύχθηκε από την Google. Πολλά από τα αποτελέσματα του ChatGPT ανέφεραν έργα της Google, τα οποία θα δείτε αργότερα σε αυτήν τη λίστα.

Το BERT είναι γνωστό για τις ικανότητές του στην επεξεργασία φυσικής γλώσσας (NLP), όπως η απάντηση ερωτήσεων και η ανάλυση συναισθημάτων. Χρησιμοποιεί το BookCorpus και την Αγγλική Wikipedia ως πρότυπά του για τις αναφορές προεκπαίδευσης, έχοντας μάθει 800 εκατομμύρια και 2,5 δισεκατομμύρια λέξεις αντίστοιχα.

Ο BERT ανακοινώθηκε αρχικά ως αν ερευνητικό έργο ανοιχτού κώδικα και ακαδημαϊκή εργασία τον Οκτώβριο του 2018. Έκτοτε, η τεχνολογία έχει εφαρμοστεί στην Αναζήτηση Google. Πρώιμη λογοτεχνία σχετικά με το BERT το συγκρίνει με το ChatGPT του OpenAI τον Νοέμβριο του 2018, σημειώνοντας ότι η τεχνολογία της Google είναι βαθιά αμφίδρομη, κάτι που βοηθά στην πρόβλεψη του εισερχόμενου κειμένου. Εν τω μεταξύ, το OpenAI GPT είναι μονής κατεύθυνσης και μπορεί να απαντήσει μόνο σε πολύπλοκα ερωτήματα.

Meena από την Google

Το Meena είναι ένα chatbot που παρουσίασε η Google τον Ιανουάριο του 2020 με την ικανότητα να συνομιλεί με ανθρώπινο τρόπο. Παραδείγματα των λειτουργιών του περιλαμβάνουν απλές συνομιλίες που περιλαμβάνουν ενδιαφέροντα ανέκδοτα και λογοπαίγνια, όπως η Meena που προτείνει στις αγελάδες να σπουδάσουν «Βοοειδείς επιστήμες» στο Χάρβαρντ.

Παράδειγμα chatbot Google Meena.

Ως άμεση εναλλακτική λύση στο GPT-2 του OpenAI, η Meena είχε τη δυνατότητα να επεξεργάζεται 8,5 φορές περισσότερα δεδομένα από τον ανταγωνιστή της εκείνη την εποχή. Το νευρωνικό του δίκτυο αποτελείται από 2,6 παραμέτρους και εκπαιδεύεται σε συνομιλίες μέσων κοινωνικής δικτύωσης δημόσιου τομέα. Η Meena έλαβε επίσης μετρική βαθμολογία στο Sensibleness and Specificity Average (SSA) 79%, καθιστώντας το ένα από τα πιο έξυπνα chatbot της εποχής του.

Ο κωδικός Meena είναι διαθέσιμος στο GitHub.

RoBERTa από το Facebook

ΡοΜΠΕΡΤΑ (Robustly Optimized BERT Pretraining Approach) είναι μια άλλη προηγμένη έκδοση του αρχικού BERT, η οποία ανακοίνωσε το Facebook τον Ιούλιο του 2019.

Facebook δημιούργησε αυτό το μοντέλο NLP με μια μεγαλύτερη πηγή δεδομένων ως μοντέλο προεκπαίδευσης. Το RoBERTa χρησιμοποιεί το CommonCrawl (CC-News), το οποίο περιλαμβάνει 63 εκατομμύρια αγγλικά άρθρα ειδήσεων που δημιουργήθηκαν μεταξύ Σεπτεμβρίου 2016 και Φεβρουαρίου 2019, ως σύνολο δεδομένων 76 GB. Συγκριτικά, το αρχικό BERT χρησιμοποιεί 16 GB δεδομένων μεταξύ των συνόλων δεδομένων της Αγγλικής Wikipedia και του BookCorpus, σύμφωνα με το Facebook.

Το Silimar στο XLNet, το RoBERTa κέρδισε τον BERT σε ένα σύνολο συνόλων δεδομένων αναφοράς, σύμφωνα με την έρευνα του Facebook. Για να πάρει αυτά τα αποτελέσματα, η εταιρεία όχι μόνο χρησιμοποίησε μια μεγαλύτερη πηγή δεδομένων αλλά προεκπαίδευσε το μοντέλο της για α μεγαλύτερο χρονικό διάστημα.

Το Facebook έφτιαξε το RoBERTa ανοιχτή πηγή τον Σεπτέμβριο του 2019, και ο κωδικός του είναι διαθέσιμο στο GitHub για πειραματισμούς στην κοινότητα.

VentureBeat ανέφερε επίσης το GPT-2 μεταξύ των αναδυόμενων συστημάτων AI εκείνη την περίοδο.

XLNet από την Google

Το XLNET είναι ένα μοντέλο αυτοπαλινδρομικής γλώσσας που βασίζεται σε μετασχηματιστή που αναπτύχθηκε από μια ομάδα Ερευνητές του Google Brain και του Carnegie Mellon University. Το μοντέλο είναι ουσιαστικά ένα πιο προηγμένο BERT και παρουσιάστηκε για πρώτη φορά τον Ιούνιο του 2019. Η ομάδα βρήκε ότι το XLNet είναι τουλάχιστον 16% πιο αποτελεσματική από το αρχικό BERT, το οποίο ανακοινώθηκε το 2018, με το να μπορεί να νικήσει το BERT σε μια δοκιμή 20 εργασιών NLP.

XLNet: μια νέα μέθοδος προεκπαίδευσης για το NLP που βελτιώνει σημαντικά το BERT σε 20 εργασίες (π.χ. SQuAD, GLUE, RACE)

arxiv: https://t.co/C1tFMwZvyW

github (κωδικός + προεκπαιδευμένα μοντέλα): https://t.co/kI4jsVzT1u

με τον Zhilin Yang, @ZihangDai, Yiming Yang, Jaime Carbonell, @rsalakhupic.twitter.com/JboOekUVPQ

— Quoc Le (@quocleix) 20 Ιουνίου 2019

Με το XLNet και το BERT να χρησιμοποιούν «μασκαρισμένα» διακριτικά για την πρόβλεψη κρυφού κειμένου, το XLNet βελτιώνει την αποτελεσματικότητα επιταχύνοντας το προγνωστικό μέρος της διαδικασίας. Για παράδειγμα, η Amazon Alexa επιστήμονας δεδομένων Aishwarya Srinivasan εξήγησε ότι το XLNet είναι σε θέση να προσδιορίσει τη λέξη "Νέο" ως συσχετισμένη με τον όρο "είναι μια πόλη" πριν προβλέψει τον όρο "York" ως συσχετισμένο με αυτόν τον όρο. Εν τω μεταξύ, το BERT πρέπει να προσδιορίσει τις λέξεις "Νέα" και "Υόρκη" ξεχωριστά και στη συνέχεια να τις συσχετίσει με τον όρο "είναι πόλη", για παράδειγμα.

Συγκεκριμένα, το GPT και το GPT-2 είναι αναφέρεται επίσης σε αυτήν την επεξήγηση από το 2019 ως άλλα παραδείγματα αυτοπαλινδρομικών γλωσσικών μοντέλων.

Ο κωδικός XLNet και τα προεκπαιδευμένα μοντέλα είναι διαθέσιμο στο GitHub. Το μοντέλο είναι πολύ γνωστό στην ερευνητική κοινότητα του NLP.

DialoGPT από τη Microsoft Research

Το DialoGPT (Dialogue Generative Pre-trained Transformer) είναι ένα μοντέλο γλώσσας αυτόματης παλινδρόμησης που εισήχθη τον Νοέμβριο του 2019 από τη Microsoft Research. Με ομοιότητες με το GPT-2, το μοντέλο ήταν προεκπαιδευμένο για να δημιουργεί ανθρώπινη συνομιλία. Ωστόσο, η κύρια πηγή πληροφοριών του ήταν 147 εκατομμύρια διάλογοι πολλαπλών στροφών που είχαν αφαιρεθεί από τα νήματα του Reddit.

Παραδείγματα παραγωγής πολλαπλών στροφών DiabloGPT.

Ο επικεφαλής ευαγγελιστής της HumanFirst Κόμπους Γκρέιλινγκ σημείωσε την επιτυχία του στην εφαρμογή του DialoGPT στην υπηρεσία ανταλλαγής μηνυμάτων Telegram για να ζωντανέψει το μοντέλο ως chatbot. Πρόσθεσε ότι η χρήση των Υπηρεσιών Ιστού του Amazon και του Amazon SageMaker μπορεί να βοηθήσει στη λεπτομέρεια του κώδικα.

Ο κωδικός DialoGPT είναι διαθέσιμος στις GitHub.

ALBERT από την Google

ALBERT (A Lite BERT) είναι μια περικομμένη έκδοση του αρχικού BERT και αναπτύχθηκε από την Google τον Δεκέμβριο του 2019.

Με το ALBERT, η Google περιόρισε τον αριθμό των παραμέτρων που επιτρέπονται στο μοντέλο εισάγοντας παραμέτρους με "κρυφές ενσωματώσεις επιπέδων".

Απόδοση μηχανήματος στην πρόκληση RACE (κατανόηση ανάγνωσης τύπου SAT) από την Google

Αυτό βελτιώθηκε όχι μόνο στο μοντέλο BERT αλλά και στο XLNet και το RoBERTa επειδή ο ALBERT μπορεί να εκπαιδευτεί σε το ίδιο μεγαλύτερο σύνολο δεδομένων πληροφοριών που χρησιμοποιείται για τα δύο νεότερα μοντέλα, ενώ τηρούνται τα μικρότερα Παράμετροι. Ουσιαστικά, το ALBERT λειτουργεί μόνο με τις απαραίτητες παραμέτρους για τις λειτουργίες του, οι οποίες αύξησαν την απόδοση και την ακρίβεια. Η Google διευκρίνισε ότι βρήκε τον ALBERT να ξεπερνά το BERT σε 12 σημεία αναφοράς NLP, συμπεριλαμβανομένου ενός κριτηρίου αναφοράς κατανόησης ανάγνωσης τύπου SAT.

Αν και δεν αναφέρεται ονομαστικά, το GPT περιλαμβάνεται στην απεικόνιση του ALBERT στο ιστολόγιο Έρευνας της Google.

Η Google κυκλοφόρησε το ALBERT ως ανοιχτού κώδικα τον Ιανουάριο του 2020 και εφαρμόστηκε πάνω από το TensorFlow της Google. Ο κωδικός είναι διαθέσιμος στο GitHub.

T5 από την Google

Το T5 (Text-to-Text Transformer Transformer) είναι ένα μοντέλο NLP εισήχθη από την Google το 2019 που δανείζεται από μια σειρά προηγούμενων μοντέλων, συμπεριλαμβανομένων των GPT, BERT, XLNet, RoBERTa και ALBERT, μεταξύ άλλων. Προσθέτει α νέο και μοναδικό σύνολο δεδομένων ονομάζεται Colossal Clean Crawled Corpus (C4), το οποίο επιτρέπει στον μετασχηματιστή να παράγει υψηλότερη ποιότητα και αποτελέσματα με βάση τα συμφραζόμενα από άλλα σύνολα δεδομένων σε σύγκριση με τα γραφεία ιστού Common Crawl που χρησιμοποιούνται για XLNet.
Προεκπαίδευση Google T5 Text-to-Text Transformer Transformer.
Η προεκπαίδευση T5 οδήγησε στη δημιουργία εφαρμογών chatbot, συμπεριλαμβανομένων InferKit Talk To Transformer και το AI Dungeon παιχνίδι. Οι γεννήτριες κειμένου μοιάζουν με το ChatGPT καθώς σας επιτρέπουν να δημιουργείτε ρεαλιστικές συνομιλίες με βάση το τι δημιουργεί η τεχνητή νοημοσύνη μετά από τα αρχικά σας μηνύματα ή ερωτήματα.
Ο κωδικός T5 είναι διαθέσιμος στο GitHub.

CTRL από την Salesforce

Το CTRL από την Salesforce (Computational Trust and Reasoning Layer) ήταν ένα από τα μεγαλύτερα δημόσια μοντέλα γλώσσας όταν ανακοινώθηκε τον Σεπτέμβριο του 2019 από την Salesforce. Το μοντέλο γλώσσας 1,6 δισεκατομμυρίων παραμέτρων μπορεί να χρησιμοποιηθεί για την ανάλυση μεγάλων τμημάτων κειμένου ταυτόχρονα, όπως αυτά που σχετίζονται με ιστοσελίδες. Ορισμένες πιθανές πρακτικές χρήσεις περιλαμβάνουν τη σύζευξη με κριτικές, αξιολογήσεις και αποδόσεις.
Παράδειγμα απόδοσης πηγής CTRL Salesforce.
Το μοντέλο γλώσσας CTRL μπορεί να διαφοροποιήσει μέχρι τα σημεία στίξης την πρόθεση ενός συγκεκριμένου ερωτήματος. Σημείωσε η Salesforce το μοντέλο μπορεί να εντοπίσει τη διαφορά μεταξύ "Η υπερθέρμανση του πλανήτη είναι ένα ψέμα". ως αντιδημοφιλής άποψη και «Η υπερθέρμανση του πλανήτη είναι α ψέμα» ως θεωρία συνωμοσίας λόγω της διαφοράς της περιόδου στις φράσεις και τη σύνταξη των αντίστοιχων νημάτων του Reddit για καθε.
Αναφορές CTRL έως και 140 GB δεδομένων για την προεκπαίδευσή του από πηγές, όπως η Wikipedia, το Project Gutenberg, οι κριτικές Amazon και το Reddit. Αναφέρεται επίσης σε μια σειρά από διεθνείς ειδήσεις, πληροφορίες και πόρους ασήμαντων στοιχείων.
Ο κωδικός CTRL είναι διαθέσιμος στο GitHub.

GShard από την Google

Το GShard είναι α γιγάντιο γλωσσικό μεταφραστικό μοντέλο ότι παρουσίασε η Google τον Ιούνιο του 2020 για σκοπούς κλιμάκωσης νευρωνικών δικτύων. Το μοντέλο περιλαμβάνει 600 δισεκατομμύρια παραμέτρους, οι οποίες επιτρέπουν ταυτόχρονα μεγάλα σετ εκπαίδευσης δεδομένων. Η GShard είναι ιδιαίτερα ικανή μετάφραση γλώσσας και εκπαιδεύεται στη μετάφραση 100 γλωσσών στα αγγλικά σε τέσσερις ημέρες.

Blender από το Facebook AI Research

Το Blender είναι ένα ανοιχτού κώδικα chatbot που εισήχθη στο Απρίλιος 2020 από το Facebook AI Research. Έχει σημειωθεί ότι το chatbot έχει βελτιωμένες δεξιότητες συνομιλίας σε σχέση με μοντέλα ανταγωνιστών, με την ικανότητα να παρέχει συναρπαστικά σημεία συζήτησης, ακούει και δείχνει ότι κατανοεί τη συμβολή του συντρόφου του και δείχνει ενσυναίσθηση και προσωπικότητα.

Παράδειγμα chatbot μπλέντερ.

Το Blender έχει συγκριθεί με το chatbot Meena της Google, το οποίο με τη σειρά του έχει συγκριθεί με το GPT-2 του OpenAI

Ο κωδικός Blender είναι διαθέσιμος στο Parl.ai.

Pegasus από την Google

Ο Πήγασος είναι ένα μοντέλο επεξεργασίας φυσικής γλώσσας που ήταν εισήχθη από την Google τον Δεκέμβριο του 2019. Το Pegasus μπορεί να εκπαιδευτεί στη δημιουργία περιλήψεων και, παρόμοια με άλλα μοντέλα όπως BERT, GPT-2, RoBERTa, XLNet, ALBERT και T5, μπορεί να ρυθμιστεί με ακρίβεια σε συγκεκριμένες εργασίες. Το Pegasus έχει δοκιμαστεί ως προς την αποτελεσματικότητά του στη σύνοψη ειδήσεων, επιστήμης, ιστοριών, οδηγιών, email, διπλωμάτων ευρεσιτεχνίας και νομοθετικών λογαριασμών σε σύγκριση με ανθρώπινα θέματα.

Το PEGASUS NLP έχει συγκριθεί με έναν άνθρωπο όσον αφορά την ποιότητα της σύνοψης.

Ο κωδικός Pegasus είναι διαθέσιμος στο GitHub.

Συστάσεις των συντακτών

  • Το Google Bard μπορεί τώρα να μιλήσει, αλλά μπορεί να πνίξει το ChatGPT;
  • ChatGPT: τα τελευταία νέα, οι διαμάχες και οι συμβουλές που πρέπει να γνωρίζετε
  • Η επισκεψιμότητα του ιστότοπου ChatGPT μειώθηκε για πρώτη φορά
  • Η δυνατότητα περιήγησης Bing του ChatGPT απενεργοποιήθηκε λόγω ελαττώματος πρόσβασης στο paywall
  • Τα καλύτερα chatbot AI για να δοκιμάσετε: ChatGPT, Bard και άλλα