Folk var i ærefrygt når ChatGPT kom ud, imponeret over sine naturlige sproglige evner som en AI chatbot. Men da den længe ventede GPT-4 store sprogmodel kom ud, blæste den låget af, hvad vi troede var muligt med AI, nogle kalder det de tidlige glimt af AGI (kunstig generel intelligens).
Indhold
- Tilgængelighed
- Hvad er nyt i GPT-4?
- Hvor er visuel input i GPT-4?
- Hvad er de bedste GPT-4 plugins?
- Sådan bruger du GPT-4
- Hvad er GPT-4s begrænsninger?
- Bruger Bing Chat GPT-4?
- En evolution, ikke en revolution?
Skaberen af modellen, OpenAI, kalder den virksomhedens "mest avancerede system, der producerer sikrere og mere nyttige svar." Her er alt, hvad du behøver at vide om det, inklusive hvordan du bruger det, og hvad det kan gør.
Anbefalede videoer
Tilgængelighed
GPT-4 blev officielt annonceret den 13. marts, som blev bekræftet på forhånd af Microsoft, selvom den nøjagtige dag var ukendt. Lige nu er den dog kun tilgængelig i ChatGPT Plus betalt abonnement. Den nuværende gratis version af ChatGPT vil
stadig være baseret på GPT-3.5, som er mindre nøjagtig og i stand til sammenligning.GPT-4 er også blevet gjort tilgængelig som en API "for udviklere til at bygge applikationer og tjenester." Nogle af de virksomheder, der allerede har integreret GPT-4, inkluderer Duolingo, Be My Eyes, Stripe og Khan Akademi. Det første offentlige demonstration af GPT-4 blev også livestreamet på YouTube og viste nogle af dets nye muligheder.
Hvad er nyt i GPT-4?
GPT-4 er en ny sprogmodel skabt af OpenAI, der kan generere tekst, der ligner menneskelig tale. Det fremmer teknologien brugt af ChatGPT, som i øjeblikket er baseret på GPT-3.5. GPT er forkortelsen for Generative Pre-trained Transformer, en deep learning-teknologi, der bruger kunstige neurale netværk til at skrive som et menneske.
Ifølge OpenAI, denne næste generations sprogmodel er mere avanceret end ChatGPT på tre nøgleområder: kreativitet, visuelt input og længere kontekst. Med hensyn til kreativitet siger OpenAI, at GPT-4 er meget bedre til både at skabe og samarbejde med brugere om kreative projekter. Eksempler på disse inkluderer musik, manuskripter, teknisk skrivning og endda "at lære en brugers skrivestil."
GPT-4 Udvikler Livestream
Den længere kontekst spiller også ind. GPT-4 kan nu behandle op til 25.000 ord tekst fra brugeren. Du kan endda bare sende GPT-4 et weblink og bede det om at interagere med teksten fra den side. OpenAI siger, at dette kan være nyttigt til at skabe indhold i lang form såvel som "udvidede samtaler."
GPT-4 kan også nu modtage billeder som grundlag for interaktion. I eksemplet på GPT-4-webstedet får chatbotten et billede af nogle få bageingredienser og bliver spurgt, hvad der kan laves med dem. Det vides i øjeblikket ikke, om video også kan bruges på samme måde.
Endelig siger OpenAI også, at GPT-4 er betydeligt sikrere at bruge end den forrige generation. Det kan angiveligt producere 40 % flere faktuelle svar i OpenAIs egen interne test, mens det også er 82 % mindre tilbøjeligt til at "reagere på anmodninger om forbudt indhold."
OpenAI siger, at det er blevet trænet med menneskelig feedback for at gøre disse fremskridt, og hævder at have arbejdet med "over 50 eksperter for tidlig feedback på domæner, herunder AI-sikkerhed og sikkerhed."
I løbet af ugerne, siden den blev lanceret, har brugere postet nogle af de fantastiske ting, de har gjort med det, herunder at opfinde nye sprog, detaljere hvordan man flygter ud i den virkelige verden og lave komplekse animationer til apps fra bunden. Da de første brugere er strømmet til for at få fingrene i det, begynder vi at lære, hvad det er i stand til. En bruger har åbenbart lavet GPT-4 opret en fungerende version af Pong på kun tres sekunder ved hjælp af en blanding af HTML og JavaScript.
Hvor er visuel input i GPT-4?
En af de mest forventede funktioner i GPT-4 er visuel input, som gør det muligt for ChatGPT Plus at interagere med billeder og ikke kun tekst. At kunne analysere billeder ville være en kæmpe fordel for GPT-4, men funktionen er blevet holdt tilbage pga. afbødning af sikkerhedsmæssige udfordringer, ifølge OpenAI CEO Sam Altman.
Du kan få en forsmag på, hvad visuel input kan gøre i Bing Chat, som for nylig har åbnet op for den visuelle input-funktion for nogle brugere. Det kan også testes ved hjælp af en anden applikation kaldet MiniGPT-4. Open source-projektet er lavet af nogle ph.d.-studerende, og selvom det er lidt langsomt at behandle billederne, er det demonstrerer den slags opgaver, du vil være i stand til at udføre med visuelt input, når det officielt er rullet ud til GPT-4 i ChatGPT Plus.
Hvad er de bedste GPT-4 plugins?
Plugins er en af de bedste grunde til at betale for ChatGPT Plus, hvilket åbner op for mulighederne for, hvad modellen kan. To af de mest kraftfulde eksempler blev skabt af OpenAI selv: kode tolk og webbrowser plugins.
Ved at bruge disse plugins i ChatGPT Plus kan du udvide mulighederne for GPT-4 i høj grad. ChatGPT Code Interpreter kan bruge Python i en vedvarende session - og kan endda håndtere uploads og downloads. Webbrowser-plugin'et giver på den anden side GPT-4 adgang til hele internettet, hvilket tillader det at omgå modellens begrænsninger og hente live information direkte fra internettet på din på vegne.
Nogle af de andre bedste GPT-4 plugins omfatter Zapier, Wolfram og Speak, som alle giver dig mulighed for at tage AI i nye retninger.
Sådan bruger du GPT-4
Den vigtigste måde at få adgang til GPT-4 lige nu er at opgradere til ChatGPT Plus. For at springe op til det betalte abonnement på $20 skal du blot klikke på "Opgrader til Plus" i sidebjælken i ChatGPT. Når du har indtastet dine kreditkortoplysninger, vil du være i stand til at skifte mellem GPT-4 og ældre versioner af LLM. Du kan endda dobbelttjekke, at du får GPT-4-svar, da de bruger et sort logo i stedet for det grønne logo, der bruges til ældre modeller.
Derfra er brugen af GPT-4 identisk med at bruge ChatGPT Plus med GPT-3.5. Det er mere dygtigt end ChatGPT og giver dig mulighed for at gøre ting som at finjustere et datasæt for at få skræddersyede resultater, der matcher dine behov.
Hvis du ikke vil betale, er der nogle andre måder at få en forsmag på, hvor kraftfuld GPT-4 er. Først og fremmest kan du prøve det som en del af Microsofts Bing Chat. Microsoft afslørede, at det har brugt GPT-4 i Bing Chat, som er helt gratis at bruge. Nogle GPT-4-funktioner mangler dog i Bing Chat, og det er tydeligvis blevet kombineret med noget af Microsofts egen proprietære teknologi. Men du vil stadig have adgang til den udvidede LLM (stor sprogmodel) og den avancerede intelligens, der følger med. Det skal bemærkes, at mens Bing Chat er gratis, er det begrænset til 15 chats pr. session og 150 sessioner pr. dag.
Der er mange andre applikationer, der i øjeblikket bruger GPT-4også, såsom webstedet Quora til besvarelse af spørgsmål.
Hvad er GPT-4s begrænsninger?
Mens vi diskuterer de nye muligheder i GPT-4, bemærker OpenAI også nogle af begrænsningerne ved den nye sprogmodel. Ligesom tidligere versioner af GPT siger OpenAI, at den seneste model stadig har problemer med "sociale skævheder, hallucinationer og modstridende tilskyndelser."
Det er med andre ord ikke perfekt. Det vil stadig få svar forkert, og der har været masser af eksempler vist online, der viser dets begrænsninger. Men OpenAI siger, at det alle er problemer, som virksomheden arbejder på at løse, og generelt er GPT-4 "mindre kreativ" med svar og derfor mindre tilbøjelig til at finde på fakta.
Den anden primære begrænsning er, at GPT-4-modellen blev trænet i, at internetdata stoppede i 2021. Webbrowser-plugin'et hjælper dog med at omgå denne begrænsning.
Bruger Bing Chat GPT-4?
Microsoft oplyser oprindeligt, at den nye Bing, eller Bing Chat, var mere kraftfuld end ChatGPT. Da OpenAI's chat bruger GPT-3.5, var der en implikation på det tidspunkt, at Bing Chat kunne bruge GPT-4. Og nu, Microsoft har bekræftet at Bing Chat faktisk er bygget på GPT-4.
Alligevel var funktioner såsom visuel input ikke tilgængelige på Bing Chat, så det er endnu ikke klart, hvilke præcise funktioner der er blevet integreret, og hvilke der ikke er.
Uanset hvad er Bing Chat klart blevet opgraderet med muligheden for at få adgang til aktuelle oplysninger via internettet, en kæmpe forbedring i forhold til den nuværende version af ChatGPT, som kun kan trække på den træning, den har modtaget igennem 2021.
Ud over internetadgang er AI-model, der bruges til Bing Chat, er meget hurtigere, noget der er ekstremt vigtigt, når det tages ud af laboratoriet og føjes til en søgemaskine.
En evolution, ikke en revolution?
StrictlyVC i samtale med Sam Altman, del to (OpenAI)
Vi har ikke selv prøvet GPT-4 i ChatGPT Plus endnu, men det vil helt sikkert blive mere imponerende og bygge videre på succesen med ChatGPT. Faktisk, hvis du har prøvet den nye Bing Chat, har du tilsyneladende allerede fået en forsmag på det. Forvent bare ikke, at det er noget helt nyt.
Før lanceringen af GPT-4 sagde OpenAI CEO Sam Altman i et StrictlyVC-interview indsendt af Connie Loizos på YouTube, at "folk tigger om at blive skuffede, og det vil de blive."
Der anerkendte Altman potentialet af AGI (kunstig generel intelligens) til at skabe kaos på verdensøkonomierne og gav udtryk for, at en hurtig udrulning af flere små ændringer er bedre end et chokerende fremskridt, der giver ringe mulighed for verden til at tilpasse sig ændringer. Så imponerende som GPT-4 ser ud, er det bestemt mere en omhyggelig udvikling end en komplet revolution.
Redaktørens anbefalinger
- Google Bard kan nu tale, men kan den overdøve ChatGPT?
- ChatGPT: de seneste nyheder, kontroverser og tips, du har brug for at vide
- OpenAI bygger nyt hold for at forhindre, at superintelligent kunstig intelligens bliver useriøs
- De bedste AI-chatbots at prøve: ChatGPT, Bard og mere
- OpenAI afslører placeringen af sin første internationale forpost