Folk var i ærefrykt når ChatGPT kom ut, imponert over sine naturlige språkevner som en AI chatbot. Men da den etterlengtede GPT-4 store språkmodellen kom ut, blåste den lokket av det vi trodde var mulig med AI, noen kaller det tidlige glimt av AGI (kunstig generell intelligens).
Innhold
- Tilgjengelighet
- Hva er nytt i GPT-4?
- Hvor er visuell input i GPT-4?
- Hva er de beste GPT-4-pluginsene?
- Slik bruker du GPT-4
- Hva er GPT-4s begrensninger?
- Bruker Bing Chat GPT-4?
- En evolusjon, ikke en revolusjon?
Skaperen av modellen, OpenAI, kaller den selskapets "mest avanserte system, som produserer sikrere og mer nyttige svar." Her er alt du trenger å vite om det, inkludert hvordan du bruker det og hva det kan gjøre.
Anbefalte videoer
Tilgjengelighet
GPT-4 ble offisielt annonsert den 13. mars, som ble bekreftet på forhånd av Microsoft, selv om den eksakte dagen var ukjent. Per nå er den imidlertid bare tilgjengelig i ChatGPT Plus betalt abonnement. Den nåværende gratisversjonen av ChatGPT vil fortsatt være basert på GPT-3.5, som er mindre nøyaktig og i stand til sammenligning.
GPT-4 har også blitt gjort tilgjengelig som en API "for utviklere å bygge applikasjoner og tjenester." Noen av selskapene som allerede har integrert GPT-4 inkluderer Duolingo, Be My Eyes, Stripe og Khan Akademi. De første offentlige demonstrasjon av GPT-4 ble også livestreamet på YouTube, og viste frem noen av de nye mulighetene.
Hva er nytt i GPT-4?
GPT-4 er en ny språkmodell laget av OpenAI som kan generere tekst som ligner på menneskelig tale. Det fremmer teknologien som brukes av ChatGPT, som for øyeblikket er basert på GPT-3.5. GPT er forkortelsen for Generative Pre-trained Transformer, en dyplæringsteknologi som bruker kunstige nevrale nettverk til å skrive som et menneske.
I følge OpenAI, denne neste generasjons språkmodell er mer avansert enn ChatGPT på tre nøkkelområder: kreativitet, visuell input og lengre kontekst. Når det gjelder kreativitet, sier OpenAI at GPT-4 er mye bedre både til å skape og samarbeide med brukere om kreative prosjekter. Eksempler på disse inkluderer musikk, manus, teknisk skriving og til og med «å lære en brukers skrivestil».
GPT-4 utvikler livestream
Den lengre konteksten spiller inn også. GPT-4 kan nå behandle opptil 25 000 ord med tekst fra brukeren. Du kan til og med bare sende en nettlenke til GPT-4 og be den samhandle med teksten fra den siden. OpenAI sier at dette kan være nyttig for å lage innhold i lang form, så vel som "utvidede samtaler."
GPT-4 kan også nå motta bilder som grunnlag for interaksjon. I eksemplet på GPT-4-nettstedet får chatboten et bilde av noen få bakeingredienser og blir spurt om hva som kan lages med dem. Det er foreløpig ikke kjent om video også kan brukes på samme måte.
Til slutt sier OpenAI også at GPT-4 er betydelig tryggere å bruke enn forrige generasjon. Det kan angivelig produsere 40 % flere faktasvar i OpenAIs egen interne testing, samtidig som det er 82 % mindre sannsynlighet for å "svare på forespørsler om ikke-tillatt innhold."
OpenAI sier at det har blitt trent med menneskelig tilbakemelding for å gjøre disse fremskritt, og hevder å ha jobbet med "over 50 eksperter for tidlig tilbakemelding på domener inkludert AI-sikkerhet og sikkerhet."
I løpet av ukene siden den ble lansert, har brukere lagt ut noen av de utrolige ting de har gjort med det, inkludert å finne opp nye språk, detaljere hvordan du kan flykte inn i den virkelige verden, og lage komplekse animasjoner for apper fra bunnen av. Ettersom de første brukerne har strømmet til for å få tak i det, begynner vi å lære hva det er i stand til. En bruker har tydeligvis laget GPT-4 lag en fungerende versjon av Pong på bare seksti sekunder, med en blanding av HTML og JavaScript.
Hvor er visuell input i GPT-4?
En av de mest etterlengtede funksjonene i GPT-4 er visuell input, som lar ChatGPT Plus samhandle med bilder, ikke bare tekst. Å kunne analysere bilder ville vært en stor fordel for GPT-4, men funksjonen har blitt holdt tilbake pga. reduksjon av sikkerhetsutfordringer, ifølge OpenAI-sjef Sam Altman.
Du kan få en smakebit på hva visuell input kan gjøre i Bing Chat, som nylig har åpnet opp funksjonen for visuell input for noen brukere. Det kan også testes ut ved hjelp av en annen applikasjon kalt MiniGPT-4. Åpen kildekode-prosjektet ble laget av noen PhD-studenter, og selv om det er litt tregt å behandle bildene, er det viser hva slags oppgaver du vil kunne gjøre med visuelle input når den offisielt er rullet ut til GPT-4 i ChatGPT Plus.
Hva er de beste GPT-4-pluginsene?
Plugins er en av de beste grunnene til å betale for ChatGPT Plus, og åpner opp mulighetene for hva modellen kan gjøre. To av de kraftigste eksemplene ble laget av OpenAI selv: kode tolk og nettleserplugins.
Ved å bruke disse pluginene i ChatGPT Plus kan du utvide mulighetene til GPT-4 betraktelig. ChatGPT Code Interpreter kan bruke Python i en vedvarende økt – og kan til og med håndtere opplastinger og nedlastinger. Nettleser-plugin-modulen, derimot, gir GPT-4 tilgang til hele internett, og tillater det å omgå begrensningene til modellen og hente live informasjon direkte fra internett på din på vegne.
Noen av de andre beste GPT-4-plugins inkluderer Zapier, Wolfram og Speak, som alle lar deg ta AI i nye retninger.
Slik bruker du GPT-4
Den viktigste måten å få tilgang til GPT-4 akkurat nå er å oppgradere til ChatGPT Plus. For å hoppe opp til det betalte abonnementet på $20, klikker du bare på "Oppgrader til Plus" i sidefeltet i ChatGPT. Når du har angitt kredittkortinformasjonen din, vil du kunne veksle mellom GPT-4 og eldre versjoner av LLM. Du kan til og med dobbeltsjekke at du får GPT-4-svar siden de bruker en svart logo i stedet for den grønne logoen som brukes på eldre modeller.
Derfra er bruk av GPT-4 identisk med å bruke ChatGPT Plus med GPT-3.5. Det er dyktigere enn ChatGPT og lar deg gjøre ting som å finjustere et datasett for å få skreddersydde resultater som matcher dine behov.
Hvis du ikke vil betale, er det noen andre måter å få en smak av hvor kraftig GPT-4 er. For det første kan du prøve det som en del av Microsofts Bing Chat. Microsoft avslørte at den har brukt GPT-4 i Bing Chat, som er helt gratis å bruke. Noen GPT-4-funksjoner mangler imidlertid fra Bing Chat, og det er tydeligvis kombinert med noe av Microsofts egen proprietære teknologi. Men du vil fortsatt ha tilgang til den utvidede LLM (stor språkmodell) og den avanserte intelligensen som følger med. Det skal bemerkes at mens Bing Chat er gratis, er det begrenset til 15 chatter per økt og 150 økter per dag.
Det er mange andre applikasjoner som for øyeblikket bruker GPT-4også, for eksempel nettstedet for svar på spørsmål, Quora.
Hva er GPT-4s begrensninger?
Mens vi diskuterer de nye egenskapene til GPT-4, merker OpenAI seg også noen av begrensningene til den nye språkmodellen. I likhet med tidligere versjoner av GPT, sier OpenAI at den nyeste modellen fortsatt har problemer med "sosiale skjevheter, hallusinasjoner og motstridende spørsmål."
Med andre ord, det er ikke perfekt. Det vil fortsatt få feil svar, og det har vært mange eksempler vist på nettet som viser begrensningene. Men OpenAI sier at dette er alle problemer selskapet jobber med å løse, og generelt er GPT-4 "mindre kreativ" med svar og derfor mindre sannsynlig å finne opp fakta.
Den andre primære begrensningen er at GPT-4-modellen ble trent på internettdata som stopper i 2021. Nettleser-pluginet hjelper deg imidlertid omgå denne begrensningen.
Bruker Bing Chat GPT-4?
Microsoft oppgir opprinnelig at den nye Bing, eller Bing Chat, var kraftigere enn ChatGPT. Siden OpenAIs chat bruker GPT-3.5, var det en implikasjon på det tidspunktet at Bing Chat kunne bruke GPT-4. Og nå, Microsoft har bekreftet at Bing Chat faktisk er bygget på GPT-4.
Likevel var funksjoner som visuell input ikke tilgjengelig på Bing Chat, så det er ennå ikke klart hvilke eksakte funksjoner som er integrert og hvilke som ikke har.
Uansett, Bing Chat har tydeligvis blitt oppgradert med muligheten til å få tilgang til gjeldende informasjon via internett, en stor forbedring i forhold til den nåværende versjonen av ChatGPT, som bare kan trekke fra opplæringen den har fått gjennom 2021.
I tillegg til internettilgang, AI-modellen som brukes for Bing Chat er mye raskere, noe som er ekstremt viktig når det tas ut av laboratoriet og legges til en søkemotor.
En evolusjon, ikke en revolusjon?
StrictlyVC i samtale med Sam Altman, del to (OpenAI)
Vi har ikke prøvd ut GPT-4 i ChatGPT Plus selv ennå, men det kommer garantert til å bli mer imponerende, og bygger på suksessen til ChatGPT. Faktisk, hvis du har prøvd ut den nye Bing Chat, har du tilsynelatende allerede fått en smak av den. Bare ikke forvent at det er noe helt nytt.
Før lanseringen av GPT-4 sa OpenAI-sjef Sam Altman i et StrictlyVC-intervju postet av Connie Loizos på YouTube at "folk trygler om å bli skuffet, og det vil de bli."
Der erkjente Altman potensialet til AGI (kunstig generell intelligens) for å skape kaos på verdensøkonomiene og ga uttrykk for at en rask utrulling av flere små endringer er bedre enn en sjokkerende fremgang som gir liten mulighet for verden til å tilpasse seg Endringer. Så imponerende som GPT-4 virker, er det absolutt mer en forsiktig utvikling enn en fullstendig revolusjon.
Redaktørenes anbefalinger
- Google Bard kan nå snakke, men kan det overdøve ChatGPT?
- ChatGPT: de siste nyhetene, kontroversene og tipsene du trenger å vite
- OpenAI bygger et nytt team for å stoppe superintelligent AI fra å bli useriøs
- De beste AI-chatbotene å prøve ut: ChatGPT, Bard og mer
- OpenAI avslører plasseringen av sin første internasjonale utpost