lastning . . . ILAGTE

GPT-4: Hvad du SKAL vide om den NYE ChatGPT

ChatGPT OpenAI

GARANTI FOR FAKTA-TJEK (Referencer): [Officiel dokumentation: 1 kilde] [Peer-reviewede forskningsartikler: 1 kilde] [Akademisk hjemmeside: 1 kilde]

 | Ved Richard AhernSidste år satte ChatGPT verden i brand som en af ​​de mest avancerede AI-chatbots, der findes, men nu har Elon Musks OpenAI hævet barren igen.

Selvom du bor under en sten, har du sikkert oplevet noget af spændingen omkring Open AI's chatbot, ChatGPT, som blev udgivet i november 2022.

Mens teknologivirksomheder ofte fremhæver deres nye produkter som "den næste store ting", vendte Open AI's gruppe af GPT-store sprogmodeller hovederne overalt.

På overfladen var det en tekstbaseret messenger-tjeneste med en computer, der taler tilbage i den anden ende. Den talte ikke hørbart eller producerede visuel feedback - den læste og spyttede bare tekstlinjer ud.

Så hvorfor blev folk forelsket i det?

Fordi det gjorde livet lettere, fik det arbejdet gjort og gjorde det godt. Men det kommer selvfølgelig an på hvad du bruger det til; det vil ikke vaske tøjet eller lave mad for dig - men det vil give dig nogle anstændige opskriftsideer!

Men for forfattere og kodere er det, hvor det skinner, bed det om at skrive et computerprogram på ethvert sprog, og det gør et ret imponerende arbejde.

Dens unikke ligger i den måde, at du kan give den meget forenklede eller uklare instruktioner, og den vil ofte udfylde de tomme felter og gøre de korrekte antagelser.

For forfattere kunne de kopiere og indsætte et stykke tekst og bede om at opsummere det i et afsnit - ikke noget problem. Du kan bruge det som en grundlæggende stave- og grammatikkontrol, men det er spild af dets talenter. Det vil ikke kun rette fejl og forbedre klarheden, ligesom enhver avanceret AI-skriveassistent, men du kan også bede den om at omskrive hele dit stykke eller skrive det hele fra bunden (hvis du skulle være doven).

Så vi ikke glemmer…

Det har været et dystert mareridt for lærere og eksaminatorer, da det åbnede en ny dåse orme i kampen mod snyd. Men det hjælper selvfølgelig ikke, at OpenAI har testet GPT'erne ved at give dem standard skoleeksamener, og som du vil se nedenfor, med bemærkelsesværdige resultater.

For virkelig at forstå dens kraft skal du selv eksperimentere, men i det hele taget er outputkvaliteten imponerende, primært fordi den kan producere udvidede og detaljerede dele af indhold, ikke bare en sætning eller to.

Men det var bare GPT-3.5...

I går brød nyheden om det GPT-4 er klar, og det er et helt nyt monster.

For det første kan den efter sigende behandle billedindhold såvel som tekst, noget teknologisamfundet tiggede om. Sikkerhed ser ud til at være et omdrejningspunkt for GPT-4, med det "82 % mindre tilbøjelige til at reagere på anmodninger om forbudt indhold."

I en nøddeskal er det større...

GPT'erne kaldes store sprogmodeller — de fodres med gigantiske datasæt om et sprog og bruger sandsynligheder til at forudsige rækkefølgen af ​​ord. Ved at undersøge milliarder af parametre om et sprogs struktur, vil programmet se på et ord eller et sæt ord, beregne sandsynligheden for, hvilke ord der følger efter, og derefter vælge den højeste sandsynlighed.

Tag for eksempel sætningen "Jeg løb op ad..." - tag derefter følgende ord, "hund", "bold", "trappe" eller "bakke."

Intuitivt ved vi, at "hund" og "bold" ikke giver nogen mening, men "trapper" og "bakke" er begge levedygtige valg. Et deep learning-program har dog ikke menneskelig intuition; den vil se på en stor mængde tekst og beregne sandsynligheden for hvert ord efter sætningen "Jeg løb op i...".

Lad os sige, at "hund" og "bold" forekommer mindre end 0.001% af gange efter den sætning og sige, at "trapper" har en 20% sandsynlighed for at følge disse ord, men "bakke" scorer en 21% sandsynlighed. Så maskinen vil vælge "bakke" og udsende: "Jeg løb op ad bakken."

Kan det være forkert? Selvfølgelig, men det har større sandsynlighed for at være korrekt, og jo mere data det har, jo mere præcist vil det være.

Det er ikke helt så enkelt; når først modellen har dataene, bliver den testet og finjusteret af menneskelige anmeldere for nøjagtighed og for at minimere "hallucination", tendensen til at producere useriøst affald - ved at vælge de forkerte ord!

GPT-4 er den hidtil største model, i mange størrelsesordener, selvom det nøjagtige antal parametre ikke er blevet oplyst. Tidligere var GPT-3 over 100 gange større end GPT-2 med 175 milliarder parametre til GPT -2's 1.5 milliarder. Vi kan antage en lignende stigning med GPT-4. Derudover ved vi, at programmet har gennemgået en intens finjustering vha forstærkning læring fra menneskelig feedback. Dette indebærer, at man beder mennesker om at bedømme chatbottens svar, og disse scores tilbageføres for at "lære den" til at producere bedre output.

Open-AI er forblevet hemmelighedsfuld omkring GPT-4 og citerer "både konkurrencelandskabet og sikkerhedskonsekvenserne." Derfor er den nøjagtige modelstørrelse, hardware og træningsmetoder alle ukendte.

De har sagt dette:

"GPT-4 kan løse vanskelige problemer med større nøjagtighed takket være dens bredere generelle viden og problemløsningsevner." Det er 82 % mindre sandsynligt end GPT-3.5 at reagere på anmodninger om forbudt indhold og 60 % mindre tilbøjelige til at finde på ting.

Her er den skræmmende del:

GPT-4 klarede sig markant bedre end de fleste menneskelige testpersoner og GPT-3.5 på skoleeksamener. For eksempel i Uniform Bar Exam (jura) scorede den blandt de øverste 90 % sammenlignet med GPT-3.5, som scorede i den ynkelige 10. percentil. I AP-statistikker, AP-psykologi, AP-biologi og AP-kunsthistorie (ækvivalenter på A-niveau i Storbritannien) scorede GPT-4 mellem 80. og 100. århundrede - med andre ord, nogle gange slog alle!

Det hele er ikke godt:

Interessant nok klarede den det dårligste (8. til 22. centil) i engelsk litteratur og komposition og kunne have været mere imponerende i calculus (43. til 59. centil).

På Twitter demonstrerede nogle mennesker, hvordan GPT-4 forvandlede et skriblet omrids af et websted på en serviet til en fuldt funktionel onlineapplikation.

Generelt lagde OpenAI vægt på forbedret nøjagtighed og sikkerhed som de kritiske forbedringer af GPT-4. Det er langt mindre sandsynligt at reagere på brugere, der beder om instruktioner til at lave en bombe, for eksempel. Det er også i stand til at håndtere meget længere indhold end sin forgænger og behandler 25,000 ord sammenlignet med omkring 1,500 ord.

GPT-4 er blevet udråbt som mere "kreativ" end før - ifølge OpenAI, "Det kan generere, redigere og iterere med brugere om kreative og tekniske skriveopgaver, såsom at komponere sange, skrive manuskripter ..."

Endelig, måske størst af alt, har den "vision", at den er i stand til at analysere og klassificere indholdet af billeder.

AI er ankommet, og uanset om du synes, dens udvikling er spændende eller skræmmende, er der ingen tvivl om, at den er kommet for at blive. Mens nogle måske bekymrer sig om at blive erstattet, vil de, der omfavner dets potentiale, bruge det som det mest kraftfulde værktøj, der findes.

Vi har brug for din hjælp! Vi bringer dig de ucensurerede nyheder for GRATIS, men vi kan kun gøre dette takket være støtte fra loyale læsere ligesom DU! Hvis du tror på ytringsfrihed og nyder rigtige nyheder, kan du overveje at støtte vores mission ved at blive protektor eller ved at lave en engangsdonation her. 20% af ALLE midler er doneret til veteraner!

Denne artikel er kun mulig takket være vores sponsorer og lånere!

Deltag i diskussionen!
Tilmeld
Underretning af
0 Kommentarer
Inline feedbacks
Se alle kommentarer
0
Vil elske dine tanker, bedes du kommentere.x
()
x