11/22/2023

Knekk ChatGPT-koden, med forfatter og journalist Per Kristian Bjørkeng.

I denne episoden av Skifters podcast, snakker programlederen med Aftenposten-journalisten Per Kristian Bjørkeng om hans nye bok «Knekk ChatGPT-koden». De diskuterer Chat GPTs evner, begrensninger og hvordan man best kan bruke det. Bjørkeng forklarer hvordan man kan «knekke koden» ved å være tydelig og spesifikk i sine instruksjoner, og han understreker viktigheten av å forstå at Chat GPT er en «hjelpsom slurvete allviter» som fortsatt trenger å bli veiledet. De tar også opp implikasjoner for utdanning og arbeidsplassen, samt potensielle fallgruver, som personvern og opphavsrett.

00:00

Per Christian Bjørking diskuterer Chat GPTs utvikling og viktigheten av GPT-4 som et profesjonelt verktøy.

05:20

Lær hvordan man bruker KI som GPT-4 effektivt gjennom tydelig instruksdesign og forståelse av maskinens begrensninger.

13:37

GPT tilbyr en mer personlig og rådgivende tilnærming til informasjon enn Google, men påliteligheten varierer avhengig av bruken.

20:57

Maskinens politlighet og kunnskap avhenger av datagrunnlag, noe som skaper utfordringer i pålitelighet og forståelse av usikkerhet.

25:56

Taleren beskriver et journalistisk prosjekt der kunstneres kjønn ble analysert gjennom en datamaskin, med viktigheten av grundig kontroll og stikkprøving.

Transkript

Hei og velkommen til Skifters podcast. Ukens gjest er Aftenposten-journalist Per Christian Bjørking. Han har nylig skrevet boken «Knekk chat GPT-koden», og i 2018 ga han ut boken «Kunstintelligens, den usynlige revolusjonen». Velkommen, Per Christian. Tusen takk. Chat GPT har vel kanskje bidratt til at kunstintelligens har gått fra å være litt usynlig til å bli ytterst synlig. Ja, det kunne godt vært undertitelen. Hvis veldig mange hadde husket den boka, så hadde jeg gjerne brukt det som en undertitel at dette har blitt synlig nå. For det var jo den gangen noe som var på en måte i bakgrunnen, noe som krevde at man hadde store maskinlæringsteam og masse data og sånne ting for å kunne få noe personlig nytte av. Og plutselig så ble det synlig fordi 30. november i fjor så kunne alle alle benytte seg av dette her, og selvfølgelig også, det er noe helt nytt i forhold til det jeg skrev om for fem år siden. Og derfor så tenkte jeg at nå må vi skrive en ny bok. Ja, og den taima du veldig bra. Rett før sendingen her så sa du at at du får ekstremt mange henvendelser nå om dagen. Ja, det gjør jeg. Det er veldig gøy. Det er så mye at jeg må begynne å si nei, rett og slett. Og det skal man ikke klage over. Nei, det skal man ikke klage over. Men du, hva er egentlig chat-GPT? I dag skal vi snakke litt om boka di og hvordan du knekker den koden, men bare sånn veldig basic, hva er chat-GPT? Veldig lurt å begynne med det spørsmålet, for det er faktisk veldig mange som egentlig ikke har brukt den særlig mye. Chat-GPT, det er navnet på et produkt en chatbot. Men det som er viktig å forstå, det er at i den så ligger det to forskjellige språkmodeller. Det ene er gratisversjonen, som er da kalt for GPT 3,5. Alle navnene her er jo helt sånn ubrukelige, laghavn og teknikere som ikke er opptatt av å lage produkter. Men den er da den gratisversjonen som folk flest har møtt. Og så kom det i mars en ny utgave, en språkmodell, det også, som heter GPT-4, som nå nylig også er oppdatert ennå en gang med masse nye kapasiteter, og som er det som egentlig skaper veldig mye oppmerksomhet blant de som har fulgt med på dette her, fordi kapasiteten til den er veldig mye høyere enn gratisversjonen, og kan brukes til veldig mye mer, men den koster penger. Derfor er det veldig få som har prøvd denne her forløpig. Når jeg er ute og snakker og holder foredrag, så er det kanskje 3-5% som har prøvd GPT-4, til tross for at dette blir fremstilt i avisene og på nettet overalt som den neste store greia. Er det sånn at GPT-4 er 0,5 bedre enn 3,5? Nei, ikke sant? Og forskjellen er best illustrert ved å se på eksamensprestasjoner. Fordi man har kanskje hørt at de kan stå på eksamen, disse modellene, og de kan det også gratisversjonen. Så det er jo ikke så rart at det vekker oppsikt det i seg selv, for et år siden var jo det oppsiktsvekkende. Men hvis du ser for eksempel på juseksamen, så går versjonen 3,5 for stryk. Altså den tilhører de 10% dårligste elevene. Den gir en besvarelse, men den klarer liksom ikke å stå. Dette er den amerikanske juseksamen da. Mens GPT-4, den er... er blant de ti prosent beste elevene. Hvis du kjenner til advokatyrket og just bransjen, så vet du at dette er et yrke som er besatt av karakterer gjennom hele karrieren sin. Det å ha evne til å få en god karakter er av svært stor betydning. Sånn kan du også tenke litt på når du skal bruke det som et profesjonelt verktøy. Fordi det er ikke sånn at GPT-4 er for bra. Det kan virke sånn. Jeg trenger ikke noe bedre. Nei, også den er for dårlig for mange typer oppgaver. Så det du vil ha, hvis du skal bruke det til noe ordentlig nyttig profesjonelt, det er det beste som finnes. Og det er egentlig ikke noe uenighet om at det er da GPT-4 og chat-GPT som står for. Ja, Ja, så vil du si at GPT-4 er en game changer i forhold til GPT-3,5, slik 3,5 var det i forhold til før? Ja, absolutt. Dette lille forandringen, men et halvt poeng, det gir... ikke inntrykket som man burde ha av hvor stor forskjellen er. Og så vil jeg si det at det er faktisk ikke så lett å oppdage den forskjellen. For det er litt som hvis du skal snakke med to advokater. Den ene advokaten har strøket, og den andre advokaten er blant de 10% beste. Det vil faktisk ta deg som ikke-advokat ganske lang tid å finne ut dette her. Du må liksom evaluere de to, og det er slett ikke lett. Først når du har tapt rettssaken, så vil du egentlig innse at man burde brukt disse ekstra pengene. Sånn er det her også. Så man må rett og slett prøve det litt, en god del, for å få dreis på det og skjønne hva det kan brukes til. Det er en veldig god pedagog, en professor i USA som heter Ethan Mollick. Han sier at man trenger ti timer. Bare for å forstå hva man kan bruke til og hvordan det brukes. Denne boka er jo på en måte... et forsøk på å hjelpe deg litt på vei med å få dette under huden og forstå litt, for i praksis krever det egentlig mye mer enn 10 timer, for du må eksperimentere ganske mye. Så viser det seg at det er en god del triks og lure råd og sånn som man kan tenke og gå etter når man skal utforme det som jeg kaller for instrukser. Ja. Vi skal komme tilbake til det, men tilbake til disse advokatene. Er det sånn at ville du betalt for en advokat som var blant de 15% beste, eller ville du brukt GPT-4? Ja, Jeg har jo et eksempel i boka som jeg synes er ganske illustrerende. For jeg tror nok ikke at de vil erstatte advokatene nødvendigvis og være et alternativ, men de vil gi deg en advokat i alle de tilfellene der du ikke ville dratt inn en advokat. Et godt eksempel fra boka er at jeg følte det var lurt til å betale 29 dollar for et abonnement på en sånn KI-tjeneste som kunne lese opp nettsider for deg. Og så trodde jeg at det var tre dagers gratis prøveperiode, så ville jeg prøve det, ikke sant? Så ble jeg belastet med en gang, uten helt å skjønne hva som foregikk. Og jeg følte meg ordentlig lurt. Da tenkte jeg at det ikke var så lurt at jeg skriver dette her nå, for jeg var ganske sint. Så forklarer jeg denne situasjonen til GPT-4, gir den detaljene og får ut et brev som er formet som om det var fra en advokat. som påpeker det litt, at det mangler litt henvisning til lovverk, for det har jeg lagt merke til at det må det være med, ikke sant? De må vise til paragrafer og sånn. Så kommer den opp med tre forskjellige amerikanske forbrukerlovverk, altså deres justisem er jo ufattelig mye mer komplekst enn vårt, som den henviser til da. Og jeg sender over dette her, og 30 minutter etterpå så får jeg tilbake pengene på konto. Og dette var jo et resultat som jeg synes var relativt bra. Og det var jo fort verdt litt rande av den månedsprisen som du betaler. Så sett i sånne sammenhenger så blir dette her... Det var for mye for penger, for å si det sånn. Selv om jeg godt forstår at det er vanskelig å skjønne helt, for jeg legger jo merke til at det er få som prøver seg på dette. La oss snakke litt om titelen i boka di. Et slags likneppelig GPT-koden. Hva er hovedprinsippet for å knekke den koden? Hvis du skal si et hovedprinsipp, så er det å forstå hva maskinen er og ikke er. Du kan kanskje klare å oppsummere alt ved å si at du skal være tydelig og spesifikk. Det er kanskje det viktigste. Det som mange lar seg lure av, de tror at denne maskinen lærer om det. det gjør den ikke. Det er en stor misforståelse. Det betyr at du hele tiden står overfor en utrolig kompetent maskin som ikke kan noen ting om deg. Sånn at du må hele tiden forklare hva det er du ønsker å ha gjort, hvem du er, og hva du vil at maskinen skal gjøre. Så det er utfordringen, det som gjør det annerledes enn det å bruke alle andre datamaskiner, egentlig. Ja, er det som å ha en veldig intelligent person som ikke vet noen ting om deg, som du kan spørre om hva som helst. Du kan tenke deg at du får inn en dødsskarp student, som er ekspert på alle mulige ting som du egentlig ikke er ekspert på, men som må ha alt forklart. Jeg pleier å kalle det for en hjelpsom slurvete allviter. Han er veldig, veldig hjelpsom, og så vet den ufattelig mye, men så slurver den. Og det er også det problemet som gjør at du må hele tiden passe på, og ikke gå i fellene og lure, for det er også en realitet at det kan komme det som kalles for hallucinasjoner. Så man må hele tiden vurdere hvor avhengig jeg er av at det svaret man får er 100% riktig, og kan jeg egentlig sjekke og kontrollere det som kommer. Det er en veldig viktig begrensning som ligger fortsatt. Jeg tenker at det er grunnlaget for hele denne boka, for all instruksdesign nå, det er at du har ansvaret fortsatt. Du kan ikke skylle på, selv om du har betalt for dette her, kan ikke du skylle på grepet til fire og si at det var grepet til fire som sa det. Det holder ikke. Det er vi mennesker som fortsatt har ansvaret. Ja, det høres fornuftig ut at du sier det. Men du introduserer begrepet instruktdesign, og du henviser til at du blant annet fant opp begrepet nettbrett i din tid. Ja, det er gøy for meg da. Men instruktdesign er såkalt... Prompt Engineering, som det fint heter på amerikansk eller engelsk. Hva er instruksdesign? Det handler egentlig om å lære seg noen grunnregler, en tankemåte, og nærme seg disse modellene på det. Og det hjelper å forstå at du legger inn en en noe tekst, det som får plass i det som kalles for kontekstvinduet, den teksten du legger inn, sammen med det maskinen selv har svart, går på en måte gjennom maskinens kunnskap og genererer ny tekst på andre siden. Og det vi vet da er at den nyeste utgaven av ChatGPT som kom nå, den har jo en kunnskapsgrense våren 2023. Og den er jo bare trent på offentlig materiale, ingenting av det som du selv driver med, som ofte er privat materiale, er der inne. Så alt den skal vite egentlig om hva du driver med, må forklares hver eneste gang. Og da er det sånn at den husker ganske langt. Dette kontekstvinduet er jo flere tiotusentals tegn, sånn at den klarer å få med seg veldig mye, det er nettopp derfor den er så bra. Men hvis man glemmer å forklare utenforliggende ting som man tar for gitt, så er det veldig ofte at den produserer feil. Og derfor er det viktig å ha dette med å være tydelig og spesifikk for seg, at du på en måte må virkelig forklare i detalj hva du driver med og hva du vil ha gjort. Hva er et eksempel på at man ikke tar hensyn til dette med kontekst? Jeg kan jo prøve å forklare hvis jeg for eksempel sier... Jeg vil ha en. Så tenker du deg, maskinen her skal jo generere det neste mest sannsynlige ordet. Men hva er det jeg vil ha? Vil jeg ha pizza, eller vil jeg ha kaffe, eller vil jeg ha øl? Øl. Du vil ha øl, ikke sant? Men hvis det viser seg at det er noe annet utenfor denne setningen da, informasjon som det ikke er opplyst om. Som for eksempel informasjonen det var sent i går, det ble veldig fuktig, her må det ryddes opp. så vil du skjønne at kanskje det er kaffe vi trenger nå. Og da vil du få kaffe som det mest sannsynlige. Men bare dersom dette utenforliggende også blir sagt. Dette må hele tiden sies, og man kan også tenke seg at du får enda nye dimensjoner, for hvis du har før disse setningene har «jeg er alkoholiker», det er Det var sent og fuktig i går. Og alt dette her, ikke sant? Nå vil jeg ha en øl. Ikke sant? Så det forandrer seg hva som egentlig er det neste mest sannsynlige ordet, basert på hva slags kunnskap maskinen får da, om hvert enkelt tilfelle. Og derfor så er det sånn at den jobben man må gjøre er egentlig litt større enn det man tror. For folk tror at de skal gjøre sånn som på Google, og så skal de bare skrive to ord, og så kommer de rett på svaret, ikke sant? Mm. Og det gjør du ikke her. Da vil du ofte få et dårligere resultat enn du får på Google, rett og slett. Men Google er jo litt... Altså, Google er noe annet, da. Google er noe helt annet, og den prøver jo ikke å lage et eget svar for deg, ikke sant? Nei, men der er du på utsikt til faktuell informasjon. Ja, og det kan også GPT levere. Men du vil jo aldri være like trygg på den. Det som er den store styrken her, er jo at den følger deg og er høyt opptatt av hva slags hjelp du trenger akkurat nå. Så du kommer ikke i den situasjonen der du gjør et Google-søk, og så får du åtte treff nedover, og så ingen av dem treffer helt, og så må du begynne å bla og lete, og helt til å se, og kanskje klikke på disse annonsene som Google gjerne vil at du skal klikke på. Sånn at for mange typer bruk, for eksempel idearbeid, så er dette her mye mer hensiktsmessig enn å sitte på Google og prøve å finne råd. Ja, men det er jo så samme. Prinsippen som er likt med Google er at jo bedre du stiller spørsmål, jo bedre svar får du. Det er riktig, men det er ikke alt som er likt. For eksempel, jo lengre spørsmålet er, jo bedre blir Mens på Google er det egentlig ikke sånn. Det er jo kortere, jo bedre. Og hvis du har prøvd å stille et langt spørsmål på kanskje flere setninger, så er det jo helt ubrukelig. Ja, men er det sånn jo kortere? Det er vel ikke jo kortere, jo bedre? Nei, jo mer presist, ikke sant? Jeg er jo opptatt av de unike søkeordene. Det er egentlig det som styrer Google. Og så har jo Google gjort en del fremskritt der du kan stille korte spørsmål. Og hvis du stiller liksom sånn, hva er atomnummeret til aluminium, så vil du få et konkret svar på det. Så den forstår veldig... korte, konkrete fakta ting, men den formidler ikke noe, den gir ikke noe råd, ikke sant? Så dette her kan man heller tenke på som en form for rådgiver, som er litt upolitisk da, enn som en faktamaskin. Men hvis den er litt upolitisk, hvordan forholder du deg til det da? Altså når skal du stole på den, og når skal du ikke stole på den? Dypest sett så så ligger det jo under her at man kan faktisk stole på den veldig ofte. Ikke sant? Men veldig ofte er ikke alltid da. Nei, det er ikke alltid. Sånn at det kommer an på hva du skal bruke det til da. Og sett nå at du for eksempel sitter i et middelselskap og skal svare på et spørsmål, så vet du at svarene som kommer fra GPT sannsynligvis er mye mer politelige enn det de som sitter rundt bordet er. Men hvis du står overfor en verdens beste ekspert og skal publisere en rapport for DNV GL, eller et eller annet som krever veldig høy politelighet og sikkerhet, så er det ikke det du skal bruke. Sånn som i Aftenposten for eksempel, så er vi jo helt klare og tydelige på den holdningen. Ja, vi skal bruke dette her, men vi skal stå inne for alt sammen selv. Vi skal aldri bruke den til faktasjekking spesielt. Dette med fakta er litt interessant, fordi feilene den gjør Det er ikke sånn at hvis du spør for eksempel, du spør da, hvem er P. Christian Bjørkeng? Så sier han ikke, ja, han er snekker i Afrika, eller han er kokk i Chicago, ikke sant? Det sier han er journalist i Aftenposten, Hvis du er heldig, så vet den ikke så mye mer. Hvis det er pusheren, så sier den, ja, har han skrevet noen bøker? Ja, han har skrevet en bok som kom ut i 2020, og som heter Algoritmenes planet. Det var en fullstendig oppspinn. Det er en fullstendig oppspinn, men er det helt på jordet? Nei, men altså... Nei, ikke sant? Det er det som er poenget. Jo, men hvis den ikke er på jorda, altså du må jo kunne enten stole på det eller ikke stole på det. Du kan jo ikke stole på det, det er jo kategorien ikke stole på. Men den er jo inne på noe, fordi det er noe med teknologi å gjøre. Ja, men det er mer snakk om slurv enn løgn. Det er en veldig viktig forskjell. Den prøver ikke å få meg til å lede meg helt på vilde veier. Men det den gjør, det er at når den... Jeg kan forklare dette med at en GPT er som en kompresjon av alt på internett, all kunnskap som vi mennesker har laget. Det er egentlig vi mennesker som har laget GPT, det er ikke disse folkene i oppenavgjeng. Og den gratisversjonen er så liten at den faktisk får plass på en mobiltelefon. Det er veldig, veldig lite. Men når du stiller et spørsmål som er... Så den har masse faktakunnskap, men når du stiller et spørsmål som er i utkanten av hva den kan, så klarer den ikke å merke når den bare begynner å generere sannsynlige ord, forskjellen på det, og når den går utenfor det som egentlig er faktakunnskap. Og derfor blir det det som man kan kalle for slurv, der en person ikke helt kjenner grensen for når den egentlig vet noe og ikke... ikke vet noe. Så du bare skriver noe der, ikke sant? Ja, for den vet faktisk ikke noe. Den vet masse, men den vet ikke alt. Ja, men vet den at den vet? Den har problemer med å vite det. Men den vil for eksempel si at Per-Kristian Bjørkeng er en journalist, men jeg vet ikke noe mer om vedkommende. Men selv det vet du jo ikke. Nå vil du bare si hva som er det mest sannsynlige svaret, er det ikke sånn? Nei, men hvis det var mye mer som var kjent om meg, så ville svaret være mer politlig. Jeg er ikke en veldig godt kjent person som det er masse treningsmateriale på, og derfor og tillegg så er jeg en trent veldig lite på norsk. Så derfor så er det Det spør meg et godt eksempel, for jeg er helt i utkanten av hva som egentlig er kompetanseområdet. Det holder ikke om man kanskje har lest en artikkel om meg, for eksempel, at det må være flere for å rotfeste dette som et grunnig faktum. Det er i denne utkanten av kunnskapsområdet at de store problemer oppstår. Vi må virkelig være oppstående, mens det finnes andre ting. Det er ikke uten grunn at det som skjer i skolen, at skolen var den første stedet som tok i bruk dette der umiddelbart. Det er fordi at alt er så godt. godt beskrevet på nett. Det er jo vår felles grunnleggende kunnskap, alt sammen beskrevet tusener og millioner av ganger i alle mulige stiler og alt som er, ikke sant? Og derfor så, det er politlig da, veldig ofte, det den svarer fra det materialet. Politlighet er jo egentlig bare en sånn synlighet, for det er ikke, altså... I dennes hode er det en sannsynlighet, for det er riktig basert på dette datamaterialet, så er det mest sannsynlig at dette er riktig derfor for servererne. Når den har lite data, så gjør den fortsatt samme beregning, men har lite data, så da blir jo resultatet noe annet. Helt riktig, akkurat det som farger. Ikke sant? Så det som er litt skummelt her, er at når den er i utgangszonen, så burde den kunne si da, «Nå, dette svaret er ikke politelig, fordi jeg har et lite datasett». Den burde kunne merke det på en eller annen måte, men den merker jo ikke det, for den vet jo ikke. Den vet jo ikke om den vet noe eller ikke, det er bare sannsynligheter. Er det ikke sånn? Du er helt rett, og det er selvfølgelig dette som er det store spørsmålet nå, som disse som forsker på dette her jobber med. Hvordan skal vi klare å få henne til å skjønne forskjellen på det den vet og det den ikke vet? Det er dette som er den store utfordringen, og som vi forventer blir mye bedre. Vi vet at fra 3,5 til 4, så reduserte du hallucinasjonene med 40%. Men det er fortsatt ganske mye som vi kan liksom ikke stole på faktene. Men det som fort er lett å glemme her, er jo at vi mennesker er også upolitelige. Vi gjør også feil, ikke sant? Ja, men det vet vi på en måte. Vi ikke inntrykker oss. Ja, men jeg forteller deg nå, denne maskinen gjør også feil. Du vet det, ikke sant? Ja. Ikke sant? Det er noe med at vi klarer å forholde oss til dette her, men jeg vil si at dette er mer krevende å forholde seg til, fordi at den gir ingen indikasjon, ikke sant? Jeg vil ofte si, hvis jeg er en politlig person, så vil jeg ofte si at til en kollega som kommer og ber meg om råd, ja, dette burde du sjekke opp. Jeg husker det var et eller annet om det der en eller annen gang, men jeg er ikke så sikker. Sjekk det opp, du. Du vil si det, og du kommuniserer på andre måter enn om språket ditt. Det er jo kroppsspråk også, som kan tyde på at dette vet du ikke helt. Var det det, eller? Hvis man begynner sånn, så vet man jo ikke helt sikkert. Men det er jo veldig interessant dette med politlighet. Er det så basic at den faktisk ikke vet hva 1 pluss 1 er? Mest sannsynlig er det 2. Den vet hva er en pluss en. Den vet grunnleggende matte, men matte er egentlig det beste eksempelet på ting den ikke kan. Det er absolutt det den er dårligst på. Matte? Matte, ja. Så der er det jo tydelige regler? Dette er ikke tydelige regler. Dette er bare sannsynlighetsberegning. Den er ikke bygd opp med logikk. Og mange blir kanskje overrasket fordi vi er vant til at datamaskiner er bedre enn folk. Selv en vanlig kalkulator fra 1969 er jo bedre enn folk til å regne, ikke sant? Men her er det motsatt. Denne maskinen er mye mer lik vår egen hjerne. Veldig, veldig god til å associere. Ekstremt god til det. Veldig dårlig til å regne. Og Men veldig mange mennesker er bedre enn GPT-4 til å regne, og mange snakker om at den er på barneskolenivå. I realiteten er den mye bedre, men man må bruke noen triks for å få den til å bruke matte. Men for å si det sånn, jeg har jo for eksempel fått den til å skrive dataprogrammer på flere hundre linjer, som fungerer, som jo er basert på logikk, ikke sant? Og der et eneste komma feil er en katastrofe som gjør at ingenting virker. Sånn at det er viktig å ikke gå seg helt borti at ja, det er upolitligheter her, den begår feil. Da jeg programmerte dette her, så genererte den feil. Men poenget er, forståelsen er så stor at den klarte å rette sin egen feil overfor meg, som ikke kan programmere. Og det at jeg hadde ingen mulighet til å rette denne koden selv, den gjorde det bare basert på mitt språk, der jeg sa «Ja, dette virker ikke. Du må finne feilen». Limer inn feilmeldingen, og så sier den «Åja, jeg ser her at denne feilmeldingen indikerer at jeg gjorde en linjefeil i linje 32. Her skal jeg få den nye linja». Dette er også en veldig dyp logisk forståelse, som kan konkurrere med veldig, veldig mange mennesker, inkludert meg selv, som ikke er i stand til dette, for jeg har ikke den kunnskapen om dette. Men grunnen til at du kunne si at det ikke fungerte var at den ikke fungerte. Punktum, ikke sant? Den fungerte ikke. Men la oss si programmet hadde fungert, men at det resultatet av programmet ble feil. Det ville vært vanskelig for deg å oppdage. Helt klart. Så derfor må man, hvis man skal bruke det på denne måten, så må man designe det sånn at man kan sjekke maskinen. Hvis man ikke er i stand til det på andre, liksom å vite utifra bare svaret, ikke sant? så må man for eksempel tenke seg at jeg har gjort dette her, laget et journalistisk graveprosjekt, jeg prøver å sortere innkjøpene til Nasjonalmuseet, 10 000 innkjøp, liksom. Prøver å finne ut hva slags kjønn de kunstnerne hadde da. Dette fikk jeg til... Men hvordan skal jeg sjekke at det ble riktig, ikke sant? Fordi maskinen selv vurderte kjønnet. Den vurderte da om fornavnet. Den fikk en til å identifisere fornavnet, og så lage en kjønnsanalys av fornavnet, ikke sant? veldig morsomt prosjekt, og den klarte det. Men hvordan skulle jeg sjekke at det var riktig? Jo, da tok jeg de 300 øverste da, som en stikkprøve, så gikk jeg gjennom den, så sa jeg, åja, alle disse 300 her er riktige, og det var kanskje to feil, men det var fordi at jeg heller ikke visste hva slags kjønn det var, for det er jo en del navn du ikke kan vite hva slags kjønn det er, ikke sant? Så har du plutselig en forståelse av, ja, ok, hvis 300 er riktige, da da er trygg nok for denne typen bruk, som var sånn, ok, om det var 1% feil, i andelen kvinner som hadde blitt kjøpt inn, så var det greit for mitt formål. Det viktige var at det store bildet var riktig. Man må gjøre seg en sånn type vurdering, hvor viktig er presisjonsnivået? Man skal være klar over at hvis du har en utvikler som gjør samme jobben, så kommer ikke han heller, eller hun heller, til å gå igjennom alle de ti tusen tingene. Det er derfor du har datamaskinen. Så du designer sånne måter å gjøre stikkprøver på. Det er en standard måte å kontrollere en datamaskin på. Kunne du brukt dette i en artikkel? Det har jeg faktisk ikke gjort. Det var egentlig utelukkende fordi det ikke var så interessant. Skjønner. Det var spennende. Jeg var jo i grava å komme over en annen skandale. La oss si det var spennende da. Er det godt nok? Ja, det ville jeg gjort. Men da ville du også informert om det? Jeg ville informert om det. og jeg ville selvfølgelig gått enda flere runder med å forsikre meg, men jeg mener at det er jo derfor jeg synes dette er spennende å jobbe med dette her, det er fordi jeg mener at det faktisk kan brukes. Men hele tiden med denne krevende, kritiske holdningen i bakhodet, der vi liksom hele tiden vet at ja, vi kan bli lurt. Når vi snakker om det her, så er det to områder. Det ene området er jo å bruke chat-GPT til noe du ikke har peiling på overhodet, og det andre er å bruke det til til noe du har peiling på. Det er to forskjellige bruker. Den ene, hvor du ikke har peiling, da må du kanskje i større grad kompensere for det med en eller annen form for kontrollmekanisme, avhengig av prestasjonsnivået du har avhengig av. Mens den andre biten, så kan du mer i større grad selv vurdere om dette er et godt nok svar eller ikke. Det er riktig forstått, men det er noe som også gjør det litt mer utfordrende, og det er at det er først og fremst det mest å hente på de områdene der du kan minst. Ok, det er interessant. Det er jeg umiddelbart uenig, men la meg høre. Jo, dette vet vi, fordi forskning har prøvd å avdekke dette her. Hvor er det egentlig man har mest utbytte? Og da tok man 750 konsulenter, altså dette er Harvard-forskning som er på det høyeste nivået vi har, liksom. 750 konsulenter brukte veldig høyt tid. Hvem timer satt de og jobbet med dette? Dette er jo høyt presterende mennesker i BCG, som er et stort konsulentselskap. Så sitter de først i to og en halv time og gjør oppgaver som er simulerte oppgaver for deres jobb. Forskjellig kreativitet, analyse og sånne ting. så gjør de lignende oppgaver i to og en halv time etterpå. Forskjellen midt på der er at de får tilgang til GPT-4, og så sier man du skal bruke dette her til å løse oppgaven. Det som er slående da er jo for det første at kvaliteten på det samlet arbeidet til alle sammen økte med 40%. Det er det som er grunnlaget for denne boka, at instruksdesign faktisk har veldig mye å bidra med. Så det er veldig, veldig stor kvalitetsøkning, og det gikk også fortere, 25% raskere. Men for å komme til poenget, det er de svakeste som henter mest. Det er altså de nybegynnerne, de økte sin kvalitet med 43%. Og da er vi inne på dette her at ja, vi lager også feil. Vi mennesker, når vi gjør ting, ting er sjelden 100% riktig. Vi må bare vurdere den totale kvaliteten av det som kommer ut. Og da er det faktisk sånn at når du er helt nybegynner, så er oppgavene veldig, veldig vanskelig. Hvis du da har en alvite ved siden av deg, som riktig nok er litt slurvete, så vil du faktisk nå på et nivå som er nesten som en erfaren veldig, veldig raskt. Det er på en måte faktisk, det er også veldig utfordrende, ikke sant? Fordi du har hele tiden dette her upolitelighetsaspektet, men det som viser seg er at sluttresultatet veldig ofte blir veldig bra. Så må man bare være forsiktig Det er jo en ting jeg er kritisk. Altså, det er noen sikkerhetskritiske ting, eller et eller annet, ikke sant? Eller sånn som det å publisere en sak i Aft. Hei, er du en CEO eller CTO i et vekstselskap og trenger flere utviklere? Da vet du at det er ganske krevende å finne dyktige utviklere i Norge. Men håpet er heldigvis ikke ute. Cefalo er et norsk outsourcing-selskap som har klart å bli en av de aller beste arbeidsgiverne for seniorutviklere i Bangladesh. Cefalo's spesialitet er å rekruttere og bygge langsiktig utviklingsteam sammen med den norske kunden. Og det å ha faste utviklere gjennom Cefalo skal i praksis oppleves som å ha egen ansatte. Så er du interessert i å høre mer om å ha eksterne utviklere, så vil Cefalo gjerne ta en veldig hyggelig prat med deg. Så sjekk ut cefalo.no, altså C-E-F-A-L-O.no. må vi være veldig trygge på at ting er riktig, så er det ikke sted for å få denne maskinen til å gå god for noe. Jeg vil jo kunne stille mange spørsmål ved den undersøkelsen der. Det gjør jo sikkert du også. Hva er kvalitet? Hva er utgangspunktet for de som kunne minst, hvis det er på 0% og de går opp til 43% og de som kan kan mest begynne på 43 og går opp 20%, så er det fortsatt... Men alt dette her har de forsøkt å tenke på. Alle sammen her er jo ansatt i BCG. Det som er en veldig krevende jobb å få. Det som er min kritikk av den undersøkelsen, det er først og fremst at de vet at de skal bruke GPT-4. Det er ikke helt realistisk. I praksis så vet du ikke helt når du skal bruke den, og det er ikke opplagt at du skal sette i gang med dette her. Alle sammen bruker arbeidstida si kritisk og prøver å utnytte den best mulig. Og jeg tror at det er et tegn som viser at vi bør bruke den mer for å få mer utbytte, spesielt på de områdene der vi selv er nybegynnere. Ja, men ... Jeg tror ikke at alle som får tilgang til KPT4 øker kvaliteten på arbeidslivet med 40%. Det er det urealistiske. Det er bare noe med at vurderingen av kvalitet... uteblir når du ikke kan noe om området. Du kan ikke vurdere kvaliteten. Det er vanskelig å vurdere kvaliteten. Det som er egentlig vurderingen av kvalitet her, det er dommere som sitter og vurderer uten å vite om dette var en besvarelse som var gitt før GPT-4 eller etter. Så det er ordentlig forskning, men likevel så tror jeg det er svakheten, at det brukes hele tiden. Det som er bakenforliggende her er at det krever en veldig stor mental endring å begynne å jobbe på denne måten. Fordi det jeg merker med mitt eget arbeid, det som skjer er jo faktisk at man glemmer hele GPT-tjenesten. Fordi at måten å få utbytte på er å spørre den hele tiden, bruke den som en sånn sparringspartner gjennom hele dagen sin. Det er ikke jeg vant til. Det er ikke du vant til. Det er få som gjør. Det finnes noen som gjør det, og de sier sånn «Jeg bruker den til alt jeg har sluttet å bruke Google», ikke sant? Men de er veldig få. Det krever en ganske mye større mental endring enn det man egentlig er klar over. Og i tillegg så har du dette her at folk blir litt forsiktige, for de vet at det er upolitelig. Ja, det er akkurat det. Anbefaler du å gå all in? Ja. I den forstand at du må ha dette i grunnlaget, at du har ansvaret, men det å drøfte med ting, det som kan løse dette problemet veldig for mange, tror jeg, det er å forstå at du skal tenke på det maskinen kommer med som forslag. Alt er bare forslag, Gode ideer, dårlige ideer, men det er forslag som du skal vurdere. Men veldig ofte vil du oppdage at den kommer opp med noen forslag som er verdt å undersøke. Det er verdt å gå videre på, og kanskje for eksempel har du glemt å tenke på noe. Du kan få blindsoner og sånne ting som gjør at du arbeider raskere enn du ellers ville gjort. Men det jeg selv har gjort for å få til dette her, det er å gjøre en tjeneste som heter Perplexity til standard for meg i stedet for Google. Fordi selv om jeg jobbet med denne boka, liksom, de handlet om å bruke dette verktøyet, så merket jeg at jeg glemte å bruke den. Men hvis jeg må tenke på å gå til Google i stedet, og bare automatisk kommer til perplekser, jeg vender meg til at jeg kan bare stille et verdt spørsmål, så får jeg ut dette svaret, så går det mye greiere, og den store styrken til den tjenesten, som er en undertjeneste med GPT-4 inni, det er at den oppgir kilder, slik at du også får oppdaterte, for en journalist er det avgjørende å ha oppdatert informasjon også, ikke sant? Det går ikke an å bare si at vi er ferdig våren 2023. Ja, og du blir jo litt mer politlig også. Ja, når du har kildene så kan du jo sjekke den. Og det er mye mer krevende å sjekke et vanlig svar fra GPT, for det står jo ingenting hvor den har tatt deg fra, så du må jo ut og begynne å rase rundt i Google. Det er veldig vanskelig å få til i praksis. Ja, men vi begynte å snakke om dette med instruksdesign, og vi nevnte at kontekst er viktig. Du nevner også at format... Du sier at det er et av de mest kraftfulle verktøyene. Hva ligger i format? Format er for eksempel lengden. Hvor langt vil at svaret skal være? Det er en veldig god til svaret på. Det er veldig stor forskjell. Noen ganger vil du gå i dybden, du vil sette deg virkelig inn i et felt. Men ofte vil du ikke det, du vil bare ha et kort svar. Og sier du det på hundre ord, så leser du det på noen få setninger. Men du kan også si for eksempel at formatet skal bestå av bare de smertefulle endringene som du kan stå overfor. Eller egentlig også andre ting som innbefantes under at du skal være tydelig og spesifikk. Men det å si litt om formatet, for eksempel «gi meg tre punkter for og tre punkter mot», kan spisse ting for å hjelpe tankeprosessen din for eksempel Hva slags format er du bruker mest? Jeg sliter fortsatt med å bruke nok tid på å være tydelig og spesifikk, og huske på at dette ikke er Google. Det jeg vil si at jeg sliter mest med er å ta et steg tilbake mange nok ganger i løpet av dagen, og huske på at jeg har en assistent som kan være til nytte for meg her og nå. Mhm. Det er den største utfordringen, men ikke nok. At du ikke går all in? Ja, og det å skrive en ordentlig instruks, det tar litt tid. Det tar kanskje to minutter, ikke sant? Det kan ta kanskje fem minutter. For du må tenke igjennom hva du driver med. Det er en type arbeid som jeg tror veldig mange toppledere driver med. For det er liksom som du har fått en assistent som er utrolig kompetent, men som kan ikke bruke seg så veldig mye på egenhånd. Den gjør ikke noe selv. Du må hele tiden styre den, ikke sant? Og Og da må du på en måte ta et steg tilbake og tenke, hva er det egentlig jeg er ut etter nå? Hva er mitt problem? Det er egentlig kjernen her. Det er en veldig interessant oppgave, men det er ikke noe vi er vant til å gjøre. Vi er vant til at vi bare dundrer og gårer stort sett med det vi driver med, og så vet vi stort sett hvordan ting skal løses. Vil du si at de som klarer å benytte seg av KI og GPT vil lykkes i større grad enn de som ikke gjør det? Ja, det er overbevist om. Ok, Dette er et spørsmål som er et utgangspunkt for en mer filosofisk diskusjon rundt dette med friksjon. Det fjerner jo friksjon. Du sa nettopp nå at det bruker litt tid, du brukte to minutter på å lage en god instruks. Så tenker jeg, hvis du går all in, blir du allergisk mot friksjon. Og hvis du er allergisk mot friksjon, vil du da... friksjon er det som skaper utvikling, vil du miste da en egen utvikling som gjør deg i stand igjen til å kunne miste en distans fra produktet som gjør deg i stand til å kunne stille de gode spørsmålene og vurdere kvaliteten. Min tanke der er motsatt, egentlig. Jeg tenker at friksjon, altså frustrasjon, er jo en annen måte å beskrive friksjon mentalt, da. Og veldig ofte, i hvert fall for min egen del, er jeg jo ikke en sånn co-founder-type som kanskje hører på skifter, ikke sant? Som kanskje elsker det. Så jeg kan akseptere at det er noe som på en måte er besnærende å tenke på. Men jeg tenker også at en som skal starte opp en bedrift da, har best av å være i flytsonen. At man er i flytsonen, og man hele tiden får utfordringer, men ikke stopper opp. For realiteten er at du veldig ofte må gi opp, fordi du blir frustrert. Du ser ikke veien frem. Da er punktet at du skal bruke NGPT til å komme videre. Når jeg har jobbet med disse prosjektene som virker umulige, Det er veldig interessant at Ethan Mollick, som jeg nevnte før, han gir sine studenter umulige oppgaver. For eksempel, hvis du ikke kan kode, så skal du levere en oppgave der koding er brukt. Det er også et felt der jeg selv opplever at jeg kan jobbe, jeg kan klare dette, jeg kan jobbe med dette her uten å bli frustrert. Fordi jeg vet at jeg har alltid noen å spørre. Ikke sant? Hvis noen, sikkert på mange som hører på dette her, har prøvd seg programmering uten å egentlig komme særlig langt, så kan man kjenne igjen dette her som en ganske klar utfordring som er lett å kjenne igjen. At man blir for frustrert. Man skjønner ikke. Det er for mange feil. Det virker ikke, ikke sant? Og du vet ikke hvilken vei du skal gå. Den eneste måten du kan gå er å begynne fra bunnen av og lære deg alt sammen på nytt, ikke sant? Her er det helt motsatt. Du får hjelp til akkurat det du er ute etter. Du lærer kanskje ikke den kodingen fra bunnen av på den måten, men du lærer å løse problemer sammen med maskinen, ikke sant? Og du lærer også på denne måten. Det er en helt, helt annen måte å forstå problemer på, rett og slett. Hvilke implikasjoner vil dette ha for utdanning, et cetera? Altså hvordan vi tenker jobb og kompetanse. Hva er dine tanker rundt det? Det er så store endringer at det er veldig, veldig vanskelig å overskue. Det første, og det som er helt klart, er jo at det er umulig å se for seg at du skal klare å å gjemme oppgavene og gjemme eksamen, ikke sant? Fordi disse systemene representerer en stor trussel ved at de gjør det veldig lett å jukse og få maskinen bare til å svare for deg, ikke sant? Men trenger vi kompetanse hvis maskinen kan svare på ting? Ja, du gjør det fordi vi mennesker må jo fortsatt lære ting. Hvorfor det? Jo, fordi vi er ikke der at vi kan overlate til maskinen og gjøre det. Du kan prøve da uten kompetanse å bygge en bedrift for eksempel. Det vil være mye vanskeligere enn om du har kompetanse. Men det er en helt ny måte å tilegne seg kompetanse på. Og det er også det største og mest positive som har skjedd innen utdanning. Og aldri så lenge. Fordi at alle får sin egen lærer, det er bare det at vi må passe på å unngå at ikke folk, spesielt kanskje ungdom, bare ikke gjør oppgaven, ikke lærer seg å tenke selv. Men er det ikke det som er faren? Ja, det er faren. En ting er jo GPT-4, men GPT-7 da, som er bare sånn... utenomjordisk vesennivå intelligens. Hvis du har en sånn kompis som du kan spørre om alt, hvorfor skal du da trenge å vite noe som helst? Det kan du si, men det blir en sånn filosofisk diskusjon der vi kan stille oss spørsmålet hva skal vi gjøre når maskiner gjør alle jobber? Men vil de gjøre alle jobber? Eller er det noen menneskelige egenskaper som uansett vil være et behov for? Og hva er det hvis de gjør det? Det vet vi ikke. Jeg vil si at vi er helt over i spekulasjonen når vi stiller de spørsmålene der. Mine meninger er opptrent akkurat like gode som dine. Vi aner ikke hvor grenser for kompetansen for disse systemene går. Vi ser ikke noen helt klar grense nå. Det vi kan se er at de innenfor ikke har noen form for det vi kan kalle bevissthet. De har ikke noen følelser. Det er noe som er unikt for mennesker og dyr, for så vidt. Foreløpig. Jeg hadde Inga Strumke på podcasten her, og da jeg sa det, så sa hun, ja, men hva er følelser? Ja, det er et godt spørsmål, fordi at vi, ikke sant, vi, en gang vi begynner på disse spørsmålene her, så støter vi opp imot dette at vi vet jo ikke, vi har ikke svar, vi vet ikke hva bevissthet er for noen ting, og så hvordan kan vi da si at maskinen ikke er bevisst, ikke sant? Så, nå, Er vi ferdig med å komme inn på en masse filosofiske spørsmål som er superinteressante å sitte og ta et rast røvende over, men som egentlig jeg ikke har noen gode svar på. Og det har heller ikke alle disse her som nå jobber i Oppenheim med å utvikle disse maskinene. Vi vet rett og slett ikke, og vi går inn i en stor usikkerhet med tanke på dette her, men at det er for å lande deg, for å tenke på læringssituasjonen, så er det utrolig gøy å lære med noen som hele tiden er der for deg og svarer på dine spørsmål på en god måte. Det er kjempespennende. Det store problemet er, hvis du ikke er interessert i å lære, hvis du vil bare få maskinen til å løse oppgaven for deg, det er det eneste som er problemet i øyeblikket. Dette må skje. skolen løse for eksempel ved å snu oppgavet opp ned og begynne å skrive for hånd, svare muntlig, sånne type ting i stedet for å fortsette som før, som man til synligheten faktisk gjør. For mange lærere tror for eksempel at de kan skille en tekst skrevet av GPT fra en elevtekst, og det er en illusjon. Og hvis det ikke er en illusjon da, så er det bare fordi de bruker gratisversjonen, eller Hvis noen skulle være i stand til å identifisere det, så er det i hvert fall slutt med GPT-5. Fordi det her er ikke mulig å skille fra menneskelig språk. Nei, bare se for meg en lærer som lager oppgaver i GPT og en elev som løser den i GPT. Og så er det GPT-ene som kommuniserer. Det er litt sånn skummelt hvis det går dit. Ironisk nok, eller paradoksalt nok, så er det tilbake til håndskrift. Tilbake til det ikke-teknologiske. Ja, og vi kommer jo ikke unna at på en eller annen måte så må vi lære. Hvis vi skal bli gode på noe, så må vi lære det. Eller så skjønner vi det ikke. Nei. Nei. Litt tilbake til tips og triks. Idegenerering er noe man kan bruke den bra til. Hva er de tre beste rådene med tanke på idegenerering? Idegenerering, da vil jeg si at du går tilbake til den samme situasjonen. Hva er mitt problem da? Jeg kan bruke et eksempel. Hvis jeg lager en sak i Aftenposten, så kan det for eksempel være Jeg skal lage en sak om autentisitet i rockmusikken, for eksempel. Jeg jobber i kulturredaksjon, det er kanskje en sånn ting vi skriver om. Dette har jeg jo ikke så godt kjent med, men jeg aner meg at det er noen som vet. Da kan jeg for eksempel spørre hvem jeg kan snakke med som har forsket på autentisitet i rockmusikken i Norge. Ikke sant? og da vil den komme opp typisk med tre navn på noen professorer. Og dermed er jeg i gang. I stedet for å sitte og rive meg i håret, for eksempel hvis du prøver å google dette her, så er det ikke nødvendigvis så lett å finne svaret, mens GPT vil komme opp med noen navn som har klare tilknytninger til det feltet. Og Det er for eksempel fortsatt mulig at en av de tre navnene er fiktive. Det kan skje. Men dette vil du oppdage veldig fort, fordi at du husker på det grunnleggende, nemlig at dette er jo bare forslag. Men en gang du prøver å finne... telefonnummeret til en sånn sannsynlig plausibel person som ikke eksisterer, så vil du oppdage at vedkommende ikke eksisterer. Så som et startpunkt da? Et startpunkt. Derfor er den veldig god. Eller bare sånn hvis du har en veldig uferdig idé. Hva kan være neste skritt for meg? Og det er det som er spennende med det, det er at du må ned i det konkrete. i det nøyaktige idearbeidet som du står overfor for egentlig å forstå dette her, men vi har det naturlig i oss ved å bare forklare med vårt eget språk hva er det vi leter etter nå. Det er sånn man skal tenke, og derfor er det selvfølgelig sånn at den som er i stand til å formulere ting har en fordel når det gjelder disse maskinene, framfor de som ikke klarer å formulere noe som helst. Så hvis man skal trekke fram en kompetanse man burde bli god på, er det språk? Ja, det er en veldig viktig kompetanse. Men hvis du skal generere en idé, så er det godt som et startpunkt. Er det sånn at du går og googler disse navnene, eller går du da inn i perplexity? Du sa at du ville vekk fra googling og mer inn i AI. Hva er fremgangsmåten? Det som er interessant med perplexity er at det er en blanding av GPT-4 og nettet. Den tar din instruks, analyserer den ved hjelp av GPT-4, og deler den opp i flere forskjellige nettsøk. Så gjør den et søk, og så leser den alt det, og så kommer den tilbake til deg. Noen ganger så kommer den til deg, men du må være litt tydeligere, dette blir litt for ufokusert. Eller den kommer tilbake med et svar, en rapport med de kildene, og henvisninger i svaret til hvor, i hvilke kilder hva står da, av det den skriver. Så i dette, det er liksom veldig detaljert greier, men dette er faktisk et punkt som der det er litt uklart om perpleksitet vil være det beste. Fordi det du kan tenke på, det som heter chat GPT+, det er GPT-4 som man betaler for, den har en voldsom evne til å å bygge i seg erfaring. Det er liksom som en professor som har fulgt med på autentisitet i rockmusikken hele livet, på en måte. Og det får du ikke hvis du bare gjør noen Google-søk. Så begrensningen med perplexity da, det blir det at hvis de Google-søkene, hvis det står der, så er det veldig bra, ikke sant? Men hvis det ikke står der, så er det helt ubrukelig. Sånn at dessverre så er det ikke helt sånn at bare det ene verdtige kan gjøre alt her. Det er noen tilfeller, sånn som i dette tilfellet, det er kanskje jeg heller ville ha gått for chatgpt+. Det er faktisk et spørsmål. Er det verdt å investere den summen for å få chatgpt+, altså for å gå fra 3,4 til 5? Det er dumt å stille meg et spørsmål, kanskje. Ja, det er dumt å stille meg et spørsmål, det. Hvis vi så at... Hvor høyt er det? Hvis du er veldig dårlig å ha, og du er videregående elev, så er det mye bra svar å få fra gratisversjonen også. Men alle som vil levere noe av kvalitet, har ikke så mye der å gjøre. Det er for dårlig. Sam Altman, som inntil før helga ledde OpenAI, han har jo kalt GPT 3,5 av gratisversjonen for et horrible product. Never meant to be released. Og han måtte overtale staben internt i Open AI til å slippe dette produktet Fordi at det var så dårlig. Altså 3,5? Ja. Men 4 da? Nei, det var det som de hele tiden hadde til hensikt å slippe som et kommersielt produkt. Helt avslutningsvis, du nevner noen fallgruber eller noen ting som ikke er bra med GPT. Blant annet personvern og andre ting. Det er noen store utfordringer der. Det Det er likevel en utbredt misforståelse som mange forteller meg om, at de tror at det de sier bare går inn i læringen, og så suges det opp, og så kan det lekke ut til andre. Det er ikke sånn dette her foregår. Hvis du betaler, så får du en versjon der de sier at de ikke bruker det til å trene på. Men når det gjelder dette med å lekke ut, så må vi huske på at GPT er en død klump som ikke fortløpende lærer. Det er derfor den ikke kommer lenger etter 2023 våren. Den kan ikke lære mer. Den lærer av at du gir en tommel opp og tommel ned. Den lærer av at du blir fornøyd. Så den lærer seg å tilpasse seg, men selve treningsmaterialet, lærer ikke noe mer av inntil en ny stor oppdatering kommer om et år eller når det måtte bli. Så det er på en måte utfordringen der. Men læreren ikke har seg selv? Hvis du stiller mange spørsmål og får god svar, bruker ikke den det i læringen til å svare meg? Nei. Men den kan ikke gjøre det? Det som skjer er at hele tiden dette kontekstvinduet går gjennom GPT som er en slags død klump, med bare masse, masse kunnskap, og så kommer det nygenerert tekst ut på bunnen. Så kommer den genererte teksten inn i kontekstvinduet den også, og blir en del av det resonemanget. Men det hele eksisterer bare så lenge dette kontekstvinduet eksisterer. Så den gir inntrykk av at han husker hva dere snakket om for to uker siden. Men det som da skjer, hvis du går tilbake til en gammel chat, er bare at det gamle der, det var jo lagret, den teksten er lagret. Så kjøres det inn på nytt, skjønner du? Og så virker det som den fortsetter å kan og har lært og sånn, men i praksis så har den ikke det. Nei, skjønner. Helt til slutt, hva er dine råd til folk som enten bygger selskaper, jobber som ledere i næringslivet, etc.? I hvilken grad skal man... Hva er dine tips rundt chat-GPT til disse folkene? Mitt tips er ganske enkelt. Bare gjør det til en vane, og prøv å se om du klarer å gå til den for å få råd. Og ikke ta rådene som fasit. Ta det som råd. Forslag? Forslag er ikke farlig. Ja, ja, ja. Den interaktiviteten, den er litt viktig, er den ikke det? Den er også veldig, veldig viktig, og vi har ikke snakket så mye om det. Men det å ikke gi seg når du ikke er superfornøyd med første svaret, og det skjer veldig ofte, og heller bare be en utdype Kom igjen. Kanskje til og med kjefte på den er et superviktig triks. Du kan for eksempel si at hvis en svarer og skriver noe, og det er dårlig norsk, så kan du si at dette er alt for dårlig norsk, så kan du veldig ofte oppleve at det kommer ut et bedre svar etter at du har kjeftet på den. Så du kan ha det som en default, du bare sier det? Ja, det kan det godt. Det er derfor man gir den en rolle og sier at du er ekspert. Det er for å unngå det, at den skal bare slurve i vei. Du er kjempegod, ikke sant? Ok, jeg vil Jeg vil ha noen spekulasjoner helt til slutt. Hvilke tre yrker er mest utsatt? Det må jeg tenke mye mer på. Jeg har ikke et svar på det. I hvert fall ett til to yrker som du tenker er utsatt. Det første jeg tenker på er den typen Et yrke der alt det du gjør kan beskrives innenfor kontekstvinduet. For eksempel hvis du er kundeservicekonsulent, og du har en manual du skal svare til kunder på, som er kanskje under 100 sider, eller noe sånt, eller noen få hundre sider, og det er det eneste du skal kunne, da er det utsatt. Fordi dette er egentlig løst nå. Hvis det er et mellomledd mellom en fasit og et menneske. Hvis det er et mellomledd mellom en maskin og et menneske, som det er i praksis, for det de sitter og gjør er jo veldig mye å plotte inn ting. Ja, de gir råd og gjør sitt beste, det er ikke det. Men det er veldig mye det som er funksjonen for folk. For folk er det for vanskelig å nærme seg maskinen, og så er de tittere der imellom og snakker. Dette er jo det maskinen egentlig gjør. Ja, ja. De er veldig, veldig utsatt rett og slett. Men utover det så tror jeg at det vil være en del sånne eksempler, men først og fremst så vil folk oppleve at de ikke kan gjøre en hel jobb. De kan bare hjelpe dem å gjøre oppgaver bedre, slik at du får til mer på kortere tid og leverer høyere kvalitet. De kan ikke erstatte hele jobben din. Men konsulenter da? Hvor outputen er en rapport med ting. Ja, og til den så bruker de mer enn bare det GPT kan tilby i dag. De bruker sin utdanning, masse annen erfaring. Det er ikke sånn at du kan bare mate alt inn, så kommer rapporten ut. Så god er den ikke. Ok. Aller, aller siste spørsmål. Hvilken utdanning vil du anbefale dine barna til å ta? Hmm. Og ikke svaret til den de brenner for. Nei, jeg ville valgt en utdanning som gjør deg klok. Så jeg har vel valgt mine egne fag, som for eksempel kulturhistorie, ikke sant? Filosofiske fag, den typen ting som gjør at jeg er generalist. Jeg har faktisk tro på at det er noe som vil stå seg. Og det å være spesialist, du ser for eksempel dette her, folk som har lært seg et kodespråk da, for eksempel, det er plutselig ikke så magisk som det var, for eksempel. Så jack of all trades, master of none? Ja. Ok, Christian Bjørking, tusen takk for at du kunne komme i Skifters podcast. Det har vært veldig morsomt å snakke med deg om chat-GPT. Og så er jo boka di ute. Den heter Knek, vet du hva det er? Knek, chat, GPT-koden. Og den gir deg en klintføring i alt, det vi har snakket om. Ja, det gjør den. Plutselig til, faktisk. Og ganske mye mer som handler om hvordan lærer du å tenke på dette her? Igjen, tusen takk, og lykke til videre med alle ringene som dette bokprosjektet ditt nå skaper. Tusen takk. Hei, hvis du likte denne episoden, så abonner på den og gi den gjerne en 5-stjerners rating med dine tanker. Hvis du er interessert i temaene vi tar opp på denne podcasten, så anbefaler jeg deg å gå inn på skifter.no. Og hvis du mener vi fortjener deg, så kan du gjerne støtte oss ved å abonner på Skifter. Takk for at du hørte på, så ses vi neste uke. Hei, er du en CEO eller CTO i et vekstselskap og trenger flere utviklere? Da vet du at det er ganske krevende å finne dyktige utviklere i Norge. Men håpet er heldigvis ikke ute. Cefalo er et norsk outsourcing-selskap som har klart å bli en av de aller beste arbeidsgiverne for seniorutviklere i Bangladesh. Cefalos spesialitet er å rekruttere og bygge langsiktig utviklingsteam sammen med den norske kunden. Og det å ha faste utviklere gjennom Cefalo skal i praksis oppleves som å ha egen ansatte. Så er du interessert i å høre mer om å ha eksterne utviklere, så vil Cefalo gjerne ta en veldig hyggelig prat med deg. Så sjekk ut cefalo.no, altså C-E-F-A-L-O.no.

Mentioned in the episode

ChatGPT 

En chatbot med språkmodeller GPT 3,5 og GPT-4, som brukes til å generere tekst.

GPT 3,5 

En gratis språkmodell som er enklere og mer tilgjengelig.

GPT-4 

En mer avansert språkmodell som koster penger og har mer kapasitet enn GPT 3,5.

Aftenposten 

En norsk avis der Per Kristian Bjørkeng jobber.

Perplexity 

En tjeneste som kombinerer GPT-4 med nettbasert søk for å gi mer omfattende svar.

Harvard 

Et universitet som har forsket på bruken av GPT-4 blant konsulenter.

BCG 

Et stort konsulentselskap som deltok i Harvard-forskningen.

DNV GL 

Et selskap som krever høy politelighet og sikkerhet i sine rapporter.

Cefalo 

En sponsor for podcasten, som er et norsk outsourcing-selskap.

Bangladesh 

Et land der Cefalo rekrutterer utviklere.

OpenAI 

Selskapet som utviklet ChatGPT.

Sam Altman 

Tidligere leder av OpenAI.

Inga Strumke 

En gjest i en tidligere episode av Skifters podcast.

Ethan Mollick 

En pedagog som mener man trenger 10 timer for å forstå Chat GPTs bruk.

Nasjonalmuseet 

Et museum som Per Kristian Bjørkeng brukte Chat GPT til å analysere innkjøp for.

ChatGPT+ 

En betalt versjon av ChatGPT som har mer kapasitet og erfaring.

Skifter 

Podcasten der episoden finner sted.

Google 

En søkemotor som ofte blir sammenlignet med Chat GPT.

Kulturredaksjon 

En avdeling i Aftenposten som skriver om kultur.

Rockemusikk 

Et emne som Per Kristian Bjørkeng bruker Chat GPT til å finne informasjon om.

Kundeservicekonsulent 

En yrkesrolle som Per Kristian Bjørkeng mener er utsatt for automatisering.

Kulturhistorie 

Et fagfelt Per Kristian Bjørkeng mener vil være relevant i fremtiden.

Kodespråk 

Et spesialområde som Per Kristian Bjørkeng mener er mindre magisk enn før.

Participants

Host

Programleder

Guest

Per Kristian Bjørkeng

Sponsors

Cefalo

Lignende

Laddar