Podcast episoden i tekst
Jonas (00:17.262)
Hej og velkommen tilbage til Hey AI. En podcast, hvor vi kigger lidt i dybden på, hvad der sker inden for AI. Jeg har valgt at sætte den lille smule om fremadrettet og begynde at kigge mere, eller holde et fokus lidt mere rettet mod chat -GBT. Og se, hvor de bevæger sig hen og hvilke opdateringer de kommer med. Og så samtidig også gå lidt i dybden med, hvor og hvad samarbejder chat -GBT med. For det, jeg kan se i øjeblikket, det er integrationerne mellem
De store software og hardware produkter, vi bruger i dag, begynder at integrere Tjett -GPT direkte i deres system, i deres univers. Så jeg tænker lidt, at Tjett -GPT bliver overordnet, og derfra kigger vi så ned i dybden på de forskellige opdateringer, der kommer. Først så lad os tale om, hvad der er sket fornyeligt i Tjett -GPT. Den 4. juni, der oplevede Tjett -GPT et betydeligt nedbrud, der påvirkede en masse af deres brugere hver den år.
Jeg var en af dem, jeg sad og var ved at lære nogle forskellige opgaver, som jeg plejede at bruge til et gpt til, og så lige pludselig virkede det ikke, og så fandt man ud af, hvor meget man egentlig bruger det her i hverdagen. Det skab selvfølgelig en del uro, det er klart. Specielt til dem, der bruger det til kode og brainstorm, reportskrivning, whatever man nu bruger det til, så er det altså bare trælsende ting, det ikke virker. Men OpenAI har løst problemet og overvåret situationen, så det ikke kommer til at ske igen.
Hvis vi kigger på lidt mere positive nyheder, så har OpenAI rullet flere opdateringer ud, der forbedrer brugoplevelsen.
Eksempletvis, når du starter en ny chat, der du kunne i et stykke tid nu, men så kommer den med nogle gode prompts, du kan bruge. Altså, jeg giver dig nogle eksempler på, hvad du kunne spørge chat .gbt om for ligesom at komme i gang, og også for at få en forståelse af, hvad man egentlig bruger chat .gbt til, og hvad det kan bruges til.
Jonas (02:07.15)
Derudover har de lanceret denne GPT -4O -model, som er deres nye flagship -model. Man kan både bruge den betalte løsning, men også bare på den gratis. Den gratis løsning gør så, at du kan skrive x antal gange med din GPT inden for en time, og så lukker den ned igen. Hvor i måde du har fri adgang til den på den betalte løsning.
Og det gør også, at på den betalede løsning har du mulighed for at upload filer til analyse, og du har også mulighed for at lade ChatGPT bruge incidentet til at lade research for dig. Hvis ikke du allerede betaler til ChatGPT, så vil jeg helt klart indbefale dig at gøre det. Der er virkelig mange fordele ved det. En anden ret spændende udvikling er integrationen af ChatGPT med Google Drive og Microsoft OneDrive. Den nye funktionen tillader betalende brugere at forbinde Conchi og så strømme lignet deres arbejdsflow.
Det er det, vi begynder at se mere og mere af. ChatGPT bliver en del af de services eller de software, vi allerede bruger i dag. Eksempelvis OneDrive eller Pages, Sheets, hvad det nu er. Så har du en integration, hvor du kan tilgå ChatGPT fra dit arbejdsflow. I stedet for at du skovrer et andet, end du har brugt det. Derudover har ChatGPT fået nogle nye evner til at se og høre, hvilket gør det mere interaktivt og alesidigt.
De her features er ikke blevet lanceret 100 % endnu, men jeg har kigget nogle af de videoer, som de viser, hvor de fortæller, at det er gangens, det vil sige, at den kører på realtid, og det virker helt absurd, når man sidder og ser det, at det faktisk er realtid. En af de videoer, jeg har set, hvor man får lov til at se det her med, at den kan bruge kameraet til at se omgivelser, det er egentlig en gutt, der sidder og har en chat -GBT kørende på én telefon og en anden på en anden telefon. Den ene…
Telefonen har chat -GBT åbent, så den kan se og snakke. Den anden kan kun høre og snakke. Så går det ud på, at de to chat -GBT ‘ere så skal snakke sammen. Så den, der ikke kan se noget, skal spørge ind til den, der kan se noget, hvor den forklarer, hvad der er i rummet og hvordan det ser ud. Det skal den, der så kun kan høre, gengive bagefter. Og afslutningsvis, så slutter de af med, at chat -GBT ‘erne arbejder sammen om at lave en sang.
Jonas (04:27.278)
Det virker lidt fjollet, men det ser helt vildt ud, og virker helt absurd, at det kan lade sig gøre. Det der sker, det er, at ham der promter dem, han siger, at JetGBT ‘erne skal synge en linje hver, og det begynder de så på at begynde at rime med hinanden. Det skal ses. Jeg lægger et link til den video også i show notes. En anden video, der viser nogle ret fede features, synes jeg selv, hvis man har børn, så giver det rigtig god mening, det der kommer nu.
Det er, at chat .gbt også kan få lov til at læse skærmen, så den kan se, hvad det foregår på din skærm. I det eksempel, de har med, der viser de en far, der sidder med sin dreng, der skal til at lære ham noget om at lave nogle matematikopgaver sammen med ham. Der lader chat .gbt være med og fortæller, at chat .gbt gerne må være en del af løsningen af den her matematikopgave, men den må aldrig give facit, så den skal bare guide drengen til at løse opgaven selv for at lære det.
Og det er også helt vildt, hvordan den virkelig gør et godt stykke arbejde ved ikke at fortælle facit, men går igennem, hvad de forskellige ting betyder, og virkelig forklarer det slavisk. Som jeg tror ofte, inklusive mig selv, har svært ved, når det kommer til mermatik. Det er ikke lige min stærkeste side. Så den kommer helt sikkert til at blive brugt herhjemme. Det er 100 procent. Det, der er lidt sjovt at se på nettet, der florerer rundt lige nu, det er chat -gbt .stemme. Hvis man lytter til de her forskellige eksempler, så er den ekstrem flødende, når den snakker med.
Hvis jeg åbner den og begynder at snakke med den, når den skal vise, jeg viser den rundt i huset eller hvor det var, så er den ekstrem flødende i månet, den snakker på. Det åbner op for hele den her debat omkring AI, kærester og alle de her ting. Så det er lidt sjovt, at chat .gbt .com åbner AI, vælger allerede at introducere den. Det er nu, det virker lidt ligegyldigt, at den skulle være flødende, når man står og snakker med den, og bare bruger for de facts, den nu kan give af en. Men det gode ved det så, det er, når de så viser,
opgaven med drengene, farne der sidder og laver med en tige, så skifter den fra det her flødene til et mere direkte måde at snakke på. Og det synes jeg, det var positivt at se.
Jonas (06:45.998)
Den næste store nyhed, jeg vil gå ind og kigge på her, det er den nye lancering WWDC 2024 af Apple, som har været ude med introduktionen til deres nye iOS, MacOS og VisionOS. Hvor de for første gang nogensinde faktisk nævner ordet AI. De vælger så at lave det i deres egen version og kalde det for Apple Intelligence, i stedet for Artificial Intelligence.
Det er jo Apple, når det er bedst. Det, der er værd at notere her, det er, at man får mulighed for at bruge Siri på en ny måde. Man behøver sikkert sige hi Siri for at få den i gang. Den kan lave en masse AI -modifikationer til billeder, og der kommer en masse forskellige løsninger, som gør det nemmere at bruge din telefon. Hvordan, ja…
Jonas (07:42.83)
Hvor du måske slipper for at sidde og lede efter noget, du er i gang med, så kan du spørge den her direkte, og så søger den hele dit katalogtæk igennem. Det, de slår sig på, det er privacy first, så de mener, at deres løsning selvfølgelig er bedre end ellers, fordi den bliver gennemt lokalt. Det bliver spændende at se, om det også holder, når først det hele det ruller ud.
Jonas (08:29.582)
Så det næste store vi kommer til at se for Apple, det bliver deres Apple Intelligence. Og det spændende her, det er faktisk, at Apple er ude at fortælle afslutningsvis i deres præsentation, nævner de et samarbejde med OpenAI, altså at de integrerer chat -GPT direkte ind i din Apple iPhone, iPad eller Mac, hvilket er ret nyt for Apple at gøre på den måde. Men igen, jeg tror, det er det, vi kommer til at se. De her store LLM ‘er.
som kører lige nu, det kan være tæt kapitettik og også være klart. Vi får dem at se på nye måder ved at de bliver integreret direkte i vores enheder i de software vi bruger, så vi ikke skal ud af det vindue vi allerede sidder i. Det er ekstremt spændende. Og de her meddelser, de afspejler Apples engagemang i at integrere, er i problemfrit i alle deres produkter, men de oprettholder også et stærkt fokus på brugernes privatliv og selve ydelsen på enheden.
Og privatleder er ret spændt på at følge med i, hvordan det kommer til at hænge sammen, når først det hele ruller ud. Det var alt for dagens episode. Tak fordi du lyttede med til podcasten her.
Jonas (09:52.142)
Det var alt for dagens episode. Tusind tak fordi du gad have lyt med. Det var alt det nyeste der er kommet inden fra AR, ARR, TET, GPT. Glem nu ikke lige at abonner og efterlade en besked.
Jonas (10:09.518)
Det var alt for dagens episode. Tusind tak fordi du gad have lyt med.
Jonas (10:18.03)
Det var alt for dagens episode. Tusind tak fordi du gad have lyt med til de nyheder jeg mener relevante inden for AI og chat -GBT. Glem ikke at abonnere og efterlade en lille anmeldelse.
Jonas (10:35.086)
Mit navn er Jonas, og vi ses i næste uge med flere spændende opdateringer. Pas på jer selv.