Apples nye VR-headset: WWDC 2023-avsløring!

Apples blandede virkelighetsheadset debuterer på WWDC 2023

Ifølge en fersk rapport fra Bloomberg, planlegger Apple å presentere sitt lenge omtalte headset for blandet virkelighet på den kommende Worldwide Developers Conference (WWDC), som tradisjonelt finner sted i juni 2023.

Lanseringsdatoen har blitt utsatt flere ganger på grunn av tekniske utfordringer. Opprinnelig var lanseringen planlagt til våren, men nå blir det altså annonsert på WWDC før det legges ut for salg mot slutten av 2023.

Headsettet, som spekuleres i å få navnet «Reality Pro», antas å være en kraftig enhet som ligner på skibriller og kan vise 3D-innhold. Det skal ha avansert håndsporing, mulighet for å gjengi FaceTime-samtaler på en realistisk måte, en digital krone som lar brukeren veksle mellom virtuell virkelighet og den virkelige verden, og mer.

Det forventes at Apple vil selge headsettet for rundt 3000 dollar, noe som vil gjøre det til det dyreste bærbare produktet selskapet har produsert til nå.

Som kjent kan lanseringsdatoer for slike banebrytende produkter endres, men Apple håper denne gangen å gjøre produktet tilgjengelig innen utgangen av 2023. Hvis alt går etter planen, vil Apple MR-headsettet trolig få sin internasjonale lansering på WWDC, og produktet kan være tilgjengelig i butikkene sent i 2023.

Apples headset for blandet virkelighet vil muligens ikke oppnå samme popularitet som andre Apple-produkter umiddelbart etter lansering. Likevel, ifølge flere eksperter, har headsettet potensial til å vokse og bli en viktig inntektskilde for Apple i fremtiden.

Selskaper som Microsoft, Alphabet og andre investerer milliarder av dollar i utvikling og implementering av AI-teknologi for å sikre markedsandeler i forskjellige bransjer.

For å konkurrere med ChatGPT fra OpenAI (som Microsoft har investert betydelige summer i), har Alphabets morselskap Google lansert en AI-tjeneste drevet av LaMDA, kjent som Bard AI.

Google har nylig annonsert en rekke AI-integrasjoner for å la maskinlæring i deres Workspace-produkter generere tekst og grafikk. Det er også annonsert flere fremtidige AI-funksjoner for Googles Workspace-apper, inkludert Google Docs, Gmail, Sheets og Slides.

Disse funksjonene inkluderer:

  • Nye verktøy i Google Dokumenter der AI kan brukes til idéutvikling, oppsummering og innholdsproduksjon.
  • Gmail kan generere komplette e-poster basert på korte punkter fra brukeren.
  • Google Slides kan generere AI-bilder, lyd og video for å forbedre presentasjoner.

Selskapet har demonstrert hvordan skyklienter kan bruke AI til å sende e-post til kolleger, lage presentasjoner og salgsopplæringsdokumenter, samt ta notater under møter. Utviklere har nå mulighet til å lage applikasjoner som benytter Googles teknologi, takket være selskapets lansering av noen av de underliggende AI-modellene.

ChatGPT ble lansert i fjor, og Microsoft lanserte sin Bing chatbot-aktiverte søkemotor i februar 2023. Google har vist en klar vilje til å ta igjen konkurrentene i det nye AI-kappløpet ved å introdusere en rekke AI-oppdateringer til sine produkter.

En gruppe «troverdige testere» i USA vil få tilgang til flere av de nye AI-funksjonene som selskapet har lansert denne måneden. Google hevder at disse og andre funksjoner vil bli tilgjengelige for allmennheten senere i år, men den eksakte datoen er ikke annonsert.

OpenAI kunngjør GPT-4 som kan håndtere tekst- og bildeinndata

OpenAI har publisert den nyeste versjonen av GPT-4 i sin forskningsblogg. Ifølge rapporten er GPT-4 et avansert multimodalt system som kan motta både bilde- og tekstinndata, men kun genererer tekstutdata.

Etter flere måneder med rykter og spekulasjoner, har OpenAI endelig avduket GPT-4, en betydelig forbedring i evnen til å løse problemer.

Open AI hevder at GPT-4 er «mer nyskapende og samarbeidsvillig enn noen gang før» og «mer nøyaktig når det gjelder å håndtere vanskelige situasjoner.» Den kan forstå både tekst- og bildeinndata, men genererer kun tekstbaserte svar.

GPT-4 har gjennomgått seks måneders sikkerhetstrening, ifølge OpenAI, som også uttalte at i interne tester var det «82% mindre sannsynlighet for å svare på forespørsler om begrenset innhold» og «40% mer sannsynlig å gi faktabaserte svar enn GPT-3.5.»

I en uformell samtale hevdet OpenAI at det er en «subtil» forskjell mellom GPT-4 og forgjengeren GPT-3.5 (modellen som driver ChatGPT). Sam Altman, administrerende direktør i OpenAI, uttalte at GPT-4 «fortsatt er ufullkommen, fortsatt begrenset» og la til at den «virker mer bemerkelsesverdig ved første gangs bruk enn etter at du har brukt mer tid med den.»

Systemene har fortsatt flere av de samme utfordringene, inkludert å være mindre effektive enn mennesker i mange virkelige situasjoner og prestere på menneskelig nivå i ulike profesjonelle og akademiske vurderinger, advarer OpenAI.

Publikum kan få tilgang til den oppdaterte GPT-4 via ChatGPT Plus, OpenAIs medlemskap for ChatGPT som koster 20 dollar per måned, og som også driver Microsofts Bing chatbot. Den vil også være tilgjengelig som et API for utviklere som ønsker å bygge videre på teknologien.