Apples hodeplagg for blandet virkelighet vil debutere på WWDC 2023
Apple skal angivelig avsløre det lenge ryktede mixed reality-hodeplagget på årets Worldwide Developers Conference (WWDC), som tradisjonelt ble holdt i juni 2023, ifølge den siste rapporten fra Bloomberg.
Avdukingsdatoen har blitt forsinket flere ganger på grunn av teknologiske vanskeligheter. Den skulle i utgangspunktet lanseres til våren, men den vil nå bli annonsert på WWDC før den kommer i salg i slutten av 2023.
Det antas at selskapets headset, ryktet å bli kalt «Reality Pro», vil være en veldig potent enhet som ligner skibriller og kan kringkaste 3D-innhold. Den har mange funksjoner, som avansert håndsporing, muligheten til å gjengi FaceTime-oppringere realistisk, en digital krone som lar deg forlate virtuell virkelighet og mer.
I følge den siste tilgjengelige informasjonen har Apple som mål å selge hodeplagget for omtrent 3000 dollar, noe som gjør det til det dyreste bærebare elementet laget av selskapet til dags dato.
Som vi alle vet kan utgivelsesdatoen for slike banebrytende produkter endres, men denne gangen håper Apple å gjøre produktet tilgjengelig innen utgangen av 2023. Hvis alt går som planlagt, vil Apple MR-hodeplagg mest sannsynlig gjøre sin internasjonale lansering på WWDC, og gadgeten kan komme i butikkene sent i 2023.
Apples mixed reality-headset blir kanskje ikke populært som de andre Apple-produktene så snart det debuterte. Likevel, ifølge en rekke tekniske meninger, har Apples mixed reality-headset potensial til å vokse og kan bli en mer betydelig inntektsgenerator for Apple i nær fremtid.
Microsoft, Alphabet og andre selskaper bruker milliarder av dollar på å utvikle og implementere AI-teknologi for å vinne markedsandeler på tvers av ulike bransjer.
For å konkurrere med ChatGPT fra OpenAI (Microsoft investerte milliarder av dollar i dette firmaet), lanserte morselskapet til Google, Alphabet, en AI-tjeneste drevet av LaMDA, Bard AI.
Google annonserte nylig flere AI-integrasjoner for å gjøre det mulig for sine Workspace-produkters maskinlæring å generere tekst og grafikk. Flere fremtidige generative AI-funksjoner for Googles Workspace-apper, som inkluderer Google Docs, Gmail, Sheets og Slides, har blitt annonsert.
Funksjonene inkluderer:
- Nye måter for Google Documents» AI til å brainstorme, oppsummere og generere innhold.
- Kapasiteten for Gmail til å lage hele e-poster fra brukernes raske punktpunkter.
- Muligheten for Google Slides til å lage AI-bilder, lyd og video for å illustrere presentasjoner.
Selskapet demonstrerte hvordan skyklienter kunne bruke AI til å sende e-post til kolleger, produsere presentasjoner og salgsopplæringsdokumenter og ta notater under møter. Utviklere kan nå lage applikasjoner som bruker Googles teknologi på grunn av selskapets utgivelse av noen av de underliggende AI-modellene.
ChatGPT debuterte i fjor, og Microsoft lanserte sin Bing chatbot-aktiverte søkemotor i februar 2023. Helt siden har Google vist vilje til å overhale konkurrenter i det nye AI-løpet ved å kunngjøre en serie AI-oppdateringer til produktene deres.
Et sett med USA-baserte «pålitelige testere» vil ha tilgang til flere nye AI-funksjoner som selskapet har introdusert denne måneden. Google hevder at disse og andre funksjoner vil bli gjort tilgjengelige for publikum senere på året, men kunngjorde ikke den eksakte datoen.
OpenAI kunngjør GPT-4 som er i stand til å akseptere tekst- eller bildeinndata
OpenAI ga ut den siste GPT-4-versjonen i sin forskningsblogg. I følge rapporten er GPT-4 et betydelig multimodalt system som kan akseptere bilde- og tekstinndata mens det bare produserer tekstutdata.
Etter måneder med hvisking og spekulasjoner, har OpenAI endelig avslørt GPT-4, en revolusjonerende forbedring i problemløsningsevne.
Open AI hevder at GPT-4 er «mer innovativ og samarbeidsvillig enn noen gang før» og er «mer nøyaktig når det gjelder å takle vanskelige situasjoner.» Selv om den kan forstå både tekst- og bildeinndata, produseres bare tekstsvar.
GPT-4 hadde gjennomgått seks måneders sikkerhetsopplæring, ifølge OpenAI, som også uttalte at i interne tester var det «82 % mindre sannsynlighet for å svare på forespørsler om begrenset innhold» og «40 % mer sannsynlig å tilby faktasvar enn GPT -3,5.»
I en uoffisiell samtale hevdet OpenAI at det er en «subtil» forskjell mellom GPT-4 og forgjengeren GPT-3.5 (GPT-3.5 er modellen som driver ChatGPT). Sam Altman, administrerende direktør i OpenAI, uttalte at GPT-4 «fortsatt er ufullkommen, fortsatt begrenset,» og la til at det «virker mer bemerkelsesverdig ved første gangs bruk enn det gjør etter at du har brukt mer tid med det.»
Systemene har fortsatt mange av de samme problemene, inkludert å være mindre effektive enn mennesker i mange omstendigheter i den virkelige verden og prestere på menneskelig nivå på ulike profesjonelle og akademiske kriterier, advarer OpenAI.
Publikum kan få tilgang til den oppdaterte GPT-4 via ChatGPT Plus, OpenAIs ChatGPT-medlemskap på $20 per måned, som driver Microsofts Bing chatbot. Det vil være tilgjengelig som et API som programmerere kan bruke til å bygge videre på.