Apple iPhone 16 Visual Intelligence og Google Partnership for Enhanced AI Integration

Apple iPhone 16 Visual Intelligence og Google Partnership for Enhanced AI Integration
11. september 2024

Apples samarbeid med Google går fremover med introduksjonen av den nye visuelle søkefunksjonen, «Visual Intelligence», som ble avduket på selskapets «It's Glowtime )»-arrangement. Alphabet betaler for tiden rundt 20 milliarder dollar hvert år for å fungere som standard søkemotor i Safari. I tillegg til dette partnerskapet har iPhone 16 brukere nå har tilgang til Googles søkemotor og visuelle søkefunksjoner gjennom kamerakontrollknappen innebygd i enheten.

I tillegg integreres OpenAIs ChatGPT med Siri, som vist av en funksjon som lar brukere peke telefonens kamera mot forelesningsnotater og få forklaringer med et enkelt klikk.

Apple satte søkelyset på funksjonaliteten til kamerakontrollknappen, og fremhevet dens allsidighet for raskt å ta bilder og videoer sammen med hvordan brukere enkelt kan justere zoom- og eksponeringsinnstillinger ved å sveipe over knappen. I tillegg til de kamerarelaterte funksjonene, fungerer knappen som en inngangsport til Apples innovative visuelle søkefunksjon, som er innebygd i samarbeidet med Google.

I utgangspunktet så kamerakontrollknappen ut til å være en forbedret utløserknapp, men Apple har presisert at den tilbyr funksjoner utover fotografering. Gjennom Visual Intelligence-funksjonen kan brukere ikke bare identifisere objekter fanget av kameraet, men kan også sømløst få tilgang til tredjepartstjenester uten å måtte starte individuelle apper.

Apples Visual Intelligence, som kan sammenlignes med Google Lens eller Pinterest Lens, lar brukere raskt få informasjon om gjenstander de møter. I sin demo viste Apple funksjonens evne til å hente detaljer om en restaurant eller identifisere rasen til en hund som ble møtt under en tur. I tillegg kan funksjonen gjøre en plakat for en begivenhet om til en kalenderoppføring.

Craig Federighi, Apples senior visepresident for programvareteknikk, avslørte under arrangementet at Google Søk også kan nås via kamerakontrollknappen. Han presiserte at ved å trykke på knappen, kan forbrukere umiddelbart utføre et Google-søk etter produkter som sykler de kan være interessert i å kjøpe. En demonstrasjon viste at en bruker trykket på knappen for å se lignende sykler for salg, med muligheten til å utforske flere resultater direkte fra Google.

Apple spesifiserte imidlertid ikke når kamerakontrollknappen foretrekker tredjepartstjenester fremfor Apples innebygde funksjoner, for eksempel Apple Maps, som ble brukt i en restaurantsøkdemo. I tillegg avslørte ikke selskapet hvordan brukere kan tilpasse denne funksjonen. Selv om svaret hans manglet spesifikt, forsikret Federighi brukerne om at de alltid ville ha skjønnet til å bestemme når de skulle bruke tredjepartsverktøy.

Denne funksjonen kommer på et tidspunkt da den konvensjonelle App Store-opplevelsen begynner å føles litt utdatert, og tilbyr et nytt alternativ for å samhandle med programvare og tjenester utenfor Apples innebygde apper. Med AI-assistenter kan brukere nå stille spørsmål, fullføre oppgaver og uttrykke kreativiteten sin uten å stole på frittstående apper.

Apple presenterer seg selv som en plattform som knytter forbrukere til tredjepartstjenester, som AI og søkeleverandører, i stedet for å lage sin egen erstatning for ChatGPT. Apple kan tilby disse mulighetene uten å stole på kjøp i appen for å tjene penger ved å danne partnerskap med selskaper som OpenAI. Den unngår også å ta ansvar for feil produsert av tredjepartstjenester som ChatGPT eller Google Søk.

Bildekreditt: Apple

Code Labs Academy © 2024 Alle rettigheter forbeholdes.