Apple iPhone 16 Visual Intelligence og Google Partnership for Enhanced AI Integration

Apple iPhone 16 Visual Intelligence og Google Partnership for Enhanced AI Integration
11. september 2024

Apples samarbejde med Google bevæger sig fremad med introduktionen af ​​dets nye visuelle søgefunktion, "Visual Intelligence", som blev afsløret på virksomhedens "It's Glowtime )” begivenhed. Alphabet betaler i øjeblikket omkring 20 milliarder dollars hvert år for at fungere som standardsøgemaskine i Safari. Ud over dette partnerskab har iPhone 16 brugere nu har adgang til Googles søgemaskine og visuelle søgefunktioner via kameraets kontrolknap, der er indbygget i enheden.

Derudover integrerer OpenAI's ChatGPT med Siri, som vist ved en funktion, der giver brugerne mulighed for at pege deres telefons kamera mod forelæsningsnotater og få forklaringer med et enkelt klik.

Apple satte fokus på funktionaliteten af ​​kamerakontrolknappen og fremhævede dens alsidighed til hurtigt at tage billeder og videoer sammen med, hvordan brugere nemt kan justere zoom- og eksponeringsindstillinger ved at stryge hen over knappen. Ud over dets kamera-relaterede funktioner fungerer knappen som en gateway til Apples innovative visuelle søgefunktion, som er indbygget i dets partnerskab med Google.

Oprindeligt så kameraets kontrolknap ud til at være en forbedret udløserknap, men Apple har præciseret, at den tilbyder funktioner ud over fotografering. Gennem Visual Intelligence-funktionen kan brugere ikke kun identificere objekter, der er fanget af kameraet, men kan også problemfrit få adgang til tredjepartstjenester uden at skulle starte individuelle apps.

Apples visuelle intelligens, der kan sammenlignes med Google Lens eller Pinterest Lens, giver brugerne mulighed for hurtigt at få information om genstande, de støder på. I sin demo viste Apple funktionens evne til at hente detaljer om en restaurant eller identificere racen af ​​en hund, man stødte på under en gåtur. Derudover kan funktionen forvandle en plakat for en begivenhed til en kalenderpost.

Craig Federighi, Apples senior vicepræsident for softwareteknik, afslørede under begivenheden, at Google Søgning også kan tilgås via knappen Kamerakontrol. Han præciserede, at ved at trykke på knappen, kan forbrugere øjeblikkeligt udføre en Google-søgning efter produkter som cykler, de kunne være interesserede i at købe. En demonstration viste, at en bruger trykkede på knappen for at se lignende cykler til salg, med mulighed for at udforske flere resultater direkte fra Google.

Apple specificerede dog ikke, hvornår kamerakontrolknappen ville foretrække tredjepartstjenester frem for Apples indbyggede funktioner, såsom Apple Maps, som blev brugt i en restaurantsøgningsdemo. Derudover afslørede virksomheden ikke, hvordan brugere kan tilpasse denne funktion. Selvom hans svar manglede specificitet, forsikrede Federighi brugerne om, at de altid ville have skønsbeføjelser til at beslutte, hvornår de skulle bruge tredjepartsværktøjer.

Denne funktion kommer på et tidspunkt, hvor den konventionelle App Store-oplevelse begynder at føles en smule dateret, og tilbyder en ny mulighed for at interagere med software og tjenester uden for Apples indbyggede apps. Med AI-assistenter kan brugere nu stille spørgsmål, udføre opgaver og udtrykke deres kreativitet uden at stole på selvstændige apps.

Apple præsenterer sig selv som en platform, der forbinder forbrugere til tredjepartstjenester, såsom AI og søgeudbydere, i stedet for at skabe sin egen erstatning for ChatGPT. Apple kan levere disse muligheder uden at være afhængige af køb i appen for at tjene penge ved at danne partnerskaber med virksomheder som OpenAI. Det undgår også at tage ansvar for fejl produceret af tredjepartstjenester som ChatGPT eller Google Søgning.

Billedkreditering: Apple

Code Labs Academy © 2024 Alle rettigheder forbeholdes.