Apple iPhone 16 Visual Intelligence och Google Partnership for Enhanced AI Integration

Apple iPhone 16 Visual Intelligence och Google Partnership for Enhanced AI Integration
11 september 2024

Apples samarbete med Google går framåt med introduktionen av sin nya visuella sökfunktion, "Visual Intelligence", som presenterades vid företagets "It's Glowtime )” händelse. Alphabet betalar för närvarande cirka 20 miljarder dollar varje år för att fungera som standardsökmotor i Safari. Utöver detta partnerskap har iPhone 16 användare nu har tillgång till Googles sökmotor och visuella sökmöjligheter via kamerakontrollknappen inbyggd i enheten.

Dessutom integreras OpenAI:s ChatGPT med Siri, som visats genom en funktion som gör att användare kan rikta sin telefons kamera mot föreläsningsanteckningar och få förklaringar med ett enda klick.

Apple kastade spotlight på funktionaliteten hos kamerakontrollknappen och framhävde dess mångsidighet för att snabbt ta foton och videor tillsammans med hur användare enkelt kan justera zoom- och exponeringsinställningar genom att svepa över knappen. Förutom sina kamerarelaterade funktioner fungerar knappen som en inkörsport till Apples innovativa visuella sökfunktion, som är inbyggd i samarbetet med Google.

Till en början verkade kamerakontrollknappen vara en förbättrad avtryckarknapp, men Apple har förtydligat att den erbjuder funktioner utöver fotografering. Genom funktionen Visual Intelligence kan användare inte bara identifiera objekt som fångas av kameran utan kan också sömlöst komma åt tredjepartstjänster utan att behöva starta enskilda appar.

Apples Visual Intelligence, jämförbar med Google Lens eller Pinterest Lens, gör det möjligt för användare att snabbt vinna information om föremål de möter. I sin demo visade Apple funktionens förmåga att hämta detaljer om en restaurang eller identifiera rasen på en hund som stött på under en promenad. Dessutom kan funktionen förvandla en affisch för en händelse till en kalenderpost.

Craig Federighi, Apples senior vice president för mjukvaruteknik, avslöjade under evenemanget att Google Sök också kan nås via kamerakontrollknappen. Han klargjorde att genom att trycka på knappen kan konsumenter omedelbart göra en Google-sökning efter produkter som cyklar som de kan vara intresserade av att köpa. En demonstration visade att en användare tryckte på knappen för att se liknande cyklar till salu, med möjlighet att utforska fler resultat direkt från Google.

Apple angav dock inte när kamerakontrollknappen skulle föredra tredjepartstjänster framför Apples inbyggda funktioner, som Apple Maps, som användes i en restaurangsökningsdemo. Dessutom avslöjade företaget inte hur användare kan anpassa den här funktionen. Även om hans svar saknade specificitet, försäkrade Federighi användarna att de alltid skulle ha valfriheten att bestämma när de skulle använda verktyg från tredje part.

Den här funktionen kommer vid en tidpunkt då den konventionella App Store-upplevelsen börjar kännas lite föråldrad, och erbjuder ett nytt alternativ att interagera med programvara och tjänster utanför Apples inbyggda appar. Med AI-assistenter kan användare nu ställa frågor, utföra uppgifter och uttrycka sin kreativitet utan att förlita sig på fristående appar.

Apple presenterar sig själv som en plattform som länkar konsumenter till tredjepartstjänster, såsom AI och sökleverantörer, snarare än att skapa sin egen ersättare för ChatGPT. Apple kan tillhandahålla dessa funktioner utan att förlita sig på köp i appen för att tjäna pengar genom att bilda partnerskap med företag som OpenAI. Den undviker också att ta ansvar för fel som skapats av tredjepartstjänster som ChatGPT eller Google Sök.

Bildkrediter: Apple

Code Labs Academy © 2024 Alla rättigheter förbehållna.