Apple iPhone 16 vizuālais intelekts un Google partnerība uzlabotai AI integrācijai

Apple iPhone 16 vizuālais intelekts un Google partnerība uzlabotai AI integrācijai
2024. gada 11. septembris

Apple sadarbība ar Google virzās uz priekšu, ieviešot savu jauno vizuālās meklēšanas funkciju “Visual Intelligence”, kas tika prezentēta uzņēmuma “[It's Glowtime]” (https://developer.apple.com/news/?id=zvdnvggt )” pasākums. Pašlaik Alfabēts katru gadu maksā aptuveni 20 miljardus USD, lai kalpotu kā noklusējuma meklētājprogramma Safari. Papildus šai partnerībai tagad iPhone 16 lietotāji piekļūt Google meklētājprogrammai un vizuālās meklēšanas iespējām, izmantojot ierīcē iebūvēto kameras vadības pogu.

Turklāt OpenAI ChatGPT tiek integrēts ar Siri, kā parādīts. ar funkciju, kas ļauj lietotājiem pavērst tālruņa kameru uz lekciju piezīmēm un saņemt paskaidrojumus ar vienu klikšķi.

Apple akcentē kameras vadības pogas funkcionalitāti, izceļot tās daudzpusību, lai ātri uzņemtu fotoattēlus un videoklipus, kā arī to, kā lietotāji var ērti pielāgot tālummaiņas un ekspozīcijas iestatījumus, velkot pāri pogai. Papildus ar kameru saistītajām funkcijām šī poga kalpo kā vārti uz Apple novatorisko vizuālās meklēšanas funkciju, kas ir iebūvēta partnerībā ar Google.

Sākotnēji šķita, ka kameras vadības poga ir uzlabota slēdža poga, taču Apple ir precizējis, ka tā piedāvā funkcijas, kas nav saistītas ar fotografēšanu. Izmantojot vizuālās inteliģences funkciju, lietotāji var ne tikai identificēt kameras uzņemtos objektus, bet arī nemanāmi piekļūt trešo pušu pakalpojumiem, nepalaižot atsevišķas lietotnes.

Apple vizuālais intelekts, kas ir salīdzināms ar Google Lens vai Pinterest Lens, ļauj lietotājiem ātri iegūt informāciju par objektiem, ar kuriem viņi saskaras. Savā demonstrācijā Apple parādīja šīs funkcijas spēju izgūt informāciju par restorānu vai noteikt pastaigu laikā sastaptā suņa šķirni. Turklāt šī funkcija var pārvērst pasākuma plakātu par kalendāra ierakstu.

Kreigs Federigijs, Apple programmatūras inženierijas vecākais viceprezidents, pasākuma laikā atklāja, ka Google meklēšanai var piekļūt arī, izmantojot kameras vadības pogu. Viņš paskaidroja, ka, nospiežot pogu, patērētāji var uzreiz veikt Google meklēšanu pēc produktiem, piemēram, velosipēdiem, kurus viņi varētu interesēt. Demonstrācija parādīja, ka lietotājs pieskaras pogai, lai redzētu līdzīgus velosipēdus pārdošanai ar iespēju izpētīt citus rezultātus tieši no Google.

Tomēr Apple nenorādīja, kad kameras vadības poga dod priekšroku trešo pušu pakalpojumiem, nevis Apple iebūvētajām funkcijām, piemēram, Apple Maps, kas tika izmantota restorānu meklēšanas demonstrācijā. Turklāt uzņēmums neatklāja, kā lietotāji var pielāgot šo funkciju. Lai gan viņa atbildē trūka specifiskuma, Federighi lietotājiem apliecināja, ka viņiem vienmēr būs iespēja izlemt, kad izmantot trešās puses rīkus.

Šī funkcija ir pieejama laikā, kad parastā App Store pieredze sāk šķist nedaudz novecojusi, piedāvājot jaunu iespēju mijiedarboties ar programmatūru un pakalpojumiem ārpus Apple iebūvētajām lietotnēm. Izmantojot AI palīgus, lietotāji tagad var uzdot jautājumus, veikt uzdevumus un izpaust savu radošumu, nepaļaujoties uz atsevišķām lietotnēm.

Apple sevi piesaka kā platformu, kas saista patērētājus ar trešo pušu pakalpojumiem, piemēram, AI un meklēšanas pakalpojumu sniedzējiem, nevis izveido savu ChatGPT aizstājēju. Apple var nodrošināt šīs iespējas, nepaļaujoties uz pirkumiem lietotnēs, lai pelnītu naudu, veidojot partnerattiecības ar tādiem uzņēmumiem kā OpenAI. Tas arī ļauj izvairīties no atbildības par kļūdām, ko radījuši trešo pušu pakalpojumi, piemēram, ChatGPT vai Google meklēšana.

Attēlu autors: Apple

Code Labs Academy © 2024 Visas tiesības paturētas.