„Apple iPhone 16 Visual Intelligence“ ir „Google“ partnerystė, skirta patobulintai AI integracijai

„Apple iPhone 16 Visual Intelligence“ ir „Google“ partnerystė, skirta patobulintai AI integracijai
2024 m. rugsėjo 11 d

„Apple“ bendradarbiavimas su „Google“ juda į priekį pristatant naują vaizdinės paieškos funkciją „Visual Intelligence“, kuri buvo pristatyta bendrovės „[It's Glowtime]“ (https://developer.apple.com/news/?id=zvdnvggt) )“ renginys. Šiuo metu „Alphabet“ kasmet sumoka apie 20 mlrd. USD, kad veiktų kaip numatytasis „Safari“ paieškos variklis. Be šios partnerystės, iPhone 16 naudotojai dabar turėti prieigą prie „Google“ paieškos variklio ir vaizdinės paieškos galimybių per įrenginyje įmontuotą kameros valdymo mygtuką.

Be to, OpenAI ChatGPT integruojamas su Siri, kaip parodyta funkcija, leidžianti vartotojams nukreipti telefono kamerą į paskaitų užrašus ir vienu spustelėjimu gauti paaiškinimus.

„Apple“ atkreipė dėmesį į kameros valdymo mygtuko funkcionalumą, pabrėždama jo universalumą, leidžiantį greitai užfiksuoti nuotraukas ir vaizdo įrašus, bei tai, kaip vartotojai gali patogiai reguliuoti priartinimo ir ekspozicijos nustatymus braukdami per mygtuką. Be su fotoaparatu susijusių funkcijų, mygtukas yra vartai į naujovišką „Apple“ vaizdinės paieškos funkciją, kuri yra integruota į jos partnerystę su „Google“.

Iš pradžių fotoaparato valdymo mygtukas atrodė kaip patobulintas užrakto mygtukas, tačiau „Apple“ paaiškino, kad jis siūlo ne tik fotografavimo funkcijas. Naudodamiesi „Visual Intelligence“ funkcija, vartotojai gali ne tik atpažinti fotoaparato užfiksuotus objektus, bet ir sklandžiai pasiekti trečiųjų šalių paslaugas, nepaleidžiant atskirų programų.

„Apple“ vizualinis intelektas, panašus į Google Lens arba Pinterest Lens, leidžia vartotojams greitai gauti informacija apie objektus, su kuriais jie susiduria. Savo demonstracijoje „Apple“ parodė šios funkcijos galimybę gauti informaciją apie restoraną arba nustatyti pasivaikščiojimo metu sutikto šuns veislę. Be to, ši funkcija gali paversti įvykio plakatą kalendoriaus įrašu.

Craigas Federighi, „Apple“ programinės įrangos inžinerijos vyresnysis viceprezidentas, renginio metu atskleidė, kad „Google“ paiešką taip pat galima pasiekti per kameros valdymo mygtuką. Jis patikslino, kad paspaudę mygtuką, vartotojai gali akimirksniu atlikti „Google“ paiešką, ieškant produktų, pavyzdžiui, dviračių, kuriuos jie gali būti suinteresuoti įsigyti. Demonstracijoje buvo parodyta, kaip vartotojas spustelėjo mygtuką, kad pamatytų parduodamus panašius dviračius su galimybe tyrinėti daugiau rezultatų tiesiogiai iš „Google“.

Tačiau „Apple“ nenurodė, kada fotoaparato valdymo mygtukas teikia pirmenybę trečiųjų šalių paslaugoms, o ne „Apple“ integruotoms funkcijoms, pvz., „Apple Maps“, kuri buvo naudojama restorano paieškos demonstracijoje. Be to, bendrovė neatskleidė, kaip vartotojai gali pritaikyti šią funkciją. Nors jo atsakymui trūko konkretumo, Federighi patikino vartotojus, kad jie visada galės savo nuožiūra nuspręsti, kada naudoti trečiųjų šalių įrankius.

Ši funkcija atsiranda tuo metu, kai įprastinė „App Store“ patirtis pradeda jaustis šiek tiek pasenusi, siūlanti naują parinktį sąveikauti su programine įranga ir paslaugomis už „Apple“ integruotų programų ribų. Naudodamiesi dirbtinio intelekto asistentais, vartotojai dabar gali užduoti klausimus, atlikti užduotis ir išreikšti savo kūrybiškumą nepasikliaunančiomis atskiromis programėlėmis.

„Apple“ pristato save kaip platformą, kuri susieja vartotojus su trečiųjų šalių paslaugomis, pvz., AI ir paieškos teikėjais, o ne kuria savo „ChatGPT“ pakaitalą. „Apple“ gali suteikti šias galimybes nepasitikėdamas pirkiniais programoje, kad užsidirbtų pinigų, užmegzdama partnerystes su tokiomis įmonėmis kaip „OpenAI“. Taip pat išvengiama atsakomybės už klaidas, kurias sukelia trečiųjų šalių paslaugos, pvz., „ChatGPT“ ar „Google“ paieška.

Vaizdo kreditai: Apple

Code Labs Academy © 2024 Visos teisės saugomos.