Apple iPhone 16 Visual Intelligence in Googlovo partnerstvo za izboljšano integracijo umetne inteligence

Apple iPhone 16 Visual Intelligence in Googlovo partnerstvo za izboljšano integracijo umetne inteligence
11. september 2024

Appleovo sodelovanje z Googlom napreduje z uvedbo nove funkcije vizualnega iskanja, »Visual Intelligence«, ki je bila predstavljena na dogodku podjetja »It's Glowtime. )«. Alphabet trenutno plača okoli 20 milijard dolarjev vsako leto, da služi kot privzeti iskalnik v Safariju. Poleg tega partnerstva so zdaj uporabniki iPhone 16 imajo dostop do Googlovega iskalnika in zmožnosti vizualnega iskanja prek gumba za upravljanje kamere, vgrajenega v napravo.

Poleg tega se ChatGPT OpenAI integrira s Siri, kot je prikazano s funkcijo, ki uporabnikom omogoča, da kamero svojega telefona usmerijo v zapiske predavanj in z enim klikom dobijo razlage.

Apple je izpostavil funkcionalnost gumba Camera Control in izpostavil njegovo vsestranskost za hitro zajemanje fotografij in videoposnetkov, skupaj s tem, kako lahko uporabniki priročno prilagodijo nastavitve povečave in osvetlitve s potegom po gumbu. Poleg funkcij, povezanih s kamero, gumb služi kot prehod do Applove inovativne funkcije vizualnega iskanja, ki je vgrajena v partnerstvo z Googlom.

Sprva se je zdelo, da je gumb za upravljanje kamere izboljšan gumb za zaklop, vendar je Apple pojasnil, da ponuja funkcije, ki presegajo fotografije. S funkcijo Visual Intelligence lahko uporabniki ne le identificirajo predmete, ki jih je posnela kamera, ampak lahko tudi nemoteno dostopajo do storitev tretjih oseb, ne da bi morali zagnati posamezne aplikacije.

Applova vizualna inteligenca, primerljiva z Google Lens ali Pinterest Lens, uporabnikom omogoča hitro pridobitev informacije o predmetih, ki jih srečajo. V svoji predstavitvi je Apple pokazal zmožnost te funkcije, da pridobi podrobnosti o restavraciji ali identificira pasmo psa, ki ga srečate med sprehodom. Poleg tega lahko funkcija spremeni plakat za dogodek v koledarski vnos.

Craig Federighi, Appleov višji podpredsednik programskega inženiringa, je med dogodkom razkril, da je do Googlovega iskanja mogoče dostopati tudi prek gumba za upravljanje kamere. Pojasnil je, da lahko potrošniki s pritiskom na gumb takoj izvedejo iskanje v Googlu za izdelke, kot so kolesa, ki bi jih morda zanimali za nakup. Predstavitev je pokazala, da se uporabnik dotakne gumba, da si ogleda podobna kolesa za prodajo, z možnostjo raziskovanja več rezultatov neposredno iz Googla.

Vendar Apple ni navedel, kdaj bo gumb Camera Control raje uporabljal storitve tretjih oseb kot Applove vgrajene funkcije, kot so Apple Maps, ki je bil uporabljen v predstavitvi iskanja restavracij. Poleg tega podjetje ni razkrilo, kako lahko uporabniki prilagodijo to funkcijo. Čeprav njegov odgovor ni bil natančen, je Federighi uporabnikom zagotovil, da se bodo vedno lahko sami odločili, kdaj uporabiti orodja tretjih oseb.

Ta funkcija prihaja v času, ko se običajna izkušnja App Store začenja počutiti nekoliko zastarelo, saj ponuja novo možnost za interakcijo s programsko opremo in storitvami zunaj Applovih vgrajenih aplikacij. S pomočniki AI lahko uporabniki zdaj postavljajo vprašanja, opravljajo naloge in izražajo svojo ustvarjalnost, ne da bi se zanašali na samostojne aplikacije.

Apple se predstavlja kot platforma, ki povezuje potrošnike s storitvami tretjih oseb, kot so AI in ponudniki iskanja, namesto da ustvari lastno zamenjavo za ChatGPT. Apple lahko zagotovi te zmogljivosti, ne da bi se zanašal na nakupe v aplikaciji, da bi zaslužil denar z oblikovanjem partnerstev s podjetji, kot je OpenAI. Prav tako se izogiba prevzemanju odgovornosti za napake, ki jih povzročijo storitve tretjih oseb, kot sta ChatGPT ali Google Search.

Avtorstvo slike: Apple

Code Labs Academy © 2024 Vse pravice pridržane.