Inteligencja wizualna Apple iPhone 16 i partnerstwo Google na rzecz lepszej integracji sztucznej inteligencji

Inteligencja wizualna Apple iPhone 16 i partnerstwo Google na rzecz lepszej integracji sztucznej inteligencji
11 września 2024 r

Współpraca Apple z Google postępuje naprzód dzięki wprowadzeniu nowej funkcji wyszukiwania wizualnego „Visual Intelligence”, która została zaprezentowana podczas firmowego wydarzenia „It's Glowtime" wydarzenie. Alphabet płaci obecnie około 20 miliardów dolarów rocznie za domyślną wyszukiwarkę w przeglądarce Safari. Oprócz tej współpracy użytkownicy iPhone’a 16 uzyskaj dostęp do wyszukiwarki Google i możliwości wyszukiwania wizualnego poprzez przycisk sterowania kamerą wbudowany w urządzenie.

Dodatkowo ChatGPT OpenAI integruje się z Siri, jak pokazano dzięki funkcji umożliwiającej skierowanie aparatu telefonu na notatki z wykładów i uzyskanie wyjaśnień jednym kliknięciem.

Firma Apple rzuciła światło na funkcjonalność przycisku Camera Control, podkreślając jego wszechstronność w zakresie szybkiego robienia zdjęć i filmów, a także możliwość wygodnej regulacji ustawień powiększenia i ekspozycji poprzez przesuwanie po przycisku. Oprócz funkcji związanych z aparatem przycisk służy jako brama do innowacyjnej funkcji wyszukiwania wizualnego firmy Apple, która jest wbudowana w ramach współpracy z Google.

Początkowo przycisk sterowania aparatem wydawał się ulepszonym przyciskiem migawki, ale Apple wyjaśnił, że oferuje funkcje wykraczające poza fotografię. Dzięki funkcji Visual Intelligence użytkownicy mogą nie tylko identyfikować obiekty uchwycone przez kamerę, ale także mogą bezproblemowo uzyskiwać dostęp do usług innych firm bez konieczności uruchamiania poszczególnych aplikacji.

Inteligencja wizualna firmy Apple, porównywalna z Google Lens lub Pinterest Lens, pozwala użytkownikom szybko zyskać informacje o napotkanych obiektach. W swojej wersji demonstracyjnej Apple pokazało, że funkcja może odzyskać szczegółowe informacje o restauracji lub zidentyfikować rasę psa napotkanego podczas spaceru. Dodatkowo ta funkcja może zamienić plakat wydarzenia we wpis w kalendarzu.

Craig Federighi, starszy wiceprezes ds. inżynierii oprogramowania firmy Apple, ujawnił podczas wydarzenia, że ​​dostęp do wyszukiwarki Google można uzyskać także za pomocą przycisku sterowania kamerą. Wyjaśnił, że naciskając przycisk, konsumenci mogą natychmiast wyszukać w Google produkty takie jak rowery, którymi mogą być zainteresowani zakupem. Demonstracja pokazała, że ​​użytkownik naciskał przycisk, aby zobaczyć podobne rowery na sprzedaż, z możliwością przejrzenia większej liczby wyników bezpośrednio z Google.

Firma Apple nie określiła jednak, kiedy przycisk sterowania kamerą będzie preferował usługi innych firm zamiast wbudowanych funkcji Apple, takich jak Apple Maps, które wykorzystano w demonstracji wyszukiwania restauracji. Ponadto firma nie ujawniła, w jaki sposób użytkownicy mogą dostosować tę funkcję. Chociaż jego odpowiedź była mało konkretna, Federighi zapewnił użytkowników, że zawsze będą mieli swobodę decydowania, kiedy skorzystać z narzędzi innych firm.

Ta funkcja pojawia się w momencie, gdy konwencjonalny App Store zaczyna wydawać się nieco przestarzały, oferując nową opcję interakcji z oprogramowaniem i usługami poza wbudowanymi aplikacjami Apple. Dzięki asystentom AI użytkownicy mogą teraz zadawać pytania, wykonywać zadania i wyrażać swoją kreatywność bez polegania na samodzielnych aplikacjach.

Apple prezentuje się jako platforma łącząca konsumentów z usługami stron trzecich, takimi jak dostawcy sztucznej inteligencji i wyszukiwarki, zamiast tworzyć własny zamiennik ChatGPT. Apple może zapewnić te możliwości bez polegania na zakupach w aplikacji w celu zarabiania pieniędzy, nawiązując współpracę z firmami takimi jak OpenAI. Unika także brania odpowiedzialności za błędy spowodowane przez usługi stron trzecich, takie jak ChatGPT lub wyszukiwarka Google.

Autorzy zdjęć: Apple

Code Labs Academy © 2024 Wszelkie prawa zastrzeżone.