Apple iPhone 16 Visual Intelligence і партнерство Google для розширеної інтеграції штучного інтелекту

Apple iPhone 16 Visual Intelligence і партнерство Google для розширеної інтеграції штучного інтелекту
11 вересня 2024 року

Співпраця Apple з Google продовжується завдяки впровадженню нової функції візуального пошуку Visual Intelligence, яку було представлено на конференції компанії It's Glowtime. )». Наразі Alphabet платить близько 20 мільярдів доларів щороку, щоб служити пошуковою системою за замовчуванням у Safari. Окрім цього партнерства, зараз користувачі iPhone 16 мати доступ до пошукової системи Google і можливостей візуального пошуку за допомогою кнопки керування камерою, вбудованої в пристрій.

Крім того, ChatGPT OpenAI інтегрується з Siri, як було продемонстровано за допомогою функції, яка дозволяє користувачам наводити камеру свого телефону на конспекти лекцій і отримувати пояснення одним клацанням миші.

Apple звернула увагу на функціональність кнопки Camera Control, підкресливши її універсальність для швидкої зйомки фотографій і відео, а також те, як користувачі можуть зручно регулювати параметри масштабування та експозиції, проводячи по кнопці. На додаток до функцій, пов’язаних із камерою, кнопка служить шлюзом до інноваційної функції візуального пошуку Apple, яка є частиною партнерства Apple з Google.

Спочатку кнопка керування камерою виглядала як удосконалена кнопка затвора, але Apple пояснила, що вона пропонує функції, окрім фотографії. Завдяки функції Visual Intelligence користувачі можуть не тільки ідентифікувати об’єкти, зняті камерою, але також можуть безперешкодно отримувати доступ до сторонніх служб без необхідності запускати окремі програми.

Візуальний інтелект Apple, який можна порівняти з Google Lens або Pinterest Lens, дозволяє користувачам швидко отримати інформацію про предмети, з якими вони стикаються. У своїй демонстрації Apple показала здатність цієї функції отримувати деталі про ресторан або ідентифікувати породу собаки, яку зустріли під час прогулянки. Крім того, ця функція може перетворити плакат події на запис у календарі.

Крейг Федерігі, старший віце-президент Apple з розробки програмного забезпечення, розповів під час заходу, що доступ до Пошуку Google також можна отримати за допомогою кнопки керування камерою. Він уточнив, що натиснувши кнопку, споживачі можуть миттєво виконати пошук у Google таких продуктів, як велосипеди, які вони можуть зацікавити. Демонстрація показала, як користувач натиснув кнопку, щоб побачити подібні велосипеди для продажу, з можливістю ознайомитися з іншими результатами безпосередньо в Google.

Однак Apple не уточнила, коли кнопка керування камерою віддаватиме перевагу службам сторонніх розробників над вбудованими функціями Apple, такими як Apple Maps, які використовувалися в демонстрації пошуку ресторанів. Крім того, компанія не розкрила, як користувачі можуть налаштувати цю функцію. Хоча у його відповіді бракувало конкретності, Федерігі запевнив користувачів, що вони завжди матимуть право вирішувати, коли використовувати інструменти сторонніх розробників.

Ця функція з’явилася в той час, коли звичайний App Store починає здаватися трохи застарілим, пропонуючи нову можливість взаємодії з програмним забезпеченням і службами за межами вбудованих програм Apple. Завдяки помічникам зі штучним інтелектом користувачі тепер можуть задавати запитання, виконувати завдання та проявляти свою творчість, не покладаючись на окремі програми.

Apple представляє себе як платформу, яка зв’язує споживачів зі сторонніми сервісами, такими як ШІ та пошукові провайдери, а не створює власну заміну ChatGPT. Apple може надати ці можливості, не покладаючись на покупки в програмі, щоб заробити гроші, утворивши партнерські відносини з такими компаніями, як OpenAI. Це також уникає відповідальності за помилки, створені сторонніми службами, такими як ChatGPT або Google Search.

Авторство зображення: Apple

Code Labs Academy © 2024 Всі права захищені.