향상된 AI 통합을 위한 Apple iPhone 16 Visual Intelligence 및 Google 파트너십

향상된 AI 통합을 위한 Apple iPhone 16 Visual Intelligence 및 Google 파트너십
2024년 9월 11일

Apple과 Google의 협력은 Apple의 "It's Glowtime에서 공개된 새로운 시각적 검색 기능인 "Visual Intelligence"를 선보이며 진행되고 있습니다. )" 이벤트. Alphabet은 현재 Safari의 기본 검색 엔진 역할을 위해 매년 약 200억 달러를 지불하고 있습니다. 이번 파트너십 외에도 현재 iPhone 16 사용자는 장치에 내장된 카메라 제어 버튼을 통해 Google의 검색 엔진 및 시각적 검색 기능에 액세스할 수 있습니다.

또한 OpenAI의 ChatGPT는 설명된 대로 Siri와 통합됩니다. 스마트폰 카메라를 강의노트에 대고 클릭 한 번으로 설명을 들을 수 있는 기능이다.

Apple은 카메라 제어 버튼의 기능을 집중 조명하여 사용자가 버튼을 스와이프하여 확대/축소 및 노출 설정을 편리하게 조정할 수 있는 방법과 함께 사진과 비디오를 빠르게 캡처할 수 있는 다용성을 강조했습니다. 카메라 관련 기능 외에도 버튼은 Google과의 파트너십을 통해 구축된 Apple의 혁신적인 시각적 검색 기능에 대한 관문 역할을 합니다.

처음에는 카메라 제어 버튼이 향상된 셔터 버튼인 것처럼 보였지만, Apple은 이것이 사진 촬영 이상의 기능을 제공한다고 밝혔습니다. Visual Intelligence 기능을 통해 사용자는 카메라에 포착된 객체를 식별할 수 있을 뿐만 아니라 개별 앱을 실행하지 않고도 타사 서비스에 원활하게 액세스할 수 있습니다.

Google Lens 또는 Pinterest Lens와 비교되는 Apple의 Visual Intelligence를 통해 사용자는 그들이 만나는 물체에 대한 정보. 데모에서 Apple은 레스토랑에 대한 세부 정보를 검색하거나 산책 중에 만나는 개의 품종을 식별하는 기능을 보여주었습니다. 또한 이 기능은 이벤트 포스터를 캘린더 항목으로 바꿀 수 있습니다.

Apple의 소프트웨어 엔지니어링 담당 수석 부사장인 Craig Federighi는 행사에서 카메라 제어 버튼을 통해서도 Google 검색에 접근할 수 있다고 밝혔습니다. 그는 버튼을 누르면 소비자가 구매에 관심이 있을 만한 자전거와 같은 제품을 Google에서 즉시 검색할 수 있다는 점을 분명히 했습니다. 시연에서는 사용자가 버튼을 탭하여 판매 중인 유사한 자전거를 확인하고 Google에서 직접 더 많은 결과를 탐색할 수 있는 옵션을 보여주었습니다.

그러나 Apple은 레스토랑 검색 데모에 사용된 Apple Maps와 같은 Apple의 내장 기능보다 카메라 제어 버튼이 타사 서비스를 선호하는 시기를 명시하지 않았습니다. 또한 회사는 사용자가 이 기능을 사용자 정의할 수 있는 방법을 공개하지 않았습니다. 그의 답변에는 구체성이 부족했지만 Federighi는 사용자가 언제 제3자 도구를 사용할지 결정할 재량권이 있다고 확신했습니다.

이 기능은 기존 App Store 경험이 약간 구식으로 느껴지기 시작할 때 제공되며 Apple의 내장 앱 외부의 소프트웨어 및 서비스와 상호 작용할 수 있는 새로운 옵션을 제공합니다. AI 도우미를 통해 사용자는 이제 독립형 앱에 의존하지 않고도 질문하고, 작업을 완료하고, 창의성을 표현할 수 있습니다.

Apple은 ChatGPT를 자체적으로 대체하는 대신 소비자를 AI 및 검색 공급자와 같은 제3자 서비스에 연결하는 플랫폼으로 자신을 제시하고 있습니다. Apple은 OpenAI와 같은 회사와 파트너십을 맺어 돈을 벌기 위해 인앱 구매에 의존하지 않고도 이러한 기능을 제공할 수 있습니다. 또한 ChatGPT 또는 Google 검색과 같은 타사 서비스에서 발생한 오류에 대해 책임을 지지 않습니다.

이미지 출처: Apple

Code Labs Academy © 2024 판권 소유.