Apple iPhone 16 Visual Intelligence と Google のパートナーシップによる AI 統合の強化

Apple iPhone 16 Visual Intelligence と Google のパートナーシップによる AI 統合の強化
2024 年 9 月 11 日

Apple と Google のコラボレーションは、同社の「It's Glowtime」で発表された、新しいビジュアル検索機能「Visual Intelligence」の導入を進めています。 )" イベント。 Alphabetは現在、Safariのデフォルトの検索エンジンとして機能させるために毎年約200億ドルを支払っている。このパートナーシップに加えて、iPhone 16 ユーザーは現在デバイスに組み込まれたカメラ制御ボタンを介して、Google の検索エンジンとビジュアル検索機能にアクセスできます。

さらに、実証されているように、OpenAI の ChatGPT は Siri と統合されています。ユーザーが携帯電話のカメラを講義ノートに向けると、ワンクリックで説明が得られる機能です。

Apple は、カメラ コントロール ボタンの機能にスポットライトを当て、写真やビデオを素早く撮影できる多機能性と、ユーザーがボタンをスワイプすることでズームや露出の設定を簡単に調整できることを強調しました。このボタンは、カメラ関連の機能に加えて、Google との提携に組み込まれた Apple の革新的なビジュアル検索機能へのゲートウェイとしても機能します。

当初、カメラコントロールボタンはシャッターボタンを強化したものであるように見えましたが、Appleはこれが写真撮影以外の機能を提供することを明らかにしました。 Visual Intelligence 機能により、ユーザーはカメラで捉えたオブジェクトを識別できるだけでなく、個別のアプリを起動することなくサードパーティのサービスにシームレスにアクセスできます。

Google レンズPinterest レンズ に匹敵する Apple のビジュアル インテリジェンスにより、ユーザーは迅速に情報を得ることができます。彼らが遭遇したオブジェクトに関する情報。 Appleはデモで、レストランに関する詳細を取得したり、散歩中に出会った犬の品種を特定したりする機能の機能を示した。さらに、この機能を使用すると、イベントのポスターをカレンダーのエントリに変えることができます。

Apple のソフトウェア エンジニアリング担当上級副社長、クレイグ フェデリギ氏はイベント中に、カメラ コントロール ボタンからも Google 検索にアクセスできることを明らかにしました。同氏は、消費者がボタンを押すことで、購入したいと考えている自転車などの製品を即座に Google 検索できることを明らかにした。デモンストレーションでは、ユーザーがボタンをタップして同様の自転車が販売されているのを確認し、オプションで Google から直接さらに多くの結果を調べることができる様子を示しました。

ただし、Apple は、カメラ コントロール ボタンが、レストラン検索のデモで使用された Apple マップなどの Apple の組み込み機能よりもサードパーティのサービスを優先する場合については明らかにしませんでした。さらに同社は、ユーザーがこの機能をカスタマイズする方法については明らかにしなかった。フェデリギ氏の返答は具体性に欠けていたが、いつサードパーティツールを使用するかを決定する裁量権は常にユーザーにあるとフェデリギ氏はユーザーに保証した。

この機能は、従来の App Store エクスペリエンスが少し時代遅れに感じられ始めているときに提供され、Apple の組み込みアプリ以外のソフトウェアやサービスと対話するための新しいオプションを提供します。 AI アシスタントを使用すると、ユーザーはスタンドアロン アプリに依存せずに、質問したり、タスクを完了したり、創造性を表現したりできるようになります。

Apple は、ChatGPT に代わる独自の製品を作成するのではなく、消費者を AI や検索プロバイダーなどのサードパーティ サービスに結び付けるプラットフォームとして自らを提示しています。 Apple は、OpenAI のような企業と提携することで、アプリ内購入に依存せずにこれらの機能を提供して収益を得ることができます。また、ChatGPT や Google 検索などのサードパーティ サービスによって生成されたエラーに対する責任を負うことも避けられます。

画像クレジット: Apple

Code Labs Academy © 2024 無断転載を禁じます.