Inteligência visual do Apple iPhone 16 e parceria do Google para integração aprimorada de IA

Inteligência visual do Apple iPhone 16 e parceria do Google para integração aprimorada de IA
11 de setembro de 2024

A colaboração da Apple com o Google está avançando com a introdução de seu novo recurso de pesquisa visual, “Visual Intelligence”, que foi revelado no “It's Glowtime da empresa )” evento. Atualmente, a Alphabet paga cerca de US$ 20 bilhões por ano para servir como mecanismo de busca padrão no Safari. Além desta parceria, os usuários do iPhone 16 agora tenha acesso ao mecanismo de pesquisa do Google e aos recursos de pesquisa visual por meio do botão de controle da câmera integrado ao dispositivo.

Além disso, o ChatGPT da OpenAI está se integrando ao Siri, conforme demonstrado por um recurso que permite aos usuários apontar a câmera do telefone para notas de aula e obter explicações com um único clique.

A Apple destacou a funcionalidade do botão de controle da câmera, destacando sua versatilidade para capturar fotos e vídeos rapidamente, além de como os usuários podem ajustar convenientemente as configurações de zoom e exposição deslizando o botão. Além das funções relacionadas à câmera, o botão serve como porta de entrada para o inovador recurso de busca visual da Apple, que faz parte de sua parceria com o Google.

Inicialmente, o botão de controle da câmera parecia ser um botão do obturador aprimorado, mas a Apple esclareceu que oferece funções além da fotografia. Através do recurso Visual Intelligence, os usuários podem não apenas identificar objetos capturados pela câmera, mas também acessar serviços de terceiros sem a necessidade de iniciar aplicativos individuais.

A Inteligência Visual da Apple, comparável ao Google Lens ou Pinterest Lens, permite que os usuários ganhem rapidamente informações sobre os objetos que encontram. Em sua demonstração, a Apple mostrou a capacidade do recurso de recuperar detalhes sobre um restaurante ou identificar a raça de um cachorro encontrado durante um passeio. Além disso, o recurso pode transformar um pôster de um evento em uma entrada de calendário.

Craig Federighi, vice-presidente sênior de engenharia de software da Apple, revelou durante o evento que a Pesquisa Google também pode ser acessada através do botão Camera Control. Ele esclareceu que, ao pressionar o botão, os consumidores podem realizar instantaneamente uma pesquisa no Google por produtos como bicicletas que possam ter interesse em comprar. Uma demonstração mostrou um usuário tocando no botão para ver bicicletas semelhantes à venda, com a opção de explorar mais resultados diretamente do Google.

No entanto, a Apple não especificou quando o botão de controle da câmera preferiria serviços de terceiros aos recursos integrados da Apple, como o Apple Maps, que foi usado em uma demonstração de pesquisa de restaurante. Além disso, a empresa não revelou como os usuários podem personalizar esse recurso. Embora sua resposta carecesse de especificidade, Federighi garantiu aos usuários que eles sempre teriam o poder de decidir quando empregar ferramentas de terceiros.

Esse recurso chega em um momento em que a experiência convencional da App Store está começando a parecer um pouco desatualizada, oferecendo uma nova opção de interagir com software e serviços fora dos aplicativos integrados da Apple. Com assistentes de IA, os usuários agora podem fazer perguntas, concluir tarefas e expressar sua criatividade sem depender de aplicativos independentes.

A Apple apresenta-se como uma plataforma que liga os consumidores a serviços de terceiros, como IA e fornecedores de pesquisa, em vez de criar o seu próprio substituto para o ChatGPT. A Apple pode fornecer esses recursos sem depender de compras no aplicativo para ganhar dinheiro, formando parcerias com empresas como a OpenAI. Também evita assumir a responsabilidade por erros produzidos por serviços de terceiros, como ChatGPT ou Pesquisa Google.

Créditos da imagem: Apple

Code Labs Academy © 2024 Todos os direitos reservados.