Visual Intelligence ของ Apple iPhone 16 และความร่วมมือของ Google เพื่อการบูรณาการ AI ที่ได้รับการปรับปรุง

Visual Intelligence ของ Apple iPhone 16 และความร่วมมือของ Google เพื่อการบูรณาการ AI ที่ได้รับการปรับปรุง
11 กันยายน 2024

ความร่วมมือของ Apple กับ Google กำลังก้าวไปข้างหน้าด้วยการเปิดตัวฟีเจอร์การค้นหาด้วยภาพใหม่ "Visual Intelligence" ซึ่งเปิดตัวในงาน "It's Glowtime" เหตุการณ์. ปัจจุบันตัวอักษรจ่ายเงินประมาณ 2 หมื่นล้านดอลลาร์ต่อปีเพื่อใช้เป็นเครื่องมือค้นหาเริ่มต้นใน Safari นอกเหนือจากความร่วมมือครั้งนี้ ผู้ใช้ iPhone 16 ในขณะนี้ สามารถเข้าถึงเครื่องมือค้นหาของ Google และความสามารถในการค้นหาด้วยภาพผ่านปุ่มควบคุมกล้องที่ติดตั้งอยู่ในอุปกรณ์

นอกจากนี้ ChatGPT ของ OpenAI ยังผสานรวมกับ Siri ตามที่แสดงให้เห็น โดยฟีเจอร์ที่ให้ผู้ใช้สามารถเล็งกล้องโทรศัพท์ไปที่บันทึกการบรรยายและรับคำอธิบายได้ในคลิกเดียว

Apple ให้ความสำคัญกับฟังก์ชันการทำงานของปุ่มควบคุมกล้อง โดยเน้นความอเนกประสงค์ในการถ่ายภาพและวิดีโออย่างรวดเร็ว พร้อมทั้งวิธีที่ผู้ใช้สามารถปรับการตั้งค่าการซูมและการรับแสงได้อย่างสะดวกด้วยการปัดผ่านปุ่ม นอกเหนือจากฟังก์ชันที่เกี่ยวข้องกับกล้องแล้ว ปุ่มนี้ยังทำหน้าที่เป็นประตูสู่คุณสมบัติการค้นหาด้วยภาพที่เป็นนวัตกรรมใหม่ของ Apple ซึ่งสร้างขึ้นจากความร่วมมือกับ Google

ในตอนแรกปุ่มควบคุมกล้องดูเหมือนจะเป็นปุ่มชัตเตอร์ที่ได้รับการปรับปรุง แต่ Apple ได้ชี้แจงว่ามันมีฟังก์ชั่นที่นอกเหนือจากการถ่ายภาพ ด้วยฟีเจอร์ Visual Intelligence ผู้ใช้ไม่เพียงแต่สามารถระบุวัตถุที่กล้องถ่ายไว้เท่านั้น แต่ยังสามารถเข้าถึงบริการของบุคคลที่สามได้อย่างราบรื่นโดยไม่จำเป็นต้องเปิดแอปแต่ละตัว

Visual Intelligence ของ Apple ซึ่งเทียบได้กับ Google Lens หรือ Pinterest Lens ช่วยให้ผู้ใช้รับข้อมูลได้อย่างรวดเร็ว ข้อมูลเกี่ยวกับวัตถุที่พวกเขาพบ ในการสาธิต Apple ได้แสดงความสามารถของฟีเจอร์นี้ในการดึงรายละเอียดเกี่ยวกับร้านอาหารหรือระบุสายพันธุ์ของสุนัขที่พบระหว่างการเดิน นอกจากนี้ คุณสมบัตินี้ยังสามารถเปลี่ยนโปสเตอร์ของกิจกรรมให้เป็นรายการปฏิทินได้อีกด้วย

Craig Federighi รองประธานอาวุโสฝ่ายวิศวกรรมซอฟต์แวร์ของ Apple เปิดเผยในระหว่างงานว่า Google Search สามารถเข้าถึงได้ผ่านปุ่มควบคุมกล้องด้วย เขาชี้แจงว่าการกดปุ่มจะทำให้ผู้บริโภคสามารถค้นหาผลิตภัณฑ์ต่างๆ เช่น จักรยานที่พวกเขาอาจสนใจซื้อใน Google ได้ทันที การสาธิตแสดงให้ผู้ใช้แตะปุ่มเพื่อดูจักรยานยนต์ที่คล้ายกันที่จำหน่าย พร้อมตัวเลือกในการสำรวจผลลัพธ์เพิ่มเติมจาก Google ได้โดยตรง

อย่างไรก็ตาม Apple ไม่ได้ระบุว่าเมื่อใดที่ปุ่มควบคุมกล้องต้องการบริการของบุคคลที่สามมากกว่าคุณสมบัติในตัวของ Apple เช่น Apple Maps ซึ่งใช้ในการสาธิตการค้นหาร้านอาหาร นอกจากนี้บริษัทไม่ได้เปิดเผยว่าผู้ใช้สามารถปรับแต่งฟีเจอร์นี้ได้อย่างไร แม้ว่าคำตอบของเขาจะขาดความเฉพาะเจาะจง แต่ Federighi ก็รับรองกับผู้ใช้ว่าพวกเขาจะมีดุลยพินิจในการตัดสินใจเสมอว่าจะใช้เครื่องมือของบุคคลที่สามเมื่อใด

คุณสมบัตินี้เกิดขึ้นในช่วงเวลาที่ประสบการณ์ App Store แบบเดิมๆ เริ่มล้าสมัย โดยเสนอทางเลือกใหม่ในการโต้ตอบกับซอฟต์แวร์และบริการภายนอกแอพที่มาพร้อมเครื่องของ Apple ด้วยผู้ช่วย AI ผู้ใช้สามารถถามคำถาม ทำงานให้เสร็จ และแสดงความคิดสร้างสรรค์ได้โดยไม่ต้องพึ่งแอปแบบสแตนด์อโลน

Apple กำลังนำเสนอตัวเองเป็นแพลตฟอร์มที่เชื่อมโยงผู้บริโภคกับบริการของบุคคลที่สาม เช่น AI และผู้ให้บริการการค้นหา แทนที่จะสร้าง ChatGPT ขึ้นมาทดแทนเอง Apple สามารถมอบความสามารถเหล่านี้โดยไม่ต้องพึ่งการซื้อในแอพเพื่อสร้างรายได้โดยการสร้างความร่วมมือกับบริษัทอย่าง OpenAI นอกจากนี้ยังหลีกเลี่ยงการรับผิดชอบต่อข้อผิดพลาดที่เกิดจากบริการของบุคคลที่สาม เช่น ChatGPT หรือ Google Search

เครดิตรูปภาพ: Apple

Code Labs Academy © 2024 สงวนลิขสิทธิ์.