iOS 18.2 推出「視覺智能」,挑戰 Google Lens!

Ai

iOS 18.2 推出 Apple 的 Google Lens 對手:Visual Intelligence

Apple 最近在 iOS 18.2 開發者測試版中引入了新功能 Visual Intelligence,這是針對 iPhone 16 機型的用戶。用戶只需按住相機控制按鈕,即可利用這項功能。這次更新讓用戶能夠選擇使用 Google 或 ChatGPT 來識別和分析周圍的物品或地標。

這項功能實際上是 Apple 對 Google Lens 的回應。當用戶按住相機控制按鈕後,相關的用戶介面便會彈出,讓用戶掃描周圍環境。按下快門按鈕後,用戶可以選擇讓 ChatGPT 分析畫面內容,或依賴 Google 的反向圖片搜尋來找到網上相似的照片,進一步了解主題。

例如,ChatGPT 可以識別牆上的梵高畫作或桌上的 Sony DualSense 控制器。即使畫面中沒有特別有趣的主題,它也能描述特定的場景設置。

Google 的原生整合則能在低光環境下識別我拍攝的第比利斯電視塔,並提供該地區相關網站和地點的鏈接。這是一種快速熟悉周圍地點和物品的便捷方式,尤其是在匆忙中。

根據我的觀察,我認為沒有任何技術上的挑戰阻止 Apple 將 Visual Intelligence 引入 iPhone 15 Pro 型號。這項功能主要依賴於 Google 和 ChatGPT 的服務器,而不是設備本身的智能。與其他可離線運作的 Apple 智能功能不同,我發現 Visual Intelligence 無法在沒有互聯網連接的情況下運行。雖然早期的 iPhone 型號不提供相機控制按鈕,但公司可以輕易地將其實施為動作按鈕快捷方式或專用應用程式。

評論與分析

Apple 推出的 Visual Intelligence 功能,顯示出其在增強用戶環境互動方面的努力。這不僅是對 Google Lens 的回應,更是對用戶體驗的提升。透過整合 ChatGPT 及 Google 的技術,Apple 提供了一個強大的工具,讓用戶能更深入地探索和了解他們的環境。

然而,這也引發了一些思考——Apple 的這項功能依賴於互聯網連接,這在某程度上限制了其在無網絡環境中的應用。相比之下,是否可以考慮進一步開發離線功能,以提供更全面的用戶體驗?

另外,這項技術的使用是否會影響用戶的隱私?當用戶掃描周圍環境時,數據會如何被處理和保護?這些都是 Apple 在推廣此功能時需要考慮的問題。

總的來說,Visual Intelligence 是 Apple 在人工智能領域的一次有趣嘗試,未來其應用範圍和技術發展值得關注。

以上文章由特價GPT API KEY所翻譯

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *