**我試用了iPhone 16的視覺智能,終於明白為何Apple加入相機控制功能**
自從Apple在九月推出iPhone 16以來,我一直期待試用其視覺智能功能。畢竟,我的iPhone上多了一個新按鈕(相機控制),但我還未用來拍照。
使用iPhone 16 Pro Max一個月後,我對相機控制功能仍未完全掌握。我經常用iPhone拍照,但每當我嘗試使用這個專用按鈕時,總覺得繁瑣和困惑,最終還是回到我習慣的觸控屏和鎖屏快捷方式。
隨著iOS 18.2開發者測試版的推出,我必須強調:這是開發者測試版。請不要在主要設備上嘗試,因為這仍在開發中,尚未對公眾開放。我在這篇文章中討論的內容僅限於功能本身,而非其性能。如果你想親自體驗視覺智能,我建議等到今年稍後iOS 18.2的正式發布。
回到視覺智能,iOS 18.2現已安裝在我的iPhone 16 Pro Max上,到目前為止,我對視覺智能的潛力非常期待。
**什麼是視覺智能?**
視覺智能是iPhone 16系列獨有的Apple智能功能,能充分利用相機控制。你可以長按相機控制來啟動,然後拍下你所看到的東西。從那裡,你可以詢問ChatGPT獲取資訊、搜尋Google,或在照片中突出顯示任何文字。可以將視覺智能視為Apple版的Google Lens,並配有一個硬件按鈕以便快速存取。
**視覺智能的初步印象**
你可以從任何地方啟動視覺智能,即使是在鎖屏上,這使得在需要快速搜尋時非常方便。我第一次測試是在桌上拍下我的Game Boy Camera。正如上文所述,視覺智能提供了幾個選項,所以我首先用Google搜尋這個產品。然後,我詢問了ChatGPT,並且它能夠告訴我Game Boy Camera的歷史。接著,我問了一個後續問題:「Game Boy Camera何時在歐洲推出?」ChatGPT也給出了正確答案。
雖然這功能還在開發中,但視覺智能在像Game Boy Camera這樣的可辨識產品上運作良好。我不確定我會多常用它來搜尋物品,但考慮到只需簡單長按,它可能會成為我搜尋網絡的首選方式。
視覺智能的另一個好用途是當你外出時,想要查看商店、咖啡館、酒吧或餐廳的資訊。我用它測試了一家本地咖啡店,雖然效果不如Apple在演示中展示的那樣,但我認為這更多是由於我測試的早期測試版,而非功能本身。
在Apple的演示中,視覺智能可以辨別狗的品種。我試著用我的法國鬥牛犬測試,雖然我可以透過Google搜尋相似的狗,但它無法給我直接的答案。
**總結**
這大致總結了目前的視覺智能。它有巨大的潛力:我喜歡它賦予相機控制真正的目的,當它運作時,效果非常好。但這仍處於非常早期的開發階段,還有很多需要完善的地方。
然而,有一點是肯定的:我現在完全理解為何Apple在新iPhone中加入相機控制。這是一種Apple智能功能,我可以預見人們在需要快速答案時會轉向它,只要它運作順利,而且ChatGPT和Google的整合使其多功能化。
我熱愛測試新的iOS功能,每年我的iPhone大多時間都處於測試版狀態,而iOS 18.2開發者測試版感覺是最令人興奮的一次。即使只用了幾個小時,還未能使用Genmoji或Image Playground(我在等待名單上),我仍然可以自信地說,iOS 18.2感覺像是我們期待已久的iOS 18和Apple智能。
我只看到了視覺智能的冰山一角,對於今年晚些時候的最終產品,我感到非常興奮。這是最好的iPhone獨有的功能,這可能成為購買iPhone 16的理由——誰能想到會是相機控制?
**編輯評論**
Apple的視覺智能功能顯然具有很大的潛力,尤其是在結合了ChatGPT和Google的技術後。然而,這也揭示了科技界的一個更廣泛的趨勢,即如何讓人工智能與日常生活的需求更加貼合。這些功能的開發和完善不僅需要技術上的突破,更需要考慮用戶的實際使用習慣和需求。Apple的設計向來以用戶為中心,這一功能的推出顯示出他們正努力在人工智能領域保持領先地位。未來,這種視覺智能技術可能會改變我們使用手機的方式,甚至影響我們獲取資訊的習慣。然而,這一功能的成功與否將取決於其在真實環境中的實用性和準確性。希望Apple能夠持續改進,為用戶帶來更便捷的體驗。
以上文章由特價GPT API KEY所翻譯