試用Apple新「即時翻譯」功能:現實遠不如廣告所說的無縫體驗
今個星期早上,我喺布魯克林日落公園區停低食早餐。呢個地方主要係西班牙裔社區,街頭小販用橙色Gatorade飲料保冷箱賣tamales(墨西哥蒸玉米餅包餡)同米布丁。我識少少西班牙文,但想試吓Apple新推出嘅「即時翻譯」(Live Translation)功能,佢廣告話係一個戴喺耳仔嘅即時口譯器。於是我戴上AirPods,開咗翻譯App,行近小販。
當我開口講嘢,AirPods突然喺我耳仔入面大聲播出提示:「環境噪音太大,請將iPhone靠近音源以繼續翻譯。」小販已經開始用西班牙文同英文混合解釋佢賣咩,但AirPods嘈吵嘅提示聲蓋過咗佢大部分講嘅嘢。我用英文問咗tamale入面有咩餡,跟住先發現要按螢幕上嘅「播放」鍵,先會由裝置用西班牙文讀出我嘅問題。小販微笑(或者係皺眉),跟住答咗我。過咗幾秒,佢嘅西班牙文被翻譯成英文傳入我耳仔:「Green sauce(綠醬)、slices with cheese(芝士片)、slices with chicken(雞肉片)、Molly、juaquillo。」
最後兩個詞根本無翻譯成功,甚至唔係正確詞語。我估「juaquillo」係指「guajillo」,一種辣椒。「Slices」可能係誤譯自西班牙文「rajas」,字面意思係「切片」,但有地區性意思,特別係墨西哥菜中嘅「rajas con crema」,即係烤過嘅墨西哥青椒條配忌廉(呢度係芝士或雞肉)。小販講咗其他嘢,但因為佢講嘢同翻譯時間重疊,部分話語完全聽唔清。我以為「Molly」係「mole」(墨西哥醬汁)嘅誤譯,但唔想冒險朝早食咗MDMA,最後揀咗綠醬(salsa verde)。
另一日,我見到一間花店賣緊繽紛花束,想問佢啲花係咩種類。店主笑咗,因為我AirPods完全聽唔到我講嘅英文,所以冇法翻譯,我只好用手指指花。店主話:「cempasúchil,o flor de muerto。」我AirPods又話環境噪音太大,於是我將電話靠近佢面,英文問佢可唔可以再講一次。Apple翻譯咗佢嘅話,但冇提供「cempasúchil」嘅英文意思,只係拗口拼成「sampasúchil」。我唔識呢個詞,但花好靚,就買咗。返屋企我Google,發現正確拼法係「cempasúchil」,即萬壽菊。
Apple對我試用Live Translation嘅經驗冇回應。佢哋話呢功能仍處於測試階段,雖然已經對歐盟以外用戶開放,但提醒用戶「翻譯結果可能唔準確、意外或冒犯。重要資訊要自行核實。」不過,Apple宣傳時形容呢功能係「革命性、免提嘅功能」,幫助用戶「理解另一種語言,與他人溝通」。宣傳片中,一個講英文嘅女子同講西班牙文嘅花店老闆買花,過程完全順暢,與我現實中嘅經歷天壤之別。
可能Apple宣傳片入面嘅場景安靜如圖書館,角色嘅聲音亦完美無瑕(我自己聲音偏低沉又細聲)。我喺一間隔音房試用YouTube影片時,翻譯表現不錯。但我好快發現,環境噪音唔係唯一問題:Live Translation明確指出佢只支援西班牙語中「西班牙本土」嘅口音(約4,900萬人口),而唔係墨西哥或拉丁美洲及加勒比地區(約6.63億人口)嘅西班牙語。雖然我嘅技術問題唔全因詞彙唔同,但AirPods誤譯嘅詞語多係墨西哥西班牙語特有嘅,例如「rajas」、「guajillo」、「mole」同「cempasúchil」。
呢點就引出另一個問題:Apple係美國加州嘅公司,點解要優化一種相對較少用嘅西班牙語口音,而唔係美國周邊最普遍嘅版本?可能係因為iPhone喺西班牙較受歡迎,但當地用戶因歐盟《數碼市場法》限制,暫時未能用到Live Translation。歐洲以外嘅詞彙同短語對翻譯軟件嚟講唔係罕見嘅挑戰,但其他頂尖翻譯工具如Google Translate同DeepL,都能成功將「rajas con crema」翻譯成英文「strips of peppers with cream」或「chili peppers with cream」。奇怪嘅係,Apple支援葡萄牙語翻譯,但係巴西葡萄牙語——全球人口第七多嘅國家。
無論點解,呢件事反映出AI翻譯面對嘅更大問題。Apple宣傳片另一幕係兩個人用AirPods互譯英語同葡萄牙語,似乎實現咗《銀河便車指南》小說中「巴別魚」嘅科幻承諾——將魚放入耳朵就能聽懂任何語言。但語言唔止係字典同語法,佢包含歷史同文化。手勢、俗語、面部表情、本地飲食等都係語言不可分割嘅部分,有時用文字或算法去捕捉詞語,反而消滅咗佢嘅原意。
即使考慮到呢啲限制,Live Translation本可以係AI軟件同硬件嘅精彩融合,一個科幻夢想。但實際上,AirPods同iPhone嘅咪高峰明顯未達標,環境噪音嘅警告頻頻響起(我試過係街上交通聲、風聲、麵包店雪櫃嘈音、雜貨店冷氣聲都觸發過),淹沒咗自然聽到嘅語句或手勢。叫人讀你螢幕上嘅文字,或者要中斷眼神接觸去按「播放」鍵,令溝通時間變三倍,令大家都不自在。更遑論多人同時講嘢。其實AI軟件多年來已經能夠準確翻譯基本西班牙語至英文或德文至法文(AirPods現時支持嘅另外兩種語言),Apple並無真正突破算法。
用AirPods翻譯西班牙語時,我顯得笨拙又不自在,有時甚至好失禮。巴別魚係無形又即時嘅,唔係科幻,而係幻想。你嘅喉嚨、舌頭、耳朵,當然還有語言本身,都屬於現實世界——不可預測、有缺陷,但正因如此先美妙。Live Translation嘗試用算法同藍牙耳機去抹平呢啲複雜,結果唔係打開人類溝通之門,反而令溝通變得扁平乏味。
編者評論
Apple嘅Live Translation功能,無疑係科技界一個雄心勃勃嘅嘗試,想用AI實現跨語言無縫溝通。但呢次嘗試揭示咗現實同理想之間嘅巨大鴻溝。語言唔只係文字同語法,更係文化、習俗、地區特色嘅結晶。Apple選擇優先支持西班牙本土口音,忽略咗美國及拉丁美洲嘅主流西班牙語,反映出商業策略與用戶需求未能完全貼合。
此外,硬件嘅限制同環境噪音管理不足,令用戶體驗大打折扣。AI翻譯若要真係成為跨文化溝通嘅橋樑,必須更深入理解語言背後嘅文化底蘊,並且硬件設計要更適應現實生活嘅複雜環境。否則,呢啲「即時翻譯」功能只會淪為噱頭,甚至令溝通變得更尷尬。
未來,AI翻譯系統應該強調多元文化語境嘅包容性,同時提升硬件性能及用戶交互設計,減少用戶負擔。真正嘅語言理解,不應該係機械式嘅詞語替換,而係活生生嘅文化交流。Apple若能跨越呢啲挑戰,Live Translation或許可以成為改變世界嘅工具,否則就只係另一個未完成嘅夢想。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。