🎬 YouTube Premium 家庭 Plan成員一位 只需
HK$148/年!
不用提供密碼、不用VPN、無需轉區
直接升級你的香港帳號 ➜ 即享 YouTube + YouTube Music 無廣告播放
保險業界話:人工智能風險太大,難以承保
當大家爭相採用人工智能(AI)技術,會唔會出現一個狀況──呢啲軟件太危險,冇人敢幫佢保險?根據《金融時報》嘅報道,我哋可能好快就會知道答案。
美國多間大型保險公司,包括AIG、Great American同WR Berkley,依家正向監管部門申請,想喺企業保單中排除AI相關嘅責任。某位承保人向《金融時報》形容,AI模型嘅輸出「好似一個黑盒子」,好難理解同評估風險。
呢個行業驚慌有佢嘅理由。舉例,Google嘅AI系統曾誤指一間太陽能公司涉及法律問題,結果引發咗一宗高達1.1億美元嘅訴訟。加拿大航空去年被迫兌現其聊天機械人自行「發明」嘅折扣優惠。更驚人嘅係,去年有騙徒用數碼克隆技術,偽造一位高層主管嘅影像,喺視像通話中騙走英國設計工程公司Arup高達2500萬美元。
保險公司最擔心嘅唔係單一大額賠償,而係一旦某個廣泛使用嘅AI模型出錯,可能引發成千上萬嘅索償。Aon一位高層就話,佢哋可以承擔一間公司4億美元嘅損失,但若果係一個AI代理錯誤,導致一萬宗損失同時發生,保險業就無法應付。
—
評論與啟發
呢篇報導揭示咗AI技術喺商業應用同風險管理層面嘅一大矛盾:AI越普及,潛在嘅系統性風險就越大,但保險業因為無法準確評估呢啲「黑盒子」式嘅風險,開始拒絕承保。呢種情況對整個科技發展同企業運營都係一種警號。
首先,呢種排除AI責任嘅做法,可能促使企業更加謹慎地使用AI,甚至倒逼監管機構制定更明確嘅AI安全標準。無法買到保險,企業面對AI風險時就冇咗一重保障,可能促使佢哋投放更多資源喺內部風控同技術透明度上。
其次,呢個現象亦反映出,現有保險產品同風險評估模型未必啱用喺新興科技範疇。保險業可能需要創新,開發專門針對AI風險嘅產品,或者利用AI自身嘅技術優勢,提升風險監控能力。
最後,社會大眾同企業都應該明白,AI並非萬能,佢嘅決策過程有時不能完全解釋,甚至可能出錯。呢啲案例提醒我哋,科技發展唔應該只追求速度同效益,風險管理同倫理監督同樣重要。
總括而言,AI技術嘅發展帶嚟嘅不確定性,正挑戰住傳統保險業嘅底線。呢個問題唔單止關乎保險,更係整個社會如何智慧同負責任地擁抱新科技嘅試金石。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。