前Google CEO Schmidt 警告AI危險兼賣自家AI防禦方案

Ai

埃里克·施密特表示人工智能正變得危險強大,他推銷自己的人工智能防禦初創公司

前谷歌首席執行官施密特擔心人工智能的力量,但卻樂於向你推銷解決方案。

每當科技領袖公開警告人工智能或許會帶來的潛在危險,或許更廣泛的“超智能”時,我們必須記住他們同時也在另一邊銷售解決方案。我們已經看到OpenAI的山姆·奧特曼在敦促華盛頓制定人工智能安全法規的同時,卻也在推銷昂貴的ChatGPT企業訂閱。這些領導者本質上是在說:“人工智能強大到可能帶來危險,想像一下它能為你的公司做什麼!”

埃里克·施密特,這位69歲的前谷歌首席執行官,最近以與年輕女性約會並慷慨贈予她們資金以創立自己的科技投資基金而聞名。他最近在平日的新聞節目上頻繁出現,警告人工智能在發展到“我們即將能夠讓計算機自主運行,決定它們想做的事情”的時候,可能會帶來許多不可預見的危險。他還提到“每個人都將擁有相當於一位博學者的助手在口袋裡”。

施密特在ABC的《本周》節目中發表了這些言論。他還在上週五的PBS節目中提到,未來的戰爭將會有更多人工智能驅動的無人機,但他強調人類應該保持參與並保持“有意義”的控制。在烏克蘭與俄羅斯的戰爭中,無人機已變得更加普遍,它們被用於監視和投放炸彈,而無需人類接近前線。

施密特表示:“正確的模式,顯然戰爭是可怕的,應該是讓人們遠離戰場,武器則靠前,並且由人工智能進行網絡連接和控制。”他還強調:“未來的戰爭是人工智能,網絡無人機的多樣化。”

方便的是,施密特正在開發一個名為White Stork的新公司,該公司為烏克蘭提供了在“複雜且強大方式”中使用人工智能的無人機。

撇開生成式人工智能本身存在的深層缺陷以及尚未接近超越人類的事實,施密特在某種意義上可能是正確的。人工智能往往會以創造者無法理解或預測的方式行事。社交媒體便是這方面的完美案例。當算法僅僅優化以獲得最大參與度而不考慮倫理時,它們會鼓勵反社會的行為,如挑起極端觀點以引發憤怒和關注。隨著谷歌等公司推出能夠自主瀏覽網頁的“代理型”機器人,它們有潛力以不道德或有害的方式行事。

然而,施密特在這些訪談中顯然是在推銷他的書。在他接受ABC的訪問時,他提到當人工智能系統開始“自我改進”時,可能需要考慮關閉它。但他隨後表示:“理論上,我們最好讓某人控制這個開關。”施密特在投資人工智能初創企業上花費了大量金錢,同時又在華盛頓遊說有關人工智能的法律。他當然希望他所投資的公司能成為掌握這個開關的那一方。

在這一背景下,施密特的警告不僅僅是對人工智能風險的反思,同時也反映了他自身的商業利益。這讓人聯想到科技行業中,對於安全和道德的討論往往伴隨著商業利益的計算。在未來,我們需要更深入地思考如何平衡科技的發展與道德責任,並確保技術的進步不會成為潛在的危險。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *