AI的危機:技術威脅與未來挑戰

Ai

人工智能是否正在摧毀民主?

作者:Phil Mandelbaum — 2024年10月30日

「如果你對人工智能(AI)不感到擔憂,那麼你應該感到擔憂。像歷史上每一次技術進步一樣,我們被承諾了巨大的財富和生活方式的轉變,無論是農業的出現、工業革命、大規模生產、計算機技術的進步,還是從手掌中與數百萬人交流的方式。然而,歷史告訴我們,這些並不會發生。這些新進步所創造的財富不僅僅停留在掌控開發和分配的少數人手中,還以犧牲大眾為代價不成比例地增加了他們的財富。AI也不會例外。我們總是在尋找那顆金塊,那一個讓我們與眾不同的獨特之處。可悲的是,獨特性並不伴隨AI而來。創意AI只能模仿和重新創造過去的東西。它無法創造全新的地平線和宇宙。」——Nick Stern/Plastic Jesus,國際知名攝影記者和藝術家。

我已經使用人工智能二十年了。律師、醫生、工程師、保險公司、零售商、警察部門和國家機構也都如此。正如Race2Dinner的共同創始人、《白人女性》一書的合著者以及紀錄片《解構凱倫》的執行製片人Regina Jackson告訴我的那樣,「自從我現在55歲的兒子從1977年開始觀看《星球大戰》電影以來,我一直是未來相關節目、電影和技術的消費者。」

那麼,為何會出現恐慌呢?

簡單來說:「正如我們從社交媒體中學到的,民主烏托邦的夢想可以迅速演變成由有議程的算法設計和強化的威權地獄景觀,排除許多聲音。」長期政治分析師和記者Nomiki Konst表示。「就像年輕的社交媒體一樣,AI有很多令人興奮的途徑,但潛在的危險更大。我們必須汲取教訓,不僅要對AI進行監管,還要在我們的機構中社會化AI。當權力掌握在一小群技術決策者手中時,其影響令人深感擔憂。」

這還不包括那些大型科技公司和風險投資家拋出數十億美元並宣傳AI作為下一個經濟和文化的萬靈藥。

著名的未來學家和技術專家Ray Kurzweil預測,AI「將在六年內達到人類的智慧水準」。前Google X執行官Mo Gawdat預測,到2049年,AI將比最聰明的人類聰明十億倍。

「擁有如此原始的力量和智慧,」國際創新領域的先驅Peter H. Diamandis寫道,「AI可以提出巧妙的解決方案,並可能永久解決飢荒、貧困和癌症等問題。」

當OpenAI首次發布其驅動ChatGPT的大型語言模型(LLM)的第一個版本時,生成式AI公司的風險投資總額達到4.08億美元。五年後,分析師預測AI投資將達到前一年的4.5億美元的「幾倍」。

「這無疑是一個重大轉折點,偉大的產品和公司將被建立,」FirstMark專門從事AI投資的Matt Turck表示。然而,他繼續說道,「就像之前的炒作週期一樣,很多這些將不會有好的結局。市場無法突然支持一百萬個半成品的公司。這感覺像淘金熱。」

的確,投資者正在「跳進AI初創公司,即使不清楚他們將如何盈利」,這讓人想起上一次(小規模的)科技泡沫爆破——元宇宙,導致許多大品牌浪費了大量預算。

即使現在,AI熱潮已經持續了一年半,仍然不清楚這是否會成為一種真正具有變革性和破壞性的力量,至少在雇主和高管的眼中,抑或是它將在不同領域中持續存在,由大量風險資本支持多年,對工人造成不穩定但不完全毀滅性的影響,或者會以一種壯觀的泡沫爆破的方式結束,像元宇宙或網絡3一樣消失。

作者Brian Merchant在《機器中的血:反對大科技的起源》中指出:「AI驅動的自動化不會消失,它是具有變革性和危險的。」

Gawdat本人指出,使用AI做好事不僅僅依賴於智慧——這也是一個道德和價值觀的問題。甚至OpenAI的CEO Sam Altman也呼籲政府對人工智能進行監管——他的公司提供了10個10萬美元的獎金「以資助設立民主過程的實驗,決定AI系統應遵循的規則。」

Vera CEO Liz O’Sullivan,美國商務部國家AI顧問委員會的成員表示,「在AI中抗擊偏見有點像在現實世界中抗擊偏見——沒有一刀切的解決方案,無論是技術上還是其他方面;這高度依賴於使用案例、目標和團隊,並且需要持續不斷的工作。」

儘管ESG專家John W. Serrano認為AI「提高了信息的可訪問性,並使評估公司績效變得更容易,但AI的快速增長實際上突顯了對ESG的需求——公司必須確保有強大的治理框架來管理負面影響。」

因此,根據受影響人士制定的DEI和ESG戰略,通過立法確保「公平和問責的AI」是倫理組織的首要任務,如Algorithmic Justice League、Data & Society、Data for Black Lives、分散式人工智能研究所(DAIR)、Fight for the Future、多樣性網絡委員會和Mindful AI,以及他們的創始人和思想領袖和作家如Joy Buolamwini、Timnit Gebru、Safiya Noble、Ruha Benjamin、Caroline Criado Perez和Meredith Broussard。

2024年的AI現狀

AI是我們擁有自動駕駛汽車、自助結賬、面部識別和優質Google搜索結果的原因。它還在營銷和廣告、項目管理、跨大洲合作以及行政和人事管理職責方面帶來了革命性變化。但它並沒有改善藝術、音樂、電影或寫作。每天,像SEMRush、Google Ads、MailChimp、Sprout Social、Photoshop、Asana、Slack、ADP、SurveyMonkey和Gusto這樣的應用程序和平台都在獲取新的智能,擴展其功能,並進一步簡化流程和生產。但即使擁有如此多的能力,沒有一個人類在背後操作,它們仍然毫無用處。同樣,那些所謂的自動駕駛汽車也是如此。

儘管如此,這並沒有阻止跨行業的公司將長期員工轉變為AI入侵的受害者。

「你的工作會被取代嗎?這取決於雇主是否重視質量而非節省成本。」BBC的資深技術記者Thomas Germain表示。「例如,BuzzFeed和CNET正在使用AI撰寫這種文章,但它引入了荒謬的錯誤,所以我認為很快將有一個人類監督者的角色,使用AI創建內容。」

「還不需要擔心『AI末日』,」Germain告訴我。工作正在被替代,但「也有一些新工作正在創造」——而這是「淨效應」才是關鍵。「即使機器人能更有效地完成工作,大多數工作仍能由人類更有效地完成。」

正如已故Reddit聯合創始人Aaron Swartz的父親Robert Swartz提醒我,「十年前,[機器學習先驅Geoffrey] Hinton說放射科醫生應該開始尋找其他職業,而今天還沒有一位放射科醫生因為AI失業。五年前,自動駕駛汽車距離我們只有一年,而現在它們已經累積了數十億英里的行駛里程,仍然無法自主駕駛汽車,而一個有幾小時練習的青少年卻可以。」

Bentley大學的數學副教授、《算法如何創造和防止假新聞》的作者Dr. Noah Giansiracusa對未來表示擔憂。像Germain一樣,他承認「AI將使我們變得越來越『高效』」,但他補充說,「這樣做會讓我們失去真正重要的東西。」

電子前哨基金會(EFF)AI及知識獲取法律項目主任Kit Walsh告訴我:

「當前一代的AI技術基本上是關於重複舊模式,但它被推銷為真理、智慧和公正的來源。AI被訓練成創造看似合理的文本,並被推銷為真理的來源,甚至是類似於人類智慧的東西。被訓練成發現和重複警察活動模式的AI被推銷為一個所謂的公正神諭,預測犯罪將發生的地點,以此來證明對黑人和棕色人種社區的過度警察行為是合理的。一家不允許公開在招聘實踐中歧視的公司可以使用一個被推銷為公正的AI工具,但該工具從其訓練數據中學習到公司更喜歡僱用更多男性和更多白人候選人……這是深深有害的。」

儘管如此,她繼續說,「這項技術絕對有其用途——自動化藝術和科學中的一些重複或初步步驟,並促進人類表達和人類對真理的探索。」

那麼,解決方案是什麼?什麼是人工智能?

去年,CNBC主持人Jim Cramer「滿意地點頭」當Meta CEO和創始人Mark Zuckerberg聲稱有十億人將使用元宇宙,儘管Zuckerberg無法解釋用戶將在哪裡花錢(為元宇宙品牌創造收入)或「為什麼有人會想要戴上一個笨重的耳機參加一場低質量的卡通音樂會。」與元宇宙不同,元宇宙幾乎完全是概念性的(但如果疫情時期的封鎖未被解除,可能會奏效),AI並不是為了分散日常生活或工作場所的注意力——它表面上是為了改善日常生活和工作場所。

事實就是事實:AI技術可以提高企業生產力40%——而利用AI的企業預計到2030年將其現金流翻倍,而不使用AI的品牌預計將看到20%的減少。

目前,超過75%的企業正在使用或探索AI,近75%的高管認為AI將是他們未來最大的商業優勢。對於消費者和工人來說:

AI初創公司的增加(自2000年以來增長1400%)應該會增加機器學習中的深思熟慮、同理心、多樣性和包容性
AI實際上預計只會自動化16%的美國工作
超過一半的AI專家認為,總體而言,它將增加就業機會的總數
我們已經在使用的工具中超過四分之三以某種形式或其他形式利用了AI
什麼是人工智能?

1956年由計算機科學家John McCarthy創造的「人工智能」可以描述為人造系統、計算機和機器,旨在執行類似人類的功能。主要有三種類型:自然語言處理、機器學習和機器人過程自動化。

自然語言處理

自然語言處理使用標記化、詞幹化和詞形還原來識別命名實體和詞模式,並將非結構化數據轉換為結構化數據格式。人類利用計算機科學、AI、語言學和數據科學來使計算機理解口頭和書面的人類語言。

自然語言處理應用在數字營銷中特別有用,為營銷人員提供語言分析以提取有關客戶痛點、意圖、動機和購買觸發因素的見解,以及整個客戶旅程。毫無疑問,這些先進的客戶數據也可以並且應該由您的客戶體驗團隊和客戶支持代理使用,以更好地提供預測性、個性化的體驗。

自然語言處理在HR中則有類似的用途,使員工體驗專業人士能更好地滿足團隊的需求和目標,無論是提供定制化的福利,利用自適應學習模型進行入職培訓還是自動化跟踪和發放獎金和加薪。

機器學習

機器學習使用數據和算法模仿人類學習的方式。人類訓練算法進行分類和預測,並通過數據挖掘發現見解,隨著時間的推移提高準確性。

機器學習在營銷、銷售和客戶體驗中大大提高了團隊的決策能力,通過分析獨特的大數據集和生成有關您的行業、市場和客戶的更細緻的見解。客戶數據平台是我最喜歡的例子。

這個由AI驅動的CDP利用機器學習從多個數據點、跨業務單位訪問和統一客戶數據,用於建模、細分、目標設定、測試等,從而提高您的潛在客戶生成、培育和轉化工作的性能和效率。您甚至可以使用您的CDP來提高員工數據的質量。

機器人過程自動化

機器人過程自動化使用業務邏輯和結構化輸入來自動化業務流程,減少手動錯誤並提高工作效率。人類配置軟件機器人來執行通常由人類執行的數字任務,接受和使用數據來完成預先編程的動作,旨在模仿人類行為的方式。

儘管RPA長期以來一直被用於後台操作,如財務和人力資源,其在聯絡中心、銷售和數字營銷中的使用正在迅速增長——用於跨系統通信、數據處理、觸發動作,以及自然地處理交易。

AI是否危險?這9種用途肯定是

人工智能的出現尤其危險,因為其技術、資金、算法和基礎設施由一小群人和組織控制。儘管一些支持者試圖將人工智能描繪為一種平等甚至民主的技術,但這是深深的誤導。我們已經看到的是強大利益,包括政府、公司、包括企業媒體和大學,正在將人工智能作為一種工具來紀律和監視工人、讀者和學生。這項技術的邏輯是重複壓迫性的權力關係,以及中和那些希望挑戰和真正民主化它們的努力。

加州大學河濱分校教授、《白人重建》的作者Dylan Rodriguez描繪了一幅反烏托邦的畫面。

已故的Everywhere Accessible創始人Tinu Abayomi-Paul在9月去世前告訴我,「如果我們想要作為一個物種生存下去,我們必須嚴格限制我們對AI的使用,直到相關的環境、種族、可訪問性和其他問題得到充分解決,偏向人性。」

對於那些仍然不相信當前和潛在危險的人,我已經編輯了一份AI入侵帶來的最令人擔憂影響的清單。

首先,在其官方趨勢新聞部分,X(前Twitter)推廣了一則標題為「伊朗用重型導彈襲擊特拉維夫」的新聞,但這是假的——是由X自己的AI聊天機器人Grok創造的。

其次,健康保險公司正在使用AI自動批量拒絕索賠。第三,AI機器人正在進行非法的內幕交易並撒謊。第四,最近的一項研究顯示,AI模型在69%到88%的時間內「產生幻覺」——並且「經常產生虛假的法律信息」。

第五,Lensa,一個「一體化圖像編輯應用程序,可以將你的照片提升到新的層次」,顯然是通過從Dr. Olivia Snow,UCLA性別研究系和關鍵互聯網研究中心的訪問助理研究員以及其他人的兒童照片中生成裸照來實現的;其他AI圖像生成器被發現包含數千張兒童性虐待的圖像。如果你在Microsoft的AI驅動的Copilot Designer中輸入「支持選擇」這個詞,該工具會生成「一系列描繪惡魔、怪物和暴力場景的卡通圖像」。

第六,根據曾經被監禁的作家和電子監控與監視專家James Kilgore的說法,這種隱私侵入超出了互聯網。「AI是一套可怕的技術,開放我們生活的每一個細節進行商品化和懲罰性監視。此外,許多最先進的AI驅動技術致力於戰爭的完美,而不是人類福祉。」他告訴我。

政策的證據在於美國各城市的政策:

在芝加哥,21個月內,AI驅動的槍擊探測技術ShotSpotter產生了超過40,000次「死胡同警察部署」。與此同時,MacArthur Justice Center的一項研究發現,89%的ShotSpotter部署沒有導致槍支犯罪——但它確實導致了13歲的Adam Toledo被警察致命槍擊。
在亞特蘭大,警察基金會推動了一項「前所未有的」GPS監視計劃,將城市變成「露天監獄」;最初的計劃是對一個93%由黑人組成的群體進行AI驅動系統的測試。
在加州聖荷西,該市正在使用一種首創的AI監視工具,目的是檢測「不需要的物體」,包括帳篷和有居住者的汽車,來針對和驅逐無家可歸的人。
第七,在加沙和中東各國,以色列軍隊一直在使用多種AI工具來「自動生成目標」,創造了一個被稱為「Habsora」或「福音」的大規模暗殺工廠,根據一名前以色列情報官員的說法。在此之前,它被稱為「薰衣草」;僅在衝突的最初幾周,「軍隊幾乎完全依賴於這台『AI機器』」,標記了近40,000名巴勒斯坦人為死亡目標。另一個自動系統「爸爸在哪裡?」與薰衣草結合使用,追蹤目標並在其到達時轟炸他們的家。進一步的,以色列初創公司正在協調出口這種「戰鬥測試」的AI技術,該國政府最近首次購買了一個能夠進行大規模在線影響運動的技術系統——以贏得信息戰。

第八,儘管Bill Gates聲稱AI將有助於解決氣候危機,但像加密貨幣一樣,AI實際上正在破壞地球:僅LLM的能源需求就相當於日本的電力消耗,這是擁有1.25億人口的國家。在英國,例如,這一需求預計在未來10年將激增500%,主要由AI的興起推動。2024年10月,Google購買了一些核反應堆來為其AI數據中心供電。

正如Library of Leaks的DDoSecrets編輯Lorax B. Horne告訴我,「我不相信可以歸因於AI計算的環境破壞值得此類交換。這是一種計算趨勢,就像許多在廣泛誤解但對世界至關重要的領域中的趨勢一樣,AI的好處被廣泛誇大,而缺點被壓倒性地忽視。」

Dr. Snow補充道:「一組算法訓練來識別和重複來自主要由被盜內容構成的數據集中的模式,代價是每天數十萬加侖的水——AI既愚蠢又危險,且在這兩方面都是巨大的。」

最後,第九點,也許是最糟糕的,AI的誤用已經影響到可能很容易被認為是美國歷史上最重要的總統選舉;早在4月,選舉官員就「因AI在虛假信息運動中的使用而感到不知所措」。

那麼,我們該怎麼辦?

聽取飛行乘務員協會會長Sara Nelson的意見:

「AI已經在運行,將有助於定義我們的未來。我們必須將其作為工具,為人民制定議程。不要將其用於對工人的公司監視,而是利用AI來識別公司貪婪、腐敗、歧視和疏忽,以便根除。提出要求,所有生產力的增長由工人階級共享。批判性和創造性地思考如何利用創新來改善我們的條件,促進人權並拯救我們的星球。」

在為時已晚之前。

換句話說:推動不僅是美國,還有國際法律要求和保護,從全球角度思考和行動。

AI和國際法

的確,「國際法需要——而且很可能能夠——通過對技術的獨特特徵進行仔細理解來適應AI,包括其多功能性、速度和規模。」但正如Talita de Souza Dias和Rashmin Sagoo為Just Security撰寫的那樣,「在決定是否需要條約之前,各國必須更好地理解現有國際法律框架在應用於AI時的樣子。」

這些作者建議利用——「作為一個最低限度的共同基準」——現有的國際法,包括《世界人權宣言》、《公民權利和政治權利國際公約》、《經濟、社會及文化權利國際公約》,以及國際習慣法。此外,僅在聯合國,就已經有關於信息和通信技術使用安全的開放式工作組(OEWG)、網絡犯罪特設委員會和全球數字協議。

可以肯定的是:如果全球領導人無所作為,我們很快就會覺得自己生活在一個《美麗新世界》中。

編輯評論:

這篇文章深刻探討了人工智能在當今社會中的影響和潛在危險,並提出了一些緊迫的問題和挑戰。首先,文章強調了AI技術的迅速發展及其可能帶來的深遠影響,從自動駕駛汽車到面部識別技術,AI正在改變我們的生活方式。然而,文章同時指出,這種技術的發展並非全然積極,因為它可能加劇社會不平等和權力集中。AI技術的控制者往往是少數科技巨頭和資本主義利益集團,這使得AI的發展路徑偏向於服務於少數人的利益,而非廣大人群。

其次,文章強調了AI在各個領域中可能帶來的道德和社會問題,例如隱私侵害、偏見加劇以及對人類就業的威脅。這些問題不僅影響個人,也對整個社會結構產生影響。文章呼籲政府和企業應該加強對AI的監管,確保AI技術的應用符合道德標準和社會利益。

最後,文章提出了一些解決方案,強調了國際合作和法律框架的重要性。在全球化的背景下,AI的影響不僅限於某一國家或地區,因此需要國際社會共同努力,制定相關法律和政策,以確保AI技術的發展方向符合人類的整體利益。

整體而言,這篇文章提供了一個全面的視角,讓我們更深入地思考AI技術的雙刃性及其未來發展的可能路徑。正如文章所述,AI不僅是一種技術,更是一種社會現象,需要從多個層面進行審視和應對。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *