AI對話的隱秘規則:為何似人似物?

Ai

無法言喻的對話規則:為何AI聊天機器人感覺如此人性化

今年早些時候,一名香港的金融工作者被騙取了2500萬美元,原因是詐騙者利用深度偽造技術,在視頻會議中假裝成公司的首席財務官。這名金融人員以為屏幕上的影像是他的同事,因此授權進行了這筆數百萬美元的轉賬,結果卻是將錢轉給了假冒的朋友。

這是一個引人注目的例子,但這名受騙的辦公室工作者並不是唯一一個被生成式AI技術欺騙的人。自從2022年ChatGPT推出以來,這項依賴於大量數據訓練大型語言模型的技術已變得越來越普遍。

那麼,為什麼有些與生成式AI聊天機器人互動的人會如此容易相信他們正在與某種人進行對話呢?答案可能在於對話的規則本身,以及這些規則是如何深深根植於我們與世界互動的方式中。

為什麼這麼火熱?

基於語言模型的生成式AI系統所產生的文本,語言學家稱之為“無根據的”:它缺乏人與人之間對話所需的相互理解。然而,當人類進行互動時,我們往往假設我們的夥伴是有思想的。

我們天生就會將各種非人類的事物擬人化。在最近生成式AI技術突飛猛進之前,我們主要是對動物進行擬人化。

而現在,則是機器。在生成式AI出現之前,我們與計算機的互動通常涉及極少的語言交流。然而,隨著生成式AI的出現,計算機系統以看似真實的方式回應我們。這種“看似真實”正是這項技術成功的關鍵所在。

這是如何運作的?

在最近的一篇論文中,美國科學家Kyle Mahowald、Anna Ivanova及其同事認為,我們將語言與思想混為一談。由於生成式AI系統能夠相對流利地使用語言,我們便相信它們也能思考。(事實上,它們並不能。)

這些作者區分了形式語言能力(對語言規則和統計模式的了解)和功能語言能力(在現實情況中如何使用語言)。

僅僅能夠產生符合規則的表達是不夠的。這些表達必須在上下文中適當使用。在一個例子中(該例子是請求ChatGPT-4o生成的,旨在展示一個準確但不恰當的對話反應),Alex的回答雖然事實上是正確的,但卻未能回應朋友對支持的需求。

朋友:我對明天的演講感到非常焦慮。

Alex:壓力會激活你身體的戰鬥或逃跑反應,增加心率和皮質醇水平。

Mahowald及其同事表示,我們對生成式AI系統智能的信念源於其語言能力。然而,理解人類與這項技術互動時發生的事情,則是一個關鍵的拼圖。

對話的規則

理解生成式AI聊天機器人對人類的吸引力的關鍵在於它們所執行的類型:對話。對話受規則和常規的約束。

對話的常規因文化而異,並且存在不同的期望。在西方文化中,語言學家通常認為對話遵循1975年英國語言哲學家Paul Grice提出的四個原則或“準則”。

1. 質量準則:要誠實;不要提供虛假或沒有證據支持的信息。
2. 數量準則:提供所需的信息;不要提供過多或過少的信息。
3. 相關性準則:僅提供與討論主題相關的信息。
4. 方式準則:清晰、簡潔、有序;避免模糊和歧義。

不惜一切代價尋找相關性

生成式AI聊天機器人在數量方面通常表現良好(有時會過多提供信息),並且它們往往是相關和清晰的(這也是人們使用它們來改善寫作的原因)。

然而,它們在質量準則上往往表現不佳。它們經常會出現幻覺,給出看似權威但實際上是虛假的答案。

然而,生成式AI成功的核心在於Grice的主張:任何參與有意義的交流的人都會遵循這些準則,並假設他人也在遵循它們。

例如,謊言之所以有效,是因為與說謊者互動的人會假設對方在說真話。與提供無關評論的人互動的人會竭盡所能地尋找相關性。

Grice的合作原則認為,對話是基於我們彼此理解的強烈意願。

合作的意願

因此,生成式AI的成功部分依賴於人類在對話中合作的需求,以及本能地渴望互動。這種通過對話進行的互動方式,從童年時期開始學習,並成為習慣。

Grice認為,“要徹底改變這種習慣需要很大的努力”。

因此,下次你與生成式AI互動時,請謹慎行事。記住,它只是一個語言模型。不要讓你對對話合作的習慣性需求,接受一個機器作為同類。

在這篇文章中,作者深入探討了人類與生成式AI之間的對話互動,並揭示了背後的心理學原理。這不僅讓我們重新思考與AI的關係,還挑戰了我們對人類和機器之間界限的理解。隨著AI技術的快速發展,我們必須保持警惕,明白與AI的互動仍然是一種人為的構建,而非真正的人際交流。這種警覺性將有助於我們在未來更好地理解和利用這項技術,而不至於讓它模糊了我們與人類之間的界限。

以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *

Chat Icon