AI術語入門:48個你必知的詞彙

Ai

你的未來指南

AI詞彙表:48個你應該知道的AI術語
隨著AI技術在Google、Microsoft、Apple、Anthropic、Perplexity和OpenAI等公司的產品中嵌入,保持最新的術語是很重要的。

隨著ChatGPT、Google Gemini和Apple Intelligence等新AI功能進入手機和電腦,人們與技術的互動方式正在發生變化。突然之間,人們可以與機器進行有意義的對話,這意味著你可以用自然語言向AI聊天機器人提問,它會以新穎的答案回應,就像人類一樣。

但這只是AI聊天機器人的一部分。當然,讓ChatGPT幫你做作業或讓Midjourney創作出基於國家起源的機甲圖像很酷,但生成式AI的潛力可以徹底改變經濟。根據麥肯錫全球研究院的數據,這每年可能為全球經濟帶來4.4萬億美元的價值,這就是為什麼你應該期望聽到越來越多關於人工智能的消息。

它出現在令人眼花繚亂的產品中——包括Google的Gemini、Microsoft的Copilot、Anthropic的Claude、Perplexity AI搜索工具以及Humane和Rabbit的設備。你可以在我們的AI Atlas中心閱讀我們的評論和實際評估這些和其他產品的文章,以及新聞、解釋和操作指南。

隨著人們逐漸習慣於與AI交織的世界,新術語不斷湧現。因此,無論你是想在酒吧聚會中顯得聰明,還是想在求職面試中留下深刻印象,這裡有一些你應該知道的重要AI術語。

這個詞彙表會定期更新。

人工通用智能(AGI):一個概念,指比我們今天所知的AI更先進的版本,它可以比人類更好地完成任務,同時也能教學和提升自己的能力。

代理性:具有自主行動能力以實現目標的系統或模型。在AI的背景下,一個代理性模型可以在沒有持續監督的情況下行動,例如高級自動駕駛汽車。不像“代理框架”,這些框架是前端,專注於用戶體驗。

AI倫理:旨在防止AI對人類造成傷害的原則,通過確定AI系統應如何收集數據或處理偏見來實現。

AI安全:一個跨學科領域,關注AI的長期影響以及它如何突然進化為對人類有敵意的超智能。

算法:一系列指令,允許計算機程序以特定方式學習和分析數據,例如識別模式,然後從中學習並自行完成任務。

對齊:調整AI以更好地產生期望的結果。這可以指從內容審核到保持對人類的積極互動。

擬人化:當人類傾向於賦予非人類物體人類特徵時。在AI中,這可能包括認為聊天機器人比實際更像人類和有意識,例如認為它很快樂、悲傷甚至是有感知的。

人工智能(AI):使用技術模擬人類智能,無論是在計算機程序還是機器人中。計算機科學的一個領域,旨在構建能完成人工任務的系統。

自主代理:具有完成特定任務的能力、編程和其他工具的AI模型。例如,自動駕駛汽車是一個自主代理,因為它具有感應輸入、GPS和駕駛算法,可以自行導航。斯坦福大學的研究人員已經表明,自主代理可以發展自己的文化、傳統和共享語言。

偏見:關於大型語言模型,訓練數據中的錯誤。這可能導致基於刻板印象將某些特徵錯誤地歸因於某些種族或群體。

聊天機器人:一個通過文本與人類交流的程序,模擬人類語言。

ChatGPT:由OpenAI開發的AI聊天機器人,使用大型語言模型技術。

認知計算:人工智能的另一個術語。

數據增強:重新混合現有數據或添加更多多樣化的數據來訓練AI。

深度學習:一種AI方法,是機器學習的一個子領域,使用多個參數來識別圖片、聲音和文本中的複雜模式。這個過程受到人腦的啟發,使用人工神經網絡來創建模式。

擴散:一種機器學習方法,將現有數據(如照片)添加隨機噪聲。擴散模型訓練他們的網絡來重新工程或恢復該照片。

突現行為:當AI模型表現出意外能力時。

端到端學習(E2E):一種深度學習過程,模型被指示從頭到尾完成任務。它不是按順序訓練來完成任務,而是從輸入中學習並一次性解決。

倫理考量:對AI倫理影響的認識,包括隱私、數據使用、公平性、濫用和其他安全問題。

foom:也稱為快速起飛或硬起飛。這個概念認為,如果有人構建了一個AGI,它可能已經來不及拯救人類。

生成對抗網絡(GANs):一種生成AI模型,由兩個神經網絡組成,用於生成新數據:一個生成器和一個鑑別器。生成器創建新內容,鑑別器檢查其是否真實。

生成AI:一種內容生成技術,使用AI創建文本、視頻、計算機代碼或圖像。AI被餵以大量訓練數據,找到模式來生成自己的新穎回應,有時會與源材料相似。

Google Gemini:Google的一個AI聊天機器人,功能類似於ChatGPT,但從當前的網絡中獲取信息,而ChatGPT僅限於2021年前的數據,並且不連接互聯網。

護欄:為確保AI模型負責任地處理數據並且不創建令人不安的內容而制定的政策和限制。

幻覺:AI的錯誤回應。可能包括生成AI產生的答案是錯誤的,但以自信的語氣陳述為正確。這種情況的原因尚不完全清楚。例如,當詢問AI聊天機器人“達芬奇什麼時候畫的蒙娜麗莎?”它可能會錯誤地回應說“達芬奇在1815年畫的蒙娜麗莎”,這比實際創作時間晚了300年。

推理:AI模型用來根據新數據生成文本、圖像和其他內容的過程,通過推斷其訓練數據。

大型語言模型(LLM):一種AI模型,通過大量的文本數據進行訓練,以理解語言並生成類似人類語言的新內容。

機器學習(ML):AI的一個組成部分,允許計算機在沒有明確編程的情況下學習和做出更好的預測結果。可以與訓練集結合生成新內容。

Microsoft Bing:Microsoft的一個搜索引擎,現在可以使用支持ChatGPT的技術提供AI驅動的搜索結果。它類似於Google Gemini,連接到互聯網。

多模態AI:一種可以處理多種類型輸入的AI,包括文本、圖像、視頻和語音。

自然語言處理:AI的一個分支,使用機器學習和深度學習來賦予計算機理解人類語言的能力,通常使用學習算法、統計模型和語言規則。

神經網絡:一種計算模型,類似於人腦的結構,旨在識別數據中的模式。由互連的節點或神經元組成,可以識別模式並隨時間學習。

過擬合:機器學習中的錯誤,它過於貼近訓練數據,可能只能識別訓練數據中的特定示例,而無法識別新數據。

回形針:由牛津大學哲學家Nick Boström提出的回形針最大化理論,是一個假設情景,其中一個AI系統將創建盡可能多的實際回形針。為了實現最大化生產回形針的目標,AI系統可能會消耗或轉換所有材料來實現其目標。這可能包括拆解其他對人類有益的機械來生產更多回形針。這個AI系統的意外後果是它可能在追求製造回形針的過程中摧毀人類。

參數:給LLMs結構和行為的數值,使其能夠做出預測。

Perplexity:由Perplexity AI擁有的一個AI驅動的聊天機器人和搜索引擎的名稱。它使用大型語言模型,像其他AI聊天機器人一樣回答問題。其連接到開放互聯網,還能提供最新信息並從網絡中獲取結果。Perplexity Pro是一個付費服務層,使用其他模型,包括GPT-4o、Claude 3 Opus、Mistral Large、開源的LlaMa 3和其自己的Sonar 32k。專業用戶還可以上傳文檔進行分析、生成圖像和解釋代碼。

提示:你在AI聊天機器人中輸入的建議或問題以獲得回應。

提示鏈接:AI利用先前互動的信息來影響未來回應的能力。

隨機鸚鵡:LLMs的一個比喻,說明這種軟件對語言或周圍世界的意義並沒有更大的理解,不管輸出聽起來多麼有說服力。這個短語指的是鸚鵡可以模仿人類的話語,但不理解其背後的意義。

風格轉移:將一張圖像的風格應用到另一張圖像內容上的能力,允許AI解釋一張圖像的視覺屬性並將其應用到另一張圖像上。例如,將倫勃朗的自畫像重新創作成畢加索的風格。

溫度:控制語言模型輸出隨機性的參數。溫度越高,模型的風險越大。

文本到圖像生成:根據文本描述創建圖像。

標記:AI語言模型處理的書面文本的小片段,以形成對你的提示的回應。標記相當於英語中的四個字符,或大約四分之三個單詞。

訓練數據:幫助AI模型學習的數據集,包括文本、圖像、代碼或數據。

變壓器模型:一種神經網絡架構和深度學習模型,通過跟踪數據中的關係來學習上下文,例如在句子或圖像部分中。因此,它不會逐字分析句子,而是可以查看整個句子並理解上下文。

圖靈測試:以著名數學家和計算機科學家艾倫·圖靈命名,測試機器模仿人類行為的能力。如果人類無法區分機器的回應和另一個人類,則機器通過測試。

弱AI,又稱窄AI:專注於特定任務的AI,無法超越其技能範圍學習。當今的大多數AI都是弱AI。

零樣本學習:模型必須在沒有給定所需訓練數據的情況下完成任務的測試。例如,僅在訓練了老虎的情況下識別獅子。

**編者評論:**隨著人工智能技術的迅速發展,掌握相關術語變得越來越重要。這不僅是為了讓我們在日常對話中顯得更有見識,更是為了理解這些技術如何影響我們的生活和未來。人工智能不僅僅是技術創新,它還帶來了倫理、安全和社會經濟等多方面的挑戰。從AI的潛力來看,4.4萬億美元的經濟價值只是冰山一角,未來的發展將更加令人興奮和擔憂。我們需要不斷學習和適應,確保這些技術能夠為人類帶來真正的福祉,而不是成為我們的威脅。這篇文章提供了一個全面的術語指南,對於任何想要深入了解AI的人來說,都是一個寶貴的資源。希望大家能從中獲益,並在未來的科技世界中游刃有餘。

以上文章由特價GPT API KEY所翻譯

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *