避免人工智能陷阱的指導資源:新資源旨在幫助學校
美國教育部最近發布了針對學校的人工智能(AI)新資源,這些資源包括針對一系列潛在棘手問題的建議,例如使用可能錯誤指控學生抄襲的AI檢測工具,以及如何提升教育工作者的AI素養。
這兩份報告發佈的時機恰逢教育者仍在思考如何應對這種強大且迅速發展的技術。調查顯示,許多教師對在課堂上使用AI持保留態度。與此同時,學生們卻越來越多地使用AI工具。最近一項來自Common Sense Media的調查顯示,約一半的青少年曾使用AI文本生成器,34%使用過圖像生成器,而22%則使用過視頻生成器。
這些資源詳細說明了AI可能帶來的陷阱以及它在K-12教育中的機會。
儘管許多州正在為學校制定AI指導方針,但Code.org的首席學術官Pat Yongpradit表示,聯邦層級的AI指導仍然是必要的。他指出:「我們真的需要超越AI是壞的或好的,並對AI在教育中的正確和不正確使用進行更細緻的探討。」
他表示,這些資源為學校提供了一個良好的起點,以展開相關對話。
教育部民權辦公室上週發布的報告,重點在於AI可能侵犯受保護學生群體的權利,並詳細列舉了幾種情境,這些情境中學校對AI的使用或反應可能引發民權調查。舉例來說:
– 一名教師使用AI檢測工具來判斷學生是否使用了像ChatGPT這樣的生成性AI程序來撰寫作業,但該工具對於學習英語的學生有著更高的錯誤陽性率,導致英語學習者被錯誤標記並指控作弊,而母語為英語的同學卻沒有受到影響。(一些研究已經發現這種情況的存在。)
– 學校管理者在得知有學生創建「深偽」裸體圖片時反應不夠強烈,這些圖片是針對她們的女同學。
– 一所學校使用AI工具來制定體育訓練和比賽的時間表,結果女性隊伍被安排在較差的時間和日子進行比賽,而學校對運動員的投訴未作出反應。
– 一個學區購買了面部識別技術,卻錯誤地將黑人學生識別為犯罪嫌疑人。
這些都是民權辦公室所識別的潛在問題的例子,這些問題可能源於學校過度依賴AI,並未將真實的人納入決策過程中。但這些問題並非純粹假設:學校已經在處理這些問題,例如學生製作性暗示的深偽圖片。
Yongpradit說:「報告中的例子非常真實,這些並不是兩句話描述的潛在行為,而是聽起來已經在發生。這應該是對學校中AI風險的警示。因為不當使用AI可能加劇或造成實際歧視,這強調了全面提升AI素養的必要性。」
然而,他指出,結論不應該是AI是壞的,教育領導者也不應該試圖忽視或 disengage 這項技術。
教育部教育技術辦公室在十月發布的第二份資源正是針對這一點。雖然工具包的一部分專注於AI的風險,但它也提供了針對評估AI介入和更新學校技術政策的實用建議。
這個工具包是在Digital Promise的支持下開發的,這是一個專注於學校公平和技術問題的非營利組織。由16名教師、校長、學區主管和其他教育工作者提供了他們的見解。
工具包由八個模塊組成,涵蓋三個廣泛主題:AI風險緩解、將AI整合進教學的策略,以及AI的有效使用和評估。
例如,最後一個主題包括一個關於建立AI素養的模塊,概述了教育工作者的AI素養應該是什麼樣子的、其重要性,以及AI素養專業發展計劃應該涵蓋的主題,包括技術的歷史和起源以及數據和機器學習。
那麼,學校領導者應該如何處理這些報告?Yongpradit建議利用這些資源在教職員會議中展開討論。
他說:「這個工具包更具指導性——這些模塊可以作為讀書會的閱讀材料或教師可以進行的實際活動。民權辦公室的指導則更專注於討論,剖析情境,反思學校是否在主動解決潛在的歧視問題,或者學校是否正在做一些這樣的事情,或者教師是否讓自己和學生處於風險之中。」
這些資源的出現不僅是對學校如何處理AI的一次反思,也是對未來教育模式的一次啟示。隨著AI在教育中的應用變得越來越普遍,學校必須在享受技術帶來的便利的同時,謹慎地考慮其潛在風險,並確保不會對任何學生造成不公正的影響。
以上文章由特價GPT API KEY所翻譯及撰寫。而圖片則由FLUX根據內容自動生成。