老鵝日報 | AI非全然正確 錯誤資訊77%還成人類記憶 學者:AI不可盡信
2024/11/21 星期四

AI非全然正確 錯誤資訊77%還成人類記憶 學者:AI不可盡信

2023-11-23 06:31:22
分享:

生成式人工智慧(生成式AI,GenAI)逐漸普及,愈來愈多人在工作、課業上都參考AI協助。不過,台灣大學團隊研究發現,對話機器人的訊息產生錯誤時,有77%的錯誤詞彙仍會進入人的記憶,即使加註警語也難以避免。該研究提醒,人類應對AI內容保持適度懷疑。

 

台灣科技媒體中心指出,生成式AI進入大眾日常,但AI系統與使用者互動時,難免會以錯誤資訊回答;若AI傳遞錯誤資訊,有可能會使人機互動上,潛移默化使用者,呼籲用戶重視。

 

台大心理系副教授黃從仁團隊於近日於《美國心理學家》(American Psychologist)期刊發表研究。該研究指出,對話機器人的錯誤詞彙中,有77%會形成參與者的記憶,且即使加註一次性警語,也無法減少錯誤記憶的產生;就算以相對頻繁,且針對特定項目進行預先警告,也無法阻止錯誤資訊進入參與者記憶中。

 

黃從仁表示,團隊使用人工可編輯程式的人形機器人RoBoHoN與受試者對話,檢查機器人提供「情感及價值中立但內容錯誤」的訊息是否有預告警語,並以認知測驗了解錯誤訊息成為錯誤記憶的比例。

 

研究結果顯示,機器人提供的錯誤資訊中,有77%會變成人類記憶,且即便機器人提供錯誤資訊前,已抱持自我懷疑並提出警告,但警告僅增加人們戒心,無法真正避免人們將錯誤資訊納入記憶。

 

黃從仁認為,機器人的學習資料,可透過人工過濾錯誤資訊,或是讓聊天機器人先透過網路查核自身答案。

 

不過,黃從仁補充,人類也應對聊天機器人的輸出內容,保持適度懷疑,不要照單全收。

 

分析此研究的台灣大學資訊工程學系副教授陳縕儂則說,生成式AI在與使用者互動時,錯誤資訊難以避免。這些錯誤是否會潛移默化影響使用者,是規範當代AI產品非常重要的考量。

 

首圖擷取自Tumisu / Pixabay。為符欄位經本報裁剪。

關鍵字:
您可能感興趣

老鵝日報目前正在徵文中,我們希望好的文章能讓更多人看見,也歡迎更多優秀人才加入
徵才投稿信箱:[email protected]
專線:02-23952180#529 | 信箱:[email protected]
如有新聞聯繫、廣告刊登、企業合作等聯絡,請洽曾先生02-23952180#529