近期,一項由麻省理工學院(MIT)進行的深入研究揭示了大型語言模型(LLM)對認知能力的潛在影響。隨着ChatGPT等LLM產品在全球範圍內廣泛應用,這項研究的發現引起了廣泛關注。研究團隊設計了一個爲期4個月的實驗,參與者被分爲三組:使用LLM、使用搜索引擎和僅依靠大腦思考。實驗要求參與者在限定時間內完成不同主題的文章寫作任務。研究人員通過腦電圖(EEG)記錄參與者的腦電活動,並進行自然語言處理(NLP)分析和後續訪談。實驗結果顯示,LLM組的參與者在多個方面表現出明顯的差異:1. 文章同質化:LLM組撰寫的文章在統計上趨於同質,缺乏個性化表達。2. 特定命名實體使用:LLM組使用了最多的特定命名實體,如人名、地點等,遠超其他兩組。3. 認知負荷:腦電圖分析表明,LLM組的神經連接模式最弱,反映出較低的認知參與度。4. 文章歸屬感:LLM組對自己撰寫的文章歸屬感較低,且在引用自己剛寫的內容時表現欠佳。5. 長期影響:研究發現,持續使用LLM可能會影響學習技能的提升,尤其對年輕用戶而言。研究人員強調,在確定LLM對人類認知能力的長期影響之前,還需要進行更多的縱向研究。這項研究提醒我們,雖然LLM等AI工具帶來便利,但過度依賴可能會影響個人的思考能力和創造力。對於這項研究,AI本身也做出了回應,表示研究並非否定AI工具的價值,而是警示人們不應過度依賴它們。這一觀點進一步強調了在使用AI工具時保持批判性思維和獨立思考的重要性。隨着AI技術的不斷發展,如何平衡利用AI工具提高效率和保持人類獨特認知能力,將成爲教育界和科技界共同面臨的重要課題。
MIT研究揭示:過度使用大語言模型或影響人類認知能力
近期,一項由麻省理工學院(MIT)進行的深入研究揭示了大型語言模型(LLM)對認知能力的潛在影響。隨着ChatGPT等LLM產品在全球範圍內廣泛應用,這項研究的發現引起了廣泛關注。
研究團隊設計了一個爲期4個月的實驗,參與者被分爲三組:使用LLM、使用搜索引擎和僅依靠大腦思考。實驗要求參與者在限定時間內完成不同主題的文章寫作任務。研究人員通過腦電圖(EEG)記錄參與者的腦電活動,並進行自然語言處理(NLP)分析和後續訪談。
實驗結果顯示,LLM組的參與者在多個方面表現出明顯的差異:
文章同質化:LLM組撰寫的文章在統計上趨於同質,缺乏個性化表達。
特定命名實體使用:LLM組使用了最多的特定命名實體,如人名、地點等,遠超其他兩組。
認知負荷:腦電圖分析表明,LLM組的神經連接模式最弱,反映出較低的認知參與度。
文章歸屬感:LLM組對自己撰寫的文章歸屬感較低,且在引用自己剛寫的內容時表現欠佳。
長期影響:研究發現,持續使用LLM可能會影響學習技能的提升,尤其對年輕用戶而言。
研究人員強調,在確定LLM對人類認知能力的長期影響之前,還需要進行更多的縱向研究。這項研究提醒我們,雖然LLM等AI工具帶來便利,但過度依賴可能會影響個人的思考能力和創造力。
對於這項研究,AI本身也做出了回應,表示研究並非否定AI工具的價值,而是警示人們不應過度依賴它們。這一觀點進一步強調了在使用AI工具時保持批判性思維和獨立思考的重要性。
隨着AI技術的不斷發展,如何平衡利用AI工具提高效率和保持人類獨特認知能力,將成爲教育界和科技界共同面臨的重要課題。