近期,一项由麻省理工学院(MIT)进行的深入研究揭示了大型语言模型(LLM)对认知能力的潜在影响。随着ChatGPT等LLM产品在全球范围内广泛应用,这项研究的发现引起了广泛关注。研究团队设计了一个为期4个月的实验,参与者被分为三组:使用LLM、使用搜索引擎和仅依靠大脑思考。实验要求参与者在限定时间内完成不同主题的文章写作任务。研究人员通过脑电图(EEG)记录参与者的脑电活动,并进行自然语言处理(NLP)分析和后续访谈。实验结果显示,LLM组的参与者在多个方面表现出明显的差异:1. 文章同质化:LLM组撰写的文章在统计上趋于同质,缺乏个性化表达。2. 特定命名实体使用:LLM组使用了最多的特定命名实体,如人名、地点等,远超其他两组。3. 认知负荷:脑电图分析表明,LLM组的神经连接模式最弱,反映出较低的认知参与度。4. 文章归属感:LLM组对自己撰写的文章归属感较低,且在引用自己刚写的内容时表现欠佳。5. 长期影响:研究发现,持续使用LLM可能会影响学习技能的提升,尤其对年轻用户而言。研究人员强调,在确定LLM对人类认知能力的长期影响之前,还需要进行更多的纵向研究。这项研究提醒我们,虽然LLM等AI工具带来便利,但过度依赖可能会影响个人的思考能力和创造力。对于这项研究,AI本身也做出了回应,表示研究并非否定AI工具的价值,而是警示人们不应过度依赖它们。这一观点进一步强调了在使用AI工具时保持批判性思维和独立思考的重要性。随着AI技术的不断发展,如何平衡利用AI工具提高效率和保持人类独特认知能力,将成为教育界和科技界共同面临的重要课题。
MIT研究揭示:过度使用大语言模型或影响人类认知能力
近期,一项由麻省理工学院(MIT)进行的深入研究揭示了大型语言模型(LLM)对认知能力的潜在影响。随着ChatGPT等LLM产品在全球范围内广泛应用,这项研究的发现引起了广泛关注。
研究团队设计了一个为期4个月的实验,参与者被分为三组:使用LLM、使用搜索引擎和仅依靠大脑思考。实验要求参与者在限定时间内完成不同主题的文章写作任务。研究人员通过脑电图(EEG)记录参与者的脑电活动,并进行自然语言处理(NLP)分析和后续访谈。
实验结果显示,LLM组的参与者在多个方面表现出明显的差异:
文章同质化:LLM组撰写的文章在统计上趋于同质,缺乏个性化表达。
特定命名实体使用:LLM组使用了最多的特定命名实体,如人名、地点等,远超其他两组。
认知负荷:脑电图分析表明,LLM组的神经连接模式最弱,反映出较低的认知参与度。
文章归属感:LLM组对自己撰写的文章归属感较低,且在引用自己刚写的内容时表现欠佳。
长期影响:研究发现,持续使用LLM可能会影响学习技能的提升,尤其对年轻用户而言。
研究人员强调,在确定LLM对人类认知能力的长期影响之前,还需要进行更多的纵向研究。这项研究提醒我们,虽然LLM等AI工具带来便利,但过度依赖可能会影响个人的思考能力和创造力。
对于这项研究,AI本身也做出了回应,表示研究并非否定AI工具的价值,而是警示人们不应过度依赖它们。这一观点进一步强调了在使用AI工具时保持批判性思维和独立思考的重要性。
随着AI技术的不断发展,如何平衡利用AI工具提高效率和保持人类独特认知能力,将成为教育界和科技界共同面临的重要课题。