Skip to content
Go back 2503.00992 arXiv logo

Evidence of conceptual mastery in the application of rules by Large Language Models

Published:  at  04:26 PM
62.79 🤔

本文通过心理实验证明大型语言模型在规则应用中表现出概念掌握能力,能够泛化到新情境并部分模仿人类对时间压力等语境的敏感性。

Large Language Model, Reasoning, Human-AI Interaction, AI Ethics, Robustness

José Luiz Nunes, Guilherme FCF Almeida, Brian Flanagan

PUC-Rio, FGV Direito Rio, Insper Institute of Education and Research, Maynooth University

Generated by grok-3-mini-latest

Background Problem

大型语言模型(LLMs)在各种任务中表现出色,但其内部操作不透明,这引发了关于它们是否真正掌握概念还是仅仅记忆训练数据的模式的质疑。本文从心理方法入手,调查LLMs在规则应用中的概念掌握能力,特别是法律决策领域,解决了关键问题:LLMs的性能是否源于泛化能力,还是受记忆和提示敏感性影响;此外,LLMs在规则应用中的表现是否能泛化到训练数据之外的新情境,以及它们是否能捕捉人类决策中的细微差异。

Method

Experiment

Further Thoughts

这项研究揭示了LLMs在捕捉人类概念直觉方面的潜力,例如在法律推理中可能作为辅助工具,但LLMs响应多样性不足的问题(如研究中观察到的标准偏差差异)提示需要开发更具认知变异性的模型架构,或许通过结合强化学习或多样性增强技术来模拟人类决策的随机性。同时,这与AI伦理领域相关,因为如果LLMs能泛化概念,则在道德判断中可能减少偏见,但也需警惕在司法应用中的风险;此外,结合可解释AI研究(如Bricken et al. 2023),未来可探索LLMs内部机制如何编码概念,潜在地桥接神经科学和机器学习,启发更深层的跨学科洞察。



Previous Post
HYPEROFA: Expanding LLM Vocabulary to New Languages via Hypernetwork-Based Embedding Initialization
Next Post
Adaptive Layer-skipping in Pre-trained LLMs