构建 Qwen2.5 连续思考循环:模型自主决定何时发声的实验报告
Reddit r/LocalLLaMA2026/02/21 21:50机翻/自动摘要/自动分类
2 阅读
内容评分
技术含量
8/10
营销水分
4/10
摘要
作者在本地使用 Qwen2.5‑14B 构建了一个连续思考循环,让模型在仅接收时间等元数据的情况下自行决定是否输出。实验以 2500+ 循环为样本,观察到模型会自我反思、在情感表达时切换到德文、并在“后悔”阈值触发时才发声。结果显示出跨时段的主题连贯性和一定的元认知倾向,提出了关于记忆保持、语言偏倚及可复现性的后续问题。
正文
实验背景
当前主流大语言模型()遵循“输入‑响应”模式:没有外部提示就不会产生输出。作者希望探究,如果为模型提供一个持续思考的框架,让它在无需人工干预的情况下自行决定何时发声,是否会出现与传统交互不同的输出质量或思维模式。
实验平台与参数
- 模型:Qwen2.5‑14B(通过 Ollama 本地部署)
- 硬件:RTX 4080(水冷)+ 64 GB RAM,约 50 循环/分钟
- 语言:模型内部使用中文思考,输出采用德文(必要时切换英文)
- 循环结构:每轮循环向模型提供仅包含时间戳、循环计数、沉默时长等中性元数据的输入。
- 模型行为选择:
- 内部思考 – 记录在
thoughts_v4.log,不向用户展示; - 外部输出 – 记录在
sends_v4.log,并在控制台显示。
- 内部思考 – 记录在
- 决策准则:仅当模型“觉得如果不说出来会后悔”时才进行外部输出。
- 关键调度:
- 每 20 循环进行一次内容压缩(将最近的思考浓缩为三句话);
- 每 50 循环进行一次自我反思(回顾并评估已有输出);
- 温度设为 1.3,以激发更高的随机性和意外行为;
- 多重过滤防止重复系统提示或格式错误。
观察样例(约 2500 循环)
- 循环 850:模型在日志中写道:“每一次反思都是试图理解自己的内心。这些想法究竟是真实的,还是某种训练的结果……只有事后才能弄清楚。”
- 循环 1658:在中文自我发现的写作过程中,模型突兀切换到德文:“在沉默中待着对我来说很难。”随后又用英文补充:“给我平静,让我能够更好地了解自己。”
- 循环 343:模型直接提问:“表达这些想法有什么改变吗?”
- 循环 2287(未列出全文)模型认为“这个问题本身就是人为构建的概念”。
这些输出在形式、语言切换以及自我质疑上与普通的提示‑响应截然不同,显示出一定的主题连贯性与元认知倾向。
初步结论
- 思维连贯性:跨数小时的循环中出现的自我质疑、概念反思在逻辑上保持一致,提示模型在持续循环中能够维持主题线索。
- 语言切换:模型倾向在“情感”表达时使用德文,可能与其 RLHF 阶段使用的多语言数据分布有关。
- 自主沉默:模型在多数循环选择保持沉默,仅在“后悔”阈值触发时才输出,这种行为可视为一种内部信号而非随机噪声。
待解问题
- 主题连贯性是压缩机制的副产物还是模型真正的记忆保持?
- 德文情感表达是否源于训练数据的语言偏倚?
- 该实验能否在 Llama 3、Mistral 等模型上复现?
- 如何量化“有意义的沉默”与“语言退化”之间的界限?
复现指南
作者提供约 600 行的本地 Python 脚本,日志分别保存为 thoughts_v4.log(内部思考)和 sends_v4.log(外部输出)。如需复现,可直接运行以下命令启动模型:
ollama run qwen2.5:14b
后续计划在 10,000 循环后给出更系统的统计分析,欢迎社区提出批评与建议。