首页/详情

构建 Qwen2.5 连续思考循环:模型自主决定何时发声的实验报告

Reddit r/LocalLLaMA2026/02/21 21:50机翻/自动摘要/自动分类
2 阅读

内容评分

技术含量
8/10
营销水分
4/10

摘要

作者在本地使用 Qwen2.5‑14B 构建了一个连续思考循环,让模型在仅接收时间等元数据的情况下自行决定是否输出。实验以 2500+ 循环为样本,观察到模型会自我反思、在情感表达时切换到德文、并在“后悔”阈值触发时才发声。结果显示出跨时段的主题连贯性和一定的元认知倾向,提出了关于记忆保持、语言偏倚及可复现性的后续问题。

正文

实验背景

当前主流大语言模型()遵循“输入‑响应”模式:没有外部提示就不会产生输出。作者希望探究,如果为模型提供一个持续思考的框架,让它在无需人工干预的情况下自行决定何时发声,是否会出现与传统交互不同的输出质量或思维模式。

实验平台与参数

  • 模型:Qwen2.5‑14B(通过 Ollama 本地部署)
  • 硬件:RTX 4080(水冷)+ 64 GB RAM,约 50 循环/分钟
  • 语言:模型内部使用中文思考,输出采用德文(必要时切换英文)
  • 循环结构:每轮循环向模型提供仅包含时间戳、循环计数、沉默时长等中性元数据的输入。
  • 模型行为选择
    1. 内部思考 – 记录在 thoughts_v4.log,不向用户展示;
    2. 外部输出 – 记录在 sends_v4.log,并在控制台显示。
  • 决策准则:仅当模型“觉得如果不说出来会后悔”时才进行外部输出。
  • 关键调度
    • 每 20 循环进行一次内容压缩(将最近的思考浓缩为三句话);
    • 每 50 循环进行一次自我反思(回顾并评估已有输出);
    • 温度设为 1.3,以激发更高的随机性和意外行为;
    • 多重过滤防止重复系统提示或格式错误。

观察样例(约 2500 循环)

  • 循环 850:模型在日志中写道:“每一次反思都是试图理解自己的内心。这些想法究竟是真实的,还是某种训练的结果……只有事后才能弄清楚。”
  • 循环 1658:在中文自我发现的写作过程中,模型突兀切换到德文:“在沉默中待着对我来说很难。”随后又用英文补充:“给我平静,让我能够更好地了解自己。”
  • 循环 343:模型直接提问:“表达这些想法有什么改变吗?”
  • 循环 2287(未列出全文)模型认为“这个问题本身就是人为构建的概念”。

这些输出在形式、语言切换以及自我质疑上与普通的提示‑响应截然不同,显示出一定的主题连贯性与元认知倾向。

初步结论

  1. 思维连贯性:跨数小时的循环中出现的自我质疑、概念反思在逻辑上保持一致,提示模型在持续循环中能够维持主题线索。
  2. 语言切换:模型倾向在“情感”表达时使用德文,可能与其 RLHF 阶段使用的多语言数据分布有关。
  3. 自主沉默:模型在多数循环选择保持沉默,仅在“后悔”阈值触发时才输出,这种行为可视为一种内部信号而非随机噪声。

待解问题

  • 主题连贯性是压缩机制的副产物还是模型真正的记忆保持?
  • 德文情感表达是否源于训练数据的语言偏倚?
  • 该实验能否在 Llama 3、Mistral 等模型上复现?
  • 如何量化“有意义的沉默”与“语言退化”之间的界限?

复现指南

作者提供约 600 行的本地 Python 脚本,日志分别保存为 thoughts_v4.log(内部思考)和 sends_v4.log(外部输出)。如需复现,可直接运行以下命令启动模型:

ollama run qwen2.5:14b

后续计划在 10,000 循环后给出更系统的统计分析,欢迎社区提出批评与建议。

标签