社区Reddit r/LocalLLaMA2026/02/10 18:2240
一位开发者在探索LLM和AI的过程中,尝试在本地运行模型进行通用聊天和编码测试,并开始深入了解tokens和权重等概念。他提出了一个主观问题:对于C#编程而言,哪种LLM是最佳选择?他深知这与硬件配置密切相关,因此希望社区成员能分享他们认为最适合编码的LLM、使用C#与特定LLM的经验,以及他们所使用的硬件配置、运行速度和上下文限制等详细信息,以期找到不同…
按该标签聚合的大模型资讯列表(自动分类与标签提取)。共 2 篇文章。
一位开发者在探索LLM和AI的过程中,尝试在本地运行模型进行通用聊天和编码测试,并开始深入了解tokens和权重等概念。他提出了一个主观问题:对于C#编程而言,哪种LLM是最佳选择?他深知这与硬件配置密切相关,因此希望社区成员能分享他们认为最适合编码的LLM、使用C#与特定LLM的经验,以及他们所使用的硬件配置、运行速度和上下文限制等详细信息,以期找到不同…
一位开发者分享了他使用 C# 和本地 LLM(Ollama + llama3.1:8b)构建的自主研究代理。该代理能自动生成搜索查询、联网搜索、分析网页内容,并生成结构化报告,全程无需外部 API。作者还分享了在本地 CPU 环境下的性能表现、开发过程中的技术心得(如模型选择、上下文处理、内存管理和 C# 的优势),并提供了项目和入门套件的 GitHub …