首页/详情

VS Code本地AI开发:Ollama (Qwen2.5/DeepSeek) 如何在Android项目中实现智能文件编辑(Agent模式)?

Reddit r/LocalLLaMA2026/02/15 15:29机翻/自动摘要/自动分类
5 阅读

内容评分

技术含量
7/10
营销水分
1/10

摘要

一位Android开发者正寻求在VS Code中利用本地Ollama(搭载Qwen2.5/DeepSeek模型)实现AI辅助的文件智能编辑功能,以替代GitHub Copilot。尽管已配置Ollama并尝试Continue.dev、Cline等扩展,但AI目前仅提供聊天和代码补全,无法直接创建、修改或删除项目文件。核心问题在于如何启用模型的工具调用能力,并妥善处理Android SDK环境,以实现真正的Agent模式开发体验。

正文

大家好!我正尝试摆脱对GitHub Copilot免费版本的依赖,全面转向本地AI辅助开发,尤其是在使用Kotlin/Java进行Android应用开发时。

核心目标: 我希望本地AI能够像Copilot的“”模式那样,直接创建、删除和修改项目文件,实现更深度的开发自动化。

当前配置与尝试:

  • 硬件环境: 16GB内存,配备8GB显存的RTX 3070 Ti显卡。
  • 尝试模型: 已在Ollama中运行 qwen2.5-coder:7bdeepseek-coder-v2
  • 尝试扩展程序: 在VS Code中安装并使用了 Continue.devCline

遇到的问题: 尽管Ollama后端已成功运行,但上述VS Code扩展程序似乎无法执行实际的文件操作。它们目前仅限于在聊天框中输出JSON数据,或提供基本的代码自动完成功能。我无法让它们像Copilot那样,直接创建新的Activity文件或删除不再需要的类文件。

亟待解决的问题:

  1. 工具调用/函数调用(Tool Use/Function Calling)配置: 我是否需要在Ollama或相关扩展的config.json中启用特定的“Tool Use”或“Function Calling”设置,才能让Continue.dev和Cline与Ollama模型协同,实现文件操作能力?
  2. Android SDK环境集成: 对于Android开发者而言,如何妥善处理Android SDK(包括Gradle构建系统、Manifest文件等)的特殊环境,确保AI能够理解并正确操作这些特定文件和配置?
  3. 具体配置建议: 关于如何实现上述目标,是否有具体的配置设置或最佳实践建议?

非常感谢大家的帮助!

补充说明: 之前曾使用Gemini辅助优化表达。

标签