名词解释
-
AI编程助手:
当前主流AI编程助手离线版本并不具备或仅简单具备编程能力,
其更多是通过调用云服务器或本地服务器部署的大语言模型来辅助开发者完成各种编程任务,
例如代码解释、代码生成、代码优化、代码片段补全等。
插件将AI模型的答复和编译器优雅的结合,方便用户更快速的完成代码开发。 -
LLMs:
大型语言模型(Large Language Models)是指具有数十亿甚至数百亿参数的深度学习模型,
并且在大规模语料库上进行预训练。这些模型可以生成自然语言文本,
并且可以用于各种自然语言处理任务,包括文本生成、文本摘要、文本分类等。 -
ollama:
Ollama 是一个专为本地机器设计的开源框架,旨在简化大型语言模型(LLM)的部署、管理和运行。
它通过整合工具链和预构建模型库,使用户无需依赖云服务或复杂配置即可在本地高效使用各类开源大模型
(如 LLaMA、Mistral 等),尤其适合隐私敏感、网络受限或需定制化模型的场景 -
成熟大语言模型:
cursor-small、claude-3.5-sonnet、claude-3.5-haiku、claude-3-opus、gpt-4o-mini、gpt-4o、o1、o1-mini、o3-mini、deepseek-v3、deepseek-r1
常用插件对比分析
- 总结:
编码助手是一个调用服务端大语言模型的用户友好编程协助工具,
笔者认为其收费核心应该在于大语言模型自身的能力,而非特定的云服务提供厂商。
基于以上原因,推荐cursor 和 continue 两个可以灵活配置不同大语言模型的协助工具,
其中cursor是独立运行的客户端,如果更习惯使用 VSCode 或 IntelliJ IDEA 进行编码,则更推荐 continue。
对于具体大语言模型的选择,不同模型有不同收费方式,国外节点有网络延迟问题,故推荐 DeepSeek 作为本地大模型选择。
企业级也可以根据自身需要可以使用 Ollama 私有化部署大语言模型。
助手名称 | 核心功能点 | 支持大模型 | 价格 | 官网 |
---|---|---|---|---|
cursor 独立客户端 |
多行编辑 智能重写 光标预测 解释代码 |
cursor-small claude-3.5-sonnet claude-3.5-haiku claude-3-opus gpt-4o-mini gpt-4o o1 o1-mini o3-mini deepseek-v3 deepseek-r1 |
价格 | 官网 |
continue | 解释代码 生成单元测试 生成注释 优化代码 代码片段补全 |
Ollama 本地部署大模型 Claude 3.5 Sonnet Llama 3.1 405B GPT-4o Grok-2 Gemini 1.5 Pro Llama 3.1 8B DeepSeek Coder 2 16B |
各api独立收费 | 官网 |
GitHub Copilot | 代码生成 测试用例生成 文档生成 |
Claude 3.5 Sonnet GPT 4o O3-mini |
价格 | 官网 |
CodeGeeX | 代码自动生成与补全 代码翻译 自动添加注释 |
CodeGeeX4-ALL-9B | 官网 | |
通义灵码 | 解释代码 生成单元测试 生成注释 优化代码 代码片段补全 |
qwen-2.5 deepseek-v3 deepseek-r1 |
价格 | 官网 |
腾讯云AI代码助手 | 代码补全 单元测试 代码审查 代码解释 |
混元大模型 | 价格 | 官网 |
豆包 MarsCode | 代码补全 单元测试 代码解释 生成注释 |
豆包大模型 | 官网 | |
文心一言 Comate | 代码生成 注释生成代码 代码解释 生成单测 生成注释 代码优化 |
文心大模型 | 价格 | 官网 |
讯飞 iFlyCode | 代码生成 代码补全 代码解释 文档注释 |
星火大模型 | 价格 | 官网 |
continue配置文件
集成线上 DeepSeek API
-
获取 DeepSeek 对应API Key 👉 DeepSeek API Key
-
continue 集成在线 DeepSeek API
-
官网配置文件(待对接)
{ "completionOptions": { "BaseCompletionOptions": { "temperature": 0.0, "maxTokens": 256 } }, "models": [ { "title": "DeepSeek", "model": "deepseek-chat", "contextLength": 128000, "apiKey": "REDACTED", "provider": "deepseek", "apiBase": "https://api.deepseek.com/beta" } ], "tabAutocompleteModel": { "title": "DeepSeek", "model": "deepseek-chat", "apiKey": "REDACTED", "provider": "deepseek", "apiBase": "https://api.deepseek.com/beta" } }
本地部署 DeepSeek API
-
Ollama离线部署LLM大语言模型 👉 deepseek-coder-v2
-
配置Ollama模型地址
👉 continue 官方配置 Ollama 大模型"models": [ { "title": "DeepSeek Coder 2 16B", "provider": "ollama", "model": "deepseek-coder-v2:16b", "apiBase": "http://localhost:11434" }, { "title": "DeepSeek Coder ollama 6.7b", "provider": "ollama", "model": "deepseek-coder:6.7b", "apiKey": "351c69317ad1a71925c9974", "apiBase": "https://coder-loongmind.cplhyun.com" } ]
-
通过已有API知识库 MaxKB 代理调用AI大模型
- 本次测试 Ollama 访问地址没有直接开放,项目上使用了 MaxKB 调用服务器上部署的大模型作为AI知识库,同时该框架提供类openai
的接口格式,相关参数格式
# 将url 和 Authorization 替换为 MaxKB 应用实际真实的 Base URL 和 API Key。 curl https://maxkb.fit2cloud.com/api/application/xxxxxxxx-8c56-11ef-a99e-0242ac140003/chat/completions \ -H "Content-Type: application/json" \ -H "Authorization: Bearer application-xxxxxxxxf00e21a7530d1177c20967" \ -d '{ "model": "gpt-3.5-turbo", "messages": [ { "role": "你是杭州飞致云信息科技有限公司旗下产品 MaxKB 知识库问答系统的智能小助手,你的工作是帮助 MaxKB 用户解答使用中遇到的问题,用户找你回答问题时,你要把主题放在 MaxKB 知识库问答系统身上。", "content": "MaxKB 是什么?" } ] }'
- 故提供商类型可选择 openai,间接访问 Ollama 大模型,配置详情如下
{ "title": "DeepSeek Coder 2 Local", "provider": "openai", "model": "deepseek-coder-v2:16b", "contextLength": 128000, "apiKey": "Bearer application-f5e44fffac10d076058856df311b3862", "apiBase": "https://loongmind.cplhyun.com/api/application/ed9f52c8-e5f3-11ef-be93-0242ac130003" },
- 本次测试 Ollama 访问地址没有直接开放,项目上使用了 MaxKB 调用服务器上部署的大模型作为AI知识库,同时该框架提供类openai
-
- 部分模型代码接入时报错404,生效模型为
qwen2.5-coder-7b-instruct
{ "title": "qwen-coder-plus", "provider": "openai", "model": "qwen-coder-plus", "contextLength": 128000, "apiKey": "sk-f2d9791a17f14710b70dc277e72e206e", "apiBase": "https://dashscope.aliyuncs.com/compatible-mode/v1" }
- 部分模型代码接入时报错404,生效模型为