私有化部署DeepSeek打造IDEA私有化代码助手

人工智能 潘老师 1个月前 (02-06) 402 ℃ (5) 扫码查看

今天,我们围绕DeepSeek-R1大模型展开探索,看看它在实际应用场景中的表现究竟如何。这次,我们把重点放在结合JetBrains IDEA插件CodeGPT的场景应用上,并且利用腾讯云HAI服务器进行私有化部署,这样既能保障数据安全,又能让模型高效运行。话不多说,一起开启今天的探索之旅!

首先,启动我们的腾讯云HAI专属服务器,具体信息就像这样:

实例ID:hai-78nq0khx,配置是GPU基础型-16GB + 8+TFlops SP CPU -8核,内存32GB ,云硬盘200GB ,网络500GB(峰值带宽:10Mbps ),应用名称是DeepSeek-R1 ,公网IP和内网IP也都有对应的地址,地域在新加(具体IP地址就不详细写啦)。

插件安装:CodeGPT

准备工作做好后,下一步就是去官方商店下载并安装IDEA的CodeGPT插件。这个插件堪称开发“神器”,能为我们的开发环境提供智能代码辅助,帮我们提升编程效率和代码质量。在插件下载页面,按照提示一步步操作,就能轻松把它集成到IDEA环境里。

插件安装完成后,进入IDEA的设置界面。找到并点击“Settings”菜单,在设置界面中,找到“Tools”标签页,接着找到“Ollama本地模型”选项进行配置。这里要说明一下,腾讯云HAI服务器为我们提供的是Ollama版本。启动HAI服务器后,把公网IP地址和端口号6399配置好就行。需要注意,Ollama的默认端口没被使用,HAI服务器自定义配置成了6399端口,所以配置的时候一定要保证公网IP和6399端口设置正确,这样才能顺利连接并启动服务。

具体配置示例大概是这样:在“Tools > CodeGPT > Providers >Ollama (Local) Configuration”这里,Base host填写“http://公网IP:6399” ,Model选择“deepseek-r1:7b” ,Authentication API key(如果需要的话)填写认证的API密钥(会添加到“Authorization”头中作为Bearer ,这个是可选的),还可以根据需求勾选“Enable code completions”开启代码补全功能,以及选择合适的FIM模板(比如CodeQwen2.5 )。

配置完成后,私有化部署的DeepSeek-R1大模型就能发挥大作用啦!它就像一个超智能的代码助手,不管是思考编程问题,还是生成解决方案,都能给我们提供智能化支持,编程效率一下子就提高了。

我拿一段基于Spring Boot框架的Java后端服务代码来举例,看看模型的表现。这段代码里有很多注解,像@SpringBootApplication注解,它能自动处理启动类、依赖注入等基本配置,让开发和部署都变得更轻松。

在main方法里,除了配置日志,没其他特别操作,这说明程序运行时可能不会做太多额外初始化工作,除非有注解或者异常处理。代码里还有好多@Mapper注解,在不同路径映射上返回不同类型的数据,比如在“/ai”路径返回Actorfilms对象,在“/ai-EntityList”路径返回可参数化列表,这表明服务支持RESTful API,能根据不同请求返回相应数据类型。

还有@GetMapping注解的路由处理方法,像“/ai”和“/ai-EntityList”路径,会调用大模型(可能是GPT系列),根据用户输入生成不同响应,比如生成电影列表或者演员的电影列表;“/ai-stream”和“/ai streamWithParam”这些路径使用了流式处理,用chatClient.prompt().stream()生成连续响应,适合处理实时反馈或者大体积数据的场景。

另外,代码里还有自定义映射注解,像ActorFilms.class、ParameterizedTypeReference()等,说明服务支持复杂响应类型和参数化列表,能满足各种业务需求。

我在测试的时候,用的是DeepSeek-R1大模型中的7b参数版本,它已经能给编程任务提供很强大的支持了。要是有更高要求,完全可以选择更大、更高效的参数版本,这样能获得更出色的性能和更精准的编程辅助。

总结

今天的探索,让我们看到了DeepSeek-R1大模型和JetBrains IDEA插件CodeGPT结合的强大之处,特别是在腾讯云HAI服务器私有化部署的支持下,模型应用有了可靠保障。通过这种智能化代码辅助,编程效率和质量都得到了显著提升。这不仅展现了大模型在实际开发中的巨大潜力,也为未来更多场景的应用积累了宝贵经验。随着技术不断发展,相信我们还能挖掘出DeepSeek-R1大模型更多的可能性。


版权声明:本站文章,如无说明,均为本站原创,转载请注明文章来源。如有侵权,请联系博主删除。
本文链接:https://www.panziye.com/ai/13978.html
喜欢 (0)
请潘老师喝杯Coffee吧!】
分享 (0)
用户头像
发表我的评论
取消评论
表情 贴图 签到 代码

Hi,您需要填写昵称和邮箱!

  • 昵称【必填】
  • 邮箱【必填】
  • 网址【可选】

(5) 个小伙伴在畅所欲言
  1. 用户头像
    不支持代码片段补充
    kai 2025-02-10 11:21 回复
    • 潘老师
      可以试试使用Continue插件,扩展continue 配置,配置自动补全模型
      {
        "tabAutocompleteModel": {
          "title": "DeepSeek Coder",
          "provider": "deepseek",
          "model": "deepseek-coder"
        }
      }
      潘老师 2025-02-10 11:40 回复
      • 用户头像
        {  "models": [    {      "model": "claude-3-5-sonnet-latest",      "provider": "anthropic",      "apiKey": "",      "title": "Claude 3.5 Sonnet"    },    {      "model": "AUTODETECT",      "title": "Autodetect",      "provider": "ollama"    }  ],  "tabAutocompleteModel": {    "title": "DeepSeek Coder",    "provider": "deepseek",    "model": "deepseek-coder"  },我这尝试不行
        kai 2025-02-10 17:31 回复
        • 潘老师
          那就试试使用通义灵码吧,也不错
          潘老师 2025-02-10 17:46 回复
          • 用户头像
            嗯嗯,就是想看一下这个怎么自动提示代码,估计都不行,deepseek
            kai 2025-02-10 17:53