RAD Studio 在12.3版本的Smart CodeInsight代码辅助功能中,我们可以通过配置Ollama本地大模型框架,来运行自己喜欢的开源AI大模型。并且最新版还支持配置多模型运行,并在配置的Model中,支持选择希望运行的大模型。
下面我们就来仔细的说一下。由于之前的Ollama中,我们配置Deepseek最火热的R1版本模型,而该模型是通用大模型,也就是它面向的各种问题,而不限于编程代码相关的问题。你问它各种社会问题,它也会回答自如,这是因为这个大模型的训练数据是各种知识,它的知识库也是最新的,更新最频繁的。另外,该模型的一个特色是<Think>标签,也就是它会将思考过程也同步输出。我们在RAD Studio中使用该模型时候,就会发现输出内容太多,而且很多对于编码是没有帮助的。这大大影响了编码的效率。
为了解决上面的问题,我个人推荐采用Deepseek-coder模型或更新的Deepseek-coder-V2版本的模型。该模型是专门为编码辅助训练的,支持大多数编程语言。它们的输出内容更加贴近AI代码辅助的情况,没有<Think>标签的输出,直接就是干货。目前V2版本模型是最新的,占用资源较多,16B参数的,我这边运行至少要占用10.5GB显存才可以,速度也是很感人的。而Deepseek-coder模型有稍小参数的6.7B的版本,通常的8GB显存可以运行测试起来。当然了,企业内部真实部署需要自行测算需要的计算资源,选择适合当前硬件的更大参数的版本,例如236B的,大模型的答案也能更精确和快速。
安装Ollama后,执行命令也和之前的一样,直接运行ollama run deepseek-coder-v2命令,就会自动下载并运行最新的16B参数版本。然后在RAD Studio中配置好使用AI的模型就可以了。
原文链接:https://blog.sina.com.cn/s/blog_53b391130102ysbw.html
Jason Zhu
2025/6/24