【AI大模型部署】vscode+ollama(本地部署)+twinny代码助手_ai

背景

使用cursor等软件总是遇到调用次数限制的问题,用一阵就不能再使用了。于是,就希望能够通过Ollama来使用本地部署的代码大模型。然后就找到了twinny这个vscode的插件。

twinny插件配置简单,使用方式简介,一安装就知道如何使用了,很是方便。

在vscode中安装twinny插件

在vscode中搜索插件:twinny - AI Code Completion and Chat

然后安装该插件。

插件的主页在:https://twinny.dev/

配置twinny

【AI大模型部署】vscode+ollama(本地部署)+twinny代码助手_ai_02

添加接口提供者

【AI大模型部署】vscode+ollama(本地部署)+twinny代码助手_agi_03

配置接口提供者选择ollama

twinny提供了chat,fim(fill in middle),embeding三种大模型的配置接口。都可以按自己的本地安装的ollama来配置成ollama的本地ip地址和端口。

【AI大模型部署】vscode+ollama(本地部署)+twinny代码助手_agi_04

编辑提示词模板

默认情况下twinny的提示词是英文的,我把把它修改成中文的,方便使用。

【AI大模型部署】vscode+ollama(本地部署)+twinny代码助手_语言模型_05

把默认的英文提示词,修改成:

【AI大模型部署】vscode+ollama(本地部署)+twinny代码助手_语言模型_06

注意:我这里只修改了代码解释的提示词模板。其他提示词模板,可以按这个方法来进行修改。

使用

在vscode中选中一段代码,然后点击邮件,选择Twinny Explain。就可以看到对这段代码的中文解释了。

【AI大模型部署】vscode+ollama(本地部署)+twinny代码助手_人工智能_07

小结

twinny的配置方式比较简单,用法也比较简介。通过配置本地的ollama+qwen-coder,就可以不再收到调用次数的限制了。