背景
使用cursor等软件总是遇到调用次数限制的问题,用一阵就不能再使用了。于是,就希望能够通过Ollama来使用本地部署的代码大模型。然后就找到了twinny这个vscode的插件。
twinny插件配置简单,使用方式简介,一安装就知道如何使用了,很是方便。
在vscode中安装twinny插件
在vscode中搜索插件:twinny - AI Code Completion and Chat
然后安装该插件。
插件的主页在:https://twinny.dev/
配置twinny
添加接口提供者
配置接口提供者选择ollama
twinny提供了chat,fim(fill in middle),embeding三种大模型的配置接口。都可以按自己的本地安装的ollama来配置成ollama的本地ip地址和端口。
编辑提示词模板
默认情况下twinny的提示词是英文的,我把把它修改成中文的,方便使用。
把默认的英文提示词,修改成:
注意:我这里只修改了代码解释的提示词模板。其他提示词模板,可以按这个方法来进行修改。
使用
在vscode中选中一段代码,然后点击邮件,选择Twinny Explain。就可以看到对这段代码的中文解释了。
小结
twinny的配置方式比较简单,用法也比较简介。通过配置本地的ollama+qwen-coder,就可以不再收到调用次数的限制了。