❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦


🚀 快速阅读

  • 功能:支持 Python、JavaScript、Shell 等多种编程语言。
  • 安全性:在执行代码前会请求用户确认。
  • 灵活性:支持自定义系统消息和更换语言模型。

正文(附运行示例)

Open Interpreter 是什么

Open Interpreter:AI 赋能终端!在终端中对话AI模型进行编程,通过运行代码来完成各种计算机操作任务_终端

Open Interpreter 是一个让语言模型运行代码的工具。通过一个类似 ChatGPT 的界面,用户可以在终端中与 Open Interpreter 互动,执行各种编程任务。这为用户提供了一个自然语言接口,使其能够轻松地利用计算机的通用能力。

例如,用户可以通过简单的命令来创建和编辑照片、视频、PDF 文件,控制 Chrome 浏览器进行研究,绘制、清理和分析大数据集等。

Open Interpreter 的主要功能

  • 支持多种编程语言:Open Interpreter 支持 Python、JavaScript、Shell 等多种编程语言。
  • 安全执行代码:在执行代码前,Open Interpreter 会请求用户确认,确保操作的安全性。
  • 灵活的配置选项:用户可以自定义系统消息、更换语言模型,并调整其他设置以满足特定需求。

Open Interpreter 的技术原理

  • 函数调用:Open Interpreter 使用支持函数调用的语言模型,并通过 exec() 函数执行代码。
  • 流式处理:模型的消息、代码和系统的输出会以 Markdown 格式流式传输到终端。
  • 本地模式:Open Interpreter 可以在本地环境中运行,充分利用用户的计算资源和网络连接。

如何运行 Open Interpreter

安装

首先,通过 pip 安装 Open Interpreter:

pip install open-interpreter

如果需要更多功能,可以安装可选依赖项:

  • Local Mode 依赖项:
pip install open-interpreter[local]
  • OS Mode 依赖项:
pip install open-interpreter[os]
  • Safe Mode 依赖项:
pip install open-interpreter[safe]

终端使用

安装完成后,只需在终端中运行 interpreter 即可启动交互界面:

interpreter

Python 使用

也可以在 Python 程序中使用 Open Interpreter:

from interpreter import interpreter

# 执行单个命令
interpreter.chat("Plot AAPL and META's normalized stock prices")

# 启动交互聊天
interpreter.chat()

实例代码

以下是一个简单的示例,展示如何使用 Open Interpreter 在 Python 中绘制价格图:

from interpreter import interpreter

# 绘制 AAPL 和 META 的归一化价格
interpreter.chat("Plot AAPL and META's normalized stock prices")

上述代码会启动 Open Interpreter 并执行绘图命令,生成的结果将显示在终端中。

本地模式

Open Interpreter 还支持在本地环境中运行,利用本地模型和计算资源:

终端使用

使用本地模型提供商时,可以运行以下命令:

interpreter --local

选择所需的本地模型提供商,例如 Ollama、Llamafile、Jan 或 LM Studio。如果使用其他未列出的提供商,可以通过设置 --api_base--model 参数来指定:

interpreter --api_base "http://localhost:11434" --model ollama/codestral
Python 使用

在 Python 中使用本地模型时,需要设置相关参数:

from interpreter import interpreter

interpreter.offline = True
interpreter.llm.model = "ollama/codestral"
interpreter.llm.api_base = "http://localhost:11434"

interpreter.chat("How many files are on my desktop?")

配置文件

Open Interpreter 支持使用配置文件来自定义默认行为。配置文件可以是 YAML 文件或 Python 文件:

YAML 配置文件
llm:
model: "gpt-4-o"
temperature: 0

# 计算机设置
computer:
import_computer_api: True # 给 Open Interpreter 提供有用的 Computer API 设计

# 自定义指令
custom_instructions: ""  # 将附加到系统消息

# 通用配置
auto_run: False  # 如果为 True,代码将无需确认即可运行
offline: False  # 如果为 True,将禁用一些在线功能,如检查更新

version: 0.2.5 # 配置文件版本(不要修改)
Python 配置文件
from interpreter import interpreter

interpreter.os = True
interpreter.llm.supports_vision = True

interpreter.llm.model = "gpt-4o"
interpreter.llm.supports_functions = True
interpreter.llm.context_window = 110000
interpreter.llm.max_tokens = 4096
interpreter.auto_run = True
interpreter.loop = True

安全模式

为了降低风险,Open Interpreter 提供了实验性的安全模式:

from interpreter import interpreter

interpreter.safe_mode = True

无安装使用

如果不希望在本地环境中配置,可以使用 GitHub Codespaces:

  1. 在 GitHub 页面上按 , 键创建一个代码空间。
  2. 创建后,你会得到一个预装了 Open Interpreter 的云虚拟机环境。
  3. 直接开始与 Open Interpreter 交互。

资源


❤️ 如果你也关注 AI 的发展现状,且对 AI 应用开发非常感兴趣,我会每日跟你分享最新的 AI 资讯和开源应用,也会不定期分享自己的想法和开源实例,欢迎关注我哦!

🥦 微信公众号|搜一搜:蚝油菜花 🥦