文章提出了一个名为WorkflowLLM的框架,旨在提高大语言模型(LLM)在工作流编排中的能力。为了提升LLM在这一任务中的表现,研究者构建了一个大规模的微调数据集——WorkflowBench,该数据集包含来自83个应用程序、1503个API的106,763个样本,涵盖了28个类别。
数据集的构建分为三个阶段:数据收集、查询扩展和工作流生成。在此基础上,作者使用WorkflowBench对Llama-3.1-8B模型进行了微调,得到了WorkflowLlama,表现出在工作流编排任务中优异的性能,超越了包括GPT-4o在内的多种基准模型。
此外,WorkflowLlama在面对未见过的API和任务时,展现了较强的泛化能力。该框架的优势在于,它不仅能够自动化处理复杂的工作流,还能在没有显式示例的情况下对新任务进行推理和编排。
一、Workflow LLM框架
数据收集:
- ·通过从Apple Shortcuts和RoutineHub收集真实世界的工作流数据,将其转化为Python风格的代码。每个工作流都包括相关API调用、功能描述等元数据。
- ·利用ChatGPT生成分层的思维过程,补充注释、任务计划和查询,以增强模型对任务的理解。
· 查询扩展:
- ·使用ChatGPT生成更多任务查询,以增加数据集的多样性和复杂度。这些查询基于从不同应用和API中抽样的功能生成,确保工作流能够覆盖更广泛的场景。
· 工作流生成:
- ·训练一个工作流注释模型,用于根据生成的查询自动生成工作流。通过规则过滤和质量确认,确保生成的工作流符合规范,避免逻辑错误和无关API调用。
- ·最终,将收集的高质量样本与合成数据合并,形成包含大量样本的WorkflowBench数据集。
· 模型微调:
- 基于WorkflowBench数据集,对Llama-3.1-8B进行微调,得到WorkflowLlama模型,使其能够自动生成和编排复杂的工作流。
二、结语
文章提出了WorkflowLLM框架,通过构建大规模数据集WorkflowBench并对智能体进行微调,显著提升了大语言模型在工作流编排中的能力。
论文题目: WorkflowLLM: Enhancing Workflow Orchestration Capability of Large Language Models
论文链接: https://arxiv.org/abs/2411.05451