零一大模型是否抄袭llama-源码分析带你一探究竟-剪辑
公开笔记对他人可见,有机会被管理员评为“优质笔记”
{{ noteEditor.content.length }}/2000
手把手带你从0到1实现大模型agent
视频内容主要描述了一个智能Agent的结构和实现过程,涉及模块如工具封装、记忆模块、规划以及行动四个方面。此Agent能够处理用户多次输入,适用长短期记忆管理历史信息,并与大模型交互执行任务。关键在于Agent如何配置环境变量,如何整合各工具描述到prompt模板中,如何通过命令行与用户交互以及如何使用大模型提供正确响应。视频适合对智能Agent开发、自然语言处理、命令行工具和模型调用感兴趣的开发者和研究人员。
20:442141langchain源码剖析系列课程
分享内容聚焦于long圈架构及其模块功能解读,涵盖从整体架构认识到模块间依赖关系分析的全过程。具体包括利用工具生成模块关系图、深入各模块如agent、callback和chat等,解读源码,弄清楚模块功能及其相互作用。强调了call back机制在模型调用和数据收集中的作用,以及如dockload模块解析不同类型文件的流程。此外,还涉及了如何使用配置文件来控制生成的关系图深度,以适应不同的分析需求。内容适合对源码分析及系统架构有兴趣的开发者、架构师以及想深入理解复杂项目的学者。
14:192104chatglm原理介绍及源码剖析系列课程
本次分享深入探讨了chat GLM,一种大型语言模型的内部机制和技术细节。首先解析了其预训练阶段的mask处理方式,然后介绍了模型文件的配置,包括结构定义和参数预处理。分词原理的探讨揭示了特殊的分词逻辑处理,而模型结构的源码分析突出了与标准Transformer不同之处。整个讨论不仅限于静态分析,还包括动态的劳拉训练过程的解码,这有助于理解数据结构和函数调用等的转换。最后比较chat GLM与其他模型的差异,为理解和实施其他模型提供了基础,并通过补充内容解答了可能遗留的问题。本次内容为那些对深入理解NLP模型原理、结构、以及如何进行源代码分析和实现感兴趣的技术人员和研究者提供了宝贵的知识。
05:321981人人都有自己的智能体!从0到1构建本地开源大语言模型智能体原理与实现
本次分享主要介绍了智能体的工作原理及其在技术实现中的应用。智能体被比喻为一个具有手脚和感官的完整人,能够根据大脑的指令执行任务。通过本地大语言模型,结合VLLN框架,智能体能够调用工具、进行搜索、执行代码,并具备记忆功能。分享中还讨论了智能体在解决问题时的行动决策过程,以及如何通过JSON格式与工具进行交互。此外,还演示了使用搜索引擎和AI绘画工具的实例,并最终展示了智能体执行任务的完整流程。这些内容适合对人工智能、自然语言处理和智能体设计感兴趣的技术人员学习。
31:522.5万解读大语言模型,从了解token开始
大规模语言模型的工作原理基于文本中的语义单元,即token的概念,以分析和生成语言。Tokenization是将语言分割成可处理单元的过程,它在处理诸如中文或日语这类没有明确单词边界的语言时显得尤其重要。复杂的语言特征需借助规则和统计方法来识别有效token,包括字、词组、标点、数字和表情符号等。这些元素帮助模型理解和表达信息及情感。错误和歧义在token划分时也可能出现。杜家AI创作工具正是应用了这些原理来方便各类用户的创建过程。
01:306706陈涛的AI小知识:提示词概述
本期微课程介绍了人工智能大语言模型产品,如文心一言、质朗清闫和ChatGPT,它们作为AI助手,通过接收指令生成文本回复。探讨了指令的优化对提高AI输出质量的重要性,强调了指令的清晰性和明确性对于实现有效交互的关键作用。课程通过实例展示了如何构造高效指令,并建议通过特定的学习方式,比如分析实验环境中的灵感提示和阅读使用手册,来掌握更好的指令构造技巧。内容涉及AI辅助工作流程、指令优化策略,适合有志于提高AI利用效率的技术人员和爱好者学习。
08:524733爆炸爆炸,AI的效果爆了
00:1016.3万搭建私人助理大模型需要什么环境?
讲者在视频中指导如何搭建Streamlit环境,突出点在于使用Python语言进行开发,推荐使用Anaconda进行一站式环境配置,易于管理包和编辑器。强调Streamlit的安装非常简单,仅需使用pip进行安装无需复杂配置。此外,还推荐了几种集成开发环境(IDE)如PyCharm、VS Code,依据个人喜好选择。这项内容适合于已经对Python有一定了解的人群,尤其是有兴趣在数据科学和Web应用快速开发领域进步的开发人员。
01:434.8万