本文详细介绍了使用 VS2015+OpenCV+OnnxRuntime+YOLOv8进行模型 C++ 部署的方法
本文介绍 LLM 增量学习论文 SEQ*,它通过分析预训练语言模型(PLMs)在增量学习过程中发生遗忘的原因,仅对标准增强学习方法S
很多现实问题的原始特征分布都可以看作多维高斯分布,本文以数据特征服从多维高斯分布的多分类任务这一理想场景为例,从理论层面分析数据特征和分类问题难度的关系
本文介绍何凯明的经典之作MAE,它将BERT类模型的MLM自监督训练方法用到了ViT类CV模型上,通过设置大比例mask r
本文对专家系统进行简单介绍,专家系统是机器学习流行之前曾经一度流行的一种智能方法,属于符号主义流派
本文介绍 LLM agent 领域的经典方法 Reflexion,它通过引入 episodic memory 为 agent 提供长期记忆,在不微调模型的参数的同时实现了基于上下文的试错学习,性能提升显著
LLM 有能力将自然语言描述的工业场景问题建模为数学运筹优化问题,然后通过写代码调用经典求解器的方式加以解决。本文提出或微调这种领域模型
本文介绍经典的 ViT 论文,它是第一个将 Transformer 模型有效应用到较大规模 CV 任务上的工作,并且保持了 Transformer 模型本身的 Sc
本文介绍LLM-agent领域的经典方法ReAct,它将LLM的自然语言推理能力和动作生成能力结合,使其同时适用于各类NLP和控制任务,并起到1+1>2的效果
首先简介了CV领域的主流任务,然后对最重要的目标检测算法之一YOLO-V1进行了详细介绍
本文在儿童故事这个非常垂直的领域数据上训练小规模语言模型(SLM),发现其具有和 LLM 相似的性能,相关分析对于理解 LMs 的能力很有参考意义
本文通过对模型架构、预训练目标、是否多任务微调等进行大规模排列组合实验,找到了 LLM 的最佳训练方案,得到的工程结论对于我们设计实验很有帮助
Hugging face transformers 库简单介绍
本文介绍 Hugging face transformers 库中 model 组件的用法
本文介绍 Hugging Face Transformers 库中 Tokenizer 组件的基础用法
本文介绍 Hugging face Transformers 库中 Pipeline 的基础用法,它可以帮我们快速调用预训练模型完成各类任务
本节介绍卷积神经网络CNN的基本原理,包括卷积层和汇聚层
详细说明 Batch Norm / Layer Norm / RMSNorm
本文介绍梯度累加技巧及其pytorch实现。该技巧通过延迟参数更新时机,允许模型在显存容量有限时使用更大的等效batch size进行训练
介绍无约束线性MPC的问题建模,求解方法和稳定性分析
介绍模型预测的基本概念
力扣150题21~25
力扣150题11-15
力扣150题16-20
本文以自然梯度法的推导为脉络,贯穿黎曼空间、黎曼流形、黎曼度量、费舍尔信息矩阵、KL 散度和自然梯度法等概念。这是 TRPO 算法理论的重要基础
力扣150题1-5
本文介绍 LLM 训练过程中重要的经验规律 Scaling Laws,它可以指导我们如何最大化训练效率,我们还可以借助它通过小规模实验预测大模型的性能表现
本文说明重要结论:设模型参数量为 N,训练数据量(Token)为 D,LLM训练中计算量(FLOPs)C ≈ 6ND
本文介绍我基于 Openai GPT API 开发的 telegram 聊天机器人。该 bot 具有催眠聊天、图像生成、语音输入输出等多模态交互能力,代码开源
本文介绍 Pytorch 中 TensorBoard 的用法
Copyright © 2005-2025 51CTO.COM 版权所有 京ICP证060544号