今天无意中发现尹相志老师用 GPT-4o 伪代码生成绘本的演示(https://www.youtube.com/watch?v=3rb-54Q5fig),结果让我大开眼界。这
吴恩达老师开源了一套 AI Agent 翻译工作流 Translation Agent。 https://github.com/andrewyng/translation-agent/ 工作流主
LightningAI 的首席数据科学家Akshay(https://x.com/akshay_pachaar)做了六张图解释Transformer,相当清晰明了。一、Embeddings(词嵌入)词嵌入是使用一组数字对每个token(大约一个词)进行有意义的表示。这种嵌入是我们作为语言模型的输入提供的,即下面过程:原始文本 → Tokenization(标记化) → Embeddings(词嵌入
在Transformer最初被提出时,主要是为了解决传统神经机器翻译模型中存在的下面三个问题: 1、长距离依赖问题(Long-range dependency) 举个例子,在英文到中文的翻译中,句子中的主语和谓语动词可能之间相隔较远,但是需要正确地识别和翻译。 比如: “The cat that I
Copyright © 2005-2025 51CTO.COM 版权所有 京ICP证060544号