2019-BiSeNetV1 CVPR论文地址:https://arxiv.org/abs/1808.00897代码地址:https://github.com/CoinCheung/BiSeNet1. 简介1.1 挑战基于轻量化网络模型的设计作为一个热门的研究方法,许多研究者都在运算量、参数量和精度之间寻找平衡,希望使用尽量少的运算量和参数量
【图像分割】2021-Swin-Unet CVPR论文题目:Swin-Unet: Unet-like Pure Transformer for Medical Image Segmentation论文链接:https://arxiv.org/abs/2105.05537论文代码:https://github.com/HuCaoFighting/Swin-Unet发表时间:2021年5月引用:Cao
文章原址 文章目录Unet论文翻译摘要1. 介绍2. 网络结构3. 训练3.1 数据扩充4. 实验5. 结论 Unet论文翻译摘要人们普遍认为深度神经网络需要大量的带标签的样本(数千个)进行训练。在本论文中,我们提出了一个网络和训练策略,更有效的利用了数据,以便更有效地使用可用的带标签的样本。我们使用数据扩张的方法(data augmentation)。由两部分组成:一个收缩路径(contract
文章原址文章目录FCN论文翻译摘要1. 介绍2. 相关工作3. 全卷积网络3.1 适用分类器用于dense pre
文章目录【语义分割】2021-PVT2 CVMJ1. 简介2. 网络2.1 总体架构2.2 Linear Spatial Reduction Attention2.3 Overlapping Patch Embedding(重叠补丁嵌入)2.4 Convolutional FeedForward3. 代码 pvt2-upernet 【语义分割】2021-PVT2 CVMJ论文题目:PVT v2:
文章目录【图像分割】2021-SegFormer NeurIPS1. 简介1.1 简介1.2 解决的问题2. 网络2.1 架构1) 总体结构2) 编码器MiT backbone3) 分层结构2.2 分层的Transformer 编码器(MiT)1) Overlap Patch Merging2) Efficient Self-Attention3) Mix-FFN2.3 轻量级MLP解码器2.4
一种。...
文章目录【语义分割】2019-CCNet ICCV1. 简介1.1 简介2. 网络2.1 整体架构2.2 CCA模块(Criss-Cross Attention Module)2.3 总结3. 代码 【语义分割】2019-CCNet ICCV论文题目:CCNet: Criss-Cross Attention for Semantic Segmentation论文链接:https://arxiv.
文章目录2020 BiSeNetV21. 简介1.1 简介1.2 结果2. 网络2.1 细节分支(DetailBranch)2.2 语义分支1) Stem Block2) Context Embedding Block3) Gather and Expansion Layer2.3 特征融合2.4 分割头3. 代码 2020 BiSeNetV2论文题目: Bilateral Network wi
之前的所总结的ViT backbone,本身并没有针对视觉中诸如分割、检测等密集预测型的任务的特定,设计合适结构。后续SERT等论文也只是简单的将VIT作为Encoder,将其提取到的单尺度特征通过一些简单的Decoder的处理,验证了transformer在语义分割任务上的效果。但是,我们知道,在语义分割任务上,多尺度的特征是非常重要的,因此在PVT中提出了一种能够提取多尺度特征的vision transformer backbone。我们知道,ViT 的设计方案中输出的特征图和输入大小基本保持一致。将其
Copyright © 2005-2024 51CTO.COM 版权所有 京ICP证060544号