Skip to content

AI人工智能、深度学习领域,2024年全网最全即插即用模块,包含各种卷积变种、最新注意力机制、特征融合模块、上下采样模块,持续更新中......

Notifications You must be signed in to change notification settings

kirass1/Plug-play-modules

 
 

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

最新更新请关注微信公众号【AI缝合术】

Plug-play-modules(即插即用模块)

2024年全网最全即插即用模块,包含各种卷积变种、最新注意力机制、特征融合模块、上下采样模块,适用于AI人工智能、深度学习、计算机视觉CV领域,适用于图像分类、目标检测、实例分割、语义分割、单目标跟踪(SOT)、多目标跟踪(MOT)、红外目标跟踪(RGBT)、图像去雨、去雾、去模糊、超分等任务,持续更新中......

论文解读

题目:Deformable ConvNets v2: More Deformable, Better Results

地址:https://arxiv.org/pdf/1811.11168

image

论文解读:可变形卷积(DCNv2),即插即用,直接替换普通卷积,助力模型涨点!增强网络特征提取能力!

题目:Wavelet Convolutions for Large Receptive Fields

地址:https://arxiv.org/pdf/2407.05848v2

image

论文解读:【ECCV 2024】大感受野的小波卷积,即插即用,显著提高CNN的有效感受野

题目:Frequency-aware Feature Fusion for Dense Image Prediction

地址:https://arxiv.org/pdf/2408.12879

image

论文解读:【TPAMI 2024】即插即用的FreqFusion特征融合模块,语义分割、目标检测、实例分割和全景分割统统涨点!

题目:Attention Is All You Need

地址:https://arxiv.org/pdf/1706.03762

image

论文解读:【被引13w+】Scaled Dot-Product Attention(缩放点积注意力),被引最高的注意力机制

题目:Agent Attention: On the Integration of Softmax and Linear Attention

地址:https://arxiv.org/pdf/2312.08874

image

论文解读:【ECCV 2024】新注意力范式——Agent Attention,整合Softmax与线性注意力

题目:FFT-based Dynamic Token Mixer for Vision

中文题目:基于FFT的动态令牌混合器在视觉中的应用

地址:https://arxiv.org/pdf/2303.03932

image

论文解读:【AAAI 2024】计算复杂度更低,基于FFT的动态滤波器模块,即插即用

题目:Efficient Multi-Scale Attention Module with Cross-Spatial Learning

中文题目:高效的跨空间学习多尺度注意力模块

地址:https://arxiv.org/pdf/2305.13563v2

image

论文解读:【ICCASSP 2023】即插即用的高效多尺度注意力EMA,战胜SE、CBAM、SA、CA等注意力

论文题目:SimAM: A Simple, Parameter-Free Attention Module for Convolutional Neural Networks 

SimAM:一种用于卷积神经网络的简单、无参数的注意力模块

论文链接:http://proceedings.mlr.press/v139/yang21o/yang21o.pdf

image

论文解读:【ICML 2021】无参数注意力模块SimAM,即插即用,不超过10行代码,有效涨点!

论文题目:Run, Don’t Walk: Chasing Higher FLOPS for Faster Neural Networks

跑起来!不要走:追求更高FLOPS以实现更快的神经网络

论文链接:https://arxiv.org/pdf/2303.03667

image

论文解读:【CVPR 2023】部分卷积(PConv),简单有效,即插即用,快速涨点

论文题目:LSKNet: A Foundation Lightweight Backbone forRemote Sensing

中文题目: LSKNet: 一种用于遥感的基础轻量级骨干网络论文

链接:https://arxiv.org/pdf/2403.11735

所属机构: 南开大学天津,湖南先进技术研发研究院长沙,深圳福田NKAIRI

关键词: 遥感,CNN骨干,大核,注意力,目标检测,语义分割

image

论文解读:【IJCV 2024】大选择核模块LSK,可当作卷积块进行替换,即插即用,极大增加感受野

论文题目:VOLO: Vision Outlooker for Visual Recognition

中文题目:  VOLO:视觉识别的视觉展望器

论文链接:https://arxiv.org/pdf/2106.13112

所属机构: Sea AI Lab和新加坡国立大学

image

论文解读:【TPAMI 2022】Outlook Attention,即插即用,捕捉细节和局部特征,助力模型涨点

论文题目:Haar wavelet downsampling: A simple but effective downsampling module for semantic segmentation

中文题目:  Haar小波下采样:一个简单但有效的语义分割下采样模块

论文链接:https://www.sciencedirect.com/science/article/pii/S0031320323005174

image

论文解读:【PR 2023】Haar小波下采样,即插即用,几行代码,简单有效提高语义分割准确性

论文题目:SCSA: Exploring the Synergistic Effects Between Spatial and Channel Attention

中文题目: SCSA: 探索空间注意力和通道注意力之间的协同效应

论文链接:https://arxiv.org/pdf/2407.05128

所属机构:浙江师范大学计算机科学与技术学院,杭州人工智能研究所,北京极客智能科技有限公司

关键词:多语义信息,语义差异,空间注意力,通道注意力,协同效应

image

论文解读:【arXiv 2024】最新!空间和通道协同注意力SCSA,即插即用,分类、检测、分割涨点!

About

AI人工智能、深度学习领域,2024年全网最全即插即用模块,包含各种卷积变种、最新注意力机制、特征融合模块、上下采样模块,持续更新中......

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • Python 100.0%