👉卫星图像-深度学习.com 👈
深度学习彻底改变了卫星和航空图像的分析和解释,解决了巨大的图像尺寸和广泛的对象类别等独特的挑战。该存储库提供了专为卫星和航空图像处理量身定制的深度学习技术的详尽概述。它涵盖了一系列适用于分类、分割和对象检测等关键任务的架构、模型和算法。
如何使用此存储库:使用Command + F
(Mac)或CTRL + F
(Windows)搜索此页面,注意搜索原始markdown文件可以更有效
该存储库由 Orboculum 自豪地赞助。Orbuculum 是一个创新且快速发展的平台,旨在通过提供独特的机器学习模型货币化途径,为 GIS 和地球观测 (EO) 研究人员提供支持。Orbuculum 与传统市场截然不同,它通过将这些模型转变为智能合约,开创了一种变革性方法。这使得每次部署模型时都会自动为创建者提供报酬,从而培育一个高效且有益的生态系统。
Orbuculum 的潜力远远超出了 GIS/EO 研究行业的重塑。它有望成为公共福利倡议的宝贵渠道,特别是那些努力减缓气候变化的倡议。通过提供对重要数据和富有洞察力的分析的访问,Orbuculum 承诺在应对一些最紧迫的全球问题的持续斗争中发挥强大的资源作用。这种尖端技术与具有社会影响力的使命的结合可以使 Orbuculum 成为科学研究和可持续发展交叉点的工具平台。
- 🖥️ Orbuculum 网站
- 📺 Orbuculum 平台演示视频
- 📺 Robin 与 Orbuculum 平台联合创始人 Derek Ding 的对话
- 🗣️ Orbuculum 不和谐
- 💻 Orbuculum Github
- 分类
- 分割
- 实例分割
- 物体检测
- 物体计数
- 回归
- 云检测和删除
- 变化检测
- 时间序列
- 作物分类
- 农作物产量
- 财富和经济活动
- 灾难应对
- 超分辨率
- 全色锐化
- 图像到图像的翻译
- 数据融合
- 生成网络
- 自动编码器、降维、图像嵌入和相似性搜索
- 图像检索
- 图像字幕
- 视觉问答
- 混合数据学习
- 少样本和零样本学习
- 自监督、无监督和对比学习
- 弱监督学习和半监督学习
- 主动学习
- 联邦学习
- 变形金刚
- 对抗性机器学习
- 图像配准
- 地形测绘、视差估计、激光雷达、DEM 和 NeRF
- 热红外
- SAR
- NDVI-植被指数
- 一般图像质量
- 综合数据
- 大视觉和语言模型(LLM 和 LVM)
- 基础模型
分类是遥感数据分析中的一项基本任务,其目标是为每幅图像分配语义标签,例如“城市”、“森林”、“农田”等。为图像分配标签的过程是称为图像级分类。然而,在某些情况下,单个图像可能包含多种不同的土地覆盖类型,例如有河流穿过的森林,或者既有住宅区又有商业区的城市。在这些情况下,图像级分类变得更加复杂,并且涉及为单个图像分配多个标签。这可以通过结合特征提取和机器学习算法来准确识别不同的土地覆盖类型来实现。需要注意的是,图像级分类不应与像素级分类(也称为语义分割)混淆。图像级分类为整个图像分配单个标签,而语义分割为图像中的每个单独像素分配一个标签,从而对图像中的土地覆盖类型进行高度详细且准确的表示。阅读神经网络卫星图像分类简介
-
使用简单的 sklearn 聚类算法或深度学习 CNN对 Sentinel 2 数据进行土地分类
-
使用 keras或FastAI对亚马逊雨林卫星照片进行多标签分类
-
EuroSat-Satellite-CNN-and-ResNet -> 使用 PyTorch 从头开始创建卷积神经网络和残差网络,对自定义图像数据集进行分类
-
Land-Cover-Classification-using-Sentinel-2-Dataset ->写得很好的 Medium 文章随附此存储库,但使用 EuroSAT 数据集
-
使用 Keras 和在加利福尼亚州萨利纳斯谷葡萄园田地捕获的多光谱数据集使用卷积神经网络对卫星图像进行土地覆盖分类
-
从卫星图像中检测森林砍伐-> 使用 FastAI 和 ResNet50,以及 repo fsdl_deforestation_detection
-
在 Python 中使用 Tensorflow 进行卫星数据分类的神经网络-> 用于二进制构建/非构建类预测的 Landsat 5 多光谱数据分类的分步指南,带存储库
-
根据 VHR(Pleiades:0.5m)和 MR(Sentinel:10m)图像上预训练的 CNN 网络绘制贫民窟地图
-
使用卫星图像和卷积神经网络比较城市环境-> 包括对为 Urban Atlas 数据集上的每个图像提取的图像嵌入特征进行有趣的研究
-
NAIP_PoolDetection -> 建模为对象识别问题,CNN 用于将图像识别为游泳池或其他物体 - 特别是街道、屋顶或草坪
-
使用 ResNet 深度学习架构进行土地利用和土地覆盖分类-> 使用 fastai 和 EuroSAT 数据集
-
WaterNet -> 识别卫星图像中水的 CNN
-
道路网络分类-> 使用 ResNet-34 的道路网络分类模型,道路类别有机、网格、放射状和无图案
-
用于土地覆盖分类的 3D-CNN 模型的实现-> 使用 Sundarbans 数据集和repo
-
SSTN -> 用于高光谱图像分类的光谱空间变换网络:FAS 框架
-
SatellitePollutionCNN -> 一种使用深度学习和 GoogleMaps 卫星图像以最先进的精度预测空气污染水平的新颖算法
-
PropertyClassification -> 对给定的房地产、卫星和街景图像的财产类型进行分类
-
Remote-Sense-quickstart -> 对多个数据集进行分类,包括注意力可视化
-
satsense -> 使用经典特征(包括 HoG 和 NDVI)进行土地利用/覆盖分类
-
landcover_classification -> 在 EuroSAT 上使用 fast.ai
-
IGARSS2020_BWMS -> 用于遥感图像场景分类的带状多尺度 CNN 架构,采用新颖的 CNN 架构进行高维 RS 图像的特征嵌入
-
image.classification.on.EuroSAT -> 纯 pytorch 中的解决方案
-
hurricane_damage -> 基于航空图像的飓风后结构损坏评估
-
openai-drivendata-challenge -> 使用深度学习对屋顶的建筑材料进行分类(来自南美洲的航拍图像)
-
is-it-abandoned -> 我们能否根据航空激光雷达图像判断房屋是否被遗弃?
-
BoulderAreaDetector -> CNN 来分类卫星图像显示的某个区域是否是一个好的攀岩点
-
ISPRS_S2FL -> 具有共享和特定特征学习模型的土地覆盖分类多模态遥感基准数据集
-
Brazil-Coffee-Detection -> 使用 Keras 和公共数据集
-
tf-crash-severity -> 预测卫星图像中包含的给定道路特征的碰撞严重程度
-
ensemble_LCLU -> 用于遥感土地覆盖和土地利用分类的深度神经网络集成
-
cerraNet -> 根据上下文对巴西塞拉多的使用类型和覆盖范围进行分类
-
使用卫星图像进行城市分析-> 使用分割和分类的组合将城市区域分类为规划或未规划
-
ChipClassification -> 对 PlanetScope 和 Sentinel-2 图像中的云、阴影和土地覆盖场景进行多模态分类的深度学习
-
DeeplearningClassficationLandsat-tImages -> 使用大规模中分辨率 Landsat 卫星图像进行水/冰/土地分类
-
wildfire-detection-from-satellite-images-ml -> 检测图像是否包含野火,例如 Flask Web 应用程序
-
深度学习的采矿发现-> 使用深度学习在卫星图像中检测采矿和尾矿坝
-
电农平台-> 作物类型分类
-
Sentinel2-deep-learning -> Sentinel-2 图像土地分类的新颖训练方法
-
RSSC-transfer -> 预训练在高分辨率遥感场景分类中的作用
-
对地理参考照片和卫星图像进行分类以支持地形分类-> 检测洪水
-
多加注意-> 基于增强型注意模块的遥感图像场景分类
-
DenseNet40-for-HRRSISC -> 用于遥感图像场景分类的 DenseNet40,使用 UC Merced 数据集
-
SKAL -> 近距离观察场景:遥感图像场景分类的多尺度表示学习
-
potsdam-tensorflow-practice -> 使用tensorflow对Potsdam数据集进行图像分类
-
SAFF -> 基于自注意力的深度特征融合遥感场景分类
-
GLNET -> 基于卷积神经网络的晴天和阴天环境下遥感场景分类
-
遥感图像分类->使用pytorch进行迁移学习将遥感数据分为三类:飞机、船舶、无
-
Remote_sensing_pretrained_models -> 作为在 ImageNet 上预训练的模型进行微调的替代方案,这里一些 CNN 在 RSD46-WHU 和 AID 数据集上进行了预训练
-
CNN_AircraftDetection -> 使用 keras 在卫星图像中进行飞机检测的 CNN
-
OBIC-GCN -> 基于对象的图卷积网络遥感图像分类框架
-
aitlas-arena -> 一个开源基准框架,用于评估地球观测 (EO) 中图像分类的最先进深度学习方法
-
干旱观察-> 基于卫星的肯尼亚北部牲畜饲料状况预测
-
JSTARS_2020_DPN-HRA -> 用于高光谱图像分类的具有混合残差注意力的深度原型网络
-
SIGNA -> 用于多标签遥感图像分类的语义交错全局通道注意
-
使用 rmldnn 和 Sentinel 2 数据进行卫星图像分类
-
PBDL -> 基于块的遥感场景分类判别学习
-
EmergencyNet -> 通过无人机识别火灾和其他紧急情况
-
卫星砍伐森林-> 使用卫星图像识别森林砍伐的领先指标,应用于 Kaggle 挑战赛“从太空了解亚马逊”
-
RSMLC -> 深度网络架构作为遥感图像多标签分类的特征提取器
-
FireRisk -> 使用监督和自监督学习进行火灾风险评估的遥感数据集和基准
-
洪水_susceptibility_mapping -> 在德国柏林使用数据驱动模型绘制城市洪水敏感性图
-
tick-tick-bloom -> Tick Tick Bloom:有害藻华检测挑战赛的获奖者。任务是预测藻华的严重程度,获胜者使用决策树
-
使用计算机视觉从卫星图像估计燃煤电厂的运行情况-> 使用 Sentinel 2 数据通过数据集和存储库来识别燃煤电厂是否开启或关闭
-
建筑物检测和屋顶类型识别-> 基于 CNN 的使用单幅航拍图像自动建筑物检测和屋顶类型识别的方法
-
土地利用分类多光谱通道的性能比较-> 在 RGB 和 EuroSAT 数据集的多光谱版本上实现了 ResNet-50、ResNet-101、ResNet-152、Vision Transformer。
-
SNN4Space -> 研究在土地覆盖和土地利用分类任务中部署尖峰神经网络 (SNN) 的可行性的项目
图像分割是图像分析和计算机视觉中的关键步骤,其目标是将图像划分为语义上有意义的片段或区域。图像分割过程为图像中的每个像素分配一个类标签,从而有效地将图像从 2D 像素网格转换为具有指定类标签的 2D 像素网格。图像分割的一种常见应用是道路或建筑物分割,其目标是识别道路和建筑物并将其与图像中的其他特征分开。为了完成此任务,通常训练单类模型来区分道路和背景,或建筑物和背景。这些模型旨在识别道路或建筑物特征的特定特征,例如颜色、纹理和形状,并使用此信息为图像中的像素分配类标签。图像分割的另一个常见应用是土地利用或作物类型分类,其目标是识别和绘制图像中不同的土地覆盖类型。在这种情况下,多类模型通常用于识别和区分图像中的多个类,例如森林、城市地区和农田。这些模型能够识别不同土地覆盖类型之间的复杂关系,从而可以更全面地理解图像内容。阅读使用神经网络进行卫星图像分割的简要介绍。请注意,许多提到“高光谱土地分类”的文章实际上通常是在描述语义分割。图片来源
-
用于不平衡航空图像语义分割的 U-Net -> 使用迪拜数据集
-
nga-deep-learning -> 使用 NASA 研究人员发布的修改后的 U-Net 和 Keras 对高质量 GeoTIF 数据执行语义分割
-
SpectralNET -> 用于高光谱图像分类的 2D 小波 CNN,使用 Salinas 场景数据集和 Keras
-
laika -> 该存储库的目标是研究卫星图像数据的潜在来源并实现卫星图像分割的各种算法
-
PEARL -> 一种人机交互 AI 工具,可大大减少生成准确的土地利用/土地覆盖 (LULC) 地图所需的时间,博客文章,使用 Microsoft Planetary Computer 和在浏览器中本地运行的 ML 模型。后端和前端代码
-
使用 U-Net 进行土地覆盖分类-> 使用 PyTorch 进行卫星图像多类语义分割任务 U-Net 的实现,使用 DeepGlobe 土地覆盖分割数据集,带有代码
-
使用 DSTL 数据集、tensorflow 1 和 python 2.7使用 U-Net 对卫星图像进行多类语义分割。随附文章
-
使用 Keras 使用U-Net 进行多类土地覆盖分类的代码库并附有硕士学位论文
-
dubai-satellite-imagery-segmentation -> 由于数据集较小,使用了图像增强
-
CDL-分割-> 基于深度学习的土地覆盖和作物类型分类:比较研究。比较 UNet、SegNet 和 DeepLabv3+
-
LoveDA -> 用于域自适应语义分割的遥感土地覆盖数据集
-
使用 CNN 进行卫星图像语义分割-> 7 个不同的分割类别,DeepGlobe 土地覆盖分类挑战数据集,带存储库
-
UNet-Satellite-Image-Segmentation -> 轻型 UNet 语义分割框架的 Tensorflow 实现
-
使用 PyTorch-Satellite-Imagery 进行语义分割-> 预测用于评估飓风哈维后损失的 RGB 图像的 25 个类别
-
使用 Sentinel-2 图像进行语义分割-> 使用 LandCoverNet 数据集和 fast.ai
-
CNN_Enhanced_GCN -> 用于高光谱图像分类的像素级和超像素级特征融合的 CNN 增强图卷积网络
-
LULCMapping-WV3images-CORINE-DLMethods -> 使用基于深度学习的分割方法和 VHR Worldview-3 图像绘制土地利用和土地覆盖图
-
MCANet -> 用于土地利用分类的光学和 SAR 图像联合语义分割框架。使用WHU-OPT-SAR 数据集
-
土地覆盖-> 土地覆盖制图深度学习应用中的模型泛化
-
genericizedrsc -> 可泛化土地利用场景分类的跨数据集学习
-
Large-scale-Automatic-Identification-of-Urban-Vacant-Land -> 基于高分辨率遥感影像语义分割的大规模城市空置土地自动识别
-
SSLTransformerRS -> 用于土地覆盖分割和分类的自监督视觉转换器
-
aerial-tile-segmentation -> 使用 Tensorflow 2.0 和 ISPRS 基准数据集将大型卫星图像语义分割为 6 类
-
LULCMapping-WV3images-CORINE-DLMethods -> 使用基于深度学习的分割方法和 VHR Worldview-3 图像绘制土地利用和土地覆盖图
-
DCSA-Net -> VHR 遥感图像中土地覆盖分类的动态卷积自注意力网络
-
CHeGCN-CNN_enhanced_Heterogeneous_Graph -> CNN 增强型异构图卷积网络:通过公园分割案例研究从土地覆盖推断土地利用
-
TCSVT_2022_DGSSC -> DGSSC:用于不平衡高光谱图像的深度生成光谱空间分类器
-
DeepForest-Wetland-Paper -> 结合 Sentinel-1 和 Sentinel-2 数据、GIScience 和遥感进行湿地绘图的深层森林分类器
-
Wetland_UNet -> UNet 模型,可以使用遥感数据输入(包括来自 Sentinel-2 LiDAR 和地貌的波段)来描绘湿地。切萨皮克保护区保护创新中心和野生动物保护者协会
-
DPA -> DPA 是一种无监督域适应 (UDA) 方法,应用于不同的卫星图像以进行大尺度土地覆盖测绘。
-
动态世界-> 动态世界,近实时全球 10 m 土地利用土地覆盖测绘
-
spada -> 使用 Sentinel-2 图像的稀疏注释进行土地覆盖分割
-
M3SPADA -> 具有空间伪标记和对抗性学习的土地覆盖测绘多传感器时间无监督域适应
-
GLNet -> 用于超高分辨率图像的内存高效分割的协作全局局部网络
-
LoveNAS -> LoveNAS:通过分层搜索自适应网络实现多场景土地覆盖绘图
请注意,森林砍伐检测可以被视为分割任务或变化检测任务
-
Сrор 场边界检测:方法和主要挑战-> 中等文章,涵盖历史和现代方法
-
kenya-crop-mask -> 肯尼亚的年度和当季作物地图 - LSTM 分类器将像素分类为包含作物或不包含作物,以及多光谱预报器,在给定部分输入的情况下提供 12 个月的时间序列。从GEE和pytorch Lightning下载的数据集用于训练
-
那里长着什么?使用 eo-learn从多光谱遥感数据 (Sentinel 2) 中识别作物,进行数据预处理、云检测、NDVI 计算、图像增强和 fastai
-
作物类型分类-> 将 Sentinel 1 和 2 数据与 U-Net + LSTM 结合使用,更多特征(即波段)和更高分辨率产生更好的结果(文章,无代码)
-
DeepSatModels -> 用于作物类型语义分割的上下文自对比预训练
-
farm-pin-crop-detection-challenge -> 使用 eo-learn 和 fastai 从多光谱遥感数据中识别农作物
-
从 Sentinel-2 卫星图像检测农业农田-> 我们开发了 UNet-Agri,这是一种基准机器学习模型,可使用 10m 空间分辨率的开放获取 Sentinel-2 图像对农田进行分类
-
DeepTreeAttention -> Hang 等人的实现 2020年“使用注意力辅助CNN的高光谱图像分类”用于树种预测
-
作物分类-> 使用多时态卫星图像进行作物分类
-
ParcelDelineation -> 在 keras 中使用法国多边形数据集和unet
-
Crop-mask -> 用于生成高分辨率农田地图的端到端工作流程,使用 GEE 和 LSTM 模型
-
DeepCropMapping -> 一种多时态深度学习方法,使用 LSTM 改进动态玉米和大豆绘图的空间泛化性
-
ResUnet-a -> 遥感数据语义分割的深度学习框架
-
DSD_paper_2020 -> 基于多时相 Sentinel-1 数据机器学习的作物类型分类
-
MR-DNN -> 从 Landsat 8 卫星图像中提取稻田
-
deep_learning_forest_monitoring -> 使用 Sentinel-2 数据和深度学习对非洲大陆进行森林测绘和监测
-
global-cropland-mapping -> 全球多时相农田制图
-
UNet-RemoteSensing -> 使用 Landsat 和 keras 的 7 个频段
-
Landuse_DL -> 描绘由于富含冰的永久冻土融化而形成的地貌
-
树冠-> 卷积神经网络分类器从高光谱图像中识别混合针叶林中的树种
-
随机森林分类-> 使用固定翼无人机获取泥炭地植被群落的多传感器数据
-
Forest_change_detection -> 具有时间相关模型的森林变化分割,包括 Siamese、UNet-LSTM、UNet-diff、UNet3D 模型
-
cultionet -> 耕地分割,基于 PyTorch Geometric 和 PyTorch Lightning 构建
-
Sentinel-tree-cover -> 一种利用中分辨率卫星图像识别封闭冠层森林外树木的全球方法
-
作物类型检测-ICLR-2020 -> ICLR 2020 CV4A 研讨会作物类型检测竞赛获奖解决方案
-
使用卫星图像进行作物识别-> 中等文章,作物识别简介
-
S4A-Models -> Sen4AgriNet 数据集上的各种实验
-
注意力机制-unet -> 基于注意力的 U-Net,用于检测卫星传感器图像中的森林砍伐
-
Cocoa_plantations_detection -> 使用 KNN、SVM、随机森林和 MLP 使用 Sentinel-2 遥感数据检测科特迪瓦的可可种植园
-
SummerCrop_Deeplearning -> 农田生态系统中农作物的可迁移学习分类模型和碳汇估算
-
DeepForest是一个 Python 包,用于根据机载 RGB 图像训练和预测单个树冠
-
使用卫星图像计数树木-> 创建传入和传出树木的清单以进行年度树木检查,使用 keras 和语义分割
-
2020 年《自然》论文 - 西非撒哈拉和萨赫勒地区的树木数量出人意料地多-> 基于 U-Net 和 tensorflow 2 的树木检测框架,代码见此处
-
TreeDetection -> 基于颜色的分类器,用于检测 google 图像数据中的树木,以及通过 OpenCV 进行树木视觉定位和树冠大小计算
-
PTDM -> 基于注意力机制和跨层特征融合的柚子树检测方法
-
Urban-Tree-Detection -> 使用高分辨率多光谱图像进行大规模城市环境中的单棵树检测。带数据集
-
BioMassters_baseline -> 使用 UNet 的基本 pytorch 闪电基线,用于开始BioMassers 挑战(生物量估计)
-
Biomasters 获奖者-> 前 3 名解决方案
-
kbrodt 生物质能解决方案-> 第一名解决方案
-
生物量估计-> 来自 Azavea,应用于 Sentinel 1 和 2
-
3DUNetGSFormer -> 使用生成对抗网络和 Swin 变压器进行复杂湿地测绘的深度学习管道
-
SEANet_torch -> 使用语义边缘感知多任务神经网络从遥感图像中描绘农业地块
-
arborizer -> 树冠分割和分类
-
再利用-> 用于碳储存和地上生物量估算的回归 Unet
-
unet-sentinel -> UNet 处理 Sentinel-1 SAR 图像以识别森林砍伐
-
MaskedSST -> 用于高光谱图像分类的 Masked Vision Transformer
-
UNet-defmapping -> 使用 UNet 绘制森林砍伐地图的硕士论文,使用 Sentinel-2 2A 级图像,应用于亚马逊和大西洋雨林数据集
-
cvpr-multiearth-deforestation-segmentation -> 多模式 Unet 参与 CVPR Multiearth 2023 毁林挑战
-
监督小麦分类使用 pytorchs-torchgeo -> 使用 torchgeo 监督小麦分类
-
TransUNetplus2 -> TransU-Net++:重新思考用于森林砍伐绘图的注意力门控 TransU-Net。使用亚马逊和大西洋森林数据集
-
地球高分辨率冠层高度模型-> 地球高分辨率冠层高度模型
-
pytorch-waterbody-segmentation -> 在 Kaggle 的水体卫星图像数据集上训练的 UNET 模型。该模型部署在 Hugging Face Spaces 上
-
使用 UNET 和 Resnet-34 作为主干的洪水检测和分析使用 fastai
-
Houston_flooding -> 使用飓风哈维的数据将每个像素标记为被淹没或未淹没。数据集由洪水前后图像组成,并使用图像像素的无监督聚类(使用 DBScan)和人工聚类验证/调整来创建地面实况洪水掩模
-
ml4floods -> 一个由数据、模型和代码管道组成的生态系统,用于通过 ML 解决洪水问题
-
ETCI 洪水检测竞赛入门综合指南-> 使用 Sentinel1 SAR 和 pytorch
-
使用 SageMaker 绘制 SAR 图像的洪水图-> 应用于 Sentinel-1 数据集
-
STAC 溢出解决方案第一名:由 Microsoft AI for Earth 托管的雷达图像绘制洪水地图-> 将 Unet 与 Catboostclassifier 结合起来,取最大值,而不是平均值
-
Hydra-Floods -> 一个开源 Python 应用程序,用于下载、处理和提供从遥感数据导出的地表水图
-
Satellite_Flood_Segmentation_of_Harvey -> 探索深度学习和传统的 kmeans
-
ETCI-2021-洪水检测竞赛-> 使用循环伪标记和噪声学生训练对 Sentinel-1 SAR 图像进行洪水分割的实验
-
FDSI -> 卫星图像中的洪水检测 - 2017 年多媒体卫星任务
-
deepwatermap -> 在多光谱图像上分割水的深度模型
-
rivamap -> 自动化河流分析和绘图引擎
-
深水-> 跟踪水位变化
-
floatobjects -> 使用 SENTINEL 学习空间特征,在全球范围内检测浮动物体 2. 使用 U-Net 和 pytorch
-
SpaceNet8 -> 用于检测被淹没的道路和建筑物的基线 Unet 解决方案
-
dlsim -> 通过模拟和深度学习突破洪水和泥石流测绘遥感的限制
-
Water-HRNet -> 在 Sentinel 2 上训练的 HRNet
-
使用切萨皮克保护区提供的 NAIP 图像识别新开发或被淹没的土地的语义分割模型,在 MS Azure 上进行训练
-
BandNet -> 使用机器学习进行水分割的多光谱数据分析和应用。使用 Sentinel-2 数据
-
mmflood -> MMFlood:卫星图像洪水描绘的多模态数据集 (Sentinel 1 SAR)
-
Urban_flooding -> 建立可转移的数据驱动模型来预测德国柏林的城市洪水洪水深度
-
Flood-Mapping-Using-Satellite-Images -> 硕士论文比较随机森林和 Unet
-
SatelliteVu-AWS-Disaster-Response-Hackathon -> 使用经典 ML 和深度学习预测火势蔓延
-
使用在 Databricks 和 Keras 上训练的 U-Net进行野火检测,语义分割
-
AI 地理空间野火风险预测-> 使用地理空间栅格数据的预测模型,利用 Unet 评估美国本土的野火危险潜力
-
IndustrialSmokePlumeDetection -> 使用 Sentinel-2 和修改后的 ResNet-50
-
烧毁区域检测-> 使用 Sentinel-2
-
救援-> 关注火灾:用于野火严重程度预测的多通道深度学习模型
-
Smoke_segmentation -> 根据 GOES 图像分割烟羽并预测密度
-
野火检测-> 使用 Vision Transformers 增强卫星图像中的野火检测
-
Burned_Area_Detection -> 使用 Sentinel-2 数据检测烧毁区域
-
burn-area-baseline -> 卫星烧毁区域数据集附带的基线unet模型(哨兵1和2)
-
burn-area-seg -> 使用多任务学习从 Sentinel-2 进行烧伤区域分割
-
chabud2023 -> 烧毁区域划分 (ChaBuD) ECML/PKDD 2023 挑战的变更检测
-
使用 Siamese-UNet 进行野火烧毁后检测-> 在 Chadbud 数据集上
-
landslide-sar-unet -> 使用合成孔径雷达 (SAR) 数据立方体进行深度学习快速山体滑坡检测
-
landslide-mapping-with-cnn -> 使用广义卷积神经网络绘制滑坡地图的新策略
-
Relict_landslides_CNN_kmeans -> 结合 k-means 聚类算法和深度学习语义分割模型进行雨林地区遗迹滑坡检测
-
Landslide-mapping-on-SAR-data-by-Attention-U-Net -> 通过 Attention U-net 在 SAR 数据上快速绘制滑坡地图
-
SAR-landslide-detection-pretraining -> 基于 SAR 的山体滑坡分类预训练可实现更好的分割
-
HED-UNet -> 同步语义分割和边缘检测的模型,提供的示例是使用 Inria 航空图像标签数据集的冰川前缘和建筑物足迹
-
glacier_mapping -> 绘制兴都库什喜马拉雅冰川的地图,Landsat 7 图像,冰川的 Shapefile 标签,带有 dropout 的 Unet
-
glacier-detect-ML -> 一个简单的逻辑回归模型,用于识别 Landsat 卫星图像中的冰川
-
南极裂缝检测-> 使用 UNet 和南极洲 MODIS Mosaic 来检测地表裂缝
-
检测露天垃圾填埋场-> 使用 Sentinel-2 检测标准化燃烧率 (NBR) 的大幅变化
-
sea_ice_remote_sensing -> 海冰浓度分类
-
高光谱影像甲烷检测-> 低空高光谱影像甲烷检测的深度遥感方法
-
EddyNet -> 用于海洋涡流像素级分类的深度神经网络
-
血吸虫植被-> 卫星图像的深度学习分割识别出与非洲塞内加尔血吸虫病蜗牛中间宿主相关的水生植被
-
Earthformer -> 探索用于地球系统预测的时空变换器
-
Weather4cast-2022 -> Weather4cast 雨电影预测竞赛的 Unet-3D 基线模型
-
WeatherFusionNet -> 根据卫星数据预测降水。Weather4cast-2022 第一名解决方案
-
MarineDebrisDetector -> 使用 Sentinel-2 大规模检测沿海地区海洋垃圾
-
kaggle-identify-contrails-4th -> 第四名解决方案,Google 研究 - 识别凝结尾迹以减少全球变暖
-
MineSegSAT -> 一种根据 Sentinel-2 图像评估采矿干扰区域范围的自动化系统
由于其他物体的遮挡以及复杂的交通环境,提取道路具有挑战性
-
使用语义分割进行道路检测,并使用马萨诸塞州道路数据集、U-net 和 Keras 进行数据增强。有代码
-
ML_EPFL_Project_2 -> Pytorch 中的 U-Net 对卫星图像进行道路语义分割
-
使用 U-net Keras 进行道路语义分割、OSM 数据、学生的项目摘要文章,无代码
-
RoadVecNet -> keras 中的道路网络分段和矢量化与数据集
-
Awesome-deep-map -> 专门用于深度学习/计算机视觉映射算法的精选资源列表。测绘问题包括道路网络推断、建筑物足迹提取等。
-
RoadTracer:从航空图像中自动提取道路网络-> 使用基于 CNN 的决策函数引导的迭代搜索过程,直接从 CNN 的输出导出道路网络图
-
road_detection_mtl -> 使用多任务学习技术的道路检测,通过结合先验知识约束来提高道路检测任务的性能,使用 SpaceNet 道路数据集
-
road_connectivity -> 通过方向和分段联合学习改进道路连通性 (CVPR2019)
-
使用经典图像处理进行道路网络提取-> 模糊和精明的边缘检测
-
SPIN_RoadMapper -> 通过空间和交互空间图推理从航拍图像中提取道路以实现自动驾驶
-
road_extraction_remote_sensing -> pytorch 实现,CVPR2018 DeepGlobe 道路提取挑战赛提交。另请参阅DeepGlobe-Road-Extraction-Challenge
-
CoANet -> 用于从卫星图像中提取道路的连接注意网络。CoA 模块包含图形信息,以确保更好地保留道路的连通性
-
卫星图像道路分割-> 使用 kaggle马萨诸塞州道路数据集在 Medium 上发表介绍文章
-
Label-Pixels -> 用于道路和其他特征的语义分割
-
卫星图像道路提取-> 通过深度残差 U-Net 进行道路提取
-
road_building_extraction -> 用于道路和建筑物提取的 U-Net 架构的 Pytorch 实现
-
RCFSNet -> 通过道路上下文和全阶段特征从卫星图像中提取道路
-
SGCN -> 用于从高分辨率遥感图像复杂环境中提取道路的分割深度可分离图卷积网络
-
ASPN -> 使用对抗性空间金字塔网络进行遥感图像的道路分割
-
FCNs-for-road-extraction-keras -> 基于各种语义分割网络的高分辨率遥感图像道路提取
-
cresi -> 从卫星图像中提取道路网络,并估计速度和旅行时间
-
D-LinkNet -> LinkNet 具有预训练编码器和扩张卷积,用于高分辨率卫星图像道路提取
-
Sat2Graph -> 通过图张量编码提取道路图
-
图像分割) -> 使用马萨诸塞州道路数据集和 fast.ai
-
RoadTracer-M -> 使用基于 CNN 的分割和跟踪从卫星图像中提取道路网络
-
ScRoadExtractor -> 基于 Scribble 的弱监督深度学习从遥感图像中提取路面
-
RoadDA -> 用于遥感图像道路分割的对抗性自训练的阶段式无监督域适应
-
DeepSegmentor -> DeepCrack 和 RoadNet 项目的 Pytorch 实现
-
NL-LinkNet -> 通过非本地操作实现更轻但更准确的道路提取
-
IRSR-net -> 轻量级遥感道路检测网络
-
hironex -> 一个Python工具,用于从历史地图中自动、完全无监督地提取历史道路网络
-
Road_detection_model -> 使用人工智能和 Sentinel-2 绘制巴西亚马逊地区的道路
-
DTnet -> 基于跨层图融合模块的双任务网络道路检测
-
使用深度学习技术从历史地图中自动提取道路-> 使用深度学习技术从历史地图中自动提取道路
-
Istanbul_Dataset -> 伊斯坦布尔、Inria 和马萨诸塞州数据集的分段
-
道路分割-> 使用 CNN(U-Nets 和 FCN8)和逻辑回归对卫星图像进行道路分割
-
D-LinkNet -> DeepGlobe 道路提取挑战赛第一名解决方案
-
PaRK-Detect -> PaRK-Detect:通过分片关键点检测实现高效的多任务卫星图像道路提取
-
tile2net -> 绘制步行图:一种可扩展的计算机视觉方法,用于从航空图像生成人行道网络数据集
-
AerialLaneNet -> Building Lane-Level Maps from Aerial Images,介绍了 AErial Lane (AEL) 数据集:第一个用于车道检测的大型航空图像数据集
-
卫星图像中的道路和建筑语义分割在马萨诸塞州道路数据集和 keras 上使用 U-Net
-
SRBuildSeg -> 让低分辨率卫星图像重生:超分辨率建筑物提取的深度学习方法
-
使用 U-Net 和 fastai在具有挑战性的 SpaceNet7 数据集上使用 fastai 构建足迹检测
-
Pix2Pix-for-Semantic-Segmentation-of-Satellite-Images -> 使用 Pix2Pix GAN 网络从卫星图像中分割建筑物足迹,使用张量流
-
SpaceNetUnet -> 基线模型类似于 U-net,应用于 SpaceNet Vegas 数据,使用 Keras
-
自动建筑物检测-> 输入:极高分辨率(<= 0.5 m/像素)RGB 卫星图像。输出:矢量格式(geojson)的建筑物,用于数字地图产品。构建于 robosat 和 robosat.pink 之上。
-
project_sunroof_india -> 分析谷歌卫星图像以生成有关各个房屋屋顶太阳能潜力的报告,使用一系列经典计算机视觉技术(例如 Canny 边缘检测)来分割屋顶
-
nz_convnet -> 基于 U-net 的 ConvNet,用于新西兰图像对建筑物轮廓进行分类
-
polycnn -> 用于遥感图像分类的多边形的端到端学习
-
motokimura使用 Unet的spacenet_building_detection解决方案
-
Vec2Instance -> 应用于 SpaceNet 挑战 AOI 2 (Vegas) 建筑足迹数据集,tensorflow v1.12
-
EarthquakeDamageDetection -> 使用 Keras 从卫星图像中进行建筑物分割并为每个建筑物进行损坏分类
-
fuweifu-vtoo 的语义分割存储库-> 使用 pytorch 和马萨诸塞州建筑和道路数据集
-
TF-SegNet -> AirNet 是基于 SegNet 的分割网络,但进行了一些修改
-
rgb-footprint-extract -> 使用 RGB 卫星图像、带有 Dilated ResNet C42 主干的 DeepLavV3+ 模块进行城市规模建筑足迹提取的语义分割网络
-
SpaceNetExploration -> 一个示例项目,演示如何使用语义分割模型从卫星图像中提取建筑物足迹。来自 SpaceNet 挑战赛的数据
-
Rooftop-Instance-Segmentation -> VGG-16,实例分割,使用 Airs 数据集
-
Solar-farms-mapping -> 印度太阳能位置的人工智能数据集
-
家禽-cafos -> 该存储库包含用于从高分辨率航空图像检测家禽谷仓的代码以及美国预测谷仓的随附数据集
-
ssai-cnn -> 这是 Volodymyr Mnih 在马萨诸塞州道路和建筑数据集上的论文方法的实现
-
Segmentation-Enhanced-resunet -> 使用修改残差 U-Net (Modified ResUnet) 并应用后处理提取大田地区的城市建筑
-
GRSL_BFE_MA -> 使用新颖的损失函数进行基于深度学习的带有缺失注释的建筑足迹提取
-
FER-CNN -> 使用更快的边缘区域卷积神经网络对卫星图像中的建筑物进行检测、分类和边界正则化
-
UNET-Image-Segmentation-Satellite-Picture -> Unet 在 Crowed AI Mapping 数据集上预测屋顶,使用 keras
-
使用深度学习 GeoSpatial-UNET 从航空图像生成矢量地图-> 应用于尺寸非常大的地理参考图像 > 10k x 10k 像素
-
Building-footprint-segmentation -> pip 可安装库,用于训练卫星和航空图像上的建筑足迹分割,应用于马萨诸塞州建筑数据集和 Inria 航空图像标签数据集
-
SemSegBuildings -> 使用 fast.ai 框架在 Inria 建筑分割数据集上进行语义分割的项目
-
FCNN-example -> 过拟合给定的单个图像来检测房屋
-
SAT2LOD2 -> 一款基于 Python 的开源 GUI 软件,它将卫星图像作为输入,并返回 LoD2 建筑模型作为输出
-
SatFootprint -> 在 Spacenet 7 数据集上构建分割
-
建筑物检测-> 光栅视觉实验,用于训练模型以从拉丁美洲三个城市的卫星图像中检测建筑物
-
多建筑物跟踪器-> 使用深度学习的卫星图像多目标建筑物跟踪器
-
LGPNet-BCD -> 通过局部-全局金字塔网络和跨任务迁移学习策略构建 VHR 遥感图像变化检测
-
MTL_homoscedastic_SRB -> 用于构建足迹分割的多任务深度学习框架
-
UNet_CNN -> UNet 模型使用遥感数据分割波士顿的建筑物覆盖范围,使用 keras
-
FDANet -> 超高分辨率光学遥感图像中建筑物提取的全级域适应
-
CBRNet -> 用于从遥感图像中提取建筑物的从粗到细的边界细化网络
-
ASLNet -> VHR 遥感图像中建筑物提取的对抗性形状学习
-
BRRNet -> 用于从高分辨率遥感图像中自动提取建筑物的全卷积神经网络
-
多尺度过滤建筑物索引-> 用于甚高分辨率卫星图像中建筑物提取的多尺度过滤建筑物索引
-
遥感模型-> 应用于建筑物检测的一长串 unets 等
-
boundary_loss_for_remote_sensing -> 遥感图像语义分割的边界损失
-
开放城市人工智能挑战-> 分割建筑物以提高抗灾能力。Github 上的获胜解决方案
-
MAPNet -> 用于从遥感图像中构建足迹提取的多参与路径神经网络
-
双 hrnet -> 定位建筑物并对其损坏程度进行分类
-
ESFNet -> 用于从高分辨率航空图像中构建提取的高效网络
-
Rooftop-Detection-Python -> 从低分辨率卫星图像中检测屋顶,并使用经典计算机视觉技术计算耕种和太阳能电池板安装面积
-
keras_segmentation_models -> 使用基于开放矢量的空间数据创建语义数据集以构建栅格数据分割
-
CVCMFFNet -> 用于构建 InSAR 图像语义分割的复值卷积和多特征融合网络
-
STEB-UNet -> 集成在 U 形网络中的基于 Swin Transformer 的编码增强器,用于建筑物提取
-
dfc2020_baseline -> 2020 年 IEEE GRSS 数据融合竞赛的基准解决方案。根据 Sentinel-1 和 Sentinel-2 图像预测土地覆盖标签
-
将基于不同数据集的多个分割模型融合到单个边缘可部署模型中-> 屋顶、汽车和道路分割
-
ground-truth-gan-segmentation -> 使用 Pix2Pix 分割建筑物的占地面积。使用的数据集是AIRS
-
UNICEF-Giga_Sudan -> 使用 UNET 分割模型从苏丹南部的卫星图像中检测学校地段
-
Building_footprint_extraction -> 该项目从 Google 检索卫星图像并使用 U-Net 执行建筑物足迹提取。
-
项目正则化-> 使用对抗性和正则化损失对卫星图像中的建筑边界进行正则化
-
PolyWorldPretrainedNetwork -> 使用图神经网络在卫星图像中提取多边形建筑物
-
dl_image_segmentation -> 用于贫民窟测绘和监控的不确定性感知可解释深度学习。使用形状
-
UBC-dataset -> 用于根据极高分辨率卫星图像进行建筑物检测和分类的数据集,重点是单个建筑物的对象级解释
-
UNetFormer -> 类似 UNet 的转换器,用于遥感城市场景图像的高效语义分割
-
BES-Net -> 用于高分辨率图像语义分割的边界增强语义上下文网络。应用于 Vaihingen 和 Potsdam 数据集
-
CVNet -> 用于建筑物提取的轮廓振动网络
-
CFENet -> 用于从高分辨率遥感图像中提取建筑物的上下文特征增强网络
-
HiSup -> 卫星图像中建筑物的精确多边形测绘
-
BuildingExtraction -> 使用稀疏令牌转换器从遥感图像中提取建筑物
-
CrossGeoNet -> 构建标签稀缺地理区域足迹生成的框架
-
AFM_building -> 通过具有吸引力场表示的卷积神经网络构建足迹生成
-
RAMP(用于微观规划的可复制人工智能) -> 在中低收入国家建立检测
-
建筑实例分割-> 用于建筑实例提取的具有自适应中心点检测器的多模态特征融合网络
-
CGSANet -> 轮廓引导和局部结构感知的编码器-解码器网络,用于从超高分辨率遥感图像中准确提取建筑物
-
Building-footprints-update -> 从双时态遥感图像中学习颜色分布以更新现有的建筑足迹
-
RAMP -> 模型和建筑物数据集,支持各种人道主义用例
-
Thesis_Semantic_Image_Segmentation_on_Satellite_Imagery_using_UNets -> 本硕士论文旨在使用 U-Net 架构对 SpaceNet Challenge 1 数据集的卫星图像上的建筑物进行语义分割
-
DeepSolar -> 用于高效构建美国太阳能部署数据库的机器学习框架。Kaggle 上的数据集,实际上使用了 CNN 进行分类,并且通过对激活图应用阈值来获得分割。原始代码是 tf1,但tf2/kers和pytorch 实现可用。另请查看可视化和深入分析..可以解释弗吉尼亚州和DeepSolar 跟踪器采用太阳能的因素:利用开源数据对基于深度学习的分布式光伏测绘的准确性进行无监督评估
-
hyperion_solar_net -> 基于 Google 地图 RGB 图像训练的分类和分割模型
-
3D-PV-Locator -> 屋顶光伏系统的 3D 大规模检测
-
PV_Pipeline -> 德国 DeepSolar
-
太阳能电池板检测-> 使用 SegNet、Fast SCNN 和 ResNet
-
Predict_pv_yield -> 使用光流和机器学习来预测光伏发电量
-
大型太阳能电站监控-> 使用深度语义分割对巴西光伏电站进行遥感监控
-
面板分割-> 使用 VGG16 分类模型确定卫星图像中是否存在太阳能电池阵(布尔 True/False)
-
Roofpedia -> Roofpedia 通过深度学习确定的全球绿色屋顶和太阳能屋顶的开放注册表
-
使用图像分割和结构化数据预测屋顶的太阳能潜力 中等文章,使用 20 厘米图像和 Unet
-
Remote-sensing-solar-pv -> 用于共享 Sentinel-2 遥感图像中太阳能光伏阵列自动检测进展的存储库
-
Solar-panel-segmentation) -> 使用 USGS 卫星图像查找太阳能电池板
-
Solar_seg -> 使用无人机图像和 fast.ai 对光伏模块(面板子元件)进行太阳能分割
-
Solar_plant_detection -> 使用 Mask RCNN 和 Amir 数据集对光伏 (PV) 植物进行边界提取
-
SolarDetection ->unet 上来自美国和法国的卫星图像
-
adopttrs -> 使用unet & pytorch 通过遥感自动检测光伏板
-
Solar-panel-locator -> 太阳能电池板像素数量仅占数据集中总像素的 0.2%,因此对太阳能电池板数据进行上采样以解决类别不平衡问题
-
项目太阳能电池板检测-> 从航空/卫星图像检测太阳能电池板的项目列表
-
Satellite_ComputerVision -> UNET 使用 Google Earth Engine 和 Tensorflow 从 Sentinel-2 数据中检测太阳能电池阵列。还涵盖停车场检测
-
光伏检测-> 从卫星图像中检测可用屋顶区域以安装光伏电池板
-
Solar_UNet -> U-Net 模型在 Sentinel-2 图像中描绘太阳能电池阵列
-
Aarsh2001/ML_Challenge_NRSC -> 变电站检测
-
PLGAN-for-Power-Line-Segmentation -> 用于航空图像中电力线分割的生成对抗网络
-
MCAN-OilSpillDetection -> 小数据训练下的多尺度条件对抗网络溢油检测
-
塑料-> 检测和监测global Plasticwatch.org Sentinel-2 图像中的塑料废物聚集
-
采矿探测器-> 在Amazon Mining Watch的 Sentinel-2 卫星图像中检测手工金矿。还包括秘密机场
-
具有不规则稀疏空间分布特征的土地覆盖的EG-UNet深度特征增强方法:以露天采矿为例
-
utae-paps -> 用于卫星图像时间序列全景分割的 U-TAE 和 PaPs 的 PyTorch 实现
-
Panoptic-Generator -> 该模块将 GIS 数据转换为全景分割图块
-
BSB-Aerial-Dataset -> 有关如何在 BSB 航空数据集中使用 Detectron2 的 Panoptic-FPN 的示例
-
卫星图像分割:U-Net 的工作流程是一篇不错的介绍文章
-
mmsegmentation -> 语义分割工具箱,支持许多遥感数据集,包括 LoveDA、Potsdam、Vaihingen 和 iSAID
-
segmentation_gym -> 用于训练深度学习模型以进行地球科学图像分割的神经健身房
-
使用 U-Net 进行图像分割,平滑地混合预测块是取悦人眼的必要条件-> python 代码平滑地混合预测块。请参阅具有平滑混合的卫星图像分割
-
DCA -> 域自适应遥感图像分割的深度协方差对齐
-
SCAttNet -> 具有空间和通道注意力机制的语义分割网络
-
unetseg -> 一组类和 CLI 工具,用于使用 Tensorflow 和 Keras 训练基于 U-Net 架构的语义分割模型。该实现专门针对卫星图像和其他地理空间栅格数据进行了调整
-
clusternet_segmentation -> 通过将 K-Means 聚类应用于神经网络生成的特征来进行无监督分割
-
TDD -> 通过光谱偏差关系学习进行高光谱异常检测的一步检测范式
-
Efficient-Transformer -> 用于遥感图像分割的高效 Transformer
-
weakly_supervised -> 用于遥感图像分割的弱监督深度学习
-
HRCNet-High-Resolution-Context-Extraction-Network -> 用于遥感图像语义分割的高分辨率上下文提取网络
-
Satellite-segmentation-pytorch -> 探索各种图像增强以增加训练数据集大小
-
Spectralformer -> 重新思考使用 Transformer 进行高光谱图像分类
-
SNDF -> 用于遥感图像语义分割的超像素增强深度神经森林
-
卫星图像分类-> 使用随机森林或支持向量机 (SVM) 和 sklearn
-
dynamic-rs-segmentation -> 基于卷积网络的遥感图像动态多上下文分割
-
2023GRIC -> 结合 UPerNet 和 ConvNeXt 进行尾迹识别以减少全球变暖
-
Segmentation_models.pytorch -> 具有预训练主干的分割模型,已用于遥感竞赛的多个获胜解决方案
-
SSRN -> 用于高光谱图像分类的光谱空间残差网络:3-D 深度学习框架
-
SO-DNN -> 用于极高分辨率遥感图像分类的简化的基于对象的深度神经网络
-
SANet -> 用于高分辨率航空图像语义分割的尺度感知网络
-
航空分割-> 从在线地图学习航空图像分割
-
迭代分割-> 用于校正卫星图像分类图的循环神经网络
-
Detectron2 FPN + PointRend 模型可实现令人惊叹的卫星图像分割-> 与 U-Net 模型相比,精度提高 15%
-
HybridSN -> 探索高光谱图像分类的 3D-2D CNN 特征层次结构
-
TNNLS_2022_X-GPN -> 用于高光谱图像分类的半监督跨尺度图原型网络
-
singleSceneSemSegTgrs2022 -> 用于地球观测的无监督单场景语义分割
-
A-Fast-and-Compact-3-D-CNN-for-HSIC -> 用于高光谱图像分类的快速且紧凑的 3-D CNN
-
HSNRS -> 基于沙漏形状网络的高分辨率航空图像语义分割
-
GiGCN -> 用于高光谱图像分类的图中图卷积网络
-
SSAN -> 用于高光谱图像分类的光谱空间注意力网络
-
Drone-images-semantic-segmentation -> 使用深度学习对航空无人机图像进行多类语义分割
-
卫星图像分割与平滑混合-> 使用平滑混合图像补丁
-
BayesianUNet -> Pytorch Bayesian UNet 模型,用于分割和不确定性预测,应用于波茨坦数据集
-
RAANet -> 用于高分辨率遥感图像语义分割的带有注意力框架的残差 ASPP
-
wheelRuts_semanticSegmentation -> 使用无人机图像中的深度学习技术映射木材采伐作业中的轮辙
-
LWN-for-UAVRSI -> 用于无人机遥感图像的轻量级语义分割网络,应用于 Vaihingen、UAVid 和 UDD6 数据集
-
hypernet -> 实现高光谱图像 (HSI) 分割的库
-
ST-UNet -> Swin Transformer 嵌入 UNet 用于遥感图像语义分割
-
EDFT -> 用于航空图像语义分割的高效深度融合变压器
-
WiCoNet -> 望向窗外:用于高分辨率遥感图像语义分割的宽上下文转换器
-
CRGNet -> 用于具有点级注释的城市场景语义分割的一致性正则化区域生长网络
-
SA-UNet -> 融合注意力和多尺度特征的改进U-Net遥感分类算法
-
MANet -> 用于精细分辨率遥感图像语义分割的多注意力网络
-
BANet -> Transformer 与卷积的结合:用于超高分辨率城市场景图像语义分割的双边感知网络
-
MACU-Net -> 用于精细分辨率遥感图像语义分割的 MACU-Net
-
DNAS -> 高分辨率遥感图像语义分割的解耦神经架构搜索
-
A2-FPN -> 用于高分辨率遥感图像语义分割的 A2-FPN
-
MAResU-Net -> 用于精细分辨率遥感图像语义分割的多级 Attention ResU-Net
-
ml_segmentation -> 使用随机森林、支持向量机 (SVM) 和梯度提升分类器 (GBC) 对建筑物进行语义分割
-
RSEN -> 用于高光谱图像分类的鲁棒自集成网络
-
MSNet -> 遥感图像多光谱语义分割网络
-
k-textures -> K-textures,一种用于卫星图像分割的自监督硬聚类深度学习算法
-
Swin-Transformer-Semantic-Segmentation -> 卫星图像语义分割
-
UDA_for_RS -> 使用 Transformer 进行遥感语义分割的无监督域适应
-
A-3D-CNN-AM-DSC-model-for-hyperspectral-image-classification -> 用于高光谱遥感图像分类的注意力机制和深度可分离卷积辅助 3DCNN
-
对比蒸馏-> 航空图像增量语义分割的对比蒸馏方法
-
SegForestNet -> SegForestNet:基于空间分区的航空图像分割
-
MFVNet -> MFVNet:用于遥感图像语义分割的多视场深度自适应融合网络
-
Wildebeest-UNet -> 从超高分辨率卫星图像中检测塞伦盖蒂-马拉生态系统中的角马和斑马
-
Segment-anything-eo -> 用于 Meta AI Segment Anything 的地球观测工具(SAM - Segment Anything Model)
-
HR-Image-classification_SDF2N -> 用于 VHR 遥感图像分类的浅层到深层特征融合网络
在实例分割中,分割区域的每个单独的“实例”都被赋予一个唯一的标签。对于检测非常小的物体,这可能是一个很好的方法,但它可能很难分离间隔很近的单个物体。
-
Mask_RCNN为图像中对象的每个实例生成边界框和分割掩模。它非常常用于实例分割和对象检测
-
使用免费 Landsat 图像、掩模 R-CNN 和 Keras对巴西中心枢轴灌溉系统进行实例分割
-
Building-Detection-MaskRCNN -> 使用 Mask RCNN 从 SpaceNet 数据集构建检测
-
使用 Mask R-CNN 进行油罐实例分割,并附有使用 Kaggle 上的 Keras 和空客石油存储检测数据集的文章
-
Mask_RCNN-for-Caravans -> 从操作系统图像中检测商队足迹
-
parking_bays_detectron2 -> 使用卫星图像检测停车位。使用 Detectron2 和 Unreal 合成数据,性能优于使用 Mask RCNN
-
使用 Mask RCNN -> with repo定位具有深色屋顶、导致热岛现象的建筑物,使用 INRIA 数据集和 labelme 进行注释
-
Circle_Finder -> 卫星图像中的圆形形状检测,圆形查找器挑战赛第二名解决方案
-
Lawn_maskRCNN -> 使用 Mask-R-CNN 从锡达拉皮兹地区的卫星图像中检测草坪
-
CropMask_RCNN -> 分割中心枢纽农业,利用 Mask R-CNN 和 Landsat 卫星图像监测旱地作物用水情况
-
CATNet -> 学习聚合多尺度上下文以进行遥感图像中的实例分割
-
使用 Mask-R-CNN 在卫星图像上进行物体检测-> 检测船舶
-
FactSeg -> 大规模遥感图像 (TGRS) 中的前景激活驱动的小对象语义分割,另请参阅FarSeg和FreeNet,研究论文的实现
-
aqua_python -> 使用 Mask R-CNN 检测水产养殖场
-
RSPrompter -> 基于 Visual Foundation 模型学习提示遥感实例分割
遥感中的对象检测涉及使用边界框定位和包围感兴趣的对象。由于遥感图像尺寸较大且对象可能仅包含几个像素,因此在这种情况下对象检测可能具有挑战性。待检测物体的区域与背景之间的不平衡,加上物体很容易与背景中的随机特征混淆的可能性,使任务进一步复杂化。对象检测通常在较大对象上表现更好,但随着对象变得更小且更密集,对象检测变得越来越困难。随着图像分辨率的降低,目标检测模型的准确性也会迅速下降,这就是为什么在遥感中通常使用高分辨率图像(例如 30cm RGB)进行目标检测的原因。航空图像的一个独特特征是物体可以朝向任何方向。为了有效地提取物体长度和宽度的测量值,使用与物体方向对齐的旋转边界框至关重要。这种方法可以对图像内的对象进行更准确、更有意义的分析。图片来源
-
TCTrack -> 空中跟踪的时间上下文
-
CFME -> 通过改进的相关滤波器和运动估计进行卫星视频中的对象跟踪
-
TGraM -> 使用基于图的多任务建模进行卫星视频中的多目标跟踪
-
Satellite_video_mod_groundtruth -> 卫星视频上的 groundtruth,用于评估移动物体检测算法
-
移动物体检测-DSFNet -> DSFNet:用于卫星视频中移动物体检测的动态和静态融合网络
-
HiFT -> 用于空中跟踪的分层特征转换器
定向边界框 (OBB) 是表示旋转矩形的多边形。对于数据集,请查看 DOTA 和 HRSC2016。从 Yolov8 开始
-
mmrotate -> 旋转对象检测基准,具有预训练模型和用于对非常大图像进行推理的功能
-
OBBDetection -> 一个面向物体检测库,基于MMdetection
-
rotate-yolov3 -> 使用 yolov3 实现的旋转对象检测。另请参阅yolov3-polygon
-
DRBox -> 用于物体任意方向的检测任务,例如车辆、船舶和飞机
-
s2anet -> 对齐深度特征以进行定向对象检测
-
CFC-Net -> 遥感图像中任意方向目标检测的关键特征捕获网络
-
ReDet -> 用于空中物体检测的旋转等变检测器
-
BBAVectors-Oriented-Object-Detection -> 使用框边界感知向量进行航拍图像中的定向对象检测
-
CSL_RetinaNet_Tensorflow -> 使用圆形平滑标签的任意方向的物体检测
-
r3det-on-mmdetection -> R3Det:改进的单级探测器,具有旋转物体特征细化功能
-
R-DFPN_FPN_Tensorflow -> 旋转密集特征金字塔网络 (Tensorflow)
-
R2CNN_Faster-RCNN_Tensorflow -> 基于Faster-RCNN的旋转区域检测
-
Rotated-RetinaNet -> 在pytorch中实现,支持以下数据集:DOTA、HRSC2016、ICDAR2013、ICDAR2015、UCAS-AOD、NWPU VHR-10、VOC2007
-
OBBDet_Swin -> 2021年高分挑战赛第六名获奖方案
-
CG-Net -> 航空图像中目标检测的学习校准指南
-
OrientedRepPoints_DOTA -> 定向 RepPoints + Swin Transformer/ReResNet
-
yolov5_obb -> yolov5 + 定向目标检测
-
如何训练 YOLOv5 OBB -> YOLOv5 OBB 教程和YOLOv5 OBB 笔记本
-
OHDet_Tensorflow -> 可应用于旋转检测和物体航向检测
-
Seodore -> 维护 mmdetection 最新更新的框架
-
Rotation-RetinaNet-PyTorch -> 定向探测器 Rotation-RetinaNet 在光学和 SAR 船舶数据集上的实现
-
AIDet -> 一个基于 MMDetection 的开源航拍图像目标检测工具箱
-
rotation-yolov5 -> 基于yolov5的旋转检测
-
ShipDetection -> 基于 Faster R-CNN 和 ORN,通过旋转边界框在 HR 光学遥感图像中进行船舶检测,使用 caffe
-
SLRDet -> 基于mmdetection的项目重新实现RRPN并使用模型Faster R-CNN OBB
-
AxisLearning -> 用于航空图像中定向物体检测的轴学习
-
Detection_and_Recognition_in_Remote_Sensing_Image -> 本工作使用 PaNet 通过 MXNet 实现遥感图像中的检测和识别
-
DrBox-v2-tensorflow -> DrBox-v2 的张量流实现,它是一种改进的检测器,具有可旋转框,用于遥感图像中的目标检测
-
Rotation-EfficientDet-D0 -> 基于 PyTorch 实现旋转检测器的 EfficientDet 检测器,应用于自定义旋转车辆数据集
-
DODet -> 用于定向对象检测的双重对齐,使用 DOTA 数据集
-
GF-CSL -> 高斯焦点损失:学习分布偏振角度预测,用于航空图像中旋转物体检测
-
simple_rbox_cnn -> RBox-CNN:基于旋转边界框的 CNN,用于遥感图像中的船舶检测。使用 Tensorflow 对象检测 API
-
Polar-Encodings -> 学习 SAR 图像中任意方向船舶检测的极地编码
-
R-CenterNet -> 基于 CenterNet 的旋转物体检测器
-
piou -> 定向物体检测;IoU Loss,应用于DOTA数据集
-
DAFNe -> 一种用于定向物体检测的单阶段无锚方法
-
AProNet -> 从航空图像中检测具有精确方向的物体。应用于数据集 DOTA 和 HRSC2016
-
UCAS-AOD-benchmark -> UCAS-AOD 数据集的基准
-
RotateObjectDetection -> 基于 Ultralytics/yolov5,进行调整以启用旋转预测框。另请参阅多边形对象检测
-
AD-Toolbox -> 基于MMDetection和MMRotate的空中检测工具箱,支持更多数据集
-
GGHL -> 用于任意方向对象检测的通用高斯热图标签分配
-
NPMMR-Det -> 一种新颖的非局部感知金字塔和多尺度多任务细化检测器,用于遥感图像中的目标检测
-
AOPG -> 用于目标检测的无锚定向提案生成器
-
SE2-Det -> 用于遥感图像中定向物体检测的语义边缘监督单级检测器
-
OrientedRepPoints -> 用于空中物体检测的定向 RepPoints
-
TS-Conv -> 用于航空图像中任意方向物体检测的任务式采样卷积
-
FCOSR -> 用于空中物体检测的简单无锚旋转探测器。该实现是从 mmdetection 修改而来的。另请参见TensorRT_Inference
-
OBB_Detection -> 2022粤港澳大湾区国际算法大赛遥感图像定向目标检测赛道入围方案
-
sam-mmrotate -> SAM (Segment Anything Model),用于使用 MMRotate 生成旋转边界框,这是 H2RBox-v2 的比较方法
-
mmrotate-dcfl -> 用于定向微小物体检测的动态粗到精学习
-
h2rbox-mmrotate -> 水平框注释是定向对象检测所需的全部
-
空间变换解耦-> 用于定向目标检测的空间变换解耦
-
ARS-DETR -> 使用 Transformer 进行长宽比敏感定向物体检测
-
CFINet -> 通过从粗到细的提案生成和模仿学习进行小物体检测。引入SODA-A 数据集
-
超分辨率和对象检测-> 超分辨率是一种相对便宜的增强功能,可以提高对象检测性能
-
EESRGAN -> 使用端到端边缘增强 GAN 和对象检测器网络进行遥感图像中的小对象检测
-
EESRGAN -> 使用端到端边缘增强 GAN 和对象检测器网络进行遥感图像中的小对象检测。应用于 COWC 和OGST数据集
-
FBNet -> 航空图像中细粒度对象分类的特征平衡
-
SuperYOLO -> SuperYOLO:多模态遥感图像中的超分辨率辅助目标检测
检测场景中最引人注目或最重要的物体
-
ACCoNet -> 用于光学遥感图像中显着目标检测的相邻上下文协调网络
-
MCCNet -> 用于光学遥感图像中显着目标检测的多内容互补网络
-
CorrNet -> 通过特征相关进行光学遥感图像中的轻量级显着目标检测
-
ORSSD-数据集-> 显着目标检测数据集
-
EORSSD-数据集-> 扩展光学遥感显着性检测 (EORSSD) 数据集
-
DAFNet_TIP20 -> 用于光学遥感图像中显着目标检测的密集注意力流体网络
-
EMFINet -> 用于光学遥感图像中显着目标检测的边缘感知多尺度特征集成网络
-
ERPNet -> 用于光学遥感图像中显着目标检测的边缘引导循环定位网络
-
FSMNet -> 全压缩多尺度推理网络,用于光学遥感图像中快速准确的显着性检测
-
AGNet -> AGNet:用于光学遥感图像中显着目标检测的注意力引导网络
-
MSCNet -> 用于光学遥感图像中显着目标检测的轻量级多尺度上下文网络
-
GPnet -> 遥感图像中显着目标检测的全局感知网络
-
SeaNet -> 通过语义匹配和边缘对齐进行光学遥感图像中的轻量级显着目标检测
-
GeleNet -> Transformer 驱动的光学遥感图像中的显着目标检测
-
Satellite_image_tinhouse_Detector -> 使用 Tensorflow 对象检测 API 从卫星/航空图像中检测铁皮房屋
-
用于屋顶检测和太阳能电池板安装的机器学习讨论了平铺大图像并从 OSM 数据生成注释。屋顶的特征是通过轮廓检测和分类的结合来计算的。使用语义分割的后续文章
-
XBD-hurricanes -> 使用修改后的 RetinaNet 模型在高分辨率(<1m)卫星和航空图像中检测建筑物(和建筑物损坏)的模型
-
使用分割从卫星图像中检测太阳能电池板
-
ssd-spacenet -> 使用 Single Shot MultiBox Detector (SSD) 检测 Spacenet 数据集中的建筑物
-
3DBuildingInfoMap -> 使用 ResNet 从 Sentinel 图像中同时提取建筑物高度和占地面积
-
DeepSolaris -> 欧盟统计局项目,用于检测航空图像中的太阳能电池板,更多材料请参见此处
-
ML_ObjectDetection_CAFO -> 检测卫星图像中的集中动物饲养操作 (CAFO)
-
多层建筑物检测框架-> 基于卷积神经网络的遥感图像多层建筑物检测框架
-
飓风后卫星图像的自动损坏注释-> 使用张量流对象检测 API 检测损坏的建筑物。在这里和这里都有回购协议
-
映射挑战-> YOLOv5 应用于 AICrowd 映射挑战数据集
-
kaggle-ships-in-Google-Earth-yolov5 -> 将 YOLOv5 应用于 Google Earth 数据集中的 Kaggle Ships
-
使用 Planet 数据集和 Keras检测卫星图像中的船舶
-
SARfish -> Sentinel 1 合成孔径雷达 (SAR) 图像中的船舶检测
-
Ship_Detection -> 使用 CNN 分类器、类激活映射 (CAM) 和 UNET 分割的有趣组合。随附三部分博客文章
-
使用 YOLOv3 和 Planet 卫星图像构建完整的船舶检测算法-> 涵盖查找和注释数据(使用 LabelMe)、将大图像预处理到芯片中以及训练 Yolov3。回购协议
-
卫星图像中的船舶检测-> 使用 UNET、YOLO、Mask R-CNN、SSD、Faster R-CNN、RETINA-NET 进行实验
-
Ship-Detection-from-Satellite-Images-using-YOLOV4 -> 使用 Kaggle Airbus 船舶检测数据集
-
kaggle-airbus-ship-detection-challenge -> 使用定向SSD
-
Shipsnet-Detector -> 使用机器学习检测行星图像中的集装箱船
-
使用神经网络对卫星图像中的船舶进行分类-> 应用于卫星图像数据集中的 Kaggle 船舶
-
对比式SSL_船舶检测->用于Sentinel 2图像中船舶检测的对比自监督学习
-
Small-boat-Detector -> 经过训练的 yolo v3 模型权重和配置文件,用于检测卫星图像中的小船
-
Satellite-Imagery-Datasets-Containing-Ships -> 用于船舶检测、分类、语义分割和实例分割任务的光学和雷达卫星数据集列表
-
船只检测哨兵-> Sentinel-1 和 Sentinel-2 船只检测
-
船舶检测-> 使用卫星图像进行海洋船舶检测的 CNN 方法
-
VesselTracker -> 基于使用 Pytorch 的 Yolov5 架构简化模型的项目。基于 Sentinel-1 通过 Earth Engine API 提供的 SAR 图像的自定义数据集
-
Marine-debris-ml-model -> 使用张量流对象检测 API 进行海洋碎片检测
-
SDGH-Net -> 基于高斯热图回归的光学遥感图像船舶检测
-
LR-TSDet -> LR-TSDet:低分辨率遥感图像中的微型船舶检测
-
FGSCR-42 -> 遥感图像细粒度船舶分类公共数据集
-
ShipDetection -> 基于 Faster R-CNN 和 ORN,通过旋转边界框在 HR 光学遥感图像中进行船舶检测,使用 caffe
-
WakeNet -> 重新思考自动船舶尾流检测:通过光学图像进行最先进的基于 CNN 的尾流检测
-
卫星图像中的对象检测,一种低开销方法-> 中型文章,演示了如何将 Canny 边缘检测器预过滤器与 HOG 特征描述符、随机森林分类器和滑动窗口相结合来执行船舶检测
-
simple_rbox_cnn -> RBox-CNN:基于旋转边界框的 CNN,用于遥感图像中的船舶检测。使用 Tensorflow 对象检测 API
-
Ship-Detection-based-on-YOLOv3-and-KV260 -> Xilinx 自适应计算挑战赛 2021 参赛项目。使用 YOLOv3 进行光学遥感图像中的船舶目标检测,并在 KV260 平台上部署 DPU 实现硬件加速
-
LEVIR-Ship -> 中分辨率遥感图像下微型船舶检测数据集
-
推拉网络-> 遥感图像中细粒度船舶分类的对比学习
-
DRENet -> 一种基于降级重建增强的新大规模数据集遥感图像微小船舶检测方法
-
xView3-第一名解决方案-> xView 3挑战的获胜解决方案(Sentinell-1 图像上的血管检测、分类和长度估计)。包含经过训练的模型、推理管道以及训练代码和配置以重现结果。
-
Vessel-Detection-viirs -> 用于从 VIIRS 卫星图像流式传输船舶检测的模型和服务代码
-
SAR 图像中的异常检测-> 使用 keras 和 retinanet 识别码头中的未知船只
-
pytorch-vedai -> VEDAI 数据集上的对象检测:航空图像中的车辆检测
-
COVID-19 危机期间使用 Sentinel-2 进行卡车检测-> Sentinel-2 数据中的移动物体会导致 RGB 中出现特定的反射率关系,看起来像彩虹,并用作卡车的标记。仅通过分析道路来提高准确性。不使用对象检测但相关。另请参阅S2TD
-
owc_car_counting -> Cars Overhead With Context (COWC) 数据集上的汽车计数。不是严格意义上的物体检测,而是用 CNN 来预测图块中的汽车数量
-
CarCounting -> 使用 Yolov3 和 COWC 数据集
-
将计算机视觉应用于轨道车检测-> 使用具有旋转边界框输出的 Mask-RCNN 对轨道车(即火车车厢)进行计数的有用见解
-
Rotation-EfficientDet-D0 -> Rotated EfficientDet 的 PyTorch 实现,应用于自定义旋转车辆数据集(汽车计数)
-
RSVC2021-数据集-> 从 DOTA 和 ITCVD 创建的遥感图像车辆计数数据集
-
使用头顶图像进行汽车定位和计数,一种交互式探索-> Adam Van Etten 的 Medium 文章
-
极低分辨率航空图像中的车辆计数-> 通过跨分辨率空间一致性和分辨率内时间连续性在极低分辨率航空图像中进行车辆计数
-
Grant Pearse 的车辆检测博客文章:在不收集本地训练数据的情况下检测新西兰各地的车辆
-
飞机检测-> 在 UC Merced 土地利用土地覆盖 (LULC) 数据集上测试具有各种内核的高斯过程 (GP) 分类器性能的实验
-
使用 Detectron2 从卫星图像中分割飞机-> pytorch 和 Rare Planes
-
飞机检测来自卫星图像-yolov3 -> 在 Kaggle cgi-planes-in-satellite-imagery-w-bboxes 数据集上进行训练
-
HRPlanesv2-Data-Set -> 在 HRPlanesv2 数据集上训练的 YOLOv4 和 YOLOv5 权重
-
飞机识别深度学习-> 经过训练可通过卫星图像对各种军用飞机进行分类和识别的 CNN 模型
-
ergo-planes-Detector -> 一个基于 ergo 的项目,依赖于卷积神经网络从卫星图像中检测飞机,使用 PlanesNet 数据集
-
pytorch-remote-sensing -> 使用“空中客车飞机检测”数据集和使用 pytorch 的带有 ResNet-50 主干的 Faster-RCNN 进行飞机检测
-
FasterRCNN_ObjectDetection -> 更快的 RCNN 模型,用于卫星图像中的飞机检测和定位,并创建带有实时服务器的网页供公众使用
-
HRPlanes -> 使用 HRPlanes 数据集训练的 YOLOv4 和 Faster R-CNN 网络的权重
-
空中检测-> 使用 Yolov5 和 Icevision
-
rareplanes-yolov5 -> 使用 YOLOv5 和 RarePlanes 数据集来检测和分类飞机的子特征,文章中
-
OnlyPlanes -> 增量调整卫星物体检测的综合训练数据集
-
了解 RarePlanes 数据集并构建飞机检测模型-> 博客文章
-
Wind-turbine-Detector -> 使用 TensorFlow 对象检测 API 从航空图像检测风力涡轮机对象
-
水箱和游泳池检测-> 使用 Faster R-CNN
石油在开采和销售之间的许多地点都储存在油罐中,储存的石油量是一个重要的经济指标。
-
使用 YoloV3和repo在卫星图像上显示储油罐的体积占用情况
-
油罐体积估计-> 结合了目标检测和经典计算机视觉
-
使用 Mask R-CNN 进行油罐实例分割,并附有使用 Kaggle 上的 Keras 和空客石油存储检测数据集的文章
-
SubpixelCircleDetection -> 低分辨率卫星图像中的圆形物体检测
-
oil_storage- detector -> 使用 yolov5 和空客石油存储检测数据集
-
oil_well_Detector -> 基于卫星图像检测巴肯油田的油井
-
使用 YOLOX 对空中客车图像进行石油储存检测-> 使用 Kaggle 空中客车石油储存检测数据集
-
AContrarioTankDetection -> 通过 Contrario 聚类在卫星图像中检测油罐
可以使用多种技术来对动物进行计数,包括对象检测和实例分割。为了方便起见,它们都列在这里:
-
cownter_strike -> 计算奶牛,使用点注释定位,两个模型:CSRNet(基于密度的方法)和 LCFCN(基于检测的方法)
-
elephant_detection -> 使用 Keras-Retinanet 从航拍图像中检测大象
-
CNN-Mosquito-Detection -> 确定潜在危险繁殖地的位置,比较 YOLOv4、YOLOR 和 YOLOv5
-
Borowicz_etal_Spacewhale -> 使用 ResNet 定位鲸鱼
-
walrus-detection-and-count -> 使用 Mask R-CNN 实例分割
-
MarineMammalsDetection -> 高分辨率航空图像中海洋动物的弱监督检测
-
Audubon_F21 -> 使用航空图像进行水鸟监测的深度物体检测
-
使用 RetinaNet 对卫星图像进行对象检测-> 使用 Kaggle 游泳池和汽车检测数据集
-
Awesome-aerial-object-detection bu murari023,另一篇由 Visionfang和Awesome-tiny-object-detection列出了许多相关论文
-
对象检测精度作为图像分辨率的函数-> 使用 COWC 数据集的中等文章,性能在 30 厘米图像以下迅速下降
-
使用窗口网络的卫星图像多尺度快速检测 (SIMRDWN) -> 将一些领先的物体检测算法结合到一个统一的框架中,旨在检测俯视图像中的大小物体。使用 YOLO(版本 2 和 3)、Faster R-CNN、SSD 或 R-FCN 训练模型并测试任意图像大小。
-
YOLTv4 -> YOLTv4 旨在检测任意大图像中的航空或卫星图像中的对象,这些图像远远超过深度学习对象检测框架通常摄取的约 600×600 像素大小。阅读YOLTv4 的发布:改进的卫星图像目标检测
-
ASPDNet -> 遥感图像中密集物体的计数
-
xview-yolov3 -> xView 2018 物体检测挑战赛:YOLOv3 训练和推理
-
如何检测(非常)大图像中的小物体-> 使用切片辅助超推理 (SAHI) 使用 mmdetection 框架对 DOTAv1.0 物体检测数据集进行推理的实用指南
-
目标检测卫星图像多车辆数据集 (SIMD) -> RetinaNet、Yolov3 和 Faster RCNN,用于卫星图像数据集上的多目标检测
-
SNIPER/AutoFocus -> 高效的多尺度目标检测训练/推理算法
-
Marine_debris_ML -> 海洋碎片探测,使用名为 Planetscope 的 3 米图像产品,具有红色、绿色、蓝色和近红外波段。使用 Tensorflow 对象检测 API 和预训练的 resnet 101
-
pool-detection-from-aerial-imagery -> 使用 Icevision 和 Detectron2 从航空图像中检测游泳池
-
Electric-Pylon-Detection-in-RSI -> 包含 1500 个电塔遥感图像的数据集,用于训练 10 个深度学习模型
-
综合稳健性 YOLTv4 结果第 2 部分:数据集大小要求和地理洞察-> 量化稀有物体定位的难度
-
IS-Count -> IS-Count 是一种基于采样且可学习的方法,用于估计区域中的对象总数
-
yolov5s_for_satellite_imagery -> yolov5s应用于DOTA数据集
-
RetinaNet-PyTorch -> RetinaNet 在遥感船舶数据集(SSDD)上的实现
-
Detecting-Cyclone-Centers-Custom-YOLOv3 -> 热带气旋 (TC) 是强烈的暖线气旋涡旋,由热带海洋上空的低压系统发展而来,由复杂的海气相互作用驱动
-
Object-Detection-YoloV3-RetinaNet-FasterRCNN -> 在私有数据集上进行训练
-
Google-earth-Object-Recognition -> 使用 RetinaNet 和 YOLOV5 在 Dior 数据集(Google 地球图像)上进行训练和评估的代码
-
HIECTOR:大规模分层物体检测器-> HIECTOR 有助于收集越来越详细的空间分辨率的多个卫星数据,从而实现大面积经济高效且准确的物体检测。代码
-
光学遥感图像中多类物体的检测-> 光学遥感图像中多类物体的检测
-
SB-MSN -> 使用基于采样平衡的多级网络提高航空图像目标检测中的训练实例质量
-
yoltv5 -> 检测任意大的航空或卫星图像中的对象,这些图像远远超过深度学习对象检测框架通常摄取的约 600×600 像素大小。使用 YOLOv5 和 pytorch
-
AIR -> 用 Python 编写的深度学习对象检测器框架,用于支持陆地搜索和救援任务
-
dior_detect -> DIOR 数据集上的对象检测基准
-
全色到多光谱:物体检测性能作为成像波段的函数-> 中等文章,得出的结论是更多波段并不总是有益的,但可能会因用例而异
-
OPLD-Pytorch -> 用于遥感图像检测的学习点引导定位
-
F3Net -> 用于光学遥感图像中目标检测的特征融合和过滤网络
-
GLNet -> 全局到局部:基于 Clip-LSTM 的遥感图像目标检测
-
SRAF-Net -> 遥感图像中场景相关的无锚目标检测网络
-
object_detection_in_remote_sensing_images -> 使用 CNN 和注意力机制
-
SHAPObjectDetection -> 基于 SHAP 的可解释卫星图像对象检测方法
-
NWD -> 用于微小物体检测的归一化高斯 Wasserstein 距离。使用 AI-TOD 数据集
-
MSFC-Net -> 用于光学遥感影像的多尺度语义融合引导分形卷积目标检测网络
-
LO-Det -> LO-Det:遥感图像中的轻量级目标检测
-
R2IPoints -> 追求旋转不敏感点表示以进行空中物体检测
-
物体检测-> 复杂背景下利用像素注意力机制的多尺度物体检测
-
mmdet-rfla -> RFLA:用于微小物体检测的基于高斯接受的标签分配
-
交互式多类微小物体检测-> 交互式多类微小物体检测
-
小物体检测基准-> 用于小物体检测 (SAHI) 的切片辅助超推理和微调
-
OD-Satellite-iSAID -> 航空图像中的目标检测:使用 iSAID 提高性能的案例研究
-
Large-Selective-Kernel-Network -> 用于遥感目标检测的大型选择性内核网络
-
Satellite_Imagery_Detection_YOLOV7 -> YOLOV7 应用于 xView1 数据集
-
FSANet -> FSANet:用于遥感图像中微小物体检测的特征和空间对齐网络
-
OAN少即是多:基于 MM 检测的大型航拍图像中的高效目标检测
-
DOTA-C -> 评估目标检测模型对 19 种图像质量退化的鲁棒性
当需要对象数量而不是其形状时,可以使用 U-net 将其视为图像到图像的转换问题。
-
centroid-unet -> Centroid-UNet 是深度神经网络模型,用于从卫星图像中检测质心
-
cownter_strike -> 计算奶牛,使用点注释定位,两个模型:CSRNet(基于密度的方法)和 LCFCN(基于检测的方法)
-
DO-U-Net -> 当需要知道物体大小以及图像中物体数量时的一种有效方法,最初是为了对阿富汗境内流离失所者 (IDP) 营地进行分割和计数而创建的
-
从天空计数-> 大规模遥感物体计数数据集和基准方法
-
PSGCNet -> PSGCNet:用于遥感图像中密集对象计数的金字塔尺度和全局上下文引导网络
-
psgcnet -> 用于遥感图像中密集对象计数的金字塔尺度和全局上下文引导网络
遥感回归涉及从图像预测连续变量,例如风速、树高或土壤湿度。经典机器学习和深度学习方法都可以用来完成这项任务。经典机器学习利用特征工程从输入数据中提取数值,然后将其用作线性回归等回归算法的输入。另一方面,深度学习通常采用卷积神经网络(CNN)来处理图像数据,然后采用全连接神经网络(FCNN)进行回归。FCNN 经过训练,可将输入图像映射到所需的输出,从而提供对感兴趣的连续变量的预测。图片来源
-
python-windspeed -> 从卫星图像预测飓风的风速,在 keras 中使用 CNN 回归
-
hurricane-wind-speed-cnn -> 从卫星图像预测飓风的风速,在 keras 中使用 CNN 回归
-
GEDI-BDL -> 具有深度集合的 GEDI LIDAR 波形的全局冠层高度回归和不确定性估计
-
交通密度估计作为回归问题而不是对象检测-> 受论文启发:来自小型卫星图像的交通密度估计方法:走向汽车交通的频繁遥感
-
OpticalWaveGauging_DNN -> 使用深度神经网络进行光波测量
-
Satellite-pose-estimation -> 采用 ResNet50 模型架构对多个卫星图像系列(真实的和合成的)执行姿态估计
-
热带气旋风速估算竞赛-> 在 RadiantEarth MLHub 上
-
DengueNet -> DengueNet:利用时空卫星图像对资源有限的国家进行登革热预测
云是遥感图像中的一个主要问题,因为它们会掩盖底层的地面特征。这阻碍了遥感分析的准确性和有效性,因为无法正确解释被遮挡的区域。为了应对这一挑战,已经开发了各种技术来检测遥感图像中的云。经典算法和深度学习方法都可以用于云检测。经典算法通常使用基于阈值的技术和手工制作的特征来识别云像素。然而,这些技术的准确性可能受到限制,并且对图像外观和云结构的变化敏感。另一方面,深度学习方法利用卷积神经网络(CNN)的强大功能来准确检测遥感图像中的云。这些模型在大型遥感图像数据集上进行训练,使它们能够学习和概括云的独特特征和模式。生成的云掩模可用于识别云像素并从进一步分析中消除它们,或者,云修复技术可用于填充云留下的间隙。这种方法有助于提高遥感分析的准确性,即使在有云的情况下也能提供更清晰的地面视图。图片改编自此来源
-
CloudSEN12 -> Sentinel 2 云数据集,此处包含各种模型
-
Sentinelhub 上的这篇文章介绍了三种流行的经典算法,它们可以检测多个频带中的阈值以识别云。在同一篇文章中,他们建议将语义分割与 CNN 相结合用于云分类器(这里是优秀的评论论文),但指出这需要太多的计算资源。
-
本文比较了多种机器学习算法、随机森林、随机梯度下降、支持向量机、贝叶斯方法。
-
使用深度学习对卫星图像中的云进行分割-> 在 Kaggle 38-Cloud 数据集上使用 Unet 进行语义分割
-
卫星图像中的云检测比较了 Sentinel-2 L1C 和 L2A 图像上的 FPN+ResNet18 和 CheapLab 架构
-
s2cloudmask -> 使用机器学习的 Sentinel-2 云和阴影检测
-
Sentinel2-cloud-Detector -> Python 中用于 Sentinel-2 图像的 Sentinel Hub 云检测器
-
dsen2-cr -> 使用深度残差神经网络和 SAR 光学数据融合在 Sentinel-2 图像中去除云,包含用 Python/Keras 编写的模型代码,以及预训练检查点和 SEN12MS-CR 的链接数据集
-
pyatsa -> Python 包,实现由 Zhu 和 Helmer 2018 开发的卫星图像中遮蔽云的自动时间序列分析方法
-
decloud -> Decloud 能够训练各种深层网络以去除光学图像中的云,例如使用 Sentinel 1 和 2
-
cloudless -> 用于检测云的轨道卫星数据的深度学习管道
-
Deep-Gapfill -> 使用来自光学和雷达图像的深度卷积自动编码器进行光学图像间隙填充的正式实现
-
Satellite-cloud-removal-dip -> 使用 Deep Image Prior 去除卫星云,附论文
-
cloudFCN -> 用于全卷积网络开发的 Python 3 包,专门用于云屏蔽
-
Fmask -> Fmask(掩模函数)用于在 Matlab 中对 Landsats 4-9 和 Sentinel 2 图像进行自动云、云阴影、雪和水掩模。另请参阅PyFmask
-
cloud-cover-winners -> On Cloud N:云层覆盖检测挑战赛的获奖作品
-
ukis-csmask -> 封装 Sentinel-2、Landsat-8、Landsat-7 和 Landsat-5 图像中的云
-
OpenSICDR -> 卫星图像云检测资源长列表
-
RS-Net -> 基于深度学习的卫星影像云检测算法
-
Clouds-Segmentation-Project -> 视为 3 类问题;开放云、封闭云和无云,在由红外和视觉灰度图像组成的数据集上使用 pytorch
-
STGAN -> STGAN 用于卫星图像中的云去除
-
mcgan-cvprw2017-pytorch -> 使用多光谱条件生成对抗网络去除卫星图像上的薄膜云
-
Cloud-Net:用于云检测的语义分割 CNN -> 用于 Landsat 8 图像的端到端云检测算法,在 38 云训练集上进行训练
-
fcd -> 用于云检测的定点 GAN。弱监督方法,仅使用图像级标签进行训练
-
CloudX-Net -> 一种高效、稳健的架构,用于从卫星图像中检测云
-
38Cloud-Medium -> 使用 u-net 演练通过 fast.ai 检测卫星图像中的云
-
cloud_detection_using_satellite_data -> 在 Sentinel 2 数据上执行
-
珞珈一号云探测-> 珞珈一号卫星可见光波段夜间影像云探测
-
SEN12MS-CR-TS -> 多模态多时相除云遥感数据集
-
ES-CCGAN -> 这是一种基于CycleGAN的遥感图像去雾方法
-
Cloud_Classification_DL -> 使用深度学习技术 (Mask R-CNN) 对卫星图像中的云组织模式进行分类
-
基于 CNN 的云检测方法-> 了解卷积神经网络的感受野在 Landsat 8 OLI 图像中云检测中的作用
-
cloud-removal-deploy -> 用于云删除的 Flask 应用程序
-
CloudMattingGAN -> 弱监督云抠图的生成对抗训练
-
km_predict -> KappaMask,或 km-predict,是应用于 S2 全图像预测的 Sentinel-2 Level-1C 和 Level-2A 输入产品的云检测器
-
CDnet -> 基于 CNN 的遥感成像云检测
-
GLNET -> 基于卷积神经网络的晴天和阴天环境下遥感场景分类
-
CDnetV2 -> 基于 CNN 的云雪共存遥感影像云检测
-
grouped-features-alignment -> 基于分组特征对齐和熵最小化的云检测无监督域适应
-
通过 Sentinel-2 卫星数据检测云层-> Benjamin Warners 使用 fast.ai 和 XResNeXt50 定制版本在 DrivenData 的 On CloudN 竞赛中排名前 10% 的解决方案的博客文章。回购协议
-
AISD -> 基于新颖的航空阴影图像数据集的深度监督卷积神经网络进行阴影检测
-
CloudGAN -> 使用图像修复从 RGB 图像中检测和删除云
-
来自卫星图像的云分段-> 应用于 Sentinel-2 数据集
-
HRC_WHU -> 高分辨率云检测数据集,包含 150 张 RGB 图像,全球不同区域的分辨率从 0.5 到 15 m 不等
-
MEcGAN -> 使用多光谱边缘过滤条件生成对抗网络从卫星图像中去除云
-
CloudXNet -> CloudX-net:用于卫星遥感图像云检测的强大编码器-解码器架构
-
Fine-unet-lite -> Refined UNet Lite:用于边缘精确云检测的端到端轻量级网络
-
cloud-buster -> Sentinel-2 L1C 和 L2A 云较少的图像
-
SatelliteCloudGenerator -> 基于 PyTorch 的卫星图像云生成工具
-
SEnSeI -> 一个 python 3 包,用于开发独立于传感器的深度学习模型,用于卫星图像中的云掩蔽
-
cloud-detection-venus -> 使用卷积神经网络对多种土地覆盖类型的 VENμS 图像进行云检测
-
解释_cloud_effects -> 解释云对遥感场景分类的影响
-
云图像分割-> 使用卷积神经网络对 SEVIRI 的海洋层积云云类型进行分类
-
DeCloud-GAN -> DeCloud GAN:一种先进的生成对抗网络,用于去除光学遥感图像中的云层
变化检测是遥感分析的重要组成部分,可以监测景观随时间的变化。该技术可用于识别广泛的变化,包括土地利用变化、城市发展、海岸侵蚀和森林砍伐。可以对在不同时间拍摄的一对图像执行变化检测,或者通过分析在一段时间内收集的多个图像来执行变化检测。值得注意的是,虽然变化检测主要用于检测景观的变化,但它也可能受到云和阴影存在的影响。这些动态元素可以改变图像的外观,导致变化检测结果出现误报。因此,必须考虑云和阴影对变化检测分析的影响,并采用适当的方法减轻其影响。图片来源
-
Awesome-remote-sensing-change-detection列出了许多数据集和出版物
-
Change-Detection-Review -> 变更检测方法的回顾,包括用于深度学习的代码和开放数据集
-
STANet ->用于遥感图像变化检测的STANet
-
基于UNet的无监督变化检测-> 实现卷积神经网络(CNN)和语义分割来检测图像之间的变化,并将变化分类到正确的语义类中
-
BIT_CD -> Pytorch官方使用Transformers实现遥感图像变化检测
-
连体神经网络检测航拍图像的变化-> 使用 Keras 和 VGG16 架构
-
LamboiseNet -> 关于使用深度学习进行卫星图像变化检测的硕士论文
-
使用卷积神经网络进行多光谱地球观测的城市变化检测-> 使用 Onera 卫星变化检测 (OSCD) 数据集
-
IAug_CDNet -> 用于遥感图像中建筑物变化检测的对抗性实例增强的官方 Pytorch 实现
-
dpm-rnn-public -> 实现卫星数据与深度学习相结合的损伤测绘方法的代码
-
SenseEarth2020-ChangeDetection -> 商汤科技主办的卫星图像变化检测挑战赛第一名解决方案;五个基于 HRNet 的分割模型的预测被集成,作为未更改区域的伪标签
-
KPCAMNet -> 基于深度内核 PCA 卷积映射网络的多时相 VHR 图像中无监督变化检测论文的 Python 实现
-
CDLab -> 基于深度学习的变化检测方法的基准测试。
-
Siam-NestedUNet -> SNUNet-CD:用于 VHR 图像变化检测的密集连接暹罗网络
-
SUNet-change_detection -> 论文 SUNet 的实现:使用双通道全卷积网络对来自卫星和无人机的异构遥感图像进行变化检测
-
MFPNet -> 基于多向自适应特征融合和感知相似度的遥感变化检测
-
DIUx xView 检测挑战赛的 GitHub -> xView2 挑战赛重点关注自然灾害后评估建筑损坏过程的自动化
-
DASNet -> 用于高分辨率卫星图像变化检测的双注意力全卷积暹罗网络
-
行星运动-> 查找并处理行星图像对以突出显示物体运动
-
时间簇匹配-> 从遥感图像的时间序列中检测结构足迹的变化
-
autoRIFT -> 用于查找两幅图像之间像素位移的快速智能算法
-
DSAMNet -> 基于注意力度量的深度监督网络和用于遥感变化检测的开放航空图像数据集
-
SRCDNet -> 基于超分辨率的变化检测网络,具有针对不同分辨率图像的堆叠注意力模块。SRCDNet 旨在从不同分辨率的双时图像中学习和预测变化图
-
土地覆盖分析-> 使用卫星图像分割进行土地覆盖变化检测
-
多时相卫星图像中的变化检测-> 使用主成分分析 (PCA) 和 K 均值聚类
-
使用 PCA 和 K 均值聚类的无监督变化检测算法-> 在 Matlab 中,但有论文
-
ChangeFormer -> 用于变更检测的基于 Transformer 的连体网络。使用 Transformer 架构解决 CNN 在处理多尺度远程细节方面的局限性。证明与其他 SOTA 方法相比,ChangeFormer 可以捕获更精细的细节,从而在基准数据集上实现更好的性能
-
Heterogeneous_CD -> 遥感图像中的异质变化检测
-
ChangeDetectionProject -> 尝试使用深度 CNN 进行主动学习以进行遥感数据的变化检测
-
DSFANet -> 用于多时相遥感图像变化检测的无监督深度慢速特征分析
-
siamese-change-detection -> 使用 siamese 神经网络有针对性地合成多时相遥感图像以进行变化检测
-
Bi-SRNet -> HR 遥感图像语义变化检测的双时态语义推理
-
SiROC -> 用于光学卫星图像中无监督变化检测的空间上下文感知。应用于 Sentinel-2 和四个数据集上的高分辨率 Planetscope 图像
-
DSMSCN -> 基于深度连体多尺度卷积神经网络的多时相 VHR 图像变化检测的 Tensorflow 实现
-
RaVAEn -> 一种轻量级、无监督的方法,用于基于变分自动编码器 (VAE) 的卫星数据变化检测,具有星上部署的特定目的。它标记已更改的区域以优先考虑下行链路,从而缩短响应时间
-
SemiCD -> 重新审视遥感图像中半监督变化检测的一致性正则化。即使只访问 10% 的带注释训练数据,也能达到监督 CD 的性能
-
FCCDN_pytorch -> FCCDN:用于 VHR 图像变化检测的特征约束网络。使用LEVIR-CD建筑变更检测数据集
-
INLPG_Python -> 基于结构一致性的同质和异质遥感图像无监督变化检测图
-
NSPG_Python -> 基于非局部斑块相似度的异构遥感变化检测
-
LGPNet-BCD -> 通过局部-全局金字塔网络和跨任务迁移学习策略构建 VHR 遥感图像变化检测
-
DS_UNet -> 使用双流 U-Net 进行城市变化检测的 Sentinel-1 和 Sentinel-2 数据融合,使用 Onera 卫星变化检测数据集
-
SiameseSSL -> 使用双任务 Siamese 网络和半监督学习进行城市变化检测。使用 SpaceNet 7 数据集
-
CD-SOTA-methods -> 遥感变化检测:最先进的方法和可用数据集
-
multimodalCD_ISPRS21 -> 融合多模态数据以进行监督变化检测
-
Unsupervised-CD-in-SITS-using-DL-and-Graphs -> 使用深度学习结合基于图的方法对卫星图像时间序列进行无监督变化检测分析
-
LSNet -> 用于遥感图像变化检测的超轻量级连体网络
-
遥感图像变化检测-> 使用 PCA 和 K 均值
-
VHR 卫星图像的端到端 CD -> 使用改进的 UNet++ 进行高分辨率卫星图像的端到端变化检测
-
语义变化检测-> SCDNET:一种用于高分辨率光学遥感图像语义变化检测的新型卷积网络
-
ERCNN-DRS_urban_change_monitoring -> 基于神经网络的深时空多光谱和SAR遥感数据的城市变化监测
-
EGRCNN -> 用于多时相遥感图像构建变化检测的边缘引导循环卷积神经网络
-
无监督遥感变化检测-> 一种基于多尺度图卷积网络和度量学习的无监督遥感变化检测方法
-
CropLand-CD -> 具有多尺度上下文聚合的 CNN 变压器网络,用于细粒度农田变化检测
-
对比表面图像预训练-> 使用 3D 表面语义监督遥感变化检测模型
-
dcvaVHROptical -> 用于 VHR 图像中多变化检测的无监督深度变化矢量分析
-
hyperDimensionalCD -> 使用未经训练的模型在超维图像中进行变化检测
-
DSFANet -> 用于多时相遥感图像变化检测的无监督深度慢速特征分析
-
FCD-GAN-pytorch -> 带生成对抗网络的全卷积变化检测框架(FCD-GAN)是多时相遥感图像变化检测的框架
-
DARNet-CD -> 基于超高分辨率双时态遥感图像的变化检测的密集关注细化网络
-
xView2_Vulcan -> 使用前后正射影像进行损伤评估。基于 xView2 挑战赛第一名模型的修改 + 生产化模型。
-
ESCNet -> 用于超高分辨率遥感图像的端到端超像素增强变化检测网络
-
ForestCoverChange -> 使用遥感影像检测和预测巴基斯坦地区的森林覆盖变化
-
毁林检测-> 使用 SENTINEL-2 深度学习在乌克兰森林生态系统中进行高频变化检测
-
Forest_change_detection -> 具有时间相关模型的森林变化分割,包括 Siamese、UNet-LSTM、UNet-diff、UNet3D 模型
-
SentinelClearcutDetection -> 在 Sentinel-2 A 级图像上进行森林砍伐检测的脚本
-
clearcut_detection -> 用于清除检测的研究和网络服务
-
CDRL -> 基于图像重建损失的无监督变化检测
-
ddpm-cd -> 使用去噪扩散概率模型进行遥感变化检测(分割)
-
遥感时间序列变化检测-> 使用 Sentinel-2 时间序列进行基于图的块级城市变化检测
-
austin-ml-change-detection-demo -> 奥斯汀地区的变化检测演示,使用预先训练的 PyTorch 模型,通过 Dask on Planet 图像进行缩放
-
dfc2021-msd-baseline -> 2021 年 IEEE GRSS 数据融合竞赛多时相语义变化检测赛道
-
CorrFusionNet -> 基于相关性融合的多时态场景分类和场景变化检测
-
ChangeDetectionPCAKmeans -> 使用主成分分析和 k 均值聚类对卫星图像进行无监督变化检测。
-
IRCNN -> IRCNN:一种用于卫星时间序列变化检测的不规则时间距离递归卷积神经网络
-
UTRNet -> 用于不规则收集图像中变化检测的无监督时间距离引导卷积循环网络
-
open-cd -> 一个基于一系列开源通用视觉任务工具的开源变化检测工具箱
-
Tiny_model_4_CD -> TINYCD:用于变化检测的(并非如此)深度学习模型。使用 LEVIR-CD 和 WHU-CD 数据集
-
FHD -> 遥感图像变化检测的特征层次微分
-
使用 Raster Vision 进行更改检测-> 使用 Colab 笔记本的博客文章
-
Building-expansion -> 通过近实时监控加强环境执法:基于似然性的集约化畜牧场结构扩张检测
-
SaDL_CD -> 用于遥感图像变化检测的语义感知密集表示学习
-
EGCTNet_pytorch -> 基于边缘引导卷积神经网络结合 Transformer 构建变化检测
-
S2-cGAN -> S2-cGAN:用于多光谱图像中二进制变化检测的自监督对抗表示学习
-
A-loss-function-for-change-detection -> UAL:用于变化检测网络的不变区域损失函数
-
IEEE_TGRS_SSTFormer -> 用于高光谱图像变化检测的光谱-空间-时间变换器
-
DMINet -> 使用双分支多级跨时网络对遥感图像进行变化检测
-
AFCF3D-Net -> 邻接级特征与 3D CNN 交叉融合,用于遥感图像变化检测
-
DSAHRNet -> 用于遥感图像变化检测的深度关注高分辨率网络
-
RDPNet -> RDP-Net:用于变化检测的区域细节保留网络
-
BGAAE_CD -> 使用 VHR 遥感图像进行无监督变化检测的二分图注意自动编码器
-
无监督变化检测-> 使用主成分分析和 k 均值聚类进行卫星图像无监督变化检测
-
Metric-CD -> 用于遥感图像无监督变化检测的深度度量学习
-
HANet-CD -> HANet:用于双时态超高分辨率遥感图像变化检测的分层注意网络
-
SRGCAE -> 基于结构关系图表示学习的无监督多模态变化检测
-
Change_Detection_onera_baselines -> U-Net 基线模型的连体版本
-
SiamCRNN -> 通过深度连体卷积多层循环神经网络进行多源 VHR 图像的变化检测
-
基于图的遥感图像变化检测方法-> 基于信号平滑表示的图学习同质和异质变化检测
-
TransUNetplus2 -> TransU-Net++:重新思考用于森林砍伐绘图的注意力门控 TransU-Net。使用亚马逊和大西洋森林数据集
-
AR-CDNet -> 通过知识回顾和在线不确定性估计实现遥感图像准确可靠的变化检测
-
CICNet -> 用于遥感变化检测的紧凑型时间耦合网络
-
BGINet -> 图交互的遥感图像变化检测
-
DSNUNet -> DSNUNet:通过结合 Sentinel-1 和 Sentinel-2 图像改进的森林变化检测网络
-
Forest-CD -> Forest-CD:基于VHR图像的森林变化检测网络
-
S3Net_CD -> 用于多时相图像变化检测中变化检测的超像素引导自监督学习网络
-
T-UNet -> T-UNet:用于高分辨率遥感图像变化检测的三元组 UNet
-
UCDFormer -> UCDFormer:使用 Transformer 驱动的图像转换进行无监督变化检测
-
Satellite-change-events -> 更改时空遥感影像发现的事件数据集,使用 Sentinel 2 CaiRoad 和 CalFire 数据集
-
CACo -> 卫星图像的变化感知采样和对比学习
-
LightCDNet -> LightCDNet:基于VHR图像的轻量级变化检测网络
-
OpenMineChangeDetection -> 根据卫星数据描述露天采矿 (Sentinel 2),实现 TinyCD、LSNet 和 DDPM-CD
-
multi-task-L-UNet -> 耦合语义分割和全卷积 LSTM 网络的深度多任务学习框架,用于城市变化检测。应用于SpaceNet7数据集
-
Urban_change_detection -> 使用循环神经网络从多时相 Sentinel-2 数据检测城市变化。Fabric是另一种实现
-
UNetLSTM -> 使用循环神经网络从多时相 Sentinel-2 数据检测城市变化
-
SDACD -> 用于跨域变化检测的端到端监督域适应框架
-
CycleGAN-Based-DA-for-CD -> 基于 CycleGAN 的域适应用于森林砍伐检测
-
CGNet-CD -> 变化引导网络:在遥感影像中引导变化检测之前纳入变化
-
PA-Former -> PA-Former:学习先验感知变压器,用于遥感建筑变化检测
-
AERNet -> AERNet:注意力引导边缘细化网络和遥感建筑变化检测数据集 (HRCUS-CD)
-
S1GFlood-Detection -> DAM-Net:使用基于差分注意度量的视觉变压器从 SAR 图像进行全球洪水检测。包括 S1GFloods 数据集
-
Changen -> 通过模拟随机变化过程生成可扩展的多时相遥感变化数据
-
TTP -> 时间旅行像素:双时态特征与遥感图像变化检测基础模型的集成
-
SAM-CD -> 采用分段任意模型进行 HR 遥感图像变化检测
遥感数据中时间序列观测的分析具有许多应用,包括提高分类模型的准确性以及预测未来的模式和事件。图片来源。注意:由于对作物进行分类和预测作物产量是时间序列数据的重要用例,因此这些任务在此之后有专门的部分。
-
temporalCNN -> 用于卫星图像时间序列分类的时间卷积神经网络
-
pytorch-psetae -> 使用像素集编码器和时间自注意力进行卫星图像时间序列分类
-
satflow -> 用于根据当前和过去的卫星图像预测未来卫星图像的光流模型
-
esa-superresolution-forecasting -> 使用 ESA Sentinel-5p 数据和编码器-解码器卷积 LSTM 神经网络架构预测空气污染
-
light-temporal-attention-pytorch -> 用于卫星图像时间序列的轻量时间注意力编码器(L-TAE)
-
dtwSat -> 用于卫星图像时间序列分析的时间加权动态时间规整
-
MTLCC -> 多时相土地覆盖分类网络。用于土地覆盖分类的多时相数据编码的循环神经网络方法
-
PWWB -> 通过卫星图像分析使用深度卷积 LSTM 进行实时时空空气污染预测
-
spaceweather -> 使用 LSTM 通过卫星测量太阳风和日冕预测地磁风暴
-
Forest_wildfire_spreading_convLSTM -> 使用具有 ConvLSTM 单元的神经网络对森林野火的蔓延进行建模。未来 3 天的预测
-
ConvTimeLSTM -> ConvLSTM 和 Time-LSTM 的扩展,适用于不规则间隔图像,适用于遥感
-
dl-time-series -> 应用于遥感时间序列表征的深度学习算法
-
tpe -> 具有热位置编码的卫星图像时间序列的广义分类
-
wildfire_forecasting -> 每日野火危险预测的深度学习方法。使用 ConvLSTM
-
Satellite_image_forecasting -> 使用降水量和海拔图等特征根据过去的卫星图像预测未来的卫星图像。参加EarthNet2021挑战赛
-
使用 Sentinel 时间序列对归一化差异植被指数进行云间隙填充的深度学习-> 基于 CNN-RNN 的模型,可识别光学数据和 SAR 数据之间的相关性,并导出静态 6 的密集归一化植被指数 (NDVI) 时间序列-日间分辨率,可用于事件检测任务
-
DeepSatModels -> SITS 的 ViT:卫星图像时间序列的视觉转换器
-
Presto -> 用于遥感时间序列的轻量级预训练 Transformer
-
使用时间序列数据和光谱带的 LULC 映射-> 使用从时间序列数据中学习的一维卷积。随附博客文章:时间旅行像素:土地利用建模之旅
遥感中的作物分类是对图像或图像序列中不同作物的识别和绘图。它旨在深入了解特定区域作物的分布和组成,其应用包括监测作物生长和评估作物损害。传统的机器学习方法(例如决策树和支持向量机)和深度学习技术(例如卷积神经网络(CNN))都可以用于执行作物分类。最佳方法取决于数据集的大小和复杂性、所需的精度以及可用的计算资源。然而,作物分类的成功在很大程度上取决于输入数据的质量和分辨率,以及标记训练数据的可用性。图片来源:杨成海用于精准农业的高分辨率卫星成像传感器
-
通过卫星图像时间序列对农田进行分类-> 使用pytorch-psetae和 Sentinel-2 数据
-
CropDetectionDL -> 使用 GRU-net,由 CV4A 研讨会在 ICLR 2020 举办的卫星图像作物检测竞赛第一名解决方案
-
Radiant-Earth-Spot-the-Crop-Challenge -> 该挑战的主要目标是使用 Sentinel-2 多光谱数据的时间序列对南非西开普省的农作物进行分类。挑战是建立一个机器学习模型来预测测试数据集的作物类型类别
-
作物分类-> 使用多时态卫星图像进行作物分类
-
DeepCropMapping -> 一种多时态深度学习方法,使用 LSTM 改进动态玉米和大豆绘图的空间泛化性
-
CropMappingInterpretation -> 用于理解作物绘图的多时态深度学习方法的解释管道
-
timematch -> 一种对用卫星图像时间序列训练的作物分类器进行无监督跨区域适应的方法。我们还引入了一个开放访问数据集,用于使用来自欧洲四个不同地区的 SITS 进行跨区域适应
-
elects -> 用于当季作物类型映射的时间序列的端到端学习早期分类
-
3d-fpn-and-time-domain -> Sentinel 2 时间序列分析,使用 3D 特征金字塔网络和时域类激活间隔进行作物映射
-
in-season-and-dynamic-crop-mapping -> 使用 3D 卷积神经网络和 Sentinel-2 时间序列的季节和动态作物映射,使用伦巴第作物数据集
-
MultiviewCropClassification -> 作物分类多视图融合学习的比较评估
-
StressNet:基于时空可变形注意力的玉米水分胁迫分类框架-> 对无人机捕获的玉米多光谱数据进行水分胁迫分类
农作物产量是农业的一个重要指标,因为它决定了农场的生产力和盈利能力。它被定义为每单位面积土地的农作物产量,受到土壤肥力、天气条件、农作物种植类型以及病虫害控制等一系列因素的影响。通过利用卫星图像的时间序列,可以进行准确的作物类型分类并利用某些作物特有的季节变化。这些信息可用于优化作物管理实践并最终提高作物产量。然而,为了获得准确的结果,必须考虑输入数据的质量和分辨率,以及标记训练数据的可用性。还必须采用适当的预处理和特征提取技术。图片来源。
-
深度学习作物产量预测-> 基于遥感数据的作物产量预测深度高斯过程
-
Crop-Yield-Prediction-using-ML -> 开发一个简单的 Web 应用程序,以便为农民/用户提供根据给定输入将产生多少作物产量的近似值
-
pycrop-yield-prediction -> 用于作物产量预测的深度高斯过程
-
PredictYield -> 使用从 Google Earth Engine 抓取的数据,通过 Keras 预测美国玉米、大豆和小麦的产量
-
SPACY -> 玉米总产量的卫星预测
-
CropyieldArticle -> 使用 Sentinel-2 时间序列和时间卷积网络进行可扩展的作物产量预测
-
CNN-RNN-Yield-Prediction ->农作物产量预测的 CNN-RNN 框架
-
产量预测-DNN -> 使用深度神经网络进行作物产量预测
-
MMST-ViT -> MMST-ViT:通过多模态时空视觉转换器进行气候变化感知作物产量预测。本文利用 Tiny CropNet 数据集
通过地面调查收集经济数据的传统方法是一个耗时且资源密集的过程。然而,卫星技术和机器学习的进步提供了替代解决方案。通过利用卫星图像并应用机器学习算法,可以更高效地获取有关经济活动的准确且最新的信息。这种向基于卫星图像的预测的转变不仅可以节省成本,还可以提供更广泛、更全面的经济活动视角。因此,它有望成为政策制定者和企业的宝贵资产。图片来源。
-
使用公开的卫星图像和深度学习来了解非洲的经济福祉,Nature Comms 2020 年 5 月 22 日-> 使用 CNN 处理 Ladsat 图像(夜间和白天)来预测非洲村庄的资产财富
-
Satellite_led_liverpool -> 基于遥感的生活环境剥夺测量 - 通过机器学习改进经典方法
-
SustainBench -> 通过机器学习监测可持续发展目标的基准
-
构建空间模型对全球城市化水平进行分类-> 根据人口数据、夜间灯光和道路网络估计全球城市化水平
-
deeppop -> Deep Learning Approach for Population Estimation from Satellite Imagery,也在Github 上
-
satimage -> 手稿“使用多任务深度学习从卫星图像预测贫困和发展统计”的代码和模型。根据卫星图像预测屋顶的主要材料、照明源和饮用水源
-
africa_poverty -> 使用公开的卫星图像和深度学习来了解非洲的经济福祉
-
Predicting-Poverty -> 在 PyTorch 中结合卫星图像和机器学习来预测贫困
-
收入预测-> 使用 CNN 根据卫星图像预测平均年收入,使用 pytorch
-
Urban_score -> 学习从卫星图像对经济发展进行评分
-
阅读-> 从卫星图像中轻量且稳健地表示经济规模
-
贫民窟分类-> 在使用unet绘制非正式住区地图的情况下,对超高分辨率卫星图像进行二元分类
-
Predicting_Poverty -> 使用白天和夜间卫星图像的光度
-
癌症患病率卫星图像-> 根据卫星图像特征预测健康结果
-
利用卫星图像和深度学习绘制孟加拉国的贫困地图-> 将健康数据与 OpenStreetMaps 数据以及夜间和白天卫星图像相结合
-
Deep_Learning_Satellite_Imd -> 使用卫星图像深度学习来预测人口和经济指标
遥感图像用于灾害响应,以识别和评估某个地区的损失。该图像可用于检测受损或被毁的建筑物、识别堵塞的道路和道路网、确定灾区的大小和形状,以及识别有洪水风险的区域。遥感图像还可用于探测和监测森林火灾的蔓延情况以及监测植被健康状况。另请查看有关变化检测和水/火/建筑分割的部分。图片来源。
-
DisaVu -> 结合了建筑和损坏检测并提供了用于查看预测的应用程序
-
Soteria -> 使用机器学习和卫星图像来绘制自然灾害影响图,以加快应急响应速度
-
DisasterHack -> 野火缓解:利用陆地卫星计算机视觉识别危险燃料
-
森林预报-> 由分析提供支持的森林火灾预测
-
Google AI 博客上基于机器学习的救灾损害评估-> 使用对象检测来定位建筑物,然后使用分类器来确定建筑物是否受损。由于数据集较小而导致泛化的挑战
-
hurricane_damage -> 基于 CNN 航空图像的飓风后结构损坏评估
-
救援-> 论文代码:关注火灾:用于野火严重程度预测的多通道深度学习模型
-. 灾难分类-> 灾难分类模型,用于预测给定输入图像的灾难类型
-
BDD-Net -> 基于卫星图像绘制遭受各种灾害损坏的建筑物的通用协议
-
Building-segmentation-disaster-resilience -> 开放城市人工智能挑战赛第二名解决方案:分段建筑物以提高抗灾能力
-
IBM-Disaster-Response-Hack -> 确定穿越受灾地区的最佳地面路线。卫星图像数据为路况评估和障碍物检测提供信息
-
飓风后卫星图像的自动损坏注释-> 使用张量流对象检测 API 检测损坏的建筑物。在这里和这里都有回购协议
-
飓风损坏检测-> 滑铁卢的 Hack the North 2020++ 提交。用于检测 RGB 卫星图像中飓风损坏的卷积神经网络模型
-
wildfire_forecasting -> 每日野火危险预测的深度学习方法。使用 ConvLSTM
-
沙克尔顿-> 利用遥感图像和机器学习技术,在进行实时计算的交互式仪表板中提供对各种交通和疏散场景的见解
-
ai-vegetation-fuel -> 使用机器学习、LightGBM 和 CatBoost 根据地球观测数据预测燃料负载
-
AI 帮助通过卫星图像检测灾难损害-> NVIDIA 博客文章
-
Turkey-Earthquake-2023-Building-Change-Detection -> 该存储库包含源自 Maxar 开放数据图像的建筑足迹和 blackshark-ai 的变化检测结果
-
MS4D-Net-建筑物损坏评估-> MS4D-Net:基于多任务的半监督语义分割框架,具有扰动双均值教师,用于根据高分辨率遥感图像进行建筑物损坏评估
-
DAHiTra -> 在卫星图像上使用新型分层变压器架构进行大规模建筑损坏评估。使用 xView2 xBD 数据集
超分辨率是一种旨在提高成像系统分辨率的技术。该过程可以在其他图像处理步骤之前应用,以增加小物体或边界的可见性。尽管具有潜在的好处,但超分辨率的使用仍存在争议,因为可能会引入可能被误认为真实特征的伪影。超分辨率技术大致分为两类:单图像超分辨率(SISR)和多图像超分辨率(MISR)。SISR 专注于增强单个图像的分辨率,而 MISR 利用同一场景的多个图像来创建高分辨率输出。每种方法都有其自身的优点和局限性,方法的选择取决于具体的应用和期望的结果。图片来源。
请注意,几乎所有 MISR 出版物均来自PROBA-V 超分辨率竞赛
-
deepsum -> 用于未配准多时相图像超分辨率的深度神经网络(ESA PROBA-V 挑战)
-
3DWDSRNet -> 使用 3D 宽激活神经网络的卫星图像多帧超分辨率 (MISR)
-
RAMS -> 使用残余注意力深度神经网络的遥感图像多图像超分辨率
-
HighRes-net -> HighRes-net 的 Pytorch 实现,这是一种用于多帧超分辨率的神经网络,在欧洲航天局的开尔文竞赛中进行了训练和测试
-
ProbaVref -> 重新利用 Proba-V 挑战来实现参考感知超分辨率
-
深度多时相卫星图像超分辨率中缺失的成分-> 排列不变性利用单个模型中集成的力量,并带有 repo piunet
-
MSTT-STVSR -> 卫星视频时空超分辨率:基于多尺度时空变换器的联合框架,JAG,2022
-
DDRN -> 用于视频卫星图像超分辨率的深度蒸馏递归网络
- worldstrat -> SRCNN 的 SISR 和 MISR 实现
-
MISR-GRU -> MISR-GRU 的 Pytorch 实现,MISR-GRU 是一种用于多图像超分辨率 (MISR) 的深度神经网络,用于 ProbaV 超分辨率竞赛
-
MSDTGP -> 通过多尺度可变形卷积对齐和时间分组投影实现卫星视频超分辨率
-
proba-v-super-resolution-challenge -> ESA 卫星图像超分辨率挑战的解决方案
-
PROBA-V-Super-Resolution -> 使用自定义深度学习架构的解决方案
-
satlas-super-resolution -> Satlas 超分辨率:模型是 ESRGAN 的改编版,所做的更改允许输入为 Sentinel-2 图像的时间序列。
-
MISR 遥感 SRGAN -> 用于 RGB 遥感图像的 PyTorch SRGAN,执行 SISR 和 MISR。MISR 实现的灵感来自 RecursiveNet (HighResNet)。包括预训练的检查点。
-
通过结合 Deep Image Prior 和 Decrappify 增强 Sentinel 2 图像。深度图像先验的存储库和关于decrappify的文章
-
使用高效子像素 CNN 的图像超分辨率-> keras 文档有一个关于这个轻量但性能良好的模型的很棒的教程
-
super-resolution-using-gan -> 使用生成对抗网络的 Sentinel-2 超分辨率
-
使用 HighRes-Net对 Sentinel-2 图像进行多时态超分辨率, repo
-
SSPSR-Pytorch -> 用于单高光谱图像超分辨率的空间光谱先验深度网络
-
CinCGAN -> 使用循环生成对抗网络的无监督图像超分辨率
-
EEGAN -> 用于遥感图像超分辨率的边缘增强 GAN,TensorFlow 1.1
-
PECNN -> 视频卫星图像超分辨率的渐进增强网络,最少的文档
-
hs-sr-tvtv -> 通过 RGB 融合和 TV-TV 最小化增强高光谱图像超分辨率
-
sr4rs -> 遥感超分辨率,具有受 SRGAN 启发的 Sentinel-2 预训练模型
-
使用深度学习恢复旧航拍图像-> 关于具有感知损失函数和真实图像作为输入的超分辨率的中型文章
-
RFSR_TGRS -> 通过循环反馈嵌入和空间光谱一致性正则化的高光谱图像超分辨率
-
TransENet -> 基于 Transformer 的遥感图像超分辨率多级增强
-
SG-FBGAN -> 通过显着性引导反馈 GAN 实现遥感图像超分辨率
-
finetune_ESRGAN -> 微调遥感图像和视频的 ESRGAN 超分辨率生成器
-
MIP -> 通过迁移图像先验实现无监督遥感超分辨率
-
光学遥感图像分辨率-> 用于光学遥感图像恢复的深度内存连接神经网络。两个应用:高斯图像去噪和单图像超分辨率
-
HSENet -> 遥感图像超分辨率的混合尺度自相似性开发
-
RSI-Net -> 用于遥感图像超分辨率和着色的深度多任务卷积神经网络
-
EDSR-超分辨率-> 使用 PyTorch 的 EDSR 模型应用于卫星图像
-
CycleCNN -> 用于单遥感图像超分辨率的非成对训练循环卷积神经网络
-
SISR with Real World Degradation Modeling -> 基于真实世界退化建模的遥感图像单图像超分辨率
-
Pixel-smasher -> 使用 Planet CubeSat 图像和生成对抗网络对加拿大地盾进行超分辨率地表水测绘
-
Satellite-image-super-resolution -> 基于CNN的卫星图像单图超分辨率技术对比研究
-
SatelliteSR -> DOTA数据集上多项技术的比较
-
图像超分辨率-> 超分辨率RESNET网络
-
Sentinel-2 卫星图像的无监督超分辨率-> 使用 Deep Image Prior (DIP)、零样本超分辨率 (ΖSSR) 和退化感知超分辨率 (DASR)
-
使用 GAN 的超分辨率 / 4 倍改进-> 应用于 Sentinel 2
-
rs-esrgan -> RS-ESRGAN:使用生成对抗网络的 Sentinel-2 图像超分辨率
-
TS-RSGAN -> 无参考图像的 4 倍分辨率遥感图像超分辨率。应用于 Sentinel-2
-
CDCR -> 结合离散和连续表示:卫星图像的任意尺度超分辨率
-
FunSR -> 基于隐函数空间上下文交互的连续遥感图像超分辨率
-
HAUNet_RSISR -> 用于遥感图像超分辨率的基于混合注意力的 U 形网络
-
超分辨率的价值 — 现实世界用例-> 使用超分辨率卫星图像进行地块边界检测的中型文章
-
使用深度学习实现卫星图像超分辨率-> CosmiQ Works 于 2016 年 11 月发表的博客文章对该主题进行了很好的介绍。提出并演示了一种具有扰动层的新架构,并提供了方法和代