Skip to content

yuanzhongqiao/techniques

 
 

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

介绍

深度学习彻底改变了卫星和航空图像的分析和解释,解决了巨大的图像尺寸和广泛的对象类别等独特的挑战。该存储库提供了专为卫星和航空图像处理量身定制的深度学习技术的详尽概述。它涵盖了一系列适用于分类、分割和对象检测等关键任务的架构、模型和算法。

如何使用此存储库:使用Command + F(Mac)或CTRL + F(Windows)搜索此页面,注意搜索原始markdown文件可以更有效

该存储库由 Orboculum 自豪地赞助。Orbuculum 是一个创新且快速发展的平台,旨在通过提供独特的机器学习模型货币化途径,为 GIS 和地球观测 (EO) 研究人员提供支持。Orbuculum 与传统市场截然不同,它通过将这些模型转变为智能合约,开创了一种变革性方法。这使得每次部署模型时都会自动为创建者提供报酬,从而培育一个高效且有益的生态系统。

Orbuculum 的潜力远远超出了 GIS/EO 研究行业的重塑。它有望成为公共福利倡议的宝贵渠道,特别是那些努力减缓气候变化的倡议。通过提供对重要数据和富有洞察力的分析的访问,Orbuculum 承诺在应对一些最紧迫的全球问题的持续斗争中发挥强大的资源作用。这种尖端技术与具有社会影响力的使命的结合可以使 Orbuculum 成为科学研究和可持续发展交叉点的工具平台。

技巧

  • 分类
  • 分割
  • 实例分割
  • 物体检测
  • 物体计数
  • 回归
  • 云检测和删除
  • 变化检测
  • 时间序列
  • 作物分类
  • 农作物产量
  • 财富和经济活动
  • 灾难应对
  • 超分辨率
  • 全色锐化
  • 图像到图像的翻译
  • 数据融合
  • 生成网络
  • 自动编码器、降维、图像嵌入和相似性搜索
  • 图像检索
  • 图像字幕
  • 视觉问答
  • 混合数据学习
  • 少样本和零样本学习
  • 自监督、无监督和对比学习
  • 弱监督学习和半监督学习
  • 主动学习
  • 联邦学习
  • 变形金刚
  • 对抗性机器学习
  • 图像配准
  • 地形测绘、视差估计、激光雷达、DEM 和 NeRF
  • 热红外
  • SAR
  • NDVI-植被指数
  • 一般图像质量
  • 综合数据
  • 大视觉和语言模型(LLM 和 LVM)
  • 基础模型

分类


UC Merced 数据集是众所周知的分类数据集。

分类是遥感数据分析中的一项基本任务,其目标是为每幅图像分配语义标签,例如“城市”、“森林”、“农田”等。为图像分配标签的过程是称为图像级分类。然而,在某些情况下,单个图像可能包含多种不同的土地覆盖类型,例如有河流穿过的森林,或者既有住宅区又有商业区的城市。在这些情况下,图像级分类变得更加复杂,并且涉及为单个图像分配多个标签。这可以通过结合特征提取和机器学习算法来准确识别不同的土地覆盖类型来实现。需要注意的是,图像级分类不应与像素级分类(也称为语义分割)混淆。图像级分类为整个图像分配单个标签,而语义分割为图像中的每个单独像素分配一个标签,从而对图像中的土地覆盖类型进行高度详细且准确的表示。阅读神经网络卫星图像分类简介

分割


(左)卫星图像和(右)图像中的语义类别。

图像分割是图像分析和计算机视觉中的关键步骤,其目标是将图像划分为语义上有意义的片段或区域。图像分割过程为图像中的每个像素分配一个类标签,从而有效地将图像从 2D 像素网格转换为具有指定类标签的 2D 像素网格。图像分割的一种常见应用是道路或建筑物分割,其目标是识别道路和建筑物并将其与图像中的其他特征分开。为了完成此任务,通常训练单类模型来区分道路和背景,或建筑物和背景。这些模型旨在识别道路或建筑物特征的特定特征,例如颜色、纹理和形状,并使用此信息为图像中的像素分配类标签。图像分割的另一个常见应用是土地利用或作物类型分类,其目标是识别和绘制图像中不同的土地覆盖类型。在这种情况下,多类模型通常用于识别和区分图像中的多个类,例如森林、城市地区和农田。这些模型能够识别不同土地覆盖类型之间的复杂关系,从而可以更全面地理解图像内容。阅读使用神经网络进行卫星图像分割的简要介绍请注意,许多提到“高光谱土地分类”的文章实际上通常是在描述语义分割。图片来源

细分 - 土地利用和土地覆盖

分割 - 植被、森林砍伐、农作物和农作物边界

请注意,森林砍伐检测可以被视为分割任务或变化检测任务

细分 - 水、海岸线和洪水

分割 - 火灾、烟雾和烧伤区域

分割 - 山体滑坡

分割 - 冰川

  • HED-UNet -> 同步语义分割和边缘检测的模型,提供的示例是使用 Inria 航空图像标签数据集的冰川前缘和建筑物足迹

  • glacier_mapping -> 绘制兴都库什喜马拉雅冰川的地图,Landsat 7 图像,冰川的 Shapefile 标签,带有 dropout 的 Unet

  • glacier-detect-ML -> 一个简单的逻辑回归模型,用于识别 Landsat 卫星图像中的冰川

  • 冰川语义分割

  • 南极裂缝检测-> 使用 UNet 和南极洲 MODIS Mosaic 来检测地表裂缝

细分-其他环境

分段 - 道路和人行道

由于其他物体的遮挡以及复杂的交通环境,提取道路具有挑战性

分割 - 建筑物和屋顶

细分 - 太阳能电池板

分割-其他人造

全景分割

细分 - 其他

实例分割

在实例分割中,分割区域的每个单独的“实例”都被赋予一个唯一的标签。对于检测非常小的物体,这可能是一个很好的方法,但它可能很难分离间隔很近的单个物体。

物体检测


显示旋转边界框在遥感中的适用性的图像。

遥感中的对象检测涉及使用边界框定位和包围感兴趣的对象。由于遥感图像尺寸较大且对象可能仅包含几个像素,因此在这种情况下对象检测可能具有挑战性。待检测物体的区域与背景之间的不平衡,加上物体很容易与背景中的随机特征混淆的可能性,使任务进一步复杂化。对象检测通常在较大对象上表现更好,但随着对象变得更小且更密集,对象检测变得越来越困难。随着图像分辨率的降低,目标检测模型的准确性也会迅速下降,这就是为什么在遥感中通常使用高分辨率图像(例如 30cm RGB)进行目标检测的原因。航空图像的一个独特特征是物体可以朝向任何方向。为了有效地提取物体长度和宽度的测量值,使用与物体方向对齐的旋转边界框至关重要。这种方法可以对图像内的对象进行更准确、更有意义的分析。图片来源

视频中的对象跟踪

  • TCTrack -> 空中跟踪的时间上下文

  • CFME -> 通过改进的相关滤波器和运动估计进行卫星视频中的对象跟踪

  • TGraM -> 使用基于图的多任务建模进行卫星视频中的多目标跟踪

  • Satellite_video_mod_groundtruth -> 卫星视频上的 groundtruth,用于评估移动物体检测算法

  • 移动物体检测-DSFNet -> DSFNet:用于卫星视频中移动物体检测的动态和静态融合网络

  • HiFT -> 用于空中跟踪的分层特征转换器

使用旋转边界框进行物体检测

定向边界框 (OBB) 是表示旋转矩形的多边形。对于数据集,请查看 DOTA 和 HRSC2016。从 Yolov8 开始

  • mmrotate -> 旋转对象检测基准,具有预训练模型和用于对非常大图像进行推理的功能

  • OBBDetection -> 一个面向物体检测库,基于MMdetection

  • rotate-yolov3 -> 使用 yolov3 实现的旋转对象检测。另请参阅yolov3-polygon

  • DRBox -> 用于物体任意方向的检测任务,例如车辆、船舶和飞机

  • s2anet -> 对齐深度特征以进行定向对象检测

  • CFC-Net -> 遥感图像中任意方向目标检测的关键特征捕获网络

  • ReDet -> 用于空中物体检测的旋转等变检测器

  • BBAVectors-Oriented-Object-Detection -> 使用框边界感知向量进行航拍图像中的定向对象检测

  • CSL_RetinaNet_Tensorflow -> 使用圆形平滑标签的任意方向的物体检测

  • r3det-on-mmdetection -> R3Det:改进的单级探测器,具有旋转物体特征细化功能

  • R-DFPN_FPN_Tensorflow -> 旋转密集特征金字塔网络 (Tensorflow)

  • R2CNN_Faster-RCNN_Tensorflow -> 基于Faster-RCNN的旋转区域检测

  • Rotated-RetinaNet -> 在pytorch中实现,支持以下数据集:DOTA、HRSC2016、ICDAR2013、ICDAR2015、UCAS-AOD、NWPU VHR-10、VOC2007

  • OBBDet_Swin -> 2021年高分挑战赛第六名获奖方案

  • CG-Net -> 航空图像中目标检测的学习校准指南

  • OrientedRepPoints_DOTA -> 定向 RepPoints + Swin Transformer/ReResNet

  • yolov5_obb -> yolov5 + 定向目标检测

  • 如何训练 YOLOv5 OBB -> YOLOv5 OBB 教程和YOLOv5 OBB 笔记本

  • OHDet_Tensorflow -> 可应用于旋转检测和物体航向检测

  • Seodore -> 维护 mmdetection 最新更新的框架

  • Rotation-RetinaNet-PyTorch -> 定向探测器 Rotation-RetinaNet 在光学和 SAR 船舶数据集上的实现

  • AIDet -> 一个基于 MMDetection 的开源航拍图像目标检测工具箱

  • rotation-yolov5 -> 基于yolov5的旋转检测

  • ShipDetection -> 基于 Faster R-CNN 和 ORN,通过旋转边界框在 HR 光学遥感图像中进行船舶检测,使用 caffe

  • SLRDet -> 基于mmdetection的项目重新实现RRPN并使用模型Faster R-CNN OBB

  • AxisLearning -> 用于航空图像中定向物体检测的轴学习

  • Detection_and_Recognition_in_Remote_Sensing_Image -> 本工作使用 PaNet 通过 MXNet 实现遥感图像中的检测和识别

  • DrBox-v2-tensorflow -> DrBox-v2 的张量流实现,它是一种改进的检测器,具有可旋转框,用于遥感图像中的目标检测

  • Rotation-EfficientDet-D0 -> 基于 PyTorch 实现旋转检测器的 EfficientDet 检测器,应用于自定义旋转车辆数据集

  • DODet -> 用于定向对象检测的双重对齐,使用 DOTA 数据集

  • GF-CSL -> 高斯焦点损失:学习分布偏振角度预测,用于航空图像中旋转物体检测

  • simple_rbox_cnn -> RBox-CNN:基于旋转边界框的 CNN,用于遥感图像中的船舶检测。使用 Tensorflow 对象检测 API

  • Polar-Encodings -> 学习 SAR 图像中任意方向船舶检测的极地编码

  • R-CenterNet -> 基于 CenterNet 的旋转物体检测器

  • piou -> 定向物体检测;IoU Loss,应用于DOTA数据集

  • DAFNe -> 一种用于定向物体检测的单阶段无锚方法

  • AProNet -> 从航空图像中检测具有精确方向的物体。应用于数据集 DOTA 和 HRSC2016

  • UCAS-AOD-benchmark -> UCAS-AOD 数据集的基准

  • RotateObjectDetection -> 基于 Ultralytics/yolov5,进行调整以启用旋转预测框。另请参阅多边形对象检测

  • AD-Toolbox -> 基于MMDetection和MMRotate的空中检测工具箱,支持更多数据集

  • GGHL -> 用于任意方向对象检测的通用高斯热图标签分配

  • NPMMR-Det -> 一种新颖的非局部感知金字塔和多尺度多任务细化检测器,用于遥感图像中的目标检测

  • AOPG -> 用于目标检测的无锚定向提案生成器

  • SE2-Det -> 用于遥感图像中定向物体检测的语义边缘监督单级检测器

  • OrientedRepPoints -> 用于空中物体检测的定向 RepPoints

  • TS-Conv -> 用于航空图像中任意方向物体检测的任务式采样卷积

  • FCOSR -> 用于空中物体检测的简单无锚旋转探测器。该实现是从 mmdetection 修改而来的。另请参见TensorRT_Inference

  • OBB_Detection -> 2022粤港澳大湾区国际算法大赛遥感图像定向目标检测赛道入围方案

  • sam-mmrotate -> SAM (Segment Anything Model),用于使用 MMRotate 生成旋转边界框,这是 H2RBox-v2 的比较方法

  • mmrotate-dcfl -> 用于定向微小物体检测的动态粗到精学习

  • h2rbox-mmrotate -> 水平框注释是定向对象检测所需的全部

  • 空间变换解耦-> 用于定向目标检测的空间变换解耦

  • ARS-DETR -> 使用 Transformer 进行长宽比敏感定向物体检测

  • CFINet -> 通过从粗到细的提案生成和模仿学习进行小物体检测。引入SODA-A 数据集

超分辨率增强物体检测

显着物体检测

检测场景中最引人注目或最重要的物体

  • ACCoNet -> 用于光学遥感图像中显着目标检测的相邻上下文协调网络

  • MCCNet -> 用于光学遥感图像中显着目标检测的多内容互补网络

  • CorrNet -> 通过特征相关进行光学遥感图像中的轻量级显着目标检测

  • 基于深度学习的光学遥感图像显着目标检测阅读清单

  • ORSSD-数据集-> 显着目标检测数据集

  • EORSSD-数据集-> 扩展光学遥感显着性检测 (EORSSD) 数据集

  • DAFNet_TIP20 -> 用于光学遥感图像中显着目标检测的密集注意力流体网络

  • EMFINet -> 用于光学遥感图像中显着目标检测的边缘感知多尺度特征集成网络

  • ERPNet -> 用于光学遥感图像中显着目标检测的边缘引导循环定位网络

  • FSMNet -> 全压缩多尺度推理网络,用于光学遥感图像中快速准确的显着性检测

  • AGNet -> AGNet:用于光学遥感图像中显着目标检测的注意力引导网络

  • MSCNet -> 用于光学遥感图像中显着目标检测的轻量级多尺度上下文网络

  • GPnet -> 遥感图像中显着目标检测的全局感知网络

  • SeaNet -> 通过语义匹配和边缘对齐进行光学遥感图像中的轻量级显着目标检测

  • GeleNet -> Transformer 驱动的光学遥感图像中的显着目标检测

物体检测 - 建筑物、屋顶和太阳能电池板

物体检测 - 船舶

物体检测 - 汽车、车辆和火车

物体检测 - 飞机和飞机

物体检测 - 基础设施和公用设施

物体检测-储油罐检测

石油在开采和销售之间的许多地点都储存在油罐中,储存的石油量是一个重要的经济指标。

物体检测 - 动物

可以使用多种技术来对动物进行计数,包括对象检测和实例分割。为了方便起见,它们都列在这里:

物体检测 - 其他

物体计数

当需要对象数量而不是其形状时,可以使用 U-net 将其视为图像到图像的转换问题。

  • centroid-unet -> Centroid-UNet 是深度神经网络模型,用于从卫星图像中检测质心

  • cownter_strike -> 计算奶牛,使用点注释定位,两个模型:CSRNet(基于密度的方法)和 LCFCN(基于检测的方法)

  • DO-U-Net -> 当需要知道物体大小以及图像中物体数量时的一种有效方法,最初是为了对阿富汗境内流离失所者 (IDP) 营地进行分割和计数而创建的

  • 木薯作物计数

  • 从天空计数-> 大规模遥感物体计数数据集和基准方法

  • PSGCNet -> PSGCNet:用于遥感图像中密集对象计数的金字塔尺度和全局上下文引导网络

  • psgcnet -> 用于遥感图像中密集对象计数的金字塔尺度和全局上下文引导网络

回归


风速回归预测。

遥感回归涉及从图像预测连续变量,例如风速、树高或土壤湿度。经典机器学习和深度学习方法都可以用来完成这项任务。经典机器学习利用特征工程从输入数据中提取数值,然后将其用作线性回归等回归算法的输入。另一方面,深度学习通常采用卷积神经网络(CNN)来处理图像数据,然后采用全连接神经网络(FCNN)进行回归。FCNN 经过训练,可将输入图像映射到所需的输出,从而提供对感兴趣的连续变量的预测。图片来源

云检测和删除


(左)伪彩色图像和(右)云和阴影掩模。

云是遥感图像中的一个主要问题,因为它们会掩盖底层的地面特征。这阻碍了遥感分析的准确性和有效性,因为无法正确解释被遮挡的区域。为了应对这一挑战,已经开发了各种技术来检测遥感图像中的云。经典算法和深度学习方法都可以用于云检测。经典算法通常使用基于阈值的技术和手工制作的特征来识别云像素。然而,这些技术的准确性可能受到限制,并且对图像外观和云结构的变化敏感。另一方面,深度学习方法利用卷积神经网络(CNN)的强大功能来准确检测遥感图像中的云。这些模型在大型遥感图像数据集上进行训练,使它们能够学习和概括云的独特特征和模式。生成的云掩模可用于识别云像素并从进一步分析中消除它们,或者,云修复技术可用于填充云留下的间隙。这种方法有助于提高遥感分析的准确性,即使在有云的情况下也能提供更清晰的地面视图。图片改编自此来源

变化检测


(左)最初和(中)经过一些开发后,(右)突出显示了变化。

变化检测是遥感分析的重要组成部分,可以监测景观随时间的变化。该技术可用于识别广泛的变化,包括土地利用变化、城市发展、海岸侵蚀和森林砍伐。可以对在不同时间拍摄的一对图像执行变化检测,或者通过分析在一段时间内收集的多个图像来执行变化检测。值得注意的是,虽然变化检测主要用于检测景观的变化,但它也可能受到云和阴影存在的影响。这些动态元素可以改变图像的外观,导致变化检测结果出现误报。因此,必须考虑云和阴影对变化检测分析的影响,并采用适当的方法减轻其影响。图片来源

  • Awesome-remote-sensing-change-detection列出了许多数据集和出版物

  • Change-Detection-Review -> 变更检测方法的回顾,包括用于深度学习的代码和开放数据集

  • 使用孪生网络进行变化检测

  • STANet ->用于遥感图像变化检测的STANet

  • 基于UNet的无监督变化检测-> 实现卷积神经网络(CNN)和语义分割来检测图像之间的变化,并将变化分类到正确的语义类中

  • BIT_CD -> Pytorch官方使用Transformers实现遥感图像变化检测

  • 使用 CNN 进行非结构化变化检测

  • 连体神经网络检测航拍图像的变化-> 使用 Keras 和 VGG16 架构

  • 3D 变化检测:从鸽子图像生成数字高程模型

  • QGIS 插件,用于在高分辨率卫星图像上应用变化检测算法

  • LamboiseNet -> 关于使用深度学习进行卫星图像变化检测的硕士论文

  • 用于变化检测的全卷积连体网络

  • 使用卷积神经网络进行多光谱地球观测的城市变化检测-> 使用 Onera 卫星变化检测 (OSCD) 数据集

  • IAug_CDNet -> 用于遥感图像中建筑物变化检测的对抗性实例增强的官方 Pytorch 实现

  • dpm-rnn-public -> 实现卫星数据与深度学习相结合的损伤测绘方法的代码

  • SenseEarth2020-ChangeDetection -> 商汤科技主办的卫星图像变化检测挑战赛第一名解决方案;五个基于 HRNet 的分割模型的预测被集成,作为未更改区域的伪标签

  • KPCAMNet -> 基于深度内核 PCA 卷积映射网络的多时相 VHR 图像中无监督变化检测论文的 Python 实现

  • CDLab -> 基于深度学习的变化检测方法的基准测试。

  • Siam-NestedUNet -> SNUNet-CD:用于 VHR 图像变化检测的密集连接暹罗网络

  • SUNet-change_detection -> 论文 SUNet 的实现:使用双通道全卷积网络对来自卫星和无人机的异构遥感图像进行变化检测

  • 多视角遥感图像自监督变化检测

  • MFPNet -> 基于多向自适应特征融合和感知相似度的遥感变化检测

  • DIUx xView 检测挑战赛的 GitHub -> xView2 挑战赛重点关注自然灾害后评估建筑损坏过程的自动化

  • DASNet -> 用于高分辨率卫星图像变化检测的双注意力全卷积暹罗网络

  • 原始光学卫星时间序列分类的自注意力

  • 行星运动-> 查找并处理行星图像对以突出显示物体运动

  • 时间簇匹配-> 从遥感图像的时间序列中检测结构足迹的变化

  • autoRIFT -> 用于查找两幅图像之间像素位移的快速智能算法

  • DSAMNet -> 基于注意力度量的深度监督网络和用于遥感变化检测的开放航空图像数据集

  • SRCDNet -> 基于超分辨率的变化检测网络,具有针对不同分辨率图像的堆叠注意力模块。SRCDNet 旨在从不同分辨率的双时图像中学习和预测变化图

  • 土地覆盖分析-> 使用卫星图像分割进行土地覆盖变化检测

  • 用于高分辨率双时态遥感图像变化检测的深度监督图像融合网络

  • 卫星图像对齐差分和分割

  • 多时相卫星图像中的变化检测-> 使用主成分分析 (PCA) 和 K 均值聚类

  • 使用 PCA 和 K 均值聚类的无监督变化检测算法-> 在 Matlab 中,但有论文

  • ChangeFormer -> 用于变更检测的基于 Transformer 的连体网络。使用 Transformer 架构解决 CNN 在处理多尺度远程细节方面的局限性。证明与其他 SOTA 方法相比,ChangeFormer 可以捕获更精细的细节,从而在基准数据集上实现更好的性能

  • Heterogeneous_CD -> 遥感图像中的异质变化检测

  • ChangeDetectionProject -> 尝试使用深度 CNN 进行主动学习以进行遥感数据的变化检测

  • DSFANet -> 用于多时相遥感图像变化检测的无监督深度慢速特征分析

  • siamese-change-detection -> 使用 siamese 神经网络有针对性地合成多时相遥感图像以进行变化检测

  • Bi-SRNet -> HR 遥感图像语义变化检测的双时态语义推理

  • SiROC -> 用于光学卫星图像中无监督变化检测的空间上下文感知。应用于 Sentinel-2 和四个数据集上的高分辨率 Planetscope 图像

  • DSMSCN -> 基于深度连体多尺度卷积神经网络的多时相 VHR 图像变化检测的 Tensorflow 实现

  • RaVAEn -> 一种轻量级、无监督的方法,用于基于变分自动编码器 (VAE) 的卫星数据变化检测,具有星上部署的特定目的。它标记已更改的区域以优先考虑下行链路,从而缩短响应时间

  • SemiCD -> 重新审视遥感图像中半监督变化检测的一致性正则化。即使只访问 10% 的带注释训练数据,也能达到监督 CD 的性能

  • FCCDN_pytorch -> FCCDN:用于 VHR 图像变化检测的特征约束网络。使用LEVIR-CD建筑变更检测数据集

  • INLPG_Python -> 基于结构一致性的同质和异质遥感图像无监督变化检测图

  • NSPG_Python -> 基于非局部斑块相似度的异构遥感变化检测

  • LGPNet-BCD -> 通过局部-全局金字塔网络和跨任务迁移学习策略构建 VHR 遥感图像变化检测

  • DS_UNet -> 使用双流 U-Net 进行城市变化检测的 Sentinel-1 和 Sentinel-2 数据融合,使用 Onera 卫星变化检测数据集

  • SiameseSSL -> 使用双任务 Siamese 网络和半监督学习进行城市变化检测。使用 SpaceNet 7 数据集

  • CD-SOTA-methods -> 遥感变化检测:最先进的方法和可用数据集

  • multimodalCD_ISPRS21 -> 融合多模态数据以进行监督变化检测

  • Unsupervised-CD-in-SITS-using-DL-and-Graphs -> 使用深度学习结合基于图的方法对卫星图像时间序列进行无监督变化检测分析

  • LSNet -> 用于遥感图像变化检测的超轻量级连体网络

  • 遥感图像变化检测-> 使用 PCA 和 K 均值

  • VHR 卫星图像的端到端 CD -> 使用改进的 UNet++ 进行高分辨率卫星图像的端到端变化检测

  • 语义变化检测-> SCDNET:一种用于高分辨率光学遥感图像语义变化检测的新型卷积网络

  • ERCNN-DRS_urban_change_monitoring -> 基于神经网络的深时空多光谱和SAR遥感数据的城市变化监测

  • EGRCNN -> 用于多时相遥感图像构建变化检测的边缘引导循环卷积神经网络

  • 无监督遥感变化检测-> 一种基于多尺度图卷积网络和度量学习的无监督遥感变化检测方法

  • CropLand-CD -> 具有多尺度上下文聚合的 CNN 变压器网络,用于细粒度农田变化检测

  • 对比表面图像预训练-> 使用 3D 表面语义监督遥感变化检测模型

  • dcvaVHROptical -> 用于 VHR 图像中多变化检测的无监督深度变化矢量分析

  • hyperDimensionalCD -> 使用未经训练的模型在超维图像中进行变化检测

  • DSFANet -> 用于多时相遥感图像变化检测的无监督深度慢速特征分析

  • FCD-GAN-pytorch -> 带生成对抗网络的全卷积变化检测框架(FCD-GAN)是多时相遥感图像变化检测的框架

  • DARNet-CD -> 基于超高分辨率双时态遥感图像的变化检测的密集关注细化网络

  • xView2_Vulcan -> 使用前后正射影像进行损伤评估。基于 xView2 挑战赛第一名模型的修改 + 生产化模型。

  • ESCNet -> 用于超高分辨率遥感图像的端到端超像素增强变化检测网络

  • ForestCoverChange -> 使用遥感影像检测和预测巴基斯坦地区的森林覆盖变化

  • 毁林检测-> 使用 SENTINEL-2 深度学习在乌克兰森林生态系统中进行高频变化检测

  • Forest_change_detection -> 具有时间相关模型的森林变化分割,包括 Siamese、UNet-LSTM、UNet-diff、UNet3D 模型

  • SentinelClearcutDetection -> 在 Sentinel-2 A 级图像上进行森林砍伐检测的脚本

  • clearcut_detection -> 用于清除检测的研究和网络服务

  • CDRL -> 基于图像重建损失的无监督变化检测

  • ddpm-cd -> 使用去噪扩散概率模型进行遥感变化检测(分割)

  • 遥感时间序列变化检测-> 使用 Sentinel-2 时间序列进行基于图的块级城市变化检测

  • austin-ml-change-detection-demo -> 奥斯汀地区的变化检测演示,使用预先训练的 PyTorch 模型,通过 Dask on Planet 图像进行缩放

  • dfc2021-msd-baseline -> 2021 年 IEEE GRSS 数据融合竞赛多时相语义变化检测赛道

  • CorrFusionNet -> 基于相关性融合的多时态场景分类和场景变化检测

  • ChangeDetectionPCAKmeans -> 使用主成分分析和 k 均值聚类对卫星图像进行无监督变化检测。

  • IRCNN -> IRCNN:一种用于卫星时间序列变化检测的不规则时间距离递归卷积神经网络

  • UTRNet -> 用于不规则收集图像中变化检测的无监督时间距离引导卷积循环网络

  • open-cd -> 一个基于一系列开源通用视觉任务工具的开源变化检测工具箱

  • Tiny_model_4_CD -> TINYCD:用于变化检测的(并非如此)深度学习模型。使用 LEVIR-CD 和 WHU-CD 数据集

  • FHD -> 遥感图像变化检测的特征层次微分

  • 使用 Raster Vision 进行更改检测-> 使用 Colab 笔记本的博客文章

  • Building-expansion -> 通过近实时监控加强环境执法:基于似然性的集约化畜牧场结构扩张检测

  • SaDL_CD -> 用于遥感图像变化检测的语义感知密集表示学习

  • EGCTNet_pytorch -> 基于边缘引导卷积神经网络结合 Transformer 构建变化检测

  • S2-cGAN -> S2-cGAN:用于多光谱图像中二进制变化检测的自监督对抗表示学习

  • A-loss-function-for-change-detection -> UAL:用于变化检测网络的不变区域损失函数

  • IEEE_TGRS_SSTFormer -> 用于高光谱图像变化检测的光谱-空间-时间变换器

  • DMINet -> 使用双分支多级跨时网络对遥感图像进行变化检测

  • AFCF3D-Net -> 邻接级特征与 3D CNN 交叉融合,用于遥感图像变化检测

  • DSAHRNet -> 用于遥感图像变化检测的深度关注高分辨率网络

  • RDPNet -> RDP-Net:用于变化检测的区域细节保留网络

  • BGAAE_CD -> 使用 VHR 遥感图像进行无监督变化检测的二分图注意自动编码器

  • 无监督变化检测-> 使用主成分分析和 k 均值聚类进行卫星图像无监督变化检测

  • Metric-CD -> 用于遥感图像无监督变化检测的深度度量学习

  • HANet-CD -> HANet:用于双时态超高分辨率遥感图像变化检测的分层注意网络

  • SRGCAE -> 基于结构关系图表示学习的无监督多模态变化检测

  • Change_Detection_onera_baselines -> U-Net 基线模型的连体版本

  • SiamCRNN -> 通过深度连体卷积多层循环神经网络进行多源 VHR 图像的变化检测

  • 基于图的遥感图像变化检测方法-> 基于信号平滑表示的图学习同质和异质变化检测

  • TransUNetplus2 -> TransU-Net++:重新思考用于森林砍伐绘图的注意力门控 TransU-Net。使用亚马逊和大西洋森林数据集

  • AR-CDNet -> 通过知识回顾和在线不确定性估计实现遥感图像准确可靠的变化检测

  • CICNet -> 用于遥感变化检测的紧凑型时间耦合网络

  • BGINet -> 图交互的遥感图像变化检测

  • DSNUNet -> DSNUNet:通过结合 Sentinel-1 和 Sentinel-2 图像改进的森林变化检测网络

  • Forest-CD -> Forest-CD:基于VHR图像的森林变化检测网络

  • S3Net_CD -> 用于多时相图像变化检测中变化检测的超像素引导自监督学习网络

  • T-UNet -> T-UNet:用于高分辨率遥感图像变化检测的三元组 UNet

  • UCDFormer -> UCDFormer:使用 Transformer 驱动的图像转换进行无监督变化检测

  • Satellite-change-events -> 更改时空遥感影像发现的事件数据集,使用 Sentinel 2 CaiRoad 和 CalFire 数据集

  • CACo -> 卫星图像的变化感知采样和对比学习

  • LightCDNet -> LightCDNet:基于VHR图像的轻量级变化检测网络

  • OpenMineChangeDetection -> 根据卫星数据描述露天采矿 (Sentinel 2),实现 TinyCD、LSNet 和 DDPM-CD

  • multi-task-L-UNet -> 耦合语义分割和全卷积 LSTM 网络的深度多任务学习框架,用于城市变化检测。应用于SpaceNet7数据集

  • Urban_change_detection -> 使用循环神经网络从多时相 Sentinel-2 数据检测城市变化。Fabric是另一种实现

  • UNetLSTM -> 使用循环神经网络从多时相 Sentinel-2 数据检测城市变化

  • SDACD -> 用于跨域变化检测的端到端监督域适应框架

  • CycleGAN-Based-DA-for-CD -> 基于 CycleGAN 的域适应用于森林砍伐检测

  • CGNet-CD -> 变化引导网络:在遥感影像中引导变化检测之前纳入变化

  • PA-Former -> PA-Former:学习先验感知变压器,用于遥感建筑变化检测

  • AERNet -> AERNet:注意力引导边缘细化网络和遥感建筑变化检测数据集 (HRCUS-CD)

  • S1GFlood-Detection -> DAM-Net:使用基于差分注意度量的视觉变压器从 SAR 图像进行全球洪水检测。包括 S1GFloods 数据集

  • Changen -> 通过模拟随机变化过程生成可扩展的多时相遥感变化数据

  • TTP -> 时间旅行像素:双时态特征与遥感图像变化检测基础模型的集成

  • SAM-CD -> 采用分段任意模型进行 HR 遥感图像变化检测

时间序列


预测系列中的下一张图像。

遥感数据中时间序列观测的分析具有许多应用,包括提高分类模型的准确性以及预测未来的模式和事件。图片来源。注意:由于对作物进行分类和预测作物产量是时间序列数据的重要用例,因此这些任务在此之后有专门的部分。

作物分类


(左)假彩色图像和(右)裁剪图。

遥感中的作物分类是对图像或图像序列中不同作物的识别和绘图。它旨在深入了解特定区域作物的分布和组成,其应用包括监测作物生长和评估作物损害。传统的机器学习方法(例如决策树和支持向量机)和深度学习技术(例如卷积神经网络(CNN))都可以用于执行作物分类。最佳方法取决于数据集的大小和复杂性、所需的精度以及可用的计算资源。然而,作物分类的成功在很大程度上取决于输入数据的质量和分辨率,以及标记训练数据的可用性。图片来源:杨成海用于精准农业的高分辨率卫星成像传感器

农作物产量


小麦产量数据。蓝色垂直线表示观察日期。

农作物产量是农业的一个重要指标,因为它决定了农场的生产力和盈利能力。它被定义为每单位面积土地的农作物产量,受到土壤肥力、天气条件、农作物种植类型以及病虫害控制等一系列因素的影响。通过利用卫星图像的时间序列,可以进行准确的作物类型分类并利用某些作物特有的季节变化。这些信息可用于优化作物管理实践并最终提高作物产量。然而,为了获得准确的结果,必须考虑输入数据的质量和分辨率,以及标记训练数据的可用性。还必须采用适当的预处理和特征提取技术。图片来源

财富和经济活动


COVID-19 对人类和经济活动的影响。

通过地面调查收集经济数据的传统方法是一个耗时且资源密集的过程。然而,卫星技术和机器学习的进步提供了替代解决方案。通过利用卫星图像并应用机器学习算法,可以更高效地获取有关经济活动的准确且最新的信息。这种向基于卫星图像的预测的转变不仅可以节省成本,还可以提供更广泛、更全面的经济活动视角。因此,它有望成为政策制定者和企业的宝贵资产。图片来源

灾难应对


检测在灾难中被毁坏的建筑物。

遥感图像用于灾害响应,以识别和评估某个地区的损失。该图像可用于检测受损或被毁的建筑物、识别堵塞的道路和道路网、确定灾区的大小和形状,以及识别有洪水风险的区域。遥感图像还可用于探测和监测森林火灾的蔓延情况以及监测植被健康状况。另请查看有关变化检测和水/火/建筑分割的部分。图片来源

  • DisaVu -> 结合了建筑和损坏检测并提供了用于查看预测的应用程序

  • Soteria -> 使用机器学习和卫星图像来绘制自然灾害影响图,以加快应急响应速度

  • DisasterHack -> 野火缓解:利用陆地卫星计算机视觉识别危险燃料

  • 森林预报-> 由分析提供支持的森林火灾预测

  • Google AI 博客上基于机器学习的救灾损害评估-> 使用对象检测来定位建筑物,然后使用分类器来确定建筑物是否受损。由于数据集较小而导致泛化的挑战

  • hurricane_damage -> 基于 CNN 航空图像的飓风后结构损坏评估

  • 救援-> 论文代码:关注火灾:用于野火严重程度预测的多通道深度学习模型

-. 灾难分类-> 灾难分类模型,用于预测给定输入图像的灾难类型

超分辨率


使用多个低分辨率图像作为输入的超分辨率。

超分辨率是一种旨在提高成像系统分辨率的技术。该过程可以在其他图像处理步骤之前应用,以增加小物体或边界的可见性。尽管具有潜在的好处,但超分辨率的使用仍存在争议,因为可能会引入可能被误认为真实特征的伪影。超分辨率技术大致分为两类:单图像超分辨率(SISR)和多图像超分辨率(MISR)。SISR 专注于增强单个图像的分辨率,而 MISR 利用同一场景的多个图像来创建高分辨率输出。每种方法都有其自身的优点和局限性,方法的选择取决于具体的应用和期望的结果。图片来源

多图像超分辨率(MISR)

请注意,几乎所有 MISR 出版物均来自PROBA-V 超分辨率竞赛

  • deepsum -> 用于未配准多时相图像超分辨率的深度神经网络(ESA PROBA-V 挑战)

  • 3DWDSRNet -> 使用 3D 宽激活神经网​​络的卫星图像多帧超分辨率 (MISR)

  • RAMS -> 使用残余注意力深度神经网络的遥感图像多图像超分辨率

  • TR-MISR -> 用于 PROBA-V 超分辨率挑战的基于 Transformer 的 MISR 框架。有

  • HighRes-net -> HighRes-net 的 Pytorch 实现,这是一种用于多帧超分辨率的神经网络,在欧洲航天局的开尔文竞赛中进行了训练和测试

  • ProbaVref -> 重新利用 Proba-V 挑战来实现参考感知超分辨率

  • 深度多时相卫星图像超分辨率中缺失的成分-> 排列不变性利用单个模型中集成的力量,并带有 repo piunet

  • MSTT-STVSR -> 卫星视频时空超分辨率:基于多尺度时空变换器的联合框架,JAG,2022

  • 多次曝光推架卫星的自监督超分辨率

  • DDRN -> 用于视频卫星图像超分辨率的深度蒸馏递归网络

- worldstrat -> SRCNN 的 SISR 和 MISR 实现

  • MISR-GRU -> MISR-GRU 的 Pytorch 实现,MISR-GRU 是一种用于多图像超分辨率 (MISR) 的深度神经网络,用于 ProbaV 超分辨率竞赛

  • MSDTGP -> 通过多尺度可变形卷积对齐和时间分组投影实现卫星视频超分辨率

  • proba-v-super-resolution-challenge -> ESA 卫星图像超分辨率挑战的解决方案

  • PROBA-V-Super-Resolution -> 使用自定义深度学习架构的解决方案

  • satlas-super-resolution -> Satlas 超分辨率:模型是 ESRGAN 的改编版,所做的更改允许输入为 Sentinel-2 图像的时间序列。

  • MISR 遥感 SRGAN -> 用于 RGB 遥感图像的 PyTorch SRGAN,执行 SISR 和 MISR。MISR 实现的灵感来自 RecursiveNet (HighResNet)。包括预训练的检查点。

单图像超分辨率 (SISR)

超分辨率 - 其他

About

利用卫星和航空图像进行深度学习的技术

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published