-
-
Notifications
You must be signed in to change notification settings - Fork 329
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Collection of questions/discussions/usage #1
Comments
大佬,您好。RT-DETR集成了不少技术,可否啥时候开个讲座哇,去年你们在detection方面讲座挺多的,今年感觉较少。 |
@sdreamforchen |
好的好的。我在detection群里吆喝一声
…---原始邮件---
发件人: ***@***.***>
发送时间: 2023年6月29日(周四) 下午4:14
收件人: ***@***.***>;
抄送: ***@***.******@***.***>;
主题: Re: [lyuwenyu/RT-DETR] 关于RT-DETR相关问题/讨论/使用可留言 (Issue #1)
可以的,看看有多少同学需要 可以组织一下 聊一聊我们这个工作的动机 以及背后的一些优化的细节和思考
—
Reply to this email directly, view it on GitHub, or unsubscribe.
You are receiving this because you commented.Message ID: ***@***.***>
|
大佬,请问什么时候更新pytorch版的rt-detr? |
paddle版的训练也不麻烦 推理的话可以转onnx也很方便 我近期再精简下代码 方便大家看; torch版本的着急的话可以先用第三方那个,我贴链接了 |
期待大佬的讲座以及pytorch版本的re-detr,主要想试一试pytorch版的ssld_v2预训练模型。 |
大佬,这个事情已经在办了。说到时候和paddleX新版本一个时间段举办,您看可以不呢? 毕竟我们不是同一个单位,有些事情蛮简单,但是我也使不上全力。 |
用resnet18,backbone 深度不变,宽度变为0.5;其余设置如下 学习率为0.0005 最终精度可以达到38%(精度自我认为比较正常,算比较好),但是训练到120epoch后就有点不稳定了,精度为35.9%,后续精度波动在10个点以上. |
是加载coco预训练的嘛 ? 可以调小lr试一下,或者把backbone的lr_nulti调小 |
是需要resnet的预训练嘛,torch的bakcbone我先上传了一版本 https://github.com/lyuwenyu/RT-DETR/blob/main/rtdetr_pytorch/src/resnet.py
|
没有现成的预训练,毕竟整个都缩放了的
…---原始邮件---
发件人: ***@***.***>
发送时间: 2023年7月3日(周一) 上午9:24
收件人: ***@***.***>;
抄送: ***@***.******@***.***>;
主题: Re: [lyuwenyu/RT-DETR] 关于RT-DETR相关问题/讨论/使用可留言 (Issue #1)
用resnet18,backbone 深度不变,宽度变为0.5;其余设置如下 HybridEncoder: hidden_dim: 192 use_encoder_idx: [2] num_encoder_layers: 1 encoder_layer: name: TransformerLayer d_model: 192 nhead: 8 dim_feedforward: 512 dropout: 0. activation: 'gelu' expansion: 0.5 depth_mult: 0.67
学习率为0.0005
最终精度可以达到38%(精度自我认为比较正常,算比较好),但是训练到120epoch后就有点不稳定了,精度为35.9%,后续精度波动在10个点以上. 第一次训练是采用的0.001,当时是几十个epoch后就开始不稳定了。 我应该继续再调小点学习率吗(目标:训练N/T级别的网络)
是加载coco预训练的嘛 ? 可以调小lr试一下,或者把backbone的lr_nulti调小
—
Reply to this email directly, view it on GitHub, or unsubscribe.
You are receiving this because you were mentioned.Message ID: ***@***.***>
|
训练后期降低是正常的, r50 r101在coco上都有这个现象, 可以尝试的 1. 加一些学习率调整的策略(eg. cosine) 2. eval时候decoder layer 还可以再减一个 不过这些都得在具体数据集验证一下 |
好的。现在设置的是-2。作者给的建议。
…---原始邮件---
发件人: ***@***.***>
发送时间: 2023年7月3日(周一) 上午10:48
收件人: ***@***.***>;
抄送: ***@***.******@***.***>;
主题: Re: [lyuwenyu/RT-DETR] 关于RT-DETR相关问题/讨论/使用可留言 (Issue #1)
没有现成的预训练,毕竟整个都缩放了的
…
---原始邮件--- 发件人: @.> 发送时间: 2023年7月3日(周一) 上午9:24 收件人: @.>; 抄送: @.@.>; 主题: Re: [lyuwenyu/RT-DETR] 关于RT-DETR相关问题/讨论/使用可留言 (Issue #1) 用resnet18,backbone 深度不变,宽度变为0.5;其余设置如下 HybridEncoder: hidden_dim: 192 use_encoder_idx: [2] num_encoder_layers: 1 encoder_layer: name: TransformerLayer d_model: 192 nhead: 8 dim_feedforward: 512 dropout: 0. activation: 'gelu' expansion: 0.5 depth_mult: 0.67 学习率为0.0005 最终精度可以达到38%(精度自我认为比较正常,算比较好),但是训练到120epoch后就有点不稳定了,精度为35.9%,后续精度波动在10个点以上. 第一次训练是采用的0.001,当时是几十个epoch后就开始不稳定了。 我应该继续再调小点学习率吗(目标:训练N/T级别的网络) 是加载coco预训练的嘛 ? 可以调小lr试一下,或者把backbone的lr_nulti调小 — Reply to this email directly, view it on GitHub, or unsubscribe. You are receiving this because you were mentioned.Message ID: @.***>
@sdreamforchen
训练后期降低是正常的, r50 r101在coco上都有这个现象, 可以尝试的 1. 加一些学习率调整的策略(eg. cosine) 2. eval时候decoder layer 还可以再减一个 不过这些都得在具体数据集验证一下
—
Reply to this email directly, view it on GitHub, or unsubscribe.
You are receiving this because you were mentioned.Message ID: ***@***.***>
|
感谢,还有一个小问题,就是paddle代码中的resnet学习率是0.1xlr,请问这在pytorch中该如何调整呢。 |
这个在pytorch里是不需要改代码, 可以在优化器的位置改 使用 param_group: 把backbone的参数单独放一个group 其中lr = base_lr * 0.1就行了, @ocrhei |
@lyuwenyu Hi, can I ask you to check this fix PR PaddlePaddle/PaddleDetection#8409? |
@nijkah done, good job. If you want to use original rt-detr, try this pure repo. |
@lyuwenyu 大佬您好,我对RT-DETR非常感兴趣,打算后续的课题以它为基础开展。由于我对yolov8项目比较熟悉,所以目前没打算在yolov8项目上应用和改进RT-DETR,目前有2个问题: 1、在YOLOv8项目上运行RT-DETR的yaml文件,能够显示参数量信息,但是不显示FLOPs信息(已排除thop包的问题),请问能否完善一下? 2、YOLOv8项目上只有rt-detr-l.yaml和rt-detr-x.yaml,能够补充以resnet为backbone的rt-detr.yaml文件吗? 期待您的回复~ |
@lyuwenyu 大佬您好,我在复现rtdetr_hgnetv2_l_6x_coco的效果时,训完发现mAP=0.522,距离0.53还是有点差距。唯一的区别应该就是batchsize=4并且是单卡训练,只能加个梯度累计,加在了ppdet/engine/trainer.py里面:
主要是改动了上面这几个地方,请问这样加梯度累计有问题嘛?还是其实模型中梯度累计和加大batchsize不能完全等效,我看训练设置里面已经冻结了backbone的freeze_norm层,请问batchsize减小真的会有这么大影响嘛? |
|
大佬,想问问rt-detr的Efficient Hybrid Encoder模块设计的motivation是?比如CCFM的结构设计主要是参考哪篇论文或怎么想出来的,还有怎么发现用单层的S5进行seft_att比多个尺度的特征进行seft_att效果好。期待大佬的解答 @lyuwenyu |
@jiinhui ( 可以先star本项目持续关注动态 大致的一个思路吧
细节
更细节的可以参考我们的论文 https://arxiv.org/abs/2304.08069 |
新入坑, 很优秀的工作! 从paper里面看, 整个工作并没有用到deformable attention对吧? |
感谢认可。 decoder里的attn用的是deformable attn |
训练自己的数据集出现这样的报错: 大佬请问这是什么问题。 |
什么版本的paddle, 另外是一开始就报错还是训练的过程中,可以贴一个更全的报错的信息 ( @guoqsGary 可以先star本项目持续关注动态 |
你好,paddle版本为2.4.2
W0720 15:56:00.572955 908 gpu_resources.cc:61] Please NOTE: device: 0, GPU Compute Capability: 8.6, Driver API Version: 12.0, Runtime API Version: 10.2 |
找到这一行 把 dn_positive_idx的shape, 和 [n * num_group for n in num_gts]打印出来看下 另外 提一个新的issue吧 |
大佬你好,我想问问为什么encoder layer的数量选择只有一层,我在论文里好像没有看到相关的实验。 |
非常棒的项目!我想请问一下 RT-DETR 在数据量扩展性上有没有做过相关实验呢?像 DINO 使用了 Swin-L 这样的 Backbone 过后,就有巨大的提升。RT-DETR 在 scalable 上有没有相似的性能? |
关于Scalable 我理解你上面的问题包含两个层面
关于数据和大模型等试验调完之后模型也会陆续放出 |
很優秀的項目! 想請問有在除了T4以外的GPU上的FPS數據嗎? 我使用RTX4090跑RT-DETR-R50的模型,得到的FPS並未比同樣跑在RTX4090的yolov7快,與paper中所給出的在T4 GPU上的FPS數據現象不符。 |
目前只有在t4上的测试数据。 另外问一下你测yolov7是按照端到端的速度方法嘛 ( 具体的方法可以参考论文里测速benchmark的描述,ps. yolov7是anchor-based的模型 框多 在nms阶段非常耗时 |
在RTX4090這邊沒裝tensorRT的環境,所以yolov7以執行detect.py的方式測量inference及nms的耗時,並已將input size修改成固定640*640,指令如下: 另外,我後來也使用tensorRT在RTX2080及JETSON ORIN NX 16GB用benchmark的方式測速 在RTX2080的結果: 在JETSON ORIN NX 16GB的結果: |
这样测和我们定义的 |
是不是意味着在不考虑nms的情况下decoder+MLP的速度还是比不过conv head?然后decoder可以看作是集成了nms的功能? |
@TsingWei ( 个人理解 也不算是集成吧 detr这种结构 从设计上就不存在重复框的问题 不需要nms 但是从dense detector的角度说decoder包含了nms的功能 也不是不可以😂 |
|
嗨,请问有朋友们有遇到输入通道数和滤波器通道数不匹配的问题吗? |
大佬您好 我用AIFI的encoder的self_attention weight可视化了一下自注意力机制的相关性,请问有做相关的visualization吗,因为我做的不太理想 |
大佬您好,非常感谢您的工作,萌新一枚,我用的pytorch版本,有些问题请教一下。 |
Star this repo, keep following news
finetune doc
discussions
The text was updated successfully, but these errors were encountered: