-
Notifications
You must be signed in to change notification settings - Fork 12
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
[Bug]: 推理和转换ONNX时报错 #24
Comments
model_config应该指定的是模型配置而不是训练配置,例如: |
好的,换成模型配置没问题了 |
导出ONNX时报错:
ONNX版本
|
Hi @m00nLi 这是因为pytorch不支持抗锯齿resize导出ONNX, |
设置为False后还是会报同样的错,opset 11也不行 |
请看一下报的错误是 |
|
Hi @SEU-ZWW 如果报错的是带 |
我的转ONNX成功了,antialias=False, opset=17, onnxruntime==1.19.2.
但我看了训练时的数据处理,不是还有一步减均值除方差吗?但是加上的话就检测不到目标了,所以正确的预处理该怎么写? |
为了方便使用,我把推理时候的归一化作为nn.Module集成到模型中了,所以推理不需要再做额外的归一化,只需要读取chw(rgb通道)格式的图片,转成浮点数格式输入模型就可以了,您原本的预处理就是对的 |
好的谢谢 |
请问下导出ONNX时如何去掉这个缩放+归一化的算子?我已经在
另外,在我的个人数据集(约20万)上测试,ReleationDETR(FocalNet-L)的mAP50, mAP50-95这些的确比DINO(Swin-L)高出3个百分点,Recall也高3个点,但是Precision却低了7个点,意味着ReleationDETR模型偏向于查全率,但误检会很多,这个有什么改进思路吗? |
很奇怪,eval_transform只是对图片进行float+归一化操作,把它设置为None就不会再进行归一化了。您可以调试pytorch2onnx.py文件中的torch.onnx.export函数,看看在导出时是否真的把归一化去掉了,另外也要注意图片类型必须是float。 检测需要同时考虑分类和回归任务,所以主要是用mAP和AR来衡量性能。AP的定义是不同召回率水平下Precision的平均值,即PR曲线下方的面积,mAP是每个类别AP的平均值。所以我不太明白为什么Precision跟mAP的趋势不同,mAP比DINO高但Precision比DINO低,这是很奇怪的一件事,建议先可视化看看结果是否真的存在很多误检。如果存在很多误检的话,可以设置阈值来过滤掉一部分结果,或者对物体query进行优化,更精确地表示物体。 |
Bug
训练正常,但是使用
inference.py
推理或者转换ONNX时报错:环境信息
补充信息
No response
The text was updated successfully, but these errors were encountered: