文章详情

短信预约-IT技能 免费直播动态提醒

请输入下面的图形验证码

提交验证

短信预约提醒成功

mmrotate旋转目标检测框架的学习与使用

2023-09-12 20:38

关注

前言

一、环境配置

1. 下载checkpoint文件

2. 运行demo

二、制作自己的数据集

1. 标注数据

2. 标签格式转换

3. 可视化数据集

4. 数据集裁剪

三、 修改配置文件

1. 修改classes

2. 修改训练参数

四、训练并测试

1. 训练

2. 测试

3. 预测

五、总结

参考资料


mmrotate旋转目标检测框架的学习与使用是在AutoDL的服务器上进行的,配置为ubuntu18.04,GPU RTX 2080 Ti * 1,以下是一个学习过程的记录,希望能对大家有所帮助。

MMRotate 依赖 PyTorchMMCV 和 MMDetection,以下是安装的简要步骤。 更详细的安装指南请参考 安装文档

conda create -n open-mmlab python=3.7 pytorch==1.7.0 cudatoolkit=10.1 torchvision -c pytorch -y
conda activate open-mmlab
pip install openmim
mim install mmcv-full
mim install mmdet
git clone https://github.com/open-mmlab/mmrotate.git
cd mmrotate
pip install -r requirements/build.txt
pip install -v -e .

一切顺利之后,为了验证是否正确安装了 MMRotate,我们需进行以下操作。

1. 下载checkpoint文件

新建一个checkpoint文件夹,将checkpoint文件下载到该文件夹下,checkpoint文件可根据自己的需求进行下载,我下载的是s2anet_r50_fpn_1x_dota_le135-5dfcf396.pth和s2anet_r50_fpn_fp16_1x_dota_le135-5cac515c.pth

2. 运行demo

运行指令形式如下:

python demo/image_demo.py \
    ${IMG_ROOT} \
    ${CONFIG_FILE} \
    ${CHECKPOINT_FILE} \
    ${OUT_FILE}

IMG_ROOT:为待检测图像
CONFIG_FILE:为配置文件
CHECKPOINT_FILE:为训练好的权重。

OUT_FILE:输出图片的保存zaizh

输入以下指令:

 ​python ./demo/image_demo.py ./demo/demo.jpg ./configs/s2anet/s2anet_r50_fpn_fp16_1x_dota_le135.py ./checkpoint/s2anet_r50_fpn_fp16_1x_dota_le135-5cac515c.pth --out-file ./demo/result.jpg

 应该正常运行的,但是出现了错误(如果运行正常,会在demo文件夹下看到结果result.jpg):

有可能是在开始安装mmcv-full的时候,没有指定版本,选择直接安装,如下:

pip install mmcv-full

采用这样默认安装mmcv-full的方式,如果与你环境里的cuda和torch版本不匹配,就容易出现上面报错,卸载掉原来的mmcv。

pip uninstall mmcv-full

打开mmcv,点击下图已经建立好的对应版本,进行安装。

我的是torch1.7.0  cuda10.1,对应的install形式如下:

pip install mmcv-full=={mmcv_version} -f https://download.openmmlab.com/mmcv/dist/cu101/torch1.7.0/index.html

 需要指定mmcv_version,前面报错有提示: Please install mmcv>=1.4.5, <=1.6.0,故选择1.6.0进行安装

pip install mmcv-full==1.6.0 -f https://download.openmmlab.com/mmcv/dist/cu101/torch1.7.0/index.html

 安装完成后,输入指令再次进行测试:

 python ./demo/image_demo.py ./demo/demo.jpg ./configs/s2anet/s2anet_r50_fpn_fp16_1x_dota_le135.py ./checkpoint/s2anet_r50_fpn_fp16_1x_dota_le135-5cac515c.pth --out-file ./demo/result.jpg

原图与输出结果的对比;

1. 标注数据

使用的工具是rolabelimg,rolabelimg安装过程太过繁琐,为了节省精力,已提供rolabelimg.exe,可自行下载

链接:https://pan.baidu.com/s/1j9uV-_2zYC7pb6YTzaeLXQ  提取码:qxmg

为了进行后续操作,新建data文件夹,在data文件夹下新建DOTA文件夹,将标注好的数据放到DOTA文件夹下

2. 标签格式转换

新建voc2dota.py文件,将xml标签转换为DOTA的标签,注意代码中的图片和标签地址,以及图片格式,根据实际情况自行修改

# 将xml格式的标签转化为txt格式,并输出标注好的图片import osimport xml.etree.ElementTree as ETimport mathimport cv2 as cvdef voc_to_dota(xml_path, xml_name):    txt_name = xml_name[:-4] + '.txt'    txt_path = xml_path[:-4] + '/txt_label'    if not os.path.exists(txt_path):        os.makedirs(txt_path)    txt_file = os.path.join(txt_path, txt_name)    file_path = os.path.join(xml_path, file_list[i])    tree = ET.parse(os.path.join(file_path))    root = tree.getroot()    # print(root[6][0].text)    image_path = '../data/DOTA/images/'    out_path = '../data/DOTA/outputImg/'    filename = image_path + xml_name[:-4] + '.Jpeg'    img = cv.imread(filename)    with open(txt_file, "w+", encoding='UTF-8') as out_file:        # out_file.write('imagesource:null' + '\n' + 'gsd:null' + '\n')        for obj in root.findall('object'):            name = obj.find('name').text            difficult = obj.find('difficult').text            # print(name, difficult)            robndbox = obj.find('robndbox')            cx = float(robndbox.find('cx').text)            cy = float(robndbox.find('cy').text)            w = float(robndbox.find('w').text)            h = float(robndbox.find('h').text)            angle = float(robndbox.find('angle').text)            # print(cx, cy, w, h, angle)            p0x, p0y = rotatePoint(cx, cy, cx - w / 2, cy - h / 2, -angle)            p1x, p1y = rotatePoint(cx, cy, cx + w / 2, cy - h / 2, -angle)            p2x, p2y = rotatePoint(cx, cy, cx + w / 2, cy + h / 2, -angle)            p3x, p3y = rotatePoint(cx, cy, cx - w / 2, cy + h / 2, -angle)            # 找最左上角的点            dict = {p0y:p0x, p1y:p1x, p2y:p2x, p3y:p3x}            list = find_topLeftPopint(dict)            #print((list))            if list[0] == p0x:                list_xy = [p0x, p0y, p1x, p1y, p2x, p2y, p3x, p3y]            elif list[0] == p1x:                list_xy = [p1x, p1y, p2x, p2y, p3x, p3y, p0x, p0y]            elif list[0] == p2x:                list_xy = [p2x, p2y, p3x, p3y, p0x, p0y, p1x, p1y]            else:                list_xy = [p3x, p3y, p0x, p0y, p1x, p1y, p2x, p2y]            # 在原图上画矩形 看是否转换正确            cv.line(img, (int(list_xy[0]), int(list_xy[1])), (int(list_xy[2]), int(list_xy[3])), color=(255, 0, 0), thickness=3)            cv.line(img, (int(list_xy[2]), int(list_xy[3])), (int(list_xy[4]), int(list_xy[5])), color=(0, 255, 0), thickness= 3)            cv.line(img, (int(list_xy[4]), int(list_xy[5])), (int(list_xy[6]), int(list_xy[7])), color=(0, 0, 255), thickness = 2)            cv.line(img, (int(list_xy[6]), int(list_xy[7])), (int(list_xy[0]), int(list_xy[1])), color=(255, 255, 0), thickness = 2)            cv.imwrite(out_path + xml_name[:-4] + '.Jpeg', img)            data = str(list_xy[0]) + " " + str(list_xy[1]) + " " + str(list_xy[2]) + " " + str(list_xy[3]) + " " + \                   str(list_xy[4]) + " " + str(list_xy[5]) + " " + str(list_xy[6]) + " " + str(list_xy[7]) + " "            data = data + name + " " + difficult + "\n"            out_file.write(data)def find_topLeftPopint(dict):    dict_keys = sorted(dict.keys())  # y值    temp = [dict[dict_keys[0]], dict[dict_keys[1]]]    minx = min(temp)    if minx == temp[0]:        miny = dict_keys[0]    else:        miny = dict_keys[1]    return [minx, miny]# 转换成四点坐标def rotatePoint(xc, yc, xp, yp, theta):    xoff = xp - xc    yoff = yp - yc    cosTheta = math.cos(theta)    sinTheta = math.sin(theta)    pResx = cosTheta * xoff + sinTheta * yoff    pResy = - sinTheta * xoff + cosTheta * yoff    # pRes = (xc + pResx, yc + pResy)    # 保留一位小数点    return float(format(xc + pResx, '.1f')), float(format(yc + pResy, '.1f'))    # return xc + pResx, yc + pResyif __name__ == '__main__':    root_path = '../data/DOTA/xml'    file_list = os.listdir(root_path)    for i in range(0, len(file_list)):        if ('.xml' in file_list[i]) or ('.XML' in file_list[i]):            voc_to_dota(root_path, file_list[i])            print('----------------------------------------{}{}----------------------------------------'                  .format(file_list[i], ' has Done!'))        else:            print(file_list[i] + ' is not xml file')

运行成功后,会生成txt_label文件

3. 可视化数据集

tools/misc/browse_dataset.py帮助用户浏览检测的数据集(包括图像和检测框的标注),或将图像
保存到指定目录,指令形式如下:

python tools/misc/browse_dataset.py ${CONFIG} [-h] [--skip-type ${SKIP_TYPE[SKIP_TYPE.
,→..]}] [--output-dir ${OUTPUT_DIR}] [--not-show] [--show-interval ${SHOW_INTERVAL}]

python tools/misc/browse_dataset.py configs/s2anet/s2anet_r50_fpn_1x_dota_le135.py  --output-dir out

运行成功后,在mmrotate/out文件下可以看到标注好的图片,以检验转换是否成功 

4. 数据集裁剪

 将上述数据集分成 train、test、val 、trainval等几部分(我是手动划分的:train 80%,test 10%,val 10%)以便于训练,其中每个部分的文件夹下都包含有 images(图像) 和 labelTxt(对应的txt标签)

 

将 train、test、val 中的图片进行裁剪,在mmrotate/tools/data/dota/split/ 路径下img_split.py文件(裁剪脚本) 以及 mmrotate/tools/data/dota/split/split_configs/ 路径下的配置文件,其文件内容就是img_split.py的配置信息,我们需要修改其中的参数,让其加载上述的train、test、val中的图像及标签,并进行裁剪,以ss_train.json为例,需要修改的地方有图片地址,标签地址,分割后保存地址,以及保存图片的格式(若按照前面的操作设置文件名,则无需进行修改,只需要注意图片格式),ss_test.json和ss_val.json的修改同理

 修改完上述文件后,运行如下指令,进行数据裁剪:

python tools/data/dota/split/img_split.py --base-json tools/data/dota/split/split_configs/ss_train.jsonpython tools/data/dota/split/img_split.py --base-json tools/data/dota/split/split_configs/ss_test.jsonpython tools/data/dota/split/img_split.py --base-json tools/data/dota/split/split_configs/ss_val.jsonpython tools/data/dota/split/img_split.py --base-json tools/data/dota/split/split_configs/ss_trainval.json

裁剪完后的数据集路径为mmrotate/data/split_ss_dota,结果如下:

 

数据集准备好之后,接下来,需要修改训练相关的配置信息:

1. 修改classes

以s2anet_r50_fpn_1x_dota_le135.py为例,将其中的num_classes=15改成num_classes=1(根据自己数据集的类别数量进行修改)

 同时,修改 mmrotate/mmrotate/datasets/dota.py 文件中的类别名称,注意只有一个类别时不要去掉逗号,修改图像数据集的后缀

最后,修改训练使用的数据集路径:找到并打开 mmrotate/configs/_base_/datasets/dotav1.py 文件,修改其中的 data_root 路径为自己裁剪的数据集路径

上述配置完成后即可训练,即可进行训练,其他可进行修改的地方如下:

2. 修改训练参数

修改线程数、batch_size和测试集标签路径(mmrotate/configs/base/datasets/dotav1.py)

修改训练epoches(mmrotate/configs/_base_/schedules/schedule_1x.py)

注意:有的模型修改schedule_1x.py无效,因为其在继承了schedule_1x.py后进行了改写,例如,oriented_reppoints_r50_fpn_40e_dota_ms_le135.py里对上述参数已进行了设置,用此模型进行训练,只能在oriented_reppoints_r50_fpn_40e_dota_ms_le135.py中修改相应参数,而修改schedule_1x.py无效

修改模型训练的日志打印和load from加载预训练模型(configs/_base_/default_runtime.py),此处特别容易犯错,更换网络进行训练一定要及时替换相应的预训练模型,log_config封装了多个记录器挂钩,并允许设置间隔。现在MMCV支持WandbLoggerHook, MlflowLoggerHook和TensorboardLoggerHook。详细用法可以在官方文档中找到。

1. 训练

 python tools/train.py ${CONFIG_FILE} [optional arguments] 

--work_dir ${YOUR_WORK_DIR}

训练主要有两个参数: config:使用的模型文件 ; - -work-dir:训练得到的模型及配置信息保存的路径,新建如下路径work-dir/run/s2anet/保存训练结果,输入以下指令进行训练

python tools/train.py configs/s2anet/s2anet_r50_fpn_1x_dota_le135.py --work-dir work-dir/run/s2anet/

2. 测试

 python tools/test.py ${CONFIG_FILE} ${CHECKPOINT_FILE} [optional arguments]

测试主要有三个参数: config:使用的模型文件 ;checkpoint:训练得到的模型权重文件; --show-dir:预测结果存放的路径。新建如下路径work-dir/run/s2anet/保存测试结果,输入以下指令进行测试

python tools/test.py configs/s2anet/s2anet_r50_fpn_1x_dota_le135.py work-dir/run/s2anet/latest.pth --show-dir work-dir/output/s2anet/ --eval mAP

 运行报错,然后查看了一下test数据集,发现标签文件为空

 然后查看mmrotate/tools/data/dota/split/split_configs/ss_test.json文件,会发现没有标签文件路径,这就是造成上述现象的原因(DOTA数据集是在线验证,本地没有标签也可以检测训练效果,自行标注的数据集是离线验证,没有标签无法检测训练效果)

 解决办法是在ss_test.json文件中添加上路径,重新进行原数据的分割,或者修改mmrotate/configs/_base_/datasets/dotav1.py为测试集的路径为验证集或训练集路径

 然后再输入指令,可得到测试结果,更多测试操作见官方文档

python tools/test.py configs/s2anet/s2anet_r50_fpn_1x_dota_le135.py work-dir/run/s2anet/latest.pth --show-dir work-dir/output/s2anet/ --eval mAP

 

3. 预测

测试是为了检验训练效果,得到mAP、FPS等指标,进行模型性能评价,而预测则是将训练好的模型进行部署应用。输入以下指令进行单张图片的预测:

python ./demo/image_demo.py ./demo/00008.Jpeg ./configs/s2anet/s2anet_r50_fpn_1x_dota_le135.py ./work-dir/run/s2anet/latest.pth --out-file ./demo/result.Jpeg

要想实现文件夹下多张图片或者视频的预测,可以参考mmdection的相关资料对demo.py进行修改。

上述是我以S2A为例从环境配置到训练自己的数据集全过程,在实际使用中,如果自己的图片尺寸不是特别大,可以跳过裁剪步骤,直接进行训练。

Welcome to MMRotate’s documentation! — mmrotate 文档https://mmrotate.readthedocs.io/zh_CN/latest/

复现 S2ANet RTX 2080Tihttp://t.csdn.cn/vwruC

mmrotate旋转目标检测框架从环境配置到训练自己的数据集http://t.csdn.cn/1cGDN

基于MMRotate训练自定义数据集 做旋转目标检测 2022-3-30http://t.csdn.cn/A1vSE

来源地址:https://blog.csdn.net/qq_45139003/article/details/126762445

阅读原文内容投诉

免责声明:

① 本站未注明“稿件来源”的信息均来自网络整理。其文字、图片和音视频稿件的所属权归原作者所有。本站收集整理出于非商业性的教育和科研之目的,并不意味着本站赞同其观点或证实其内容的真实性。仅作为临时的测试数据,供内部测试之用。本站并未授权任何人以任何方式主动获取本站任何信息。

② 本站未注明“稿件来源”的临时测试数据将在测试完成后最终做删除处理。有问题或投稿请发送至: 邮箱/279061341@qq.com QQ/279061341

软考中级精品资料免费领

  • 历年真题答案解析
  • 备考技巧名师总结
  • 高频考点精准押题
  • 2024年上半年信息系统项目管理师第二批次真题及答案解析(完整版)

    难度     813人已做
    查看
  • 【考后总结】2024年5月26日信息系统项目管理师第2批次考情分析

    难度     354人已做
    查看
  • 【考后总结】2024年5月25日信息系统项目管理师第1批次考情分析

    难度     318人已做
    查看
  • 2024年上半年软考高项第一、二批次真题考点汇总(完整版)

    难度     435人已做
    查看
  • 2024年上半年系统架构设计师考试综合知识真题

    难度     224人已做
    查看

相关文章

发现更多好内容

猜你喜欢

AI推送时光机
位置:首页-资讯-后端开发
咦!没有更多了?去看看其它编程学习网 内容吧
首页课程
资料下载
问答资讯