Github复现-测试基于transformer的变化检测模型BIT_CD
基于Transformer 的变化检测模型测试
源码链接:
1.数据说明
数据下载链接:
2.数据结构
A里面放了第一期影像的训练、验证、测试数据,B里面放了 第二期影像的训练、验证、测试数据,label里面是标签,list 里面放了train.txt、val.txt、test.txt
上面的结构意思就是所有数据放一起,通过写txt来控制训练、验证、预测图像
3.训练
说明:
1.gpu_ids GPU id ,一个显卡就默认是0
2.project_name 项目名称,每次跑整个不一样的名字,整个名字后面预测的时候要对应起来
3.checkpoint_root 路径,放置模型,训练过程记录,最终的eval结构
4.num_workers , 加载数据的线程可以在utils.py中加载数据的地方看到
5.dataset, 数据集名字,这个目前只有一个,可以自己加新的
6.data_name 这个参数在项目里有点绕,这个默认得不要改就行,先看utils.py就发现,这个参数关系到训练数据的路径,接着看data_config.py文件发现,训练集的根目录要自己给出
7.batch_size 默认
8.split, split_val 这两个默认就行
9.img_size 图像会被resize
10.类别默认
后面的参数就不说了,应该都认识
改完上面的参数就可以直接训练了
4.预测
预测用demo.py这个文件,文件的逻辑和训练的逻辑一致,参数基本都要和训练保持一致,那个output_folder可以换成存放结果的地方
用来验证效果的测试数据放在了quik_start控制的路径下,数据结构和训练数据结构是一样的。
注意这个训练完预测的demo是需要加标签的,因为源码默认的读图函数要求输入。
训练效果
开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!
更多推荐
所有评论(0)