基于YoloV8的遥感数据目标检测,包含数据集、训练、验证和预测(纯小白版

机器学习算法数据库

picture.image

一、数据集及数据集处理

NWPU VHR-10 (Cheng et al.,2016) 这个高分辨率(VHR)遥感图像数据集是由西北工业大学(NWPU)构建的,包含10类正例样本650张以及不包含给定对象类的任何目标的150张反例图像(背景),正例图像中至少包含1个实例,总共有3651个目标实例。具体类别信息如下:

picture.image

具体相信内容可以看

https://blog.csdn.net/weixin\_43427721/article/details/122057389,毕竟是从人家那里下载的数据…

NWPU VHR-10采用HBB的标注方法。ground truth文件夹包含650个单独的txt文件,每个文件对应于positive image set文件夹中的一个图像,这些文本文件的每一行都定义了一个ground truth边界框,格式如下:


        
            

          (x1,y1),(x2,y2),a
        
      

其中(x1,y1)为bounding box的左上角坐标,(x2,y2)为bounding box的右下坐标

而我们yolo目标检测所需要的标签坐标格式如下:


        
            

          <object-class> <x> <y> <width> <height>
        
      

x,y是目标的中心坐标,width,height是目标的宽和高。这些坐标是通过归一化的,其中x,width是使用原图的width进行归一化;而y,height是使用原图的height进行归一化。

所以,我们需要进行坐标转换,下面是写了一个坐标转换的代码(代码写得稀碎,改了又改,注释掉的代码可以直接删掉)


          
import os
          
import cv2
          
import re
          

          

          
# 这个函数是用来计算yolo标签的格式的 但是缺少一些东西 需要先计算得到size和box
          
# size是原图的(w,h)
          
# box是坐标
          
def voc_to_yolo(size, box):
          
    dw = 1. / size[0]
          
    dh = 1. / size[1]
          
    x = (box[0] + box[1]) / 2.0
          
    y = (box[2] + box[3]) / 2.0
          
    w = box[1] - box[0]
          
    h = box[3] - box[2]
          
    x = x * dw
          
    w = w * dw
          
    y = y * dh
          
    h = h * dh
          
    # print(x,y,w,h)
          
    x = '%.6f' % x
          
    y = '%.6f' % y
          
    w = '%.6f' % w
          
    h = '%.6f' % h
          
    return (x, y, w, h)
          

          

          
# 这个函数是用来提取原始标签文本一行里面的数字
          
def extract_numbers_from_line(line):
          
    # with open(file_path, 'r') as file:
          
    # content = file.read()
          

          
    # 使用正则表达式提取所有数字
          
    numbers = re.findall(r"[-+]?\d*\.\d+|\d+", line.strip())
          

          
    # 将提取的字符串数字转换为整数
          
    numbers = [int(num) for num in numbers]
          

          
    if len(numbers) == 5:
          
        return numbers
          

          

          
def Dataset(image_dir, ground_dir, label_dir):  # img_dir:图片路径 ground_dir:原始标签路径 label_dir:标签存储路径
          
    # 创建一个空列表存储图片路径
          
    images = []
          
    # 创建一个空列表存储原始标签路径
          
    ground = []
          
    # 遍历 images 文件夹下的所有图片
          
    for image_name in os.listdir(image_dir):
          
        image_path = os.path.join(image_dir, image_name)  # 完整的图像路径
          
        ext = os.path.splitext(image_name)[-1]  # 获取图像的扩展名
          
        ground_name = image_name.replace(ext, '.txt')  # 获取原始标签的文件名
          
        ground_path = os.path.join(ground_dir, ground_name)
          
        label_path = os.path.join(label_dir, ground_name)
          
        # 现在就获得了图片和原始标签
          

          
        # 处理图像,获得图像的大小尺寸
          
        image = cv2.imread(image_path)
          
        size = image.shape
          
        # 获取到图像大小
          
        w0 = size[1]  # 宽度
          
        h0 = size[0]  # 高度
          

          
        # 打开原始便签文本
          
        with open(ground_path, 'r') as file:
          
            # 获取行数
          
            lines = file.readlines()
          
            # 循环处理每一行
          
            # print(lines)
          
            for line in lines:
          
                try:
          
                    line.replace(" ", "").replace("\n", "")
          
                    x1, y1, x2, y2, la = extract_numbers_from_line(line)
          
                    # x, y, w, h= voc_to_yolo([w, h], [x1, x2, y1, y2])
          
                    # print(voc_to_yolo([w0, h0], [x1, x2, y1, y2]))
          
                    x = float(voc_to_yolo([w0, h0], [x1, x2, y1, y2])[0])
          
                    y = float(voc_to_yolo([w0, h0], [x1, x2, y1, y2])[1])
          
                    w = float(voc_to_yolo([w0, h0], [x1, x2, y1, y2])[2])
          
                    h = float(voc_to_yolo([w0, h0], [x1, x2, y1, y2])[3])
          
                    la = la - 1
          
                    print(la, x, y, w, h)
          
                    # print(label_path)
          
                    # 保存到新的标签(适用于yolo检测的标签
          
                    # 创建一个文件
          
                    label_name = open(label_path, "a")
          
                    # 写入
          
                    label_name.write(f"{la} {x} {y} {w} {h}\n")
          
                    # label_name.close()
          
                except ValueError as ve:
          
                    print(ve)
          
            print(label_path)
          
            print("写入完成\n")
          

          

          
Dataset('images', 'ground truth', 'labels')
          

      

代码参考这位博主:https://blog.csdn.net/KD\_LW/article/details/112918173

然后就可以将
picture.image
变成
picture.image

这里还有一个任务,因为拿到的数据集有正负两个样本,我想着把负样本也加入到训练中,但是负样本的文件名也是从001.jpg开始的,所以需要将所有负样本的文件名+650,再生成对应的空的.txt作为标签加入到训练中。


          
'''
          
用来负样本加入到数据中,并生成对应的空.txt标签
          
'''
          
import os
          
import shutil
          
from tqdm import tqdm
          

          

          
def MergeData(image_dir,):  # img_dir:负样本图片路径
          
    # 创建一个空列表存储图片路径
          
    images = []
          
    # 创建一个空列表存储原始标签路径
          
    labels = []
          
    # 遍历 images 文件夹下的所有图片
          
    for image_name in os.listdir(image_dir):
          
        # 获取图片完整路径
          
        image_path = os.path.join(image_dir, image_name)
          
        # 获取图片文件的名字
          
        name = os.path.splitext(image_name)[0]
          
        # print(ext)
          
        name_int = int(name)
          
        # print(name+650)
          
        # 文件名+650
          
        image_name = image_name.replace(name, str(name_int+650))
          
        # 新的文件名
          
        new_path = os.path.join(image_dir, image_name)
          
        # 重命名操作
          
        os.rename(image_path, new_path)
          
        # print(image_name)
          
        # print(ext)
          
        # 获取图片文件的扩展名
          
        ext = os.path.splitext(image_name)[-1]
          
        # 根据扩展名替换成对应的label文件
          
        label_name = image_name.replace(ext, '.txt')
          
        # print(label_name)
          
        # 获取对应label的完整路径
          
        label_path = os.path.join(image_dir, label_name)
          
        # 创建空.txt标签文本
          
        f = open(label_path, "x")
          
        # 将图片添加到列表中
          
        images.append(new_path)
          
        # 讲标签添加到列表中
          
        labels.append(label_path)
          
        
          
    # 该进行移动操作了
          
    # 遍历每个有效的图片路径
          
    for i in tqdm(range(len(images))):
          
        image_path = images[i]
          
        label_path = labels[i]
          
        image_destination_path = os.path.join("images",os.path.basename(image_path))
          
        # 移动过去
          
        shutil.copy(image_path, image_destination_path)
          
        label_destination_path = os.path.join("labels", os.path.basename(label_path))
          
        # 移动过去
          
        shutil.copy(label_path, label_destination_path)
          

          

          
MergeData("negative image")
          

      

二、数据集划分及配置文件的修改

2.1 数据集划分

将数据集按照train:vaild:test = 7:2:1的比例进行划分。

代码如下:


          
"""
          
此文件划分数据集
          
"""
          
import os
          
import random
          
from tqdm import tqdm
          
import shutil
          

          
def CollatDataset(image_dir, label_dir):  # img_dir:图片路径 label_dir:标签路径
          
    # 创建一个空列表存储图片路径
          
    imges = []
          
    # 创建一个空列表存储labels路径
          
    labels = []
          
    # 遍历 images 文件夹下的所有图片
          
    for image_name in os.listdir(image_dir):
          
        # 获取图片完整路径
          
        image_path = os.path.join(image_dir, image_name)
          
        # 获取图片文件的扩展名
          
        ext = os.path.splitext(image_name)[-1]
          
        # 根据扩展名替换成对应的label文件
          
        label_name = image_name.replace(ext, '.txt')
          
        # 获取对应label的完整路径
          
        label_path = os.path.join(label_dir, label_name)
          
        # 判断label是否存在
          
        if not os.path.exists(label_path):
          
            print(label_path, "没有")
          
        else:
          
            # 将图片添加到列表中
          
            imges.append(image_path)
          
            # 讲标签添加到列表中
          
            labels.append(label_path)
          
    # 遍历每个有效的图片路径
          
    for i in tqdm(range(len(imges))):
          
        image_path = imges[i]
          
        label_path = labels[i]
          
        # 随机生成一个概率
          
        r = random.random()
          
        print(r)
          
        # 判断图片应该移动到哪个文件夹
          
        # train:vaild:test = 7:2:1
          
        if r < 0.1 :
          
            destination = "test"
          
        elif 0.1 <= r < 0.3:
          
            # 移动到vail文件
          
            destination = "vaild"
          
        else:
          
            # 移动到train文件
          
            destination = "train"
          
        # 创建目标文件夹中images和labels子文件
          
        os.makedirs(os.path.join(destination, "images"), exist_ok=True)
          
        os.makedirs(os.path.join(destination, "labels"), exist_ok=True)
          
        # 生成目标文件夹中图片的新路径
          
        image_destination_path = os.path.join(destination, "images", os.path.basename(image_path))
          
        # 移动过去
          
        shutil.copy(image_path, image_destination_path)
          
        # 生成目标文件夹中label的新路径
          
        label_destination_path = os.path.join(destination, "labels", os.path.basename(label_path))
          
        # 移动过去
          
        shutil.copy(label_path, label_destination_path)
          

          

          
if __name__ == '__main__':
          
    CollatDataset("./images", "./labels")
          

          

      

picture.image

OK!现在前期准备工作做完了,该进入到关键部分了

2.2 配置文件修改

我们从ultralytics的代码中,可以看到cfg的一个文件夹。

picture.image

这个文件夹就是存放我们训练所需的数据和模型的配置文件,default.yaml的默认的配置文件。

我们要做的就是在自己的项目中,创建同样的数据和模型配置文件。(写到这发现自己忘记创建项目了。。。

picture.image

创建一个项目,就叫remote_sensing吧,然后把数据放进去。

其实我觉这里觉得这个模型配置文件yolov8_remote.yaml是没有用的,删了就行

data_remote.yaml配置文件内容如下:

picture.image

OK!保存好,继续下一步。

三、训练

关于这个ultralytics工具包的下载,我最开始是直接在GitHub上下载的源码进行使用

后来发现,直接在终端进行pip install ultralytics也可以。

直接在PyCharm的terminal输入


        
            

          pip install ultralytics
        
      

创建一个 train.py 文件

代码如下:


          
from ultralytics import YOLO
          

          
if __name__ == '__main__':
          
    model = YOLO("yolov8n.pt")
          
    model.train(data="./cfg/data_remote.yaml", epochs=30)
          
    result = model.val()
          

      

关于YOLO里面的模型选择,有n、s、m、l、x五种选择。

train的参数选择,可以参考ultralytics工具包下caf里的default.yaml文件

picture.image

运行train.py,开始训练。

picture.image

训练后可以看到结果的一些参数评估。

picture.image

picture.image

四、预测推理

创建一个predict.py的python文件,代码如下


          
from ultralytics import YOLO
          
from PIL import Image
          

          
model = YOLO("./runs/detect/train/weights/best.pt") # 训练好的模型路径
          
img = Image.open("./remote_data/test/images/490.jpg") # 要预测的图像路径
          
results = model.predict(source=img, show=True, save=True, save_txt=True)  # 展示并保存绘制的图像和坐标
          

      

预测结果如下:

picture.image

机器学习算法AI大数据技术

搜索公众号添加: datanlp

picture.image

长按图片,识别二维码

阅读过本文的人还看了以下文章:

实时语义分割ENet算法,提取书本/票据边缘

整理开源的中文大语言模型,以规模较小、可私有化部署、训练成本较低的模型为主

《大语言模型》PDF下载

动手学深度学习-(李沐)PyTorch版本

YOLOv9电动车头盔佩戴检测,详细讲解模型训练

TensorFlow 2.0深度学习案例实战

基于40万表格数据集TableBank,用MaskRCNN做表格检测

《基于深度学习的自然语言处理》中/英PDF

Deep Learning 中文版初版-周志华团队

【全套视频课】最全的目标检测算法系列讲解,通俗易懂!

《美团机器学习实践》_美团算法团队.pdf

《深度学习入门:基于Python的理论与实现》高清中文PDF+源码

《深度学习:基于Keras的Python实践》PDF和代码

特征提取与图像处理(第二版).pdf

python就业班学习视频,从入门到实战项目

2019最新《PyTorch自然语言处理》英、中文版PDF+源码

《21个项目玩转深度学习:基于TensorFlow的实践详解》完整版PDF+附书代码

《深度学习之pytorch》pdf+附书源码

PyTorch深度学习快速实战入门《pytorch-handbook》

【下载】豆瓣评分8.1,《机器学习实战:基于Scikit-Learn和TensorFlow》

《Python数据分析与挖掘实战》PDF+完整源码

汽车行业完整知识图谱项目实战视频(全23课)

李沐大神开源《动手学深度学习》,加州伯克利深度学习(2019春)教材

笔记、代码清晰易懂!李航《统计学习方法》最新资源全套!

《神经网络与深度学习》最新2018版中英PDF+源码

将机器学习模型部署为REST API

FashionAI服装属性标签图像识别Top1-5方案分享

重要开源!CNN-RNN-CTC 实现手写汉字识别

yolo3 检测出图像中的不规则汉字

同样是机器学习算法工程师,你的面试为什么过不了?

前海征信大数据算法:风险概率预测

【Keras】完整实现‘交通标志’分类、‘票据’分类两个项目,让你掌握深度学习图像分类

VGG16迁移学习,实现医学图像识别分类工程项目

特征工程(一)

特征工程(二) :文本数据的展开、过滤和分块

特征工程(三):特征缩放,从词袋到 TF-IDF

特征工程(四): 类别特征

特征工程(五): PCA 降维

特征工程(六): 非线性特征提取和模型堆叠

特征工程(七):图像特征提取和深度学习

如何利用全新的决策树集成级联结构gcForest做特征工程并打分?

Machine Learning Yearning 中文翻译稿

蚂蚁金服2018秋招-算法工程师(共四面)通过

全球AI挑战-场景分类的比赛源码(多模型融合)

斯坦福CS230官方指南:CNN、RNN及使用技巧速查(打印收藏)

python+flask搭建CNN在线识别手写中文网站

中科院Kaggle全球文本匹配竞赛华人第1名团队-深度学习与特征工程

不断更新资源

深度学习、机器学习、数据分析、python

搜索公众号添加: datayx

picture.image

0
0
0
0
相关资源
大规模高性能计算集群优化实践
随着机器学习的发展,数据量和训练模型都有越来越大的趋势,这对基础设施有了更高的要求,包括硬件、网络架构等。本次分享主要介绍火山引擎支撑大规模高性能计算集群的架构和优化实践。
相关产品
评论
未登录
看完啦,登录分享一下感受吧~
暂无评论