926075d9de89eb29ec43b28bf7efd8e2.gif

一、数据集及数据集处理

NWPU VHR-10 (Cheng et al.,2016) 这个高分辨率(VHR)遥感图像数据集是由西北工业大学(NWPU)构建的,包含10类正例样本650张以及不包含给定对象类的任何目标的150张反例图像(背景),正例图像中至少包含1个实例,总共有3651个目标实例。具体类别信息如下:

89ae95cf6e10465ea8101d29846dedf4.png

具体相信内容可以看

https://blog.csdn.net/weixin_43427721/article/details/122057389,毕竟是从人家那里下载的数据…

NWPU VHR-10采用HBB的标注方法。ground truth文件夹包含650个单独的txt文件,每个文件对应于positive image set文件夹中的一个图像,这些文本文件的每一行都定义了一个ground truth边界框,格式如下:

(x1,y1),(x2,y2),a

其中(x1,y1)为bounding box的左上角坐标,(x2,y2)为bounding box的右下坐标

而我们yolo目标检测所需要的标签坐标格式如下:

<object-class> <x> <y> <width> <height>

x,y是目标的中心坐标,width,height是目标的宽和高。这些坐标是通过归一化的,其中x,width是使用原图的width进行归一化;而y,height是使用原图的height进行归一化。

所以,我们需要进行坐标转换,下面是写了一个坐标转换的代码(代码写得稀碎,改了又改,注释掉的代码可以直接删掉)

import os
import cv2
import re




# 这个函数是用来计算yolo标签的格式的 但是缺少一些东西 需要先计算得到size和box
# size是原图的(w,h)
# box是坐标
def voc_to_yolo(size, box):
    dw = 1. / size[0]
    dh = 1. / size[1]
    x = (box[0] + box[1]) / 2.0
    y = (box[2] + box[3]) / 2.0
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    # print(x,y,w,h)
    x = '%.6f' % x
    y = '%.6f' % y
    w = '%.6f' % w
    h = '%.6f' % h
    return (x, y, w, h)




# 这个函数是用来提取原始标签文本一行里面的数字
def extract_numbers_from_line(line):
    # with open(file_path, 'r') as file:
    # content = file.read()


    # 使用正则表达式提取所有数字
    numbers = re.findall(r"[-+]?\d*\.\d+|\d+", line.strip())


    # 将提取的字符串数字转换为整数
    numbers = [int(num) for num in numbers]


    if len(numbers) == 5:
        return numbers




def Dataset(image_dir, ground_dir, label_dir):  # img_dir:图片路径 ground_dir:原始标签路径 label_dir:标签存储路径
    # 创建一个空列表存储图片路径
    images = []
    # 创建一个空列表存储原始标签路径
    ground = []
    # 遍历 images 文件夹下的所有图片
    for image_name in os.listdir(image_dir):
        image_path = os.path.join(image_dir, image_name)  # 完整的图像路径
        ext = os.path.splitext(image_name)[-1]  # 获取图像的扩展名
        ground_name = image_name.replace(ext, '.txt')  # 获取原始标签的文件名
        ground_path = os.path.join(ground_dir, ground_name)
        label_path = os.path.join(label_dir, ground_name)
        # 现在就获得了图片和原始标签


        # 处理图像,获得图像的大小尺寸
        image = cv2.imread(image_path)
        size = image.shape
        # 获取到图像大小
        w0 = size[1]  # 宽度
        h0 = size[0]  # 高度


        # 打开原始便签文本
        with open(ground_path, 'r') as file:
            # 获取行数
            lines = file.readlines()
            # 循环处理每一行
            # print(lines)
            for line in lines:
                try:
                    line.replace(" ", "").replace("\n", "")
                    x1, y1, x2, y2, la = extract_numbers_from_line(line)
                    # x, y, w, h= voc_to_yolo([w, h], [x1, x2, y1, y2])
                    # print(voc_to_yolo([w0, h0], [x1, x2, y1, y2]))
                    x = float(voc_to_yolo([w0, h0], [x1, x2, y1, y2])[0])
                    y = float(voc_to_yolo([w0, h0], [x1, x2, y1, y2])[1])
                    w = float(voc_to_yolo([w0, h0], [x1, x2, y1, y2])[2])
                    h = float(voc_to_yolo([w0, h0], [x1, x2, y1, y2])[3])
                    la = la - 1
                    print(la, x, y, w, h)
                    # print(label_path)
                    # 保存到新的标签(适用于yolo检测的标签
                    # 创建一个文件
                    label_name = open(label_path, "a")
                    # 写入
                    label_name.write(f"{la} {x} {y} {w} {h}\n")
                    # label_name.close()
                except ValueError as ve:
                    print(ve)
            print(label_path)
            print("写入完成\n")




Dataset('images', 'ground truth', 'labels')

代码参考这位博主:https://blog.csdn.net/KD_LW/article/details/112918173

然后就可以将
18671a09ddd5207031d2048864f33b66.png
变成
9557e332db4d71cdfe59f2ee4513bccb.png

这里还有一个任务,因为拿到的数据集有正负两个样本,我想着把负样本也加入到训练中,但是负样本的文件名也是从001.jpg开始的,所以需要将所有负样本的文件名+650,再生成对应的空的.txt作为标签加入到训练中。

'''
用来负样本加入到数据中,并生成对应的空.txt标签
'''
import os
import shutil
from tqdm import tqdm




def MergeData(image_dir,):  # img_dir:负样本图片路径
    # 创建一个空列表存储图片路径
    images = []
    # 创建一个空列表存储原始标签路径
    labels = []
    # 遍历 images 文件夹下的所有图片
    for image_name in os.listdir(image_dir):
        # 获取图片完整路径
        image_path = os.path.join(image_dir, image_name)
        # 获取图片文件的名字
        name = os.path.splitext(image_name)[0]
        # print(ext)
        name_int = int(name)
        # print(name+650)
        # 文件名+650
        image_name = image_name.replace(name, str(name_int+650))
        # 新的文件名
        new_path = os.path.join(image_dir, image_name)
        # 重命名操作
        os.rename(image_path, new_path)
        # print(image_name)
        # print(ext)
        # 获取图片文件的扩展名
        ext = os.path.splitext(image_name)[-1]
        # 根据扩展名替换成对应的label文件
        label_name = image_name.replace(ext, '.txt')
        # print(label_name)
        # 获取对应label的完整路径
        label_path = os.path.join(image_dir, label_name)
        # 创建空.txt标签文本
        f = open(label_path, "x")
        # 将图片添加到列表中
        images.append(new_path)
        # 讲标签添加到列表中
        labels.append(label_path)
        
    # 该进行移动操作了
    # 遍历每个有效的图片路径
    for i in tqdm(range(len(images))):
        image_path = images[i]
        label_path = labels[i]
        image_destination_path = os.path.join("images",os.path.basename(image_path))
        # 移动过去
        shutil.copy(image_path, image_destination_path)
        label_destination_path = os.path.join("labels", os.path.basename(label_path))
        # 移动过去
        shutil.copy(label_path, label_destination_path)




MergeData("negative image")

二、数据集划分及配置文件的修改

2.1 数据集划分

将数据集按照train:vaild:test = 7:2:1的比例进行划分。

代码如下:

"""
此文件划分数据集
"""
import os
import random
from tqdm import tqdm
import shutil


def CollatDataset(image_dir, label_dir):  # img_dir:图片路径 label_dir:标签路径
    # 创建一个空列表存储图片路径
    imges = []
    # 创建一个空列表存储labels路径
    labels = []
    # 遍历 images 文件夹下的所有图片
    for image_name in os.listdir(image_dir):
        # 获取图片完整路径
        image_path = os.path.join(image_dir, image_name)
        # 获取图片文件的扩展名
        ext = os.path.splitext(image_name)[-1]
        # 根据扩展名替换成对应的label文件
        label_name = image_name.replace(ext, '.txt')
        # 获取对应label的完整路径
        label_path = os.path.join(label_dir, label_name)
        # 判断label是否存在
        if not os.path.exists(label_path):
            print(label_path, "没有")
        else:
            # 将图片添加到列表中
            imges.append(image_path)
            # 讲标签添加到列表中
            labels.append(label_path)
    # 遍历每个有效的图片路径
    for i in tqdm(range(len(imges))):
        image_path = imges[i]
        label_path = labels[i]
        # 随机生成一个概率
        r = random.random()
        print(r)
        # 判断图片应该移动到哪个文件夹
        # train:vaild:test = 7:2:1
        if r < 0.1 :
            destination = "test"
        elif 0.1 <= r < 0.3:
            # 移动到vail文件
            destination = "vaild"
        else:
            # 移动到train文件
            destination = "train"
        # 创建目标文件夹中images和labels子文件
        os.makedirs(os.path.join(destination, "images"), exist_ok=True)
        os.makedirs(os.path.join(destination, "labels"), exist_ok=True)
        # 生成目标文件夹中图片的新路径
        image_destination_path = os.path.join(destination, "images", os.path.basename(image_path))
        # 移动过去
        shutil.copy(image_path, image_destination_path)
        # 生成目标文件夹中label的新路径
        label_destination_path = os.path.join(destination, "labels", os.path.basename(label_path))
        # 移动过去
        shutil.copy(label_path, label_destination_path)




if __name__ == '__main__':
    CollatDataset("./images", "./labels")

ca04e3789bb456b5a25293f4f51181ff.png

OK!现在前期准备工作做完了,该进入到关键部分了

2.2 配置文件修改

我们从ultralytics的代码中,可以看到cfg的一个文件夹。

2e96bf3dd733bc52e2ddd0749140aca5.png

这个文件夹就是存放我们训练所需的数据和模型的配置文件,default.yaml的默认的配置文件。

我们要做的就是在自己的项目中,创建同样的数据和模型配置文件。(写到这发现自己忘记创建项目了。。。

772b6c14b4ec4163307acbc7e9e7a779.png

创建一个项目,就叫remote_sensing吧,然后把数据放进去。

其实我觉这里觉得这个模型配置文件yolov8_remote.yaml是没有用的,删了就行

data_remote.yaml配置文件内容如下:

58bc1f55219e361a5db5ff418a0f8f54.png

OK!保存好,继续下一步。

三、训练

关于这个ultralytics工具包的下载,我最开始是直接在GitHub上下载的源码进行使用

后来发现,直接在终端进行pip install ultralytics也可以。

直接在PyCharm的terminal输入

pip install ultralytics

创建一个train.py文件
代码如下:

from ultralytics import YOLO


if __name__ == '__main__':
    model = YOLO("yolov8n.pt")
    model.train(data="./cfg/data_remote.yaml", epochs=30)
    result = model.val()

关于YOLO里面的模型选择,有n、s、m、l、x五种选择。

train的参数选择,可以参考ultralytics工具包下caf里的default.yaml文件

1fed2e627d124eaab7d56b10d902f145.png

运行train.py,开始训练。

9892ade1ca83bc701d1c76da23c036c7.png

训练后可以看到结果的一些参数评估。

c18a9c75b097258a7cf8451fdebe5b93.png

99ae3c15ac20dbccafb0b0582cec52a0.png

四、预测推理

创建一个predict.py的python文件,代码如下

from ultralytics import YOLO
from PIL import Image


model = YOLO("./runs/detect/train/weights/best.pt") # 训练好的模型路径
img = Image.open("./remote_data/test/images/490.jpg") # 要预测的图像路径
results = model.predict(source=img, show=True, save=True, save_txt=True)  # 展示并保存绘制的图像和坐标

预测结果如下:

b5724698498b1d5226acfb30601bcf16.png

机器学习算法AI大数据技术

 搜索公众号添加: datanlp

aaad2c67fbd4188c4fc1499a51fab0de.jpeg

长按图片,识别二维码

阅读过本文的人还看了以下文章:

实时语义分割ENet算法,提取书本/票据边缘

整理开源的中文大语言模型,以规模较小、可私有化部署、训练成本较低的模型为主

《大语言模型》PDF下载

动手学深度学习-(李沐)PyTorch版本

YOLOv9电动车头盔佩戴检测,详细讲解模型训练

TensorFlow 2.0深度学习案例实战

基于40万表格数据集TableBank,用MaskRCNN做表格检测

《基于深度学习的自然语言处理》中/英PDF

Deep Learning 中文版初版-周志华团队

【全套视频课】最全的目标检测算法系列讲解,通俗易懂!

《美团机器学习实践》_美团算法团队.pdf

《深度学习入门:基于Python的理论与实现》高清中文PDF+源码

《深度学习:基于Keras的Python实践》PDF和代码

特征提取与图像处理(第二版).pdf

python就业班学习视频,从入门到实战项目

2019最新《PyTorch自然语言处理》英、中文版PDF+源码

《21个项目玩转深度学习:基于TensorFlow的实践详解》完整版PDF+附书代码

《深度学习之pytorch》pdf+附书源码

PyTorch深度学习快速实战入门《pytorch-handbook》

【下载】豆瓣评分8.1,《机器学习实战:基于Scikit-Learn和TensorFlow》

《Python数据分析与挖掘实战》PDF+完整源码

汽车行业完整知识图谱项目实战视频(全23课)

李沐大神开源《动手学深度学习》,加州伯克利深度学习(2019春)教材

笔记、代码清晰易懂!李航《统计学习方法》最新资源全套!

《神经网络与深度学习》最新2018版中英PDF+源码

将机器学习模型部署为REST API

FashionAI服装属性标签图像识别Top1-5方案分享

重要开源!CNN-RNN-CTC 实现手写汉字识别

yolo3 检测出图像中的不规则汉字

同样是机器学习算法工程师,你的面试为什么过不了?

前海征信大数据算法:风险概率预测

【Keras】完整实现‘交通标志’分类、‘票据’分类两个项目,让你掌握深度学习图像分类

VGG16迁移学习,实现医学图像识别分类工程项目

特征工程(一)

特征工程(二) :文本数据的展开、过滤和分块

特征工程(三):特征缩放,从词袋到 TF-IDF

特征工程(四): 类别特征

特征工程(五): PCA 降维

特征工程(六): 非线性特征提取和模型堆叠

特征工程(七):图像特征提取和深度学习

如何利用全新的决策树集成级联结构gcForest做特征工程并打分?

Machine Learning Yearning 中文翻译稿

蚂蚁金服2018秋招-算法工程师(共四面)通过

全球AI挑战-场景分类的比赛源码(多模型融合)

斯坦福CS230官方指南:CNN、RNN及使用技巧速查(打印收藏)

python+flask搭建CNN在线识别手写中文网站

中科院Kaggle全球文本匹配竞赛华人第1名团队-深度学习与特征工程

不断更新资源

深度学习、机器学习、数据分析、python

 搜索公众号添加: datayx  

c91ebbdee3b1512c9e34cb5fb08528f1.jpeg

更多推荐