YoloV4 自定义数据集训练测试拆分

问题描述 投票:0回答:5

我尝试用我的自定义数据集训练 Yolo 网络。我有一些图像(*.jpg)和 yolo 格式的标签/注释作为 txt 文件。

现在我想将数据拆分为训练集和验证集。因此,我想要一个火车和一个验证文件夹,每个文件夹都有自己的图像和注释。

我试过这样的事情:

from sklearn.model_selection import train_test_split
import glob


# Get all paths to your images files and text files
PATH = '../TrainingsData/'
img_paths = glob.glob(PATH+'*.jpg')
txt_paths = glob.glob(PATH+'*.txt')
    
X_train, X_test, y_train, y_test = train_test_split(img_paths, txt_paths, test_size=0.3, random_state=42)

将集合保存到新文件夹后,图像和注释混淆了。因此,例如在训练文件夹中,一些图像没有注释(它们在验证文件夹中)并且有一些注释但图像丢失了。

你能帮我拆分我的数据集吗?

python scikit-learn yolo train-test-split dataset
5个回答
3
投票

好的!!,你可以做到这一点

分图功能

def split_img_label(data_train,data_test,folder_train,folder_test):
    
    os.mkdir(folder_train)
    os.mkdir(folder_test)
    
    
    train_ind=list(data_train.index)
    test_ind=list(data_test.index)
    
    
    # Train folder
    for i in tqdm(range(len(train_ind))):
        
        os.system('cp '+data_train[train_ind[i]]+' ./'+ folder_train + '/'  +data_train[train_ind[i]].split('/')[2])
        os.system('cp '+data_train[train_ind[i]].split('.jpg')[0]+'.txt'+'  ./'+ folder_train + '/'  +data_train[train_ind[i]].split('/')[2].split('.jpg')[0]+'.txt')
    
    # Test folder
    for j in tqdm(range(len(test_ind))):
        
        os.system('cp '+data_test[test_ind[j]]+' ./'+ folder_test + '/'  +data_test[test_ind[j]].split('/')[2])
        os.system('cp '+data_test[test_ind[j]].split('.jpg')[0]+'.txt'+'  ./'+ folder_test + '/'  +data_test[test_ind[j]].split('/')[2].split('.jpg')[0]+'.txt')

代码


import pandas as pd 
import os 

PATH = './TrainingsData/'
list_img=[img for img in os.listdir(PATH) if img.endswith('.jpg')==True]
list_txt=[img for img in os.listdir(PATH) if img.endswith('.txt')==True]

path_img=[]

for i in range (len(list_img)):
    path_img.append(PATH+list_img[i])
    
df=pd.DataFrame(path_img)

# split 
data_train, data_test, labels_train, labels_test = train_test_split(df[0], df.index, test_size=0.20, random_state=42)

# Function split 
split_img_label(data_train,data_test,folder_train_name,folder_test_name)

输出

len(list_img)
583

100%|████████████████████████████████████████████████████████████████████████████████| 466/466 [00:26<00:00, 17.42it/s]
100%|████████████████████████████████████████████████████████████████████████████████| 117/117 [00:07<00:00, 16.61it/s]

最后,您将拥有 2 个具有相同图像和标签的文件夹(folder_train_name,folder_test_name)。


2
投票
import glob
import random
import os
filelist  = glob.glob('train/*.txt')
test = random.sample(filelist, int(len(filelist)*0.15))
output_path = 'test/'
if not os.path.exists(output_path):
    os.makedirs(output_path)

for file in test:
    txtpath = file
    impath = file[:-4] + '.jpg'
    out_text = os.path.join(output_path, os.path.basename(txtpath))
    out_image = os.path.join(output_path, os.path.basename(impath))
    print(txtpath,impath,out_text,out_image)
    os.system('powershell mv ' + txtpath + ' ' + out_text)
    os.system('powershell mv ' + impath + ' ' + out_image)

设置训练和测试文件夹路径。 设置要发送给测试的图像的百分比。

如果不使用 Windows,请将

powershell mv 
命令替换为
mv 


0
投票

如果您想拆分图像和标签以训练您的自定义模型,我建议执行以下步骤:

  1. Create an
    obj
    folder with images and labels.
  2. 创建并运行
    generate_train.py
    脚本
#generate_train.py
import os

image_files = []
os.chdir(os.path.join("data", "obj"))
for filename in os.listdir(os.getcwd()):
    if filename.endswith(".jpg"):
        image_files.append("data/obj/" + filename)
os.chdir("..")
with open("train.txt", "w") as outfile:
    for image in image_files:
        outfile.write(image)
        outfile.write("\n")
    outfile.close()
os.chdir("..")
  1. 最后当你有
    train.txt
    文件时,你可以运行下面的代码:
df=pd.read_csv('PATH/data/train.txt',header=None)


# sklearn split 80 train, 20 test

data_train, data_test, labels_train, labels_test = train_test_split(df[0], df.index, test_size=0.20, random_state=42)

# train.txt contain the PATH of images and label to train 
data_train=data_train.reset_index()
data_train=data_train.drop(columns='index')
with open("train.txt", "w") as outfile:
    for ruta in data_train[0]:
        outfile.write(ruta)
        outfile.write("\n")
    outfile.close()

# test.txt contain the PATH of images and label to test 
data_test=data_test.reset_index()
data_test=data_test.drop(columns='index')
with open("test.txt", "w") as outfile:
    for ruta in data_test[0]:
        outfile.write(ruta)
        outfile.write("\n")
    outfile.close()

现在,您已准备好训练您的模型

YOLO

!./darknet detector train data/obj.data cfg/yolov4-FENO.cfg yolov4.conv.137 -dont_show -map

!./darknet detector train data/obj.data cfg/yolov4_tiny.cfg yolov4-tiny.conv.29 -dont_show -map


0
投票

拆分图像数据集很棘手,因为正如您发现的那样,如果操作不当,您最终会在单独的文件夹中得到注释和图像。

我在使用 Yolo 注释时遇到了同样的问题,最终创建了一个名为 PyLabel 的 Python 包来将它作为一个学校项目来完成。

我有一个示例笔记本来演示如何在此处将数据集分成 2 或 3 组 https://github.com/pylabel-project/samples/blob/main/dataset_splitting.ipynb.

使用 PyLabel 代码将是这样的:

dataset = importer.ImportYoloV5(path_to_annotations)
dataset.splitter.StratifiedGroupShuffleSplit(train_pct=.6, val_pct=.2, test_pct=.2, batch_size=1)
dataset.analyze.ShowClassSplits()

ShowClassSplits 将提供以下输出,因此您可以检查拆分是否平衡

PyLabel 有 2 种拆分数据的方法:

  1. GroupShuffleSplit,它使用 sklearn 中的 GroupShuffleSplit 命令。
  2. StratifiedGroupShuffleSplit,它试图平衡类在拆分组中的均匀分布。

希望这对阅读本文的人有所帮助。如果您遇到任何问题,请随时与我联系,我可以提供帮助。


0
投票

@N.white 您可以使用与上面相同的代码,但您只需添加和更改以下行

list_folder = [folder1,folder2,.........folder40]

for folder_name in list_folder :

    PATH = 'folder_name'

    list_img=[img for img in os.listdir(PATH) if img.endswith('.jpg')==True]
    list_txt=[img for img in os.listdir(PATH) if img.endswith('.txt')==True]

    path_img=[]

    for i in range (len(list_img)):
       path_img.append(PATH+list_img[i])
    
    df=pd.DataFrame(path_img)

    # split 
    data_train, data_test, labels_train, labels_test = train_test_split(df[0], 
    df.index, test_size=0.20, random_state=42)

    # Function split 
    split_img_label(data_train,data_test,folder_train_name,folder_test_name)

注意: 请记住,folder_train_name & folder_test_name 对于所有过程都是相同的,以便获得包含所有图像的唯一最终文件夹。

© www.soinside.com 2019 - 2024. All rights reserved.