vgg訓練自己的資料24分類ASL手勢資料集

2021-09-16 14:14:36 字數 668 閱讀 4267

今天心情相對於前幾天好多了。

這一篇!

訓練asl資料集。24分類。

先看檔案目錄:

三個檔案。  最後乙個是訓練。第乙個是資料集的處理。 中間的那個是用來測試的。

使用:第一:把trainvgg.py 裡面資料集換成自己的。這裡注意開始的分類我是24分類。a、b、c、............

第二:開始 訓練,結束後就可以看到效果。

第三:如果想自己拍一張**驗證的話,就把model裡面的vgg.ckpt-9900.meta(這裡根據自己情況新增) 替換成進predict.py **裡對應的位置。     

其他檔案裡面的東西,不用管。

這裡面沒有上傳asl資料集。這個資料集太大了。自己在網上找吧。找不到再聯絡我吧。

下乙個目標。試試resnet.

**太長了。我還是以檔案形式上傳。

用 american sign language(asl)手勢影象資料集,該資料集每個手勢分別由5個人在不同的背景下完成,代表a到z字母,每個手勢樣本有1000張,rgb和深度影象各500張,總共有24×5×1000=120000張影象(由於字母j和z的手勢是動態的,所以這裡我們不考慮)

資料集鏈結

VGG16模型訓練自己資料集

vgg是由simonyan 和zisserman在文獻 very deep convolutional networks for large scale image recognition 中提出卷積神經網路模型,其名稱 於作者所在的牛津大學視覺幾何組 visual geometry group 的...

VGG16 CIFAR10分類的實現

import numpy as np import tensorflow as tf import os import pickle from keras.utils import np utils cifar path r d python mnist data cifar 10 batches ...

YOLO v3訓練自己的資料(肺結節的二分類)

參考 要熟悉voc2007資料格式,labelimg標註工具。我可能有很多廢步驟。一 測試原檔案 將yolov3.weights權重檔案放入h medical python lungcancer yolov3 tensorflow master 3 data darknet weights資料夾中,...