訂閱
糾錯(cuò)
加入自媒體

如何使用OpenCV+Keras+Tensorflow實(shí)現(xiàn)去噪算法與自定義預(yù)處理函數(shù)

理解問(wèn)題在處理計(jì)算機(jī)視覺(jué)問(wèn)題時(shí),我們經(jīng)常遇到需要對(duì)整個(gè)數(shù)據(jù)集應(yīng)用某種形式的轉(zhuǎn)換的情況。Keras中的ImageDataGenerator類提供了各種轉(zhuǎn)換,如翻轉(zhuǎn)、規(guī)格化等。然而,應(yīng)用在Keras中不可用的自定義轉(zhuǎn)換變得非常困難。

在我們的特定示例中,我們將對(duì)我們的數(shù)據(jù)集應(yīng)用去噪算法作為預(yù)處理轉(zhuǎn)換。一種簡(jiǎn)單的方法是對(duì)數(shù)據(jù)集中的所有圖像應(yīng)用去噪函數(shù),并將處理后的圖像保存在另一個(gè)目錄中。然而,這同時(shí)消耗了我們的時(shí)間和空間。另一種方法是使用preprocessing_function屬性動(dòng)態(tài)地執(zhí)行這個(gè)轉(zhuǎn)換。

為了加載用于訓(xùn)練的圖像,我使用了Keras中實(shí)現(xiàn)的.flow_from_directory()方法。使用OpenCV去噪是相當(dāng)簡(jiǎn)單的,OpenCV提供了幾個(gè)內(nèi)置算法來(lái)實(shí)現(xiàn)這一點(diǎn)。

在本文中,我將展示如何定義我們自己的預(yù)處理函數(shù),將其傳遞給訓(xùn)練生成器,并將圖像直接提供給模型,從而無(wú)需保存它們。本教程大致分為兩部分實(shí)現(xiàn)去噪算法擴(kuò)展預(yù)處理函數(shù)讓我們馬上開始吧!第一部分 實(shí)現(xiàn)去噪算法讓我們準(zhǔn)備一個(gè)函數(shù),將圖像作為輸入,應(yīng)用內(nèi)置的去噪算法,并返回處理后的圖像。import cv2
import numpy as np
def preprocessing_fun(filename):
   img = cv2.imread(filename)
   dst = cv2.fastN1MeansDenoisingColored(img, None, 10, 10, 7, 21)
   return dst

我們使用OpenCV的fastN1MeansDenoisingColored算法,因?yàn)樵撍惴ㄟm用于彩色圖像。OpenCV還提供了使用單通道處理圖像的其他算法。fastN1MeansDenoisingColored:https://docs.opencv.org/master/d1/d79/group__photo__denoise.html#ga03aa4189fc3e31dafd638d90de335617現(xiàn)在我們已經(jīng)實(shí)現(xiàn)了我們的算法,讓我們?cè)贗mageDataGenerator類中使用它。第2部分 擴(kuò)展預(yù)處理函數(shù)這里,我們使用訓(xùn)練生成器中前一節(jié)定義的函數(shù)。img_datagen = ImageDataGenerator(rescale=1./255,
                          preprocessing_function = preprocessing_fun)
training_gen = img_datagen.flow_from_directory(PATH, target_size=(224,224),
                         color_mode='rgb',batch_size=32, shuffle=True)

在定義ImageDataGenerator對(duì)象的前兩行中,你可以注意到我們已經(jīng)將去噪函數(shù)傳遞給了preprocessing_function參數(shù)。通過(guò)這樣做,我們將指示我們的數(shù)據(jù)生成器在將圖像提供給模型之前,將這個(gè)函數(shù)應(yīng)用到每個(gè)圖像上作為預(yù)處理步驟。這樣,我們就不需要處理所有圖像并將它們寫入一個(gè)單獨(dú)的目錄。專業(yè)提示:如果你需要執(zhí)行一系列在不同函數(shù)中定義的轉(zhuǎn)換,你可以在你的訓(xùn)練生成器中以以下方式使用它。def transform1(img):
   #Applies a transformation such as horizontal flip and returns the image
   return cv2.flip(img, 1)
def transform2(img):
   #Applies a transformation such as vertical flip and returns the image
   return cv2.flip(img, 0)
def transform3(img):
   #Applies 180-degree rotation and returns the image
   return cv2.rotate(img, cv2.ROTATE_180)
def our_preprocessing_function(filename):
   #Combines all the transformations
   img = cv2.imread(filename)
   img1 = transform1(img)
   img2 = transform2(img1)
   final_img = transform3(img2)
   return final_img
img_datagen = ImageDataGenerator(rescale=1./255,
preprocessing_function = our_preprocessing_function)
training_generator = img_datagen.flow_from_directory(PATH,
target_size=(224,224), color_mode='rgb', batch_size=32,
class_mode='categorical', shuffle=True)
通過(guò)這種方式,我們可以提供一系列自定義轉(zhuǎn)換,將它們包裝在一個(gè)函數(shù)中,并將它們應(yīng)用到我們的數(shù)據(jù)集。此方法簡(jiǎn)單但功能強(qiáng)大,在資源受限的環(huán)境中工作很方便。

圖片標(biāo)題

聲明: 本文由入駐維科號(hào)的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場(chǎng)。如有侵權(quán)或其他問(wèn)題,請(qǐng)聯(lián)系舉報(bào)。

發(fā)表評(píng)論

0條評(píng)論,0人參與

請(qǐng)輸入評(píng)論內(nèi)容...

請(qǐng)輸入評(píng)論/評(píng)論長(zhǎng)度6~500個(gè)字

您提交的評(píng)論過(guò)于頻繁,請(qǐng)輸入驗(yàn)證碼繼續(xù)

  • 看不清,點(diǎn)擊換一張  刷新

暫無(wú)評(píng)論

暫無(wú)評(píng)論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號(hào)
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯(cuò)
x
*文字標(biāo)題:
*糾錯(cuò)內(nèi)容:
聯(lián)系郵箱:
*驗(yàn) 證 碼:

粵公網(wǎng)安備 44030502002758號(hào)