機器學習筆記51 deepfake

2021-10-02 06:43:00 字數 1948 閱讀 7788

``【參考資料】

1. deepfake的autoencoder

deepfake本質上是乙個基於卷積神經網路的autoencoder

程式將原始影象做處理後分別作為編譯碼的源和目標

編譯碼模型的定義在model檔案中,核心**如下:

autoencoder原理參考筆記《【機器學習筆記50】 autoencoder》
def

encoder()

: input_ = input( shape=image_shape )

x = input_

x = conv(

128)

(x) x = conv(

256)

(x) x = conv(

512)

(x) x = conv(

1024

)(x)

x = dense( encoder_dim )

( flatten(

)(x)

) x = dense(4*

4*1024

)(x)

x = reshape((4

,4,1024))

(x) x = upscale(

512)

(x)return model( input_, x )

defdecoder()

: input_ = input( shape=(8

,8,512))

x = input_

x = upscale(

256)

(x) x = upscale(

128)

(x) x = upscale(64)

(x) x = conv2d(

3, kernel_size=

5, padding=

'same'

, activation=

'sigmoid'

)(x)

return model( input_, x )

2. 模型的訓練和**

模型在訓練過程中採用相同的編碼器和不同的解碼器,針對兩類人臉分別訓練

encoder = encoder(

)decoder_a = decoder(

)decoder_b = decoder(

)autoencoder_a = model( x, decoder_a( encoder(x)))

autoencoder_b = model( x, decoder_b( encoder(x)

))

在**時則採用對方的解碼器解碼

機器學習學習筆記

2.機器學習書籍 機器學習tom,這個是老經典,就是翻譯欠佳 prml,這個書正版的超貴,但是比較新且系統,可以通過其他途徑搞個副本。3.自己動手編碼實現2 3種經典演算法,比如svm,lr,bpnn等。4.了解spark上目前支援的機器學習方法的用途和用法,這個在日常工作中會用到。知道的多一點,方...

機器學習 學習筆記

關於梯度下降演算法的優化與 會有三種方法優化梯度下降演算法 1.共軛梯度下降法 conjugate 2.變尺度法 bfgs 3.限制變尺度法 l bfgs 這些方法的好處是 1.不用選擇學習速率 2.收斂的速度快,執行效率高 但是她們的缺點在於 實現她們的方法太複雜,所以我們就可以使用語言的內建庫函...

機器學習 學習筆記

監督學習 我們的學習演算法使用的資料是給出正確答案的資料,然後我們執行學習演算法,出更多的正確答案。理解為像深度需學習類似,利用訓練樣本訓練處學習模型,然後用測試樣本對學習到的模型進行檢測,輸出 結果。無監督學習 可以理解為對於學習演算法所使用的資料集並沒有給出正確答案,學習演算法就是要對這資料集進...