吳恩達DL3 2 9節 什麼是端到端的DL?

2021-10-08 18:40:57 字數 867 閱讀 2268

課堂筆記

端到端(end-to-end)學習:傳統處理方法的輸入和輸出中間有很多步驟,而端到端dl是忽略這中間的所有階段,用單個神經網路去代替它。

例子:語音識別成文字

1.標識出**中的人臉的位置

2.將**中的人臉和庫中的人臉進行對比,判斷是否是乙個人。

而端到端學習直接把拍到的**和庫中的人臉**相比較,得出結果。

但是這裡存在乙個問題:

當分為兩步時,每一步都更容易有更多的訓練資料,而端到端的話不容易有這麼多資料(拍到的**和**中人臉的資料),如果有這麼多資料,那麼端到端也許迴避分階段效果更好。

機器翻譯中,因為現在很容易收集很多語音和文字的對應關係的資料集,所以端到端的方法會更好用;

x射線診斷中,根據手的x涉嫌判斷兒童的年齡,可以為分為兩步:

從x射線圖中將每一塊骨骼檢測出來;

利用骨骼來判斷兒童的年齡

這兩步的資料都比較容易獲得,

而反觀端到端學習,直接由x射線圖來識別出年齡,這樣的資料不容易獲取,所以在你沒有得到更多這樣的資料集之前,分階段學習可能是更好的選擇。

講到這裡我個人感覺當端到端的資料好獲取的時候,端到端不僅表現優異,而且能夠簡化系統架構,此時選擇端到端是較為合適的。

下節將講述何時適合使用端到端學習。

吳恩達預處理

詳細 見這裡 0.匯入相應的包 import os import tensorflow as tf import numpy as np from pil import image1.處理標籤 1.os.listdir file dir 函式獲取檔案路徑裡面的所有檔案目錄,並返回為乙個列表 2.la...

深度學習 吳恩達

第三週神經網路 啟用函式 第一門課 感謝黃博的參考筆記 一次梯度下降 正向傳播與反向傳播 一次反向傳播梯度下降 注意與機器學習課程不同的一點是,第一層不算樣本輸入 a t an z a tan z a tan z 的值域是位於 1和 1之間。a t anh z e z e zez e za tanh...

吳恩達machine learning邏輯回歸

1.假設函式h x 因為邏輯回歸演算法的y值只有零和一兩個值,那麼如果依然要用線性回歸的方程來表達這一種趨勢的話,會導致誤差很大 於是就引進了乙個sigmoid函式,這個函式是無限趨近於0和1。也就是h x g z 1 1 e z 所以我們假設當這個函式的值取到 0.5時,那麼就表示 y 1.也就是...