人工神經網路(2) 縮放層和縮放還原層

2021-10-23 18:50:47 字數 1052 閱讀 7565

實際上,將輸入值進行縮放,使其具有適當的範圍,可以方便計算。

在神經網路中,可以將縮放函式視為連線到神經網路輸入的一層。縮放層包含輸入量的一些基本統計學資訊,包括平均值、標準差、最小值和最大值。

實踐中常用的一些縮放方法如下:

最大最小值縮放

均值和標準差縮放

標準差縮放

最大最小值縮放

最大最小值縮放法產生乙個大小在-1和1之間的資料集。該方法通常用於具有均勻分布的變數。

均值和標準差縮放

平均值和標準差縮放法對輸入進行縮放,以使它們的平均值為0,標準差為1。此方法通常應用於具有正態(或高斯)分布的變數。

標準差縮放

標準差縮放法產生標準差為1的輸入。通常將其應用於半正態分佈,即變數遵循以0為中心的正態分佈,但僅取正值。

所有縮放方法都是線性的,並且通常會產生相似的結果。在所有情況下,資料集中的資料縮放必須與神經網路中的輸入縮放同步。

神經網路縮放後的輸出值經反縮放還原成原始數值單位。

在神經網路的上下文中,縮放還原函式可理解為連線感知器層輸出的縮放還原層。縮放還原層包含輸出量的一些基本統計資訊,包括平均值、標準差、最小值和最大值。

實踐中常用的四種縮放還原方法如下:

最大最小值縮放還原法

均值和標準差縮放還原法

標準差縮放還原法

對數縮放還原法

最大最小值縮放還原法

先前縮放為[-1,+1]的變數,經縮放還原,轉換成原始範圍內的輸出。

均值和標準差縮放還原法

均值和標準差縮放還原法將原先縮放成均值0、標準差1的變數還原。

標準差縮放還原法

標準差縮放還原法將原先縮放成標準差1的變數還原,從而產生原始範圍內的輸出值。

對數縮放還原法

對數法將原先進行了對數變換的變數還原。

任何情況下,資料集內目標值的縮放必須與神經網路的輸出還原同步。

人工神經網路 理解人工神經元和神經網路

人工神經網路主要根據大腦神經元構建人工神經元,並且按照一定的拓撲結構建立神經元之間的連線,模擬生物神經網路。早期模型強調生物合理性,目前更加強調對認知能力的模擬,完成某種特定任務。人工神經網路系列部落格持續更新。由於本人更喜歡使用word和mathtype,所以較多截屏。如果我的理解有欠缺或者錯誤,...

人工智慧和神經網路

人工智慧的發展飛快,這也得益於人工智慧的技術成熟。而人工智慧離不開神經網路,神經網路在人工智慧的發展中也是走過了十分崎嶇的道路,那麼究竟是怎麼一回事呢?我們在這篇文章中給大家介紹一下這個問題。每乙個科學的技術發展程序都是十分相似的,如果我們從歷史來看,就能夠發展一件十分有意思的事情,重大科學的研究往...

神經網路七 神經網路設定層的數量和尺寸

本文就現在神經網路中層的數量和尺寸,分析其中的優缺點。在此特宣告,本文的內容是來自 cs231n課程筆記翻譯 神經網路筆記1 下 智慧型單元 知乎專欄。因本人有時會查閱這些相關的知識點,一直翻文件比較麻煩,特從文件中摘錄複製寫到部落格中,其中的艱辛也是有的,希望對廣大參閱者也有幫助。在面對乙個具體問...