反演系列之MLP學習

2021-10-10 08:48:45 字數 1123 閱讀 2266

#bp神經網路or多層感知機

#匯入模組

from sklearn.neural_network import mlpregressor

import pandas as pd

import numpy as np

#匯入資料

data_tr=pd.read_csv(

'd:\\python38\\bpdata_tr.txt'

,header=

none

)#header=none表示第一行不為列名

data_te=pd.read_csv(

'd:\\python38\\bpdata_te.txt'

,header=

none

)model=mlpregressor(hidden_layer_sizes=(10

,),max_iter=

10000

,random_state=10)

# bp神經網路回歸模型,可修改最大迭代次數減小誤差

model.fit(data_tr.iloc[:,

:2],data_tr.iloc[:,

2])# 訓練模型,.iloc表示對tr訓練資料提取列,(前兩列,第三列)

pre=model.predict(data_te.iloc[:,

:2])

# 模型**,對tr訓練資料提取列,(前兩列)

err=np.

abs(pre-data_te.iloc[:,

2]).mean(

)# 模型評價,求取**與實際結果間的誤差絕對值均值

今日是2020/11/8,這是我後續進行反演分析的乙個開端,個人認為用這個演算法也能很好進行乙個『三對一』的模型建立,但是為了看上去能更高階些,我還是要選擇乙個更複雜些的演算法。。。rvm

DGA系列之MLP(二)

針對機器學習對深度學習技術的發展過渡,發表一些個人的理解。一開始的機器學習,是基於特徵去實現讓機器具有識別工作,但需要識別的目標數量變得大的時候,機器學習所需要訓練的數量也會變大,而這個人們初期用的方法是在同乙個維度的橫向擴充套件 不斷地使用特徵資料訓練 這樣的確可以達到高的命中率,構造乙個完美的分...

反演 學習筆記

小聲bb 本來看skyh推的部落格,是來學容斥的,莫名其妙被強塞了反演 好多童鞋還不知道啥是反演,反正聽起來挺牛逼的,誰會誰被膜。比如說有兩個未知量 x,y 我們用 x 表達出來了 y 比如乙個一次函式 y kx b 那麼我們用 y 表示 x 就是 x frac emmmm 這差不多就是個反演。然後...

學習多層感知機MLP的心得

神經網路中一種模擬神經元 neuron 的結構,有輸入 input 輸出 output 權重 weight 前饋運算 feed forward 啟用函式 activation function 等部分。單層感知器能模擬邏輯與 邏輯或 邏輯非和邏輯與非等操作,但不能實現邏輯異或!啟用函式可以表示為 其...