Datawhale組隊學習 Task01 02

2021-10-02 20:02:22 字數 862 閱讀 9352

這兩天主要學習的內容如下:

task01:線性回歸;softmax與分類模型;多層感知機(1天)

task02:文字預處理;語言模型;迴圈神經網路基礎(1天)

num_epochs =

3for epoch in

range(1

, num_epochs +1)

:for x, y in data_iter:

output = net(x)

l = loss(output, y.view(-1

,1))

optimizer.zero_grad(

)# reset gradient, equal to net.zero_grad()

l.backward(

) optimizer.step(

)print

('epoch %d, loss: %f'

%(epoch, l.item())

)

對於一些重要的步驟,例如optimizer.zero_grad(),如果之前沒有學習過相應的內容,遺漏之後會導致神經網路並沒有沿著我們想要的方向訓練。

在這一部分也留下了一些之後要學習的內容,例如

對於task02而言,分詞部分不難理解,之前也接觸過一些中文分詞的工具,例如jieba等;關於rnn的部分,確實通過pytorch中的學習又加深了對它的理解。以前嘗試過使用rnn進行時間序列**,當時是使用keras、tensorflow實現,之後可以嘗試用pytorch再實現一遍。

在這一部分留下的疑點,例如:

如果可以的話,找乙個具體的時間**問題,之後用pytorch完整比較一下標準的rnn、gru和lstm。

Datawhale組隊學習Pandas

下面直接展示內聯 片。備註內容為學習後的感想與總結 author xuxt time 2020 12 14l def my func x return 2 x for i in range 5 l.my func i print l 定義 我的函式 輸入x,返回,2x,即輸入1,2,3,4,5可以得...

元組 datawhale組隊學習python基礎

元組 定義語法為 元素1,元素2,元素n 與列表不同,元組是 列表是。t1 1 10.31 python t2 1,10.31 python print t1,type t1 1,10.31,python print t2,type t2 1,10.31,python tuple1 1 2,3 4,...

Datawhale公益AI組隊學習Task3 5

一類是模型無法得到較低的訓練誤差,我們將這一現象稱作欠擬合 underfitting 另一類是模型的訓練誤差遠小於它在測試資料集上的誤差,我們稱該現象為過擬合 overfitting 在實踐中,我們要盡可能同時應對欠擬合和過擬合。雖然有很多因素可能導致這兩種擬合問題,在這裡我們重點討論兩個因素 模型...