大三下每週總結 第六周

2022-05-24 14:27:11 字數 1203 閱讀 9984

本週我學習了cnn卷積神經網路識別,對卷積有了初步的了解。

大致分為,資料讀入,卷積,池化,drop四個階段,目前都不是很理解,特別是對卷積核,通道數和drop理解的很淺,所以整個過程還是有很多地方想不通,特別是最後一次卷積,好像是把一維化,但是突然出現的1024讓我有點懵,網上說是1024個神經元最準確,可能是這樣吧。

32.w_c3=tf.variable(w_alpha*tf.random_normal([3,3,64,64]))  

33.    b_c3=tf.variable(b_alpha*tf.random_normal([64]))  

34.    conv3=tf.nn.relu(tf.nn.bias_add(tf.nn.conv2d(conv2,w_c3,strides=[1,1,1,1],padding='

same

'),b_c3))  

35.    conv3=tf.nn.max_pool(conv3,ksize=[1,2,2,1],strides=[1,2,2,1],padding='

same

')  

36.    conv3=tf.nn.dropout(conv3,keep_prob)  

39.w_d=tf.variable(w_alpha*tf.random_normal([8*20*64,1024]))  

40.    b_d=tf.variable(w_alpha*tf.random_normal([1024]))  

41.    dense=tf.reshape(conv3,[-1,w_d.get_shape().as_list()[0]])  

42.    dense=tf.nn.relu(tf.add(tf.matmul(dense,w_d),b_d))  

43.    dense=tf.nn.dropout(dense,keep_prob)  

44.    w_out=tf.variable(w_alpha*tf.random_normal([1024,max_captcha*char_set_len]))  

45.    b_out=tf.variable(b_alpha*tf.random_normal([max_captcha*char_set_len]))  

46.    out=tf.add(tf.matmul(dense,w_out),b_out)  

47.    return out

每週總結(第六周)

星期一星期二 星期三星期四 星期五星期日 時間19 20 21 00 19 15 21 105 19 40 21 30 19 00 21 30 量20行 5行37行 無部落格量無無 一篇一篇 知識點陣列中最大子陣列的定義 最大子陣列之和計算 完成課堂測試程式 成立團隊 星期一星期二 星期三星期四 星...

第六周總結

2 關於register 提高速度 儲存型別說明符 register要求變數儲存在cpu暫存器中,所以不能用取位址符 取其位址,並且,在全域性變數的地方不能出現register 防止儲存型別不唯一引起的衝突。同時,register 變數必須是能被cpu暫存器所接受的型別。這就意味著,register...

總結第六周

這一周從時間意義上也算是國慶假期後的第一周,學弟學妹也正式踏入了校園,我們工作室的招新工作也相繼展開,截止到此時此刻,還有資料專業和物聯專業的學弟學妹沒有來到我們工作室進行參觀,這兩天也挺累的,但也從中收穫到了許多東西,比如 在人多的時候講話可以更淡定一點,沒有那麼緊張 跟學弟學妹交流用怎樣的方式更...