經典網路的 TensorFlow 實現資源彙總

2021-08-09 19:21:06 字數 2154 閱讀 9440

本系列文章由

@yhl_leo 

本文簡單整理了網上公布的基於 tensorflow 實現影象語義分析的一些經典網路,方便大家參考學習。

tf-slim 是 tensorflow 較新版本的擴充包,可以簡化繁雜的網路定義,其中也提供了一些demo:

例如 vgg-16 網路,寥寥數行就可以定義完畢:

def

vgg16

(inputs):

with

slim.arg_scope([slim.conv2d, slim.fully_connected],

activation_fn=tf.nn.relu,

weights_initializer=tf.truncated_normal_initializer(

0.0,

0.01

), weights_regularizer=slim.l2_regularizer(

0.0005

)): net = slim.repeat(inputs,

2, slim.conv2d,

64, [3,

3], scope=

'conv1'

) net = slim.max_pool2d(net, [2,

2], scope=

'pool1'

) net = slim.repeat(net,

2, slim.conv2d,

128, [3,

3], scope=

'conv2'

) net = slim.max_pool2d(net, [2,

2], scope=

'pool2'

) net = slim.repeat(net,

3, slim.conv2d,

256, [3,

3], scope=

'conv3'

) net = slim.max_pool2d(net, [2,

2], scope=

'pool3'

) net = slim.repeat(net,

3, slim.conv2d,

512, [3,

3], scope=

'conv4'

) net = slim.max_pool2d(net, [2,

2], scope=

'pool4'

) net = slim.repeat(net,

3, slim.conv2d,

512, [3,

3], scope=

'conv5'

) net = slim.max_pool2d(net, [2,

2], scope=

'pool5'

) net = slim.fully_connected(net,

4096

, scope=

'fc6'

) net = slim.dropout(net,

0.5, scope=

'dropout6'

) net = slim.fully_connected(net,

4096

, scope=

'fc7'

) net = slim.dropout(net,

0.5, scope=

'dropout7'

) net = slim.fully_connected(net,

1000

, activation_fn=

none

, scope=

'fc8')

return

net

tensorpack 是乙個比較全面的工具包:

github 位址 : ppwwyyxx/tensorpack

tf-tutorials 是乙個簡短的教程,包括如下內容:

還有一些單一網路實現的工程,例如:

持續更新。。。。。。

Tensorflow資源之經典網路實現

本系列文章由 yhl leo tf slim 是 tensorflow 較新版本的擴充包,可以簡化繁雜的網路定義,其中也提供了一些demo 例如 vgg 16 網路,寥寥數行就可以定義完畢 def vgg16 inputs with slim.arg scope slim.conv2d,slim.f...

tensorflow 入門經典例項

import tensorflow as tf 發起會話 sess tf.session 兩行都可以執行 具體意思見下方注釋 a tf.variable tf.truncated normal 2,3 0,1,dtype tf.float32,seed 3 a tf.variable tf.rand...

tensorflow實現簡單的卷積網路

import tensorflow as tf import gc from tensorflow.examples.tutorials.mnist import input data mnist input data.read data sets f zxy python mnist data o...