tensorflow学习笔记(二)
tensorflow学习笔记(2)由于是在边看别人的开源代码,边学习tensorflow,可能写得没什么条理。tf.argmax(array,axis=None,out=None)返回axis列最大值的引索。axis=0,表示返回每一列最大值的列引索axis=1表示返回每一行最大值的行引索tf.cast(x, dtype, name=None)函数作用:将x...
·
tensorflow学习笔记(2)
由于是在边看别人的开源代码,边学习tensorflow,可能写得没什么条理。
tf.argmax(array,axis=None,out=None)
返回axis列最大值的引索。
axis=0,表示返回每一列最大值的列引索
axis=1表示返回每一行最大值的行引索
tf.cast(x, dtype, name=None)
函数作用:将x转换成dtype类型。
tf.train.exponential_decay(learning_rate, global_step, decay_steps, decay_rate, staircase=False, name=None){#exponential_decay}
参数:
- learning rate:学习率初始值
- global_step:全值step数,每一个step代表一个batch_size
- decay_steps:learning rate更新的周期,即每隔多少个step周期更新learning rate
- decay_rate:指数衰减参数
返回值是一个learning rate,不过包括其衰减方式
tf.train.GradientDescentOptimizer
函数参数:
- learning rate:学习率参数
- use_locking:如果为真,则将更新操作加锁
- name:操作的名字
常用的函数:
minimize(
loss,
global_step=None,
var_list=None,
gate_gradients=GATE_OP,
aggregation_method=None,
colocate_gradients_with_ops=False,
name=None,
grad_loss=None
)
函数作用:通过var_list最小化损失值的操作
函数参数:
- loss:需要减少的损失值。
- global_step:可选项,用于确定什么时候更新
- var_list:要减少的元组列表,默认为GraphKeys
返回值为一个操作
开放原子开发者工作坊旨在鼓励更多人参与开源活动,与志同道合的开发者们相互交流开发经验、分享开发心得、获取前沿技术趋势。工作坊有多种形式的开发者活动,如meetup、训练营等,主打技术交流,干货满满,真诚地邀请各位开发者共同参与!
更多推荐
已为社区贡献3条内容
所有评论(0)