排列5 开奖:TensorFlow函数:tf.layers.Dense

由 Carrie 创建, 最后一次修改 2018-07-17

tf.layers.Dense函数

Dense类

排列五发现一个规律 www.g42ek.com.cn 继承自: Layer

定义在:tensorflow/python/layers/core.py。

密集连接(Densely-connected)层类。

该层实现了操作:outputs = activation(inputs * kernel + bias),其中activation是作为activation参数传递的激活函数(如果不是None),是由层创建的权重矩阵,kernel是由层创建的权重矩阵,并且bias是由层创建的偏差向量(只有use_bias为True时)。

参数:

  • units:整数或长整数,输出空间的维数。
  • activation:激活功能(可调用),将其设置为“None”以保持线性激活。
  • use_bias:Boolean,表示该层是否使用偏差。
  • kernel_initializer:权重矩阵的初始化函数;如果为None(默认),则使用tf.get_variable使用的默认初始化程序初始化权重。
  • bias_initializer:偏置的初始化函数。
  • kernel_regularizer:权重矩阵的正则化函数。
  • bias_regularizer:正规函数的偏差。
  • activity_regularizer:输出的正则化函数。
  • kernel_constraint:由Optimizer更新后应用于内核的可选投影函数(例如,用于实现层权重的范数约束或值约束)。该函数必须将未投影的变量作为输入,并且必须返回投影变量(必须具有相同的形状)。在进行异步分布式训练时,使用约束是不安全的。
  • bias_constraint:由Optimizer更新后应用于偏置的可选投影函数。
  • trainable:Boolean,如果为True,还将变量添加到图集合GraphKeys.TRAINABLE_VARIABLES中(请参阅参考资料tf.Variable)。
  • name:String,图层的名称;具有相同名称的图层将共享权重,但为了避免错误,在这种情况下,我们需要reuse=True。
  • reuse:Boolean,是否以同一名称重用前一层的权重。

属性

  • activity_regularizer

    可选的正则化函数用于该层的输出。

  • dtype
  • graph
  • input

    检索图层的输入张量。

    仅适用于图层只有一个输入,即它是否连接到一个输入层。

    返回:

    输入张量或输入张量列表。

    可能引发的异常:

    • AttributeError:如果图层连接到多个输入图层。
    • RuntimeError:如果在Eager模式下调用。
    • AttributeError:如果未找到入站节点。
  • input_shape

    检索图层的输入形状。

    仅适用于图层只有一个输入,即它是否连接到一个输入层,或者所有输入具有相同形状的情况。

    返回:

    输入形状,作为整数形状元组(或形状元组列表,每个输入张量一个元组)。

    可能引发的异常:

    • AttributeError:如果图层没有定义的input_shape。
    • RuntimeError:如果在Eager模式下调用。
  • losses

    与此Layer相关的损失。

    请注意,在急切执行时,获取此属性会计算正规则。使用图形执行时,已经创建了变量正则化运算,并且只是在这里返回。

    返回:

    张量列表。

  • name
  • non_trainable_variables
  • non_trainable_weights
  • output

    检索图层的输出张量。

    仅适用于图层只有一个输出,即它是否连接到一个输入层。

    返回:

    输出张量或输出张量列表。

    可能引发的异常:

    • AttributeError:如果图层连接到多个输入图层。
    • RuntimeError:如果在Eager模式下调用。
  • output_shape

    检索图层的输出形状。

    仅适用于图层具有一个输出,或者所有输出具有相同形状的情况。

    返回:

    输出形状,作为整数形状元组(或形状元组列表,每个输出张量一个元组)。

    可能引发的异常:

    • AttributeError:如果图层没有定义的输出形状。
    • RuntimeError:如果在Eager模式下调用。
  • scope_name
  • trainable_variables
  • trainable_weights
  • updates
  • variables

    返回所有图层变量/权重的列表。

    返回:

    变量列表。

  • weights

    返回所有图层变量/权重的列表。

    返回:

    变量列表。

方法

  • __init__
    __init__(
        units,
        activation=None,
        use_bias=True,
        kernel_initializer=None,
        bias_initializer=tf.zeros_initializer(),
        kernel_regularizer=None,
        bias_regularizer=None,
        activity_regularizer=None,
        kernel_constraint=None,
        bias_constraint=None,
        trainable=True,
        name=None,
        **kwargs
    )

    初始化自我。

  • __call__
    __call__(
        inputs,
        *args,
        **kwargs
    )

    包装call,应用预处理和后处理步骤。

    参数:

    • inputs:输入张量。
    • *args:要传递给self.call的其他位置参数。
    • **kwargs:要传递给self.call的其他关键字参数。注意:kwarg scope保留供图层使用。

    返回:

    输出张量。

    注意:- 如果图层的call方法采用scope关键字参数,则此参数将自动设置为当前变量范围。- 如果图层的call方法采用mask参数(如某些Keras图层那样),则其默认值将设置为inputs前input一图层生成的蒙版(如果确实来自生成相应蒙版的图层,即它是否来自具有掩蔽支持的Keras层)。

    可能引发的异常:

    • ValueError:如果图层的call方法返回None(无效值)。
  • __deepcopy__
    __deepcopy__(memo)
  • add_loss
    add_loss(
        losses,
        inputs=None
    )

    添加损失张量,可能取决于图层输入。

    一些损失(例如,活动正则化损失)可能取决于调用层时传递的输入。因此,当在不同的输入a和b上重用同一层时,在layer.losses层上的一些条目可以取决于a而另外一部分可以取决于b。此方法自动跟踪依赖性。

    该get_losses_for方法允许检索与特定输入集相关的损失。

    请注意,急切执行时不支持add_loss。相反,可以通过add_variable添加变量正则化器。不直接支持活动正规化(但可以从Layer.call()中返回此类损失)。

    参数:

    • losses:损失张量,或张量/列表的张量。
    • inputs:如果传递了除None以外的任何内容,则表示损失是以某些层的输入为条件的,因此它们只应在这些输入可用的地方运行。例如,活动正规化损失就是这种情况。如果None通过,则假定损失是无条件的,并且将应用于层的所有数据流(例如,权重正则化损失)。

    可能引发的异常:

    • RuntimeError:如果在Eager模式下调用。
  • add_update
    add_update(
        updates,
        inputs=None
    )

    添加更新操作,可能依赖于图层输入。

    权重更新(例如,BatchNormalization层中移动均值和方差的更新)可能取决于调用图层时传递的输入。因此,当在不同的输入a和b上重用同一层时,在layer.updates上的一些条目可以取决于a而另外一些可以取决于b。此方法自动跟踪依赖性。

    该get_updates_for方法允许检索与特定输入集相关的更新。

    在Eager模式下忽略此调用。

    参数:

    • updates:更新操作,或更新操作的列表/元组。
    • inputs:如果传递了除None之外的任何内容,则表示更新是以某些层的输入为条件的,因此它们只应在这些输入可用的地方运行。例如,BatchNormalization更新就是这种情况。如果为None,则无条件地考虑更新,并且您有责任确保它们可能具有的任何依赖性在运行时可用。步数计数器可能属于此类别。
  • add_variable
    add_variable(
        name,
        shape,
        dtype=None,
        initializer=None,
        regularizer=None,
        trainable=True,
        constraint=None,
        partitioner=None
    )

    向图层添加新变量,或获取现有变量;返回它。

    参数:

    • name: 变量名。
    • shape:变形。
    • dtype:变量的类型;默认为self.dtype或float32。
    • initializer:初始化程序实例(可调用)。
    • regularizer:regularrizer实例(可调用)。
    • trainable:变量是否应该是图层的“trainable_variables”(例如,变量,偏差)或“non_trainable_variables”(例如BatchNorm mean,stddev)的一部分。注意,如果当前变量范围被标记为不可训练,则忽略此参数,并且任何添加的变量也标记为不可训练。
    • constraint:约束实例(可调用)。
    • partitioner:(可?。┓智绦蚴道傻饔茫?。如果提供,则在创建请求的变量时,它将根据partitioner分成多个分区。在这种情况下,返回一个PartitionedVariable实例??捎玫姆智╰f.fixed_size_partitioner和tf.variable_axis_size_partitioner。

    返回:

    创建的变量。通常是一个Variable或一个ResourceVariable实例。如果partitioner不是None,则返回PartitionedVariable实例。

    可能引发的异常:

    • RuntimeError:如果使用分区变量正则化调用并且启用了急切执行。
  • apply
    apply(
        inputs,
        *args,
        **kwargs
    )

    在输入上应用图层。

    这只是包装self.__call__。

    参数:

    • inputs:输入张量。
    • *args:要传递给self.call的其他位置参数。
    • **kwargs:要传递给self.call的其他关键字参数。

    返回:

    输出张量。

  • build
    build(input_shape)

    创建图层的变量。

  • call
    call(inputs)

    图层的逻辑就在这里。

    参数:

    • inputs:输入张量。
    • **kwargs:其他关键字参数。

    返回:

    输出张量。

  • compute_output_shape
    compute_output_shape(input_shape)

    在给定输入形状的情况下计算图层的输出形状。

    参数:

    • input_shape:一个TensorShape(可能是嵌套的元组)。它不需要完全定义(例如批量大小可能是未知的)。

    返回:

    一个TensorShape(可能是嵌套的元组)。

    可能引发的异常:

    • TypeError:如果input_shape不是TensorShape(可能是嵌套的元组)。
    • ValueError:如果input_shape不完整或与图层不兼容。
  • count_params
    count_params()

    计算组成权重的标量总数。

    返回:

    整数计数。

    可能引发的异常:

    • ValueError:如果尚未构建图层(在这种情况下,其权重尚未定义)。
  • get_input_at
    get_input_at(node_index)

    检索给定节点处的层的输入张量。

    参数:

    • node_index:Integer,从中检索属性的节点的索引。例如,node_index=0将对应于第一次调用图层。

    返回:

    张量(如果图层有多个输入,则为张量列表)。

    可能引发的异常:

    • RuntimeError:如果在Eager模式下调用。
  • get_input_shape_at
    get_input_shape_at(node_index)

    检索给定节点处的图层的输入形状。

    参数:

    • node_index:Integer,从中检索属性的节点的索引。例如,node_index=0将对应于第一次调用图层。

    返回:

    形状元组(如果图层有多个输入,则为形状元组??列表)。

    可能引发的异常:

    • RuntimeError:如果在Eager模式下调用。
  • get_losses_for
    get_losses_for(inputs)

    检索与特定输入集相关的损失。

    参数:

    • inputs:输入张量或输入张量的列表/元组。

    返回:

    依赖于inputs的层的损失张量列表。

    可能引发的异常:

    • RuntimeError:如果在Eager模式下调用。
  • get_output_at
    get_output_at(node_index)

    检索给定节点处的图层的输出张量。

    参数:

    • node_index:Integer,从中检索属性的节点的索引。例如,node_index=0将对应于第一次调用图层。

    返回:

    张量(如果图层有多个输出,则为张量列表)。

    可能引发的异常:

    • RuntimeError:如果在Eager模式下调用。
  • get_output_shape_at
    get_output_shape_at(node_index)

    检索给定节点处图层的输出形状。

    参数:

    • node_index:Integer,从中检索属性的节点的索引。例如,node_index=0将对应于第一次调用图层。

    返回:

    形状元组(如果图层具有多个输出,则为形状元组??列表)。

    可能引发的异常:

    • RuntimeError:如果在Eager模式下调用。
  • get_updates_for
    get_updates_for(inputs)

    检索与特定输入集相关的更新。

    参数:

    • inputs:输入张量或输入张量的列表/元组。

    返回:

    依赖于inputs的层的更新操作列表。

    可能引发的异常:

    • RuntimeError:如果在Eager模式下调用。
以上内容是否对您有帮助:
双十二充值活动活动
二维码
排列五发现一个规律
二维码
  • 澳门修订《司法组织纲要法》 涉国安法案件限中国籍法官审理 2018-12-12
  • 江西人存款1.66万亿元 2018-12-12
  • 蜈蚣精的出游必备战靴 旅行路上皆战场 2018-12-11
  • [微笑]原因很简单:房产的升值是由关联资源的增加形成的,跟房屋的产权人没有任何关系,肯定就不能让其从中获利! 2018-12-11
  • 精彩画面—国际摩托车滚雷巡游节 2018-12-10
  • 政协天津市第十四届委员会委员增补名单 2018-12-09
  • 你一人就代表了世人? 2018-12-09
  • 万物互联开启智慧新图景 下一代互联网未来已来 2018-12-08
  • 第十二届中国(南宁)国际园林博览会吉祥物正式发布 2018-12-08
  • 重走北上民主人士在沈阳活动之路 2018-12-07
  • 【理上网来·辉煌十九大】俄罗斯科学家:受到习主席接见印象深刻 2018-12-07
  • 《在人间》第152期:美国穷困之地的华裔 2018-12-06
  • 我们为什么不能做水而要做面团呢?水无形而面有形。 2018-12-06
  • 人人车春季消费报告用户篇 全景呈现消费行为习惯 2018-12-05
  • 【三年决战奔小康】一封来自甘南精准扶贫户的感谢信 2018-12-04
  • 470| 720| 355| 830| 658| 112| 609| 309| 369| 771|