欢迎来到在线考试题库网 在线考试题库官网
logo
全部科目 > 大学试题 > 工学 > 电子与通信技术 > 人工神经网络

单项选择题

下面哪种情况会带来神经网络优化求解中的梯度消失的问题?()

    A.使用sigmoid作为激活函数
    B.使用relu作为激活函数
    C.增加LeakRelu层
    D.对输入层做批量正则化(BatchNormalization)

点击查看答案&解析

相关考题

  • 多项选择题
    如果能够获得一个人的聊天记录,预测他的下一句话说什么,可以用keras里面的什么网络模型?()

    A.GAN
    B.SimpleRNN
    C.LSTM
    D.GRU

  • 多项选择题
    关于生成式对抗网络(GAN)的说法正确的是()。

    A.GAN网络需要人工打标记
    B.GAN网络中至少要两个模块,Generative Model和Discriminative Model
    C.GAN网络可以生成当前的判别器无法识别真假的图片
    D.GAN网络中的Generative Model和Discriminative Model共同构成了一个巨大的网络

  • 单项选择题
    要对一批图片进行分类,下面几个神经网络的设计,最好的方案是()。

    A.keras.Sequential([keras.Input(shape=(32,0)),keras.layers.Dense(64,activation=”relu”),keras.layers.Dense(128,activation=”relu”),keras.layers.Dense(10,activation=”softmax”)])
    B.keras.Sequential([keras.layers.Conv2D(32,3,activation=”relu”),keras.layers.Flatten(),keras.layers.Dense(128,activation=”relu”),keras.layers.Dense(10,activation=”softmax”)])
    C.keras.Sequential([keras.layers.Conv2D(32,3,activation=”relu”),keras.layers.MaxPooling2D((2,2)),keras.layers.Conv2D(64,3,activation=”relu”),keras.layers.MaxPooling2D((2,2)),keras.layers.Conv2D(64,3,activation=”relu”),keras.layers.Flatten(),keras.layers.Dense(128,activation=”relu”),keras.layers.Dense(10,activation=”softmax”)])
    D.keras.Sequential([keras.layers.Conv2D(32,3),keras.layers.BatchNormalization(),keras.layers.Activation(“relu”),keras.layers.MaxPooling2D((2,2)),keras.layers.Conv2D(64,3),keras.layers.BatchNormalization(),keras.layers.Activation(“relu”),keras.layers.MaxPooling2D((2,2)),keras.layers.Conv2D(64,3,padding=’same’,activation=”relu”),keras.layers.Flatten(),keras.layers.Dense(128,activation=”relu”),keras.layers.Dropout(0.5)keras.layers.Dense(10,activation=”softmax”)])

微信小程序免费搜题
微信扫一扫,加关注免费搜题

微信扫一扫,加关注免费搜题