单项选择题
下面哪种情况会带来神经网络优化求解中的梯度消失的问题?()
A.使用sigmoid作为激活函数
B.使用relu作为激活函数
C.增加LeakRelu层
D.对输入层做批量正则化(BatchNormalization)
相关考题
-
多项选择题
如果能够获得一个人的聊天记录,预测他的下一句话说什么,可以用keras里面的什么网络模型?()
A.GAN
B.SimpleRNN
C.LSTM
D.GRU -
多项选择题
关于生成式对抗网络(GAN)的说法正确的是()。
A.GAN网络需要人工打标记
B.GAN网络中至少要两个模块,Generative Model和Discriminative Model
C.GAN网络可以生成当前的判别器无法识别真假的图片
D.GAN网络中的Generative Model和Discriminative Model共同构成了一个巨大的网络 -
单项选择题
要对一批图片进行分类,下面几个神经网络的设计,最好的方案是()。
A.keras.Sequential([keras.Input(shape=(32,0)),keras.layers.Dense(64,activation=”relu”),keras.layers.Dense(128,activation=”relu”),keras.layers.Dense(10,activation=”softmax”)])
B.keras.Sequential([keras.layers.Conv2D(32,3,activation=”relu”),keras.layers.Flatten(),keras.layers.Dense(128,activation=”relu”),keras.layers.Dense(10,activation=”softmax”)])
C.keras.Sequential([keras.layers.Conv2D(32,3,activation=”relu”),keras.layers.MaxPooling2D((2,2)),keras.layers.Conv2D(64,3,activation=”relu”),keras.layers.MaxPooling2D((2,2)),keras.layers.Conv2D(64,3,activation=”relu”),keras.layers.Flatten(),keras.layers.Dense(128,activation=”relu”),keras.layers.Dense(10,activation=”softmax”)])
D.keras.Sequential([keras.layers.Conv2D(32,3),keras.layers.BatchNormalization(),keras.layers.Activation(“relu”),keras.layers.MaxPooling2D((2,2)),keras.layers.Conv2D(64,3),keras.layers.BatchNormalization(),keras.layers.Activation(“relu”),keras.layers.MaxPooling2D((2,2)),keras.layers.Conv2D(64,3,padding=’same’,activation=”relu”),keras.layers.Flatten(),keras.layers.Dense(128,activation=”relu”),keras.layers.Dropout(0.5)keras.layers.Dense(10,activation=”softmax”)])
