We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
1 parent a215b55 commit ca8f2fcCopy full SHA for ca8f2fc
Day81-90/88.神经网络模型.md
@@ -183,7 +183,7 @@ print(classification_report(y_test, y_pred))
183
184
1. `hidden_layer_sizes`:指定神经网络中每一层的神经元数目,元组类型,默认值为`(100, )`,表示只有一个隐藏层,包含 100 个神经元。该超参数可以改变网络的结构和容量,层数越多,神经元数目越多,模型的表示能力就越强,但也存在过拟合风险。
185
2. `activation`:隐藏层中神经元的激活函数,默认值为`relu`,表示使用 ReLU 激活函数。激活函数决定了网络每一层的输出形态,一般来说,`'relu'` 是训练深度网络时的首选,因为它能够缓解梯度消失问题,并且训练速度较快,可选值包括:
186
- - `'identity'`:线性激活函数,即$\small{f(x) = x}$,通常不推荐使用。
+ - `'identity'`:线性激活函数,即 $\small{f(x) = x}$ ,通常不推荐使用。
187
- `'logistic'` / `'tanh'` / `'relu'`:Sigmoid / 双曲正切 / ReLU 激活函数。
188
3. `solver`:用来优化模型参数的求解器(优化算法)。常用的优化算法有:
189
- `'lbfgs'`:拟牛顿法(Limited-memory Broyden-Fletcher-Goldfarb-Shanno),这种方法计算复杂度较高,但对小数据集表现较好。
0 commit comments