Skip to content

Commit a215b55

Browse files
committed
修正了文档中数学公式无法显示的问题
1 parent 97a9481 commit a215b55

4 files changed

+12
-9
lines changed

Day81-90/86.K-Means聚类算法.md

Lines changed: 1 addition & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -191,7 +191,7 @@ print(km_cluster.inertia_) # 样本到质心的距离平方和
191191

192192
下面我们对`KMeans`类的几个超参数加以说明:
193193

194-
1. `n_clusters`:指定聚类的簇数,即$\small{K}$值,默认值为`8`
194+
1. `n_clusters`:指定聚类的簇数,即 $\small{K}$ 值,默认值为`8`
195195
2. `max_iter`:最大迭代次数,默认值为`300`,控制每次初始化中 K-Means 迭代的最大步数。
196196
3. `init`:初始化质心的方法,默认值为`'k-means++'`,表示从数据中多次随机选取 K 个质心,每次都计算这一次选中的中心点之间的距离,然后取距离最大的一组作为初始化中心点,推荐大家使用这个值;如果设置为`'random'`则随机选择初始质心。
197197
4. `n_init`:和上面的参数配合,指定算法运行的初始化次数,默认值为`10`

Day81-90/87.集成学习算法.md

Lines changed: 5 additions & 5 deletions
Original file line numberDiff line numberDiff line change
@@ -32,23 +32,23 @@ $$
3232
w_{i}^{(1)} = \frac{1}{N}, \ i = 1, 2, \cdots, N
3333
$$
3434

35-
这里,$\small{w_{i}^{(1)}}$ 表示第 $\small{i}$ 个样本的权重,初始时权重相等。
35+
这里, $\small{w_{i}^{(1)}}$ 表示第 $\small{i}$ 个样本的权重,初始时权重相等。
3636

3737
2. **训练弱学习器**:在每一轮迭代中,AdaBoost 会根据当前样本的权重训练一个弱分类器(例如决策树桩,即深度为 1 的决策树)。弱分类器的目标是最小化加权误差。对于第 $\small{t}$ 轮训练得到的分类器模型(弱学习器) $\small{h_t}$,计算其加权误差:
3838

3939
$$
4040
\varepsilon_{t} = \sum_{i=1}^{N} w_{i}^{(t)} \cdot I(y_{i} \neq h_{t}(x_{i}))
4141
$$
4242

43-
其中, $\small{y_{i}}$ 是第 $\small{i}$ 个样本的真实标签,$\small{h_{t}(x_{i})}$ 是第 $\small{t}$ 轮模型 $\small{h_{t}}$ 对第 $\small{i}$ 个样本 $\small{x_{i}}$ 给出的预测结果(取值为 1 或 -1),$\small{I(y_{i} \neq h_{t}(x_{i}))}$ 是指示函数,当样本 $\small{x_{i}}$ 被错误分类时函数取值为 1,否则函数取值为 0。
43+
其中, $\small{y_{i}}$ 是第 $\small{i}$ 个样本的真实标签, $\small{h_{t}(x_{i})}$ 是第 $\small{t}$ 轮模型 $\small{h_{t}}$ 对第 $\small{i}$ 个样本 $\small{x_{i}}$ 给出的预测结果(取值为 1 或 -1), $\small{I(y_{i} \neq h_{t}(x_{i}))}$ 是指示函数,当样本 $\small{x_{i}}$ 被错误分类时函数取值为 1,否则函数取值为 0。
4444

4545
3. **更新分类器权重**:计算第 $\small{t}$ 轮分类器模型的权重 $\small{\alpha_{t}}$,并用它来更新每个样本的权重。分类器权重 $\small{\alpha_{t}}$ 的计算公式为:
4646

4747
$$
4848
\alpha_{t} = \frac{1}{2} ln \left( \frac{1 - \varepsilon_{t}}{\varepsilon_{t}} \right)
4949
$$
5050

51-
当分类器的误差较低时,$\small{\alpha_{t}}$ 的值较大,说明该分类器的权重较大。
51+
当分类器的误差较低时, $\small{\alpha_{t}}$ 的值较大,说明该分类器的权重较大。
5252

5353
4. **更新样本权重**:根据当前分类器的表现,更新样本的权重。误分类样本的权重会增加,正确分类样本的权重会减少。样本权重的更新公式为:
5454

@@ -64,13 +64,13 @@ $$
6464
H(x) = \text{sign} \left( \sum_{t=1}^{T} \alpha_{t} h_{t}(x) \right)
6565
$$
6666

67-
其中,$\small{\text{sign}}$ 是符号函数,其定义如下所示:
67+
其中, $\small{\text{sign}}$ 是符号函数,其定义如下所示:
6868

6969
$$
7070
\text{sign}(z) = \begin{cases} +1 \ (z \ge 0) \\ -1 \ (z \lt 0) \end{cases}
7171
$$
7272

73-
例如,有 3 个弱学习器 $\small{h_{1}(x)}$、$\small{h_{2}(x)}$、$\small{h_{3}(x)}$,它们的输出分别是`+1``-1``+1`,对应的权重是 $\small{\alpha_{1} = 0.5}$、$\small{\alpha_{2} = 0.3}$、$\small{\alpha_{3} = 0.2}$,那么加权和为:
73+
例如,有 3 个弱学习器 $\small{h_{1}(x)}$、 $\small{h_{2}(x)}$、 $\small{h_{3}(x)}$,它们的输出分别是`+1``-1``+1`,对应的权重是 $\small{\alpha_{1} = 0.5}$、 $\small{\alpha_{2} = 0.3}$、 $\small{\alpha_{3} = 0.2}$ ,那么加权和为:
7474

7575
$$
7676
\sum_{t=1}^{3} \alpha_{t} h_{t}(x) = 0.5 \times 1 + 0.3 \times -1 + 0.2 \times 1 = 0.4

Day81-90/88.神经网络模型.md

Lines changed: 4 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -94,7 +94,10 @@ $$
9494
对于神经网络模型来说,还有一个极其重要的操作就是通过计算损失函数相对于每个权重和偏置的梯度来更新神经网络的参数(权重和偏置),这一过程通常称为反向传播(back-propagation)。反向传播有两个要点,一个是损失函数,一个是梯度下降法,前者用于衡量预测值与真实值之间的差距,常用的损失函数有均方误差(回归任务)和交叉熵损失函数(分类任务),后者通过更新参数 $\small{\theta}$(权重和偏置),使得损失函数最小化,即:
9595

9696
$$
97-
\theta^{\prime} = \theta - \eta \nabla L(\theta) \\
97+
\theta^{\prime} = \theta - \eta \nabla L(\theta)
98+
$$
99+
100+
$$
98101
\theta = \theta^{\prime}
99102
$$
100103

Day81-90/89.自然语言处理入门.md

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -160,10 +160,10 @@ print('词频向量:\n', X.toarray())
160160
一旦词向量被训练出来,它们就能捕捉到词汇之间的多种关系。最常见的方式是通过计算词向量之间的距离或相似度来理解它们的关系。计算两个词向量之间的余弦相似度是最常用的方式,余弦相似度的公式我们之前提到过,如下所示。
161161

162162
$$
163-
\text{Cosine Similarity}(\bold{A}, \bold{B}) = \frac{\bold{A} \cdot \bold{B}}{\lVert \bold{A} \rVert \lVert \bold{B} \rVert}
163+
\text{Cosine Similarity}(\mathbf{A}, \mathbf{B}) = \frac{\mathbf{A} \cdot \mathbf{B}}{\lVert \mathbf{A} \rVert \lVert \mathbf{B} \rVert}
164164
$$
165165

166-
其中,$\small{\bold{A}}$ 和 $\small{\bold{B}}$ 是两个词的词向量,$\small{\cdot}$ 是向量的点积运算,$\small{\lVert \bold{A} \rVert}$ 和 $\small{\lVert \bold{B} \rVert}$ 是它们的模长。余弦相似度的值介于 -1 到 1 之间,值越大表示两个词越相似,越小则表示越不相似。
166+
其中,$\small{\mathbf{A}}$ 和 $\small{\mathbf{B}}$ 是两个词的词向量,$\small{\cdot}$ 是向量的点积运算,$\small{\lVert \mathbf{A} \rVert}$ 和 $\small{\lVert \mathbf{B} \rVert}$ 是它们的模长。余弦相似度的值介于 -1 到 1 之间,值越大表示两个词越相似,越小则表示越不相似。
167167

168168
另一方面,我们可以研究词向量的空间关系并完成一些有趣的运算。例如,如果我们想知道`'king'`(国王)和`'queen'`(王后)之间的关系,可以通过这样的方式来探索:
169169

0 commit comments

Comments
 (0)