Skip to content

Commit 5de57ca

Browse files
committed
2020-08-07 17:19:27
1 parent b4b1916 commit 5de57ca

File tree

7 files changed

+18
-18
lines changed

7 files changed

+18
-18
lines changed

docs/build-ml-proj-tf-zh/ch01.md

+7-7
Original file line numberDiff line numberDiff line change
@@ -26,7 +26,7 @@ TensorFlow 的数据管理基于张量。 张量是来自数学领域的概念
2626

2727
张量阶数表示张量的维度方面,但与矩阵阶数不同。 它表示张量所处的维数,而不是行/列或等效空间中张量扩展的精确度量。
2828

29-
秩张量等于向量,秩张量是矩阵。 对于第二张量,您可以使用语法 t [i,j]访问任何元素。 对于三阶张量,您将需要使用 t [i,j,k]来寻址元素,依此类推。
29+
秩为 1 的张量等于向量,秩为 2 的张量是矩阵。 对于二阶张量,您可以使用语法`t[i, j]`访问任何元素。 对于三阶张量,您将需要使用`t[i, j, k]`来寻址元素,依此类推。
3030

3131
在下面的示例中,我们将创建一个张量,并访问其分量之一:
3232

@@ -52,7 +52,7 @@ TensorFlow 的数据管理基于张量。 张量是来自数学领域的概念
5252

5353
TensorFlow 文档使用三种符号约定来描述张量维数:阶数,形状和维数。 下表显示了它们之间的相互关系:
5454

55-
|| 形状 | 维度数量 | |
55+
|| 形状 | 维度数量 | 示例 |
5656
| --- | --- | --- | --- |
5757
| 0 | `[]` | 0 | `4` |
5858
| 1 | `[D0]` | 1 | `[2]` |
@@ -78,7 +78,7 @@ TensorFlow 文档使用三种符号约定来描述张量维数:阶数,形状
7878
| `DT_INT64` | `tf.int64` | 64 位有符号整数。 |
7979
| `DT_UINT8` | `tf.uint8` | 8 位无符号整数。 |
8080
| `DT_STRING` | `tf.string` | 可变长度字节数组。 张量的每个元素都是一个字节数组。 |
81-
| `DT_BOOL` | `tf.bool` | 布尔|
81+
| `DT_BOOL` | `tf.bool` | 布尔值|
8282

8383
## 创建新的张量
8484

@@ -653,8 +653,8 @@ TensorFlow 中的操作在您运行它们或取决于它们的输出的操作之
653653

654654
这些是特殊函数,用于合并不同操作的值,无论是摘要的集合,还是图中的所有摘要:
655655

656-
* `tf.merge_summary`(输入,集合=无,名称=无)
657-
* `tf.merge_all_summaries`(键=“摘要”)
656+
* `tf.merge_summary(input, collection=None, name=None)`
657+
* `tf.merge_all_summaries(key="summary")`
658658

659659
最后,作为提高可读性的最后一项帮助,可视化对常数和汇总节点使用特殊的图标。 总而言之,这是节点符号表:
660660

@@ -666,8 +666,8 @@ TensorFlow 中的操作在您运行它们或取决于它们的输出的操作之
666666
| ![Special Summary functions](img/00014.jpg) | 单个操作节点。 |
667667
| ![Special Summary functions](img/00015.jpg) | 一个常数。 |
668668
| ![Special Summary functions](img/00016.jpg) | 摘要节点。 |
669-
| ![Special Summary functions](img/00017.jpg) | 边缘显示操作之间的数据流|
670-
| ![Special Summary functions](img/00018.jpg) | 边缘显示操作之间的控制依赖性|
669+
| ![Special Summary functions](img/00017.jpg) | 显示操作之间的数据流的边|
670+
| ![Special Summary functions](img/00018.jpg) | 显示操作之间的控制依赖性的边|
671671
| ![Special Summary functions](img/00019.jpg) | 显示输出操作节点可以改变输入张量的参考边。 |
672672

673673
### 与 TensorBoard 的 GUI 交互

docs/build-ml-proj-tf-zh/ch02.md

+2-2
Original file line numberDiff line numberDiff line change
@@ -132,7 +132,7 @@ k-nn 可以在我们的多种配置中实现,但是在本章中,我们将使
132132

133133
在 matplotlib 站点(`http://matplotlib.org/`)中,定义为:
134134

135-
> matplotlib 是一个 Python 2D 绘图库,它以各种硬拷贝格式和跨平台的交互式环境生成出版物质量的图形。
135+
> matplotlib 是一个 Python 2D 绘图库,它以各种硬拷贝格式和跨平台的交互式环境生成出版物质量的图形。
136136
137137
#### 合成样本的数据绘图
138138

@@ -168,7 +168,7 @@ TensorFlow 当前未实现用于轻松生成合成数据集的方法。 因此
168168

169169
[从其网站](http://scikit-learn.org/stable/)
170170

171-
> scikit-learn(以前为 scikits.learn)是针对 Python 编程语言的开源机器学习库。它具有各种分类,回归和聚类模型,旨在与 Python 数字和科学库 NumPy 和 SciPy 互操作。
171+
> scikit-learn(以前为`scikits.learn`)是针对 Python 编程语言的开源机器学习库。它具有各种分类,回归和聚类模型,旨在与 Python 数字和科学库 NumPy 和 SciPy 互操作。
172172
173173
在此示例中,我们将使用数据集模块,该模块处理许多众所周知的合成和现场提取的数据集的生成和加载。
174174

docs/build-ml-proj-tf-zh/ch03.md

+2-2
Original file line numberDiff line numberDiff line change
@@ -403,9 +403,9 @@ plt.plot (trX, sess.run(b) + trX * sess.run(w))
403403

404404
当我们想快速读取并获得有关正常大小的数据文件的提示时,创建读取缓冲区和其他附加机制可能会减少开销。 这是熊猫当前的现实生活用例之一。
405405

406-
这是[ Pandas 网站](http://pandas.pydata.org/)的摘录:
406+
这是 [Pandas 网站](http://pandas.pydata.org/)的摘录:
407407

408-
> Pandas 是 BSD 许可的开放源代码库,为 Python 提供了高表现,易于使用的数据结构和数据分析工具。
408+
> Pandas 是 BSD 许可的开放源代码库,为 Python 提供了高表现,易于使用的数据结构和数据分析工具。
409409
410410
熊猫的主要特征如下:
411411

docs/build-ml-proj-tf-zh/ch06.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -70,7 +70,7 @@
7070

7171
正如 LeCun 在他的基础论文中所述:
7272

73-
> 卷积网络可以看作是合成自己的特征提取器。
73+
> 卷积网络可以看作是合成自己的特征提取器。
7474
7575
卷积神经网络的这一特性是相对于以前的数据处理技术的主要优势。 我们可以非常灵活地确定已确定数据集的主要组成部分,并通过这些基本构件的组合来表示其他样本。
7676

docs/build-ml-proj-tf-zh/ch07.md

+3-3
Original file line numberDiff line numberDiff line change
@@ -373,7 +373,7 @@ plt.legend(handles=[plot_predicted, plot_test])
373373

374374
```
375375

376-
# 示例 2 -- 编写音乐 “a la” Bach
376+
# 示例 2 -- 编写音乐“a la” Bach
377377

378378
在此示例中,我们将使用专门针对字符序列或 char RNN 模型的循环神经网络。
379379

@@ -478,7 +478,7 @@ K:G
478478

479479
* `tf.train.Saver.restore`:此方法恢复以前保存的变量。 主要参数如下:
480480
* `session`:会话是要还原变量的位置
481-
* `save_path`:这是先前由 save 方法,对 last_checkpoint()的调用或提供的变量先前返回的变量
481+
* `save_path`:这是先前由 save 方法,对`last_checkpoint()`的调用或提供的变量先前返回的变量
482482

483483
### 加载和保存的伪代码
484484

@@ -525,7 +525,7 @@ for i in range (1,1000):
525525

526526
请注意,原始 ABC 文件位于[此链接](http://www.barfly.dial.pipex.com/Goldbergs.abc)
527527

528-
然后,我们使用这个小程序()
528+
然后,我们使用这个小程序。
529529

530530
对于此数据集,我们从`30`作品开始,然后生成一个随机分布的`1000`实例列表:
531531

docs/build-ml-proj-tf-zh/ch08.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -18,7 +18,7 @@
1818

1919
在 1980 年代和 1990 年代,神经网络领域一直保持沉默。 尽管付出了一些努力,但是架构非常简单,并且需要大的(通常是不可用的)机器力量来尝试更复杂的方法。
2020

21-
1998 年左右,在 Bells 实验室中,在围绕手写校验数字分类的研究中,Ian LeCun 开始了一种新趋势,该趋势实现了所谓的“深度学习-卷积神经网络”的基础,我们已经在第 5 章,简单的前馈神经网络中对其进行了研究。
21+
1998 年左右,在 Bells 实验室中,在围绕手写校验数字分类的研究中,Ian LeCun 开始了一种新趋势,该趋势实现了所谓的“深度学习——卷积神经网络”的基础,我们已经在第 5 章,简单的前馈神经网络中对其进行了研究。
2222

2323
在那些年里,SVM 和其他更严格定义的技术被用来解决这类问题,但是有关 CNN 的基础论文表明,与当时的现有方法相比,神经网络的表现可以与之媲美或更好。
2424

docs/build-ml-proj-tf-zh/ch09.md

+2-2
Original file line numberDiff line numberDiff line change
@@ -107,15 +107,15 @@ Pi 的面积比例
107107

108108
另一个事实是,我们可以为计算生成的随机样本越多,答案就越近似。 这是在增加 GPU 数量时会给我们带来更多样本和准确率。
109109

110-
我们做的进一步减少是我们生成(X,Y)坐标,范围从(0..1),因此随机数生成更直接。 因此,我们需要确定样本是否属于圆的唯一标准是`distance = d < 1.0`(圆的半径)。
110+
我们做的进一步减少是我们生成(X,Y)坐标,范围从(0..1),因此随机数生成更直接。 因此,我们需要确定样本是否属于圆的唯一标准是`distance = d < 1.0`(圆的半径)。
111111

112112
## 解决方案实现
113113

114114
该解决方案将基于 CPU。 它将管理服务器中拥有的 GPU 资源(在本例中为`4`),然后我们将接收结果,并进行最终的样本求和。
115115

116116
### 提示
117117

118-
注意:此方法的收敛速度非常慢,为 O(n &lt;sup class="calibre32"&gt;1/2&lt;/sup&gt;,但由于其简单性,将作为示例。
118+
注意:此方法的收敛速度非常慢,为`O(n^1/2)`,但由于其简单性,将作为示例。
119119

120120
![Solution implementation](img/00142.jpg)
121121

0 commit comments

Comments
 (0)