From 602b53c18860c27e22a1327c0e9f48faae580c34 Mon Sep 17 00:00:00 2001 From: goldmermaid <37914843+goldmermaid@users.noreply.github.com> Date: Tue, 23 Feb 2021 14:30:14 -0800 Subject: [PATCH] Qrcode for CH8, Introduction, Installation, Notation & Preface (#670) * qr code * chapter 8 qrcode --- chapter_installation/index.md | 6 +++--- chapter_introduction/index.md | 2 +- chapter_notation/index.md | 2 +- chapter_preface/index.md | 6 +++--- chapter_recurrent-neural-networks/bptt.md | 2 +- .../language-models-and-dataset.md | 6 +++--- chapter_recurrent-neural-networks/rnn-concise.md | 4 ++-- chapter_recurrent-neural-networks/rnn-scratch.md | 6 +++--- chapter_recurrent-neural-networks/rnn.md | 6 +++--- chapter_recurrent-neural-networks/sequence.md | 6 +++--- .../text-preprocessing.md | 12 +++++++++++- 11 files changed, 34 insertions(+), 24 deletions(-) diff --git a/chapter_installation/index.md b/chapter_installation/index.md index 64409ff3b..04593ce51 100644 --- a/chapter_installation/index.md +++ b/chapter_installation/index.md @@ -128,13 +128,13 @@ pip install mxnet-cu101==1.7.0 1. 下载该书的代码并安装运行时环境。 :begin_tab:`mxnet` -[Discussions](https://discuss.d2l.ai/t/23) +[Discussions](https://discuss.d2l.ai/t/2082) :end_tab: :begin_tab:`pytorch` -[Discussions](https://discuss.d2l.ai/t/24) +[Discussions](https://discuss.d2l.ai/t/2083) :end_tab: :begin_tab:`tensorflow` -[Discussions](https://discuss.d2l.ai/t/436) +[Discussions](https://discuss.d2l.ai/t/2084) :end_tab: diff --git a/chapter_introduction/index.md b/chapter_introduction/index.md index 98dca4874..7e66f8942 100644 --- a/chapter_introduction/index.md +++ b/chapter_introduction/index.md @@ -752,4 +752,4 @@ Canny边缘检测器 :cite:`Canny.1987` 和SIFT特征提取器 :cite:`Lowe.2004` 1. 如果把人工智能的发展看作一场新的工业革命,那么算法和数据之间的关系是什么?它类似于蒸汽机和煤吗?根本区别是什么? 1. 你还可以在哪里应用端到端的训练方法,比如 :numref:`fig_ml_loop` 、物理、工程和计量经济学? -[Discussions](https://discuss.d2l.ai/t/22) +[Discussions](https://discuss.d2l.ai/t/2088) diff --git a/chapter_notation/index.md b/chapter_notation/index.md index ae61b18c7..aed9570e1 100644 --- a/chapter_notation/index.md +++ b/chapter_notation/index.md @@ -70,4 +70,4 @@ * $\mathcal{O}$:大O标记 -[Discussions](https://discuss.d2l.ai/t/25) +[Discussions](https://discuss.d2l.ai/t/2089) diff --git a/chapter_preface/index.md b/chapter_preface/index.md index 15616105d..a01a20a09 100644 --- a/chapter_preface/index.md +++ b/chapter_preface/index.md @@ -157,13 +157,13 @@ import tensorflow as tf 1. 点击论坛部分底部的链接,您将能够寻求帮助和讨论这本书,并通过吸引作者和更广泛的社区来找到问题的答案。 :begin_tab:`mxnet` -[Discussions](https://discuss.d2l.ai/t/18) +[Discussions](https://discuss.d2l.ai/t/2085) :end_tab: :begin_tab:`pytorch` -[Discussions](https://discuss.d2l.ai/t/20) +[Discussions](https://discuss.d2l.ai/t/2086) :end_tab: :begin_tab:`tensorflow` -[Discussions](https://discuss.d2l.ai/t/186) +[Discussions](https://discuss.d2l.ai/t/2087) :end_tab: diff --git a/chapter_recurrent-neural-networks/bptt.md b/chapter_recurrent-neural-networks/bptt.md index e98b4b32c..4b248bcc9 100644 --- a/chapter_recurrent-neural-networks/bptt.md +++ b/chapter_recurrent-neural-networks/bptt.md @@ -164,4 +164,4 @@ $$ 1. 上述结果对于循环神经网络中的梯度意味着什么? 1. 除了梯度裁剪,你还能想到其他方法来应对循环神经网络中的梯度爆炸吗? -[Discussions](https://discuss.d2l.ai/t/334) +[Discussions](https://discuss.d2l.ai/t/2107) diff --git a/chapter_recurrent-neural-networks/language-models-and-dataset.md b/chapter_recurrent-neural-networks/language-models-and-dataset.md index c2d756102..44e2c97ce 100644 --- a/chapter_recurrent-neural-networks/language-models-and-dataset.md +++ b/chapter_recurrent-neural-networks/language-models-and-dataset.md @@ -288,13 +288,13 @@ def load_data_time_machine(batch_size, num_steps, #@save 1. 如果我们希望一个序列样本是一个完整的句子,那么这在小批量抽样中会带来什么样的问题呢?我们怎样才能解决这个问题呢? :begin_tab:`mxnet` -[Discussions](https://discuss.d2l.ai/t/117) +[Discussions](https://discuss.d2l.ai/t/2096) :end_tab: :begin_tab:`pytorch` -[Discussions](https://discuss.d2l.ai/t/118) +[Discussions](https://discuss.d2l.ai/t/2097) :end_tab: :begin_tab:`tensorflow` -[Discussions](https://discuss.d2l.ai/t/1049) +[Discussions](https://discuss.d2l.ai/t/2098) :end_tab: diff --git a/chapter_recurrent-neural-networks/rnn-concise.md b/chapter_recurrent-neural-networks/rnn-concise.md index a182349f1..d0f1d0445 100644 --- a/chapter_recurrent-neural-networks/rnn-concise.md +++ b/chapter_recurrent-neural-networks/rnn-concise.md @@ -187,9 +187,9 @@ d2l.train_ch8(net, train_iter, vocab, lr, num_epochs, device) 1. 使用循环神经网络实现 :numref:`sec_sequence` 的自回归模型。 :begin_tab:`mxnet` -[Discussions](https://discuss.d2l.ai/t/335) +[Discussions](https://discuss.d2l.ai/t/2105) :end_tab: :begin_tab:`pytorch` -[Discussions](https://discuss.d2l.ai/t/1053) +[Discussions](https://discuss.d2l.ai/t/2106) :end_tab: diff --git a/chapter_recurrent-neural-networks/rnn-scratch.md b/chapter_recurrent-neural-networks/rnn-scratch.md index a82da339b..ebd8beca9 100644 --- a/chapter_recurrent-neural-networks/rnn-scratch.md +++ b/chapter_recurrent-neural-networks/rnn-scratch.md @@ -680,13 +680,13 @@ train_ch8(net, train_random_iter, vocab_random_iter, num_hiddens, lr, 1. 用ReLU替换本节中使用的激活函数,并重复本节中的实验。我们还需要梯度裁剪吗?为什么? :begin_tab:`mxnet` -[Discussions](https://discuss.d2l.ai/t/336) +[Discussions](https://discuss.d2l.ai/t/2102) :end_tab: :begin_tab:`pytorch` -[Discussions](https://discuss.d2l.ai/t/486) +[Discussions](https://discuss.d2l.ai/t/2103) :end_tab: :begin_tab:`tensorflow` -[Discussions](https://discuss.d2l.ai/t/1052) +[Discussions](https://discuss.d2l.ai/t/2104) :end_tab: diff --git a/chapter_recurrent-neural-networks/rnn.md b/chapter_recurrent-neural-networks/rnn.md index 194b972d5..c14c14629 100644 --- a/chapter_recurrent-neural-networks/rnn.md +++ b/chapter_recurrent-neural-networks/rnn.md @@ -154,13 +154,13 @@ $$\exp\left(-\frac{1}{n} \sum_{t=1}^n \log P(x_t \mid x_{t-1}, \ldots, x_1)\righ 1. 与本节中描述的语言模型相关的问题有哪些? :begin_tab:`mxnet` -[Discussions](https://discuss.d2l.ai/t/337) +[Discussions](https://discuss.d2l.ai/t/2099) :end_tab: :begin_tab:`pytorch` -[Discussions](https://discuss.d2l.ai/t/1050) +[Discussions](https://discuss.d2l.ai/t/2100) :end_tab: :begin_tab:`tensorflow` -[Discussions](https://discuss.d2l.ai/t/1051) +[Discussions](https://discuss.d2l.ai/t/2101) :end_tab: diff --git a/chapter_recurrent-neural-networks/sequence.md b/chapter_recurrent-neural-networks/sequence.md index 192e09f90..b72c62e6f 100644 --- a/chapter_recurrent-neural-networks/sequence.md +++ b/chapter_recurrent-neural-networks/sequence.md @@ -365,13 +365,13 @@ d2l.plot([time[tau + i - 1: T - max_steps + i] for i in steps], 1. 举例说明什么时候可能需要隐变量自回归模型来捕捉数据的动力学模型。 :begin_tab:`mxnet` -[Discussions](https://discuss.d2l.ai/t/113) +[Discussions](https://discuss.d2l.ai/t/2090) :end_tab: :begin_tab:`pytorch` -[Discussions](https://discuss.d2l.ai/t/114) +[Discussions](https://discuss.d2l.ai/t/2091) :end_tab: :begin_tab:`tensorflow` -[Discussions](https://discuss.d2l.ai/t/1048) +[Discussions](https://discuss.d2l.ai/t/2092) :end_tab: diff --git a/chapter_recurrent-neural-networks/text-preprocessing.md b/chapter_recurrent-neural-networks/text-preprocessing.md index 426e1292f..933f3dfb6 100644 --- a/chapter_recurrent-neural-networks/text-preprocessing.md +++ b/chapter_recurrent-neural-networks/text-preprocessing.md @@ -167,4 +167,14 @@ len(corpus), len(vocab) 1. 标记化是一个关键的预处理步骤。它因语言而异。尝试找到另外三种常用的文本标记方法。 1. 在本节的实验中,将文本标记为单词,并更改`Vocab`实例的`min_freq`参数。这对词汇量有何影响? -[Discussions](https://discuss.d2l.ai/t/115) +:begin_tab:`mxnet` +[Discussions](https://discuss.d2l.ai/t/2093) +:end_tab: + +:begin_tab:`pytorch` +[Discussions](https://discuss.d2l.ai/t/2094) +:end_tab: + +:begin_tab:`tensorflow` +[Discussions](https://discuss.d2l.ai/t/2095) +:end_tab: \ No newline at end of file