You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Copy file name to clipboardExpand all lines: docs/ar/week01/01-3.md
+10-10Lines changed: 10 additions & 10 deletions
Original file line number
Diff line number
Diff line change
@@ -63,7 +63,7 @@ Note that translation alone is not linear since 0 will not always be mapped to 0
63
63
In our visualization, we have five branches of a spiral, with each branch corresponding to a different colour. The points live in a two dimensional plane and can be represented as a tuple; the colour represents a third dimension which can be thought of as the different classes for each of the points. We then use the network to separate each of the points by colour.
64
64
-->
65
65
66
-
في النموذج أدناه، لدينا خمس تفرعات لولبية لكل منها لون مختلف. توجد النقاط في فضاء ثنائي البعد ونستطيع تمثيلها بزوجين من الأرقام ويمثل اللون بُعدًا ثالثًا نستخدمه للتصنيف بين النقاط. وبعد ذلك نستطيع إستخدام الشبكة العصبية لفصل كل نقطة من النقاط بناءً على اللون.
66
+
في النموذج أدناه، لدينا خمس تفرعات لولبية لكل منها لون مختلف. توجد النقاط في فضاء ثنائي البعد ونستطيع تمثيلها بزوجين من الأرقام ويمثل اللون بُعدًا ثالثًا نستخدمه للتصنيف بين النقاط. وبعد ذلك نستطيع إستخدام الشبكة العصبية لفصل كل نقطة من النقاط بناءً على اللون.
@@ -81,7 +81,7 @@ In our visualization, we have five branches of a spiral, with each branch corres
81
81
The network \"stretches\" the space fabric in order to separate each of the points into different subspaces. At convergence, the network separates each of the colours into different subspaces of the final manifold. In other words, each of the colours in this new space will be linearly separable using a one *vs.* all regression. The vectors in the diagram can be represented by a five by two matrix; this matrix can be multiplied to each point to return scores for each of the five colours. Each of the points can then be classified by colour using their respective scores. Here, the output dimension is five, one for each of the colours, and the input dimension is two, one for the x and y coordinates of each of the points. To recap, this network basically takes the space fabric and performs a space transformation parametrised by several matrices and then by non-linearities.
82
82
-->
83
83
84
-
تقوم الشبكة /"بتمديد/" نسيج الفضاء حتى نستطيع فصل كل نقطة إلى أجزاء فرعية مختلفة. عند التقارب للتنيجة نجد أن الشبكة قد فصلت كل لون إلى فضاء فرعي مختلف من المتشعب النهائي (manifold). بعبارة أخرى يمكن فصل كل لون في الفضاء الجديد فصله بشكل خطي عن طريق استخدام انحدار واحد *مقابل* عدة انحدارات. يمكن تمثيل المتجهات بالرسم التوضيحي عن طريق مصفوفه بحجم 2 $times$ 5، وضرب تلك المصفوفة بكل نقطة لاسترجاع درجة كل لون من الألوان الخمسة. حينئذ يمكن تصنيف النقاط باللون حسب درجات كل نقطة. تتكون المخرجات من خمسة عناصر، حيث يمثل كل منها لونًا ما، بينما تتكون المدخلات من عنصرين واحد للإحداثي السيني وآخر للإحداثي الصادي للنقاط. للتلخيص هذه الشبكة تأخذ نسيج الفضاء وتقوم بتشكيله باستخدام عدة مصفوفات يتلوها عمليات لاخطية.
84
+
تقوم الشبكة /"بتمديد/" نسيج الفضاء حتى نستطيع فصل كل نقطة إلى أجزاء فرعية مختلفة. عند التقارب للتنيجة نجد أن الشبكة قد فصلت كل لون إلى فضاء فرعي مختلف من المتشعب النهائي (manifold). بعبارة أخرى يمكن فصل كل لون في الفضاء الجديد فصله بشكل خطي عن طريق استخدام انحدار واحد *مقابل* عدة انحدارات. يمكن تمثيل المتجهات بالرسم التوضيحي عن طريق مصفوفه بحجم 2 $times$ 5، وضرب تلك المصفوفة بكل نقطة لاسترجاع درجة كل لون من الألوان الخمسة. حينئذ يمكن تصنيف النقاط باللون حسب درجات كل نقطة. تتكون المخرجات من خمسة عناصر، حيث يمثل كل منها لونًا ما، بينما تتكون المدخلات من عنصرين واحد للإحداثي السيني وآخر للإحداثي الصادي للنقاط. للتلخيص هذه الشبكة تأخذ نسيج الفضاء وتقوم بتشكيله باستخدام عدة مصفوفات يتلوها عمليات لاخطية.
<center> <imgsrc="{{site.baseurl}}/images/week01/01-3/Network.png"style="zoom: 40%; background-color:#DCDCDC;" /><br> شكل ٢: هندسة الشبكة</center>
100
+
<center> <imgsrc="{{site.baseurl}}/images/week01/01-3/Network.png"style="zoom: 40%; background-color:#DCDCDC;" /><br> شكل ٢: هندسة الشبكة</center>
101
101
102
102
<!--
103
103
The first matrix maps the two dimensional input to a 100 dimensional intermediate hidden layer. We then have a non-linear layer, `ReLU` or Rectified Linear Unit, which is simply *positive part* $(\cdot)^+$ function. Next, to display our image in a graphical representation, we include an embedding layer that maps the 100 dimensional hidden layer input to a two-dimensional output. Lastly, the embedding layer is projected to the final, five-dimensional layer of the network, representing a score for each colour.
104
104
105
105
-->
106
106
107
-
تربط المصفوفة الأولى المدخل ثنائي الأبعاد بطبقة خفية وسطية ذات ١٠٠ بعد. لدينا وبعد ذلك طبقة لاخطية ألا وهي دالة `ReLU` وهي وحدة خطية مصححة، والتي تعبر ببساطة عن *الجزء الموجب* $(\cdot)^+$ من المعادلة. وليتم عرض الصورة بشكل رسومي نضيف طبقة التضمين (embedding layer) والتي تقوم بربط الطبقة الخفية المدخلة ذات الـ ١٠٠ بُعد بمخرج ثنائي الأبعاد. أخيرا يتم إسقاط طبقة التضمين على الطبقة ذات الأبعاد الخمسة في الشبكة، والتي تمثل قيمة لكل لون.
107
+
تربط المصفوفة الأولى المدخل ثنائي الأبعاد بطبقة خفية وسطية ذات ١٠٠ بعد. لدينا وبعد ذلك طبقة لاخطية ألا وهي دالة `ReLU` وهي وحدة خطية مصححة، والتي تعبر ببساطة عن *الجزء الموجب* $(\cdot)^+$ من المعادلة. وليتم عرض الصورة بشكل رسومي نضيف طبقة التضمين (embedding layer) والتي تقوم بربط الطبقة الخفية المدخلة ذات الـ ١٠٠ بُعد بمخرج ثنائي الأبعاد. أخيرا يتم إسقاط طبقة التضمين على الطبقة ذات الأبعاد الخمسة في الشبكة، والتي تمثل قيمة لكل لون.
108
108
109
109
110
110
<!--
@@ -118,7 +118,7 @@ The Jupyter Notebook can be found [here] (https://github.com/Atcold/pytorch-Deep
118
118
119
119
120
120
121
-
مفكرة جوبيتر بالإمكان الوصول لها من [هنا](https://github.com/Atcold/pytorch-Deep-Learning/blob/master/02-space_stretching.ipynb). للتمكن من تشغيل المفكرة عليك التأكد من تحميل بيئة `pDL` كما هو موضح في [`README.md`](https://github.com/Atcold/pytorch-Deep-Learning/blob/master/README.md).
121
+
مفكرة جوبيتر بالإمكان الوصول لها من [هنا](https://github.com/Atcold/pytorch-Deep-Learning/blob/master/02-space_stretching.ipynb). للتمكن من تشغيل المفكرة عليك التأكد من تحميل بيئة `pDL` كما هو موضح في [`README.md`](https://github.com/Atcold/pytorch-Deep-Learning/blob/master/README.md).
122
122
123
123
<!--
124
124
### PyTorch `device`
@@ -158,7 +158,7 @@ To see the documentation for a function in a notebook cell, use `Shift + Tab.`
158
158
-->
159
159
160
160
161
-
### إرشادات مفكرة جوبيتر
161
+
### إرشادات مفكرة جوبيتر
162
162
163
163
164
164
@@ -228,7 +228,7 @@ The matrices used were generated with Numpy; however, we can also use PyTorch's
228
228
Next, we visualize the following transformation:
229
229
230
230
$$
231
-
f(x) = \tanh\bigg(\begin{bmatrix} s & 0 \\ 0 & s \end{bmatrix} \bigg)
231
+
f(\vx) = \tanh\bigg(\begin{bmatrix} s & 0 \\ 0 & s \end{bmatrix} \vx \bigg)
232
232
$$
233
233
234
234
Recall, the graph of $\tanh(\cdot)$ in Fig. 4.
@@ -246,15 +246,15 @@ The effect of this non-linearity is to bound points between $-1$ and $+1$, creat
0 commit comments