Skip to content

Commit f14cbf9

Browse files
committed
Add a story for "Recipes generation".
1 parent 998a29d commit f14cbf9

File tree

1 file changed

+12
-12
lines changed

1 file changed

+12
-12
lines changed

assets/recipes_generation.ru.md

Lines changed: 12 additions & 12 deletions
Original file line numberDiff line numberDiff line change
@@ -1446,11 +1446,11 @@ _<small>➔ вывод:</small>_
14461446
14471447
### Оптимизатор и функция потерь
14481448
1449-
We're going to use [tf.keras.optimizers.Adam](https://www.tensorflow.org/api_docs/python/tf/keras/optimizers/Adam) optimizer with [tf.keras.losses.sparse_categorical_crossentropy()](https://www.tensorflow.org/api_docs/python/tf/keras/losses/sparse_categorical_crossentropy) loss function to train the model:
1449+
В качестве оптимизатора возьмем [tf.keras.optimizers.Adam](https://www.tensorflow.org/api_docs/python/tf/keras/optimizers/Adam), а для функции потерь воспользуемся функцией [tf.keras.losses.sparse_categorical_crossentropy()](https://www.tensorflow.org/api_docs/python/tf/keras/losses/sparse_categorical_crossentropy):
14501450
14511451
```python
1452-
# An objective function.
1453-
# The function is any callable with the signature scalar_loss = fn(y_true, y_pred).
1452+
# Функция потерь.
1453+
# Сигнатура: scalar_loss = fn(y_true, y_pred).
14541454
def loss(labels, logits):
14551455
entropy = tf.keras.losses.sparse_categorical_crossentropy(
14561456
y_true=labels,
@@ -1475,7 +1475,7 @@ _<small>➔ вывод:</small>_
14751475
> scalar_loss: 5.1618285
14761476
> ```
14771477
1478-
Let's finally compile the model:
1478+
Компилируем модель:
14791479
14801480
```python
14811481
adam_optimizer = tf.keras.optimizers.Adam(learning_rate=0.001)
@@ -1486,11 +1486,11 @@ model.compile(
14861486
)
14871487
```
14881488
1489-
### Configuring callbacks
1489+
### Настраиваем коллбеки
14901490

1491-
#### Early stopping callback
1491+
#### Ранняя остановка
14921492

1493-
For model training process we may configure a [tf.keras.callbacks.EarlyStopping](https://www.tensorflow.org/api_docs/python/tf/keras/callbacks/EarlyStopping) callback. It will stop the training automatically in case if model is not improving for several epochs anymore:
1493+
Во время тренировки модели мы можем воспользоваться коллбеком [tf.keras.callbacks.EarlyStopping](https://www.tensorflow.org/api_docs/python/tf/keras/callbacks/EarlyStopping). Он останавливает процесс тренировки автоматически, если показатели модели ухудшаются в течение определенного количества эпох:
14941494

14951495
```python
14961496
early_stopping_callback = tf.keras.callbacks.EarlyStopping(
@@ -1501,9 +1501,9 @@ early_stopping_callback = tf.keras.callbacks.EarlyStopping(
15011501
)
15021502
```
15031503

1504-
#### Model checkpoints callback
1504+
#### Контрольные точки
15051505

1506-
Let's also configure a [tf.keras.callbacks.ModelCheckpoint](https://www.tensorflow.org/api_docs/python/tf/keras/callbacks/ModelCheckpoint) checkpoint that will allow us to periodically save trained weights to the file so that we could restore the model from weights afterwards.
1506+
Мы также можем настроить автоматическое сохранение параметров модели во время тренировки с помощью коллбека [tf.keras.callbacks.ModelCheckpoint](https://www.tensorflow.org/api_docs/python/tf/keras/callbacks/ModelCheckpoint). Это позволит нам в будущем восстановить модель из сохраненных контрольных точек без ее тренировки.
15071507

15081508
```python
15091509
# Create a checkpoints directory.
@@ -1517,11 +1517,11 @@ checkpoint_callback=tf.keras.callbacks.ModelCheckpoint(
15171517
)
15181518
```
15191519

1520-
### Execute the training
1520+
### Тренируем модель
15211521

1522-
Let's train our model for `500` epochs with `1500` steps per each epoch. For each epoch step the batch of `64` recipes will be fetched and gradient descent will be executed for those `64` recipes of length `2000` step by step.
1522+
Будем тренировать модель в течение `500` эпох с `1500` шагами на каждую эпоху. На каждом шагу, модель будет обучаться на группе из `64` рецептов. Градиентный спуск на каждом также будет выполнен для группы из `64` рецептов (каждый из которых состоит из `2000` символов).
15231523

1524-
If you're experimenting with training parameters it might make sense to reduce the number of epochs to, let's say `20` along with the number of steps per epoch and then see how the model performs under that conditions. If the model improves its performance you may add more data (steps and epochs) to the training process. It might save you some time while you adjust parameters.
1524+
Если вы экспериментируете с тренировочными параметрами, то, возможно, имеет смысл уменьшить количество эпох до, скажем, `20` вместе с количеством шагов на эпоху, а затем посмотреть, как модель работает в этих условиях. Если модель улучшит свою производительность, вы можете добавить больше данных (шагов и эпох) в тренировочный процесс. Это может сэкономить время на настройку параметров модели.
15251525

15261526
```python
15271527
EPOCHS = 500

0 commit comments

Comments
 (0)