Ныне от одного мудреца больше требуется, чем в древности от семерых (Б. Грасиан).

TensorFlow — Оптимизация градиентного спуска

1 Звезда2 Звезды3 Звезды4 Звезды5 Звезд (1 оценок, среднее: 5,00 из 5)
Загрузка...
07.09.2019
Как установить TensorFlow на CentOS 7

Оптимизация градиентного спуска считается важной концепцией в науке о данных.

Рассмотрим шаги, показанные ниже, чтобы понять реализацию оптимизации градиентного спуска:

 

Шаг 1

Включите необходимые модули и объявление переменных x и y, с помощью которых мы собираемся определить оптимизацию градиентного спуска.

import tensorflow as tf

x = tf.Variable(2, name = 'x', dtype = tf.float32)
log_x = tf.log(x)
log_x_squared = tf.square(log_x)

optimizer = tf.train.GradientDescentOptimizer(0.5)
train = optimizer.minimize(log_x_squared)

 

Шаг 2

Инициализируйте необходимые переменные и вызовите оптимизаторы для определения и вызова их с соответствующей функцией.

init = tf.initialize_all_variables()

def optimize():
   with tf.Session() as session:
      session.run(init)
      print("starting at", "x:", session.run(x), "log(x)^2:", session.run(log_x_squared))
      
      for step in range(10):
         session.run(train)
         print("step", step, "x:", session.run(x), "log(x)^2:", session.run(log_x_squared))
optimize()

 

Выше строка кода генерирует вывод, как показано на скриншоте ниже:

TensorFlow - Оптимизация градиентного спуска

 

Мы видим, что необходимые эпохи и итерации рассчитываются, как показано в выходных данных.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Если статья понравилась, то поделитесь ей в социальных сетях:

Читайте также

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Загрузка...

Спасибо!

Теперь редакторы в курсе.

Scroll to Top