HomeSort by relevance Sort by last modified time
    Searched refs:adadelta (Results 1 - 10 of 10) sorted by null

  /external/tensorflow/tensorflow/python/keras/optimizer_v2/
adadelta_test.py 15 """Tests for Adadelta Optimizer."""
27 from tensorflow.python.keras.optimizer_v2 import adadelta
38 num_updates = 4 # number of ADADELTA steps to perform
58 # ADADELTA gradient optimizer
62 adadelta_opt = adadelta.Adadelta(
67 adadelta_opt = adadelta.Adadelta(
96 # Run adadelta update for comparison
161 sgd_op = adadelta.Adadelta(1.0, 1.0, 1.0).minimize
    [all...]
optimizer_v2_test.py 39 from tensorflow.python.keras.optimizer_v2 import adadelta
590 opt_v1 = optimizers.Adadelta(lr=0.01)
591 opt_v2 = adadelta.Adadelta(learning_rate=0.01)
  /external/tensorflow/tensorflow/contrib/optimizer_v2/
optimizer_v2_symbols.py 22 from tensorflow.contrib.optimizer_v2.adadelta import AdadeltaOptimizer
adadelta_test.py 15 """Tests for Adadelta Optimizer."""
23 from tensorflow.contrib.optimizer_v2 import adadelta
36 num_updates = 4 # number of ADADELTA steps to perform
57 # ADADELTA gradient optimizer
60 adadelta_opt = adadelta.AdadeltaOptimizer(lr, rho, epsilon)
101 # Run adadelta update for comparison
154 sgd_op = adadelta.AdadeltaOptimizer(
  /external/tensorflow/tensorflow/python/training/
adadelta_test.py 15 """Tests for Adadelta Optimizer."""
32 from tensorflow.python.training import adadelta
38 num_updates = 4 # number of ADADELTA steps to perform
58 # ADADELTA gradient optimizer
62 adadelta_opt = adadelta.AdadeltaOptimizer(
67 adadelta_opt = adadelta.AdadeltaOptimizer(
111 # Run adadelta update for comparison
177 sgd_op = adadelta.AdadeltaOptimizer(
training.py 30 from tensorflow.python.training.adadelta import AdadeltaOptimizer
  /external/tensorflow/tensorflow/compiler/tests/
adadelta_test.py 15 """Tests for Adadelta Optimizer."""
28 from tensorflow.python.training import adadelta
34 num_updates = 4 # number of ADADELTA steps to perform
59 # ADADELTA gradient optimizer
62 adadelta_opt = adadelta.AdadeltaOptimizer(
101 # Run adadelta update for comparison
  /external/tensorflow/tensorflow/python/keras/saving/
saved_model_test.py 36 from tensorflow.python.keras.optimizer_v2 import adadelta
290 'optimizer_cls': adadelta.Adadelta,
310 'optimizer_cls': adadelta.Adadelta,
  /external/tensorflow/tensorflow/python/keras/
testing_utils.py 29 from tensorflow.python.keras.optimizer_v2 import adadelta as adadelta_v2
652 'adadelta': adadelta_v2.Adadelta,
optimizers.py 28 from tensorflow.python.keras.optimizer_v2 import adadelta as adadelta_v2
357 class Adadelta(Optimizer):
358 """Adadelta optimizer.
360 Adadelta is a more robust extension of Adagrad
362 instead of accumulating all past gradients. This way, Adadelta continues
364 original version of Adadelta you don't have to set an initial learning
374 rho: float >= 0. Adadelta decay factor, corresponding to fraction of
380 - [Adadelta - an adaptive learning rate method](http://arxiv.org/abs/1212.5701)
384 super(Adadelta, self).__init__(**kwargs)
436 base_config = super(Adadelta, self).get_config(
778 adadelta = Adadelta variable
    [all...]

Completed in 705 milliseconds