OpenGrok
Home
Sort by relevance
Sort by last modified time
Full Search
Definition
Symbol
File Path
History
|
|
Help
Searched
refs:adadelta
(Results
1 - 10
of
10
) sorted by null
/external/tensorflow/tensorflow/python/keras/optimizer_v2/
adadelta_test.py
15
"""Tests for
Adadelta
Optimizer."""
27
from tensorflow.python.keras.optimizer_v2 import
adadelta
38
num_updates = 4 # number of
ADADELTA
steps to perform
58
#
ADADELTA
gradient optimizer
62
adadelta_opt =
adadelta
.
Adadelta
(
67
adadelta_opt =
adadelta
.
Adadelta
(
96
# Run
adadelta
update for comparison
161
sgd_op =
adadelta
.Adadelta(1.0, 1.0, 1.0).minimize
[
all
...]
optimizer_v2_test.py
39
from tensorflow.python.keras.optimizer_v2 import
adadelta
590
opt_v1 = optimizers.
Adadelta
(lr=0.01)
591
opt_v2 =
adadelta
.
Adadelta
(learning_rate=0.01)
/external/tensorflow/tensorflow/contrib/optimizer_v2/
optimizer_v2_symbols.py
22
from tensorflow.contrib.optimizer_v2.
adadelta
import AdadeltaOptimizer
adadelta_test.py
15
"""Tests for
Adadelta
Optimizer."""
23
from tensorflow.contrib.optimizer_v2 import
adadelta
36
num_updates = 4 # number of
ADADELTA
steps to perform
57
#
ADADELTA
gradient optimizer
60
adadelta_opt =
adadelta
.AdadeltaOptimizer(lr, rho, epsilon)
101
# Run
adadelta
update for comparison
154
sgd_op =
adadelta
.AdadeltaOptimizer(
/external/tensorflow/tensorflow/python/training/
adadelta_test.py
15
"""Tests for
Adadelta
Optimizer."""
32
from tensorflow.python.training import
adadelta
38
num_updates = 4 # number of
ADADELTA
steps to perform
58
#
ADADELTA
gradient optimizer
62
adadelta_opt =
adadelta
.AdadeltaOptimizer(
67
adadelta_opt =
adadelta
.AdadeltaOptimizer(
111
# Run
adadelta
update for comparison
177
sgd_op =
adadelta
.AdadeltaOptimizer(
training.py
30
from tensorflow.python.training.
adadelta
import AdadeltaOptimizer
/external/tensorflow/tensorflow/compiler/tests/
adadelta_test.py
15
"""Tests for
Adadelta
Optimizer."""
28
from tensorflow.python.training import
adadelta
34
num_updates = 4 # number of
ADADELTA
steps to perform
59
#
ADADELTA
gradient optimizer
62
adadelta_opt =
adadelta
.AdadeltaOptimizer(
101
# Run
adadelta
update for comparison
/external/tensorflow/tensorflow/python/keras/saving/
saved_model_test.py
36
from tensorflow.python.keras.optimizer_v2 import
adadelta
290
'optimizer_cls':
adadelta
.
Adadelta
,
310
'optimizer_cls':
adadelta
.
Adadelta
,
/external/tensorflow/tensorflow/python/keras/
testing_utils.py
29
from tensorflow.python.keras.optimizer_v2 import
adadelta
as adadelta_v2
652
'
adadelta
': adadelta_v2.
Adadelta
,
optimizers.py
28
from tensorflow.python.keras.optimizer_v2 import
adadelta
as adadelta_v2
357
class
Adadelta
(Optimizer):
358
"""
Adadelta
optimizer.
360
Adadelta
is a more robust extension of Adagrad
362
instead of accumulating all past gradients. This way,
Adadelta
continues
364
original version of
Adadelta
you don't have to set an initial learning
374
rho: float >= 0.
Adadelta
decay factor, corresponding to fraction of
380
- [
Adadelta
- an adaptive learning rate method](http://arxiv.org/abs/1212.5701)
384
super(
Adadelta
, self).__init__(**kwargs)
436
base_config = super(
Adadelta
, self).get_config(
778
adadelta
= Adadelta
variable
[
all
...]
Completed in 705 milliseconds