سلام. با دستور زیر میتونید با توجه به تابع هزینه و روش بهینه سازی، مشتق پارامترها رو محاسبه کنید. (در مثال زیر از روش adam استفاده شده)
cross_entropy = tf.nn.sparse_softmax_cross_entropy_with_logits(labels=
label_batch, logits=logits, name='cross_entropy_per_example') #loss
cross_entropy_mean = tf.reduce_mean(cross_entropy, name='cross_entropy')
# mean loss for batch
learning_rate=0.01
opt = tf.train.AdamOptimizer(learning_rate, beta1=0.9, beta2=0.999
, epsilon=0.1) #optimizaer
grads = opt.compute_gradients(cross_entropy_mean, tf.global_variables())
# compute gradients