Pode ser feito individualmente ou em duplas.
data para entrega: até meia note de 10/4 (sexta feira)
Nós vamos minimizar a função de 3 dimensões:
\[f(x_1,x_2,x_3) = 100 (x_2 -x_1^2)^2 + (1-x_1)^2 + 100 (x_3 - x_2^2)^2 + (1 - x_2)^2\]
que é a função de Rosenbrock em 3D.
valor inicial: Assuma que o valor inicial da descida do gradiente é [0,0,0]
teste de convergência: vamos definir tolerancia como
\[tol = \frac{| x_{novo}-x_{velho} | }{ |x_{velho}| }\]
onde \(|x|\) é a norma (euclidiana) de um vetor.
Pare quando a tolerância for menor que \(1.0x10^{-4}\).
numero máximo de passos: interrompa a computação depois de 20.000 passos.
implemente a função que computa o gradiente de \(f\)
use o teste de convergência e o valor inicial acima
para cada um dos valores do learning rate abaixo plote os valores de \(f(x)\) dos passos da descida do gradiente, e o número de vezes da atualização \(x\)