1、Rosenbrock函数
#!/user/bin/env python
#-*- coding:utf-8 -*-
#梯度下降Rosenbrock函数
def rb(x,y):
#定义rosenbrock函数
return (1-x)**2+100*(y-x**2)**2
def partial_x(x,y):
#计算x的偏导数
return -2*(1-x)-400*x*(y-x**2)
def partial_y(x,y):
#计算y的偏导数
return 200*(y-x**2)
def bgd_rosenbrock():
x=0
y=0
i=0
learning_rate = 0.001
while i < 10000:
#步长0.001下降10000步
x = x - learning_rate * partial_x(x, y)
y = y - learning_rate * partial_y(x, y)
print('min',rb(x,y))
i = i+1
bgd_rosenbrock()
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
最终最小结果
min 7.6209387766275974e-06
---------------------
【转载】仅作分享,侵删
作者:诺坎普奇迹
原文:https://blog.csdn.net/wangxingfan316/article/details/82054712
|
|