直播案例机器学习中常用优化算法的Python实践

2020-06-2714:38:20人工智能与大数据Comments2,678 views字数 10560阅读模式

机器学习模型的求解最终都会归结为求解一个最优化问题,最优化的目标为模型误差,它是模型参数的函数。例如线性回归的优化目标是均方误差,参数是每个特征的系数。根据目标函数的特点(凸与非凸),样本数量,特征数量,在实践中会选择不同的优化方法。常见的优化方法包括解析法、梯度下降法、共轭梯度法、交替迭代法等。本案例将对常见的优化算法进行分析,以便理解不同优化方法的特点和适用场景,帮助我们在机器学习实践中选择最合适的优化方法。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

1 Python 梯度下降法实现

import  as plt
import numpy as np

from  import Axes3D
from matplotlib import animation
from  import HTML

from autograd import elementwise_grad, value_and_grad,grad
from  import minimize
from scipy import optimize
from collections import defaultdict
from itertools import zip_longest
plt.rcParams['']=False  # 用来正常显示负号

实现简单优化函数

借助 Python 的匿名函数定义目标函数。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

f1 = lambda x1,x2 : x1**2 + *x2**2 #函数定义
f1_grad = value_and_grad(lambda args : f1(*args)) #函数梯度

梯度下降法实现

梯度下降法使用以下迭代公式进行参数的更新。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

其中  为学习率。我们实现 gradient_descent 方法来进行参数的更新。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

def gradient_descent(func, func_grad, x0, learning_rate=, max_iteration=20):
    path_list = [x0]
    best_x = x0
    step = 0
    while step < max_iteration:
        update = -learning_rate * (func_grad(best_x)[1])
        if((update) < 1e-4):
            break
        best_x = best_x + update
        (best_x)
        step = step + 1
    return best_x, (path_list)

2 梯度下降法求解路径可视化

首先我们使用上节实现的梯度下降法求解,得到参数的优化路径。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

best_x_gd, path_list_gd = gradient_descent(f1,f1_grad,[-4.0,4.0],,30)
path_list_gd

array([[-4.        ,  4.        ],
[       ,         ],
[      ,        ],
[     ,       ],
[    ,      ],
[   ,     ],
[  ,    ],
[ ,   ],
[,  ],
[-3687091,  ],
[,  ],
[,  5524238],
[,  2971815],
[,  ],
[-7592186,   ],
[-4073749,  ],
[-1258999,  ],
[,  ],
[,  ],
[,  4034069],
[,  ],
[,  ],
[,  ],
[,  ],
[,  ],
[,   ],
[,  ],
[,  ],
[,  ],
[ ,  8840515],
[,  6956463]])文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

目标函数曲面的可视化

为了将函数曲面绘制出来,我们先借助 生成网格点坐标矩阵。两个维度上每个维度显示范围为-5到5。对应网格点的函数值保存在 z 中。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

x1,x2 = ((-5.0,5.0,50), (-5.0,5.0,50))
z = f1(x1,x2 )
minima = ([0, 0]) #对于函数f1,我们已知最小点为(0,0)
?

Matplotlib 中的 plot_surface 函数能够帮助我们绘制3D函数曲面图。函数的主要参数如下表所示。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

%matplotlib inline
fig = (figsize=(8, 8))
ax = (projection='3d', elev=50, azim=-50)

(x1,x2, z, alpha=.8, cmap=)
([minima[0]],[minima[1]],[f1(*minima)], 'r*', markersize=10)

('$x1$')
('$x2$')
('$f$')

((-5, 5))
((-5, 5))

()
直播案例机器学习中常用优化算法的Python实践

绘制等高线和梯度场

contour 方法能够绘制等高线,clabel 能够将对应线的高度(函数值)显示出来,这里我们保留两位小数(fmt='%.2f')。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

dz_dx1 = elementwise_grad(f1, argnum=0)(x1, x2)
dz_dx2 = elementwise_grad(f1, argnum=1)(x1, x2)
fig, ax = (figsize=(6, 6))

contour = (x1, x2, z,levels=20,cmap=)
(contour,fontsize=10,colors='k',fmt='%.2f')
(*minima, 'r*', markersize=18)

('$x1$')
('$x2$')

((-5, 5))
((-5, 5))

()
直播案例机器学习中常用优化算法的Python实践

梯度下降法求解路径二维动画可视化

借助 quiver 函数,我们可以将梯度下降法得到的优化路径使用箭头连接进行可视化。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

fig, ax = (figsize=(6, 6))

(x1, x2, z, levels=20,cmap=)#等高线
#绘制轨迹箭头
(path_list_gd[:-1,0], path_list_gd[:-1,1], path_list_gd[1:,0]-path_list_gd[:-1,0], path_list_gd[1:,1]-path_list_gd[:-1,1], scale_units='xy', angles='xy', scale=1, color='k')
#标注最优值点
(*minima, 'r*', markersize=18)

('$x1$')
('$x2$')

((-5, 5))
((-5, 5))
()
直播案例机器学习中常用优化算法的Python实践

使用动画将每一步的路径展示出来,我们使用 类来完成动画模拟,然后使用 .to_jshtml 方法将动画显示出来。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

path = path_list_gd #梯度下降法的优化路径
fig, ax = (figsize=(6, 6))
line, = ([], [], 'b', label='Gradient Descent', lw=2) #保存路径
point, = ([], [], 'bo') #保存路径最后的点

def init_draw(): 
    (x1, x2, z, levels=20, cmap=)
    (*minima, 'r*', markersize=18) #将最小值点绘制成红色五角星
    ('$x$')
    ('$y$')
    ((-5, 5))
    ((-5, 5))
    return line, point

def update_draw(i):
    (path[:i,0],path[:i,1])
    (path[i-1:i,0],path[i-1:i,1])
    ()
    return line, point

anim = (fig, update_draw, init_func=init_draw,frames=[0], interval=60, repeat_delay=5, blit=True)
HTML(())
直播案例机器学习中常用优化算法的Python实践

3 不同优化方法对比

使用 ``[1] 模块求解最优化问题。由于我们需要对优化路径进行可视化,因此 minimize 函数需要制定一个回调函数参数 callback文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

x0 = ([-4, 4])
def make_minimize_cb(path=[]):
    
    def minimize_cb(xk):
        ((xk))

    return minimize_cb

3.1 选取不同的优化方法求解

在这里我们选取 模块实现的一些常见的优化方法。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

methods = [ "CG", "BFGS","Newton-CG","L-BFGS-B"]
import warnings
warnings.filterwarnings('ignore') #该行代码的作用是隐藏警告信息
x0 = [-4.0,4.0]
paths = []
zpaths = []
for method in methods:
    path = [x0]
    res = minimize(fun=f1_grad, x0=x0,jac=True,method = method,callback=make_minimize_cb(path), bounds=[(-5, 5), (-5, 5)], tol=1e-20)
    ((path))

增加我们自己实现的梯度下降法的结果。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

("GD")
(path_list_gd)
zpaths = [f1(path[:,0],path[:,1]) for path in paths]

实现动画演示封装类

封装一个 TrajectoryAnimation 类 ,将不同算法得到的优化路径进行动画演示。本代码来自 [2]文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

class TrajectoryAnimation():
    
    def __init__(self, paths, labels=[], fig=None, ax=None, frames=None, 
                 interval=60, repeat_delay=5, blit=True, **kwargs):
        #如果传入的fig和ax参数为空,则新建一个fig对象和ax对象
        if fig is None:
            if ax is None:
                fig, ax = ()
            else:
                fig = ()
        else:
            if ax is None:
                ax = ()
         = fig
         = ax 
         = paths
        #动画的帧数等于最长的路径长度
        if frames is None:
            frames = max([0] for path in paths) #获取最长的路径长度
         = [([], [], label=label, lw=2)[0] 
                      for _, label in zip_longest(paths, labels)]
         = [([], [], 'o', color=())[0] 
                       for line in ]
        super(TrajectoryAnimation, self).__init__(fig, , init_func=,
                                                  frames=frames, interval=interval, blit=blit,
                                                  repeat_delay=repeat_delay, **kwargs)
    def init_anim(self):
        for line, point in zip(, ):
            ([], [])
            ([], [])
        return  + 

    def animate(self, i):
        for line, point, path in zip(, , ):
            (path[:i,0],path[:i,1])
            (path[i-1:i,0],path[i-1:i,1])
            ()
        return  + 

3.3 求解路径的对比

fig, ax = (figsize=(8, 8))

(x1, x2, z, cmap=)
(*minima, 'r*', markersize=10)

('$x1$')
('$x2$')

((-5, 5))
((-5, 5))

anim = TrajectoryAnimation(paths, labels=methods, ax=ax)

(loc='upper left')
HTML(())
直播案例机器学习中常用优化算法的Python实践

复杂函数优化的对比

我们再来看一个有多个局部最小值和鞍点的函数。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

f2 = lambda x1, x2 :((4 - *x1**2 + x1**4 / 3.) * x1**2 + x1 * x2  + (-4 + 4*x2**2) * x2 **2)
f2_grad = value_and_grad(lambda args: f2(*args))

x1,x2 = ((,,50), (,,50))
z = f2(x1,x2 )

%matplotlib inline
fig = (figsize=(6, 6))
ax = (projection='3d', elev=50, azim=-50)

(x1,x2, z, alpha=.8, cmap=)

('$x1$')
('$x2$')
('$f$')

((, ))
((, ))

()
直播案例机器学习中常用优化算法的Python实践

使用 Scipy 中实现的不同的优化方法以及我们在本案例实现的梯度下降法进行求解。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

x02 = [,-]  #初始点,尝试不同初始点,[,-] ,[],[]
_, path_list_gd2 = gradient_descent(f2,f2_grad,x02,,30) #使用梯度下降法求解

paths = []
zpaths = []
methods = [ "CG", "BFGS","Newton-CG","L-BFGS-B"]
for method in methods:
    path = [x02]
    res = minimize(fun=f2_grad, x0=x02,jac=True,method = method,callback=make_minimize_cb(path), bounds=[(, ), (, )], tol=1e-20)
    ((path))
    
("GD")
(path_list_gd2)
zpaths = [f2(path[:,0],path[:,1]) for path in paths]

将不同方法的求解路径以动画形式显示出来。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

%matplotlib inline
fig, ax = (figsize=(8, 8))

contour = (x1, x2, z, levels=50, cmap=)
(contour,fontsize=10,colors='k',fmt='%.2f')
('$x1$')
('$x2$')

((, ))
((, ))

anim = TrajectoryAnimation(paths, labels=methods, ax=ax)
(loc='upper left')
HTML(())
直播案例机器学习中常用优化算法的Python实践

4 使用不同的优化算法求解手写数字分类问题

手写数字数据加载和预处理

MNIST 手写数字数据集是在图像处理和深度学习领域一个著名的图像数据集。该数据集包含一份 60000 个图像样本的训练集和包含 10000 个图像样本的测试集。每一个样本是  的图像,每个图像有一个标签,标签取值为 0-9 。MNIST 数据集下载地址为  [3]文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

import numpy as np
f = ("input/") 
X_train, y_train, X_test, y_test = f['x_train'], f['y_train'],f['x_test'], f['y_test']
()
x_train = ((-1, 28*28)) / 
x_test = ((-1, 28*28)) / 

随机打印一些手写数字,查看数据集。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

rndperm = (len(x_train))
%matplotlib inline
import  as plt
plt.gray()
fig = ( figsize=(8,8) )
for i in range(0,100):
    ax = (10,10,i+1)
    (x_train[rndperm[i]].reshape((28,28)))
    (False) #去掉边框
    ("off")#不显示坐标轴  
()

< Figure size 432x288 with 0 Axes >文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

直播案例机器学习中常用优化算法的Python实践为了便于后续模型训练,对手写数字的标签进行 One-Hot 编码。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

import pandas as pd
y_train_onehot = (y_train)
()
0123456789
00000010000
11000000000
20000100000
30100000000
40000000001

4.2 使用 TensorFlow 构建手写数字识别神经网络

构建一个简单的全连接神经网络,用于手写数字的分类,网络结构如下图所示:文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

直播案例机器学习中常用优化算法的Python实践
import tensorflow as tf
import  as layers

现在我们构建上述神经网络,结构为 784->100->100->50->10文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

inputs = (shape=(28*28,), name='inputs')
hidden1 = (100, activation='relu', name='hidden1')(inputs)
hidden2 = (100, activation='relu', name='hidden2')(hidden1)
hidden3 = (50, activation='relu', name='hidden3')(hidden2)
outputs = (10, activation='softmax', name='outputs')(hidden3)
deep_networks = (inputs,outputs)
()
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
inputs (InputLayer)          (None, 784)               0         
_________________________________________________________________
hidden1 (Dense)              (None, 100)               78500     
_________________________________________________________________
hidden2 (Dense)              (None, 100)               10100     
_________________________________________________________________
hidden3 (Dense)              (None, 50)                5050      
_________________________________________________________________
outputs (Dense)              (None, 10)                510       
=================================================================
Total params: 94,160
Trainable params: 94,160
Non-trainable params: 0
_________________________________________________________________

4.3 损失函数、优化方法选择与模型训练

(optimizer='SGD',loss='categorical_crossentropy',metrics=['accuracy']) #定义误差和优化方法 SGD,RMSprop,Adam,Adagrad,Nadam
%time history = (x_train, y_train_onehot, batch_size=500, epochs=10,validation_split=,verbose=1) #模型训练

Train on 30000 samples, validate on 30000 samples Epoch 1/10 30000/30000 [==============================] - 1s 27us/step - loss: 0.0516 - acc: 0.9865 - val_loss: 246 - val_acc: 0.9634 Epoch 2/10 30000/30000 [==============================] - 0s 16us/step - loss: 0.0502 - acc: 0.9869 - val_loss: 243 - val_acc: 0.9634 Epoch 3/10 30000/30000 [==============================] - 0s 16us/step - loss: 0.0496 - acc: 0.9871 - val_loss: 244 - val_acc: 0.9634 Epoch 4/10 30000/30000 [==============================] - 0s 16us/step - loss: 0.0492 - acc: 0.9874 - val_loss: 244 - val_acc: 0.9634 Epoch 5/10 30000/30000 [==============================] - 0s 16us/step - loss: 0.0489 - acc: 0.9875 - val_loss: 247 - val_acc: 0.9633 Epoch 6/10 30000/30000 [==============================] - 0s 16us/step - loss: 0.0485 - acc: 0.9873 - val_loss: 244 - val_acc: 0.9635 Epoch 7/10 30000/30000 [==============================] - 0s 16us/step - loss: 0.0483 - acc: 0.9873 - val_loss: 244 - val_acc: 0.9637 Epoch 8/10 30000/30000 [==============================] - 0s 16us/step - loss: 0.0479 - acc: 0.9878 - val_loss: 242 - val_acc: 0.9636 Epoch 9/10 30000/30000 [==============================] - 0s 16us/step - loss: 0.0477 - acc: 0.9874 - val_loss: 245 - val_acc: 0.9636 Epoch 10/10 30000/30000 [==============================] - 0s 17us/step - loss: 0.0475 - acc: 0.9874 - val_loss: 245 - val_acc: 0.9637 CPU times: user 17.8 s, sys: 8 s, total: 19.8 s Wall time: 5.36 s文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

打印误差变化曲线。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

fig, ax = (figsize=(20, 8))

(, ["loss"])

('$epoch$')
('$loss$')

Text(0, , '$loss$')文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

直播案例机器学习中常用优化算法的Python实践
test_loss, test_acc = (x_test,  (y_test), verbose=2)

print('\nTest accuracy:', test_acc)

Test accuracy: 0.9667文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

5 总结

本案例我们实现了梯度下降法,借助 Scipy 的 optimize 模块,在两个不同的二维函数上使用梯度下降、共轭梯度下降法和拟牛顿法的优化路径,并使用 Matplotlib 进行了动画展示。然后在手写数字数据集上,我们使用 TensorFlow 构建分类模型,使用不同的优化方法进行模型训练。本案例主要用到的 Python 包列举如下。文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html

包或方法版本用途
Matplotlib3.0.2绘制三维曲面,绘制等高线,制作动画,绘制梯度场(箭头
Scipy.0.minimize 求解最优化问题
TensorFlow构建手写数字神经网络模型
Pandas0.2数据预处理,One-Hot 编码
文章源自菜鸟学院-https://www.cainiaoxueyuan.com/ai/19484.html
  • 本站内容整理自互联网,仅提供信息存储空间服务,以方便学习之用。如对文章、图片、字体等版权有疑问,请在下方留言,管理员看到后,将第一时间进行处理。
  • 转载请务必保留本文链接:https://www.cainiaoxueyuan.com/ai/19484.html

Comment

匿名网友 填写信息

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen:

确定