用keras框架较为方便
首先安装anaconda,然后通过pip安装keras
以下转自wphh的博客.
'''
GPU?run?command:
CPU?run?command:
python?cnn.py
这份代码是keras开发初期写的,当时keras还没有现在这么流行,文档也还没那么丰富,所以我当时写了一些简单的教程.
现在keras的API也发生了一些的变化,建议及推荐直接上keras.io看更加详细的教程.
#导入各种用到的模块组件
from?__future__?import?absolute_import
from?__future__?import?print_function
from?keras.preprocessing.image?import?ImageDataGenerator
from?keras.models?import?Sequential
from?keras.layers.core?import?Dense,?Dropout,?Activation,?Flatten
from?keras.layers.advanced_activations?import?PReLU
from?keras.optimizers?import?SGD,?Adadelta,?Adagrad
from?keras.utils?import?np_utils,?generic_utils
from?six.moves?import?range
from?data?import?load_data
import?random
import?numpy?as?np
#加载数据
data,?label?=?load_data()
#打乱数据
index?=?[i?for?i?in?range(len(data))]
random.shuffle(index)
data?=?data[index]
label?=?label[index]
print(data.shape[0],?'?samples')
label?=?np_utils.to_categorical(label,?10)
###############
#开始建立CNN模型
#生成一个model
model?=?Sequential()
#border_mode可以是valid或者full,具体看这里说明:
#激活函数用tanh
model.add(Activation('tanh'))
model.add(Activation('relu'))
#全连接层,先将前一层输出的二维特征图flatten为一维的.
model.add(Flatten())
#Softmax分类,输出是10类别
model.add(Dense(10,?init='normal'))
model.add(Activation('softmax'))
#############
#开始训练模型
##############
#使用SGD?+?momentum
#model.compile里的参数loss就是损失函数(目标函数)
model.compile(loss='categorical_crossentropy',?optimizer=sgd,metrics=["accuracy"])
#调用fit方法,就是一个训练过程.?训练的epoch数设为10,batch_size为100.
"""
#使用data?augmentation的方法
#一些参数和调用的方法,请看文档
datagen?=?ImageDataGenerator(
featurewise_center=True,?#?set?input?mean?to?0?over?the?dataset
samplewise_center=False,?#?set?each?sample?mean?to?0
zca_whitening=False,?#?apply?ZCA?whitening
horizontal_flip=True,?#?randomly?flip?images
vertical_flip=False)?#?randomly?flip?images
#?compute?quantities?required?for?featurewise?normalization?
#?(std,?mean,?and?principal?components?if?ZCA?whitening?is?applied)
datagen.fit(data)
for?e?in?range(nb_epoch):
print('Epoch',?e)
print("Training...")
#?batch?train?with?realtime?data?augmentation
progbar?=?generic_utils.Progbar(data.shape[0])
for?X_batch,?Y_batch?in?datagen.flow(data,?label):
loss,accuracy?=?model.train(X_batch,?Y_batch,accuracy=True)
progbar.add(X_batch.shape[0],?values=[("train?loss",?loss),("accuracy:",?accuracy)]?)
python入门教程如下:
准备材料:windows电脑、python
①.、这里简单告用python软件编写的一个关于货物售价折扣方面的一个计算程序,首先打开python软件.
从零开始用Python构建神经网络
动机:为了更加深入的理解深度学习,我们将使用 python 语言从头搭建一个神经网络,而不是使用像 Tensorflow 那样的封装好的框架.我认为理解神经网络的内部工作原理,对数据科学家来说至关重要.
这篇文章的内容是我的所学,希望也能对你有所帮助.
神经网络是什么?
介绍神经网络的文章大多数都会将它和大脑进行类比.如果你没有深入研究过大脑与神经网络的类比,那么将神经网络解释为一种将给定输入映射为期望输出的数学关系会更容易理解.
神经网络包括以下组成部分
一个输入层,x
任意数量的隐藏层
一个输出层,?
每层之间有一组权值和偏置,W and b
为隐藏层选择一种激活函数,q.在教程中我们使用 Sigmoid 激活函数
用 Python 可以很容易的构建神经网络类
训练神经网络
这个网络的输出 ? 为:
你可能会注意到,在上面的等式中,输出 ? 是 W 和 b 函数.
所以呢 W 和 b 的值影响预测的准确率. 所以根据输入数据对 W 和 b 调优的过程就被成为训练神经网络.
每步训练迭代包含以下两个部分:
计算预测结果 ?,这一步称为前向传播
更新 W 和 b,,这一步成为反向传播
下面的顺序图展示了这个过程:
前向传播
我们在 NeuralNetwork 类中增加一个计算前向传播的函数.为了简单起见我们假设偏置 b 为0:
但是我们还需要一个方法来评估预测结果的好坏(即预测值和真实值的误差).这就要用到损失函数.
损失函数
常用的损失函数有很多种,根据模型的需求来选择.在本教程中,我们使用误差平方和作为损失函数.
误差平方和是求每个预测值和真实值之间的误差再求和,这个误差是他们的差值求平方以便我们观察误差的绝对值.
训练的目标是找到一组 W 和 b,使得损失函数最好小,也即预测值和真实值之间的距离最小.
反向传播
我们已经度量出了预测的误差(损失),现在需要找到一种方法来传播误差,并以此更新权值和偏置.
为了知道如何适当的调整权值和偏置,我们需要知道损失函数对权值 W 和偏置 b 的导数.
回想微积分中的概念,函数的导数就是函数的斜率.
梯度下降法
如果我们已经求出了导数,我们就可以通过增加或减少导数值来更新权值 W 和偏置 b(参考上图).这种方式被称为梯度下降法.
但是我们不能直接计算损失函数对权值和偏置的导数,因为在损失函数的等式中并没有显式的包含他们.所以呢,我们需要运用链式求导发在来帮助计算导数.
链式法则用于计算损失函数对 W 和 b 的导数.注意,为了简单起见.我们只展示了假设网络只有 1 层的偏导数.
这虽然很简陋,但是我们依然能得到想要的结果—损失函数对权值 W 的导数(斜率),所以呢我们可以相应的调整权值.
现在我们将反向传播算法的函数添加到 Python 代码中
Youtube:
整合并完成一个实例
既然我们已经有了包括前向传播和反向传播的完整 Python 代码,那么就将其应用到一个例子上看看它是如何工作的吧.
神经网络可以通过学习得到函数的权重.而我们仅靠观察是不太可能得到函数的权重的.
我们成功了!我们应用前向和方向传播算法成功的训练了神经网络并且预测结果收敛于真实值.
注意预测值和真实值之间存在细微的误差是允许的.这样可以防止模型过拟合并且使得神经网络对于未知数据有着更强的泛化能力.
下一步是什么?
幸运的是我们的学习之旅还没有结束,仍然有很多关于神经网络和深度学习的内容需要学习.例如:
除了 Sigmoid 以外,还可以用哪些激活函数
在训练网络的时候应用学习率
在面对图像分类任务的时候使用卷积神经网络
我很快会写更多关于这个主题的内容,敬请期待!
最后的想法
我自己也从零开始写了很多神经网络的代码
虽然可以使用诸如 Tensorflow 和 Keras 这样的深度学习框架方便的搭建深层网络而不需要完全理解其内部工作原理.但是我觉得对于有追求的数据科学家来说,理解内部原理是非常有益的.
这种练习对我自己来说已成成为重要的时间投入,希望也能对你有所帮助
以上就是土嘎嘎小编为大家整理的关于python损失函数教程的信息相关主题介绍,如果您觉得小编更新的文章只要能对粉丝们有用,就是我们最大的鼓励和动力,不要忘记讲本站分享给您身边的朋友哦!!