刚开始接触深度学习,对与它大概的印象就是:我们想利用机器来做好多事,比如预测未来的天气,识别语音中的文字,辨别图片中的动物等等。最开始它是不会的或者说错误率非常高的,那我们就像训练小狗似的训练机器,让它去做我们所设想的事情。那又怎么来实现呢?我们需要给机器一个模型,让它通过这个模型来达到目的,这个模型中有好多参数或者说很多不定变量。开始的时候模型并不会做,我们需要去训练模型也就是改变模型中的参数,让模型的输出更加接近真实的答案。
感知器:
上图中就是一个简单的单层感知器。包含输入,权重,激活函数,输出。x为输入,比如语音识别中,语音就是模型的输入。w为权重,也就是开始说的模型中的参数,优化模型时就是通过改变权重来获取最佳模型。权值对于模型的实际意义就是调整输入的重要程度,比如挑西瓜的时候色泽可能比敲击的声音更加重要,所有输出中色泽所占的比例就相对高一些。标记 ∑ 符号的节点为输入加权和,该节点的输入为 x1*w1 + x2*w2 + ·····+ xn*wn + 1 * w0 ,通常用net表示。最后一项1*w0称作偏置项,用来调整被激活的难易程度。step function为模型的激活函数,通过该函数得到的值就是上图感知器的输出out。
感知器可以用来解决线性分类,线性回归等问题。
感知器的训练:
在感知器中w,b的初始值都为0,用 w ← w + Δw , b ← b + Δb 来更新w,b的值已达到最佳模型状态。
Δw = η(t - y) x 【式中t为真实值,y为模型的输出,t-y意味着模型输出与真实的差距】
Δb = η(t - y)
下列代码实现里一个简单的“and”操作:0 and 0 = 0,1 and 1 = 1,1 and 0 = 0,0 and 1 = 0
from functools import reduce class Perception(object): def __init__(self,input_num,activator): ''' 初始化一个感知器, 定义感知器的输入个数input_num, 以及激活函数activator ''' self.activator = activator self.weights = [0.0 for _ in range(input_num)] self.bias = 0.0 def __str__(self): ''' 打印学习到的权重/偏置项 ''' return 'weight\t:%s\nbias\t:%f\n'%(self.weights,self.bias) def predict(self,input_vec): ''' 输入向量,输出感知器的计算结果 ''' #把input_vec[x1,x2,x3...]和weight[w1,w2,w3...]打包在一起 #变成[(x1,w1),(x2,w2)...] #然后利用map函数计算x1*w1,x2*w2.... #最后利用reduce求和 return self.activator( reduce(lambda a,b:a+b, map(lambda x:x[0] * x[1], zip(input_vec,self.weights)) ,0.0) + self.bias) def train(self,input_vecs,labels,iteration,rate): ''' 输入训练数据:一组向量,与每个向量对应的lable,以及训练轮数,学习率 ''' for i in range(iteration): self._one_iteration(input_vecs,labels,rate) def _one_iteration(self,input_vecs,labels,rate): '''一次迭代,把所有的训练数据过一遍''' #把输入和输出打包在一起,成为样本的列表[(input_vecs,label),...] #而每个训练样本是(input_vec,label) samples = zip(input_vecs,labels) #对每个样本,按照感知器的规则更新权重 for (input_vecs,labels) in samples: #计算感知器在当前权重下的输出 output = self.predict(input_vecs) self._update_weight(input_vecs,output,labels,rate) def _update_weight(self,input_vec,output,label,rate): delta = label - output self.weights = list(map( lambda x:x[1] + rate * delta * x[0], zip(input_vec,self.weights))) self.bias += rate * delta def f(x): # 定义激活函数f if x > 0: return 1 else: return 0 def get_training_dataset(): # 构建训练集数据 input_vecs = [[1,1],[0,0],[1,0],[0,1]] label = [1,0,0,0] return input_vecs,label def train_and_perceptron(): # 创建一个感知器,并训练,返回一个训练好的感知器 p = Perception(2,f) input_vecs,labels = get_training_dataset() p.train(input_vecs,labels,10,0.01) return p and_perception = train_and_perceptron() print(and_perception) print("1 and 1 = %d"%and_perception.predict([1,1])) print("0 and 0 = %d"%and_perception.predict([0,0])) print("1 and 0 = %d"%and_perception.predict([1,0])) print("0 and 1 = %d"%and_perception.predict([0,1]))
以上程序出自于:https://www.zybuluo.com/hanbingtao/note/433855
上面的文字为自己的看教程之后的理解