神经网络(neural networks)是仿照动物的神经系统而来,期望机器可以获得类似人类的学习的能力。
神经网络中最基本的模型叫做神经元(neuron)或者(unit)。1943年, McCulloch and Pitts 按照生物神经元的功能(兴奋的接受,传递)抽象出神经元模型,即"M-P神经元模型"。

上图中,
表示来自n个其他神经元的输入信号,
为这个n信号的权重。神经元收到这些输入之后,会计算总输入值
,并将总输入值与当前神经元的阈值
进行比较,然后通过激活函数(activation function)
处理以产生神经元的输出。
激活函数的理想形态应该是如下图所示的阶跃函数,即将输出映射成“0”(表示神经元兴奋)或者“1”(表示神经元抑制)。


但是阶跃函数不连续,不光滑,在实际数据计算中不太友好。所以常用Sigmoid函数作为激活函数。


整个神经元模型可以表示为:
感知机(perceptron)由两层神经元组成,输入层接收外界输入信号后传递给输出层,输出层是M-P神经元,亦称“阈值逻辑单元”(threshold logic unit)。

感知机能够方便的实现与或非逻辑运算。 假定 激活函数为阶跃函数,即


,感知机可以表示为
。验证与运算的情况:





感知机可以表示为
,验证或运算的情况:




有一个为1时,输出为1。否则感知机输出为0.
,感知机可以表示为
,验证非运算情况:


可以看做是
的权重
):

其中
,叫做学习率。
感知机是单层神经元,适合处理线性可分问题。如果线性不可分感知机学习的过程会发生震荡,难以求得合适解,需要引入多层神经网络。
神经网络需要学习的是连接权和阈值。
误差逆传播(error backPropagation, 简称BP)算法可以用于多种神经网络模型的学习。