爱气象,爱气象家园! 

气象家园

 找回密码
 立即注册

QQ登录

只需一步,快速开始

搜索
查看: 8997|回复: 11

[经验总结] 人工智能AI概念的通俗理解

[复制链接]
发表于 2022-8-6 17:56:19 | 显示全部楼层 |阅读模式

登录后查看更多精彩内容~

您需要 登录 才可以下载或查看,没有帐号?立即注册

x
本帖最后由 15195775117 于 2022-8-12 15:36 编辑

1、隔行如隔山,行行有行话

三百六十行,行行有行话,

理解东北的江湖,可以从《林海雪原》的黑话入手,
理解一个村庄,可以从一本《马桥词典》入手,
理解一个新领域、新技术,需要从它的概念和术语入手。

我们学习一门新技术,最先面临的是对【专业术语】的理解,
我上大学时,考试总有一个大题叫【名词解释】,

所以,想学会晦涩难懂的AI技术,势必要弄清AI概念的来由。








密码修改失败请联系微信:mofangbao
 楼主| 发表于 2022-8-7 13:33:32 | 显示全部楼层
4、几个神经网络内部结构的概念


【人工神经元/神经元】是神经网络中执行接收、处理、输出的基本单元

若干【人工神经元】相互连接,构成一层神经网络,
一个完整的神经网络AI,由多层网络构成,
网络的第一层叫【输入层】,网络的最后一层叫【输出层】
【输入层】和【输出层】都是“可见”的,
其余夹在中间的叫【中间层】,是“不可见”的。
输入层→隐藏层→输出层,叫【正向传播】,反之叫【反向传播】

【神经元】之间设置有【连接权】,是个系数,AI的最终目的就是获得最优的系数。

训练网络时,不会一次把所有数据都塞进去,而是将输入分成几个随机的、大小相等的块,
训练时将数据分批发送,这样建立的模型更具一般性
这些分批输入的用于训练的数据叫做【训练集

将【训练集】送入网络,根据【实际输出】和【期望输出】的差别来调整【连接权】,这个过程叫【学习】或【优化学习】
网络处于开发训练过程,叫做【学习状态】,这时【连接权】还在不断调整,
当训练成功,网络就可以拿出去在【生产环境】使用了,就说它处于【工作状态】

网络虽然训练好了,但它是基于【训练集】的,
如果处理实际工作中的新数据,也表现出适用性,就说它【泛化性】好,否则就是【泛化性】差。






密码修改失败请联系微信:mofangbao
回复 支持 1 反对 0

使用道具 举报

 楼主| 发表于 2022-8-6 18:36:06 | 显示全部楼层
本帖最后由 15195775117 于 2022-8-12 15:23 编辑

2、几个常见AI概念的关系

【人工智能】(AI,Artificial Intelligence)
是个抽象概念,泛指人造的智慧,区别于人类和动物具有的【天然智能】,

专用于某一领域的AI称【弱AI】,全能AI称【强AI】,
很明显,现在都是【弱AI】,
【强AI】诞生,人类就危险了。

社会中,人工制造的智能,是用在机器上的,靠机器表现出来,
所以,【机器学习】是人工智能的载体和实现形式。

【机器学习】的内容,有的是比较傻的,例如通过if-else来编程实现的所谓“智能”,
但当前我们希望机器更聪明一些,进行一些有深度的“思考”,这就是【深度学习】。

【深度学习】也是一种宽泛的概念,由于目前【神经网络】是【深度学习】的几乎唯一的实现形式,
所以可以简单粗暴地认为:【深度学习】=【神经网络】

人工智能是靠数据“喂”出来的,
机器学习的过程是在不断处理“训练样本”后把模型调到最优。
如果AI是个小和尚,他练拳的时候,总有师傅来指出对错,这种学习叫做【监督学习】,
如果没有师傅提点,就叫做【非监督学习】,
师傅有时来,有时不来,叫【半监督学习】,
小和尚下山云游四方,自己找高手切磋,叫做【强化学习】,也属于【非监督学习

当然,很多AI,包括AlphaGO,一开始都是【监督学习】,把它养到一定程度,就放它去【强化学习】
现在有个发表于Nature杂志的【DQN】的算法,深度学习+强化学习,是通关超级玛丽、flappy bird等游戏的利器。

其他流行概念:

【专家系统】 (Expert system)
是一种模拟人类专家解决领域问题的计算机程序系统。
它应用AI技术和计算机技术,根据某领域一个或多个专家提供的知识和经验,进行推理和判断,模拟人类专家的决策过程,以便解决那些需要人类专家处理的复杂问题。
其实这个东西不用AI也行。

【知识表示】
类似于【数据结构】的概念,以程序能解释的形式表现对象,算法是在【知识表示】的基础上运行的

【agent】
具有智能的软件或硬件实体,如扫地机器人

【分布式AI】与【多智能体】
分布式AI是一种“去中心化”的AI,是多个实体的协作起来表现出智能的方式,
例如AI机器人足球队,是多个agent合作,每个agent具有智能,整个足球队又是个具备战术协作智能的【多智能体】
这种分布式AI在《三体》中也有体现。





密码修改失败请联系微信:mofangbao
回复 支持 1 反对 0

使用道具 举报

 楼主| 发表于 2022-8-6 21:16:48 | 显示全部楼层
本帖最后由 15195775117 于 2022-8-7 12:24 编辑

3、几个常见的神经网络概念

神经网络 NN (Neural Network) = 人工神经网络 ANN (Artificial Neural Network)

卷积神经网络 CNN (Convolutional Neural Network)

第一个真正多层结构的学习算法,利用空间相对关系,减少了权值的数量,减少参数数目,降低了网络模型的复杂度,提高训练性能。其【权值共享】的网络结构更类似于生物神经网络。
目前最火!

全连接神经网络
FCNN (Fully Connected Neural Network)

非常依赖人工提取,参数太多,无法利用数据中的时间序列。
所以,不实用。

循环神经网络
RNN (Recurrent Neural Network)

在处理和预测序列数据领域应用较多,比如语音、翻译等。
科大讯飞肯定用这个。


BP神经网络 (back propagation)

是一种按照【误差逆向传播算法】训练的多层前馈神经网络,是应用最广泛的神经网络模型之一。
十几年前,这个跟CNN一样热门。
注意,BP和CNN并非对立的算法。

前馈型神经网络

根据神经元互连方式,NN可分为3类:
(1)前馈NN,只在训练中有反馈信号,分类过程中只向前,例如BP,CNN
(2)反馈NN,有反馈信号的,比前馈NN复杂很多,例如Elman网络,Hopfiled网络
(3)自组织NN,非监督学习网络,自动寻找样本中的内在规律,自组织、自适应地改变参数与网络结构,例如“聚类分析”。

十几年前,bp神经网络最火,十几年后,CNN最火,这2个都是
前馈NN!
密码修改失败请联系微信:mofangbao
回复 支持 反对

使用道具 举报

发表于 2022-8-9 11:30:44 | 显示全部楼层
精辟!!受教了
密码修改失败请联系微信:mofangbao
回复 支持 反对

使用道具 举报

发表于 2022-8-11 07:59:10 | 显示全部楼层
谢谢分享!!!!!!
密码修改失败请联系微信:mofangbao
回复

使用道具 举报

发表于 2022-8-11 08:19:26 | 显示全部楼层
讲的非常好,学习啦
密码修改失败请联系微信:mofangbao
回复 支持 反对

使用道具 举报

 楼主| 发表于 2022-8-12 13:39:58 | 显示全部楼层
5、计算过程中的概念

5.1【MP神经元模型】

假设某神经元有3个输入信号[x1,x2,x3],对应的【连接权】分别是[w1,w2,w3]
[净激活]=x1*w1+x2*w2+x3*w3+[偏置]

为了优化写法,令[偏置]=x0*w0,则[净激活]=∑XW

若[净激活]>0,则神经元处于激活状态;
若[净激活]<0,则神经元处于抑制状态。

令f是【激活函数】,则神经元的
[输出]=f([净激活])

密码修改失败请联系微信:mofangbao
回复 支持 反对

使用道具 举报

 楼主| 发表于 2022-8-12 13:50:32 | 显示全部楼层
5.2【激活函数】

【激活函数】的意义:


激活函数f是一个非线性函数,神经元的输出通过f之后,整个NN模型不再是线性的了,
f给NN加入了非线性因素,解决了线性模型表达能力不足的缺陷。

常用激活函数:

有4个:sigmoid,tanh,ReLU,softmax
函数图像如下:

image3.png image4.png image5.png

TensorFlow提供的激活函数:

激活函数
tensorFlow函数
优缺点
y=1/[1+exp(-x)]
tf.nn.sigmoid(x,name=None)
值域(0,1),优于“阶跃函数”
双曲正切函数tanh
ft.nn.tanh(x,name=None)
值域(-1,1),比sigmoid收敛快
整流函数
max(features,0)
tf.nn.relu(features,name=None)
凡输入小于0,输出都是0,输入大于0则原样输出。ReLU流行于处理隐藏层,最主要的好处:对大于0的输入,导数值不变,可使NN训练速度加快
以6为阈值的整流函数
min[max(features,0),6]
tf.nn.relu6(features,name=None)
softplus函数
In[exp(features)+1]
tf.nn.softplus(features,name=None)
softmax函数
tf.nn.softmax(logits,name=None)
常用于输出层,分类问题需要softmax算法。如果判断输入属于某一个类的概率大于其他,这个类对应的值就逼近1,其他的就逼近0。softmax可理解为sigmoid的扩展
softmax函数的对数
tf.nn.log_softmax(logits,name=None)


密码修改失败请联系微信:mofangbao
回复 支持 反对

使用道具 举报

 楼主| 发表于 2022-8-12 14:04:50 | 显示全部楼层
5.3、监督学习算法的步骤

监督学习算法的主要步骤:

1、取一个样本(A,B),A是输入,B是期望输出
2、计算实际输出O(英文欧)
3、D=B-O
4、根据D调整“权矩阵”W
5、迭代执行,直到误差≤XXX

【非监督学习算法】是直接将样本集合的统计特性以【连接权】的形式存于网络

Delta学习规则

这是一种简单的监督学习算法,意思是:

if(实际输出>期望输出):
减小所有输入为正的连接的权重  and
增大所有输入为负的连接的权重

if(实际输出<期望输出):
增大所有输入为正的连接的权重  and
减小所有输入为负的连接的权重
        

公式形式:

W代表神经元j到i的连接权,
j的状态可能为0,1,-1,处于激活态为1,
t表示迭代次数,
连接权和神经元状态都是随迭代而更新的,所以二者都可加t的下标表示迭代次数,

连接权的递推式如下:
新连接权W(t+1)=原连接权W(t)+(i的期望输出-i的实际输出)*j的状态(t)*学习速度常数
(学习速度常数是正值)

公式分析:
假设j的状态(t)=1,i的期望输出>i的实际输出,则连接权增大;反之减小。


密码修改失败请联系微信:mofangbao
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Copyright ©2011-2014 bbs.06climate.com All Rights Reserved.  Powered by Discuz! (京ICP-10201084)

本站信息均由会员发表,不代表气象家园立场,禁止在本站发表与国家法律相抵触言论

快速回复 返回顶部 返回列表