智能控制技术(亲自整理的知识点)
智能控制
(1) 智能控制与传统控制的区别
答:传统控制方法包括经典控制和现代控制,是基于被控对象精确模型的控制方式,缺乏灵活性和应变能力,适于解决线性、时不变性等相对简单的控制问题,难以解决对复杂系统的控制。
智能控制能解决被控对象的复杂性、不确定性、高度的非线性,是传统控制发展的高级阶段。
(2)智能控制的概念
答:智能控制是人工智能、自动控制、运筹学的交叉。
(3) 1986年美国的PDP 研究小组提出了BP 网络,实现了有导师指导下的网络学习,为神
经网络的应用开辟了广阔的发展前景。
(4) 专家系统主要由知识库和推理机构成(核心)(5)专家控制的结构
(6)按专家控制在控制系统中的作用和功能,可将专家控制器分为以下两种类型:
答:(1) 直接型专家控制器:直接专家控制器用于取代常规控制器,直接控制生产过程或被控对象。具有模拟(或延伸,扩展)操作工人智能的功能。该控制器的任务和功能相对比较简单,但是需要在线、实时控制。因此,其知识表达和知识库也较简单,通常由几十条产生式规则构成,以便于增删和修改。
直接型专家控制器的示意图见图中的虚线所示。
(或被控对象进行间接控制的智能控制系统。具有模拟(或延伸,扩展)控制工程师智能的功能。该控制器能够实现优化适应、协调、组织等高层决策的智能控制。按照高层决策功能的性质,间接型专家控制器可分为以下几种类型: ① 优化型专家控制器② 适应型专家控制器
③ 协调型专家控制器④ 组织型专家控制器
. 10. 40. 6例3. 4 设 0 . 9 0 . 2 0 . 8 0 . 5 B 0 . 30A u u u u 求A ∪B ,A ∩B u u u u 12341234
则
12
(7) 在模糊控制中应用较多的隶属函数有以下6种隶属函数。 (1)高斯型隶属函数
高斯型隶属函数由两个参数σ和c 确定:f (x , σ, c ) =e
其中参数b 通常为正,参数c 用于确定曲线的中心。 M a t l a b 表示为 gaussmf(x,[σ, c])
-(x -c ) 22σ2
0. 90. 20. 80. 60. 30. 10. 40. 5A B A B u u u u 1234u u u u
3
4
(3) S 形隶属函数
S 形函数s i g m f (x , [a c ]) 由参数a 和c 决定:f (x , a , c ) =
11+e -a (x -c )
其中参数a 的正负符号决定了S 形隶属函数的开口朝左或朝右,用来表示“正大”或“负大”的概念。M a t l a b 表示为sigmf(x,[a,c])
(4)梯形隶属函数
⎧0
⎪x -a ⎪⎪b -a ⎪
梯形曲线可由四个参数a ,b ,c ,d 确定:f (x , a , b , c , d ) =⎨1
⎪d -x ⎪
⎪d -c ⎪⎩0
trapmf(x,[a,b, c, d])
x ≤a a ≤x ≤b b ≤x ≤c c ≤x ≤d x ≥d
其中参数a 和d 确定梯形的“脚”,而参数b 和c 确定梯形的“肩膀”。 M a t l a b 表示为:
(5) 三角形隶属函数
⎧0
⎪x -a ⎪⎪b -a
三角形曲线的形状由三个参数a ,b ,c 确定f (x , a , b , c ) =⎨
⎪c -x ⎪c -b ⎪0⎩
[a,b, c]) 为trimf(x,
x ≤a a ≤x ≤b b ≤x ≤c x ≥c
其中参数a 和c 确定三角形的“脚”,而参数b 确定三角形的“峰”。 M a t l a b 表 示
(6)Z 形隶属函数
这是基于样条函数的曲线,因其呈现Z 形状而得名。参数a 和b 确定了曲线的形状。
图
S 形隶属函数(M =3) 图 高斯型隶属函数(M=1)
图 梯形隶属函数(M=4) 图 三角形隶属函数(M =5)
图 Z 形隶属函数(M=6) 例 3-10 设
⎡0. 70. 1⎤
A =⎢⎥
⎣0. 30. 9⎦
⎡0. 40. 9⎤B =⎢⎥
⎣0. 20. 1⎦
则
0. 7∨0. 40. 1∨0. 90. 70. 9⎡⎤⎡⎤A B ==⎢⎥⎢⎥0. 3∨0. 20. 9∨0. 10. 30. 9⎣⎦⎣⎦
1-0. 71-0. 10. 30. 9⎡⎤⎡⎤A ==⎢⎥⎢⎥1-0. 31-0. 90. 70. 1⎣⎦⎣⎦
0. 110. 6
++b b a 0. 7∧0. 40. 1∧0. 90. 40. 1⎡⎤⎡⎤
A B ==⎢⎥⎢⎥0. 3∧0. 20. 9∧0. 10. 20. 1⎣⎦⎣⎦
例3-9 设论域x={a1,a 2,a 3},y={b1,b 2,b 3},z={c1,c 2,c 3},已知
A =
0. 510. 1
++a a a
B =
C =
0. 41
+c c
123
123
12
试确定“If A AND B then C”所决定的模糊关系R ,以及A 1. 00. 50. 11=
a ++
1a 2a 3
B 0.10.511=
b ++
1b 2b 3时的输出C 1
。
⎡0.5⎤
⎡0.1
0.50.5A ⨯B=A T ∧B =⎢⎢1⎥⎥∧[0.11
0.6]=⎢⎤解:
⎢⎢0.1
1.0
0.6⎥⎣0.1⎥⎦
⎢⎣0.1
0.1
0.1⎥⎥⎦
将A ×B 矩阵扩展成如下列向量:
R=(A ⨯B )T1
⨯C= [0.10.50.50.11.00.6
0.10.10.1]T
[0.41]
0.10.10.1⎤T
=⎡⎢
0.10.4
0.40.10.40.4⎣0.10.5
0.5
0.11
0.6
0.10.10.1⎥⎦
当输入为A 1和B 1时,有:
(A ⨯B )
T2
=[0.10.510.10.50.50.10.10.1]
⎡1⎤
⎡0.1
0.51⎤(A =A T
1
⨯B ⎥
1⨯B 1)1=⎢⎢0.5⎥∧[0.1
0.5
1]=⎢0.5
0.5⎥⎢⎢0.1
⎣0.1⎥⎦
⎢⎣0.1
0.1
0.1⎥⎥⎦
将A
1×B 1矩阵扩展成如下行向量:
最后得
C 1=[0.10.51
0.1
0.5
0.5
0.1
0.1
0.1] ⎡0.10.40.40.10.40.40.1⎢
⎣0.1
0.5
0.5
0.1
1
0.6
0.1
=[0.4
0.5]
C 0.4即:
1=
c +0.5
1c 2
(8) 模糊控制原理框图
0.10.1⎤T
0.1
0.1⎥⎦
(9) 模糊控制器的构成 (模糊控制器的组成框图)
(10) 模糊控制器结构类型
1 单变量模糊控制器
(a ) 一维模糊控制器 如图所示,一维模糊控制器的输入变量往往选择为受控量和输入给定的偏差量E 。由于仅仅采用偏差值,很难反映过程的动态特性品质,因此,所能获得的系统动态性能是不能令人满意的。这种一维模糊控制器往往被用于一阶被控对象。
(a ) (b )
(b ) 二维模糊控制器 二维模糊控制器的两个输入变量基本上都选用受控变量和输入给定的偏差E 和偏差变化E C ,由于它们能够较严格地反映受控过程中输出变量的动态特性,因此,在控制效果上要比一维控制器好得多,也是目前采用较广泛的一类模糊控制器
(c ) 三维模糊控制器 如图所示,三维模糊控制器的三个输入变量分别为系统偏差量E 、偏差变化量E C 和偏差变化的变化率E C C 。由于这些模糊控制器结构较复杂,推理运算时间长,因此除非对动态特性的要求特别高的场合,一般较少选用三维模糊控制器。
(11) 将模糊推理结果转化为精确值的过程称为反模糊化。常用的反模糊化有三种:
(1) 最大隶属度法
选取推理结果模糊集合中隶属度最大的元素作为输出值,即 v max (v ) v ∈ V 如果在输出论域V 中,其最大隶属度对应的输出0=v
值多于一个,则取所有具有最大隶属度输出的平均值,即:
N 1N 为具有相同最大隶属度输出的总数。 v 0=v i v =max (v (v )) i N (2) 重心法 v ∈V i =1
为了获得准确的控制量,就要求模糊方法能够很好的表达输出隶属度函数的计算结果。重心法是取隶属度函数曲线与横坐标围成面积的重心为模糊推理的最终输出
μ
∑
μ
值,即v =
m
V
⎰v μ
V
v
(v ) d v
对于具有m 个输出量化级数的离散域情况
⎰μ
v
(v ) d v
v 0=
∑v
k =1m k =1
k
μv (v k )
v
与最大隶属度法相比较,重心法具有更平滑的输出推理控制。
即使对应于输入信号的微小变化,输出也会发生变化。 (3) 加权平均法
工业控制中广泛使用的反模糊方法为加权平均法,输出值由下式决定
∑μ
(v k )
v 0=
∑v k
i
i =1m
m
i
其中系数 k i 的选择根据实际情况而定。不同的系数决定系统具有不
∑k
i =1
i
同的响应特性。当系数取隶属度μV (v i ) 时,就转化为重心法。
(12) 神经元/神经细胞由三部分构成:
(1)细胞体(主体部分):包括细胞质、细胞膜和细胞核; (2)树突:用于为细胞体传入信息;
(3)轴突:为细胞体传出信息,其末端是轴突末梢,含传递信息的化学物质;
45
(4)突触:是神经元之间的接口(10~10个/每个神经元)。一个神经元通过其轴突的神经末梢,经突触与另外一个神经元的树突连接,以实现信息的传递。由于突触的信息传递特性是可变的,随着神经冲动传递方式的变化,传递作用强弱不同,形成了神经元之间连接的柔性,称为结构的可塑性。
(13) 神经网络的分类
根据神经网络的连接方式,神经网络可分为两种形式: (1)前向网络(2)反馈网络(3)自组织网络
(14) 神经网络学习算法按有无导师分类
可分为有教师学习、无教师学习和再励学习等几大类。
(15) 最基本的神经网络学习算法:
H e b b 学习规则、D e l t a (δ) 学习规则、概率式学习规则、竞争式学习规则
(16)神经网络特征
(1)能逼近任意非线性函数; (2) 信息的并行分布式处理与存储; (2)便于用超大规模硬件实行并行处理(3) 能进行学习,以适应环境的变化
(17)神经网络要素
(1)神经元(信息处理单元)的特性;
(2)神经元之间相互连接的形式—拓扑结构; (3)为适应环境而改善性能的学习规则。
(18) B P 网络特点
(1)是一种多层网络,包括输入层、隐含层和输出层
(2)层与层之间采用全互连方式,同一层神经元之间不连接; (3)权值通过δ学习算法进行调节; (4)神经元激发函数为S 函数;
(5)学习算法由正向传播和反向传播组成;
(6)层与层的连接是单向的,信息的传播是双向的。
(19)BP算法的学习过程
由正向传播和反向传播组成。在正向传播过程中,输入信息从输入层经 隐
层逐层处理,并传向输出层,每层神经元(节点)的状态只影响下一层神经元的状态。如果在输出层不能得到期望的输出,则转至反向传播,将误差信号(理想输出与实际输出之差)按联接通路反向计算,由梯度下降法调整各层神经元的权值,使误差信号减小。
(20)神经网络监督控制
y )
(21) 神经网络直接逆动态控制
(22) (1)遗传(2)变异(3)生存斗争和适者生存 (23)遗传算法的基本操作为:(1)复制(2)交叉(3)变异
(24) 遗传算法的构成要素
(1)染色体编码方法 (2)个体适应度评价
(3)遗传算子① 选择运算:使用比例选择算子; ② 交叉运算:使用单点交叉算子;
③ 变异运算:使用基本位变异算子或均匀变异算子。(4)基本遗传算法的运行参数
(25) 遗传算法的应用步骤
第一步:确定决策变量及各种约束条件,即确定出个体的表现型X 和问题的解空间; 第二步:建立优化模型,即确定出目标函数的类型及数学描述形式或量化方法;
第三步:确定表示可行解的染色体编码方法,即确定出个体的基因型x 及遗传算法的搜索空间; 第四步:确定解码方法,即确定出由个体基因型x 到个体表现型X 的对应关系或转换方法; 第五步:确定个体适应度的量化评价方法,即确定出由目标函数值到个体适应度的转换规则;
第六步:设计遗传算子,即确定选择运算、交叉运算、变异运算等遗传算子的具体操作方法。
第七步:确定遗传算法的有关运行参数,即M , G , P c , P m 等参数。