第1章 绪论
1.1 人工智能发展综述
1.1.1 人工智能概述
人工智能(artificial intelligence, AI),一般认为起源于美国1956年夏季的达特茅斯会议,在这次会议上,John McCarthy第一次提出了“artificial intelligence”这个词。人工智能是在科学技术迅速发展及新思想、新理论、新技术不断涌现形势下产生的学科,也是涉及数学、计算机科学、哲学、心理学、信息论以及控制论等学科的交叉和边缘学科。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的新的技术科学,企图了解智能的实质,并产出一种新的、能以人类智能相似的方式做出反应的智能机器。该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等,人工智能是对人的意识、思维过程的模拟,不是人的智能,但能像人那样思考,也可能超过人的智能。
20世纪40~50年代,人工智能处于萌芽阶段。由于计算机的出现,人类开始探索用计算机代替或扩展人类的部分脑力劳动。1949年,Donald Hebb首次提出基于神经心理学的人工神经网络;1950年,Alan Turing创造了图灵测试来判定计算机是否智能;同年,Samuel Arthur开发了一个跳棋程序。
20世纪50~60年代,人工智能处于形成阶段。1956年,在美国达特茅斯会议上,人工智能的概念开始出现。当时,一批数学家、信息学家、心理学家、神经生理学家及计算机科学家聚在一起,探讨用机器来模仿人类智能并提出了人工智能的概念。此后,人工智能的研究集中在数学和自然语言领域。1957年,Frank Rosenblatt设计出计算机神经网络感知机数学模型;1959年,Oliver Selridge推出字符识别程序;1965年,Roberts编制出可以分辨积木三维构造的程序;1969年第一届国际人工智能联合会议的召开,标志着人工智能得到了国际上的认可。
20世纪70~90年代,人工智能进入发展阶段。70年代,人工智能从理论走向应用,知识工程和专家系统成为主流。1974年,Paul Werbos首次提出反向传播(back propagation, BP)算法;1975年,斯坦福大学推出基于知识的科学推理程序Meta-DENDRAL;1977年,Edward Albert Feigenbaum提出知识工程的概念。80年代,机器学习成为人工智能领域的研究热点。1980年,美国召开的第一届机器学习国际研讨会,标志着机器学习的兴起。自此,机器学习理论蓬勃发展。1981年,Kohenl提出了自组织映射神经网络;同年,Werbos提出多层感知器;1982年,John Hopfield提出了模拟人脑的Hopfield循环神经网络;1985年,Hinton等提出了玻尔兹曼机;1986年,Hinton等提出用于深度神经网络的反向传播算法;同年,Ross Quinlan提出了决策树算法,Rumelhart等提出了多层感知机与反向传播训练相结合的方法。1995年,Vladmir Vapnik等提出了支持向量机;1997年,Freund等提出了Adaboost算法。
20世纪90年代末期至今,人工智能进入成熟阶段。90年代末,深度学习研究兴起。1998年,Y. LeCun等提出的卷积神经网络是深度学习的代表算法之一。21世纪,人工智能的发展日益成熟,机器学习和深度学习成为人工智能的研究主流,并在各行业得到了广泛的应用。2001年,William Cleveland提出了数据挖掘的概念;2006年,Hinton等提出了深度学习的概念;2015年Nature发表了Y. LeCun等关于深度学习的综述,标志着深度学习被学术界真正接受;2016年,谷歌开发出AlphaGo程序,其围棋水平已经能够超过人类的顶尖水平[1]。
随着社会经济的快速发展和人工智能技术的不断进步,智能机器人等一些高科技产品逐渐被人们所熟知和使用。进入21世纪以来,人工智能技术和基因工程、纳米技术并称为促进人类进步与发展的三大尖端科技。人工智能技术是利用计算机来控制机器进行人工模拟和操作的一种技术,其应用可以有效降低人的劳动强度且缩减生产成本的投入,能够代替人工完成在生产当中遇到的一些较为复杂的工作,利用智能识别处理系统来代替人工对生产中各个环节的机器操作,由此可以看出,人工智能技术对各行业的发展有着十分重要的现实意义。人工智能发展历程如图1.1所示。
图1.1 人工智能发展历程
1.1.2 人工智能的主要算法
人工智能的核心是算法,不同算法解决不同的问题。人工智能的算法多种多样,主要可以分为进化算法与群智能优化算法、机器学习算法两大类[2],如图1.2所示。
图1.2 人工智能的两类算法
1. 智能启发算法
进化算法与群智能优化算法可称为“软计算”,是学者受自然(生物界)规律的启迪,根据其原理模仿求解问题的算法。智能启发算法在工程应用中越来越受欢迎,因为它们具有依赖于相对简单的概念并且易于实现、不需要梯度信息、可绕过局部*优、可用于涵盖不同学科的广泛问题等优势,只通过输入和输出来考虑和解决优化问题。以遗传算法、免疫算法、蚁群算法及粒子群优化算法为代表,都是由生物的进化或群体行为特性启发而来的智能算法。其中,遗传算法又衍生出进化策略和进化规划两种算法用于寻找*优解。模拟退火算法是由自然界物理现象启发而来的智能算法,能有效地解决局部*优解问题。禁忌搜索算法是由人类有记忆的智力过程启发得来的搜索算法。这些智能算法均可归为启发式智能算法,能够应用于函数全局优化等问题,在电力系统与综合能源系统的规划与运行优化、电力系统的故障诊断、可再生能源发电预测和负荷预测中广泛应用。
2. 机器学习算法
机器学习是研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构,不断完善自身的性能,或者达到操作者的特定要求。机器学习的算法多种、功能多样,其中贝叶斯算法、决策树算法、支持向量机在电力系统的应用较为广泛。贝叶斯算法利用概率统计知识,进行大型数据的分类,具有方法简单、分类准确率高、速度快的特点;决策树算法是通过一系列规则对数据进行分类,能够在相对短的时间内对大型数据源做出可行且效果良好的分类结果;支持向量机可以解决高维问题,能够处理非线性特征的相互作用以及提高泛化能力。机器学习算法有基于线性回归、逻辑回归等解决回归问题的算法,也有基于K均值聚类、层次聚类、密度聚类、图论聚类等解决聚类问题的算法。除此之外,机器学习还有深度学习和强化学习两大分支,深度学习是基于现有的数据进行学习操作,是一种建立、模拟人脑进行分析学习的神经网络,它通过模仿人脑的机制来解释数据,主要有人工神经网络、卷积神经网络、循环神经网络三种方法;强化学习用于描述和解决智能体在与环境的交互过程中通过学习策略以达成回报*大化或实现特定目标的问题,主要有马尔可夫算法、Q学习算法、多智能体等方法,其中马尔可夫算法和Q学习算法在电力系统中的应用较多。
1.2 电力系统中应用人工智能的典型场景
目前,我国工业、商业、居民业等行业对电力能源的需求越来越大,但供电的质量和可靠性均未达到相应的指标,这促使传统电网必须向更加可靠和安全的方向发展。在电网容量日益增大与电压等级不断提高的发展趋势中,自动保护、电力调度、检测维护、系统预测等也急需调整、改善和提高。人工智能技术为电力系统的智能化运行提供了重要的技术支撑,利用人工智能的智能化、快速化和准确化,将人工智能技术与电网的故障诊断、电力自动化调度以及电力预测等相结合,既可以保证电网运行的安全性和可靠性,又可以实时评估和分析电网中重要设备的运行参数等[3,4]。
1.2.1 基于人工智能技术的电力系统负荷与发电预测
1. 负荷预测
电力系统负荷预测在电网调度运行中具有十分重要的作用。负荷与日期、政策﹑天气等多种影响因素相关,由于电力系统本身的非线性特征,电力系统负荷在一定程度上呈现随机的特点,很难建立精确的数学模型来对其进行描述。过去,对于电力系统负荷预测主要是利用传统的预测方法,如趋势外推法、回归分析法和时间序列法等,但是这些方法具有运行时间长、预测精度低、预测性能不足等缺点。随着电网的快速发展,这些方法不足以解决电网的诸多问题,出现了许多弊端。
新一代人工智能技术中的深度学习类算法作为强感知型算法,因其卓越的特征挖掘与映射能力,能充分解决大规模负荷数据中存在的非线性问题。卷积神经网络、深度信念网络、长短期记忆网络、深度递归神经网络及支持向量机等算法都在负荷预测领域中应用广泛。其中,长短期记忆网络具有特殊的记忆结构,能较好地学习时序数据中含有的相关性特征,从而更好地理解负荷变化的不确定性。卷积神经网络则因其池化、卷积等操作可有效地降低网络复杂度,以减少训练参数的数目。深度递归神经网络的输出与网络的历史状态强相关,将其应用于负荷预测时能很好地关联历史数据。上述算法都可在一定程度上提高负荷预测的准确率。
2. 可再生能源发电预测
当前电力系统的典型特征之一是高比例新能源的接入,这一特征的存在使得电力系统不确定性与波动性增强,影响了电网的调度运行和安全稳定。开展不同的能源预测研究可以在一定程度上减小不确定性,从而更好地支撑电力系统的规划与运行。而提高间歇性可再生能源发电功率预测精度的关键是构建具有强大数据处理能力和特征提取能力的预测模型。
深度学习的引入改进了传统浅层预测模型处理数据的能力。可再生能源发电预测问题与负荷预测问题本质上存在共性,长短期记忆网络的记忆能力、深度信念网络与卷积神经网络的特征提取能力、堆叠自编码器的强鲁棒性对提高新能源预测的准确性均表现出良好的效果。此外,迁移学习的引入也为不同风场预测模型的训练节约了大量时间。
1.2.2 基于人工智能技术的电力系统监测辨识与故障诊断
电力系统的故障分析是对电力线路和电力设备的故障进行识别、测距和定位。准确可靠的故障分析及定位对提升继电保护性能、保障电力系统安全稳定运行至关重要。随着智能电网的逐步推进,电力系统发展呈现出新的态势,如电网规模增大且结构更加复杂、高比例接入的分布式电源与集中式电源相结合、电力系统电力电子化趋势明显、感知技术的进步和信息整合带来数据规模爆发式增长等。数据规模庞大、故障机理复杂、算法模型多样化是电力系统新态势下故障分析面临的主要问题。
以深度学习为代表的新一代人工智能技术在基于大数据驱动的特征自学习、强非线性拟合、端到端建模等方面具有极强的优势,如利用并联卷积神经网络对多端直流输电线路进行故障诊断。新一代人工智能技术网络结构灵活,具有足够的网络深度,在应对大数据方面,具有很强的数据降维和处理能力。分布式能源大规模接入、电力电子装置的广泛应用,使得电力系统故障的随机性、非线性大大增强。新一代人工智能技术具有强非线性拟合能力和特征表达能力,能从复杂多变且多影响因素耦合作用下的故障数据中提炼出有利于准确诊断的判别信息。新态势下的电力系统建模分析困难,新一代人工智能技术具备端到端的学习模式,避免了中间环节的误差累积,有利于提升故障诊断的精度和准确率[5]。
1.2.3 基于人工智能技术的电力系统优化
电力系统是一个庞大的系统,其不仅参数数量非常多,而且非线性参数与线性参数混合,使优化问题变得十分复杂。对于这种大规模的混合优化问题,传统的线性规划法、非线性规划法、混合整数法以及动态规划法较为成熟。其中线性规划法通过将非线性的函数和约束条件进行局部线性化处理,再用线性规划方法解决优化问题,具有计算速度快、收敛性较为可靠以及易于处理线性约束问题等优势,目前比较常用的是灵敏度分析法和内点法。但线性规划法计算精度较低且不利于处理大规模的非线性问题。而非线性规划
展开