强化学习(RL)是一种介于有监督学习和无监督学习之间的机器学习算法。它通过不断试错和学习来解决问题。在训练过程中,强化学习会采取一系列决策,并根据执行的操作获得奖励或惩罚。其目标是最大化总奖励。强化学习具有自主学习和适应能力,能够在动态环境下做出优化决策。与传统的监督学习相比,强化学习更适用于没有明确标签的问题,并且可以在长期决策问题中取得良好的效果。
强化学习的核心是根据代理执行的操作来强制执行行为,代理根据行动对总体目标的积极影响来获得奖励。
强化学习算法主要有两种类型:
基于模型与无模型学习算法
基于模型的算法
基于模型的算法使用转换和奖励函数来估计最优策略。在基于模型的强化学习中,代理可以访问环境模型,即从一种状态到另一种状态所需执行的操作、附加的概率和相应的奖励。它们允许强化学习代理通过提前思考来提前计划。
无模型算法
无模型算法是在对环境动态的了解非常有限的情况下找到最优策略。没有任何过渡或奖励来判断最佳政策。直接根据经验估计最优策略,即只有代理与环境之间的交互,没有任何奖励函数的提示。
无模型强化学习应该应用于环境信息不完整的场景,如自动驾驶汽车,在这种情况下,无模型算法优于其他技术。
强化学习最常用的算法框架
马尔可夫决策过程(MDP)
马尔可夫决策过程是一种强化学习算法,它为我们提供了一种形式化顺序决策的方法。这种形式化是强化学习解决的问题的基础。马尔可夫决策过程(MDP)中涉及的组件是一个称为代理的决策制定者,它与其所在的环境进行交互。
在每个时间戳中,代理将获得环境状态的一些表示。给定此表示,代理选择要执行的操作。然后环境会转变为某种新状态,并且代理会因其先前的操作而获得奖励。关于马尔可夫决策过程需要注意的重要一点是,它不担心即时奖励,而是旨在最大化整个轨迹的总奖励。
贝尔曼方程
贝尔曼方程是一类强化学习算法,特别适用于确定性环境。给定状态的值是通过代理所处的状态下可采取的最大行动来确定的。代理的目的是选择将使价值最大化的行动。
因此,它需要增加状态中最佳动作奖励,并添加一个随着时间的推移减少其奖励的折扣因子。每次代理采取行动时,它都会返回到下一个状态。
该方程式不是对多个时间步求和,而是简化了价值函数的计算,使我们能够通过将复杂问题分解为更小的递归子问题来找到最佳解决方案。
Q-Learning
Q-Learning结合了价值函数,质量根据给定当前状态和代理拥有的最佳可能策略的预期未来值分配给状态-动作对作为Q。一旦代理学习了这个Q函数,它就会寻找在特定状态下产生最高质量的最佳可能动作。
通过最优Q函数就可以通过应用强化学习算法来确定最优策略,以找到使每个状态的值最大化的动作。