摘要: 原标题:Alpha系列背后利器:分布式强化学习 从长远来看,这也证明了DeepMind提出的算法与大脑运作逻辑相似,也就意味着能够更好地拓展到解决复杂的现
原标题:Alpha系列背后利器:分布式强化学习
从长远来看,这也证明了DeepMind提出的算法与大脑运作逻辑相似,也就意味着能够更好地拓展到解决复杂的现实世界问题上。
而且一直以来,哈萨比斯的目标就是打造通用人工智能。
强化学习,就是让智能体在一个未知的环境中,采取一些行动,然后收获回报,并进入下一个状态。
而时间差分学习(temporal difference learning,TD)算法,可以说是强化学习的中心。
它是一种学习如何根据给定状态的未来值,来预测价值的方法。
算法会将新的预测和预期进行比较。
如果发现两者不同,这个“时间差分”就会把旧的预测调整到新的预测中,让结果变得更加准确。
△当未来不确定时,未来的回报可以表示为一种概率分布。有些可能是好的结果(蓝绿色),有些结果可能是不好的(红色)。
一个特定的行为所带来的未来奖励数量,通常是未知且随机。在这种情况下,标准的TD算法学习去预测的未来回报是平均的。
而分布式强化学习则是更复杂的预测方式,会预测所有未来奖励的概率分布。
那人类大脑的多巴胺奖赏机制是怎么样的呢?
然后研究的雏形就在DeepMind研究人员的脑海中生根了。
不研究不知道,一研究真的“吓一跳”。
过去,人们认为多巴胺神经元的反应,应该都是一样的。
有点像在一个诗唱班,每个人唱的都是一模一样的音符。
但研究小组发现,单个多巴胺的神经元似乎有所不同——所呈现的积极性是多样的。
于是研究人员训练小鼠执行一项任务,并给予它们大小各异且不可预测的奖励。
他们从小鼠腹侧被盖区域(Ventral tegmental area,控制多巴胺向边缘和皮质区域释放的中脑结构)中发现了“分布式强化学习”的证据。
这些证据表明,奖励预测是同时并行地由多个未来结果表示的。
这和分布式机器学习的原理也太像了吧?
解释大脑多巴胺系统
实验运用了光识别技术来记录小鼠大脑中腹侧被盖区中单个多巴胺神经元的反应。
腹侧被盖区富含多巴胺与5-羟色胺神经,是两条主要的多巴胺神经通道的一部分
基于强化学习理论,研究假设大脑存在多巴胺的奖赏预测误差(RPE)。
一个信号会引起一个奖赏预测,当奖赏预测低于分布的均值时,会引起负的RPE,而较大的奖励会引起正的RPE。
在一般强化学习中,获得的奖励幅度低于平均值分布将引起消极(负)的RPE,而较大的幅度将引出积极(正)的RPE(如上图a左所示)。
在分布式强化学习中,每个通道都携带不同的RPE价值预测,不同通道的积极程度不同。
这些值的预测反过来又为不同的RPE信号提供了参考点。在最后的结果上,一个单一的奖励结果可以同时激发积极(正)的RPE和消极的RPE(如上图a右所示)。
记录结果显示,小鼠大脑的多巴胺神经元反转点根据积极程度的不同而不同。符合分布式强化学习的特点(如上图b所示)。
为了验证神经元反应多样性不是随机的,研究者做了进一步验证。
将随机地将数据分成两半,并在每一半中独立地估计反转点。结果发现其中一半的反转点与另一半的反转点是相关的。
为了进一步了神经元对奖赏预测的处理方式。研究者给神经元进行了三种不同的信号刺激。
分别是10%、50%、90%的奖赏概率,并同时记录了四个多巴胺神经元的反应。
每条轨迹都是对三种线索之一的平均反应,零时是开始时间。
结果显示,一些细胞将50%的线索编码为90%的线索,而另一些细胞同时将10%的线索编码为10%的线索。
最后 ,研究者还进行了验证,试图从多巴胺细胞的放电率来解码奖赏分布。
通过进行推理,成功地重建了一个与老鼠参与的任务中奖励的实际分配相匹配的分配。
初步验证了小鼠的大脑分布式强化学习机制,给研究员带来了更多的思考:
是什么电路或细胞级机制导致了不对称的多样性?
不同的RPE通道是如何与相应的奖励预测在解剖学上结合?
这些大脑的谜团都有待于进一步了解。
而且这一研究结果也验证了之前多巴胺分布对成瘾和抑郁等精神障碍机制影响的假说。
有理论认为,抑郁症和双相情感障碍都可能涉及关于未来的负面情绪。
这些情绪与未来的负面预测偏差有关,偏差则可能来自于RPE coding28、29中的不对称。
但更多的意义,则是对当前机器学习技术发展的激励。
DeepMind 神经科学研究负责人Matt Botvinick说:“当我们能够证明大脑使用的算法,与我们在人工智能工作中使用的算法类似时,这将增强我们的信心。”
跨学科研究团队的成果