星际争霸1怎么翻译成中文?

下载一个中文补丁,就可以调整成中文了。

暴雪开发的《星际争霸2》作为一款经典的即时战略游戏,也是最喜欢的强化学习和训练的训练环境之一。尤其是2019年DeepMind开发的AlphaStar与人类职业选手的对战之后,引发了一波热潮。

最近北京大学一位教授发表了一篇预印的研究论文,详细介绍了一个基于星际争霸2训练环境的强化学习系统。作者通过将控制和微分对策理论结合到一个特定的强化学习环境中来分析代理人的潜在表现。

并且通过扩展当前的星际争霸游戏,一个对抗性的代理挑战(SAAC)的环境被开发。主要贡献有两个:通过控制与博弈论的结合,强化了对强化学习能力的追求博弈的理解;提出了一个用于追逐游戏的对抗性智能体强化学习环境。

它的设定越来越复杂,有实际意义。背景介绍本文为追击游戏开发了一个强化学习环境,这是一个经典但具有挑战性的问题,具有重要的航空航天应用,如同步和合作拦截,外层大气拦截和搜救行动。这个问题分别在微分对策理论和最优控制理论的分析框架下得到了广泛的研究。

然而,目前大多数研究基本上集中在一个玩家(通常是追捕者)的人工智能(AI)策略上,而其他玩家要么不动,要么无法被AI智能体直接控制,这实际上降低了游戏可能的冲突水平。为了解决这个问题,作者开发了一个强化学习环境。

通过扩展著名的《星际争霸2》的游戏环境,追逐和奔跑的角色都可以由单个代理直接控制。