1: 2019/06/07(金) 07:25:16.29 ID:CAP_USER
複数人対戦ゲームでもAIが人間に勝利、グーグル親会社傘下企業が開発
https://www.afpbb.com/articles/-/3228148
https://www.afpbb.com/articles/-/3228148?page=2
2019年6月4日 11:25 AFPBB News
【6月4日 AFP】人工知能(AI)はこれまでチェスや囲碁など1対1で対戦するゲームで人間に勝ってきたが、チームワークが求められる複数人が対戦するゲームでも人間を負かすことができたとの研究結果が5月30日、
米科学誌サイエンス(Science)で発表された。
このAIの開発を手掛けたのは米IT大手グーグル(Google)の親会社アルファベット(Alphabet)傘下のAI開発企業ディープマインド(DeepMind)で、
AIの「エージェント」らにマルチプレーヤー型ファーストパーソン・シューティングゲーム(FPS、本人の視点で戦うゲーム)を自習させ、人間と対戦させた。
コンピューターはこれまでにも、1対1の対戦ゲームでは人間を打ち負かしたことがある。
例えば、1997年には米IBMが開発したディープ・ブルー(Deep Blue)が、チェスの王者ガルリ・カスパロフ(Gary Kasparov)氏を破った。
また、2017年には、グーグルが開発したAIが世界トップレベルの棋士に勝利している。
だが、複雑な状況下で、チームワークと意思疎通が求められるマルチプレーヤーゲームについては、人間に勝てていなかった。
マックス・ジェイダーバーグ(Max Jaderberg)氏率いるチームは開発に当たり、「クエイクIIIアリーナ(Quake III Arena)」の修正版を使用した。
このゲームは1999年にリリースされたFPSで、現在もeスポーツ界で人気を保っている。
また、ゲームモードは「キャプチャー・ザ・フラッグ(CTF)」と呼ばれる旗取りゲームを選択した。
チームメートと連携し、防御しながら相手チームの旗を奪うもので、プレーヤーは攻撃と防御を組み合わせた複雑な戦略を練る必要がある。
研究ではエージェントに自己学習させ、人間のプロのゲームテスターと対戦できるまで能力を高めた。
研究チームによると「12時間練習をした後でも、人間のプロゲームテスターらのエージェントチームに対する勝率は25%にとどまった」。
一方エージェントは、反応時間を人為的に低下させ人間の水準に合わせても、人間の能力を上回っていたという。
■「ファスト&スロー」
研究チームはエージェントの学習にいわゆる「強化学習(RL)」を用いた。
エージェントは旗を奪うと報酬が得られることを教えられるが、研究チームは強化学習の可能性をさらに広げる革新的方法を考案した。
「各エージェントが自身の内部報酬信号を学習したことが今回の研究結果の成果の一つだ」とジェイダーバーグ氏は指摘する。
これは、旗を奪ったり、相手を撃ったりといったさまざまなタスクを達成すると、AIプレーヤーはその重要度に応じて自身に報酬を与えるということを意味する。
研究チームはまた、エージェントを個別に訓練するよりも、まとめて訓練した方がチーム全体としてはるかに速く学習できることも発見した。
さらに「二つの時間スケール」学習と呼ぶ新たな構造も考案した。
ジェイダーバーグ氏はこれをダニエル・カーネマン(Daniel Kahneman)の著作「ファスト&スロー(Thinking Fast and Slow)」に例えている。
「素早く考えて素早く考えを更新するエージェントと、ゆっくり考えてゆっくり考えを更新するエージェントに分けると、2種類の考えが互いに影響し合い、エージェントが世界について学習する方法を構築する手助けとなる」と
ジェイダーバーグ氏は説明した。
続きはソースで

https://www.afpbb.com/articles/-/3228148
https://www.afpbb.com/articles/-/3228148?page=2
2019年6月4日 11:25 AFPBB News
【6月4日 AFP】人工知能(AI)はこれまでチェスや囲碁など1対1で対戦するゲームで人間に勝ってきたが、チームワークが求められる複数人が対戦するゲームでも人間を負かすことができたとの研究結果が5月30日、
米科学誌サイエンス(Science)で発表された。
このAIの開発を手掛けたのは米IT大手グーグル(Google)の親会社アルファベット(Alphabet)傘下のAI開発企業ディープマインド(DeepMind)で、
AIの「エージェント」らにマルチプレーヤー型ファーストパーソン・シューティングゲーム(FPS、本人の視点で戦うゲーム)を自習させ、人間と対戦させた。
コンピューターはこれまでにも、1対1の対戦ゲームでは人間を打ち負かしたことがある。
例えば、1997年には米IBMが開発したディープ・ブルー(Deep Blue)が、チェスの王者ガルリ・カスパロフ(Gary Kasparov)氏を破った。
また、2017年には、グーグルが開発したAIが世界トップレベルの棋士に勝利している。
だが、複雑な状況下で、チームワークと意思疎通が求められるマルチプレーヤーゲームについては、人間に勝てていなかった。
マックス・ジェイダーバーグ(Max Jaderberg)氏率いるチームは開発に当たり、「クエイクIIIアリーナ(Quake III Arena)」の修正版を使用した。
このゲームは1999年にリリースされたFPSで、現在もeスポーツ界で人気を保っている。
また、ゲームモードは「キャプチャー・ザ・フラッグ(CTF)」と呼ばれる旗取りゲームを選択した。
チームメートと連携し、防御しながら相手チームの旗を奪うもので、プレーヤーは攻撃と防御を組み合わせた複雑な戦略を練る必要がある。
研究ではエージェントに自己学習させ、人間のプロのゲームテスターと対戦できるまで能力を高めた。
研究チームによると「12時間練習をした後でも、人間のプロゲームテスターらのエージェントチームに対する勝率は25%にとどまった」。
一方エージェントは、反応時間を人為的に低下させ人間の水準に合わせても、人間の能力を上回っていたという。
■「ファスト&スロー」
研究チームはエージェントの学習にいわゆる「強化学習(RL)」を用いた。
エージェントは旗を奪うと報酬が得られることを教えられるが、研究チームは強化学習の可能性をさらに広げる革新的方法を考案した。
「各エージェントが自身の内部報酬信号を学習したことが今回の研究結果の成果の一つだ」とジェイダーバーグ氏は指摘する。
これは、旗を奪ったり、相手を撃ったりといったさまざまなタスクを達成すると、AIプレーヤーはその重要度に応じて自身に報酬を与えるということを意味する。
研究チームはまた、エージェントを個別に訓練するよりも、まとめて訓練した方がチーム全体としてはるかに速く学習できることも発見した。
さらに「二つの時間スケール」学習と呼ぶ新たな構造も考案した。
ジェイダーバーグ氏はこれをダニエル・カーネマン(Daniel Kahneman)の著作「ファスト&スロー(Thinking Fast and Slow)」に例えている。
「素早く考えて素早く考えを更新するエージェントと、ゆっくり考えてゆっくり考えを更新するエージェントに分けると、2種類の考えが互いに影響し合い、エージェントが世界について学習する方法を構築する手助けとなる」と
ジェイダーバーグ氏は説明した。
続きはソースで

引用元: ・【IT】複数人対戦ゲームでもAIが人間に勝利、グーグル親会社傘下企業が開発
複数人対戦ゲームでもAIが人間に勝利、グーグル親会社傘下企業が開発の続きを読む