Google の DeepMind 研究部門は、ゲーム AI の未来は自己学習型ニューラル ネットワークにあるというかなり確固たる主張を行っています。満足できないチェスを永遠に破壊する(BBC のクレジット)、彼らの最新のプロジェクトAI エージェントのチームにゲームのプレイ方法を学習させることでした。クエイク3-Capture The Flagの派生ゲームをゼロから作ります。彼らはそれをマスターしただけでなく、50 万近くのシミュレーション ゲームを経て、これらのボットは人間のプレイヤーよりも優れているだけでなく、チームメイトとしてペアになった場合には人間よりも協力的になります。
プレイされているゲームは、確かに比較的単純なものです。マップは小さい (ただし、手続き的に生成される)、戦闘メカニズムは基本的 (敵に「タグ付け」して、敵に掲げられた旗を落とさせるだけ)、試合は 2 対 2 のみですが、これらの AI は、驚くほど人間らしい戦略をゼロから学習しました。彼らは、必要に応じて基地を守り、チームメイトが占領を決めるのを待っている間に敵の基地にキャンプを張り、危険にさらされていると思われるときにチームメイトを援護します。以下の学習プロセスの内訳ビデオをご覧ください。ここでもっと読む。
純粋にゲーム内スクリプトとして存在する通常のゲームボットとは異なり、これらの AI は人間が行うかのようにゲームと対話します。彼らは世界をピクセル画像のストリームとして認識し、エミュレートされたゲーム コントローラーを通じて入力を入力します。 AI にはゴールを決めるとポジティブなフィードバックが与えられますが、他には何もない初めに。見る方法でも、ゲームをコントロールする方法でも、そして間違いなくスポーンキャンプの方法でもありません。 AI は当初、ブロック状の壁に囲まれたアリーナでトレーニングされましたが、サボテンが点在する、起伏があり、手続き的に生成された砂漠環境でもうまくやっていきました。
AI のトレーニングは大規模な企業環境で行う必要がありますが (大量のシミュレーションが並行して実行されました)、結果として得られるエージェントを消費者規模のハードウェアに導入できるかどうかを確認するのが本当に楽しみです。とにかく、視覚的にゲームを実際に読み取り、リアルタイムでプレイできるほど高速に動作する AI を実行するには、どれくらいの CPU パワーが必要なのでしょうか?これについて詳しく知りたい人は、このテーマに関する DeepMind の完全な論文を参照してください。ここで見つけることができます。