ユービーアイソフトとライオットはAIを使った有害なオンラインチャットに取り組むために提携しているが、それがどのように機能するのかについては大きな疑問が残っている

「この問題は単独で解決できないことはわかっています」とライオットは語る

こんなふうに感じたことはありますかマルチプレイヤーゲーム他のプレイヤーが虐待を減らしたらもっと良くなるでしょうか?ユービーアイソフトとライアットゲームズは、ゲーム内チャット内の不正行為に対処するための人工知能のトレーニングを検討している。これは両社が研究協力と呼んでいるものだ。通信における被害ゼロ。今日の発表に先立ち、私は共同プロジェクトについてさらに洞察を得るために、Ubisoft La Forge のエグゼクティブ ディレクターである Yves Jacquier 氏と Riot の技術研究責任者である Wesley Kerr 氏にいくつかの質問をし、彼らの提案がどのように機能するかを正確に尋ねました。

Rainbow Six Siege は、Ubisoft の中核となるマルチプレイヤー ゲームの 1 つです。YouTubeで見る

これを読んだ後、あなたはおそらく「これらの企業は有害物質に取り組んでいるのだろうか?」と疑問に思うでしょう。本当に?"ユービーアイソフトそして暴動彼らは、企業文化の中で不適切な行為を行ったとされる過去を持っています。両社は行動変容に取り組んでいると述べているが、自社の歴史を知っているプレイヤーの心をつかむのは難しいかもしれない。まだ初期段階ではあるものの、Zero Harms In Comms は業界全体に関わる厄介な問題に協力して答えようとする試みですが、チャットにおける破壊的な行為の問題に対する可能な対応の 1 つにすぎません。

Ubisoft と Riot は両方ともすでにメンバーですフェアプレイアライアンスオンライン ゲームの荒野の中に公正、安全、包括的なスペースを構築するという既存の共通の取り組みと、Zero Harms In Comms がチャットの有害性の問題に対処するために選択した方法です。両社は調査対象がテキストチャットか音声チャットか、あるいはその両方かは明らかにしていないが、この取り組みの「倫理とプライバシーの保証」を目指しているとしている。

UbisoftとRiotは、その研究結果を利用して、ゲーム業界全体がデータを収集できる共有データベースを作成し、それを使ってAIモデレーションツールを訓練して、危険な行為を先制的に検出して対応できるようにしたいと考えている。 Zero Harm In Comms プロジェクトの中心となる AI をトレーニングするために、Ubisoft と Riot はそれぞれのオンライン中心の多様なゲームからのチャットログを利用しています。これは、データベースには、オンラインでフラグを立てたりイーティングしたりするときに遭遇する可能性のあるプレーヤーのタイプと行動を幅広くカバーする必要があることを意味します。もちろん、AI トレーニングは絶対確実というわけではありません。私たちは皆、Microsoft の AI チャットボットを覚えています。偏屈者になった確かにこれは極端な例ですが、1日以内に。

Zero Harms In Comms プロジェクトは昨年 7 月に始まりました。 「これは複雑なテーマであり、単独で解決するのはもちろんのこと、非常に難しい問題です」とジャキエ氏は私に語った。 「私たちは、集団的な行動と知識の共有を通じて業界として団結することで、より効率的に取り組み、ポジティブなオンライン体験を促進できると確信しています。」ジャッキエ氏は当初、ユービーアイソフトを代表してカー氏にアプローチをとったが、それは両者が以前にライオットのテクノロジー研究への投資拡大に協力したことがあったからだ。ジャッキーエとカーは、研究の 2 つの目的を確立しました。 1 つ目は、プライバシーと機密性を保護する GDPR 準拠のデータ共有フレームワークを作成することです。 2 つ目は、収集したデータを使用して最先端のアルゴリズムをトレーニングし、「有害なコンテンツ」をより効果的に検出することです。

ライアットゲームズの技術研究責任者ウェスリー・カー氏(左)とユービーアイソフト・ラフォージのエグゼクティブディレクターイブ・ジャキエ氏(右)

ライオットは、ユービーアイソフトと協力することで、研究を通じて達成できることがさらに広がると感じている、とカー氏は語った。 「Ubisoft には、Riot のプレイヤー ベースとは異なるプレイヤーが多数集まっています」と彼は言います。「そのため、これらの異なるデータ セットを取得できれば、破壊的な行為の本当に困難でエッジなケースを検出し、より堅牢なモデルを構築できる可能性があります。 」ユービーアイソフトとライオットは今のところ他の企業に参加を打診していないが、将来的には参加する可能性がある。 「研究開発は難しく、競合する 2 社が研究開発プロジェクトのデータと専門知識を共有するには、多大な信頼と、反復できる管理可能なスペースが必要です」とジャキエ氏は言います。

私はジャッキーアとカーに、チャットにおける破壊的な行為とはどのようなものであると考えるかを定義するよう依頼しました。ジャキエ氏は、コンテキストが重要だと語ります。 「ほとんどの商用サービスやツールには強い制限があります。多くは簡単に回避できる冒涜的な言葉の辞書に基づいており、行の文脈が考慮されていません」と彼は言います。たとえば、対戦型シューティングゲームで、プレイヤーが『あなたを倒しに来ます』と言った場合、それはファンタジーの一部であるため許容される可能性がありますが、別のゲームでは脅威として分類される可能性があります。」研究者らは、チャットからそのコンテキストを収集できるように AI を訓練しようとしているが、自分たちが信じられないほど複雑なタスクを設定していることを認めた。カー氏は、行動は「文化、地域、言語、ジャンル、コミュニティ」によって異なる可能性があると指摘しています。

前述したように、このプロジェクトは AI と人間の言語を解釈する能力の向上を中心に展開しています。 「従来の方法は完全な精度を提供しますが、拡張性がありません、とジャキエ氏は言います。 「AI は拡張性がはるかに優れていますが、精度が犠牲になります。」カー氏は、これまでチームは AI を使用して特定のキーワードをターゲットにすることに取り組んできたが、それでは常に何らかの破壊的な行動が見逃されるだろうと付け加えた。 「自然言語処理、特に最近の大規模な言語モデルの進歩により、単にキーワードを探すだけでなく、使用されている言語のコンテキストやニュアンスをさらに理解できるようになっています。」と彼は言います。

Project U は、Ubisoft によって開発された今後のセッションベースのシューティング ゲームです。

ジャキエ氏は、プライバシーが研究の中核的な原則であると保証します。 「これらのデータは、まず個人を特定できる情報や個人情報がすべて削除され、次に行動によってラベル付けされます。たとえば、完全に中立、人種差別、性差別などです。」と彼は言います。その後、データは AI に渡され、破壊的な動作を発見したときにそれを理解できるように AI をトレーニングします。これらの AI は自然言語処理 (NLP) アルゴリズムであり、ジャキエ氏によると、辞書ベースの技術の成功率は 20% であるのに対し、有害なコンテンツは 80% 検出できるそうです。

カーは、これらの NLP アルゴリズムを私のためにもう少し詳しくトレーニングするために、データの収集とラベル付けのプロセスを細分化します。 「データは、プレーヤーのチャット ログ、追加のゲーム データ、および存在する場合はどのようなタイプの妨害行為があるかを示すラベルで構成されます」と彼は言います。 「ラベルの多くは内部で手動で注釈が付けられており、モデルが破壊的な動作が発生したと確信している例には、半教師ありの手法を活用してラベルを追加しています。」破壊的な行動をできるだけうまく検出するために、NLP アルゴリズムのトレーニングには「何百、何千もの例」が含まれ、その中のパターンを見つける方法を学習します。

もちろん、この部屋にいるもう 1 頭の象がプレイヤーです。オンラインにアクセスするときは常に、匿名であろうとなかろうと、他の人々との悪いやり取りのリスクにさらされます。私はジャッキーアとカーに、プレイヤーがゲーム内でのコンボを AI が判断することにどう反応すると思うか尋ねました。ジャキエ氏は、これは業界の有害な空間に取り組むための第一歩にすぎないと認めた。 「私たちの希望は、オンライン ゲーム コミュニティでの破壊的な行為が少なくなり、プレイヤーが意味のある前向きな変化に徐々に気づくことです」と彼は言いました。カー氏は、「Zero Harm In Comms」のようなプロジェクトが有意義な方法で行動を変えるには時間がかかることをプレイヤーに理解してもらいたいと付け加えた。おそらくプレイヤーは、かつてのようにお互いに親切にしてみるとよいでしょう。オーバーウォッチ監督 ジェフ・カプラン一度提案された?。

League Of Legends などのオンライン ゲームは、Riot Games の基礎となっています。

ジャッキー氏もカー氏も、AI ベースのツールが破壊的な行為を検出した場合にプレイヤーに実際に何が起こるかについては言及しませんでしたが、Zero Harm プロジェクトの最終的な結果は「一夜にしてプレイヤーが目にするものではないでしょう」。この研究はまだ初期のデータ収集段階にあり、そのデータを実際に使用して破壊的な行為をより適切に検出するという第 2 段階には程遠い。 「できるだけ早くプレイヤーに発送します」とカーは私に語った。 Zero Harm In Comms はまだ初期段階にありますが、ユービーアイソフトとライオットの両社は、この研究が最終的には広範囲にわたる前向きな結果をもたらし、ゲーム業界全体やその他の業界と共有できることを期待しています。 「この問題は単独で解決できないことは分かっています」とカー氏は言い、ジャッキー氏も「2022年は誰もがオンラインで、誰もが安全だと感じるべきだ」と同意する。

そうは言っても、この研究プロジェクトが報告すべき有意義なものになるかどうかはまだ定かではない、とジャキエ氏は指摘する。 「結果をどのように共有するかを決定するのは時期尚早です。なぜなら、それはこの第 1 段階の結果次第だからです」と彼は言います。 「業界を超えたデータ共有を可能にする成功したフレームワークは存在するでしょうか?実用的なプロトタイプはできるでしょうか?」プロジェクトがどうなるかに関係なく、両社は来年その成果を共有するとしている。