新しいテクノロジーにより、AI はボイスチャットの有害性を検出できるようになりましたが、人間はそれには賢すぎるのかもしれないと思います

テクノロジーを信じていないわけではない、私の問題はテクノロジーが捕まえようとしている人間にある

ゲームに有害性があるのは面白くありません。2020 年の主の年には、有害なプレイヤーを見つけて対処するために人工知能を使用する傾向が高まっているようです。単にテキストチャットのことを言っているわけではありません。 Modulate と FaceIt の両社は、誰かが何かを言う方法からボイスチャットの有害性を検出できると思われる AI を開発しました。

私の中で、これは良いアイデアだと感じている部分があります。それらを素早く簡単に取り除く方法があるのは素晴らしいことです。ただし、AI が人種差別的になることを学習するという話をあまりにも多く聞いたので、ビデオ ゲームに導入するのに最適なテクノロジーなのかどうかは疑問です。

先週、Modulate は新しい機能を発表しました。ToxMod と呼ばれる AI を活用したモデレーション ツール。機械学習モデルを使用してプレイヤーが何を言っているか、またどのように言っているかを理解し、誰かがボイスチャットで意地悪をしているかどうかを認識します。そのアイデアは、誰かが悪口を言った場合、これらの AI がそれが意地悪な悪口か善意の悪口かを判断できるというものです (「クソ野郎!」と「クソ野郎!」を考えてください)。

同様に、FaceIt は最近、毒性対策 AI 管理システム Minerva が音声チャットも監視できるようになったと発表しました。彼らは、以下を含むゲームにおけるサードパーティのトーナメントやリーグのプラットフォームを運営しています。CS:GOロケットリーグそしてドータ2、そしてミネルバはすでに190万以上の有害なメッセージを検出し、10万人以上のプレイヤーを禁止したと主張している。の大きなニュースそれは、ミネルバがプレイヤー間の完全な会話を分析し、有害な可能性のあるボイスチャットや迷惑な反復的な動作や音を検出できるようになったということです。確かにこれは素晴らしい技術ですが、この種の AI がもっと一般的になったら、どれほどうまく機能するだろうかと思わずにはいられません。

前置きしておきますが、私の疑念は主に人間によるものだと思います。 ToxMod の技術を使えば、AI が自分の声の調子を聞いているとプレイヤーが知っていれば、いい感じにひどいことを言ってしまう可能性があります。このような自動モデレーション システムにすべてを任せたとしても、礼儀正しいプレーヤーとして見なされ、摘発されない可能性がある、賢くても恐ろしい人々がたくさんいます。

AI の機械学習が動的である場合、AI は、正直に言うと非常に操作的になる可能性がある人間から仕事中に直接学習していることになります。しかし、人間から与えられたデータから学習しているのであれば、人間の偏見も同様に簡単に吸収できる可能性があります。

すべての AI や機械学習が愚かだと思うわけではありませんが、それは宇宙人 (または幼児) に人間がどのように行動すべきかを教えるようなものです。 AI が奇妙かつ真っ向から悪い行動を学習する例はかなりの数あります。最も有名なのはテイでした。Twitterで人種差別的であることを学んだMicrosoftのチャットボット(人種差別的な内容をスパム送信する人々から)。さらに深刻な事件が絡んでいる囚人のリスク評価を実行するために設計されたアメリカのソフトウェア、白人の2倍の割合で黒人を再犯の可能性があると分類するという間違いを犯しました(提供されたデータから学びました)。ビデオゲームは明らかにそれよりも深刻ではありませんが、同様の意味で、ある種のゲーム AI が特定のアクセントや方言がより意地悪に聞こえることを自らに教える (または実際に教えられる) 可能性があるような気がします。他の人よりも。これらのクールな AI がすべて人種差別主義者になると言っているわけではありませんが、しかし!歴史的に見て、私たちは彼らにそうならないように教えるのが得意ではありません。

私はたくさんのゲームをプレイしていますが、そこでは意地悪な意見を吐き出そうとする声の悪い野郎がたくさんいます。などのボイスチャットは気にしませんオーバーウォッチまたは大切にする。私は愚かな性差別的なコメントをすべて経験してきたし、もう特に私を非難することさえない(クソみたいなことを言う人にはジョークが2つほどある)、もううんざりしている。しかし、このことから私が学んだことは、もし人々があなたに対して嫌なことをしたいが、声ではそれができない場合、彼らは方法を見つけるだろうということです。悲しむこと、チームを殺すこと、試合を投げること、AFKを続けることなど、ビデオゲームをつまらないものにしようと決意する人もいます。

AI は優れたテクノロジーであり、意図したとおりに機能するのであれば素晴らしいことです。しかし、多くのゲームの基本的なレポートおよびブロック システムがそもそも適切に機能しない場合、それはかなり高度なものであるように見えます。私にとって、プレイヤーが他のプレイヤーに呼びかけることは、有害な行為に対処する最善の方法のように思えますが、不快な行為を永久に排除するには自動システムとうまく連携する必要があります。より堅牢なレポート システムを構築して、より良い成果を上げることができるようにするのが私の目標です。残念ながら、多くの人間は人工知能だけでは捕まえられないほど賢く、意地悪すぎると思います。

YouTubeで見る