終わりの始まりなどとGIZMODO USは言っていない

ギズモード・ジャパン、そうこ氏の「終わりの始まり…? 独自言語で話しはじめた人工知能、Facebookが強制終了させる」が元のGIZMODO USのTom McKay氏の「No, Facebook Did Not Panic and Shut Down an AI Program That Was Getting Dangerously Smart」と余りにも違い過ぎて酷過ぎるのでGIZMODO USの記事の翻訳文を書いてみました。これを読むとギズモード・ジャパンの記事がいかに幼稚で馬鹿げたことを投稿しているのかが分かるかと思います。何故、原文をそのまま紹介しないのか?面白おかしければいいという日本のメディアの姿勢がそこに現れている気がします。





いいや、Facebookはパニックに陥らなかったし、人に危険となる程賢くなっていたAIプログラムなんてものを停止したりもしていない

トム・マッケイ

最近数週間で、Facebookの実験的機械学習の研究に関する話は、ますますパニックを煽るような、スカイネットを想起させるような見出しを付けられ流布している。

「ボットが独自言語を開発したので、Facebookのエンジニアがパニック状態に陥り、AIの電源プラグを引っこ抜いた」とあるサイトは書いた。 「AIが独自の不気味な言葉を作り出したので、FacebookはAIを停止した」 と別のサイトは書く。 「我々人間はフランケンシュタインの怪物を創造したのか?」とまた別のサイトは問う。 ある英国のタブロイド紙は、本件は「人工知能の意見に従う危険性」とこのような技術が軍用ロボットに投入されれば「破滅的となる可能性がある」と あるロボット工学の教授の言を引用した。

来るべきロボット革命、殺人ロボット、 悪意あるAI そして人類絶滅といった言葉が溢れた。中には他のものよりは多少真面目なものもあった。 頻繁に引用されたのはこのくだりだ。2つのFacebookのチャットボットが、明らかに相当身の毛のよだつ感じで互いに話をすることを学んでいたという描写だ。

ボブ:私はできる 私 私 他の何でも
アリス:複数のボールは私にとってゼロを持っている私に私に私に私に私に私に私に に
ボブ:あなたは 私は他の何でも
アリス:複数のボールは私にとって1つのボールを持っている私に私に私に私に私に私に私に


事実はもっと面白みにかけるものだ。数週間前、 FastCo Designは、交渉ソフトウェアを開発する目的の為の「生成的対立ネットワーク」を開発するFacebookの取り組みについて報告した。

上記で引用された2つのボットは、6月のFacebook AI研究ユニットのブログ記事で説明されたように、「目標が異なる複数の対話プログラム(エンドツーエンドで教育されたニューラルネットワークとして実行される)が共通の決定や成果に達しながら、他のボットや人と開始から終了まで交渉に携わることが可能である」ことを示す目的で作られたものである。

ボットは与えられたアイテムの配列(本や帽子やボールといったどうということはない物としてUIに表されている)を双方で同意出来る分け方で分割する方法を互いに議論する以上のことは何もしていなかった。

その目的は、人間の相互作用からエンドユーザとの取引を交渉することを学ぶことができる、ユーザがロボットと話をしていることに気付かないほどスラスラと話すチャットボットを開発することであった。FAIRは成功だったと言う。

「強化学習と対話ロールアウトを利用するFAIRの最高の交渉プログラムのパフォーマンスは、人間の交渉者に匹敵する... FAIRのボットは英語を話すことができるだけでなく、何を言うべきか知的に考えることができることを実際にやってみせた」

Facebookが半インテリジェントな2つのボットに互いに話しかけるよう指示したとき、プログラマーが人間が理解できる英語のルールに従ってコミュニケーションするようチャットボットに促さなかったことでエラーを起こしたとFastCoは報告した。 お互いから学ぼうとする中で、かくてボットは導き出した略表現で行きつ戻りつチャットを始めた。気味悪く思えるかもしれないが、単にそれだけのことだ。

FAIRの訪問研究者、ドルフ・バトラー氏は、「プログラムは理解できる言語から逸脱し、自分達のためのコード語をでっち上げる」と語った。『 私が「the」を5回言うと、あなたはそれは私がこのアイテムが5つ欲しいという意味だと解釈する。 これは、人間集団が簡略化した表現を作り出す方法とそんなに変わらないのです。』

Facebookは本当にAI同士の会話を止めたが、スカイネットとなる可能性のあるものを解き放ってしまったとパニックになったからではない。 FAIRの研究員マイク・ルイス氏はFastCoに対し、こう話した。「私たちの関心は、人々と話すことができるボットを持つこと」で、互いに効率的に話すボットではないと決定しただけだ。従ってボットに互いに明瞭に話すよう求めることに決めた。

しかし、チャットボットが行っていたことと全く異なるというわけではないが伝言ゲームで、この物語は、機械学習技術の潜在的な短期的意味合いのバランスの取れた見解から薄いベールで覆われた破滅の予言へと発展した。

インテリジェントマシンに人間が理解できない言語を開発させないようにすることには、おそらくもっともな理由があるだろう。が、再び言うがこれは2つの機械学習装置を使って互いに学び合うようにする時に起こる比較的ありふれた現象なのだ。 ボットの省略表現が説明された時点で、生じた会話はボブもアリスもどちらも理解できるものであり、説明の前には気味悪かったものが実はそうではないのだということに注意されたい。

FastCoが指摘しているように、このような機械学習によって、スマートデバイスやシステムが互いにより効率的に通信できるようになる可能性がある。 これらの益にはいくつか問題があるかもしれない。間違ったシステムをデバッグすることがどれほど難しいかを想像してみるといい。しかし、それは人間の制御からマシンインテリジェンスを解き放つこととはまったく異なる。

今回の場合、チャットボットがすることができた唯一のことは、互いのボールを交換する、より効率的な方法を考え出すことだった。

改良された医学診断のような機械学習技術の良い使い方がある一方、潜在的に非常に悪い使い方、例えば警察が抗議行動を取り締まるのを正当化するために使用できる暴動予測ソフトウェアのようなものがある。これら全ては大量のデータを蓄積し分析するのに欠かせない方法であり、これまでのところ、その危険性は主に人間がその力をどのように分配し使用することを選択するのかということと関係している。

人間には、実験的な機械学習プログラムをレーザーを備えたアンドロイドの軍隊や原子炉のような非常に危険なものと繋がない程に賢明になってくれることを願う。しかし、もし誰かがそんなことをして惨事が起きたとしても、それは人間の過失や愚かさの結果であり、ロボットがいかに人間が邪悪であるかを淡々と暴露したからではない。

少なくともまだ機械学習は真のAIには至っておらず、その技術の初期の手探り状態に過ぎない。2017年に誰かがこのニュースでパニックに陥ったのであれば、それはAIにより職が無くなるかもしれないプロの交渉担当者だ。



0 件のコメント :

コメントを投稿

Recent Posts