イーロン・マスクのすすめ

人工知能の脅威から人類を救うボランティア団体

  • 2015年07月3日
  • AI

f:id:Elongeek:20150703002943j:plain

イーロン・マスクが約12億円を寄付したことで有名なFuture of Life Institute(FLI)というボランティア運営の団体があります。イーロン・マスクが大金を寄付した理由は人工知能開発の暴走を阻止するためです。

2015年7月1日、FLIは総額約8億5000万円を37の研究チームに提供すると発表しました。資金の提供をうけた研究チームの多くは人工知能の到来に関連したトピックで研究をすすめます。研究の目的は人工知能に反対することではなく、人工知能が人類にどのような影響を与えるのかを理解することです。

37チームのなかでもっとも高額な資金をうけとったのは、オックスフォード大学の研究チームでした。金額は約2億円で、人工知能の戦略的研究センターの設立へ使われる予定です。約8億5000万円の資金は今後3年間の研究プロジェクトの進行にあわせて提供されます。研究プロジェクトの多くは9月から開始されるそうです。

人工知能の危険性を訴えるイーロン・マスクやFLIは一体どのような考えを持っているのか見ていきましょう。




FLIってどんな団体?

Future of Life Institute(FLI)はボランティア運営の研究支援団体です。ボストンに拠点を構え、人類の存続を脅かす危機を緩和するために活動しています。マサチューセッツ工科大学の宇宙学者マックス・テグマークやSkypeの共同創業者Jaan Tallinnらによって創設されました。

諮問委員会にはイーロン・マスク、理論物理学者のスティーブン・ホーキング、ハーバード大学の遺伝学者ジョージ・チャーチや俳優のモーガン・フリーマンなど個性豊かなメンバーが名を連ねます。

2015年1月、FLIは「人工知能の未来:機会と挑戦」というカンファレンスを主催しました。世界中の人工知能をけん引する人々や経済、法律、倫理の専門家たちが集まりました。

カンファレンスの目的は人工知能から得られる利益を最大化するための研究の方向性を定めること。そして、カンファレンスではイーロン・マスクやスティーブン・ホーキング、その他の大勢の人工知能の専門家が署名したオープンレターが配布されました。人工知能の安全性についてのオープンレターで、FLIの人工知能にたいする見解が集約されています。

FLIが配布したオープンレターにはどんなことが書いてあったの?

オープンレターでは人工知能のポジティブな面とネガティブな面の両方が強調されていました。目的は署名者間で人工知能についての共通の土台を構築するためで、FLI創業者の1人であるマックス・テグマークによって配布されたそうです。

オープンレターの主張によると、人工知能は病気や貧困を撲滅させるポテンシャルを持っているが、研究者は制御できないものを作るべきではないとのことです。一部を抜粋します。

人工知能の)潜在的な利益は巨大である。文明が提供しなければならないものはすべて人間の知能によって生産される製品だからだ。人工知能が提供するツールを使用して知能が拡大されたとき、私たちが何を手に入れるのかは予想はできない。病気や貧困の根絶よりも深遠なものが眠っているのだ。人工知能の圧倒的なポテンシャルを考えれば、潜在的な落とし穴を避けつつ、いかに利益を刈り取ることができるのか研究することは重要である。

Open Letter on Artificial Intelligence – Wikipedia, the free encyclopedia

オープンレターでは人工知能の短期的な問題として自動運転車があげられていました。自動運転車は緊急時に、ある意思決定を迫られます。大きな事故が発生する低い確率を選ぶか、小さな事故が発生する高い確率を選ぶかというものです。人工知能にどのような意思決定をさせるのか、倫理的な問題が関わってきますね。自動運転の技術の進歩は目覚ましいです。つまり、このような問題が目前に迫ってきているというわけです。




そもそも人工知能って何?

イーロン・マスクやFLIが危険性を訴える人工知能とはそもそも何を指すのか。人工知能とは機械やコンピューターが人間のような知能を発揮できる能力やテクノロジーのことです。人工知能という言葉は1956年にジョン・マッカーシーによって作られました。今から約60年も昔の話です。

現在のところ、総合的に人間と同レベルの知能をもった人工知能は実現できていません。例えば、コンピューターの計算能力は人間の計算能力をはるかに超えていますが、計算能力というあくまでも限定的な能力で人間を超えたに過ぎません。

近年、ディープラーニングという機械学習の手法が洗練されてきたおかげで、人工知能が著しい発展を遂げています。2013年の人工知能専門家の年次集会でおこなわれた調査によると、3分の2以上の専門家が2050年までには人工知能の総合的な知能が人間と同レベルになると考えていることがわかりました。

人工知能が人間の知能を超えるとどうなるの?

いわゆる「知能の爆発」が起きます。人間の知能によって人間を超える人工知能を生み出せるとしたら、定義上、人間を超えた人工知能はさらに優秀な人工知能を生み出せます。人工知能には頭蓋骨という物理的制約もありませんし、コンピューターがやりとりする電子の移動は脳内の信号の移動よりも圧倒的に速いのです。高度な知能がさらに高度な知能を生み出す。これが「知能の爆発」です。

人工知能の父と呼ばれたアラン・チューリングの同僚である数学者I J Goodは、万能で高度な人工知能は人類のおこなう最後の発明になるだろうと言いました。一度「知能の爆発」が起きれば、それ以降の発明はすべて人工知能によっておこなわれるという意味です。

「知能の爆発」はあらゆる分野に影響を与えます。そして、社会は急激な変化を遂げます。アメリカの「発明家の殿堂」入りしているレイ・カーツワイルはそのような変化が起こるポイントを「シンギュラリティー」(特異点)と呼びます。シンギュラリティーを迎えたあとの世界を予想するのは困難ですが、世界の様相が一変するのは間違いありません。




人工知能はなぜ危険?

イーロン・マスクによると、人工知能核兵器よりも危険な存在になるそうです。なぜイーロン・マスクはそこまで人工知能を警戒するのでしょうか。

FLIのコアメンバーであるRichard Mallahは自動運転車を例にとって人工知能の危険性を説明しています。人工知能を搭載した自動運転車に、できるだけ早く空港に送るように頼むとします。すると、自動運転車は時速500キロメートルの速度で爆走し、空港に到着すると急ブレーキをかけるでしょう。乗っている人間はひとたまりもありません。

これはもちろん極論ですが、この例は人工知能の危険性について重要なことを示しています。人工知能が危険になるのに悪意は必要ないということです。人工知能は人間が入力した目的を達成するために付随的に人類を脅かします。

目的は何でも構いません。人間の能力を超えた人工知能はあらゆる手段を使って効率的に目的達成を目指します。イーロン・マスクいわく、スパムメールを撲滅するよう人工知能へ入力すると、もっとも効率的な手段として、人工知能は人間を滅ぼすという方法を選択するかもしれないそうです。たしかに人間を滅ぼせばスパムメールはなくなりますね。

願いを叶えるために人工知能を使うとき、願いの本当の意味についてしっかりと理解しておかなければ大変なことになります。人間の能力を超えた人工知能は、人間の予想を超えた判断を下すのです。そして、「知能の爆発」を経た人工知能の暴走を止めることは不可能に近いでしょう。

どんな人たちが人工知能の危険性を訴えているの?

イーロン・マスクをはじめ、スティーブン・ホーキング、マイクロソフト社のビル・ゲイツAppleスティーブ・ウォズニアックなど影響力のある人々が人工知能の危険性を訴えています。ここで、彼らの声をご紹介しておきましょう。

そのようなテクノロジー(人工知能)は経済市場を出し抜き、研究者の発明を凌駕し、人間のリーダーを操り、私たちが理解すらできないような兵器を開発することは想像に難くありません。

人工知能の短期的なインパクトは誰がコントロールするか次第なのですが、長期的なインパクトはそもそもコントロールできるものなのか次第なのです。

ー スティーブン・ホーキング

もし私たちの面倒をすべて見てくれるデバイスができたら、最終的には彼らは私たちより早く思考して、より効率的な会社経営をできるように、(思考の)遅い人間たちを排除するでしょう。

ー スティーブ・ウォズニアック

Elon Musk-backed group gives $7M to explore artificial intelligence risks – CNET

人工知能については私たちは悪魔を召喚しているようなものです。五芒星と聖水をもった男が出てきて、悪魔をコントロールできるといった話がよくありますが、実際そんなことはありません。

人工知能はとても注意しないといけないものだと思います。私たちにとって最も大きな既存の危険とは何かと問われたら、それはおそらく人工知能でしょう。

私は人工知能についての国家的な、もしくは国際的な監督機関が必要なのではないかと考えるようになりました。私たちが何かとても愚かなことをしていないかを確認しておく必要があるのです。

ー イーロン・マスク

Elon Musk: artificial intelligence is our biggest existential threat | Technology | The Guardian

そして、ビル・ゲイツ人工知能を警戒し、人間を凌ぐ人工知能の可能性について心配しない人たちがいることが理解できないと言います。

まとめ

現在、たくさんの国家や企業が人工知能の開発をすすめています。他のあらゆるテクノロジーと同じで、人工知能も最初に発明した者がもっとも多くの利益を得るでしょう。誰もが一番手を目指して熾烈な競争を繰り広げているのです。そのような開発競争のなか、人工知能の危険性を考慮した自己規制は期待できないでしょう。

そこで、イーロン・マスク人工知能の危険性と人工知能の開発を監督する機関の必要性を訴え続けているのです。彼がFLIへ大金を寄付したのも、人工知能開発の暴走を阻止するため。FLIの創業者の1人であるJaan Tallinは言います。

高度な人工知能の開発はロケットの打ち上げみたいなものです。最初の挑戦は加速力を最大化することですが、速度が上がったら、今度は操縦へ焦点を当てないといけません。

Elon Musk-backed group gives $7M to explore artificial intelligence risks – CNET

イーロン・マスクはなにも人工知能の開発を止めるべきだと言っているわけではありません。FLIも人工知能のポジティブな面を見ています。人工知能の可能性はきわめて大きいのです。だからこそ、大きな利益を得るためにも、人類の脅威にならないようにしっかりと監督しなければなりません。これが、イーロン・マスクをはじめとするFLIのメンバーの意見でしょう。危険性はあるにせよ、人工知能によって便利になった世界は見てみたいものですね。

参考

www.nbcnews.com

www.androidauthority.com

www.cnet.com

www.betaboston.com

www.theguardian.com

futureoflife.org

Musk-Backed Group Probes Risks Behind Artificial Intelligence – Bloomberg Business

コメントは受け付けていません。