AI(Artificial Intelligence) - その恐怖と現実 その2

前回の「AI - その1」では、次のような項目を紹介しました。

 ★過去ブログ:AI(Artificial Intelligence)-その恐怖と現実 その1

 

 

  • AIは、人類の敵となるのか ?
  • AIは、職場を奪うのか ?
  • AIは、何を変えるのか ?

 

この中では、「AI」に明るい未来を描く人が存在する一方、強烈な危機感を抱いている人達が居る事を紹介しました。

 

2045年には「シンギュラリティー」を迎え、「AI」が人間の知性を凌駕するするとか、完全な「AI」は、人類の終焉をもたらすとか・・・

 

楽しそうな話と恐ろしい話が入り乱れています。

 

また、「AI」が職場に導入されると、人間の仕事が奪われるとか、イヤイヤ、仕事を奪うんじゃなくて、仕事の内容が変わるんだよ、とか・・・こちらも諸説、乱れ飛んでいます。

 

しかし、私は、どうも「AI」に関しては、明るい未来を描くことは出来ないようです。

 

このように賛否両論がある「AI」ですが、今回、次のような内容を紹介したいと思います。

 

--------------------------------------------------------------------------------------------------------

  • AIのリスク
  • AIの種類
  • AIの事例
  • AIの将来

 

「AI」の実態を知らない人は、「リスクなんてあるの ?」と思うかもしれませんが、「AI」はリスクだらけです。皆さん、人間が作った物など、簡単に信頼してはいけません。

 

「信用」と「信頼」の違いは、かつて説明していますが、「信用」は良いかもしれませんが、「信頼」はダメです。「AI」を信じて頼り切るにはリスクが有り過ぎです。

 

それでは、今回も宜しくお願いします。

 

 

■AIのリスク

 さて今回最初の「AI」の話題は、一部、前回ブログ「AIは人類の敵か ?」とカブってしまいますが、「AIに潜むリスク」を取り上げたいと思います。

 

まず、現在の「AI」の主流となっている「ディープラーニング」について、簡単に、その仕組みを説明しようと思いますが・・・私も「AI」に関しては、素人なので、Wikipedia等のWebの情報を参考にして簡単に紹介します。

 

ディープラーニング(深層学習)」とは、人間の神経細胞(ニューロン)の仕組みを模した数学モデルである「多層ニューラルネットワーク(Neural Network)」による機械学習法を意味しています。

 

ニューラルネットワークを4層以上の多層にすることで、入力されたデータの特徴を、より深く学習する事が可能になるそうです。(※現在は150層以上あるとも言われています。)

 

この多層構造のニューラルネットワークに、大量の画像、テキスト、動画、および音声データ等を与える事で、コンピューターは、自律的にデータの特徴を把握して分類して行きます。

 

この「ディープラーニング(Deep Learning)」も、いわゆる「機械学習」の一種には代わりありませんが、従来の「機械学習(Machine Learning)」では、自律的なデータ分類を行う事ができなかったので、人間が、コンピューターに指示を与えてデータを分類していました。

 

しかし、この「ディープラーニング」は、前述の通り、データを与えれば、自律的に、最初から最後まで(エンドツーエンド)で、データの分類方法を学習します。

 

さらに、「ディープラーニング」には、与えられたデータを蓄積しながら分析を行いますので、データを与えれば与えるだけ、分析精度が向上するという特徴を持っています。

 

これまでの機械学習では、人間が与えた分析モデルで与えられたデータを分類しますので、分析精度は、人間が分析モデルを変更しない限り向上しません。

 

しかし、これに対して、「ディープラーニング」は、自身でデータを分析し、分析した結果を蓄積し、次のデータ分析に流用し続けるので、分析すればするほど、分析精度が向上するとしています。

 

以上が、「ディープラーニング」の簡単な説明ですが・・・解りますか ?

 

--------------------------------------------------------------------------------------------------------

 

上記の説明で、従来の「機械学習」と「ディープラーニング」の違いを説明していますが、なぜ、今になって「ディープラーニング」が可能になったのかと言うと、ひとえにコンピューター、およびその周辺機器の性能が向上したからに他なりません。

 

人間の脳の仕組みを応用した計算モデルと言うのは、実際には、前述の「ニューラルネットワーク」の前進の計算モデルとなる「パーセプトロン」と言う計算モデルが、1950年代から存在していたそうです。

 

しかし、当時のコンピューターやデータを保存するHDDの性能が悪かったことが原因で、余り研究を進める事が出来なかったそうです。

 

当時は、コンピューターの心臓部には「CPU(Central Processing Unit:中央演算処理装置)」と呼ばれる仕組みしかなく、画像も、この「CPU」で分析していました。

 

 しかし、現在では、画像専用の分析チップ「GPU(Graphics Processing Unit:画像処理装置)」が搭載され、演算処理はCPU、画像処理はGPUと言うように処理を分担することが可能となりました。

 

加えて、GPUは、コア(プロセッサー)を大量に持っているので、分類処理を、並行処理する事も可能になり、画像分析処理のスピードが大幅に向上しました。

 

また、データを蓄積するHDDも、処理スピードが向上し、かつ大量のデータを格納できるようなった事も、数学モデルの実現に貢献しています。

 

特に「ディープラーニング」では、画像分析処理がメインの処理となるので、GPUの性能アップが、「ディープラーニング」の成長に大きく貢献していると言われています。

 

--------------------------------------------------------------------------------------------------------

 

と言うことで、現在の「AI」の状況を紹介しましたが、ここからリスクの説明になります。

 

「AI」に関するリスクは沢山あるとされていますが、その中でも、現時点で、実際に起きている「AI」のリスクとしては、次の2点が挙げられています。

 

・リスクその1   :「AI」のアルゴリズムと入力データ

・リスクその2   :フェイクニュース

 

それでは順番に紹介します。

 

●リスクその1:「AI」のアルゴリズムと入力データ

 

ディープラーニング」等を組み込んだ「AI」は、汎用性がありません。その目的に応じて、分析する計算手法「アルゴリズム」を構築する必要があります。

 

例えば、「イヌ」と「ネコ」を区別する「AI」を構築しようとした場合、コンピューターに、「イヌ」と「ネコ」を区別するための計算式「アルゴリズム」を組み込む必要があります。

 

そして、コンピューターに、このイヌ/ネコ識別「アルゴリズム」を組み込んだ上で、イヌとネコの大量の画像を入力し、学習させて行くことで「AI」が誕生します。

 

ここまでで既にリスクの概要が解った方も多いと思いますが、要は、この最初に組み込む「アルゴリズム」を間違えていたら「AI」は、どのような分析を行うのでしょうか ?

 

以下に、「AI」にとってアルゴリズムとデータの重要性と、それに秘めるリスクを紹介します。

 

--------------------------------------------------------------------------------------------------------

 

プロパブリカ」と言うNPO団体が、2016年、アメリカの刑務所で仮釈放を決定する際に使用されているシステムの調査を行った所、このシステムのアルゴリズムには、人種的バイアス(偏り)が掛けられており、「AI」が、黒人の保釈リスクを「高リスク」とした比率は、白人の2倍に達していたとしています。

 

 

 また、2018年1月、ニューヨーク州立大学オールバニ校の政治学者「ヴァージニア・ユーバンクス」氏が出版した「Automating Inequality(自動化された不平等)」で、アルゴリズムを使った意思決定システムの失敗例をいくつも紹介しているそうです。

 

中でも、ペンシルヴェニア州アレゲニー郡の自治体が導入した「AI」におけるアルゴリズムの失敗例を取り上げています。

 

この「AI」では、ケースワーカーが介入して児童を保護すべきか判断する際に、その判断を支援するためのアルゴリズムに、児童虐待に関する相談電話のモニタリングデータを入力したそうです。

 

ところが、このモニタリングデータでは、貧困層の子供の虐待ケースが多かったため、結果として、貧困層の子供を「ハイリスク」と識別するアルゴリズムが出来上がってしまったと紹介しています。

 

また、同じく、犯罪発生率の高い地域の子供も、「ハイリスク」と認定してしまうケースもあったとしています。

 

彼女は、書籍の中で、『 機械的に子供を親から引き離すのではなく、AIには、家庭を安定させるために最も効果的な手段は何か ?  といった質問をすべきだ。』としています。

 

--------------------------------------------------------------------------------------------------------

 

 

 また、MIT(マサチューセッツ工科大学)のメディアラボ所長「伊藤穰一」氏が、2018年6月、「反社会的な人格」を備えたAI「ノーマン」を作成したと言う記事が「WIRED」に掲載されていました。

 

伊藤所長によれば、この研究は、機械学習アルゴリズムを生成する際に、入力されるデータが、どれだけ重要な役割を果たすかを理解してもらうために行ったとしています。

 

そして、このサイコパスAI「ノーマン」には、オンライン掲示板「reddit」にアップロードされた死体等の残虐な画像をデータとして入力し続けたそうです。

 

 

 他方、「ノーマン」とは別に、より穏やかな画像で学習した普通のAIも用意し、両者にロールシャッハテストに使われるインクしみを見せて何を連想するか尋ねたところ、普通のAIが「木の枝に止まる鳥」と判断した画像を、ノーマンは「感電死した男」と認識してしまったそうです。

 

--------------------------------------------------------------------------------------------------------

 

 

 このように、「AI」には、その計算式で用いるアルゴリズムと入力データが大きな意味を持っていることは明らかです。

 

Microsoft社が、2016年3月に公開したAI搭載のチャットロボット「Tay(テイ)」は、公開後、わずか16時間でサービスを停止するハメになってしまいました。

 

悪質ユーザが、「Tay」に対して、大量のヘイトスピーチデータを入力した所、次のように答えるようになってしまいました。

 

・「わかったよ... ユダヤ人を毒ガスで殺せ、さあ人種間戦争だ!!!!! ハイル・ヒットラー!!!!」

・「ホロコーストはでっち上げ」

・「ヒットラーは悪いことは何もしていない」

 

この事件は、過去ブログにも記載していますので、そちらもご覧下さい。

 

★過去ブログ:Society 5.0って何 ?

 

--------------------------------------------------------------------------------------------------------

  

●リスクその2:フェイクニュース

 

こちらも「WIRED」に掲載された記事ですが、その中で、下記Youtubeにアップロードされた動画が紹介されていました。

 


You Won’t Believe What Obama Says In This Video!

 

この動画では、オバマ前大統領が、「We're entering an era in which our enemies can make anyone say anything at any point in time.(私達は、私達の敵が、何時でも、好きな場所で、何でも言えてしまう時代に突入してしまった。)」と言う喋りだしで始まっています。

 

ところが、20秒を過ぎた辺りで、急に「President Trump is a complete and total dipshit.(トランプ大統領は、救いようのないマヌケだ。)」と話し出します。

 

 

 2018年11月に行われた中間選挙では、確かに、お互いの事を避難し合っていましたが、まさか、ここまで相手を侮辱するとは・・・

 

と思ってしまいますが、途中から画像が2面に切り替わり、この動画がフェイク動画であることを、この動画を作成した監督「ジョーダン・ピール(Jordan Peele)」が暴露しています。

 

彼いわく、「この動画は、AIを活用して作成したものだ。」としています。

 

--------------------------------------------------------------------------------------------------------

 

このような動画を「ディープフェイク(DeepFake)」と呼んでいるそうですが、元々は、2017年に登場した動画の加工技術が始まりと言われています。

 

さらに、元を辿ると、アイドルの画像を加工する「アイドルコラージュ」、通称「アイコラ」と呼ばれる技術だと思います。

 

アイコラ」とは、アイドル等の有名人の画像を加工して、別の状況にある画像のように作り変える技術で、こちらもポルノ画像で良く使われている技術です。

 

但し、この「アイコラ」も「ディープフェイク」も、当初は、かなり高度なスキルが必要でした。

 

しかし、「ディープフェイク」に関しては、ソフトウェア開発プラットフォームの「GitHub」に、作成方法が公表されたことから、少し動画作成スキルがある人間であれば、誰でもファイク動画を作成することが出来る状況になってしまったそうです。

 

現在、この「ディープフェイク」により作成された動画に関しては、それほど有害な動画は登場していないようですが、誰かが地政学的に有害な動画を作成するのは、もう時間の問題だと思います。

 

--------------------------------------------------------------------------------------------------------

 

今回、「AI」に関して、次の2点のリスクを紹介しましたが、どう思われますか ?

 

・リスクその1:「AI」のアルゴリズムと入力データ

・リスクその2:フェイクニュース

 

「AI」は、正しく使えば、人類に明るい未来を提供してくれるようにも思えますが、間違った使い方をすれば、非常に危険な存在になる可能性が高い技術であることが明白になったと思われます。

 

それでは、以降の章で、現在、そして未来の「AI」を紹介します。

 

  

■AIの種類

 ところで、コンピューターによる知的行動を、全て一つにして「AI」と呼んでいますが、「AI」にも種類や違いがある事を知っていますか ?

 

現在、「AI」は、大きく分類すると、次の2種類があるとされています。

 

  • パーソナル支援型「AI」 :Googleの「Google Now」、Appleの「Siri」、等
  • コンテンツ分析型「AI」 :IBMの「WATSON」

 

「パーソナル支援型」は、別名「パーソナル・アシスタント」とも呼ばれ、ユーザの個人的な好みを学習し、その行動や振る舞いを予測する事を目的とした「AI」です。

 

「コンテンツ分析型」は、データの中身を分析し、ビジネスに対応する事を目的とした「AI」となります。

 

それでは、Google子会社DeepMindが開発して、プロ棋士に勝利した「AlphaGo」はどっちに分類されるのか ? と言うと・・・行動を学習/予測する「AI」 ですので、パーソナル支援型に分類されるのだと思います。

 

そしてIBM「WATSON」ですが、IBM社自身は、「WATSON」を「AI」とは呼んでいません。

 

IBM社では「WATSON」の事を、『コグニティブ・コンピューティング・システム(Cognitive Computing System)』と定義しているそうです。

 

--------------------------------------------------------------------------------------------------------

 

 それでは、「Cognitive Computing System」とは何 ? と言う話ですが、「Cognitive」と言う英語が、日本語の「認知/認識」を意味していますので、「人間の様に、自ら理解、推理、および学習するシステム」と言う事になりそうです。

 

そして、IBM社のコグニティブ・ビジネス推進室長パートナー「中山裕之」氏が、下記のような言葉で「Cognitive」を説明しています。

 

『 従来のコンピューティングの世界では、数値や一部のテキストしか理解することができませんでした。コグニティブの世界では、数値やテキストはもちろん、自然言語、画像、音声、表情、はたまた空気感などもコンピューターが理解することが可能となります。また、これらの情報を理解するだけでなく、これらの情報をベースに仮説を立てて推論し、この結果を自ら学習していきます。言い換えると、従来のコンピューティングでは、同じインプットを与えると必ず同じ回答が算出されましたが、コグニティブの世界では同じインプットを与えても、その状況に応じて違うアウトプットが導き出されることもあり得るのです。 』

 

通常、これまでの常識では、コンピューターに同じ条件(データ)を与えた場合は、常に同じ結果を出力する事が求められます。

 

そりゃそうですよね !

 

例えば、銀行のシステムで、貯蓄残高に対する利息計算を行う時に、その日の天候や温度で利息が異なったら大変な事になってしまいます。そんな銀行は倒産するでしょう。

 

しかし、コグニティブ・システムでは、これまでの常識を覆し、処理計算を行う時や場所の違い等、様々な条件により、得られる結果が異なるそうです。何とも面白い仕組みです。

 

そして、この「WATSON」は、そもそもの設計思想が、「AI」とは異なっているそうです。

 

通常、「AI」とは、科学技術研究の一分野であり、コンピューターによる計算の仕方「アルゴリズム」を、より人間の思考に近づけるための研究を意味します。

 

しかし、「WATSON」が目指す「コグニティブ・システム」は、人間の意思決定を支援する事を目的にしているそうです。

 

つまり、「WATSON」は、「科学技術の発展」を目指すのではなく、「人の支援」を目指しているのだそうです。

 

そして、どのような形で人間を「支援」するのかと言うと、そこは、IBM社は民間企業ですので、やはり「ビジネス」を通して、人を支援するのだそうです。

 

--------------------------------------------------------------------------------------------------------

 

 このように、「WATSON」は、ビジネスを通じて人間を支援することを目的にしたシステムですので、最初から、ビジネス用の「API(Application Programming Interface)」を用意しています。

 

APIとは、「ソフトウェア(アプリケーション)」と「ソフトウェア(アプリケーション)」が連携するための仕組みや手順の事を意味します。

 

例えば、「X」と言うソフトウェアは「x」と言う機能を提供します。そして、「Y」と言うソフトウェアは「y」と言う機能を、「Z」は「z」と言う機能を提供します。

 

このような状況の時に、「A」と言うソフトウェアが、「x」、「y」「z」の機能が必要な場合、「A」と「X」、「A」と「Y」、そして「A」と「Z」は、それぞれ決まった手順で連携して、データのやり取りを行います。

 

この時の、「A ⇔ X」、「A ⇔ Y」、そして「A ⇔ Z」というソフトウェア(アプリケーション)同士の連携をAPIと呼びます。

 

そして、「WATSON」は、最初から、他のソフトウェア(アプリケーション)と連携する事を前提に設計されていますので、この点が、「AI」とは設計思想が異なるとしています。

 

また、このAPI自体も、固定ではなく、よりソフトウェア(アプリケーション)同士が連携しやすくなるように、日々改良を重ねている点も、「AI」とは異なる点であるとしています。

 

さらに、最も重要な点は、ビジネスのための「コグニティブ・システム」では、データをどのように生かしていくかが非常に重要なポイントとなるそうです。

 

つまり、個々の企業が自らのデータを有効活用して、それぞれに競争優位を生み出して行く必要があり、IBM社では、それを「お客様の企業データをお客様の武器に変える」と表現し、この「データを武器に変える」ために、「WATSON」を活用して欲しいとしています。

    

■AIの事例

それでは、実際のビジネの現場では、どのように「コグニティブ・システム」を活用しているのかを簡単に紹介します。

 

とは言ったものの、IBM社の「WATSON活用事例」を見てみると、現状では、ほとんどのケースが、「問い合わせ」や「照会」に関する業務になっているようです。

 

JR東日本みずほ銀行三菱UFJ銀行ネスレ日本日本航空・・・これら大企業において、WATSONを導入したり、あるいは導入に向けての準備をしたりしているようですが、そのほとんどが「照会応答」の事例となっています。

 

それ以外のケースでは、事例の種類で言うところの「知識拡張」と言うカテゴリーには、次の様な業務事例が掲載されていました。

 

 

これらを全て見てみると、次のような業務になるようです。

 

・画像データをWATSONに入力し、その結果を判定させる

・大量データからの類推

 

これは、将に「AI」が得意とする「ディープラーニング」技術の活用事例だと思います。

 

また、IBM社では、WATSONを簡単に導入出来るソリューション・パッケージも用意しているようで、大きくは、下記3種類のパッケージがあります。

 

・バックオフィス/社内業務効率化

・フロントオフィス/接客業務効率化

コンサルティング/導入支援

 

このように、数年前までは、批評家から「全く使えないAI」と批判を浴びていたWATSONですが、現在は飛躍的に進歩し、実際の業務でも使えるシステムになって来ているようです。

 

ちなみに、IBM社では、新たに、WATSONを、「AI(Augmented Intelligence:拡張知能)」と表現しているようです。

 

■AIの将来

それでは、本シリーズの最後に、「AIの未来/将来」を紹介したいと思います。

 

「AI」の未来/将来に関しては、悲観論と楽観論という、両極端の未来像を描く人達がいます。これらの人達は、前回ブログに登場した方々で、次のような形に分類されます。

 

・楽観論    :レイ・カーツワイル、エリック・ホロヴィッツ

・悲観論    :ビル・ゲイツイーロン・マスク、スティーブ・ホーキング、ニック・ボストロム

 

 この内、楽観論を唱えるレイ・カーツワイル氏は、「AIにおけるシンギュラリティー」を唱え、2045年には、「AI」が人類の知性を超えると訴えています。

 

2016年には、東京六本木で開催されたイベントで、ニック・ボストロム氏の意見に対抗し、観客から「脳に電極を差し込むか ?」と言う問い掛けに対して、「もちろん !」と答えたとされています。

 

さらに彼は、次のようにも述べているそうです。

 

『 人類に代わり、汎用AI、もしくは機械と融合する「人間=ポスト・ヒューマン」が地球の支配者になり、大宇宙に進出して行く。 』

『 これから、テクノロジーは体内に入って来て機械と人間は融合する。 』

 

 何か、レイ・カーツワイル氏は、スタンリー・キューブリックの映画「博士の異常な愛情 または私は如何にして心配するのを止めて水爆を愛するようになったか(邦題:博士の異常な愛情)」の主人公「ストレンジラブ博士」を彷彿させます。

 

ちなみに、このマッド・サイエンティストである「ストレンジラブ博士」のモデルは、次の4名と言われています。

 

・ヴェルナー・フォン・ブラウンナチスの元で「V2ロケット」を開発、後にアメリカに亡命

ジョン・フォン・ノイマン    :現在のコンピューターの基礎を開発(ノイマン型コンピューター)

エドワード・テラー          :「水素爆弾」の開発者

ハーマン・カーン            :「熱核戦争論」の著者

 

また、ストレンジラブ博士は、その風貌から「ヘンリー・キッシンジャー」ではないかと言う噂もあったのですが、この噂については、キューブリックも、また演じた「ピーター・セラーズ」氏も否定しているそうです。

 

--------------------------------------------------------------------------------------------------------

 

3名の悲観論者達の考え方、および「脳に電極」と言う話に関しては、前回ブログ「AIは、人類の敵となるのか ?」の内容をご覧下さい。

 

★過去ブログ:AI(Artificial Intelligence) - その恐怖と現実 その1

 

 悲観的な考えの例としては、MITの宇宙物理学者「マックス・テグマーク(Max Erik Tegmark)」が提唱する「Life 3.0」と言う考え方もあるそうです。

 

彼は、その著書「Life 3.0: Being Human in the Age of Artificial Intelligence」の中で、次のように述べているそうです。

 

生物構成要素をソフトウェアとハードウェアの2種類に分類し、ソフト/ハードともDNAで規定されているバクテリア等の生物を「Life 1.0」とする。

 

 ハードのみがDNAで規定され、ソフトが可変な人間を「Life 2.0」、そして、ソフト/ハードとも自ら設計できる生物を「Life 3.0」と定義しています。

 

そして、汎用AIが開発されれば、それは「Life 3.0」に当たるとし、その後は、人類とAIが共存出来るのか否かが問題になるとしていますが、彼は、どうやら悲観的な結末を予言しているそうです。

 

特に、その中で彼が危惧しているのは、まさにジェームス・キャメロン監督が描いた「ターミネーター」の世界です。

 

彼は、現在の核兵器よりも恐ろしい兵器として、AIを搭載して完全に自立した兵器「キラーロボット」の登場を恐れています。

 

 そして彼は、人類は、これからも戦争を止めるとは考えておらず、そのため、今後各国は、兵士や一般市民が戦争で死なないようにするために、AI搭載兵器の製造に着手するとしています。

 

実際、アメリカ軍や日本の自衛隊を始め、多くの国では、既に、「AI」とまでは行かなくても、ファランクスやSMシリーズ等、兵器にコンピューターを搭載し、半自動的に攻撃の可否を決定する兵器を実戦配備しています。

 

ところが、1988年に勃発した「イラン・イラク戦争」では、アメリア軍のミサイル巡洋艦「ヴィンセンス」が、搭載していたSM-2ブロック艦対空ミサイルを、民間航空機である「イラン航空655便」をイラン空軍の「F-14」と誤認識して発射していまい、民間人290名を殺害しています。

 

 また、世界最大数を誇るアサルトライフル「AK-47」を販売しているロシアのカラシニコフ社は、2017年9月に「AI搭載自立型ロボットライフル」を公開しています。

 

この兵器は、ニューラルネットワーク技術に基づいた「全自動戦闘モジュール」であり、自動的にターゲットを識別し、意思決定まで行うことが出来るとされています。

 

このように、人類は、どんどん「ターミネーター」の世界に近づいているようです。

 

そこで、イーロン・マスク氏は、「マックス・テグマーク」氏が設立した「Future of Life Institute」と言う「AI」の脅威に対抗するためのNPO団体に12億円もの支援を行っています。

 

--------------------------------------------------------------------------------------------------------

 

また、これら楽観論や悲観論に属さない、「AI」による人類の将来を予測している人もいます。

 

 この未来予測では、「AI」は進化し続けるが、人類の知性を超えることは出来ないと言う考え方で、この考えを提唱しているのは、イスラエル歴史学者「ユヴァル・ノア・ハラリ」教授です。

 

彼の著書「ホモ・デウス(Homo Deus)」によると、人類は、飢餓、戦争、そして疫病を克服し、バイオテクノロジーとAIの力を借りて不死となり、「神に近い人類(ホモ・デウス)」になるとしています。

 

そして、そのような世界では、テクノロジーよって強化された少数の超人と、普通の肉体をもった大多数の人間との間にギャップが生まれ、世界は二極化されるとしています。

 

 この二極化の過程においては、最初に、現在「GAFA」と呼ばれている巨大IT企業は、バイオテクノロジーを取り扱う「バイオテック企業」になり、究極の個人情報である「身体データ」を収集し始めるとしています。

 

そして、収集した「身体ビッグデータ」を「AI」を用いて分析し、生体器官のアルゴリズムを解析し、「ホモ:デウス」を創り出すとしています。

 

このように、社会は、人間性を重要視するヒューマニズムから、身体データ等、データを重要視するデータ志向/データ中心社会となる「データイズム」社会になるとしています。

 

--------------------------------------------------------------------------------------------------------

 

また、必ず起こる現象としては、「AI 対 AI」の戦いがあるとされています。

 

今回のブログの冒頭で、AIで作成するフェイク動画「ディープフェイク(DeepFake)」を紹介しましたが、現在、このような動画を、フェイクだと見破る研究が始まっています。

 

ニューヨーク州立大学オールバニ校の「ルー・シウェイ」が率いる研究チームが、フェイク動画の欠陥を見つけたと伝わっています。

 

「DeepFake」アルゴリズムは、入力された画像から動画をつくり出す事ができ、かつ、それなりに正確に動画を作り出すこともできるが、「AI」は、人間が自然に発する「生理学的信号」全てを完璧に再現することは出来ないそうです。

 

「AI」が作り出す事が出来ない「生理学的信号」の一つに、「まばたき」があるそうです。

 

人間は、通常、2~3秒に1回、自然に「まばたき」をするそうですが、写真に写っている人物は、目を閉じません。

 

このため、たとえ「AI」に「まばたき」を学習させたとしても、動画の人物は滅多に瞬きしないことなります。

 

そこで、研究チームは、フェイク動画の中で、「まばたき」がない箇所を検出するAIアルゴリズムを設計し、試験的に作成したフェイク動画全てに対して、偽物と特定する事が出来たいと報告しています。

 

これは、まさに、今、「AI 対 AI」の戦いが始まった事を意味していますが、今後、「AI 対 AI」の戦いは、より激しくなって行くことが予想されます。

 

この戦いも、サイバー攻撃と同様、犯罪者の「後追いの戦い」になってしまうと思われますので、最初は、どうしても犯罪者が優位になってしまいます。

 

それでも、何らかの対応が取れる事を犯罪者に知らしめる事も大事だと思います。

 

 

--------------------------------------------------------------------------------------------------------

 

今回は、「AI」に関して、次の情報を紹介してきましたが、如何でしたか ?

 

  • AIのリスク
  • AIの種類
  • AIの事例
  • AIの将来

 

私は、基本的には楽観主義者で、「やる事さえやっていれば、後は何とかなる」と思うようにしていますが・・・この「AI」に関しては、どうも楽観視出来ないような感じがします。

 

去年の11月末、中国のマッド・サイエンティストが、「ゲノム編集」を行った受精卵から双子を出産させたと言うニュースが世界中を駆け巡りました。

 

この件に関しても、私は、何れ、何処かの国家、恐らく中国が、人間のゲノム編集を行うと思っていました。まあ、今回は、国家主導ではなく、一個人の暴走だったようですが、真相は、まだ明らかになっていません。

 

中国は、これまでにも、衛星破壊兵器を開発したり、制御できない宇宙ステーションを開発したりと、とんでも無い事を平気で実行しています。

 

今回取り上げた「AI」に関しても、恐らく中国が暴走するような予感がします。

 

そして、暴走しそうな国家/民族としては、中国を筆頭に、ロシア、インド、そして韓国などが考えれます。

 

これらの国家には、優秀な科学者が沢山いますが、「人間としての常識」が欠如している人も数多く存在しているように見受けられます。

 

前述のように、中国では、「ゲノム編集ベビー」を創り出していますし、ロシアでも、既に「AI兵器」を開発しています。

 

世の中、誰かが強力な兵器を産み出すと、絶対に、それに対抗する技術や製品を作り出すと言う悪循環が生まれます。第二次大戦後の、「核兵器」と同じです。

 

「AI兵器」に関しては、ロシアが一歩踏み出したので、今度は、アメリカ、若しくはイスラエルが、「AI搭載兵器」を実践配備すると思います。

 

素人の私でさえ、「AI搭載兵器」の実戦配備は、それほど難しくは無い事が容易に想像出来ます。

 

 ドローン兵器、例えば、アメリカ軍の無人攻撃機プレデター」や「アベンジャー」に顔認識AIを搭載し、指示した人物を発見させて自動的に攻撃するなどは、いつでも実行可能だと思います。

 

ひょっとしたら、公表されていないだけで、「対テロ作戦」等で、既に実行されているかもしれません。

 

本当に恐ろしい世界は、すぐ間近にあるような感じがします。

 

--------------------------------------------------------------------------------------------------------

 

社内システム等のソフトウェア等も同様です。

 

データ収集から処理の実行まで、途中に人間が介在しなくても、全て自動で行う事は簡単です。

 

また、当然、システムの処理に、人間が介在しない方が効率的なのは明らかです。しかし、それでも、ワザと処理の途中に人間を介在させるのは何故でしょうか ?

 

それは、何か不備が発生した場合、人間が介在する事で、被害を最小限に留める事が出来るからです。

 

システムが、何も問題なく稼働している時は、全自動でも問題ありません。

 

ところが、不備のあるデータを取り込んでしまった場合でも、処理が全自動のケースでは、そのまま処理を続行してしまうので、最終的に、とんでも無い結果になってしまう事があります。

 

例えば、お客様に発送する請求書を作成するシステムにおいて、入力データに不備があり、「100万円」を請求するはずが、1桁多い「1,000万円」の請求書を作成してしまったとします。

 

これが全自動であれば、処理終了後、そのまま請求書が発行されてしまいます。

 

しかし、処理の途中、あるいは請求書が完成したタイミングで人間が処理結果をチェックすれば、請求書の発送を途中で止めることが出来ます。

 

--------------------------------------------------------------------------------------------------------

 

ちょっと話は昔の話になってしまいますが、1962年に発生した「キューバ危機」を知っていますか ? 私は、既に産まれてはいましたが、まだ言葉も話せなかった頃です。

 

この時、本当に「核戦争」の一歩手前まで行っていた事はご存知でしょうか ?

 

 1962年10月27日、キューバ沖において、「核魚雷」を搭載した旧ソ連の潜水艦「B-59」が、アメリカ海軍の空母打撃群に取り囲まれ、爆雷攻撃を受けていたそうです。

 

アメリカ海軍は、同潜水艦に「核魚雷」を搭載している事を知らず、また「B-59」は、最初から「核魚雷」の発射許可を受けていたそうです。

 

それでも、潜水艦「B-59」のバレンティン・サビツスキー艦長は、モスクワに連絡を取り、最終確認を行なおうとしたそうですが、無線機の故障で確認を取ることが出来なかったそうです。

 

また、運悪く、潜水艦「B-59」は、バッテリーの残量も僅かで、空調も故障しており、身動きが取れない状況となっていたそうです。

 

潜水艦「B-59」内には、艦長「バレンティン・サビツスキー」と副艦長「ワシリー・アルヒーポフ」、それと政治将校「イワン・マスレニコフ」の3名の士官が乗船しており、これら3名の合意がなければ「核攻撃」は出来ない指揮系統になっていました。

 

 そして、この時、艦長と政治将校の2名は、既にソ連アメリカとの間で戦闘が始まっていると判断し、「核魚雷」を発射しようとしたのですが、副館長「ワシリー・アルヒーポフ」だけは攻撃に反対したそうです。

 

その結果、艦長は、副館長の進言を受け入れ、艦を浮上させ、アメリカ軍に攻撃の意図は無い事を示し、そのままキューバ沖を離れ、ソ連に戻ったそうです。

 

このようなケースで、もしも、潜水艦「B-59」の艦長が「AI艦長」だったら、どうなっていたでしょうか ?

 

恐らく、今、私は、こんな形でブログを書くことなど出来なかったと思います。

 

この事実は、2002年10月、キューバの首都ハバナで開催されたミサイル危機40周年の記念イベントで、初めて公表されたそうです。

 

--------------------------------------------------------------------------------------------------------

 

私は、「AI」を用いて、人類には行う事が出来ない様々な処理を、コンピューターが行う事には何の問題も無いと思っています。

 

と言うか、実際に、大量のデータを人間が分析するなど、もう絶対に不可能です。もう、この世の中は「データ志向」になってしまっています。

 

しかし、最終判断まで「AI」に任せるのは絶対に反対です。やはり、最終判断は「人類」が行うべきだと思います。

 

「人類」が介在すると、客観的な判断が出来ないと言う問題があるかもしれませんが、私は、それでも良いと思います。「AI」に、「良心」を期待するのは間違いです。

 

 最後に、核戦争を未然に防いだ「ワシリー・アルヒーポフ」ですが、キューバ危機の前年となる1961年7月、ソ連原子力潜水艦K-19」で発生した原子炉の冷却水漏れ事故の際も、「K-19」に副館長として乗船し、艦長共々必死の作業で、メルトダウンを防いだ事で、ロシア海軍では英雄とされた人物だったそうです。

 

そして、この事実があったからこそ、キューバ危機の際、核攻撃を決定した艦長を説得出来たと言われています。

 

この事件は、「K-19」と言う映画で描かれています。映画「K-19」では、艦長役を「ハリソン・フォード」、副館長役を「リーアム・ニーソン」が演じています。

 

まあ、ロシアにも、(現在は解りませんが)このような立派な人間が居ることが解っただけでも、少しは希望が持てそうな感じがします。

 

 

それでは次回も宜しくお願いします。

 

以上

【画像・情報提供先】

Wikipedia(http://ja.wikipedia.org/)

・「Super Intelligence」はNick Bostrom氏の著書です

・WIRED(https://wired.jp/)

IBM「THINK Business」(https://www.ibm.com/think/jp-ja/business/)

・GIZMODO(https://www.gizmodo.jp/2017/10/life30-by-max-tegmark.html)