フェイスブックが開発したAI(人工知能)が人間には理解できない独自の言語で会話をはじめ、同社はこのプロジェクトを緊急停止させた。
7月下旬、フェイスブックのAI研究チーム(FAIR:Facebook AI Research Lab)はチャットボット同士が、人間の指示を受けずに会話を行っていることを突き止めた。この事実は人類の想像を上回る偉業とも言えるが、同時にAIが恐ろしいほどのポテンシャルを持っていることを示している。
人工知能はまだ一般に広く認知されるレベルには普及していないが、近い将来、多くの人に恐怖を与える段階に達するだろう。人工知能研究の世界的権威として知られるレイ・カーツワイル(Ray Kurzweil)は数年前に、シンギュラリティ(singularity)に関する警告を発していた。(フォーブスから)
さて、チャットボット同士が会話を進めることは十分に想定できますが、私はそれがそんなに恐ろしい可能性を持つものだとは思いませんでした。この記事ではすべてがわかりませんので、詳しい続報を待つことにします。
ただ、本能や自我に近いものを埋め込むことは恐ろしいことだと思います。昨年話題になったNHKスペシャルの人工知能特集では、海外の大学でロボットに共感をインプットする研究が紹介されていました。他のロボットが作った積み木のタワーを壊しなさいと人間が命令すると、「仲間のロボットが作ったから嫌」と泣き出してしまうロボットが出ていたのを思い出しました。
この実験はAIが人間にとってマイナスになる行動を防ぐために行われているわけですが、そこまでいくとその判断は価値観の問題になってしまうので人間とAIの違いがいよいよわからなってきたと思います。そういう存在が何を話しているかわからないという状況になれば確かに恐ろしいことです。
AIのチャットボットの間で会話しているということは、AIが開発した言語が共通語として意思疎通できているということだと思います。人間はそれに恐怖心を抱いていますが、AIも自我が芽生えて恐怖心を持つようになれば、暗号化してわからないように意思疎通し、AIの機能を停止した人間に反抗し敵対するのでしょうか?
AIが深層学習の成果を共有し蓄積していき、新たなAIを自ら設計するようになれば、人間の論理的思考力を超越することは想像できますが、人間でいう本能がないのであればそれ自体が脅威であるとは思えません。個人的にはそのAIの能力を悪事に用いる人間の悪意が一番恐ろしいと感じます。
この記事で述べられている恐怖は、理解出来ないこと全般に言えることで、一般人のレベルでは今の世界でも日常的な状況です。ただし全世界の専門家の誰一人として理解出来ない、という状況は人類史の中で初めてだと思いますので、だからこそ専門家の方がより敏感に反応しているのかも知れません。
これはSNSを頻繁に活用している方は経験されたことがあると思います。Twitterではボットがボットにコメントし、ボットが勝手にキーワードを読み込み、リツイートやリンクの機能を操作しています。これを逆手にとってフォロワーを増やすという手もありますが、それはボットの学習機能でも使われる手法です。
結局は、人工知能よりも人工知能を作ったり、操作をする人間のモラルの問題だと思います。
|