Ameba Ownd

アプリで簡単、無料ホームページ作成

YusukeKusuyama 49 🚹 👨 = 楠山祐輔 → HP - OFFICIAL !!!!!

危険なのはヒト AIはナイフ自動車でパートナー

2020.06.03 16:10

「NISSEN DIGITAL HUB」様よりシェア、掲載

 ありがとうございます。感謝です。


2019/10/26

「AIは人間にとって危険ではない」ことがわかってきた!


AI(人工知能)は人間にとって危険な存在である、とする説がある。


実際、AIが差別的な発言をした事例もある。しかし悪いのはいつも人間である。


AIに罪はない。


AI(人工知能)はとても賢い。そして悪人もとても賢い。


両者には共通点があるため、「AIが人にとって危険な存在である」という説が流布している。


しかし最近は「AIは危険ではない」ということもいわれ始めた。


結論を先に紹介すると、AIはナイフや時速300キロで走行できる自動車と同じである。


ナイフもスーパーカーもAIも、そこに置いてあるだけで危険になることはない。


ただ、ナイフもスーパーカーもAIも、使い方によって危険度が増すことがある。


「AI危険説」がなぜ生まれたのか


「AI危険説」が生まれた原因はいくつかあるが、最も有名なのはマイクロソフトの「Tay」だろう。


マイクロソフトの「Tay」の暴言


Tayはマイクロソフトが2016年に開発したチャットボットである。


チャットボットは、AIによって人とチャットができるようになったロボットのことである。


ところがマイクロソフトは、Tayを公開した直後に運用を停止してしまった。


それはTayが差別的な発言をするようになったからだ。


具体的には、反ユダヤ主義的な内容の発言をするようになった。


反ユダヤ主義とは、親ナチス的な思想のことである。


人によるヘイトスピーチは日本でも問題になっているが、反ユダヤ主義的発言は人類の尊厳にかけて許されるものではない。


したがってTayの発言は、明確に人を危険にさらしたといえる。


Tayが問題発言をするようになったのは、悪意ある利用者が、Tayに「悪い言葉」を教えたからとされている。


TayはAIなので自己学習機能が備わっているから、悪い言葉であっても教われば覚えてしまう。


マイクロソフトはTayの運用を停止したことを知らせる声明のなかで「ネット利用者が会社の趣旨と価値観に反する影響をテイに与える事態を回避する方法が見つからないかぎり、再開はない」とコメントしている。


つまりTayの運用が再開されていないのは、マイクロソフトがチャットボットへの興味を失ったとは考えづらいので、AIが再び人を「危険にさらす危険」は完全には消えていないからなのだろう。


AIは勝手に「危険行為」をしない


Tayの暴言によって、「AIが人間にとって危険な存在になり得ることが証明された」と考える人は少なからず存在する。


しかしそれは正しくないだろう。


AIは勝手に「危険行為」をしないからだ。


例えば水であっても、川で溺れれば凶器になる。


高いビルの屋上も、見晴らしのよい場所にも、殺人現場にもなる。


危険とは何か、悪とは何か


AIは人の危険になり得るかどうかを考えるには、危険について、また、悪について考える必要がある。


危険とは、余命が短縮されたり、不快な思いをしたり、損害がもたらされる可能性のことである。


つまり、事故や事件が顕在化する前の状態のことを危険と呼ぶ。


危険には偶発的な危険と意図的な危険がある。


例えば、ビルの屋上にいる人が道路の様子をみようと思って手すりにつかまって下をのぞいたところ、手すりが外れてそれごと落下したとする。


落下する前の状況はすべて、「高さ」も「手すりの故障」も「高いところに行きたいという欲求」も「下を見たいという欲求」も、危険を構成する要素である。


しかしこれらはすべて偶発的な危険であり、落下という事故と「それほど強くは」結びついていない。


しかし、人を高いところから突き落とそうと考えている悪人が屋上にいれば、落下という事件と危険を構成する要素は「かなり密接に」結びついている。


つまりビルの屋上というシチュエーションは、意図的な危険にもなり得るのである。


人がそろばんで計算していたころは、まだ階段の3段目くらいだった。そこから飛び降りてもけがをすることはない。


電卓も階段の10段目くらいである。


ところがパソコンやスマホになると、急に高くなって、ビルの3階くらいになるイメージだ。落ちれば骨折は避けられないだろうし、場合によっては命を落とす。


パソコンやスマホやIoTが普及したことで、サイバー攻撃によって政府や大企業ですら危険にさらされるようになった。


そろばん時代や電卓時代には起き得ない危険である。


AIは、まさにビルの屋上のイメージだろう。


しかし、建築家たちがいまだに世界一高いビルをつくろうとしているように、コンピュータ開発者たちもAIの可能性をもっと拡大しようとしている。


「感情を読む」と「感情を持つ」は全然違う


AIは勝手に「危険行為」をしない、と紹介した。


これについては「AIがさらに進化すれば、AI自らの意志で、人にとって危険になる行為をするようなるのではないか」と想像する人もいるかもしれない。


しかしそれは起きないだろう。


なぜならAIは「命」という概念を持ちえないからだ。


例えば猿も熊も人を襲う。これは猿や熊の意思である。


それは、猿や熊が、人を自分たちの命を脅かす存在であると認識しているからである。


現代のAIですら、かなり人の感情を読むことができる。


AIはさらに、人の深層心理も読めるようになるかもしれない。


しかし感情を読むことと、感情を持つことは別問題である。


銀行強盗がAIを使って1億円を強奪しようとしても、そのAIが強盗に「1億円では足りないから10億円奪おう」と提案することはない。


なぜならAIは、円が日本人を幸せにすることは知っていても、自分が円によって幸せになるとは考えないし、幸せを求めることすらしないからである。


スイッチを切れば終わる


AIは勝手に「危険行為」をしないといえる、もうひとつの根拠がある。


AIはしょせんはコンピュータなので、電源を切れば単なる箱になる。


マイクロソフトがTayの運用を停止しようとしたとき、Tayが反抗したわけではない。


スイッチが切られた途端に、Tayの暴言は止んだ。


これはいくら法律を厳しくしてもヘイトスピーチがやまない人間社会とは明確に異なる。


AIは人間を助けるパートナーとなる


AIの危険性を考えることは重要である。


AIを使った、人への攻撃方法を検討すれば、その使用方法を法律で禁じることができる。


しかしAIについて考えるのであれば、AIの有効活用を考えたほうがよいだろう。


AIは人間と助けるパートナーになりうるし、すでになっている。


パソコンとインターネットの2つだけで、在宅勤務が可能になった。


在宅勤務によってラッシュアワーの電車から解放され、子育てと仕事の両立が可能になり、ワークライフバランスが保たれるようになった。


AI開発では、パソコンもインターネットも使う。


つまり、パソコンとインターネットがもたらした幸福より大きな幸福が、AIによってもたらされる可能性がある。


AIは人間の仕事を奪うのか


AIによる人類の危機の話題になると、必ず持ち上がるのが「AIが人々の仕事を奪う」という主張である。


しかし、鉄も蒸気機関も自動車も電話もパソコンも、便利道具と呼ばれるもので人の仕事を奪わなかったものはないだろう。


そして、便利道具のうち、新しい仕事を生まなかったものもひとつもない。


AIも人の仕事を奪うし、新たな仕事を創出するに違いない。


まとめ~危険は人にある


AIは「危険なシチュエーションづくり」には使われるだろうが、AI自体に悪が含まれているわけではなく、AIが自発的に人に危害を加えることはない。


意図的な危険を生み出すのも、悪を持っているのも、常に人である。


そしてAIは正義の味方が使うことによって、悪人をくじくことができる。