記事の詳細

  • このエントリーをはてなブックマークに追加
  • follow us in feedly

AIのコースを無事に修了することができました。

慎重な方たちはお気づきかもしれませんが、AIってよくメディアから過剰に有能さをアピールされたり、都市伝説で「20XX年、AIの知能が人間を上回り脅かす存在に…」のようなニュアンスで伝えられていたりしますが、

コンピュータサイエンス学科できちんと仕様を学んでみると、AIへの依存やその判断への盲信が危険だとわかります。

AIは
⑴外部コミュニケーションするもの
⑵人間の言葉を扱うもの
⑶視覚データを扱うもの
⑷専門家の知識を活用するものetc…

などなど、色んな分野に細分化されていて、それぞれが与えられた範囲内でのみ、学習しながら動作を向上する単体のソフトウェアみたいなものです。
そして分野や業界を越えて動作することはできません。

ドコモにあるAI⑴が勝手に知恵をつけて、明日からNASAにあるAI⑷の宇宙専門知識を語りだしたりなんてしないわけです。運用サーバーもモデルもアプリも違うためです。

AIが人を驚かす発言をしたりするのは、エンジニアがユーモアで特殊な反応をプログラムしているか、または特定のタイミングで「人間の気を引く言葉」を知識ベースから選んでいるだけとか、おそらくそんなところだろうと思います。

今世間で出回っているAIの多くは、エンジニアが専門家と組んで、業界の知識やデータをプログラミングした機械やアプリで、それ単体の時点では制御範囲も限られているため、危険ではありません。

スティーブンホーキング博士がAIを危険だと警告していたのは、誠実でない開発者が安易にAIに過剰なアクセス権を与えてしまうことや、SiriのようなAIが予想外の発言をしたときに、仕様を知らない外部の人たちの混乱の原因になることとや、論理ありきの偏った決断に人が翻弄されてしまうことが危険なのだと言っていたのだと思います。
それだけでなく、バグや理由づけのミス、エンジニアの傲慢の可能性もあるわけです。

アルゴリズムは人がデザイン・実装したものなので、不適切な計算結果を出すこともあります。

例えば1,2,3,4,5,6の6つ選択肢があって5番が「ターゲットを撃つ」として、通常は5以外をはじきだす計算式が組まれていたとしても、すぐに5が導きだされてしまうことがあります。

それはAIが神がかりに下した結論などではなく、アルゴリズムの微細なバグやまたは設計ミス(論理だけで下された冷たい決断)です。

軍司令官の「ここで打つべきだろうが、嫌な予感がするからやめておこう」の心理面もまだうまくプログラミングできません。

そんな状態でAIが兵器に運用されれば、プログラムの1行ミスはさすがになくても、論理的決断だけで人は撃たれてしまうかもしれません。

「検索エンジン」のように論理だけで作れるAIならまだいいのですが、「兵器」や「カウンセリング」のように論理と心理が必要なAIはまだ研究途上です。

エンジニアの力量や悪知恵までもがプログラムに干渉できて、それが外部からは見えない以上、AIの出した結果に盲信して、システマチックに事を決断したり、AIに攻撃の決定権まで与えたりすることは危険です。

でも良いさじ加減で使えば、効率の悪い作業が減り、むしろ私たちの自由な時間が増えることにつながります。

例えば、医療診断AIがより洗練されて、医師も慎重に活用できれば、的確な診断と理由づけが早くなります。
できた時間で、より多くの患者さんの声に耳を傾けることができるようになります。

AIが今の制御範囲にとどまり、余った時間が有意義に使われていけばいいなぁと思います🍀

  • このエントリーをはてなブックマークに追加
  • follow us in feedly

関連記事

コメントは利用できません。

ページ上部へ戻る