[記事ページ - オリジナルコンテンツ - 公正事業オリジン]

公正事業オリジン

日本工学会技術倫理協議会 第13回公開シンポジウムレポート
~未来社会に向けて技術者・研究者と社会がどのように協働するべきか~

 人工知能(以下、AI)は第三次ブーム(2013年~)を迎え、自動運転技術をはじめ、実用化に向けて様々な研究開発が進んでいます。AI自らが学習を繰り返し最適な行動を選択する「ディープラーニング」技術の出現により、2045年には、機械が人間の能力に追いつく技術的な特異点(シンギュラリティ)に到達するという未来予測もあります。人間の能力を超えたAIが社会にどのような影響を及ぼすかについては、技術的観点のみならず、倫理的・社会的・法的側面から考えていく必要があることから、日本工学会技術倫理協議会では、第13回公開シンポジウム「<人工知能と技術倫理>~未来社会に向けての技術者・研究者と社会の協働~」(2017年11月20日(月)東京理科大学森戸記念館)を開催しました。AIが創造する未来社会が人類にとって望ましいものとなるために、今後検討すべき課題について様々な議論がなされました。

AIの産業利用、人間との協働の在り方

 シンポジウムは4名の専門家による講演から始まりました。日立製作所で長年AIの研究開発に携わってこられた矢野和男理事/研究開発グループ技師長は、AIによって、ビジネス(産業構造)はルール志向からアウトカム(成果)志向に変わると予想しました。従来は、経験と観察に基づき最適と思われる方法を人が選択し、ルール化して業務プロセスを作り上げてきましたが、AIを活用することで、従来のルールに囚われず、純粋にデータに基づき目的に対する最適な方法を見いだすことが可能になるということです。日立製作所では、分野や問題を問わず同一のプログラムで対応できる多目的AIを開発し、AIにデータ分析させることで、ある物流倉庫の作業効率を8%向上、店舗のスタッフの配置を改善し、売上を15%増加するなど、めざましい効果を上げた例が報告されました。
 AIが膨大なデータから問題の最適解を導き、その結果、人間の作業労働時間が短縮され、空いた時間を使って人間はより重要なアウトカムを思考し、人類を幸福に導く社会を形成する――このようなAIと人間との協働が、未来社会のあるべき姿であると提案しました。

 ディープラーニング研究の専門家であり、人工知能学会倫理委員会委員長である、東京大学の松尾豊准教授は、第三次ブームにAI技術が飛躍的に発展し、2015年には画像認識の精度が人間を超えたと、現在の技術レベルを示しました。形状の異なる物体を掴んだり、重ねたりするといった、子どもでも簡単にできる動作が、ロボットではこれまで実現困難でした。しかし、AIがトライ&エラーを繰り返し、成功パターンを学習することでそのような動作も実現可能となりました。こうした技術により、農業・建設・製造分野をはじめ、医療・介護、サービス業も含めて様々な分野において、AIによる自動化が現実のものとなりつつあるということでした。
 一方で、AIによる悪影響を懸念する声も上がっているそうです。

  • ・製品やシステムの不具合(例:自動車自動運転での事故)
  • ・犯罪や軍事利用(例:ロボット兵士)
  • ・人間の感情の代替利用(例:ロボットを利用した恋愛ビジネス)、等

 現在の技術レベルでは到底実現し得ない問題もありますが、人々の不安を払拭するためにも倫理や社会制度におけるAI利用の議論が必要であると述べました。

AIが人類にもたらすもの

 理化学研究所にて人工知能倫理・社会チームのチームリーダーも務める京都大学の鈴木晶子教授は、AIによって産業構造が変化するだけでなく、社会システムや人間の存在そのものにも大きな変化が起こる可能性をあげました。これまで社会が抱えていた諸問題が解決されることが期待される一方で、「機械の人間化がかえって人間性を機械化するという逆説的効果になるかもしれない」と、米国の歴史家であるルイス・マンフォード氏の言葉を引用しました。人間性の機械化とは、新たな技術によって人間が暮らしの快適さを手に入れることと引き替えに、これまでできていた作業ができなくなるという身体能力の喪失や、快適さに慣れてしまい、今度は自らの思い通りにならないものを受容できなくなるという知性の喪失を意味します。これまでは、悲しみの最中でも喜びを見いだす、あるいは苦しみを乗り越えて喜びを手に入れるというように、喜怒哀楽が混在しており、そうした経験を通じて人間性を深めてきましたが、AIにより目の前の快適さを是とする風潮が強まった時には、「人間らしさとは何か」「人間の幸福とは何か」を再定義する必要があると提唱しました。

「AIと社会」について誰とどのように議論するか

 東京大学の江間有沙特任講師は、AIR(Acceptable Intelligence with Responsibility)研究会 を情報学、哲学・倫理学などの研究者とともに立ち上げてAIと人間の関わり方について議論を重ねているほか、海外の「AIと社会」の議論にも参加されています。本発表では、2017年11月にブラジルで開催された国際会議「人工知能と包摂(Artificial Intelligence and Inclusion) 」での参加体験をもとに、AIと社会というテーマについて、誰とどのように議論するかという課題を取り上げました。特に、AI技術は膨大なデータを基に、ある目的に対して最適解を導くことを得意としますが、それは「誰」の視点からの最適解なのかの議論を紹介しました。
 始めに、現在の技術の多くはAI先進国の基準にのっとって作られていますが、その基準がAI先進国以外でも共有できるものであるか、との疑問を呈しました。国だけではなく人種、ジェンダー、性的マイノリティ、若者など、社会的マイノリティの理由により、社会的・経済的に排除・差別されてきた人たちの包摂は、主に人文・社会科学的な観点からこれまで議論されています。しかし、そのような視点を欠いて開発されたAI技術ではプログラムのアルゴリズムにバイアスがあったり、学習データの多様性が欠けていたりするために、導かれた最適解では社会的マイノリティに対する排除や差別を顕在化あるいは増幅してしまう可能性があるということです。逆に、プログラムのアルゴリズムバイアスや学習データの多様性欠如を是正する「再教育」をAIに施す試みもNPOや国際機関を中心に行われていると報告されました。また、日本はロボットに愛着を抱く国民性もあって、AIの権利や責任についても積極的に議論されますが、世界には権利や国籍すら認められていない人々がいる中で、AIがパートナーとなりうるかどうかを議論すること自体への疑問も提示されたそうです。
 このように、日本と他国では意識や環境に差があるにも関わらず、これまで日本は主に欧米やアジア、自国だけを視野にいれて議論してきており、AI技術をリードする立場を目指すのであれば、誰と何を議論すべきかをより広く考えていくことが必要であるとまとめました。

AIが創造する未来社会に向けた技術者・研究者と社会の協働

 講演に引き続き、パネルディスカッションではAIが創造する未来社会に向けた技術者・研究者と社会の協働をテーマに、参加者と講演者とが意見を交わしました。
 最初の話題はAI技術に対する責任の所在についてでした。例えば、自動運転技術での交通事故が生じた場合、その責任は誰がどのように取るべきかという問いに対し、パネリストからは、一般的には自動車メーカーによる賠償やAI対応型の自動車保険等で対応するであろうとの見方が示されました。そして、AI技術の導入により、人による運転より事故率が下がることが期待されるものの、事故がゼロになるとは限らず、利用者側もAIによるリスクを理解した上でベネフィットを享受する必要があると注意を促しました。
 続いて、AIを開発する技術者・研究者の倫理について、他の技術を開発する場合との違いに留意する必要があると述べられました。つまり、AIは自らが学習するという特徴を有しており、開発した技術者・研究者であっても、予めAIの挙動を完全には把握しきれないことがあります。従って、AIを開発する技術者・研究者は、AI技術は社会的に大きな影響を及ぼす可能性があると認識し、技術のみならず、その社会的影響についても、より一層理解を深める必要があり、そのためにも様々な関係者とのネットワーク作りが重要になるということでした。
 また、AIそのものの倫理として、人工知能学会では倫理指針 の中に「人工知能への倫理遵守の要請」の条項を設け、「人工知能が社会の構成員またはそれに準じるものとなるためには、(中略)人工知能学会員と同等に倫理指針を遵守できなければならない。」と定めています。本倫理指針作成の中心人物である松尾氏は、本条項が現実に必要となるのはずっと先と前置きした上で、本条項を定めたねらいの一つに、「AIが遵守すべき倫理とは何か」という議論をきっかけに、関係者のあいだで様々な対話の機会を増やすことであったと明かしました。また、本倫理指針では、技術者・研究者はAI技術が他者に悪用されることを防止する措置を講じるよう努めることが掲げられており、自らの研究開発が規制されることを懸念する声もあるようです。
 講演の中でも、AIが創造する未来社会では、人類全体の幸福へとつながるアウトカムがより価値を増すことが話題になりましたが、人類の幸福へ貢献することで、貢献したその人自身も大いなる幸福感が得られるという考え方(well-being)が示されました。多くの技術者・研究者らはこうした善意のもとに便利な世の中を目指して開発していますが、一方、利用者側には「便利=(イコール)幸福」とは感じない人もおり、何を幸福と捉えるかは個人によって異なることから、一人一人が自らの意見を述べられるようにすることが重要という考えも示されました。
 それでは誰と誰がどのように議論するべきでしょうか。パネリストから、海外ではAIにまつわる倫理の議論が活発であり、ガイドラインや政策提言の形で結実していると紹介され、日本でも異分野の関係者同士が集まって議論する場を作ることが重要との提言がありました。また、専門家だけでなく、一般市民も自らの不安も含めて自由に話し合えるような場が必要であり、大人だけでなく、将来深くAIと関わるであろう子ども達も参加させ、AIとのつきあい方を考える教育機会を与えることが重要と述べられました。

 本シンポジウムでは、人類にとって真に幸福な社会を目指して、講演者・参加者らがAIに関して検討するべき課題に真剣に向き合い、意見を交わしました。今後も、AIに関する議論に多くの人が参加し、課題や解決策が具体化していくことが望まれます。

日本学術振興会が作成したeラーニング教材です。

Image0

オンラインで公開中

研究倫理講習会で利用している論文不正防止に関するパンフレット(JST 作成)です。

Image1

PDF:2.4MB

研究倫理講習会で利用している研究費不正防止に関するパンフレット(JST 作成)です。

Image2

PDF:2.8MB

研究倫理教育用の映像教材を制作しました。DVD 媒体による配布もしています。

Image3

オンラインで公開中

ページトップへ