「宇田川源流」【GW特集 IT時代の日本】 事件簿 生成AIによる権利侵害、法務省が法的整理へ

「宇田川源流」【GW特集 IT時代の日本】 事件簿 生成AIによる権利侵害、法務省が法的整理へ


今年のゴールデンウィークの特集はAIに関してみています。ゴールデンウィークの後半は、AIの事件簿に関してみています。前回は、AIに依存しすぎるというリスクについて見てみました。アメリカではふくすう、AIに言われたから、AIに相談した結果絶望して自殺をしてしまったというような事件が起きています。この件に関して前回は見てきました。

実際に、相手がAiではなくても日本の場合、占い師に言われたからと言って自殺をしてしまったという事例が、「自殺ほう助」または「殺人教唆」に当たるのではないかというような刑事裁判があったと思いますが、前回も指摘したように、全ての人が占いやAiに言われたからといて死んでしまう人ばかりではないということになり、当然に、その人、つまり死んでしまった人を取り巻く社会的な環境やコミュニケーション能力など、様々な要因が絡んでいると思います。しかし、一方でそのコミュニケーション能力ということでいえば、Aiができたことで、「AIとコミュニケーションをしていることで、人間とのコミュニケーションを必要としない」というような人も出てきてしまうということになります。そのような内容に関して、もう少し考えてゆかなければなりません。

では、AIの不法行為というのは、誰がどのように責任を取るのでしょうか。日本では生成AIによる権利侵害について、法務省が法的な整理を行うというニュースが出てきましたが、では実際はどのようなことが考えられるのか、今回は「AIと不法行為責任」ということに関してみてみましょう。

★ AIによる事故発生時はどうなるのか

 AIが不法行為をした場合、その責任はどのようになるのでしょうか。例えば、AIで完全に制御している自動車が死亡事故を起こした場合、または、AIで制御された機会が過失で人を殺してしまった場合、日本の法的にはどのような責任になり、誰が刑事罰の対象となるのでしょうか。AIの開発者なのか、管理者なのか、当然にいくつかの場合分けが必要と思います。まずはそのことについてみてみましょう。

結論から言うと、日本の現行法では「AIそのもの」が責任主体になることはなく、責任は必ず人間や法人に帰属します。つまり問題は「AIが何をしたか」ではなく、「そのAIをどのように設計し、管理し、使っていた人間にどの程度の過失や義務違反があったか」という形で整理されます。

 まず、自動運転車のようにAIが運転を担っている場合を考えると、日本では完全自動運転が制度として広く一般化しているわけではなく、現実の制度は段階的な自動化を前提にしています。そのため事故が起きた場合、原則としてまず運転者、すなわちその車両の使用者に責任が問われる可能性があります。仮にAIが運転していたとしても、「本当に人間は関与していなかったのか」「監視義務はなかったのか」という点が精査されます。もし人間が適切に監視していれば事故を防げたと評価されれば、過失運転致死傷罪といった形で刑事責任が問われる余地があります。

 一方で、人間が実質的に介入できないレベルの完全自動運転が前提となる場合には、責任の重心は製造側やシステム提供者に移っていきます。この場合は、設計やプログラムに欠陥があったかどうかが重要になります。もし安全上の予見可能なリスクを無視していたり、必要な安全対策を講じていなかったと認定されれば、開発者や製造企業に業務上過失致死傷の責任が問われる可能性があります。ただしここでのハードルは高く、「その事故は本当に設計ミスによるものか」「当時の技術水準で回避可能だったのか」といった点が厳密に検討されます。

 さらに、AIを組み込んだ機械やロボットが工場や施設で事故を起こした場合には、管理者の責任が強く問われる傾向があります。これは従来の産業事故と同じ構造で、安全管理義務の違反があったかどうかが中心になります。例えば、危険が予測できる状況で適切な監視を怠った、あるいは安全装置を十分に整備していなかった場合には、現場責任者や企業側に刑事責任が及ぶ可能性があります。この場合、AIはあくまで「道具」であり、その道具をどう管理していたかが問われるわけです。

 ただし、AI特有の問題として、「予測困難性」があります。機械学習型のAIは、開発者自身でも挙動を完全に説明できない場合があり、その結果、事故の因果関係を特定することが難しくなることがあります。この点について日本の法制度はまだ完全には整理されておらず、従来の過失責任の枠組みでどこまで対応できるかが議論されています。つまり、「予測できなかったこと」をどこまで責任として問えるのかという問題です。

 民事責任については、刑事責任よりも広く認められる傾向があります。被害者救済の観点から、製造物責任や不法行為責任に基づいて企業側が賠償責任を負うケースは比較的想定しやすいです。たとえ刑事責任が認められなくても、損害賠償責任が認められる可能性は十分にあります。

 総じて言えるのは、日本法は現時点ではAIを特別な主体として扱っているわけではなく、「誰がどの段階でどのような注意義務を負っていたか」という従来の枠組みで責任を判断しているということです。そしてAIの高度化によってその境界が曖昧になっているため、今後は責任の所在をより明確にするための制度整備が求められている段階にあると言えます。

 したがって、開発者、提供者、管理者、利用者のいずれが責任を負うかは一律に決まるものではなく、具体的な状況ごとに「どの立場の人間がどのリスクを予見でき、どこまで回避できたか」という観点から個別に判断される、というのが現在の日本の基本的な考え方です。

★ AIが自分の意思で不法行為を行った場合

 ここからは推測はSFの世界を含めてということになりますが、AIがAIの意思によって不法行為を行った場合はどのようになるのでしょうか。現代でいえば、AIのプログラミングで、インタネット上を検索し、そのうえで回答を作った場合の著作権法違反などがその例に挙げられると思いますし、またSFの世界でいえば、映画ターミネーターや、ミーガンといった、AIが何かを守るために他の人を害してしまうというようなことが将来ていには十分に考えられます。もちろん日本ではこのような事件はないので、今のところ法整備はないと思いますが、今後その様になった場合、どのようになるのか。そのようなことを考えてみましょう。ここからはあくまでも将来の推測でしかない野ですが、もしかしたら近い将来の事かもしれません。

まず率直に言うと、「AIが自分の意思で不法行為を行った」という前提そのものが、現在の法体系とは相性がよくありません。日本を含め世界の法は、「意思を持ち、責任を負う主体は誰か」を人間か法人に限定して組み立てられてきたからです。したがって、たとえ外見上は自律的に見えるAIが問題行為を起こしたとしても、その瞬間に「ではこのAIを法的主体として処罰する」という方向にすぐ進むとは考えにくく、まずは既存の枠組みの中で人間側の責任に引き戻す形で整理される可能性が高いです。

 ただし、技術が進んで「開発者ですら具体的な挙動を予測できない」「運用者も制御できない」というレベルに近づくと、従来の枠組みだけでは説明しきれなくなります。そのとき議論されているのが、「AIをどう位置づけるか」という問題です。

 一つの方向性として議論されてきたのが、AIにある種の法的地位を与えるという考え方です。これはかつて欧州で「電子的人格」という概念として検討されたことがありますが、現在のところ主流にはなっていません。理由は単純で、責任をAIに帰属させても、被害者救済や抑止という法の目的にあまり役立たないからです。AIに罰金を科しても意味がなく、結局はその背後にいる人間や企業に負担を求めるしかないためです。

 そのため現実的な方向としては、「AIはあくまで道具だが、従来よりも強い責任を人間側に課す」という形に進む可能性が高いと考えられています。たとえば、AIが自律的に学習・行動することを前提に、そのリスクを織り込んだ設計義務や監視義務を開発者や運用者に課すという考え方です。これは既に欧州の EU AI法 などに見られる発想で、高リスクAIについては厳格な管理や説明責任を求めています。ここでは「AIが何をしたか」よりも、「そのAIを社会に出すにあたってどの程度の安全措置が講じられていたか」が重視されます。

 さらに一歩進んだ議論として、「無過失責任」に近い考え方も出てきます。つまり、過失があったかどうかにかかわらず、一定の危険性を持つAIを運用していた者は、その結果について責任を負うというものです。これは自動車事故や原子力など、社会的に有用だが危険性も高い技術に対して採られてきた考え方と似ています。AIが高度化すればするほど、この方向に近づく可能性はあります。

 一方で、「AIが誰かを守るために人を害する」といったケースは、単なる過失ではなく、ほとんど意思決定に近い領域になります。この場合、法は「その判断基準を誰が設計したのか」に注目することになります。たとえば、「守るべき対象を優先する」というルールを組み込んだのが開発者であれば、その設計思想自体が問題視される可能性がありますし、運用者が特定の目的のためにAIをカスタマイズしていた場合には、その運用責任が問われることになります。つまり、AIの「意思」に見えるものも、最終的には人間が与えた目的関数や制約条件に還元されて評価されるという方向です。

 著作権のような比較的ソフトな分野でも同じ構造が見られます。AIが自動的に生成したコンテンツが権利侵害を起こした場合でも、現時点ではAI自身が侵害主体になるのではなく、それを生成・提供・利用した人間や企業の責任が問われます。ただし、ここでは「どこまでが人間の関与か」が曖昧になるため、責任の範囲をどう切り分けるかが大きな争点になっています。

 SF的な状況、たとえば ターミネーター のようにAIが完全に自律した存在として行動する世界を想定すると、法制度も質的に変わらざるを得ません。その場合には、AIを単なる道具ではなく、ある種の「主体」として扱う必要が出てきます。ただしそのときでも、おそらく完全に人間と同等の責任主体とするのではなく、「制限された責任能力」や「管理者との共同責任」といった中間的な制度が設けられる可能性が高いです。これは企業という法人が自然人とは異なる形で責任主体として扱われているのと似た発想です。

 結局のところ、将来の方向性は大きく二つの軸の間で揺れることになります。一つは「どこまで人間に責任を帰属させ続けるか」、もう一つは「どの段階でAIに一定の主体性を認めるか」です。そして現実の制度は、おそらく急激に後者へ移行するのではなく、まず前者を強化しながら、技術の進展に応じて段階的に調整されていく形になると考えられます。

 つまり、たとえ見かけ上はAIが「意思」を持って行動しているように見えても、法は当面の間、それを人間の設計と管理の延長として捉え続ける可能性が高い。そしてその枠組みが限界に達したときに初めて、「AIとは何か」という根本的な再定義が制度として求められることになる、というのが現在の世界的な議論の到達点です。

このように考えると、AIが起こした事件と、一方で、類人猿(例えばピグミーなど)が起こした事件という事や、何か意思のある動物が起こした事件(意志ある事件又は無過失事件や過失事件を含む)とは、どちらも人間が制御できないもしくは制御を任されていながら管理責任ができていないということと同じように考え得られます。ある意味で、最も最先端のAIと、逆に最先端からは逆行した類人猿の起こした事件という人間の発展とは逆行するものとがほぼ同じではないかというような疑問が出てきます。

しかし、この二つ、つまり「最先端」と「類人猿など」は、そのまま「同じもの」として重ねてしまうと、重要な違いを見落とします。似ている部分と決定的に違う部分の両方を押さえると、より正確に理解できます。

 まず似ている点は、ご指摘の通り「人間以外の存在が結果を引き起こし、その結果について人間側の管理や予見可能性が問われる」という構造です。動物であれAIであれ、それ自体が法的責任主体にならない以上、法は必ず「誰がそれを支配・管理していたのか」「危険をどこまで予見できたのか」という方向で責任を探ります。この意味では、動物による事故とAIによる事故は、いずれも人間側の管理責任に帰着するという共通の枠組みで理解できます。

 しかし、ここからが重要な違いです。動物、たとえばチンパンジーやボノボのような類人猿は、生物として固有の行動特性を持っており、その危険性もある程度は経験則として共有されています。つまり「予測は完全ではないが、どのようなリスクがあり得るか」は人間社会の側で比較的把握されています。そのため法的にも、「危険な動物を飼う以上はその危険を引き受けるべきだ」という形で責任を構成しやすいのです。

 これに対してAIは、人間が設計したものであるにもかかわらず、その挙動が必ずしも設計者の直感や経験に収まらないという性質を持っています。特に機械学習型のAIでは、同じ仕組みから予期しない振る舞いが生まれることがあります。つまり、動物は「自然に由来する不確実性」を持つのに対し、AIは「人工的に作られた不確実性」を持っている。この違いは大きいです。法的にも、「自然だから仕方がない」という整理はAIには通用せず、「人間が作った以上、どこまで責任を負うべきか」というより厳しい問いが生じます。

 さらに決定的なのは、「目的の埋め込み方」です。動物は本能や学習によって行動しますが、その目的は人間が設計したものではありません。一方でAIは、たとえ高度に自律的に見えても、何らかの目的関数や評価基準が人間によって与えられています。たとえば「ある対象を守る」という目的が設定されていた結果として他者に危害が及んだ場合、それはAIの“意思”というより、その目的設定の帰結として評価されます。ここでは責任の焦点は「そのような設計をしたのは誰か」に強く向かいます。

 したがって、「どちらも人間が完全には制御できない存在である」という意味では共通していますが、法的・社会的な評価の仕方は同一にはなりません。動物の場合は主に管理・監督の問題として扱われるのに対し、AIの場合はそれに加えて「設計責任」や「社会に導入した判断」の責任がより重く問われる傾向があります。

 もう一つ付け加えると、象徴的には確かに「最先端のAIと原始的な存在が同じ問題を引き起こす」という構図は興味深いのですが、実態としては逆方向の問題です。動物の問題は「人間が制御できない自然をどう扱うか」という古典的なテーマであり、AIの問題は「人間が作り出したものが人間の制御を超え始める」という新しいテーマです。似ているようで、背後にある責任の哲学は異なっています。

 結論として、そのような類比は「人間以外の存在によるリスクを人間がどう引き受けるか」という共通点を理解するうえでは有効ですが、AI特有の設計責任や予測困難性といった要素を考えると、完全に同じ枠組みで捉えるのはやや粗い整理になります。むしろ、その違いこそが、これからの法制度が直面している新しさだと言えます。

さて、法務省はこのような内容を整理しているということですがこのようなところまで詳しく入っているのでしょうか。その結果を見ながら、「日本人のAIとの共存」ということを考えてゆかなければならないということになります。、

宇田川源流

「毎日同じニュースばかり…」「正しい情報はどうやって探すのか」「情報の分析方法を知りたい」と思ったことはありませんか? 本ブログでは法科卒で元国会新聞社副編集長、作家・ジャーナリストの宇田川敬介が国内外の要人、政治家から著名人まで、ありとあらゆる人脈からの世界情勢、すなわち「確実な情報」から分析し、「情報の正しい読み方」を解説します。 正しい判断をするために、正しい情報を見極めたい方は必読です!

0コメント

  • 1000 / 1000