第3 誰が、どのような責任を負うべきか
1 はじめに
前回の記事では、人がAIを利用した結果、第三者に損害が発生した場合に、日本の現行法を適用すると、被害者救済として不十分な結論になるのではないかというところまで述べました。本記事では、この問題について、どのような考え方があるのか概要をご紹介したいと思います。また、医療分野については、固有の議論が進展ありますので、別途項目を立てて述べます(なお、最も議論が精力的に行われているのは、自動車分野なのですが、これについては別の機会に譲ります。)。
2 EUの議論
EUでは、2022年9月に、AI民事責任指令案(AI Liability Directive, AILD)と改正製造物責任指令案(Revised Product Liability Directive, RPLD)が公表されました。製造物責任指令(new PLD)については、2024年12月8日に発効し、2026年12月9日以降に市場に投入される製品が適用対象となっています。
(1)AI民事責任指令案
本指令案は、プロバイダー又はユーザー(*7)の過失責任を維持しつつ、ハイリスクAIについては、因果関係の推定と証拠開示義務によって、被害者による損害賠償請求を容易にしようとしています。
ここで言うハイリスクAIとは、EU AI規則(Artificial Intelligence Act, AIA)の分類に従います。すなわち、①EUは特定の分野で使用されるAIか、②製品安全規制に関連するAIです。①の例には、重要なインフラ(交通、電力、医療等)、教育・職業訓練(試験や採用システムなど)、雇用・労働管理(採用プロセスや労働者監視AI)、公共サービス・社会的福祉(ローン審査、社会保障給付など)、法執行(警察の犯罪予測システム、顔認識技術など)、司法・民主主義(裁判所支援AI、選挙管理AIなど)等があります。②の例には、医療機器、自動車等があります。
ア 反証可能な因果関係の推定
一定の要件の下、被告の過失と、AIシステムによって生成された出力又はAIシステムが出力を生成できなかったこととの間の因果関係が推定されます。非ハイリスクAIについては、原告が因果関係を証明することが著しく困難であるとの裁判が必要とされています(AILD4条5.)。
イ 証拠開示
被告が裁判所の開示又は保存の命令に従わない場合、被告が関連する注意義務を遵守していないことが推定されます。但し、被告は推定に対して反証することができます(同3条5.)。
(2)製造物責任指令
本指令案のAIに関する改正点としては、①AIシステム及びAI対応製品が「製品」に当たるとして製造物概念を拡大し、また、ハードウェア製造者のみではなく、ソフトウェア・プロバイダー及び製品の動作に影響を与えるデジタルサービスのプロバイダーを責任主体としたこと(new PLD4条(1))、②既に市場に流通させた製品に実質的な改変を加えた者を製造者と同視して責任を問えることとしたこと(8条2.)、③一定の要件の下に、ハイリスクAIか否かの区別なく、証拠開示命令が出されることとしたこと(9条)、④一定の要件の下、欠陥及び欠陥と損害との因果関係について推定規定を設けたこと(10条2.以下)、が挙げられます(*8)。
(1)AI民事責任指令案
本指令案は、プロバイダー又はユーザー(*7)の過失責任を維持しつつ、ハイリスクAIについては、因果関係の推定と証拠開示義務によって、被害者による損害賠償請求を容易にしようとしています。
ここで言うハイリスクAIとは、EU AI規則(Artificial Intelligence Act, AIA)の分類に従います。すなわち、①EUは特定の分野で使用されるAIか、②製品安全規制に関連するAIです。①の例には、重要なインフラ(交通、電力、医療等)、教育・職業訓練(試験や採用システムなど)、雇用・労働管理(採用プロセスや労働者監視AI)、公共サービス・社会的福祉(ローン審査、社会保障給付など)、法執行(警察の犯罪予測システム、顔認識技術など)、司法・民主主義(裁判所支援AI、選挙管理AIなど)等があります。②の例には、医療機器、自動車等があります。
ア 反証可能な因果関係の推定
一定の要件の下、被告の過失と、AIシステムによって生成された出力又はAIシステムが出力を生成できなかったこととの間の因果関係が推定されます。非ハイリスクAIについては、原告が因果関係を証明することが著しく困難であるとの裁判が必要とされています(AILD4条5.)。
イ 証拠開示
被告が裁判所の開示又は保存の命令に従わない場合、被告が関連する注意義務を遵守していないことが推定されます。但し、被告は推定に対して反証することができます(同3条5.)。
(2)製造物責任指令
本指令案のAIに関する改正点としては、①AIシステム及びAI対応製品が「製品」に当たるとして製造物概念を拡大し、また、ハードウェア製造者のみではなく、ソフトウェア・プロバイダー及び製品の動作に影響を与えるデジタルサービスのプロバイダーを責任主体としたこと(new PLD4条(1))、②既に市場に流通させた製品に実質的な改変を加えた者を製造者と同視して責任を問えることとしたこと(8条2.)、③一定の要件の下に、ハイリスクAIか否かの区別なく、証拠開示命令が出されることとしたこと(9条)、④一定の要件の下、欠陥及び欠陥と損害との因果関係について推定規定を設けたこと(10条2.以下)、が挙げられます(*8)。
3 責任主体の議論
責任主体のあり方については、大きく2つの立場があると言われています(*9)。
一つ目は、AIの投入に伴う加害を、①AIの出力が人の行為に利用される場合と、②AIのよって機械が自動運転される場合に分け、①についてはAIを利用する者の過失責任とし、②については、機械の稼働者に危険責任(無過失責任)を(新たな立法的手当によって)課するという立場です。なお、製造物責任についても欠陥責任を課します(*10・11)。
二つ目は、(EUのように)、製造物責任法を強化し、ユーザー及びプロバイダーに責任を負わせ、因果関係の推定や証拠開示制度等の工夫によって、請求者の負担を軽くしようとする方向性です。
一つ目の立場は、支配領域に発生した事象について責任を負うとし、支配領域を観念的に捉えます(すなわち、本来自分(又は自分が雇用等する人)がやるべきことを、AIを使って行う以上は、それによって起きた責任を負うべきと考え、その者が“現実に”AIによる事故を防止できる立場にあったかは重視しません。)。他方、二つ目の立場は、損害発生のコントロール可能性のある者に責任を負わせることを基礎としていると言われます(*12)。
一つ目は、AIの投入に伴う加害を、①AIの出力が人の行為に利用される場合と、②AIのよって機械が自動運転される場合に分け、①についてはAIを利用する者の過失責任とし、②については、機械の稼働者に危険責任(無過失責任)を(新たな立法的手当によって)課するという立場です。なお、製造物責任についても欠陥責任を課します(*10・11)。
二つ目は、(EUのように)、製造物責任法を強化し、ユーザー及びプロバイダーに責任を負わせ、因果関係の推定や証拠開示制度等の工夫によって、請求者の負担を軽くしようとする方向性です。
一つ目の立場は、支配領域に発生した事象について責任を負うとし、支配領域を観念的に捉えます(すなわち、本来自分(又は自分が雇用等する人)がやるべきことを、AIを使って行う以上は、それによって起きた責任を負うべきと考え、その者が“現実に”AIによる事故を防止できる立場にあったかは重視しません。)。他方、二つ目の立場は、損害発生のコントロール可能性のある者に責任を負わせることを基礎としていると言われます(*12)。
4 医療の議論
(1)医療分野で用いられるAI
医療分野で用いられるAIは、[A]判断支援型(例、現実の検査結果をデータベースと比較・照合して、一定の評価をするもの)か[B]直接動作型(AIによって自動運転される機械・ロボットが人間の動作を代替するもの)に分けられます。
[A]には、(a)医師等の医療従事者の判断をサポートするタイプと、(b)患者等の一般人の判断をサポートするタイプがありますが、ここでは前者を取り上げることにします。これは、橋本教授の分類によれば①-3AIの出力を元に行為を実行する場合に該当します。
[B]にも、[A]と同様で、サポートする対象が、(a)医療従事者なのか、(b)一般人なのかによって、性質が異なりますが、こちらも前者のみをとりあげます。
(2)[A](a)医療従事者の判断を支援するAI
医師法17条は、「医師でなければ、医業をなしてはならない。」と定めています。また、厚生労働省の通達では、「人工知能(AI)を用いた診断・治療支援を行うプログラムを利用して診療を行う場合についても、診断、治療等を行う主体は医師であり、医師はその最終的な判断の責任を負うこととなり、当該診療は医師法第17条の医業として行われるものである」(医政医発1219第1号平成30年12月19日)とされています。従って、日本においては、AIが、(生身の人間である医師の判断を飛び越えて、)診断・治療等をすることはできないということです。
これを前提として、AIが医師に提供した判断に誤りがあり、AIの誤った判断に基づいて、医師が医療行為をした結果、患者に損害が発生した場合、医師はどのような責任を負うべきでしょうか。この点については、AIの提供した判断が信用に値するものなのかを直接問うことは困難であるため、あくまで当該医師の医療行為が医療水準に適合していたか否かを判断することになると思われます。
結局のところ、医師は、最終的には自らの責任で判断をすることになりますから、AIの提供した判断は、医師の判断の参考情報という位置づけにしかなりません(この意味で、これまで行われてきたように、医師が書籍・論文等を参考にして判断したときと、判断枠組みとしては変わらないということです。)。
(3)[B](a)医療従事者の行為を代替する機械・ロボットを動かすAI
この場合についても、医療行為を行う責任者は医師ですので、当該医師の医療行為が医療水準に適合していたかが問題になります。
もっとも、仮に医療水準に適合していなかったとしても、[A]の場合と異なって、機械・ロボットの動作はAIが直接制御していますから、医師が、事前には予見し得ない誤動作が起きる可能性はあり、予見し得ないことについては過失責任を問うことはできません。
そこで、患者はAI開発者の不法行為責任や、機械の製造者の製造物責任を問うことが考えられますが、これについては、前回の記事(第2の2(2))で述べたことと全く同じ問題があてはまりますので、一定の立法的手当が必要であろうと思います。
医療分野で用いられるAIは、[A]判断支援型(例、現実の検査結果をデータベースと比較・照合して、一定の評価をするもの)か[B]直接動作型(AIによって自動運転される機械・ロボットが人間の動作を代替するもの)に分けられます。
[A]には、(a)医師等の医療従事者の判断をサポートするタイプと、(b)患者等の一般人の判断をサポートするタイプがありますが、ここでは前者を取り上げることにします。これは、橋本教授の分類によれば①-3AIの出力を元に行為を実行する場合に該当します。
[B]にも、[A]と同様で、サポートする対象が、(a)医療従事者なのか、(b)一般人なのかによって、性質が異なりますが、こちらも前者のみをとりあげます。
(2)[A](a)医療従事者の判断を支援するAI
医師法17条は、「医師でなければ、医業をなしてはならない。」と定めています。また、厚生労働省の通達では、「人工知能(AI)を用いた診断・治療支援を行うプログラムを利用して診療を行う場合についても、診断、治療等を行う主体は医師であり、医師はその最終的な判断の責任を負うこととなり、当該診療は医師法第17条の医業として行われるものである」(医政医発1219第1号平成30年12月19日)とされています。従って、日本においては、AIが、(生身の人間である医師の判断を飛び越えて、)診断・治療等をすることはできないということです。
これを前提として、AIが医師に提供した判断に誤りがあり、AIの誤った判断に基づいて、医師が医療行為をした結果、患者に損害が発生した場合、医師はどのような責任を負うべきでしょうか。この点については、AIの提供した判断が信用に値するものなのかを直接問うことは困難であるため、あくまで当該医師の医療行為が医療水準に適合していたか否かを判断することになると思われます。
結局のところ、医師は、最終的には自らの責任で判断をすることになりますから、AIの提供した判断は、医師の判断の参考情報という位置づけにしかなりません(この意味で、これまで行われてきたように、医師が書籍・論文等を参考にして判断したときと、判断枠組みとしては変わらないということです。)。
(3)[B](a)医療従事者の行為を代替する機械・ロボットを動かすAI
この場合についても、医療行為を行う責任者は医師ですので、当該医師の医療行為が医療水準に適合していたかが問題になります。
もっとも、仮に医療水準に適合していなかったとしても、[A]の場合と異なって、機械・ロボットの動作はAIが直接制御していますから、医師が、事前には予見し得ない誤動作が起きる可能性はあり、予見し得ないことについては過失責任を問うことはできません。
そこで、患者はAI開発者の不法行為責任や、機械の製造者の製造物責任を問うことが考えられますが、これについては、前回の記事(第2の2(2))で述べたことと全く同じ問題があてはまりますので、一定の立法的手当が必要であろうと思います。
5 おわりに
これまでに述べたように、被害者救済という観点からはAIと不法行為は非常に重要な問題です。しかしながら、日本においては、EUのような特別な法的な手当はされていないところです。今後、議論の進展がありましたら、ご紹介したいと思います。
脚注
*7 ごく簡単に言うと、「プロバイダー」とはAIシステムの開発者であり(AILD2条(3)が準用する欧州委員会AI規則3条(2))、「ユーザー」とはAIシステムを使用する人です(個人的な非専門的活動の過程で使用する場合は除かれます)(AILD2条(4)が準用する欧州委員会AI規則3条(4))。
*8 大塚直「AIと不法行為責任(序説)」潮見佳男先生追悼論文集(財産法)刊行委員会編『財産法学の現在と未来』697頁(有斐閣、2024年)。また、製造物責任指令採択後に発表された最新の論文として、カライスコスアントニオス「EUにおける製造物責任指令の改正」龍谷法学57巻4号25頁(龍谷大学法学会、2025年3月)。
*9 大塚直「総括――科学技術の発展に伴う多様なリスクと不法行為法」NBL1272号53頁(商事法務、2024年)
*10 橋本佳幸「AIのリスクと無過失責任」NBL1272号37頁(商事法務、2024年)。この立場は、本記事の前編脚注6で述べたように、現行の製造物責任法の適用は難しいと考えるのではなく、「機械の欠陥を、自動運転システムを構成するAIの内部構造において捉えるとすれば、欠陥責任の追及は著しく困難となる」として、「欠陥」は、「機械の構造・性状面ではなく、機械の動作の側面において捉えるべき」として、このような解釈を通じて、現行法の適用可能性を肯定的に捉えます。
*11 一つ目の立場は、AIの利用場面を場合分けします。すなわち、①-1自己の行為としてAIに出力をさせる場合、①-2AIの出力を自己の行為の内容に組み込む場合、①-3AIの出力を元に行為を実行する場合です。橋本教授は、いずれについても、行為者の過失を問えば足りるので、無過失責任による規律までは不要とします。
なお、本記事の前編で仮想事例を設定しましたが、仮想事例は、②AIのよって機械が自動運転される場合に当たります。
*12 前掲注9・54頁
*8 大塚直「AIと不法行為責任(序説)」潮見佳男先生追悼論文集(財産法)刊行委員会編『財産法学の現在と未来』697頁(有斐閣、2024年)。また、製造物責任指令採択後に発表された最新の論文として、カライスコスアントニオス「EUにおける製造物責任指令の改正」龍谷法学57巻4号25頁(龍谷大学法学会、2025年3月)。
*9 大塚直「総括――科学技術の発展に伴う多様なリスクと不法行為法」NBL1272号53頁(商事法務、2024年)
*10 橋本佳幸「AIのリスクと無過失責任」NBL1272号37頁(商事法務、2024年)。この立場は、本記事の前編脚注6で述べたように、現行の製造物責任法の適用は難しいと考えるのではなく、「機械の欠陥を、自動運転システムを構成するAIの内部構造において捉えるとすれば、欠陥責任の追及は著しく困難となる」として、「欠陥」は、「機械の構造・性状面ではなく、機械の動作の側面において捉えるべき」として、このような解釈を通じて、現行法の適用可能性を肯定的に捉えます。
*11 一つ目の立場は、AIの利用場面を場合分けします。すなわち、①-1自己の行為としてAIに出力をさせる場合、①-2AIの出力を自己の行為の内容に組み込む場合、①-3AIの出力を元に行為を実行する場合です。橋本教授は、いずれについても、行為者の過失を問えば足りるので、無過失責任による規律までは不要とします。
なお、本記事の前編で仮想事例を設定しましたが、仮想事例は、②AIのよって機械が自動運転される場合に当たります。
*12 前掲注9・54頁