OUR VIEWS

AIエージェントを利用した場合の個々の契約の成否及び取消しの可否

更新日:2026.02.17
弁護士
志部淳之介
1、AIエージェントとは
近年、AI技術の発展は著しい。最近では、従来のようにプロンプトを入力し、それに沿って回答を導くチャット型のAIのみならず、より複雑な目標に向かって自律的に事務処理を行っていくAIが話題を呼んでいる。利用者の目的達成のために、自律的に判断・行動してタスクを遂行できるAIシステムは、AIエージェントと呼ばれる。その特徴は、目的達成に必要な一連の行動を自ら計画し、遂行する点にある。
例えば、利用者が、「2026年4月1日から8日まで、イタリアのミラノに旅行する。そのためのお薦めの計画を立てて、航空券とホテル、レストランを予約して」と命令すると、AIエージェントはその通りに計画を立て、利用者のために航空券等の予約を実行するというのが一例である。
2、問題の所在
AIエージェントを利用する際のポイントは、利用者が想定していなかった動作が介在するリスクが高まるという点である。このリスクを低減する基本的な対応策としては、重要な結果を招く可能性のある一定の行為については、利用者による確認を求める設計(いわゆるHuman-in-the-Loop)の導入が挙げられる(*1)。もちろん、AIエージェント利用のメリットは、AIによる判断・行動を自動化することで利用者の手間や時間、判断コストを低減する点にあるから、AIエージェントのすべての判断に逐一確認を要求しては意味がない。したがって、確認を求める内容、程度は、利用者が吟味して設計することになろう。前述の旅行計画を例にとると、計画のプランニングはある程度AIエージェントに任せつつ、そのプランの決定や航空券、ホテル、レストランの選択は、利用者の確認を経て最終決定されるというモデルがあり得る。どの範囲に人間の介入を求めるかという、リスクと効率性のバランスを踏まえた設計が必要である。
(*1)福岡真之介、松下外「生成AIの法的リスクと対策 増補改訂版」303頁。
3、法的な整理
(1)複雑・高度なプロジェクトの自動実行と個々の契約の成否
冒頭の旅行計画の例は、利用者が個人の場合で、比較的単純なプロジェクトを想定した例である。しかし、デジタル技術が高度化する中で、今後はより複雑なプロジェクトを、人間に変わってAIが計画・実行していく場面が増えることが予想される。
例えば、企業が大量の商品の在庫管理をする際に、マーケティングの結果と連動して、商品の入荷、在庫管理を自動化するとともに、その傾向を分析することで新たな商品・サービスメニューを独自に作成し、必要な材料や人材をオンラインで自動発注するような場面を想定する(ここでは人間の判断の不介在という問題の所在を明らかにするため、すべてが自動化されて進む事例を想定する)。
この場合、まず、個々の商品の入荷に当たっての売買契約は自動化されているが、そもそも取引先との間での売買契約は成立しているといえるだろうか。仮に、AIエージェント利用者である企業がまったく予期しない商品を、AIエージェントがマーケティング情報のプロファイリングにより、大量発注した場合、企業は、契約不成立を主張することが可能だろうか。また、仮に契約が成立しているとすれば、当該企業は、契約を解約することは可能だろうか。
ア 伝統的な議論
自動化された契約の締結の効力については、従来から議論があった。意思表示の合致という我が国の民法の基本的な考え方からすると、申込者又は承諾者の意思表示に「機械」が介在した場合に、法的にどのように整理されるか、という議論である。
この点に関しては、大阪地判平成15年7月30日金商1181号36頁が参考になる。これは、競馬の開催者である被告と勝馬投票券を自動販売機により購入した原告との間で、契約成立が争われた事案である。裁判所は、自動販売機を利用して行う売買契約も契約の一種であり、契約が申込と承諾により成立するものである以上、利用者と自動販売機の設置者との間における申込と承諾の意思表示の合致が契約成立の要件として観念されなければならない、と判示し、まず機械が介在する場合にも伝統的な民法の意思表示理論の枠組みにより、契約の成否が判断されることを明らかにした。
その上で、利用者が自動販売機に現金と投票カードを投入した時点で、同人による申込の意思表示があったと評価し、自動販売機の画面上に「計算機に接続しています」との表示とともに、投票カードに付されたマークシートの内容を表示した画面が現れた時点において、自動販売機設置者の承諾の意思表示が行われたと評価する枠組みを示した。ただし、結論としては、当該事案ではその画面がエラーで表示されなかったために、契約の成立を否定した。
ポイントは、この判断枠組を導くために、本裁判例が伝統的な意思表示論を前提にしたという点である。本裁判例は、「本件では自動販売機は機械的処理により自動的に商品の供給(本件の場合は勝馬投票券の発行)を行うものであり、……かかる機械的処理は、自動販売機の設置者が予め与えた指示の内容に従ったものであり、設置者による効果意思の発現であると捉えることができる。そうすると、契約締結の主体はあくまで設置者であり、設置者が自動販売機の動作を通じて意思表示を行っているものと観念することが可能である」とした。すなわち、同判決は、「自動化された契約の締結」について、契約成立の根拠を、「機械の設置者による意思」に求めている。つまり、ここでは契約を成立させるために、自動販売機という機械を、使用した者の意思を反映する「道具」として捉えている(*2)。
(*2)古谷貴之「AIと契約」現代消費者法68号(2025年9月)。
イ AIエージェント事例の検討
自動化された機械を利用者の意思を反映する道具として構成する考え方は、AIエージェントが単純なプロジェクトを立案、実施する場合には、一定程度妥当すると考えられる。前掲注2の古谷論文も、AIを搭載した毎月一定量の水をオンラインで自動注文するスマート冷蔵庫を例に挙げ、これを「道具」として使用したユーザーによる申込の意思表示があったものとして契約成立を認めている。
他方で、AIエージェントに依頼するプロジェクトが複雑、大量、長期に及ぶ場合には、利用者の意思を必ずしも反映していない場面が想定される。この場合、発注者側に権利義務の主体となり得る者の意思表示がなく、当事者双方の意思表示の合致が認められないとする考え方も存在する(*3)。
(*3)古谷貴之「AIと契約」現代消費者法68号(2025年9月)。
一方で、AI利用者がAIに機械学習をさせた結果として利用者の予想できない行動をとった場合には、その自律性リスクを相手方ではなく利用者に帰責させるべきという価値判断から、一定の場合に契約の成立を認める考え方がある。
その理論的な根拠は、AIが行う行為はすべて道具を扱う人間の意図に結び付けることができ、AIを利用して契約を締結させようとする人間の意思の存在を前提に、契約の成立を観念できるという見解や(*4)、AIシステムを「使者」や「代理人」とみなす見解、代理規定を類推適用する見解等が存在する(*5)。もっとも、京都産業大学の古谷貴之教授は、AIがより高度な自律性を獲得するにつれ、現行法による解決が今後も妥当するかは慎重な検討を要すると小括する(*6)。
(*4)木村真生子「AIと契約」(弥永真生、宍戸常寿編「ロボット・AIと法」(2018年))158頁。
(*5)前掲注2、古谷貴之「AIと契約」現代消費者法68号、37頁は、ドイツにおける諸学説として以上の考え方を紹介している。
(*6)前掲注2、古谷貴之「AIと契約」現代消費者法68号、37頁。
以上を踏まえた私見だが、AIエージェントに依頼するプロジェクトが複雑、大量、長期に及ぶ場合であっても、AI利用者が高度の自律性や契約締結の自動化を前提としてプロジェクトの依頼をしている以上、原則としてその自律性リスクは、相手方ではなく利用者が負うべきであろう。
ただし、例外的に、契約の成立を否定すべき場面も全く存在しないわけではない。その判断にあたっては、高度な自律性の結果としてのAIによる発注が、利用者の合理的な意思とどれほど乖離しているか、AIが自動で行う個々の契約に際して、利用者の意思確認がどのタイミングでどれだけ前置されているか(冒頭で紹介したHuman-in-the-Loopの設計の仕方も影響すると考えられる)、相手方が利用者の意思を知り得る状況にあったか等の要素を考慮した上で、相手方の不利益を踏まえてもなお契約を不成立とすべき特段の事情があるか否かを検討すべきと考える。
(2)利用者による契約の取消しの可否
AIエージェントによる個々の契約締結の効果を、原則として利用者に帰属させるとしても、利用者が全く予期しない自律性リスクが顕在化した場合に、利用者が個々の契約を取消すことができるかが問題となる。この場合に、民法95条の錯誤取消しの規定を利用した取消の可否を検討すべきとする見解がある(*7)。
(*7)前掲注1、福岡真之介、松下外「生成AIの法的リスクと対策 増補改訂版」308頁。
この場合、利用者がAIエージェントを介して意思表示をしたことを前提に、表示の錯誤の有無(意思表示に対応する意思を欠く場合)、動機の錯誤の有無(意思表示をした者の法律行為の基礎とした事情についての認識が真実に反する場合)、利用者の重過失の有無(重過失が存在する場合には錯誤取消の主張ができない)(*8)等を検討することとなる。
(*8)消費者契約の場合は、電子消費者契約法に関する民法の特例に関する法律3条が、一定の場合には消費者に重過失があっても契約を取消すことができる旨を定める。
具体的にどのような判断がなされるかは、AIエージェントの具体的な機能、AI利用者の利用状況、AIエージェントがどのように行動したかに大きく依拠するが、AIエージェントが、AI利用者の指示を待たずに契約の申し込みをする可能性が、利用者にとって具体的に想定される状況があるならば、AI利用者に重過失が評価されて、AI利用者による錯誤取消は認められない可能性が相当程度あるとする(*9)。
(*9)前掲注1、福岡真之介、松下外「生成AIの法的リスクと対策 増補改訂版」309頁。
私見では、AI利用者が高度の自律性や契約締結の自動化を前提としてプロジェクトの依頼をしている以上、原則としてその自律性リスクは、相手方ではなく利用者が負うべきである。そうすると、錯誤取消が認められる場面は限定的に解するべきであり、取引の安全を劣後させてでも利用者を救済すべき特段の事情がある場合に限られるべきと考える。例えば、高度な自律性の結果としてのAIによる申込内容が、利用者の合理的な意思と著しく乖離し、かつ、相手方において当該申込がAIによる申込であることを予め知り得る場合であって、通常人であればおよそ合理性のない申込内容であるにもかかわらず相手方が敢えて承諾した場合等が考えられる。以上の諸要素は、主として重過失の有無の中で判断されよう。
いずれにしても、AIエージェントをどのように商品、サービスに組み込むかは現時点では未知数であり、エージェントの設計も様々なものが考えられる。今後、市場に登場する具体的な商品、サービスを対象として議論を深めていく必要がある。