はじめに
近年のAI技術の発展は急速に発展しており、それに伴う法律問題は多岐にわたる。本稿では、AIを用いたスコアリングはじめサービス(とりわけ与信審査)に伴う法的な問題点を取り上げる。
スコアリングサービスとその用途
AIを用いたスコアリングサービスに明確な定義があるわけではないが、一般的には、数理的・統計的な手法に基づいてモデルを構築してAIに学習させ、収集したユーザーのデータを適用して一定のスコアを算出し、そのスコアに応じてユーザーが何らかの特典を得ることができ、また事業者が行う判断の材料にすることができるサービスのことである。
その用途は幅広く、例えば予約サービスにおけるノーショウ(予約だけしてキャンセルせずに当日現れない人のこと)の抽出、マネーロンダリングのモニタリング、通信販売における購入傾向に基づいた販売促進等に用いられる。その中でも、顧客の信用度を数値化して融資実行の可否や貸出限度額を設定するというサービスは、顧客の貸出や返済の実績に関するデータを収集・分析して数理的・統計的に構築されたモデルに適用するというAIの機能に親和的であるため、すでに広く実用されている。
その用途は幅広く、例えば予約サービスにおけるノーショウ(予約だけしてキャンセルせずに当日現れない人のこと)の抽出、マネーロンダリングのモニタリング、通信販売における購入傾向に基づいた販売促進等に用いられる。その中でも、顧客の信用度を数値化して融資実行の可否や貸出限度額を設定するというサービスは、顧客の貸出や返済の実績に関するデータを収集・分析して数理的・統計的に構築されたモデルに適用するというAIの機能に親和的であるため、すでに広く実用されている。
問題の所在
問題の所在
しかし、そのようなAIを用いて算出された数値に基づいて与信判断を行うこと(以下「AI与信」という。)には、公平性の観点から問題が指摘されている。
AIの回答自体の問題
まずはAIによる数値が差別的なものになりうるという問題がある。例えば、2019年、アメリカのアップルがゴールドマン・サックスと共同でサービスを開始したApple Cardの利用限度額が性別によって約20倍の差があるのではないかとSNSで議論となった。また日本でも、みずほ銀行とソフトバンクが共同で運営していたJ.Scoreにおいて、年収や職業等他の条件が同じでも性別を男性から女性にするだけでスコアが下がるという指摘がされていた。
後述する割賦販売法改正の審議段階でも消費者委員会より「AI等の技術・データの活用については、消費者に多大な利便をもたらす可能性がある反面、プライバシーの問題や不当な差別につながるおそれがあるという問題等の課題も有していると考えられる」との意見がされている 。
後述する割賦販売法改正の審議段階でも消費者委員会より「AI等の技術・データの活用については、消費者に多大な利便をもたらす可能性がある反面、プライバシーの問題や不当な差別につながるおそれがあるという問題等の課題も有していると考えられる」との意見がされている 。
助長・固着化の問題
問題はこれだけではない。上記のように差別的な数値を算出するAIモデルに基づいたサービスが普及することで、当該サービスの利用者の層が当該差別により有利な結果を得られる者に集中し、当該差別がより助長され、固着化する危険性がある。
問題点の分析
社会的属性自体がモデルに組み込まれている場合
AI与信の結果はAIに学習させるデータによって異なる。性別、人種、国籍等の社会的属性(以下、単に「社会的属性」という。)がAIの構築するモデルに組み込まれている場合には、算出された数値に基づいて与信判断を行うことは公平性の問題が生じる。
社会的属性が推認される場合
仮に社会的属性をモデルから除外したとしても、他のデータから社会的属性が推認され、結果として社会的属性に基づいた与信判断が行われる可能性がある。
例えば、年齢、職業、当該職業の年齢層及び当該職業の男女比等の情報から利用者の性別が推認され、結果として性別に基づいた与信判断が行われる可能性がある。
例えば、年齢、職業、当該職業の年齢層及び当該職業の男女比等の情報から利用者の性別が推認され、結果として性別に基づいた与信判断が行われる可能性がある。
バイアスの固着化
また、AIが分析対象としたい集団全体に対して実際の分析対象が特定の層に偏ってしまい、その結果算出される数値が特定の集団の利益(又は不利益)にバイアスが生じる可能性がある。
例えば、資力の低い者は過去の購買履歴からAIによって与信枠が判断されるサービスにおいて与信枠が低く設定されうるため、当該サービスの利用を敬遠すると考えられる。すると、資力の高い者がAIの主な分析対象となり、その結果、AIのモデルが資力の高い者により有利な、低い者により不利なバイアスを帯びることになる可能性がある。
このようにバイアスを帯びたAIの回答によって社会が形成・運営されることによって、当該バイアスが社会に固着する可能性がある。
例えば、資力の低い者は過去の購買履歴からAIによって与信枠が判断されるサービスにおいて与信枠が低く設定されうるため、当該サービスの利用を敬遠すると考えられる。すると、資力の高い者がAIの主な分析対象となり、その結果、AIのモデルが資力の高い者により有利な、低い者により不利なバイアスを帯びることになる可能性がある。
このようにバイアスを帯びたAIの回答によって社会が形成・運営されることによって、当該バイアスが社会に固着する可能性がある。
公平性判断の問題点
さらに、公平性(とりわけ憲法14条1項に定める平等原則)に反するか否かの判断基準が曖昧であるという問題がある。
例えば、性別に基づいて与信判断を行うことは公平性の観点から問題であるが、厚労省の公表する賃金センサスにおいては男女の賃金に格差が存在するのであるから、年収を基準に与信判断を行い結果的に男女で与信枠が異なったとしても、それは合理的な差異であるともいえる。
例えば、性別に基づいて与信判断を行うことは公平性の観点から問題であるが、厚労省の公表する賃金センサスにおいては男女の賃金に格差が存在するのであるから、年収を基準に与信判断を行い結果的に男女で与信枠が異なったとしても、それは合理的な差異であるともいえる。
日本の法制
現状の法制
日本国内における与信に関する業務に対する規制法としては、銀行法や貸金業法、割賦販売法等が制定されているが、与信における差別や公平性等の観点からの直接的な規制としては、2020年割賦販売法改正により新設された認定包括信用購入あっせん業者制度が注目される。
認定包括信用購入あっせん業者の概要
改正前の状況
包括信用購入あっせん業者(一般的にはクレジットカードの発行会社)は、原則として、過剰与信を防止するために、利用者にカードを発行する際には包括支払可能見込額を調査してその9割以内で極度額を設定しなければならない(割賦販売法30条の2、30条の2の2、平成21年経産省告示第236号)。また、包括支払可能見込額の具体的な算定方法は割賦販売法施行規則で画一的に定められている。
法改正の必要性
近年のAI等の情報技術が発展したことによって顧客の属性や購入傾向から信用度を数値化することができるようになったため、法令に基づいた画一的な算定方法だけではなく、顧客毎に柔軟に支払可能見込額を設定する需要が高まった。
制度の概要
ここで、AI等を用いて利用者の支払能力に関する情報を高度な技術的手法を用いて分析することにより利用者支払可能見込額 を的確に算定することができる場合には、包括信用購入あっせん業者は、経済産業省から認定を受けた上で、包括支払可能見込額に代えて、AI等の高度な技術的手法を用いることができるようになった(割賦販売法第30条の5の4)。
認定基準における考慮要素
上記認定を受けるには、①利用者支払可能見込額上記認定を受けるには、①利用者支払可能見込額の算定方法が、利用者の支払能力に関する情報を高度な技術的手法を用いて分析することにより、適確にこれを算定することを可能とするものであること、②不適切又は不十分な技術・情報を利用しないこと、③支払能力の情報を不当な差別等の生じるおそれのある方法により利用しないこと、④指定信用情報機関が算定する延滞率を超えないよう延滞率を管理すること、⑤当該算定を行う体制が整っていることという基準を満たす必要がある(割賦販売法第30条の5の4第1項各号、同法施行規則62条1項各号)。
上記③については、保有している顧客の過去情報のうち、算定の方法の構築に用いる顧客の過去情報及び各利用者の利用者支払可能見込額の算定に用いる当該各利用者の情報に合理的な理由なく偏りがあることをいい、例えば、特定の信条を有することのみをもって与信を拒否するよう算定の方法を構築すること及び利用者支払可能見込額を算定することが考えられるとされている 。
上記③については、保有している顧客の過去情報のうち、算定の方法の構築に用いる顧客の過去情報及び各利用者の利用者支払可能見込額の算定に用いる当該各利用者の情報に合理的な理由なく偏りがあることをいい、例えば、特定の信条を有することのみをもって与信を拒否するよう算定の方法を構築すること及び利用者支払可能見込額を算定することが考えられるとされている 。
今後の規制の在り方
このように、AI与信には公平性の観点から様々な問題が存在し、その問題意識は一部割賦販売法にも反映されている。今後も他の法律でも同様の規制が定められることが想定される。
その過程で、どのような規制にするのか(規制の内容、対象、程度)、どのように規制するのか(法規かガイドライン等か)、誰が規制するのか(規制官庁)、などの問題が生じる。
さらに翻ってみると、そもそも与信行為に対する明確な規制が存在しない現状でAIを用いた与信行為に限って新たな規制をする必要性がどこまであるのか、という問題もある 。
以上のように、AI与信に関する課題は山積であるため、AI技術の発展及びそれに対する規制にあり方を注視する必要がある。
その過程で、どのような規制にするのか(規制の内容、対象、程度)、どのように規制するのか(法規かガイドライン等か)、誰が規制するのか(規制官庁)、などの問題が生じる。
さらに翻ってみると、そもそも与信行為に対する明確な規制が存在しない現状でAIを用いた与信行為に限って新たな規制をする必要性がどこまであるのか、という問題もある 。
以上のように、AI与信に関する課題は山積であるため、AI技術の発展及びそれに対する規制にあり方を注視する必要がある。