ChatGPTが訴状を量産? 日本生命がOpenAI提訴、16億円訴訟で問われるAIの「非弁行為」

【記事の概要】
日本生命の米国法人がOpenAIを提訴し、約1030万ドル(約16億円)の損害賠償を求めている。元被保険者がChatGPTを用いて訴状や申立書を大量作成し、解決済みの保険紛争を再燃させたことが発端だ。企業側はAIが弁護士資格を持たないまま法的助言や文書作成を支援した「非弁行為」に近いと主張。生成AIによる法的トラブルは世界で増加しており、今回の訴訟はAI開発企業の責任やPL法の適用範囲、司法制度への影響を巡る新たなルール形成の試金石となる可能性がある。

 日本生命の米国法人がOpenAIを提訴したことが明らかになった。請求額は実害補填と制裁的損害賠償を合わせ約1030万ドル(約16億円)。生成AIを巡る訴訟は世界各地で増えているが、今回のケースは単なる知的財産や著作権の争いとは性質が異なる。

 問題の核心は、AIが“無資格の法律実務家”として機能してしまった可能性にある。日本生命側が主張するのは、生成AIが過去に解決済みの紛争を再燃させ、企業に実害を与えたという点だ。もし司法がこれを認めれば、生成AIビジネスの責任構造そのものを揺るがす可能性がある。

 AIが生み出した「低コストの法的攻撃」に、企業が高コストで対抗せざるを得ない――。今回の訴訟は、AI時代の新しいリスクを象徴する事件として注目されている。

●目次

「解決済みの紛争」をAIが再燃させた

 訴訟の発端は、日本生命との障害保険金をめぐる過去の紛争だ。

 ある元被保険者は、日本生命とすでに和解した案件について、ChatGPTを使って法的文書を作成。その結果、新たな申立てや訴訟が次々と起こされたという。

 日本生命側の主張によれば、この人物はAIを用いて訴状、法的申立書、反論書などの文書を大量に作成し、数十件規模の法的手続きを繰り返したとされる。同社側はこれらを「根拠の乏しい訴訟の乱発(濫発)」と位置付けている。

 問題は、その多くがAIの支援によって生成された可能性がある点だ。日本生命は訴状の中で、次のように主張している。

「ChatGPTはイリノイ州の弁護士資格を持たないにもかかわらず、具体的な法的助言や訴状作成を支援した」

 つまり、AIが事実上の“非弁行為(Unauthorized Practice of Law)”に関与した可能性があるというわけだ。日本生命は、これらの申立てに対応するために膨大な弁護士費用や社内リソースを費やしたとして、損害賠償を求めている。

OpenAI側の想定される反論

 OpenAIは現時点で「個別訴訟にはコメントしない」としているが、これまでの方針からすると、いくつかの論点で反論する可能性が高い。

 第一に、利用規約による責任回避だ。OpenAIのポリシーでは、医療や法律などの専門分野について「ライセンスが必要な助言として利用すること」を禁止している。つまり、利用者が規約に違反してAIを使った場合、その責任はユーザー側にあるという立場だ。

 第二に、AIはあくまでツールにすぎないという論点である。ChatGPTは情報整理や文章ドラフトを支援するものであり、最終的な判断や提出は人間が行う。したがって、法的責任の主体はユーザーである――という主張だ。

 さらに米国では、AIの出力が「表現」に該当するかどうかという憲法上の論点(表現の自由)も議論されている。

 もっとも、日本生命側はこれに対し、OpenAIが過去には十分な制限を設けていなかった点を指摘し、不作為責任を問う構えを見せている。

世界で増える「AI法律トラブル」

 AIと法律の衝突は、すでに世界各地で起きている。代表的なのが、いわゆる「ロボット弁護士」事件だ。

 米国のスタートアップDoNotPayは、AIが法廷で助言するサービスを「世界初のロボット弁護士」と宣伝したが、弁護士資格制度との衝突が問題となり、訴訟に発展した。

 また2023年には、米国のAvianca航空訴訟で弁護士がChatGPTを使って作成した書面に、存在しない判例が含まれていたことが発覚。裁判所は弁護士に制裁金を科した。AIの誤情報が司法手続きを混乱させた典型例といえる。

 法律分野に限らず、AIが医療診断、投資助言、金融アドバイス、などを行うケースでも、責任の所在が議論になっている。

「リーガル・ハラスメントの民主化」という新リスク

 今回の事件が象徴する最大の問題は、法的攻撃のコストが劇的に下がったことだ。これまで企業に対して執拗な訴訟を起こすには、弁護士費用という大きなハードルがあった。

 しかし生成AIの登場により、状況は一変した。月額数十ドルのAIツールを使えば、素人でもそれらしい訴状や法的文書を短時間で作成できる。その結果、低コストで大量の訴訟を仕掛けることが可能になった。

 一方、企業側はたとえ勝ち目のない訴えであっても、正式な法的手続きに乗った以上、対応せざるを得ない。結果として、「AIによる低コスト攻撃vs.企業の高コスト防御」という非対称な構造が生まれる。

 この問題について、米国の情報法にまつわる訴訟に詳しいITジャーナリスト・小平貴裕氏はは次のように指摘する。

「生成AIは本来、知識へのアクセスを民主化する技術です。しかし同時に、司法制度の“摩擦コスト”を急激に下げてしまう側面もあります。これまでは弁護士費用がフィルターとして機能していましたが、AIによってその壁が消えつつある。結果として、根拠の薄い訴訟や申立てが増えるリスクがあります」

 また、弁護士制度の観点からは別の問題もある。

「AIが個別の紛争について具体的な助言を行う場合、それが無資格者による法律業務に該当する可能性があります。日本でも弁護士法72条が同様の行為を禁じています。問題は、AIを単なるツールと見るのか、それとも一定の責任主体として扱うのかという点です」(小平氏)

AI責任論は「PL法」に広がる可能性

 今回の訴訟は、AIを巡る責任論を製造物責任(PL法)の領域に拡張する可能性がある。従来のIT業界では「ツールの悪用はユーザー責任」という原則が広く受け入れられてきた。

 しかし生成AIは、単なるソフトウェアとは異なり、「自律的に文章を生成する」「高度な専門知識を模倣する」「人間の判断を代替する」といった特徴を持つ。

 そのため、「高性能で悪用が容易なツールを無防備に提供したこと自体が欠陥ではないか」という新しいPL論が浮上している。

 もし裁判所がこの論理を認めれば、AI企業は「ガードレール設計」「用途制限」「監視システム」など、より強い管理責任を負う可能性がある。

AI規制は「開発」から「運用責任」へ

 世界各国の規制も、この方向へ動きつつある。EUのAI法では、AIのリスクレベルに応じて透明性義務、監査、人間による監督などを義務付けている。今後の焦点はAIの開発責任ではなく運用責任になるとみられている。

 具体的には、AI開発企業、API提供企業、利用者のどこまでが責任を負うのかという問題だ。

 日本生命の提訴は、日本企業にとっても重要な意味を持つ。米国は判例法の国であり、一度強力な判決や和解が成立すれば、それが事実上の国際基準になる可能性があるからだ。

 つまり今回の訴訟は、AIガバナンスを巡るルールメイキングという側面を持っている。生成AIは今や、企業の業務や社会インフラに深く入り込みつつある。

 しかし、その影響は効率化だけではない。AIによって、情報生成、意思決定、制度運用のコスト構造そのものが変わり始めている。

 もしAIが生成した虚偽の判例や大量の申立てが野放しになれば、裁判所の機能そのものが圧迫される可能性もある。今回の日本生命の提訴は、単なる損害賠償請求ではない。それはAIという強大なツールを誰がどこまで制御するのかという、社会的な問いでもある。

 司法がどのような判断を下すのか。その結論は、生成AIビジネスの未来だけでなく、AIと社会の関係そのものを左右する可能性がある。

(文=BUSINESS JOURNAL編集部、協力=小平貴裕・ITジャーナリスト)