人工知能(AI)の普及は、法律や会計など専門資格を前提とする分野にも急速に広がっています。契約書の作成、法令調査、税務計算など、これまで専門家が担ってきた業務の一部をAIが補助する場面はすでに珍しくありません。
こうした流れのなかで、AIがどこまで専門業務に関与できるのかという問題が現実の訴訟として浮上しました。2026年3月、日本生命保険の米国法人が、対話型AI「ChatGPT」を提供する米オープンAIを提訴したことが報じられました。
AIが提供した法的助言によって企業が不利益を受けたとするこの訴訟は、AIと専門資格制度の関係を改めて問い直す象徴的な出来事といえます。
AIによる法的助言をめぐる訴訟の概要
報道によれば、日本生命の米国法人は、米国イリノイ州シカゴの連邦地裁においてオープンAIを提訴しました。損害賠償請求額は約1030万ドルとされています。
訴状の主張は次のようなものです。
AIであるChatGPTが弁護士資格を持たないにもかかわらず法的助言を提供し、その結果として日本生命が不当な訴訟に巻き込まれたというものです。
同社は、弁護士資格を持たない者が法律業務を行うことは違法であり、AIによる助言は無免許での法律業務にあたると主張しています。
この点は、日本の弁護士法における非弁行為の禁止と類似する問題を提起しています。
AIは法律業務を行えるのか
法律業務は多くの国で資格制度によって厳格に管理されています。
日本の場合、弁護士法72条は、弁護士でない者が報酬を得る目的で法律事務を取り扱うことを原則として禁止しています。これはいわゆる非弁行為の禁止と呼ばれる規制です。
この規制の背景には、法律業務が市民の権利義務に直接影響する重要な業務であるという事情があります。
AIは資格を持つ主体ではありません。そのため、AIが法的助言を行った場合、それが「情報提供」にとどまるのか、それとも「法律業務」に該当するのかという線引きが問題になります。
現在のところ、多くのAIサービスは、法的助言ではなく一般的な情報提供であることを前提に提供されています。
専門資格とAIの役割分担
AIの発展によって、専門資格制度の役割も再定義を迫られています。
たとえば法律分野では、AIが次のような補助業務を担うケースが増えています。
・判例や法令の検索
・契約書のドラフト作成
・文書レビュー
・リスク分析
これらは弁護士業務の効率化には大きく寄与しますが、最終的な判断は資格を持つ専門家が行うという構造が基本です。
つまり、AIは専門家の代替ではなく補助ツールとして利用されることが想定されています。
今回の訴訟は、この役割分担の境界線がどこにあるのかという問題を司法の場で問うものといえるでしょう。
AI時代の専門業務のリスク管理
AIを業務に利用する企業にとって重要なのは、AIの回答をそのまま意思決定に用いるリスクです。
AIは膨大なデータを基に回答を生成しますが、その内容が必ずしも正確であるとは限りません。いわゆるハルシネーションと呼ばれる現象により、存在しない判例や誤った法解釈が示される可能性も指摘されています。
そのため、企業がAIを利用する際には、次のような基本原則が重要になります。
第一に、AIの回答を最終判断としないことです。
第二に、重要な法務判断は専門家の確認を経ることです。
第三に、AIの利用範囲を社内ルールとして明確にすることです。
AIは強力なツールですが、最終的な責任主体は利用者側にあるという点は変わりません。
結論
日本生命によるオープンAI提訴は、AIと専門資格制度の関係をめぐる新しい論点を示しています。
AIが高度な助言を提供できるようになるほど、資格制度との境界は曖昧になります。法律、税務、医療など専門性の高い分野では、AIの役割をどこまで認めるのかという議論が今後さらに広がる可能性があります。
AIは専門家の代替ではなく、あくまで補助的なツールとして位置づけられるべき存在です。AIを活用しながらも、最終判断と責任は人間が担うという原則は、今後も変わらないと考えられます。
今回の訴訟は、AI時代の専門業務のあり方を考えるうえで重要な試金石になるでしょう。
参考
日本経済新聞 2026年3月7日朝刊
日生、オープンAI提訴「AIが無免許で法律業務」
OpenAIに対する米国訴訟報道
弁護士法(非弁行為規制)
AIと法律サービスに関する議論(各国報道)

