AI税務の責任構造 ― 納税者・専門家・AIベンダーの境界線(AI税務時代の新常識 第7回)

効率化
水色 シンプル イラスト ビジネス 解説 はてなブログアイキャッチのコピー - 1

AIが税務実務に深く入り込み、仕訳、区分判定、控除計算、申告書作成を行う時代になりました。
効率化と精度向上の恩恵は大きい一方で、
「AIが間違えた場合、誰が責任を負うのか」という根本的な課題が浮上しています。
納税者、税理士、AI提供ベンダー――。
三者の関係が複雑に交錯する中で、法的・倫理的責任をどう分担すべきか。
本稿では、AI税務の責任構造を整理し、実務における境界線の引き方を解説します。


1. AI導入がもたらした“責任の分散化”

従来、税務実務の責任は明確でした。
申告書の内容は納税者本人の責任
代理作成した場合は税理士が補助責任を負うという構造です。
しかしAI導入後、この単純な枠組みでは説明できない事例が増えています。

【AI時代の税務責任が曖昧になる典型例】

  • AIの誤判定により、交際費を会議費として処理した
  • AI会計ソフトが自動で控除額を過大算定した
  • AI申告支援ツールが誤った税率を適用
  • ベンダーが提供したAIが旧法令データを使用していた

こうしたケースでは、
「AIの判断を使った納税者」
「AIの結果を確認しなかった税理士」
「AIの精度を保証していないベンダー」
いずれにも一定の関与があります。
このため、責任の帰属が“連鎖的”に拡散する構造となっています。


2. 三者の法的責任の整理

AIが税務判断に関与する場合、
実務上の責任範囲は次のように分かれます。

主体法的責任実務上の留意点
納税者申告内容の最終責任を負う(所得税法第120条)AIの利用有無を問わず、最終確認義務あり。
税理士代理作成・助言に関する専門家責任(税理士法第1条の2)AIの出力内容をレビューし、妥当性を確認する義務。
AIベンダー契約上の債務不履行・製造物責任(PL法)精度保証義務は限定的。誤用リスクを免責する契約が一般的。

AIがミスをしても、現行法では納税者本人が最終責任を負うのが原則です。
AIは「代理人」ではなく「ツール」に過ぎないため、
AI利用による誤申告は“自己責任”の範囲とされます。
ただし、税理士がAI出力を検証せず申告を行った場合、
「注意義務違反」に問われる可能性があります。


3. 税理士が負う「AI監督責任」

AIの出力結果を利用して業務を行う税理士には、
「AIの判断を確認し、必要に応じて補正する監督責任」が生じます。

この責任は、税理士法・民法・倫理規定の3層で裏付けられます。

  1. 税理士法第1条の2:独立・公正な立場から真実を追求する責務
  2. 民法第644条(善管注意義務):委託業務における合理的注意の義務
  3. 日本税理士会連合会「AI業務利用指針」:AI出力の採用前にレビューを行う義務

AIを導入する場合、

  • 利用ツールの選定理由
  • 精度検証の記録
  • 出力レビュー結果
    を文書で残すこと(AIレビュー記録)が推奨されます。

AIを利用した結果の「正しさ」ではなく、
AIをどう扱ったかという“手続の正しさ”が問われる時代です。


4. ベンダーの契約上の責任と限界

AI会計・税務ソフトを提供するベンダーの多くは、
利用規約に以下のような免責条項を設けています。

「本サービスの出力結果の正確性・完全性について、当社は保証いたしません。
出力内容の最終確認および使用判断は利用者の責任とします。」

つまり、AI出力は参考情報に過ぎないという位置づけです。
ベンダー側が法令適用の誤りを直接的に負うことは少なく、
責任はあくまで利用者側に残ります。

ただし、以下の場合はベンダーの契約責任が問われる余地があります。

  • 明らかなシステムバグやアルゴリズム誤動作による誤課税
  • 最新法令未対応のまま販売を継続した場合
  • 精度保証を明示して販売していた場合

このようなリスクを避けるには、
導入契約時にAI出力の範囲・限界・責任分担を明記することが重要です。


5. AI責任分担を明確化する「三者協定」の考え方

今後、AI税務業務を安定的に運用するには、
納税者・税理士・ベンダーの三者で責任の分担構造を明示する協定が必要になります。

【三者協定の主な内容例】

  1. AIツールの利用範囲(入力支援・区分判定・自動計算など)
  2. AI出力のレビュー責任者(税理士・企業経理担当者など)
  3. 誤判定時の報告・修正手順
  4. AI更新・精度検証の頻度と方法
  5. 記録・保存・開示義務(ログ管理)

この協定により、万一トラブルが発生しても
「誰がどの範囲を確認したのか」が明確になり、
説明責任を果たしやすくなります。


6. 専門職倫理としての“AI責任意識”

AIが業務を支援するほど、専門職には新しい倫理観が求められます。

  • 「AIが判断したから正しい」ではなく、「AIの判断を自ら確かめる」
  • 「AIが作業を代替する」ではなく、「AIと協働して検証する」
  • 「AIの誤りを指摘できる力」を持つことが専門性の証

AI税務の最前線では、判断の責任をAIに押し付けない姿勢
最も重要な職業倫理となりつつあります。


結論

AIが税務において高精度な判断を下すようになっても、
最終的な責任は常に人間にあります。
AIがいかに自律的に進化しても、
納税者・税理士・AIベンダーの三者が「信頼と説明」で結ばれない限り、
税務の公正さは保たれません。

AIに任せるのではなく、AIを理解し、責任を分かち合う。
それが、AI税務時代における新しい“責任の作法”です。


出典
・日本税理士会連合会「AI業務利用指針」
・国税庁「AI活用における税務責任に関する検討資料(2025年)」
・総務省「生成AIの利用と法的責任の整理」
・OECD「Accountability in AI-driven Tax Systems」
・デジタル庁「AIサービス契約における責任分担ガイドライン」


という事で、今回は以上とさせていただきます。

次回以降も、よろしくお願いします。

タイトルとURLをコピーしました