AIが税務実務に深く入り込み、仕訳、区分判定、控除計算、申告書作成を行う時代になりました。
効率化と精度向上の恩恵は大きい一方で、
「AIが間違えた場合、誰が責任を負うのか」という根本的な課題が浮上しています。
納税者、税理士、AI提供ベンダー――。
三者の関係が複雑に交錯する中で、法的・倫理的責任をどう分担すべきか。
本稿では、AI税務の責任構造を整理し、実務における境界線の引き方を解説します。
1. AI導入がもたらした“責任の分散化”
従来、税務実務の責任は明確でした。
申告書の内容は納税者本人の責任、
代理作成した場合は税理士が補助責任を負うという構造です。
しかしAI導入後、この単純な枠組みでは説明できない事例が増えています。
【AI時代の税務責任が曖昧になる典型例】
- AIの誤判定により、交際費を会議費として処理した
 - AI会計ソフトが自動で控除額を過大算定した
 - AI申告支援ツールが誤った税率を適用
 - ベンダーが提供したAIが旧法令データを使用していた
 
こうしたケースでは、
「AIの判断を使った納税者」
「AIの結果を確認しなかった税理士」
「AIの精度を保証していないベンダー」
いずれにも一定の関与があります。
このため、責任の帰属が“連鎖的”に拡散する構造となっています。
2. 三者の法的責任の整理
AIが税務判断に関与する場合、
実務上の責任範囲は次のように分かれます。
| 主体 | 法的責任 | 実務上の留意点 | 
|---|---|---|
| 納税者 | 申告内容の最終責任を負う(所得税法第120条) | AIの利用有無を問わず、最終確認義務あり。 | 
| 税理士 | 代理作成・助言に関する専門家責任(税理士法第1条の2) | AIの出力内容をレビューし、妥当性を確認する義務。 | 
| AIベンダー | 契約上の債務不履行・製造物責任(PL法) | 精度保証義務は限定的。誤用リスクを免責する契約が一般的。 | 
AIがミスをしても、現行法では納税者本人が最終責任を負うのが原則です。
AIは「代理人」ではなく「ツール」に過ぎないため、
AI利用による誤申告は“自己責任”の範囲とされます。
ただし、税理士がAI出力を検証せず申告を行った場合、
「注意義務違反」に問われる可能性があります。
3. 税理士が負う「AI監督責任」
AIの出力結果を利用して業務を行う税理士には、
「AIの判断を確認し、必要に応じて補正する監督責任」が生じます。
この責任は、税理士法・民法・倫理規定の3層で裏付けられます。
- 税理士法第1条の2:独立・公正な立場から真実を追求する責務
 - 民法第644条(善管注意義務):委託業務における合理的注意の義務
 - 日本税理士会連合会「AI業務利用指針」:AI出力の採用前にレビューを行う義務
 
AIを導入する場合、
- 利用ツールの選定理由
 - 精度検証の記録
 - 出力レビュー結果
を文書で残すこと(AIレビュー記録)が推奨されます。 
AIを利用した結果の「正しさ」ではなく、
AIをどう扱ったかという“手続の正しさ”が問われる時代です。
4. ベンダーの契約上の責任と限界
AI会計・税務ソフトを提供するベンダーの多くは、
利用規約に以下のような免責条項を設けています。
「本サービスの出力結果の正確性・完全性について、当社は保証いたしません。
出力内容の最終確認および使用判断は利用者の責任とします。」
つまり、AI出力は参考情報に過ぎないという位置づけです。
ベンダー側が法令適用の誤りを直接的に負うことは少なく、
責任はあくまで利用者側に残ります。
ただし、以下の場合はベンダーの契約責任が問われる余地があります。
- 明らかなシステムバグやアルゴリズム誤動作による誤課税
 - 最新法令未対応のまま販売を継続した場合
 - 精度保証を明示して販売していた場合
 
このようなリスクを避けるには、
導入契約時にAI出力の範囲・限界・責任分担を明記することが重要です。
5. AI責任分担を明確化する「三者協定」の考え方
今後、AI税務業務を安定的に運用するには、
納税者・税理士・ベンダーの三者で責任の分担構造を明示する協定が必要になります。
【三者協定の主な内容例】
- AIツールの利用範囲(入力支援・区分判定・自動計算など)
 - AI出力のレビュー責任者(税理士・企業経理担当者など)
 - 誤判定時の報告・修正手順
 - AI更新・精度検証の頻度と方法
 - 記録・保存・開示義務(ログ管理)
 
この協定により、万一トラブルが発生しても
「誰がどの範囲を確認したのか」が明確になり、
説明責任を果たしやすくなります。
6. 専門職倫理としての“AI責任意識”
AIが業務を支援するほど、専門職には新しい倫理観が求められます。
- 「AIが判断したから正しい」ではなく、「AIの判断を自ら確かめる」
 - 「AIが作業を代替する」ではなく、「AIと協働して検証する」
 - 「AIの誤りを指摘できる力」を持つことが専門性の証
 
AI税務の最前線では、判断の責任をAIに押し付けない姿勢が
最も重要な職業倫理となりつつあります。
結論
AIが税務において高精度な判断を下すようになっても、
最終的な責任は常に人間にあります。
AIがいかに自律的に進化しても、
納税者・税理士・AIベンダーの三者が「信頼と説明」で結ばれない限り、
税務の公正さは保たれません。
AIに任せるのではなく、AIを理解し、責任を分かち合う。
それが、AI税務時代における新しい“責任の作法”です。
出典
・日本税理士会連合会「AI業務利用指針」
・国税庁「AI活用における税務責任に関する検討資料(2025年)」
・総務省「生成AIの利用と法的責任の整理」
・OECD「Accountability in AI-driven Tax Systems」
・デジタル庁「AIサービス契約における責任分担ガイドライン」
という事で、今回は以上とさせていただきます。
次回以降も、よろしくお願いします。
  
  
  
  