高齢期における最大の不安は、介護やお金そのものではありません。
「自分で決められなくなったとき、どうなるのか」という不安です。
認知症や判断能力の低下は、ある日突然訪れるものではありません。
多くの場合、判断が揺らぎ、迷いが増え、周囲との意思疎通が難しくなる期間を経て進行します。
この過程にどう向き合うかが、共生社会の質を左右します。
成年後見制度が「使いにくい」理由
成年後見制度は、判断能力が不十分になった人を法的に支える重要な仕組みです。
しかし現実には、利用が進んでいるとは言えません。
制度は、本人の判断能力が低下した後に家庭裁判所が関与し、代理決定を行う構造です。
そのため、どうしても「本人の意思を奪う制度」という印象を持たれやすく、利用の判断が先送りされがちになります。
結果として、
・制度を使うタイミングを逃す
・家族の負担が一気に重くなる
・本人の意向が十分に反映されない
といった問題が生じています。
問題は「意思がなかった」ことではない
判断能力低下をめぐるトラブルの多くは、
本人の意思が存在しなかったから起きているわけではありません。
実際には、
・どんな暮らしを続けたいか
・誰に任せたいか
・どこまで自分で決めたいか
といった考えを、本人は持っていることがほとんどです。
問題は、それらが整理されず、共有されず、制度と結びつかなかった点にあります。
共生AIが担う「意思の翻訳と保存」
共生AIは、法的判断を行う存在ではありません。
しかし、判断能力が保たれている段階での意思形成の補助には大きな役割を果たします。
対話型AIを通じて、
・本人の考えを言葉にする
・迷いや矛盾を含んだ思考を整理する
・考えの変化を時系列で残す
といったことが可能になります。
これは、単なる記録ではありません。
「どのような文脈で、どんな思いを持っていたか」を残すことができる点に意味があります。
事前意思は「書類」だけでは足りない
任意後見契約や事前指示書など、判断能力低下に備える制度はすでに存在します。
しかし、これらは一度作成すると更新されないままになりがちです。
人の価値観や優先順位は、健康状態や家族関係の変化によって揺れ動きます。
固定された書類だけに頼ると、実際の意思と乖離する可能性があります。
共生AIを活用すれば、
・考えの更新を促す
・変化の理由を言語化する
・過去の意思との違いを整理する
といった「動的な事前意思」の管理が可能になります。
成年後見と共生AIは対立しない
共生AIは、成年後見制度に代わるものではありません。
むしろ、成年後見制度を適切に使うための前段階を支える存在です。
本人の意思が整理され、共有されていれば、
後見人や家庭裁判所の判断も、本人の価値観に沿ったものになりやすくなります。
共生AIは、
・本人の意思を補強する
・家族間の認識のズレを減らす
・専門職の判断材料を増やす
といった形で、制度の質を高める役割を担います。
技術に委ね過ぎないための前提
判断能力低下という極めてデリケートな領域では、
AIの使い方を誤ると、かえって本人の尊厳を損なう恐れもあります。
重要なのは、
・AIは意思決定の主体ではないこと
・最終判断は必ず人が行うこと
・使わない選択肢も尊重すること
これらを社会全体で共有することです。
結論
判断能力低下への備えは、
「いつか起きる問題」ではなく、「今から関わる課題」です。
共生AIは、判断を代行する存在ではなく、
意思を育て、つなぎ、残すための補助線として位置づけられるべきです。
成年後見制度と事前意思を、形だけの制度に終わらせないために。
共生AIは、高齢社会における「決める力」を静かに支えるインフラになりつつあります。
参考
・日本経済新聞「共生AI 変わる暮らし 日常も仕事も寄り添う『相棒』」2026年1月1日朝刊
という事で、今回は以上とさせていただきます。
次回以降も、よろしくお願いします。
