AI責任主体化と社会契約論の矛盾

ルソーの社会契約説は、法の正当性を「市民が自ら定めたルールに従うこと」に求めるものである。この観点に立てば、自由意志や道徳的判断を有しないAIを法的責任主体として認めることは、市民による自治と法の正当性を損なう根本的な矛盾を孕むことになる。一方で、法人格と同様にAIに擬制的な人格を付与するならば、その行為の背後にある開発者や運用者に責任を求める論理も成立し得る。

しかし、AIの判断過程にはプロンプトの与え方や利用状況など、利用者の恣意性が不可避的に介在するため、責任を全面的に開発者側に帰属させることは妥当ではない。すなわち、AIに擬制人格を付与する議論は、開発者・運用者・利用者の三者がいずれもAIの行為に一定の影響を及ぼしうるという現実を踏まえた責任構造を前提としなければ、責任の偏在や不公平を生じさせる危険を孕むのである。

この点からすれば、AIを道徳的主体として扱うのではなく、AIの利用によって利益を享受する主体に最終責任を帰属させるとともに、AIには制度的なアカウンタビリティを付与する仕組みが必要となる。具体的には、AIによる判断過程を記録・可視化するログ義務、意思決定の説明可能性を確保する説明義務、重大リスクに備えた補償基金への加入義務などが挙げられる。このような制度的枠組みにより、AIの行為に関する責任を開発者・運用者・利用者の三者に応じて適切に配分しつつ、最終的な法的責任を人間的主体に帰属させることが可能となる。

したがって、AIの責任主体化をめぐる問題は、AIを擬制人格として形式的に独立させるのではなく、市民の自己立法と法の正当性を維持しつつ、AI技術の現実的リスクに対処しうる多層的な責任分配モデルによって解決すべき課題であると言える。

コメント

タイトルとURLをコピーしました