自民党によるAI法罰則化の提言
2026年4月23日、自由民主党はAI(人工知能)に関する法規制の実効性を高めるため、AI基本法への罰則規定の追加を政府に対して正式に提言しました。現行のAI基本法(令和7年法律第○号、2025年5月成立)は、AIの開発・利用に関する基本原則を定めたものの、違反に対する罰則規定を設けていないため、実効性の確保が大きな課題として指摘されていました。
今回の提言は、特にディープフェイクポルノの被害やAIによる著作権侵害が深刻化している状況を踏まえ、規制の強化を求めるものです。
ディープフェイク規制の現状と課題
現行法の限界
日本には現在、ディープフェイクの作成自体を直接禁止する法律が存在しません。被害者が法的救済を求める場合、以下の既存法令に基づく対応にならざるを得ません。
| 適用可能な法令 | 内容 | 限界 |
|---|---|---|
| 名誉毀損罪(刑法230条) | 公然と事実を摘示して名誉を毀損した場合 | 拡散前の段階では適用困難 |
| わいせつ物頒布罪(刑法175条) | わいせつな画像・動画の頒布 | 作成のみでは処罰対象外 |
| リベンジポルノ防止法 | 私事性的画像の非同意公表 | AIによる合成画像が「私事性的画像」に該当するか解釈が分かれる |
| 肖像権侵害(民事) | 不法行為に基づく損害賠償 | 刑事罰なし、抑止力に限界 |
政府の対応
2026年1月、林芳正官房長官(当時)は、AIを用いた性的ディープフェイク画像・動画の問題について、政府として対応を検討すると表明しました。自民党の提言はこの流れを受けたもので、ディープフェイクの作成段階からの規制を含む新たな立法措置を求めています。
AI学習と著作権法30条の4
条文の趣旨
著作権法30条の4(平成30年改正)は、情報解析の用に供する場合など、著作物に表現された思想・感情の享受を目的としない利用を、著作権者の許諾なく行うことを認めています。これがAIの機械学習において大量の著作物を学習データとして利用する法的根拠となっています。
AIの出力と著作権侵害の境界
しかし、AIの出力物(生成コンテンツ)が既存の著作物の表現を再現する場合には、著作権法30条の4の適用範囲外となり、著作権侵害が成立する可能性があります。
- 学習段階: 著作権法30条の4により原則適法
- 出力段階: 生成物が既存著作物の「創作的表現」を再現していれば複製権(21条)または翻案権(27条)の侵害となりうる
- 依拠性の立証: AI利用者が特定の著作物に依拠したことの立証が困難なケースが多く、実務上の課題が残る
文化庁は2024年3月に公表した「AIと著作権に関する考え方」において、AI学習段階と出力段階を区別して整理する方針を示しており、今後の判例の蓄積が注目されます。
日本のAI規制の方向性
日本政府は従来、「AIの開発に最も適した国」を目指す方針を掲げ、EUのAI規制法(AI Act)のような包括的な事前規制とは一線を画してきました。しかし、生成AIの急速な普及に伴い、リスクへの対応も不可避となっています。
今後の規制の見通し
| 項目 | 現状 | 今後の方向性 |
|---|---|---|
| AI基本法 | 罰則なし(2025年5月成立) | 罰則規定の追加を検討 |
| ディープフェイク | 直接禁止する法律なし | 作成段階からの規制を立法化 |
| 著作権侵害 | 30条の4で学習は適法、出力は個別判断 | ガイドラインの精緻化・判例の蓄積 |
| 個人情報保護 | 個人情報保護法で対応 | AI特有のリスクに対応する改正を検討 |
実務上の留意点
- AI生成コンテンツを業務で利用する企業は、出力物が既存著作物を再現していないかのチェック体制を構築すべきです
- ディープフェイク被害に遭った場合、現行法でも発信者情報開示請求(プロバイダ責任制限法)や削除請求は可能です
- 今後のAI法改正の動向を注視し、罰則規定が追加された場合のコンプライアンス体制の整備を早期に検討することが推奨されます
- AIを活用した事業を展開する場合、著作権法30条の4の適用範囲を正確に理解し、学習データの選定と出力管理を適切に行うことが重要です
---
*法律のミカタ編集部|2026年4月26日公開*