ディープフェイクで教師の顔を裸体写真に合成。
AI技術「ディープフェイク」を使って、2人の教師の顔を女性の裸体写真に合成し、これを配布したとして起訴された19歳のA被告が、初公判ですべての容疑を認めた。

韓国・仁川地方裁判所の刑事1単独(裁判官 イ・チャンギョン)で行われた公判で、A被告は弁護人を通じて自身の犯行を認めた。
A被告は2024年、自宅で携帯電話を使用して写真合成サイトにアクセスし、30代の教師B氏とC氏の顔を女性の裸体写真に合成してSNS上に拡散したことが明らかになった。
被告は「侮辱」というタグを付け、X(旧Twitter)に合成画像を計4回投稿。被害を受けた教師らは、他の生徒や同僚から自分たちの合成写真が拡散されていると知らされ、警察に捜査を依頼した。
初動捜査が遅れたため、被害教師らは自ら証拠を収集して警察に提出した。調べにより、A被告はB氏とC氏以外にも、計5名の顔を女性の裸体写真に合成していたことが判明した。
警察と仁川市教育庁の教権保護委員会による聴取で、A被告は「先生が綺麗だったから」と話し、行為が犯罪であるという認識はなかったと供述した。
この事件を受け、仁川教師組合をはじめとする地域の教員団体は、未成年による軽率な行動を「好奇心」として容認することは、被害者への二次加害につながるとして厳正な処罰を求めた。警察には、約5,400人の署名が集まった厳罰を求める嘆願書が提出された。
A被告は事件発覚直後に退学処分を受け、被害を受けたB氏は現在休職し、精神的治療を受けている。今回の事件は、ディープフェイク技術の悪用と、それに伴う深刻な社会問題を改めて浮き彫りにした。