広がるAI使った性的偽画像被害、狙われる卒アルの個人写真 載せない学校増える可能性も

199コメント

更新:2025/01/27(月) 16:38

1. 2024/12/27(金) 22:52:28

広がるAI使った性的偽画像被害、狙われる卒アルの個人写真 載せない学校増える可能性も - 産経ニュース www.sankei.com

卒業アルバム(卒アル)の写真などを生成人工知能(AI)で性的な画像や動画に加工する「ディープフェイクポルノ」の被害が国内外で広がっている。特に卒アルに掲載された生徒の〝個人写真〟が加工素材として狙われ、SNSなどで拡散されるケースが目立つ。


技術的な対策も難しい。写真販売システムを運営するITベンチャー「エグゼック」(東京)の山中淑史取締役は、「デジタル画像ならば、不正コピーを防ぐ『電子透かし』の利用やパスワード管理などで一定程度流出を防ぐ方法はあるが、製本された紙の卒アルからスキャンされた画像の流出は防ぎようがない」と説明。「紙幣に使われているようなコピー防止機能を卒アルに施す手法も考えられるが、コスト面を考えると現実的ではない」と指摘する。

同社は生徒の顔をAIで選別する技術を活用し、卒アルに登場する生徒の回数調整を効率化するサービスを提供している。山中氏は「AIの活用はさまざまな面で大きな恩恵を与える一方で、同じくらい悪用されるリスクもある。使い方はモラルに依存する部分が大きすぎる」と警鐘を鳴らす。

+6

-34

2. 2024/12/27(金) 22:52:55

嫌すぎる

+249

-0

3. 2024/12/27(金) 22:53:18

気持ち悪すぎるだろ
性被害のニュースも多いし

+294

-1

4. 2024/12/27(金) 22:53:19

日本人の変態もここまで来たか…

+238

-6

5. 2024/12/27(金) 22:53:41

防ぎようがない

+62

-0

もっと見る(全199コメント)