女子陸上選手の顔写真を裸に加工 AI技術「ディープフェイク」悪用で 男を書類送検

91コメント

更新:2023/11/09(木) 03:55

1. 2023/11/06(月) 23:18:30

女子陸上選手の顔写真を裸に加工 AI技術「ディープフェイク」悪用で 男を書類送検|FNNプライムオンライン www.fnn.jp

AI(人工知能)の技術を悪用し、女子陸上選手の顔写真と別人の裸の写真を合成し、SNSに投稿した疑いで大学生の男が書類送検された。 愛知県に住む20代の大学生の男は2023年3月、女子陸上選手の顔写真と別人の裸の写真を合成し、SNSに投稿した名誉毀損(きそん)の疑いが持たれている。 男は、面識のない女子選手のユニホーム姿の写真をネット上からダウンロードした後、AI技術のひとつで偽の画像が精巧に合成できる「ディープフェイク」のサイトを悪用したという。

+7

-65

2. 2023/11/06(月) 23:19:20

自分が情けなくならないのかな

+253

-1

3. 2023/11/06(月) 23:19:22

コラ?

+7

-0

4. 2023/11/06(月) 23:19:29

学生なら違うことに頭使え!ボケ!

+99

-1

5. 2023/11/06(月) 23:19:38

大学性マジでなにやってんねん

+38

-1

もっと見る(全91コメント)