-
1. 匿名 2019/07/02(火) 22:22:43
AI技術を用いて作り出される合成動画、いわゆるディープフェイクは近年、米国などで相次いで現れている。17年には、ハリウッドの有名女優らが出演していると見せかけたポルノ動画が、ネット上に出回ったことが注目された。メディアサイト「CNET Japan」の報道によると、リベンジポルノを禁止する米国バージニア州ではディープフェイクの動画や画像も対象に加えられた。
ディープフェイクの動きは政治分野にも及んでおり、昨18年には、偽のオバマ前米国大統領が話している偽動画に注目が集まった。またロイターの報道によると、19年5月にも米国では民主党のペロシ下院議長が講演中に、ろれつが回らず言葉につまっているように加工した偽動画がネットに上がり、フェイスブックYouTubeなどで拡散された。
関連トピック女性の写真から服を消して裸にするアプリ「DeepNude」議論の的にgirlschannel.net女性の写真から服を消して裸にするアプリ「DeepNude」議論の的に DeepNudeは服を着た女性の写真から、服部分だけを削除し、胸や外陰部がはだけた裸の写真に変換してしまうというもの。女性の写真のみ変換可能で、実際にDeepNudeを使用したというIT系ニュースサイ...
+4
-43
-
2. 匿名 2019/07/02(火) 22:23:58
キモすぎない?+173
-1
-
3. 匿名 2019/07/02(火) 22:24:31
あのアプリ、終了したんだ…良かった
でもいたちごっこで似たようなのがまた出てきそうだよね+250
-0
-
4. 匿名 2019/07/02(火) 22:24:56
インスタとか世界に発信してる人、裸にされるね
やっぱ投稿なんてするもんじゃないわ+142
-1
-
5. 匿名 2019/07/02(火) 22:25:00
技術が進歩しすぎた弊害+74
-0
-
6. 匿名 2019/07/02(火) 22:25:15
男はバカ+92
-2
-
7. 匿名 2019/07/02(火) 22:26:10
今年下半期は「ディープフェイク」って言葉を目にする機会が増えそうだな+56
-0
-
8. 匿名 2019/07/02(火) 22:26:14
民度低い系+38
-0
-
9. 匿名 2019/07/02(火) 22:26:55
ネットに自分の顔を載せるのは危険。+75
-2
-
10. 匿名 2019/07/02(火) 22:27:06
フツー企画段階でダメだって気付くだろう+29
-0
-
11. 匿名 2019/07/02(火) 22:27:14
実際、裸で配信して捕まるやつも増えたし男女とも知能の低下を感じますね+57
-3
-
12. 匿名 2019/07/02(火) 22:27:30
AIなんか使わなくても口元見れば分かる+10
-1
-
13. 匿名 2019/07/02(火) 22:28:23
男ってそんなに裸が見たいの?イギリスで全裸自転車とかやってるから参加してくればいいのに。+77
-2
-
14. 匿名 2019/07/02(火) 22:28:47
>>11
可視化できるようになっただけ。バカは昔からいた。+18
-1
-
15. 匿名 2019/07/02(火) 22:28:49
本物でもアプリにやられたって弁解するw+45
-0
-
16. 匿名 2019/07/02(火) 22:28:54
>>11露出狂は昔からいたけどSNSで発信する機会が増えたんじゃないかな
+6
-0
-
17. 匿名 2019/07/02(火) 22:30:29
ネットニュースは真偽はともかく皆がパッと反応して瞬時にそれが拡散されちゃうから、自分も加害者になる可能性がある。
政治レベルも大問題だし、アプリで手軽にディープフェイクできるようになると、自分たちも被害者になる可能性もあり、ネットとの付き合い方を考えさせられるよ。
+14
-0
-
18. 匿名 2019/07/02(火) 22:31:01
男だけがやってるとは限らないよ。
嫌いな女を貶めるために、女がやるかもしれないよ。+107
-3
-
19. 匿名 2019/07/02(火) 22:31:07
コラ画像もどんどん精度上がってますからね
怖い怖い+80
-0
-
20. 匿名 2019/07/02(火) 22:32:05
エロは技術が発展する原動力+4
-3
-
21. 匿名 2019/07/02(火) 22:32:08
フェイク動画ってけっこう出回ってるんだね…
怖いね+32
-0
-
22. 匿名 2019/07/02(火) 22:32:51
このディープフェイクを見抜いたり、判断したり
そういう能力がネットを使う側に備わってない
ネットなんておじいちゃんおばあちゃんもやる時代だけど
実はすっごいモンスターを扱ってるんだよね…+28
-0
-
23. 匿名 2019/07/02(火) 22:33:10
このあいだ若手有名女優のディープフェイクAVを見かけてびっくりした
体は無修正AVで、顔は女優さんを合成してるの
角度も表情もすごく自然で、たまに合成が乱れる瞬間がなかったら本物だと思って拡散する人がいたかもしれない
たぶん見たことがない人の想像をはるかに超えてる+79
-1
-
24. 匿名 2019/07/02(火) 22:35:06
菅田将暉の3年A組はフェイク情報に踊らされるネット民に警鐘をならすっていうすごく重要なテーマを扱ったドラマだったのに、脚本とか設定とか、そっちにツッコミどころが多すぎて、受け取り方は半々って感じで残念だったわ
+25
-1
-
25. 匿名 2019/07/02(火) 22:38:15
ようするにアイコラだよね
フォトショより凄いの?+25
-0
-
26. 匿名 2019/07/02(火) 22:39:14
技術を使う側の人間のモラルが問われるけど
人間にそういう欲望がある限り、表立たない場所でひっそりと罷り通りそう
Snowみたいに、顔写真を取り組むだけで裸の画像が出来上がるみたいなのができたらって思うと怖い+2
-0
-
27. 匿名 2019/07/02(火) 22:47:34
ツイッター見てると、このアプリに関して面白おかしくネタにしてる人たちばかりで引いた
やっちゃいけないことのライン越えてると思う
倫理観おかしい+29
-0
-
28. 匿名 2019/07/02(火) 22:53:27
AIの技術が高いと、その人の顔から最も似てそうな裸を作れるっていうことだよね?
一般人がそれのターゲットになったりしたら恐ろしくない?
普通に撮った写真が加工されて拡散されるっていうこともあり得るよね+16
-1
-
29. 匿名 2019/07/02(火) 22:54:50
AIでAV作れるようになれば、騙されてAV出演なんてのも無くなるのかな+59
-0
-
30. 匿名 2019/07/02(火) 22:59:24
普通のコラ画像よりも手軽に出来てしまうから怖いな+5
-0
-
31. 匿名 2019/07/02(火) 23:00:29
>>23
Yさん+2
-0
-
32. 匿名 2019/07/02(火) 23:01:01
これtwiceの子の見たことあるけど、本当にリアルでびっくりした。すごい時代だわ。+8
-0
-
33. 匿名 2019/07/02(火) 23:01:32
>>28
芸能人なら「嘘です!」って否定もできるけど一般人ならその機会も与えられないよね+34
-0
-
34. 匿名 2019/07/02(火) 23:07:26
法律でダメにして
本当犯罪レベルですから!+10
-1
-
35. 匿名 2019/07/02(火) 23:12:56
むしろこれが当たり前になってネットの裸の画像は「どうせ偽者だろ」ってなれば
リベンジポルノ対策になりそう。+7
-2
-
36. 匿名 2019/07/02(火) 23:15:30
篠原あい 石原さとみ ガッキー ミチョパ 広瀬すずとかあるよね+8
-0
-
37. 匿名 2019/07/02(火) 23:16:22
>>33
フェイクとして拡散されなくとも、嘘であること前提で遊ばれることだって考えられるよね
年齢や性別変えたりするアプリみたいな感じで+8
-0
-
38. 匿名 2019/07/02(火) 23:24:01
+32
-1
-
39. 匿名 2019/07/02(火) 23:25:56
この人でしょ
訴えられないのかな
喜んでコメントしてる男ばかりで悲しくなった
+33
-0
-
40. 匿名 2019/07/02(火) 23:32:12
>>39
被害に遭った本人が訴えれば問題になるはず+10
-0
-
41. 匿名 2019/07/03(水) 00:16:53
>>39
マジか。ちょっと見てきたけどコラの知識無かったら普通にそういうことしてたのかな?と思っちゃうレベル…
これは悪質だね+5
-1
-
42. 匿名 2019/07/03(水) 00:26:47
>>39
全然似てねーし。
静止画は分からないけど、動画だと普通に違うって分かるよ+9
-1
-
43. 匿名 2019/07/03(水) 00:29:08
>>42
洋画観てて、「登場人物みんな同じ顔に見える…」っていうタイプの人じゃない?
動画はさすがに違うなって思ったわ+9
-0
-
44. 匿名 2019/07/03(水) 00:30:09
>>39は通報してください。リンクを貼らないでください。+9
-0
-
45. 匿名 2019/07/03(水) 02:13:15
こうやって新しい変態がどんどん増えていくんだね+3
-0
-
46. 匿名 2019/07/03(水) 03:02:45
素人一人がチマチマやる分には分かるかもだけど、実際にハリウッドでプロ集団がCG使って若返らせたりスタントの顔に合成させて作ってたら分からないと思うよ
たとえ素人仕事でも多少チープくらいなら踊らされるバカが大量に湧くでしょ+3
-0
-
47. 匿名 2019/07/03(水) 05:16:15
+3
-7
-
48. 匿名 2019/07/03(水) 10:04:43
人権侵害+0
-0
-
49. 匿名 2019/07/03(水) 10:05:27
>>24
話逸れるけど、旅猿でベッキーがやたらと3年A組を推してたのはこう言う理由か笑
泣きながら皆んなに見て欲しいって言ってた。
本当嫌な奴+1
-0
-
50. 匿名 2019/07/03(水) 10:44:32
本当気持ち悪いわ。
旦那にこういうニュースがあったよって言ったら怖いアプリだなって言ってた。
これで旦那もこういうアプリに興味アリアリだったら何も信じられないわ。
+1
-0
-
51. 匿名 2019/07/03(水) 11:25:55
>>47
そうかな?
ホクロをみつけてやっとこれ白石麻衣なのかな?って思うレベル
あんま似てない+1
-0
コメントを投稿する
トピック投稿後31日を過ぎると、コメント投稿ができなくなります。関連トピック
関連キーワード
削除すべき不適切なコメントとして通報しますか?
いいえ
通報する
女性の写真を裸のものに変えられる、とするアプリ「DeepNude」が出現し、海外メディアを中心に物議をかもす騒動があった。批判を浴びたアプリは削除された。作者側のツイッターアカウントが2019年6月28日3時10分ごろ(日本時間)、ツイートを更新し、「DeepNudeの終了」を宣言した。