-
1. 匿名 2021/08/06(金) 15:51:56
ここで用いられるソフトウェアは「neuralMatch(ニューラルマッチ)」と呼ばれる予定で、個人のiPhoneに保存されている画像と、米国の法執行機関のデータベースに登録されている画像を比較し、フラグが立てられた場合、審査が開始されるという。違法な写真であると判断された場合、法執行機関にアラートが出される。
ロイターによると、このシステムは、iCloudサーバーにアップロードされる前のiPhoneに保存されている写真を、チェックするものだという。+693
-8
-
2. 匿名 2021/08/06(金) 15:52:10
いいと思います!+1303
-10
-
3. 匿名 2021/08/06(金) 15:52:21
日本も早く!!+1214
-10
-
4. 匿名 2021/08/06(金) 15:52:49
> 違法な写真であると判断された場合、法執行機関にアラートが出される。
各国のユーザー、慌てて消しだす+984
-7
-
5. 匿名 2021/08/06(金) 15:52:56
検索した人って特定できるのかな+401
-3
-
6. 匿名 2021/08/06(金) 15:52:58
動画もだよね?
大賛成!+672
-6
-
7. 匿名 2021/08/06(金) 15:53:02
ふざけんな!
不買運動+26
-200
-
8. 匿名 2021/08/06(金) 15:53:16
これ画像フォルダを見るって事なの?
+456
-0
-
9. 匿名 2021/08/06(金) 15:53:25
>>1
日本でやったらすごい数検出されそうで笑えない+486
-10
-
10. 匿名 2021/08/06(金) 15:53:26
ロリコンはダメだけど、この機能は怖っ!+523
-19
-
11. 匿名 2021/08/06(金) 15:53:28
世界中でホイホイ見つかるんだろな
男ってほんとにキモい+292
-9
-
12. 匿名 2021/08/06(金) 15:53:28
乳児の風呂上がり画像とかも検知されちゃうのかな+369
-5
-
13. 匿名 2021/08/06(金) 15:53:34
いいけど子持ちの写真フォルダってまぁまぁ裸っぽい写真いっぱいだけど、どうやって見分けるんだろ?
+380
-4
-
14. 匿名 2021/08/06(金) 15:53:41
これは困る。やめろ+8
-33
-
15. 匿名 2021/08/06(金) 15:53:46
成人のエロはともかく児童ポルノは絶対ダメ
あと隠し撮りも何とかならないのかな+252
-0
-
16. 匿名 2021/08/06(金) 15:53:50
勝手なことしないで+14
-28
-
17. 匿名 2021/08/06(金) 15:53:52
>>1
色々抜き取られそう
+79
-1
-
18. 匿名 2021/08/06(金) 15:53:53
自分の子どもがプールではしゃしでる写真、とかもアラートされたら焦るね+244
-2
-
19. 匿名 2021/08/06(金) 15:53:53
これでiPhone買わない男がわんさかいそうw+193
-0
-
20. 匿名 2021/08/06(金) 15:53:56
ロリコンはAndroidに機種変しちゃうね+176
-0
-
21. 匿名 2021/08/06(金) 15:54:03
ハメ撮りもバレるね+24
-5
-
22. 匿名 2021/08/06(金) 15:54:04
例えばだけど我が子(赤ちゃん)の水浴び姿とかもアウトになる?+140
-2
-
23. 匿名 2021/08/06(金) 15:54:08
児童ポルノ検出は良いんだけど、スマホ内のデータがアップルに丸見えとかになるわけじゃないんだよね?個人情報保護は大丈夫なんだろうか?+169
-5
-
24. 匿名 2021/08/06(金) 15:54:23
日本の児童が対象な変な漫画とかも取り締まってほしい!
5ちゃんっていうの見たら、そんな漫画の宣伝ばかりで本当に気持ち悪い。+120
-9
-
25. 匿名 2021/08/06(金) 15:54:28
>>8
子供の写真撮ってる人オールアウトじゃない?+439
-6
-
26. 匿名 2021/08/06(金) 15:54:34
>>9
ロリコンはiPhone使わないだろうね。+93
-0
-
27. 匿名 2021/08/06(金) 15:54:37
日本とかやばそう
+8
-4
-
28. 匿名 2021/08/06(金) 15:54:41
日本でもぜひお願いします+13
-4
-
29. 匿名 2021/08/06(金) 15:54:43
これに関してはいいと思うけど怖いってのもある+53
-0
-
30. 匿名 2021/08/06(金) 15:54:46
>>12
米国の法執行機関のデータベースに登録されている画像を比較し、フラグが立てられた場合、審査が開始される
ってかいてあるからプライベートや裏でやりとりされてる画像では引っかからなさそう+123
-4
-
31. 匿名 2021/08/06(金) 15:54:47
個人のデータ抜き取りは容易にできるってことね。+54
-1
-
32. 匿名 2021/08/06(金) 15:54:54
この間、実家のアルバム整理してたら赤ちゃん時代の裸の写真(お風呂入れられてるところとか)たくさん出てきたわ。いま写真印刷してる人少ないと思うから、思い出とか成長記録のデータは移しておいた方がいいかもね+58
-1
-
33. 匿名 2021/08/06(金) 15:54:56
>>22
だろうね+15
-0
-
34. 匿名 2021/08/06(金) 15:55:12
>>8
見られて困るような画像あるの?
私は困るような画像まったくない。+27
-43
-
35. 匿名 2021/08/06(金) 15:55:20
どんな仕組みなんだろ+6
-0
-
36. 匿名 2021/08/06(金) 15:55:36
カツオくんとワカメちゃんの画像はヤバいかな
半ズボンにパンツ丸見えだから+8
-1
-
37. 匿名 2021/08/06(金) 15:55:39
アジア人は欧米人基準で幼く見えるから、ロリっぽい成人女性も誤検知されそう+35
-0
-
38. 匿名 2021/08/06(金) 15:55:43
アップルええぞ、やったれ+9
-7
-
39. 匿名 2021/08/06(金) 15:55:44
>>1
ガチロリのiphoneからの機種変が増える+24
-1
-
40. 匿名 2021/08/06(金) 15:55:48
赤子の風呂上がりの画像とかも検出されるのかな‥‥
私の癒やしが!+10
-5
-
41. 匿名 2021/08/06(金) 15:56:01
>>22
我が子はOKでも、一緒に遊んだお友達が映ってたらアウトとかになっちゃうと困るね。+61
-0
-
42. 匿名 2021/08/06(金) 15:56:11
日本のiPhoneもお願いします
写真だけじゃなくてクジラックスみたいなマンガも検知してください+22
-12
-
43. 匿名 2021/08/06(金) 15:56:18
児童ポルノって、私たちが想像してるよりももっとえぐいものがあるんじゃない?
家族写真と間違えるようなものではなくて、ひと目見ただけでやばいってわかるやうなやつ+99
-0
-
44. 匿名 2021/08/06(金) 15:56:18
今のうちに他媒体に移されそう+1
-2
-
45. 匿名 2021/08/06(金) 15:56:25
可能であれば、
人の殺し方とか、殺人バレない方法とか、
絶対なんかやらかすつもりだろ!ってワードも引っかかるようにしてほしい
そして公開して欲しい
未然に防ごう、凶悪事件+86
-2
-
46. 匿名 2021/08/06(金) 15:56:28
>>8
違う。ローカルに入ってるものは確認しようがないから。ネットワークを通すと見られちゃう。+92
-2
-
47. 匿名 2021/08/06(金) 15:56:34
Androidもすぐにお願いいたします+14
-0
-
48. 匿名 2021/08/06(金) 15:56:39
>>35
肌の色が多すぎるとかで区別されるのかな。+3
-0
-
49. 匿名 2021/08/06(金) 15:56:40
>>12
それは目視で判断しますから…+14
-2
-
50. 匿名 2021/08/06(金) 15:56:57
>>46
Google Photoは?+8
-2
-
51. 匿名 2021/08/06(金) 15:56:58
姪っ子の写真送られてきて保存したらアウト?+6
-1
-
52. 匿名 2021/08/06(金) 15:57:01
齢1歳の頃の甥っ子の裸写真はどうなるのかなー+4
-3
-
53. 匿名 2021/08/06(金) 15:57:06
女性にもメリットあるね
iPhone使ってる男性はセーフって目印になりそう+5
-14
-
54. 匿名 2021/08/06(金) 15:57:11
>>34
そう言う問題じゃないんだよね。
+58
-4
-
55. 匿名 2021/08/06(金) 15:57:35
>>25
データベースと比較してってあるから、顔認識技術とかで我が子ってわかると思う。
今って学校の行事の写真もプロに任せててネットで購入できるんだけど、我が子の写真登録すると顔認識して該当写真見つけてくれたりする。
すごいよね。+148
-5
-
56. 匿名 2021/08/06(金) 15:57:39
別に変な画像持ってないけど
写真フォルダ見られてると思うと恥ずかしいです+17
-0
-
57. 匿名 2021/08/06(金) 15:57:42
日本の独身変態男をどんどん摘発してくれ+2
-3
-
58. 匿名 2021/08/06(金) 15:57:59
>>54
どういう問題なの?+3
-16
-
59. 匿名 2021/08/06(金) 15:58:11
犯罪抑止としてはいいけどスマホの中をのぞく機能がめちゃ怖い気がする+37
-0
-
60. 匿名 2021/08/06(金) 15:58:26
他のことにも応用できるよね、これ。
そこが怖い。+23
-0
-
61. 匿名 2021/08/06(金) 15:58:28
>>25
データベースに登録されているポルノ画像と一致したらフラグが立つって書いてあるからプライベートは問題ないでしょ+134
-3
-
62. 匿名 2021/08/06(金) 15:58:47
>>22
自分の幼い娘が水着で水遊びをする画像を保存してたPCを修理に出して
修理の人が児ポ画像と判断して通報し、逮捕されたお父さんが海外にいたよ
自分の娘だと言ってもアウトだって+73
-0
-
63. 匿名 2021/08/06(金) 15:58:52
>>13
見分けるわけないじゃん
自分の子だろうが他人の子だろうが
一律通報されるだろ+16
-44
-
64. 匿名 2021/08/06(金) 15:59:00
もっと考えると子供が隠し撮りとかされて本人や親が知らないで画像が売買されてるのもわかるということだよね?+3
-1
-
65. 匿名 2021/08/06(金) 15:59:05
みんな冷静に考えて!
発想自体は素晴らしいものだけど、スマホの画像を全部見られるってことだよ
下手したら画像収集されてるかもしれないし
プライバシーを侵害されかねない事の方が怖い
+56
-4
-
66. 匿名 2021/08/06(金) 15:59:14
画像の形状状況を分析してコンピューターが弾いてくって感じ?
ポルノならそれなりの体格差や対位とかあるからか
ロリ系セクシー女優でも児童並みの身長身体の発達があるわけではないし
なんかコンピューターすごいな+0
-1
-
67. 匿名 2021/08/06(金) 15:59:19
そのデータベースにアクセスしようとするガチのロリコンとかいそうで怖い+5
-0
-
68. 匿名 2021/08/06(金) 15:59:21
>米国の法執行機関のデータベースに登録されている画像を比較し
画像にフィルターかけて保存して見る時はフィルターを外すアプリとか作る人出てきそう+4
-0
-
69. 匿名 2021/08/06(金) 15:59:49
>>34
横だけど普通に自分のスマホの中を見られてると思うと気持ち悪くない?
自分の自撮りや家族の写真、検索履歴も見られてるかもよ…
+97
-6
-
70. 匿名 2021/08/06(金) 16:00:00
子供の写真はとるけど、さすがに裸の写真はとらなくない?
お風呂に入ってる写真とったけど、ちゃんとタオル巻かせて写真に写らないようにしたよ。+4
-5
-
71. 匿名 2021/08/06(金) 16:00:00
みてね!であげた写真はアウトってこと?+0
-0
-
72. 匿名 2021/08/06(金) 16:00:06
怖すぎ!
どういう仕組だよ+15
-1
-
73. 匿名 2021/08/06(金) 16:00:16
AIの画像検知結構アホだから
子供+肌色多かったら壊されちゃうのかなって思ったけど
元々登録されてるポルノ画像と同じ画像あったらわかるって感じなのね+7
-0
-
74. 匿名 2021/08/06(金) 16:01:11
>>50
Google Photoのクラウドサーバー自体はApple関わってないけど、通信した際のデータもチェックされるとかが出来るんなら確認されるんじゃないかな。
iCloudに画像自動保存してる人は全確認だろうね。+15
-0
-
75. 匿名 2021/08/06(金) 16:01:30
アップル社に務めてたら恋人のスマホ覗く人絶対いるよね+2
-0
-
76. 匿名 2021/08/06(金) 16:01:33
何で賛成派が多いのか分からない
データ覗かれてるってことだよね
どっちがポルノなんだかアウトだろうとセーフだろうと見られたくないわ+36
-2
-
77. 匿名 2021/08/06(金) 16:01:50
ロリコンの抑止効果としては歓迎だな+2
-0
-
78. 匿名 2021/08/06(金) 16:01:53
これは建前で、実際やりたいことは個人の情報やデータをスキャンして監視社会つくることだから+27
-1
-
79. 匿名 2021/08/06(金) 16:02:15
勝手にスマホの中身見られるとか気持ち悪い
悪用されたら怖い+7
-1
-
80. 匿名 2021/08/06(金) 16:02:16
>>58
例えば、画像が全てチェックできるなら、その人の個人情報がかなり探れるでしょ。
それが企業や政府の要人ならどうなる?+41
-0
-
81. 匿名 2021/08/06(金) 16:02:49
>>46
>ロイターによると、このシステムは、iCloudサーバーにアップロードされる前のiPhoneに保存されている写真を、チェックするものだという。
端末内の画像をチェックするってことじゃない?+93
-2
-
82. 匿名 2021/08/06(金) 16:03:05
>>13
正直子供でもほぼ裸や下着姿の写真撮るのやめて欲しいわ。子供の頃少し成長してからめちゃくちゃ嫌だった。動物でもないのにお尻可愛いみたいなのキモい。+44
-29
-
83. 匿名 2021/08/06(金) 16:03:32
>>53
2台持ちするんじゃない?+4
-0
-
84. 匿名 2021/08/06(金) 16:03:42
>iCloudサーバーにアップロードされる前のiPhoneに保存されている写真
iCloudにアップロードしようとしている写真をチェックするものなのか
iCloudにアップロードしようとアクセスすると
iPhoneに保存されている写真全部チェックされるのか
後者だとすっごい怖いんだけど+3
-0
-
85. 匿名 2021/08/06(金) 16:03:55
>>8
データに一致したらチェックするんじゃない?
+2
-1
-
86. 匿名 2021/08/06(金) 16:04:02
スカートの中を盗撮した画像なんかも検知して欲しい。
出来ればカメラ機能自体に撮影出来なくなるような機能を持たせてくれるのがいいけど。+7
-0
-
87. 匿名 2021/08/06(金) 16:04:08
>>9
この人とかヤバそう+103
-0
-
88. 匿名 2021/08/06(金) 16:05:08
>>86
エロ画像は保存できない機能が良いかも+4
-0
-
89. 匿名 2021/08/06(金) 16:05:15
>>10
外部の人が勝手にスマホ内のデータ閲覧だからねぇ。
アメリカはかなり前から捜査機関とアップルで逆アクセスさせろって裁判になってたりしてる。
技術的には何年も前から可能で、
スパイウイルス仕込まれた人がスマホを遠隔操作されて生活の全部丸見えになってた事件が世界中にある。
イスラエルは国を上げてその方面のIT開発してるのも問題になってる。
つい最近読んだアメリカのニュースでは、
指名手配犯や現行犯で追跡されてる犯人が所持してるスマホのGPSを衛生で追跡して、
常に居場所特定したり監視カメラと連動や顔認証システムで追い詰めるって捜査になるとか。
国防では既に使われてた方法を末端の警察捜査にも使えるようになる。
かなり前からボディカメラで全部記録してたり元々軍事用の熱感知システム使ってたり結構最先端な方法使う。
日本は平和だからって事もあるけどめっちゃ遅れてるね。+35
-2
-
90. 匿名 2021/08/06(金) 16:05:16
もしかして今も全て人間がひとつひとつやってると思ってる人いるのか?+3
-0
-
91. 匿名 2021/08/06(金) 16:05:30
性器が写ってたら直ぐ様逮捕かな
嬰児の頃の写真でチラッと写ってる写真あるわ🤮父親が撮ったんだろうけどアホすぎる
キモいし今更ながら逮捕して欲しい+3
-0
-
92. 匿名 2021/08/06(金) 16:06:06
いけいけ!!!!+0
-0
-
93. 匿名 2021/08/06(金) 16:06:25
>>4
慌てて消しても無駄だろうねw
慌てて消すのは織り込み済みで消した後も検出できそう。+120
-0
-
94. 匿名 2021/08/06(金) 16:06:44
>>81
iCloudとの通信を切ればいい。
その文の意味はiCloudに保存する前段階で念のため画像チェックをするってだけ。iCloudと連携しなければローカルにあるものを確認しようがないの。+11
-5
-
95. 匿名 2021/08/06(金) 16:07:00
>>69
すでに見ることは出来る状態にあります、、、+22
-1
-
96. 匿名 2021/08/06(金) 16:07:30
ピート・タウンゼンドの逮捕事件から何も学ばなかったのか?
ただの魔女狩りだぞ。
勝手にユーザーのデータや個人情報スキャンして正義感ぶるな、気色悪い。+6
-0
-
97. 匿名 2021/08/06(金) 16:07:42
盗撮やリベンジポルノ対策もお願いします
不同意で勝手に写真撮られた人は可哀想+6
-1
-
98. 匿名 2021/08/06(金) 16:08:31
>>69
悪意がある人はそうだろうけどそういう人はどこにいてもやるんじゃないかな
普通の社員が興味あると思う?+5
-8
-
99. 匿名 2021/08/06(金) 16:08:59
iPhoneを持ってる男はロリコンじゃないと判別できるようになるわけか+1
-1
-
100. 匿名 2021/08/06(金) 16:09:31
素晴らしいけど
我が子の写真はどうしたらいい?+3
-0
-
101. 匿名 2021/08/06(金) 16:09:46
>>97
それどうやって判別するの+5
-0
-
102. 匿名 2021/08/06(金) 16:09:50
>>69
検索履歴も重要じゃない?
ロリコンを発見しやすそうだからそのうちこっちも取り締まるのかな?+18
-0
-
103. 匿名 2021/08/06(金) 16:10:14
>>24
わかる!!!!
気持ち悪い広告あるよね
チラッとしかでてこなくても
気持ち悪くて本当に寒気する
色んな性癖の人がいるのは分かるけど、それを現実世界と混同してしまうのは違うと思う。
そういう漫画とかで助長されてしまって犯罪おこしちゃう人もいるんじゃないかな
とにかく、気持ち悪い+30
-4
-
104. 匿名 2021/08/06(金) 16:10:44
日本こそ早期に導入するべきでは+2
-2
-
105. 匿名 2021/08/06(金) 16:11:07
>>101
今の技術はすごいよ
細かい違いも判別されて弾き出す
スマホ使ってるよね+1
-3
-
106. 匿名 2021/08/06(金) 16:12:13
>>23
丸見えだよ
そもそも前から丸見え+29
-3
-
107. 匿名 2021/08/06(金) 16:12:35
現在でも流出の危険はゼロじゃないんだから自分の子供でも裸では撮影しないほうが良いんじゃないかな。赤ちゃんのお風呂のようす、可愛いけどね。+7
-0
-
108. 匿名 2021/08/06(金) 16:12:46
違う意味で怖いトピだった
人間が見てると思ってたのか+5
-0
-
109. 匿名 2021/08/06(金) 16:12:57
誘拐やら児ポルから子供を守るような画期的なシステムがすでに開発されててもおかしくないと思うんだけどエプスタイン事件の事もあるしそこは絶対踏み込めない領域があるんだろうなぁ+4
-0
-
110. 匿名 2021/08/06(金) 16:13:16
>>104
アメリカの方が小児に対する性犯罪圧倒的に多いんだけど
日本に問題がないとは言わないけども+5
-0
-
111. 匿名 2021/08/06(金) 16:13:28
>>34
私、いぼ痔の経過を日々撮ってるから見られたくない…
+50
-0
-
112. 匿名 2021/08/06(金) 16:14:03
私は児童ポルノなんて1mmも興味ないし、どうぞどうぞって感じです。+5
-3
-
113. 匿名 2021/08/06(金) 16:15:10
>>4
ダイエットしようと思ってて胸が小さい人の画像保存してるのもダメかな
成人女性ではあるんだけども+10
-9
-
114. 匿名 2021/08/06(金) 16:15:14
>>61
それじゃ新規で撮られた児童ポルノとか捕まえられないじゃん。アメリカだと誘拐された幼児が児童ポルノの餌食になって用済みになると殺されるらしいから用済みにするサイクルが早くなりそうとか思ってしまった。+46
-2
-
115. 匿名 2021/08/06(金) 16:15:31
>>69
別にひとつひとつチェックしてる訳ではなく人間はシステムを動かしてるだけだから
膨大な量の情報をどうしてると思ってるの?+5
-0
-
116. 匿名 2021/08/06(金) 16:15:55
>>69
そもそもiCloudを使う時点でクラウド利用してるんだから画像は全て向こう側にある状態で当たり前。そんな事言い出したら全てのクラウドサービスを否定する事になる。
履歴やcookieはブラウザが持ってるし、アプリの情報はそのデベロッパーが持ってる。全てをアップルが持ってる訳ではない。
嫌なら連携を止めればいい。
+23
-0
-
117. 匿名 2021/08/06(金) 16:16:02
>>1
やっとか
相当な検出数になりそう+7
-0
-
118. 匿名 2021/08/06(金) 16:16:31
>>110
あらそうなの+0
-0
-
119. 匿名 2021/08/06(金) 16:17:42
がるちゃんヤバイw+0
-1
-
120. 匿名 2021/08/06(金) 16:17:52
>>46
子供のオムツ一枚の写真あるけどアウト?
子育てしてる親ならそういう写真たくさん撮ってると思うんだけど
さすがに股間丸出しはないけど赤ちゃんのお尻むちむちで可愛いし+9
-7
-
121. 匿名 2021/08/06(金) 16:18:38
>>20
Androidを使っている男=ロリコン?笑+12
-3
-
122. 匿名 2021/08/06(金) 16:18:58
>>69
キモいのに自撮りで歯痛ポーズ試しに撮ったりしてたわ
それ全部見られるのか+18
-0
-
123. 匿名 2021/08/06(金) 16:19:31
Appleも勘違いしてきているな
こんなプライバシーの侵害に直結するようなことしたらユーザー離れていくよ
スマホのデータ覗き見しますよってのを公言してしまったわけだから
上流階級の人らからこぞって他のスマホに乗換えるのが目に目える
スティーブ・ジョブズが生きていたらこんなユーザーの心情を無視した機能はつけないだろう+15
-1
-
124. 匿名 2021/08/06(金) 16:20:07
>>62
修理屋が客のPCのファイルまで見るというのがちょっと引っかかる
油断して入れたままの方が間抜けだけど
+60
-1
-
125. 匿名 2021/08/06(金) 16:20:13
>>23
丸見えな訳ないよ
全部丸見えとかわけわからん事言ってる人間はWiresharkでも使って通信の確認でもしろと思う
+8
-8
-
126. 匿名 2021/08/06(金) 16:21:11
>>63
間違ってる意見なのになんでそんな上から目線で言えるのw+16
-3
-
127. 匿名 2021/08/06(金) 16:21:22
>>120
オムツや裸の写真しかないってことはないでしょう
そこも比較するよ
そもそも今回は児童ポルノのデータベースを基準にするらしいから関係ないけど+4
-1
-
128. 匿名 2021/08/06(金) 16:21:57
>>30
なるほどね
もう出回っているものと一致するかどうかってことか
どんどんやってくれ+6
-1
-
129. 匿名 2021/08/06(金) 16:22:14
>>120
全くアウトじゃないよ笑+2
-1
-
130. 匿名 2021/08/06(金) 16:22:20
悪用されたら怖い機能
+1
-0
-
131. 匿名 2021/08/06(金) 16:22:20
>>125
フリーソフトで見えるのは一部
素人は引っ込んでろ+3
-3
-
132. 匿名 2021/08/06(金) 16:23:14
>>131
ガル男乙ww+6
-0
-
133. 匿名 2021/08/06(金) 16:23:53
>>113
ひとりライザップしてるよ
写真は数年分あるよ
あの時の体はこうだったのか…って時々振り返っている+7
-0
-
134. 匿名 2021/08/06(金) 16:24:19 ID:f8IAXcpjYa
我が子のでも???ちょっと困る+1
-0
-
135. 匿名 2021/08/06(金) 16:24:24
>>131
はぁ。じゃあAppleと端末が通信する上で必要なプロトコル全て言ってみ。+3
-0
-
136. 匿名 2021/08/06(金) 16:24:58
>>9
身内から出たと想像したら恐ろしい…+5
-0
-
137. 匿名 2021/08/06(金) 16:25:13
犯罪抑止とか言って盗聴とかカメラ乗っ取りとかもするようになりそう+0
-0
-
138. 匿名 2021/08/06(金) 16:25:21
>>120
当然アウトです+1
-7
-
139. 匿名 2021/08/06(金) 16:25:44
>>1
元々iphoneにはセキュリティホールがあってそこから覗かれる仕組みなんだよね
今回それを利用して表向きは児童ポルノ検出だけど他にも個人情報を堂々と収集するつもりなんだろうね
だから中国はiphoneも Androidも信用できないからセキュリティホールのないハーモニーってOSだしたんだよ
これから世界の主流になるだろうね
+19
-1
-
140. 匿名 2021/08/06(金) 16:25:58
>>113
なんで保存?自分も胸が小さくなる覚悟で?+6
-0
-
141. 匿名 2021/08/06(金) 16:27:39
自撮りが見られるとかの心配より、自分の子が隠し撮りされていたり情報を抜かれてポルノに掲載されていたら連絡がくる
そっちの心配をした方がいいと思う+0
-0
-
142. 匿名 2021/08/06(金) 16:27:42
>>55
データベースと比較するのはポルノかどうかを判断するため。親子かどうか何て判断しないというかできないよ+36
-0
-
143. 匿名 2021/08/06(金) 16:28:07
だからスマホの中は外部からは覗けないと何度言ったら…+1
-1
-
144. 匿名 2021/08/06(金) 16:28:43
ガル男があせってると思うと笑えるw+3
-0
-
145. 匿名 2021/08/06(金) 16:29:17
>>4
削除履歴も全部アップル側で握ってるから
日本のゴキブリロリコンどもはあとの祭り
警察に通報されて終わる+111
-0
-
146. 匿名 2021/08/06(金) 16:29:34
無知なのに偉そうなのなんだろ
スマホを使ってるのに知識がない方にびっくりしたわ+0
-0
-
147. 匿名 2021/08/06(金) 16:31:35
>>135
よこ
ん?port番号の事言ってるの?+0
-1
-
148. 匿名 2021/08/06(金) 16:31:51
>>7
不買運動?
韓国人?+26
-4
-
149. 匿名 2021/08/06(金) 16:32:27
>>26
Androidに急に変えた奴は、あーあいつ…ってなるw+44
-0
-
150. 匿名 2021/08/06(金) 16:32:38
ロリ犯罪者いらん!
虹もCGのも全部アウトで摘発していってくれ!+3
-0
-
151. 匿名 2021/08/06(金) 16:32:55
写真見られて困るのは女の方が多い気がするけど、、、自撮りとか撮ってない?自分の胸とか+2
-2
-
152. 匿名 2021/08/06(金) 16:33:33
>>1
てか、どう生きてきたら何歳になっても幼児に興味が持てるわけ?+10
-0
-
153. 匿名 2021/08/06(金) 16:33:39
>>144
ごちゃんのスレ、慌ててるやつとか怒ってるやつとかいて面白かったよwww+5
-0
-
154. 匿名 2021/08/06(金) 16:34:34
>>151
撮らないでしょ、自撮りはともかく胸って何?笑
どんな生活してんの?+5
-0
-
155. 匿名 2021/08/06(金) 16:34:57
>>153
きもw+3
-0
-
156. 匿名 2021/08/06(金) 16:35:01
>>48
今、ベージュの服来た子供多いのにね+0
-2
-
157. 匿名 2021/08/06(金) 16:36:04
パソコン出始めくらいで止まってる人多いな
さすがババちゃん+4
-1
-
158. 匿名 2021/08/06(金) 16:36:37
>>147
何でポートが出てくるんだよ...
iCloudでサーバと通信するために端末側で必要なプロトコルをレイヤ4から順に答えてみ。超簡単だろ。Wi-Fiでの話ね。+1
-1
-
159. 匿名 2021/08/06(金) 16:37:01
日本もやって+2
-0
-
160. 匿名 2021/08/06(金) 16:37:48
>>153
家の近くに違法電波飛ばしてる人いる
絶対住人だろと睨んでる+1
-0
-
161. 匿名 2021/08/06(金) 16:38:08
>>108
人間でも機械でも同じ
中身見られて人間性など解析されたビッグデータが売買されたり恐ろしいことはいくらでも考えられる+2
-1
-
162. 匿名 2021/08/06(金) 16:38:13
>>36
手塚治虫のアニメて
みんなああいうパンツだよ+5
-0
-
163. 匿名 2021/08/06(金) 16:38:38
>>34
困る困らないの問題じゃないよ
自撮り、家族との写真、友達との写真、旅行風景、メモ代わりの写真
見ようと思えばいつでも見られる状態にあるってことなんだよね
普通に嫌だよ、気持ち悪い+32
-2
-
164. 匿名 2021/08/06(金) 16:39:06
>>151
そもそもシステムに弾かれた場合しかチェックはないから。自撮りなんて引っ掛からないから大丈夫。+2
-0
-
165. 匿名 2021/08/06(金) 16:39:08
>>161
スマホを使いながらなにを上から
じゃあ使わない方がいいですよ+0
-0
-
166. 匿名 2021/08/06(金) 16:39:20
良いと思うけど仕組み(システム)がこわい。+1
-0
-
167. 匿名 2021/08/06(金) 16:39:40
>>154
ダイエットとか美容の記録とか
イラスト書く人は自分を撮ったりする+5
-1
-
168. 匿名 2021/08/06(金) 16:40:23
>>158
なんでハックするのに正規なプロトコル使って通信するんだよw+0
-1
-
169. 匿名 2021/08/06(金) 16:40:27
>>114
この件がなくても、子どもは泣くし騒ぐしなので元々24時間以内に発見されなかったらアウトだとされてるよ+30
-0
-
170. 匿名 2021/08/06(金) 16:41:35
>>1
日本のジュニアアイドルも規制に引っかかればいいのに!+24
-0
-
171. 匿名 2021/08/06(金) 16:42:50
>>42
これにマイナス結構ついてるのロリコン?怖すぎ+4
-5
-
172. 匿名 2021/08/06(金) 16:43:16
>>9
実は海外の方が隠れロリコン多いみたいだけどね
何処かの国は少児性愛謳った政党もあるとかなんとか
離島丸ごと買い上げて少年少女を売ってたのが摘発されたとか+38
-4
-
173. 匿名 2021/08/06(金) 16:44:07
児童ポルノは絶対反対なんだけどそもそもこういうことは国がやればいいことで一企業であるAppleがここまでやるのはちょっと違和感あるな。+5
-2
-
174. 匿名 2021/08/06(金) 16:44:33
年をとると成長しないのってプライドの高さと謙虚さのなさだよなと思った
頓珍漢なコメント飛びまくってプラス大量についてるのにね+0
-0
-
175. 匿名 2021/08/06(金) 16:45:08
>>164
システムを変えれば違法なもの持ってない人のデータもなんでも見えちゃうわけじゃん。まさか、アナログに回帰する時代が来るとは思わなかった。+1
-0
-
176. 匿名 2021/08/06(金) 16:45:18
>>114
新規でとられた自動ポルノは捕まらないよ
さすがにそれは無理でしょ、子供の写真とったら通報されちゃうしすごい数になるけどそれやる人件費もかかるし+13
-0
-
177. 匿名 2021/08/06(金) 16:45:24
>>12
まだ小さい赤子でも、父と娘や、母と息子だとお風呂一緒に入っちゃ犯罪なんでしょ?+4
-21
-
178. 匿名 2021/08/06(金) 16:46:03
>>1
これ自分の子どもの写真とかどうなるの?生まれたてのとか検知されるんかな?+8
-1
-
179. 匿名 2021/08/06(金) 16:46:12
>>173
違和感ないよー。システムチェックの一行程において実施しているだけだしね。+2
-0
-
180. 匿名 2021/08/06(金) 16:46:43
>>169
そもそも向こうの児童ポルノってグロいらしいね。児童ポルノの撮影で虐待死とか普通にあるらしい。+20
-0
-
181. 匿名 2021/08/06(金) 16:46:56
>>26
ショタコンもアウトだから
統合して小児性愛がアウトって事だね+8
-0
-
182. 匿名 2021/08/06(金) 16:47:06
>>1
中国並みの超監視社会の実現である。
さすが名誉シナ🍎+6
-1
-
183. 匿名 2021/08/06(金) 16:47:14
>>19
元々男性にAndroid多いイメージあるけどどうだろうね。
Androidももしこんなことで売り上げ上がったら複雑だろうなw+24
-2
-
184. 匿名 2021/08/06(金) 16:47:24
アップルを完全に信用しきれるならあり
だけど実際は中身収集と個人の人間性分析の為の口実に感じる+1
-0
-
185. 匿名 2021/08/06(金) 16:47:59
>>7
せやなあ
+2
-12
-
186. 匿名 2021/08/06(金) 16:48:05
これアジア人弾かれそうでこわいんだけど。
20歳越えてても、向こう基準で10代扱い受けそうだし。自分の子供のプールの写真とかもあかんくなりそう。
ロリコンは消えたらいいとは思うけど、ちょっと怖いわな。完全監視社会。チャイナと同じやん。
ロリコン撲滅の為って言うけど、他の事も監視できそうだしな…。+1
-1
-
187. 匿名 2021/08/06(金) 16:48:16
児童ポルノサイトをAIで見つけて見つけしだい即破壊のほうが早くない?+2
-0
-
188. 匿名 2021/08/06(金) 16:48:30
私はiPhoneのメモにお気に入り画像を貼り付けて分別して保存してるんだけど、メモも見られるのかな?
(写真アプリの方はその画像を消してます。)+2
-0
-
189. 匿名 2021/08/06(金) 16:48:32
これを悪用するのが中国+3
-0
-
190. 匿名 2021/08/06(金) 16:48:34
>>168
もういいや。ITパスポートレベルの知識もないじゃん。+3
-0
-
191. 匿名 2021/08/06(金) 16:48:36
>>178
1の記事をちゃんと読むかコメント上から読んでから書き込みなよ+0
-3
-
192. 匿名 2021/08/06(金) 16:50:21
>>48
肌面積は大差無いかもだけど、欧米人感覚で子供判定されちゃうと
日本人の20代辺りの成人女性は、水着自撮りも通報案件になりそう+1
-1
-
193. 匿名 2021/08/06(金) 16:50:37
>>9
必ずこういうコメントする人いるけど海外のが全然ヤバイよ。(日本にロリコンいない、という意味ではない)+37
-11
-
194. 匿名 2021/08/06(金) 16:52:09
>>175
えぇ...そんなの全てのクラウドサービスが見ようと思えば顧客情報全て見れるじゃん。
ただ特定のものにアクセスすれば当然アラートか何かで管理者に知られて騒ぎになるのが今の時代の普通。アップルも当然その体制を敷いてる。個人で好き勝手見れる訳ではない。+1
-0
-
195. 匿名 2021/08/06(金) 16:52:09
>>1
こういう正義の味方な機能はどんどん付けて欲しい!+2
-0
-
196. 匿名 2021/08/06(金) 16:52:39
>>84
今のシステムは後者…
+0
-0
-
197. 匿名 2021/08/06(金) 16:53:09
>>163
おばさんの画像フォルダなんか見ても楽しくないし見ないと思うよ+3
-8
-
198. 匿名 2021/08/06(金) 16:53:13
>>1
児童ポルノ画像かどうか判別するプログラムがiPhoneローカルで動いてて、今現在ロリコン共がネットに上げてる児童ポルノと同一もしくは近似しているデータがあるかどうかチェック→有ればフラグが立ち捜査されるって感じなのかな?
もしそうなら自分の子供の育児画像(裸や水着含む)は対象外だから、児童ポルノ収集もしくは盗撮後ネットに流してるガチロリだけが震える事になるね。
+5
-0
-
199. 匿名 2021/08/06(金) 16:53:14
>>1
こういうのは公表せずにやればいいのに+6
-0
-
200. 匿名 2021/08/06(金) 16:53:32
>>140
そうなんです
これぐらい痩せたいと思ってて保存してますが結果は出せていません+1
-0
-
201. 匿名 2021/08/06(金) 16:54:07
どんどんやって!!+3
-2
-
202. 匿名 2021/08/06(金) 16:55:48
良い仕組みだと思うけど日本で導入するのは難しそうだね+1
-0
-
203. 匿名 2021/08/06(金) 16:57:50
個人情報収集とかその他諸々、意味不明なコメントがそれなりにあってビックリする!
日本人はもう少し国民レベルでIT知識を身につけた方がいい!+6
-0
-
204. 匿名 2021/08/06(金) 16:58:06
アメリカって昔、グロや凶悪な内容のものをよく買ったり借りるとアラートとデータが行くって噂あったよね
それでも捕まるのは氷山の一角なんだろうな
怖い怖い
+1
-0
-
205. 匿名 2021/08/06(金) 16:58:21
大統領や富豪など上級国民は見逃されそう+2
-0
-
206. 匿名 2021/08/06(金) 16:58:38
>>170
ジュニアアイドルって、ほぼ100%母親からの売り込みなんでしょ?
自分の娘の姿をロリコン共に売るのってどうなのよ…+8
-0
-
207. 匿名 2021/08/06(金) 16:59:15
>>1
ジャニーズJr.ファンも終わりだね+1
-0
-
208. 匿名 2021/08/06(金) 16:59:24
>>173
アメリカって企業国家だしね
+0
-0
-
209. 匿名 2021/08/06(金) 16:59:49
>>162
この画像は児童ポルノなので消した方がいいよ+1
-6
-
210. 匿名 2021/08/06(金) 16:59:54
公表する前に黙ってやってほしかった
秘密裏にブラックリストに入れといて+5
-0
-
211. 匿名 2021/08/06(金) 16:59:59
めちゃくちゃマイナスくらうかも知れないけど、私痔の症状をみるときに写真とか動画めちゃ撮るから不安になったんだけど。泣+10
-2
-
212. 匿名 2021/08/06(金) 17:01:38
>>180
西欧で主流なのがスナッフムービーだっけ…
+0
-0
-
213. 匿名 2021/08/06(金) 17:02:08
>>203
当たり前にスマホを使ってるのに今更ってね
そんな大人が多いことも怖いよね+1
-0
-
214. 匿名 2021/08/06(金) 17:03:19
>>9
アニメのロリコンがいっぱいいるから勘違いしやすいが、あの人ら2次元が最高ってなってるだけマシ。リアルな人間には興味持つ前に2次元ロリアニメで止まってくれるからいい。こっちからしたら気持ち悪いけど、リアルな世界にこないでくれたらアニメの空想の世界にずっと引きこもっといてくれってなる。
海外は抑止ゼロだからリアル幼児にすぐいくからな。だからヤバい。ロリコンの性犯罪率日本の比じゃないぐらい深刻なんやろ。+19
-8
-
215. 匿名 2021/08/06(金) 17:03:33
そもそもOSに含みそうね+0
-0
-
216. 匿名 2021/08/06(金) 17:04:10
>>206
親が子どもを女郎に売って現金を手にしてた時代とあんまり変わらないね+7
-0
-
217. 匿名 2021/08/06(金) 17:04:39
>>191
うん、書き込んだあとに見たよ。ごめん。+4
-1
-
218. 匿名 2021/08/06(金) 17:06:53
むしろ今から削除するアホは確実に終わるよね
そもそも児童ポルノを所有してるだけで逮捕案件
アップルは全ての端末の情報を握っているので
ぜひ警察庁、警視庁と情報を共有してください+4
-0
-
219. 匿名 2021/08/06(金) 17:10:18
オタク系の人ってアンドロイド使いが多くない?各社が倣って標準機能にして欲しい!+2
-0
-
220. 匿名 2021/08/06(金) 17:11:18
Appleの善意がそもそも信用できない。
並べてる立派な理由は本当に本当?+4
-3
-
221. 匿名 2021/08/06(金) 17:11:38
>>177
アメリカでは虐待なのかもしれないけど、文化や慣習が違うので、一概に日本には当てはめられないよね
それだと子供ひとりで登校とか留守番とかも犯罪になるし+14
-0
-
222. 匿名 2021/08/06(金) 17:12:28
>>1
日本の警察にも連携させてほしい+1
-0
-
223. 匿名 2021/08/06(金) 17:14:35
>>220
あのね、個人の画像を覗き見たいなら別に今回みたいな施策打ち出さなくても勝手に見ればいいだけでしょ。
このシステムを導入する事によって「私のデータが取られちゃうかもしれない!」と思ってるの?+3
-3
-
224. 匿名 2021/08/06(金) 17:15:31
>>223
本質はそこですよ。
技術論に誘導しているのは論点ずらし。
+2
-2
-
225. 匿名 2021/08/06(金) 17:19:11
>>193
わかるよ。比にならないよね。レベルが違うというか。日本ももちろんやばいけど誘拐や人身売買が海外は当たり前だから…+14
-0
-
226. 匿名 2021/08/06(金) 17:19:27
>>224
横ですけど、陰謀論のヤバさを垣間見ました笑+4
-3
-
227. 匿名 2021/08/06(金) 17:20:45
日本でやっちゃうとすごい数出そう…
二次元の美少女みたいな画像とか持ってるオタクいっぱいいるでしょ…+3
-0
-
228. 匿名 2021/08/06(金) 17:22:34
>>3
これで変な犯罪が減ると良いな+37
-0
-
229. 匿名 2021/08/06(金) 17:24:32
>>1
2歳息子陰部に病変があった時に時系列を追うため撮影してた写真があるけど、そういうのも引っかかるのかな?
お風呂の写真とか水着の写真もある+4
-1
-
230. 匿名 2021/08/06(金) 17:25:23
ロリコンの話題の時必ず出てくる日本よりアメリカの方がやばいからー
性犯罪の時は日本より韓国の方がやばいからー
って他所の国と比べる意味ってあるのかな?
どこにでも犯罪者はいるし日本が少ないから安心!ってなるわけでもないじゃん
少ない多いの話よりこんな卑劣な人間が確実に存在してるって事実の方が重要だろうに+7
-0
-
231. 匿名 2021/08/06(金) 17:26:07
>>7
児童ポルノ保存してるの?+17
-2
-
232. 匿名 2021/08/06(金) 17:26:43
甥っ子姪っ子とプール遊びしてる写真とかあるんだけど、セーフ??+1
-0
-
233. 匿名 2021/08/06(金) 17:28:08
どんどんやれ!!
ただ、我が子のおむつ姿とかパンツ一丁とかどうやって判別してくれるんだろう?+0
-0
-
234. 匿名 2021/08/06(金) 17:29:34
>>1
Amazonの購入履歴で摘発すればいいよ+2
-0
-
235. 匿名 2021/08/06(金) 17:29:45
>>177
アメリカいたとき邦人用の情報誌に大使館からのお知らせで書いてた。小学生がお父さんとお風呂入ったって絵か作文を学校に提出しちゃって捕まったから気をつけてねって。+12
-0
-
236. 匿名 2021/08/06(金) 17:30:40
>>223
Facebookとか大手IT企業が情報収集してるから
アップルも同じように信用できないよ+4
-1
-
237. 匿名 2021/08/06(金) 17:31:11
>>197
本当にね笑
他人の家族写真とか旅行写真とか、見てもなんもおもろない。+0
-2
-
238. 匿名 2021/08/06(金) 17:31:14
皆我が子の写真とか心配してるけど
悪い事じゃないんだからそんな気にしなくてもいいのに
私だって子供のちん○○が炎症起こして医者に見せるために撮ってるけどいやらしい目的じゃないし明らかに違いますって言えるからね
AmazonもGoogleも顔認証で全身写ってればFamily扱いになるし
この機能は複数の子供のとかちょっとグロい画像を多数持ってる人じゃないのかな+2
-0
-
239. 匿名 2021/08/06(金) 17:33:51
>>142
いやだから、怪しい画像を検知したらその人をピックアップして他の画像とも見比べるって事じゃない?
我が子なら他にも画像も残ってるから一目瞭然。+26
-4
-
240. 匿名 2021/08/06(金) 17:34:29
>>229
うちもあるよ〜
息子2人なんだけど小さい時にお尻とか前も丸出しの写真・・・+11
-0
-
241. 匿名 2021/08/06(金) 17:37:10
>>236
いや信用がどうのこうのではなく、今回のシステム変更の話をしているんだけど+1
-3
-
242. 匿名 2021/08/06(金) 17:39:44
>>113
成人女性なら大丈夫だけど、ダイエット目的ならヌードじゃなくてもいいんじゃない?水着とかじゃダメなの?+13
-0
-
243. 匿名 2021/08/06(金) 17:40:44
>>111
一緒なんですが…
お尻のアップだけど大丈夫なんだろうか…+5
-0
-
244. 匿名 2021/08/06(金) 17:45:15
え、、エッチな画像なんて保存してないけど、他人に見られたくないは写真いっぱい保存してる、、もし見られる事になったら最悪。
iPhone解約してAndroidにする人増えそう+2
-0
-
245. 匿名 2021/08/06(金) 17:53:50
>>20
ロリペドに寛容な会社ってイメージが付きそう+4
-0
-
246. 匿名 2021/08/06(金) 17:58:24
>>1
結局捕まるのは一般人だけで、エプスタイン島のハリウッドとか権力者のガチでやばいペドフィリア達は野放しになりそう。
+12
-0
-
247. 匿名 2021/08/06(金) 18:01:53
>>242
それが下着姿なんですが上がシースルーになってて乳首が見えてるんですよ
だけど雰囲気がいいというか構図がお洒落な画像だったのでダイエットにいいかと思いまして…
水着で好きなタイプの身体のやつ探してみますね
+6
-1
-
248. 匿名 2021/08/06(金) 18:02:44
>>10
ロリコンは撲滅でいいと思うけどどういう基準かわからないのも怖いよね
夏休みにプールに行った時の自分の子供の水着姿とか削除されたらショックだし
私は割とよくパスワード画面をスクショしてたりするからそんなのも閲覧可能だろうし
そのチェックをする際に人の手が入るとしたら悪用し放題だろうからそこまで信用できないし+74
-1
-
249. 匿名 2021/08/06(金) 18:07:35
良いと思う
けど、逆に欲求に耐えられなくて手を出す奴増えないかが気になる+1
-0
-
250. 匿名 2021/08/06(金) 18:14:26
PCで集めるロリも駆逐してー+1
-0
-
251. 匿名 2021/08/06(金) 18:27:02
>>20
iPhoneって竹島を独島表記にしたんだよね
絶対に買わない+17
-3
-
252. 匿名 2021/08/06(金) 18:29:57
意外と痔の写真撮ってる人が多くて笑う+1
-0
-
253. 匿名 2021/08/06(金) 18:30:06
素晴らしすぎ。これからiフォンからアンドロイドに変える人はもれなくロリコンで。+3
-1
-
254. 匿名 2021/08/06(金) 18:36:54
>>40
「ドクタースランプ」て
裸で歩き回ってるが当たり前だった
アカネちゃんやミドリさんも裸なってたし
基準どうなんだろう+3
-1
-
255. 匿名 2021/08/06(金) 18:40:05
>>220
なんか困る事でもあるんですか?+1
-2
-
256. 匿名 2021/08/06(金) 18:40:40
>>252
痔も結構複雑だから何痔か分かりにくい時あるのよ。
すぐに病院行けない時とか、症状が治まってしまう時あるから撮る時あるんだよねー。
それで、今回の件については痔の写真は問題ないんでしょうか?🤷♀️ww+1
-0
-
257. 匿名 2021/08/06(金) 18:41:48
ロリコンが捕まるなら情報収集なんていくらでもどうぞだわ+5
-1
-
258. 匿名 2021/08/06(金) 18:42:11
>>12
甥っ子のお風呂の写真、ある…消さなきゃかなぁ。可愛いんだよなぁ。+5
-6
-
259. 匿名 2021/08/06(金) 18:51:34
>>46
横
違うよ
Appleが端末内の画像も観て判断するという事だよ
端末内にこういう画像があるだけで駄目+4
-1
-
260. 匿名 2021/08/06(金) 18:54:47
iphoneて自動的にアルバム作られるから前からそうだったんだろうなあ。犬の写真ばかり撮ってたら四本足のお友達ってアルバムが勝手に出来てた+1
-0
-
261. 匿名 2021/08/06(金) 18:57:13
公園で遊んでて周りの子が入ったり
親戚の同世代の子が入ったり
法執行機関にアラートとか通報されちゃうんだ
こわ+0
-0
-
262. 匿名 2021/08/06(金) 18:57:36
iPhoneの写真フォルダの顔識別してくれるフォルダだと別人が混じってたりするけど精度はどうなんだろう
データベース内の画像と顔が似てたりとかして我が子の写真も審査!ってこともありそうな気がする+2
-0
-
263. 匿名 2021/08/06(金) 18:58:24
素晴らしい機能
その他のクラウドサービスも導入するべきだわ+1
-1
-
264. 匿名 2021/08/06(金) 18:58:34
>>9
海外のペドフェリアの方が多いし、
やってることが残忍すぎてヤバい。
日本のロリコンなんて可愛いもんだよ。+41
-6
-
265. 匿名 2021/08/06(金) 19:10:19
いい事だと思うけど子供が1〜3歳くらいの時丸裸でプール入ってる写真あるんだけど……💦+4
-0
-
266. 匿名 2021/08/06(金) 19:14:44
>>25
多分そうなるよね?
自分の子ならセーフだとしても、子供の友達が一緒に写ってたらアウトじゃん+9
-0
-
267. 匿名 2021/08/06(金) 19:21:10
>>231
どんな理由があろうと検閲はクソ
日本人は危機感無さすぎるわ
何に使われるかわかったものじゃない+10
-9
-
268. 匿名 2021/08/06(金) 19:24:30
>>12
昭和の思い出として、お父さんと一緒にお風呂とか普通にありそう。
芸能人が幼少期の写真としてそんな感じの公開してるけど、それら全部アウトだよね。+2
-2
-
269. 匿名 2021/08/06(金) 19:24:32
そのうちこれが拡張されるから
ロリコン変態野郎ザマァ!
とかいってたら綺麗に秀樹する事になるからね?+0
-0
-
270. 匿名 2021/08/06(金) 19:32:32
>>269
秀樹って何?+0
-0
-
271. 匿名 2021/08/06(金) 19:35:00
>>266
捜査が入ったら友達ってわかるでしょ?でもそれくらいの画像はスルーされそうだし。
それより捜査が入って困る事はないんじゃない?+1
-2
-
272. 匿名 2021/08/06(金) 19:36:43
>>270
昭和のアイドル知らないの?
この前丁度なんかの動画で見たけど
若いのに凄くセクシーで唄が上手過ぎてぶったまげた
+0
-3
-
273. 匿名 2021/08/06(金) 19:45:08
>>95
スノーデンさんが告発したのってまさにそれについてだよね?+1
-1
-
274. 匿名 2021/08/06(金) 19:45:32
>>82
今のインスタの子供垢に
聞かせたいね
ほぼ裸、おしり写ってたり
オムツにウンコしてる動画とか
ありえないよね+19
-0
-
275. 匿名 2021/08/06(金) 19:48:49
ロリコン取り締まるならこんなことより子供に接する職業の人の条件厳しくしたほうがいい+2
-0
-
276. 匿名 2021/08/06(金) 19:50:05
>>272
??西城秀樹のこと??
だとしても何言ってるのか全然分かんないんだが。+2
-0
-
277. 匿名 2021/08/06(金) 19:51:05
>>275
幼児の裸見せてチンピクしたら切断
児童の裸〜切断
どの辺で反応したら不採用
不問にするかを
立法して欲しい
15くらいからセウト?
+0
-2
-
278. 匿名 2021/08/06(金) 19:51:58
>>277
同時にLGBT他への強烈な弾圧も始まるからね。
避けられないよ+0
-0
-
279. 匿名 2021/08/06(金) 19:55:56
>>277
馬鹿じゃないの?性犯罪の前科とか、同意でも子供に手を出した人は二度と教育に関われなくするとかそういうのでいいんだよ+3
-0
-
280. 匿名 2021/08/06(金) 19:56:22
>>276
ブーメランブーメランってことでしょ+0
-0
-
281. 匿名 2021/08/06(金) 20:02:03
>>259
もうそんなアホなコメはいらないよ。+2
-1
-
282. 匿名 2021/08/06(金) 20:07:27
>>235
そうなの?!
知らなかった。
日本だったら小学生くらいまで入ってる家庭もわりとあるよね。+7
-0
-
283. 匿名 2021/08/06(金) 20:09:31
>>274
それ。半分も下着姿写したそうな人いて怖いわ。子供なら良いって考えなくなって欲しい。+9
-0
-
284. 匿名 2021/08/06(金) 20:20:28
>>279
という事はチンピクはセーフ?何か起こる前にもわかる事、あるよね+0
-0
-
285. 匿名 2021/08/06(金) 20:25:33
>>9
日本人の方がエロいって洗脳されてるけど
白人の方がとてつもなく性欲強くて変態だよ+30
-1
-
286. 匿名 2021/08/06(金) 20:25:39
>>8
今もやってんでしょうね。+8
-2
-
287. 匿名 2021/08/06(金) 20:39:54
児童虐待は男児に対しても当てはまるのと、海外では写真も絵も対象だから、腐女子で男児好きな人は気をつけた方がいいよ
日本にいるうちは逮捕されなくても海外ではブラックリストに乗っていて、入国で入念に調べられる可能性がある
禁固刑の可能性が高いよ+2
-0
-
288. 匿名 2021/08/06(金) 20:43:17
>>19
いきなりAndroidに乗り換えた一人いたら、あやしい+19
-0
-
289. 匿名 2021/08/06(金) 20:59:34
>>3
日本で導入したら、アニオタが好きそうなアニメとかバンバン引っ掛かりそうだね。
+29
-0
-
290. 匿名 2021/08/06(金) 21:06:21
>>209
これダメとなると結構多くの漫画だめじゃない?
上下着てるし、リアルな絵でもないし平気でしょ
過剰に反応しすぎ+5
-0
-
291. 匿名 2021/08/06(金) 21:12:53
>>151
わたしダイエットの記録用に全裸の写真けっこう撮ってある…+0
-0
-
292. 匿名 2021/08/06(金) 21:34:24
ふんロリコンザマア+1
-0
-
293. 匿名 2021/08/06(金) 21:36:50
>>264
いや、どっちも酷いでしょ+26
-1
-
294. 匿名 2021/08/06(金) 21:37:15
日本はiPhoneのシェアが世界一なんだよね。+0
-0
-
295. 匿名 2021/08/06(金) 21:43:51
今からAndroidに乗り換えるやつを一斉検挙で!+2
-0
-
296. 匿名 2021/08/06(金) 21:56:06
>>264どちらも気持ち悪いわ
職場の人にも同じこと言えるか?
+9
-0
-
297. 匿名 2021/08/06(金) 22:06:09
>>281
は?
Appleが端末内の保存画像を観て判断するという記事でしょ
iクラウド内の話じゃないよ
アホなのはあなた+1
-1
-
298. 匿名 2021/08/06(金) 22:20:24
>>264
どっちのウン○がマシかって話だろうけど、どっちも所詮はウンコ
+17
-0
-
299. 匿名 2021/08/06(金) 22:31:30
>>290
海外だとアウト+0
-1
-
300. 匿名 2021/08/06(金) 22:33:30
>>296
すんごーく同意です!!
どっちがマシとかない、本当にどっちもアウトでキモい(|||´Д`)
目クソと鼻クソよねー(ヽ´ω`)
+2
-0
-
301. 匿名 2021/08/06(金) 22:45:32
一方、日本ではエプスタイン絡みの方がデジタル庁の事務方トップへ起用されるという+6
-0
-
302. 匿名 2021/08/06(金) 22:46:51
>>297
iCloudへの通信前にって事なの。通信もせず端末内見れる訳ないでしょ笑+4
-1
-
303. 匿名 2021/08/06(金) 22:48:38
子供たちがお風呂で遊んでる写真がある...
完全にヤバい...+1
-3
-
304. 匿名 2021/08/06(金) 22:51:20
>>302
あなたがこのサイトに画像を上げる時どうしてる?
端末内の画像を取得する事に許可を出しているよね
iクラウドは関係ないよ
Appleはその方法で端末内の画像を検閲すると言ってるの
馬鹿は黙っとけ+3
-1
-
305. 匿名 2021/08/06(金) 22:52:30
Appleとかどっちかといえばエプスタイン側の企業なのに思い切ったね+4
-1
-
306. 匿名 2021/08/06(金) 22:53:37
老け専はセーフ案件w+2
-0
-
307. 匿名 2021/08/06(金) 22:54:02
>>306
確かにそれはセーフ笑+1
-0
-
308. 匿名 2021/08/06(金) 22:54:32
>>9
海外のエプスタインのニュース知らないからそんな事言えるんだね。+11
-0
-
309. 匿名 2021/08/06(金) 22:55:54
>>30
そういうトリックあるんだ…
+1
-0
-
310. 匿名 2021/08/06(金) 23:05:15
>>1
ほんとにできるのかね?
司法や政府、警察のお偉いさんにもロリぺドいるけど、その人たちもちゃんと捕まえれる?
それともiOSを使わなくなるのかね+5
-0
-
311. 匿名 2021/08/06(金) 23:09:30
>>251
竹島も尖閣諸島も出てこないんだね
ショックだわ+4
-0
-
312. 匿名 2021/08/06(金) 23:36:38
>>19
子持ちも勘違いアラート出まくりで、面倒だから辞めそう。+4
-1
-
313. 匿名 2021/08/06(金) 23:37:06
>>1
いいね最高
つってもiPhoneから機種変するんだろうなロリコンどもが+1
-0
-
314. 匿名 2021/08/06(金) 23:48:28
>>5
出来るよろうね。じゃなきゃ意味なくない?+7
-0
-
315. 匿名 2021/08/06(金) 23:59:27
>>1
我が子の写真が間違えて検出されることはない?
特に男の子の水着とか+0
-0
-
316. 匿名 2021/08/07(土) 00:06:34
>>15
成人のエロもダメでしょ。+0
-4
-
317. 匿名 2021/08/07(土) 00:10:01
>>30
「一致したら」じゃなくて「比較し」だから、ある程度特徴が似てたら引っかかるんじゃないかな+4
-0
-
318. 匿名 2021/08/07(土) 00:10:27
>>124
バイ◯ンの息子のpc修理で、画像(mアンドmチョコなど)なんかが流出した事件があったねー+1
-0
-
319. 匿名 2021/08/07(土) 00:15:13
>>305
逆に管理する側に回れば、やりたい放題だろうね
気に入らない要人を脅すこともできる
エプ島だって、画像に残して結局脅しに使ったんでしょ+1
-0
-
320. 匿名 2021/08/07(土) 00:20:07
>>1
>>94
Appleは自社の新しいCSAM検出技術であるNeuralHash(ニューラルハッシュ)について、クラウド上ではなくユーザーの端末上で動作し、ユーザーが既知の児童虐待画像をiCloudにアップロードしたことを検出できるとと説明
だってさ
ローカルで動作するけど、Appleへ通知されるのはアップロードするタイミングっぽいね
検出できるのは既知の画像だけ
自分の子供の写真なんかは大丈夫そう+4
-0
-
321. 匿名 2021/08/07(土) 00:24:10
自分の息子の裸の写真結構あるかも。。小さい時のお風呂の写真とか。こういうのもまずいのかな?+2
-0
-
322. 匿名 2021/08/07(土) 00:24:37
>>320
凄く分かりやすい説明のはずなのに、全然理解出来ない自分が泣ける。+1
-0
-
323. 匿名 2021/08/07(土) 00:28:44
>>315
それはない
アメリカでロリショタ画像と認定している画像と自動的に照合するから自分の子供の画像は絶対あり得ないよ
だから普通の人が子供を撮った画像は問題ない
ロリショタがネットでロリショタ画像を拾っているとアウト+0
-0
-
324. 匿名 2021/08/07(土) 00:33:23
>>323
その機能が知れ渡っているなら、ロリショタはiphone使わないから、意味ないじゃん。+0
-0
-
325. 匿名 2021/08/07(土) 00:59:59
>>304
いやアホにも程がある。そのアップロード時に端末の画像全て検閲できると思ってるの?
そのアップロードした画像を検閲して引っ掛かったら莫大な通信負荷をかけてまでフォルダ内画像全て参照って、そんなことしたらiPhoneだけでどれだけネットワークを輻輳させる事になると思ってんだよ笑
+1
-1
-
326. 匿名 2021/08/07(土) 01:01:59
>>172
東南アジアの児童売春の村だっけか、
欧米人男性ばっか言うもんね。+6
-0
-
327. 匿名 2021/08/07(土) 01:04:36
>>24
がるにも出てくる。勝手に変なマンガの広告表示するのやめてほしい。+6
-0
-
328. 匿名 2021/08/07(土) 01:06:23
>>37
橋本環奈とか外人が見たら中学生くらいに見えそう。+2
-0
-
329. 匿名 2021/08/07(土) 01:13:14
>>304
中身ちゃんと読んだら画像をハッシュ化してサーバ経由ではなくローカルで照合するみたいだね。そこは認識違いだった申し訳ない。
ただ「アップルによると、画像がiCloud内に保存される前にCSAMかどうか検知するという。」
とあるようにiCloud保存がトリガーであるのは間違いなさそうだけど。+1
-0
-
330. 匿名 2021/08/07(土) 01:33:57
>>324
AppleがやるならGoogleのAndroidもやるでしょ
Androidはクラウド内の画像や動画はすでにやってるからね
どちらもバイデンの人権政策に沿う動きをしているんだよ
+1
-0
-
331. 匿名 2021/08/07(土) 01:37:28
>>329
アップデートも駄目だね
ロリショタは排除されていくんだよ
今まで放置されてきたことがおかしい
当たり前だわ+0
-0
-
332. 匿名 2021/08/07(土) 01:38:48
>>325
馬鹿は黙っとけ
まず端末内でソフトを使って照合するんだよ
+1
-0
-
333. 匿名 2021/08/07(土) 01:40:29
児童ポルノは徹底的に取り締まって欲しいけど、プライベートな写真も閲覧されてしまうのかな?
それともAIとかで検知するのかな
手違いとかで流出したりはしないよね…
ちょっと怖いかも+0
-0
-
334. 匿名 2021/08/07(土) 01:47:10
>>333
何にしてもOS発売元は何でも観れるよ
それを自覚して使うべき
誰にも見られたくない画像や動画を撮って保存するなら普通のカメラを買って撮って絶対にネットに繋がないパソコンに保存するしか無いよ+3
-0
-
335. 匿名 2021/08/07(土) 02:27:41
>>8
とっくに見てるからこそでしょ
AIが世に出て来た時から常に見られてるよ
無料のゲームアプリなんかでもインストールしたら盗撮盗聴されて個人情報抜かれてるからね
街を歩けば防犯という体の監視カメラがあって、その映像を世界各地から見られるサイトもあるし
そういうことが想定内でネットを使わなければいけない
まあ、私はそういう覚悟の上で買い物したりエロ動画見たりクレジットカード情報もネット上で扱ってる
だって何のリスクも無しにこんな便利なネット社会で安心安全なんてあるわけないもん+13
-2
-
336. 匿名 2021/08/07(土) 02:35:21
>>13
子供三人いるけど裸っぽい写真とか撮った記憶ないし画像もないわ+6
-1
-
337. 匿名 2021/08/07(土) 02:38:54
平塚正幸 国民主権党 bot
@sayu_hiratsuka
Aug 5
「性的虐待や、貧困にあえぐかわいそうな子供達がいるのでは?」という人もいるかもしれない。しかしそれと我々が単純所持で逮捕される事とは全く関係がないのだ。我々に所持を禁止する事で、子供達が救われるのだろうか?全く救われない。<NWOへの法整備>今日7月15日から「児童ポルノ」の所持禁止スタート。 | 平塚正幸のHPブログ(さゆふらっとまうんど)sayuflatmound.com『Santa Fe』は大丈夫なの? 児童ポルノ単純所持禁止を前に「児童ポルノ」の捨て方を改めて警視庁に聞いてみた おたぽる 7月14日(火)21時0分配信 明日、7月15日から始まる「児童ポルノ」の所持禁止。「自己の性的好奇心を満たす目的」と制限はつけられたものの、...
↑要はこいつが言いたいことは、アウトなロリ画像や動画持っててもいいだろ?って事でしょ
今、本人あせってるのかな?w
+1
-0
-
338. 匿名 2021/08/07(土) 02:55:48
>>1
自分の子供の写真を保存してた場合はどうなるんですか?
小さな子供とプールや海に遊びに行った水着の写真とか。+0
-0
-
339. 匿名 2021/08/07(土) 03:02:56
>>10
スノーデンだっけ?+1
-1
-
340. 匿名 2021/08/07(土) 03:06:06
>>69
電子メールやチャットはもちろん、スマホやPCのカメラを勝手に起動させて私生活覗き見も技術的に可能なんだよね…
+1
-0
-
341. 匿名 2021/08/07(土) 03:08:43
>>330
バイデン自身にロリペド疑惑あるのに変なの+2
-0
-
342. 匿名 2021/08/07(土) 03:11:14
これ、アップデート対象外の古い機器を使えばいくらでもすり抜けられそう+0
-1
-
343. 匿名 2021/08/07(土) 03:18:06
子供の心配してる人いるけど局部が映ってる写真撮るの?疑われるような際どい写真を電子データとして残すなんて虐待じゃん…ネット上にあがったら高確率でロリの餌食になるのに+0
-0
-
344. 匿名 2021/08/07(土) 03:27:31
>>10
同じく
怖すぎると思った
iCloudデータだけならまだしも、オフラインのデータまで取れるの?
それって、スマホのデータは実質抜き放題ってことだよね
金融機関とのやりとりは暗号化されてるはずだけど、本当にAppleに漏れてないのか怖い
今まで流出が不安だからiCloudは使わないようにしてたけど、本気になればオフラインでも関係ないんだと思うと怖すぎるよ+23
-0
-
345. 匿名 2021/08/07(土) 05:46:17
ずっとiPhoneユーザでよかったと思えるようなニュース。これからも使い続けます!+1
-1
-
346. 匿名 2021/08/07(土) 06:38:56
日本も、やってやって、早く!!+1
-0
-
347. 匿名 2021/08/07(土) 08:08:29
iPhoneからAndroidに、買えた人見たらロリコン?って思っちゃいそう。
+1
-0
-
348. 匿名 2021/08/07(土) 08:10:57
こういう技術があるってのを公に世に言ったのが怖い。
今回は「悪質なロリコン」の摘発って形だけど、「」の中の文言は好きにできるからねわかってるよね、ってことでしょ+0
-0
-
349. 匿名 2021/08/07(土) 08:30:57
こういうのも監視カメラも、悪い事してない人にとっては安全になるからありがたい!
プライバシーガー人権ガーと言う人は
何かうしろめたいんだろう+2
-0
-
350. 匿名 2021/08/07(土) 08:33:39
児童ポルノじゃ無いにしても自分のこと子供の成長をiPhoneで撮影してる人もいるよね。
昔 私もオムツ替えの時にオムツする前にヨチヨチダッシュで逃げる息子が可愛くて撮った事あるよ。その時はiPhone無かったからデジカメだったけど。
+0
-0
-
351. 匿名 2021/08/07(土) 08:38:04
>>251
>>311
あのな、日本の外交の失敗な訳
ひとの良識だけに頼って善行を施せば誰かが見ててくれる、わかってくれるって暮らしているツケなんだよグローバル気取った企業からしたらチョーセンがしつこく泣き言言っても「こいつ、自己主張激しくてウゼエから認めといてやるか、例え嘘でも自己主張頑張ったね」って感覚
歴史上、いつも世界各国、言ったもん勝ちなんだよ
そうじゃない日本が異質なだけ
自己主張出来る日本人を育てないと躍々は沖縄も北海道も日本じゃ無くなるよ
北海道なんてロシアの傀儡であるちうごくに相当乗っ取られてるじゃん
それでも政府は何も対策しないし、売国に手を貸してる奴らが野党与党問わずに国会議員やってるじゃん
+4
-0
-
352. 匿名 2021/08/07(土) 08:49:32
>>149
通報しよう。ロリコンだと仮定して+1
-1
-
353. 匿名 2021/08/07(土) 08:50:45
iPhoneからAndroidに変えた男はロリコンやと思ってみんなで通報しよう。たとえ冤罪でも変えた時点でロリコンだもん。+2
-4
-
354. 匿名 2021/08/07(土) 08:56:19
Android使ってる=ロリコン。通報するべき。アニメのポルノ持ってる人は関係なく通報対象だから男のスマホ画像見れて監視機能嬉しい。もちろん腐女子も通報対象。ショタある時点で犯罪。つまりアニオタ男と腐女子は犯罪者。通報して逮捕されるべき。
+3
-3
-
355. 匿名 2021/08/07(土) 08:59:12
>>289
アニオタ男は犯罪者なので通報対象出来て嬉しい。早くオタク狩りできるようになってほしいよー+4
-4
-
356. 匿名 2021/08/07(土) 09:00:44
>>288
アニオタ男だからiPhoneからAndroidに変えたらロリコンやと思ってみんなで通報するべき。冤罪でもAndroidに変えたらロリコンやもん。+4
-2
-
357. 匿名 2021/08/07(土) 09:01:43
>>26
アニオタ男だからAndroid使ってるやつおったら通報して逮捕させよう。+2
-2
-
358. 匿名 2021/08/07(土) 09:02:42
アニオタ男が居たら通報お願いします。あいつらはロリコンです。AndroidiPhone関係なく通報お願いします+2
-2
-
359. 匿名 2021/08/07(土) 10:00:08
>>13
日本はそういう写真多いけど、欧米は厳しいからそういう写真もダメかもね
欧米は親子で一緒にお風呂入るのもアウトだよ
娘が4歳になるまでアメリカに住んでて、旦那が娘のお風呂担当だったけど、それをママ友に話したら今すぐにやめて!捕まるよ!って言われた
日本人が現地で写真現像したら親子の入浴写真が出てきて通報されたこともあるらしい
日本はその辺ゆるゆるなんだよね
可愛いからって子供の裸の写真撮ったりするけど欧米は子供でもプライバシーを尊重して守られてるからアウトになる
+3
-0
-
360. 匿名 2021/08/07(土) 10:12:32
>>22
問題ないと判断したら連絡来ないって書いてるじゃん
児童の他の写真見れば子育て中って丸わかりでしょ+1
-0
-
361. 匿名 2021/08/07(土) 10:13:23
>>359
日本って子供を守ろうって言いながら無法地帯だよね
口だけ
絶対に守る気ないと思ってる+2
-0
-
362. 匿名 2021/08/07(土) 10:13:50
>>37
童顔家系の家族写真とかどうなるのw+1
-1
-
363. 匿名 2021/08/07(土) 10:19:35
これぐらい厳しくしないと子供への性犯罪が無くならないんだろうね
つまりなんの対策もやる気がない日本には、うじゃうじゃ性犯罪が行われてるってこと+2
-1
-
364. 匿名 2021/08/07(土) 10:34:39
>>1
>>139
「中国で使われてるハーモニーってOSなら、安心だから、皆ハーモニーにしましょう」
って言いたいの?
いやいや、中国のOSなんかもっとアブナイでしょ。
習近平の悪口を一言スマホで投稿したら、ソッコーで公安が家に現れて、逮捕されてるんだよ。+7
-0
-
365. 匿名 2021/08/07(土) 10:46:26
>>9
エプスタイン島の事調べてから言って
あとハリウッドの子役が男女共に昔から一様に性的暴行に遭ったって言い続けてる闇+1
-0
-
366. 匿名 2021/08/07(土) 10:58:24
>>87
政治家や医者に多いもんね。こういう権力者がロリコン産業を支えてるのかもしれないし+3
-1
-
367. 匿名 2021/08/07(土) 11:30:18
いや、この機能怖くない?
勝手にホルダーの中をスパイウェア的なものが徘徊するってことだよ?+6
-0
-
368. 匿名 2021/08/07(土) 13:28:46
素晴らしい。やはりApple+3
-0
-
369. 匿名 2021/08/07(土) 14:41:17
>>153
あっちやっぱ小児性愛者大勢いるんだね。+1
-0
-
370. 匿名 2021/08/07(土) 14:42:29
>>267
別に検閲されて困る内容なんて普通のひとは待ち合わせていないよ
仕事の情報をスマホに入れるのがそもそも違うし+2
-2
-
371. 匿名 2021/08/07(土) 14:43:41
>>1
ついでに性犯罪者のスマホは一律全部検閲でいい+5
-0
-
372. 匿名 2021/08/07(土) 14:47:39
>>1
それはいいことだけど、
誰のでも見れるってこと?
それは反対!!!+2
-0
-
373. 匿名 2021/08/07(土) 15:25:27
>>75
一般の社員が簡単にアクセスできるような場所にデータが置かれてるわけないじゃん
日本の役所みたいにセキュリティガバガバじゃないよ
+1
-1
-
374. 匿名 2021/08/07(土) 15:42:34
やっぱり誤解してる人多いけど、これは国家によるビッグデータの検閲と独占だよ。幼児ポルノの撲滅なんて言い訳で、情報という情報をいつでも誰からでも合法的に抽出できるようにしようとしてるだけ。情報化社会が高度になればなるほど情報という富を独占したがるんだよ。結局のところ中国もアメリカもやることは同じ。+3
-2
-
375. 匿名 2021/08/07(土) 16:03:21
>>13
うちの子湿疹がよくできるから医者に見せられるようにすぐ写真撮るようにしてるけど(もちろん大事なところは写さないけど裸だったりする)今まで撮ったの削除しなきゃ!って思った+2
-0
-
376. 匿名 2021/08/08(日) 09:50:18
>>316
性産業と性欲への否定。お前は聖人君子なのか?+0
-0
-
377. 匿名 2021/08/08(日) 16:30:10
犯罪防止はいいんだけど、写真フォルダ勝手に見張られているってなんか怖い..+0
-0
-
378. 匿名 2021/08/08(日) 19:30:37
>>139
www中国が一番やべーわw+0
-0
-
379. 匿名 2021/08/08(日) 19:31:34
>>152
男の精神がもう終わってるから
女、子供をレイプするようなアニメや絵師も逮捕しろ+2
-0
-
380. 匿名 2021/08/08(日) 19:33:31
監禁したり、犯罪者が分かるの最高じゃん!!
犯罪者は生きる価値ない。+2
-0
-
381. 匿名 2021/08/22(日) 21:40:01
>>12
旦那に言われて息子の1歳の頃のすっぽんぽん画像をばっちり撮ってるけど普通に可哀想だよね、、、
大人になった時に見せるんだって言ってるけどいやだよね、、、+1
-0
-
382. 匿名 2021/08/23(月) 23:40:32
見ただけで保存してなかったらセーフ?+0
-0
コメントを投稿する
トピック投稿後31日を過ぎると、コメント投稿ができなくなります。削除すべき不適切なコメントとして通報しますか?
いいえ
通報する
アップルは、iPhone内に保存された児童の性的虐待の画像を発見するための仕組みを、米国において導入する。ロイターの8月6日の記事によると、アップルは人々がiCloudにアップロードする前の写真をデータベースと照合し、問題がある画像を検出するという。