Unknown-7
[ 1 ]
>>先月中旬、永守さんらはある公立中学校の生徒のフェイクポルノがサーバー上に大量に投稿されていることを発見。
このサーバーには1500人以上が参加しており、参加者は誰でも画像を保存できる状況にあったという。
投稿には生徒の名前がフルネームで公開されており、被害児童は20人以上にものぼる。

「本名や学校、住所などの個人情報とともに生成したヌード画像を公開し、など性犯罪をあおる内容の投稿です。
関係者しかアクセスできない学校行事の写真を素材にしており、同級生による行為の可能性が極めて高いと感じました。

[ 2 ]
かわいそう

[ 3 ]

[ 4 ]
犯罪では?

[ 5 ]
こわすぎ

[ 7 ]
>>芸能人のフェイクポルノ被害は警察も検挙に積極的ですが、一般人で立件されたケースは私の知る限り前例がありません。
また、投稿に『コラージュ画像です』などの記載があると、名誉棄損の成立要件となる事実の摘示に当たらなかったり、
身体部分が生成された画像だと児童ポルノには当たらないと判断されたケースもあります。
現行法では法的根拠が曖昧で、警察も判断が難しく、被害者が泣き寝入りせざるを得ないのが実情です」

[ 8 ]
>>「アイコラは加工に専用のソフトや技術が必要で、大量生産が難しかった。
今はスマホ1つ、写真1枚から誰でも簡単にヌード画像や動画、音声までも生成でき、
『剥ぎコラ』といって背景をそのままに被写体だけをヌードにすることも可能です。
『1枚いくらで裸に加工します』など、フェイクポルノによる性的コンテンツがビジネスとなっている一方で、
あまりに簡単に誰でも作れてしまうので、もはや売買自体が下火となっているプラットフォームもあるほど。
ネットに拡散せず個人で生成して楽しむ範囲では、現行法では全く対処ができません。
嫌がらせで本人に送りつける場合は、ストーカー規制法が適用される可能性もありますが、
常習性の有無や同姓によるいじめの場合など、現行法の解釈だけでは無理があるケースも多いです」

[ 10 ]
卒業アルバム廃止されそうやね

[ 11 ]
なんで発見できたんや

[ 26 ]
>>11
やめたれww

[ 12 ]
同級生のヌード姿の解釈不一致から生じたトラブルでチクられたんや

[ 13 ]
ようやっとる

[ 14 ]
>ネットに拡散せず個人で生成して楽しむ範囲では、現行法では全く対処ができません。

まるで個人で楽しむことが問題かのような口ぶりだけど驕ってない?

[ 16 ]
笑っちゃ悪いけど笑ったわ

[ 17 ]
普通に凶悪犯で草

[ 18 ]
そら個人使用は取り締まれんやろ

[ 19 ]
ここまで画像なし

[ 21 ]
作るのはともかくばら撒くのは謎

[ 22 ]
>>21
戒めだとおもう

戒めのバラマキや

[ 23 ]
将来見分けつかんくらいのクォリティになりそうやな

[ 27 ]
いつの時代でもこの発想はあっただろ
技術が向上したのと外に向かって発信させたのがあかん

[ 29 ]
余裕で捕まるやろ

[ 32 ]
どうやって作るのか頭空っぽのワイに教えてください

[ 34 ]
今の子はおかずに困らんでええなぁ

[ 35 ]
デジタルネイティブとは一体…
パソコン黎明期を経験したジジイどもの方がネットリテラシーしっかりしてるぞ

[ 37 ]
極端な例だと内田りこみたいなのばっかり

[ 38 ]
こいつは大物になる

[ 39 ]
ええなあ中学生の時にAIなんかあったらワイもやってるわ

[ 40 ]
いじめの質も悪くなってんな

[ 42 ]
半分犯罪やろ

[ 45 ]
親に賠償いくのによくやるわ

引用元: ・【悲報】最近の中学生、AIで同級生のヌード画像を作り住所氏名つきでネットにばら撒いていた……