「宇田川源流」 【土曜日のエロ】 AIがヌードコラージュを作る時代になった

「宇田川源流」 【土曜日のエロ】 AIがヌードコラージュを作る時代になった


 今週も「土曜日のエロ」の日になった。

本来であれば、「ジャニー喜多川の性加害」についてここで取り扱ってもよいと思ったのだが、その内容に関してはオンラインサロン「陰謀渦巻く世界情勢の中であなたが生き残る方法」(https://lounge.dmm.com/detail/2838/)の方で扱っているので、こちらではやめておこう。それにしてっもジャニー喜多川の性加害というのは、本当に様々な事件にまたがっている。「パワハラ」「セクハラ」「LGBT」から「マスコミの隠ぺい体質」や「日本の性加害に関する意識の国際的感覚の欠如」というような問題。それだけではなく、マスコミの手のひら返しを見ていれば「ねずみ講のトップ営業マン」みたいな「その金で儲けていたはずなのに事件性が出てきたら被害者面をして正義の味方ぶって攻撃をし、ロクに反省もしない」というようなところが気持ち悪いということもある。

そのようにたくさん問題があるにもかかわらず、そのうえで東京新聞などは、またほかの事件を引き起こした。まあ、事件のきっかけを作ったのは「NGリスト」であろうが、実際に「NGリストに名前が出るような、一撃必殺の短い質問の技術のない人々」というような感じになるのであろう。その「記者としての技術が著しく欠如し、なおかつ利己主義的な質問で自己顕示欲ばかりで構成されている」人々を雇って使っている新聞社というのも本当に困ったものではないか。

今週のニュースとしてはそんなニュースが出てきていた。まあ、テレビは「異常性のあるジャニーズ事務所」と「そのジャニーズ事務所に対して異常性のある新聞社がかみついた」というような報道をしているところと、もともと「朝毎」といわれるような、自分たちも事件を起こしてきた人々は「巨悪が悪い」論と「印象操作」報道で終わっていたあたりが興味深い。

いずれにせよ、日本のマスコミで、私がここに挙げたような「問題点」をすべて挙げているような話は全くなく、何か一転のところだけを焦点を当てて、なおかつ「ジャニーズ事務所の看板がなくなった」など、扇情的な報道しかしない内容には、日本の報道がまだまだグローバルスタンダードには程遠いと思う。

このような報道ならば、まだAiにやらせた方がよいのではないか。そのように思ったのであるが、しかし、そのAIも使う人によってさまざまな変わりが出てくることになるのである。今日のエロはそんな話。

13歳少女らの裸の画像 同世代の子供がAIで捏造、SNSで共有 約20件の被害、スペインで捜査

 スペイン南西部で、同世代の子供たちが13歳の少女らの裸の画像を人工知能(AI)を使って捏造し、SNSで共有していたことが明らかになった。これまでにおよそ20件の被害の報告が検察に寄せられており、スペイン当局はこれらが犯罪に当たるか捜査している。

 被害者の母親によると、「娘からその画像を見せられた時、私は母親だから娘の本当の身体かわかるが、そうでなければそれが本物かどうかなんてわかるはずもないと思った」と話す。

 偽のわいせつ画像は「ワッツアップ」で何カ月も出回っていたという。被害にあった少女らの年齢は13歳から15歳。おびえており、不安障害に悩まされている少女もいるという。

 欧州評議会でAI問題を担当するフェルナンド・ミロ氏は「今対処しなければならないのは、これらの画像の作成と配布に加担した人々にどのような責任を取らせるのか、また、さらなる被害やこれらの画像の一層の拡散をどのように防ぐのかだ」と話した。

(ロイター/よろず~ニュース編集部)

2023年9月27日 7時20分 よろず~ニュース

https://news.livedoor.com/article/detail/25060792/

 さて、昔、インターネットが出たての頃、まだ肖像権とか著作権というのがあまりネット上の世界で知られていない時期に「アイドル・コラージュ」というものがあった。ヌード写真などに、アイドルの顔を合成して、いかにもアイドルのヌード写真であるかのような画像を集めたものである。

多分今から考えれば、ヌード写真側もアイドル側も、間違いなく「肖像権に違反している」画像であり、基本的には違法(もちろん本人や事務所の許可があれば別であるが、そのようなコラージュ写真に許可が出るはずがないので)であるというような感じであろうと思われる。もちろんそのころはあまりそのような問題はないし、一方で技術もそれほど素晴らしいものではないので、首のあたりに段差があったり、肌の色が途中でくっきりと変わっていたりとすぐに見分けがつくような内容になっていたものである。

それに対してそのようなコラージュの動画が出て「本物」というような形になって問題になるようになってから、著作権などに厳しくなっていたというような感じではないか。まあ、そのようなことであるから、ネットの中の内容というのは、先にエロなどの犯罪が先に走り、その後に問題になって取り締まりをする。まあ、私のようなエロい人間にしてみれば、「問題になるようなことをしないで、長く楽しみたい」と思うのであるが、基本的には徐々に「所持」や「見ているだけ」でも犯罪を構成するようになってしまうように変わってきた。法律というのはそのようなものである。

さて、AIに関しても同じであろう。

AIが勝手に子供のヌードを想起して作ってくれるという。ヌード画像は別にしても、AIが勝手に美人を作り出して、この世にいない実在しないグラビアアイドルなどが出てくるのであるから、そのうちアダルトビデオなどのエロ動画もAiで実在しない「ヌードモデル」や「AIで作ったAV嬢」が出てくるのであろう。もちろん「どこに興奮するのか」ということであり、また、そのような画像が動いたところで、その声はどうするのかということも問題になってくるのであろう。

しかし、とうぜんにそこに「実在の人物」を使えば「アイドルコラージュ」の時と同じようになる。AIが作ったからといって責任を逃れるわけではなく、AIに作れと命じた人が主犯となった「肖像権違反」ということになるのであろう。そしてそのような取り締まりがおこ案われれば「新しい抜け道を通った犯罪」が出てくるということになる。

さて、基本的にはモラルの問題であり、それを最終的にはどのようにするのかということに他ならない。そのような「社会全体」のことがなくならなければ「エロ」はなくならないのである。今回は少女であったから大変な問題だが芸能人であってもなんでも、様々な問題に発展する。それがAIによって作られているということがなかなか興味深い。

ただし、犯罪を構成するので、絶対にやらないように。

宇田川源流

「毎日同じニュースばかり…」「正しい情報はどうやって探すのか」「情報の分析方法を知りたい」と思ったことはありませんか? 本ブログでは法科卒で元国会新聞社副編集長、作家・ジャーナリストの宇田川敬介が国内外の要人、政治家から著名人まで、ありとあらゆる人脈からの世界情勢、すなわち「確実な情報」から分析し、「情報の正しい読み方」を解説します。 正しい判断をするために、正しい情報を見極めたい方は必読です!

0コメント

  • 1000 / 1000