1: 一般国民 ★ 2019/06/28(金) 02:15:47.39 ID:CAP_USER
女性の写真を1クリックで裸にしてしまう「DeepNude」が登場
https://gigazine.net/news/20190627-deepnude-ai-undresses-photo/
2019年06月27日
GigaZiNE

※ソース閲覧注意

【科学(学問)ニュース+】

 AIを用いて有名女優のポルノ映像を作成するという「フェイクポルノ」が2017年末から2018年にかけて大流行しましたが、
 これと同じようにAIやニューラルネットワークを用いることで、
 女性の写真から服だけを削除して裸にしてしまうという凶悪なアプリケーション「DeepNude」が登場しています。

 DeepNudeは服を着た女性の写真から、服部分だけを削除し、胸や外陰部がはだけた裸の写真に変換してしまうというもの。
 女性の写真のみ変換可能で、実際にDeepNudeを使用したというIT系ニュースサイト・Motherboardは、
 「服を着た状態の女性でも成功するものの、肌の露出が多い写真の方がより効果的にヌード写真に変換できた」と記しています。

 フェイクポルノはAIを使ってムービー内の人物の顔を違和感なく別の人物に入れ替えることができる技術「DeepFake」を用いて作成されました。
 しかし、今回作られたDeepNudeは「DeepFakeよりも使いやすく、作成も速い」とのことで、より凶悪なフェイクポルノが生まれる可能性があります。

 DeepNudeはダウンロード版のアプリと、オンライン上で試し使いできるデモ版があります。
 記事作成時点ではダウンロード版アプリは「メンテナンス中なので12時間後にもう一度チェックして」と表示されダウンロードできません。

 リベンジポルノ活動団体であるBadassのカテリン・ボーデンCEOは、
 「これはとても恐ろしいことです。裸の写真を撮ったことがなくても、誰でもリベンジポルノの犠牲者になる可能性があります。
  このような技術は一般向けに公開されるべきではありません」
 と語っています。

 メリーランド大学のロースクールに勤めるダニエレ・シトロン教授は、
  「(DeepFakeやDeepNudeのような技術は)性的プライバシーの侵害です」
 と語っています。
 加えて、
  「本物の陰部が写っているわけではありません。
   しかし、他の人たちは(DeepNudeが作った裸の写真を見て)あなたが裸になったのだと思うでしょう。
   DeepFakeの被害者たちは私に『何千人もの人々が自分の裸を見て、自分の体はもはや自分のものではないかのように感じた』と語りました」
 と述べています

 DeepFakeが公開されたのは2019年6月23日で、無料でダウンロードできるアプリ版には大きなウォーターマークが埋め込まれるようです
 しかし、50ドル(約5400円)の有料版ではこのウォーターマークが消え、代わりに画像の左上に「FAKE(偽)」という文字が追加されるのみとなります
 この「FAKE」マークは画像の左上に表示されるだけなので簡単に切り取り可能であり、Photoshopで削除することも容易とのこと

 Motherboardはテストとして10人以上の男女の有名人を裸に変換しており、結果は写真により異なるものの、
 カメラの方を向いたビキニ姿の女性の写真は特にうまく裸に変換できたとしています
 Motherboardによれば、DeepNudeのアルゴリズムは「衣服の下にある胸の角度から、乳首の位置や影を正確に補完します」とのこと
 なお、Motherboardはうまく裸に変換できた事例として、
 テイラー・スウィフトやタイラ・バンクス、ナタリー・ポートマン、ガル・ガドット、キム・カーダシアンなどの写真を公開しています

 ただし、低解像度の写真や漫画のキャラクターなどではうまくいかなかったようです

 MotherboardはDeepNudeの開発者である「アルベルト」を名乗る男性と連絡を取ることに成功
 アルベルトさんは2年前の2017年にGANsなどの技術を知り勉強を始め、
 カリフォルニア大学バークレー校が2017年に開発したpix2pixをベースにDeepNudeを開発したとのこと。
 DeepNudeのアルゴリズムをトレーニングするために、1万枚以上の女性のヌード写真を用いたとも語っています
 アルベルトさんはDeepNudeの男性版も開発予定としながら、男性の場合はインターネット上でヌード写真を見つけづらいのが難点だとしています

 アルベルトさんは「ネットワークは多角的なものであり、それぞれが異なるタスクを持っています
 ひとつは服を認識し、ひとつは服を消し、ひとつは服をはがした際の乳首などの位置を推測し、ひとつは裸をレンダリングする」と語っており、
 この複合的な処理により変換に時間がかかるようになっているものの、いずれは処理を高速化していく予定とのこと

■■以下略、続きはソースをご覧ください

15: ニュースソース検討中@自治議論スレ 2019/06/28(金) 04:08:22.43 ID:DeXYBhfp
>>1
これがリベンジに使われるって理由で批判されるなら
そもそも改変できる可能性があるソフト全部だめやろ

27: ニュースソース検討中@自治議論スレ 2019/06/28(金) 06:10:35.42 ID:Y1eEZz6X
>>15
リベンジポルノ改めアタックポルノに生まれ変わります

5: ニュースソース検討中@自治議論スレ 2019/06/28(金) 02:45:43.59 ID:LezNUCp5
卒業アルバム!!!!!!

6: ニュースソース検討中@自治議論スレ 2019/06/28(金) 03:06:35.22 ID:tOqfhW98
アイドルA「言い訳ができた!」

9: ニュースソース検討中@自治議論スレ 2019/06/28(金) 03:28:17.36 ID:bO2J7w7p
昔からやってるコラだろ

120: ニュースソース検討中@自治議論スレ 2019/06/28(金) 14:08:12.54 ID:9rNNnxm+
>>9
ワンクリックで可。フォトショップ不要。

12: ニュースソース検討中@自治議論スレ 2019/06/28(金) 03:56:25.66 ID:RNBKeMfO
僕はA.I. cloudの電脳世界から
夢と愛とエナジーの滴 届けるよ

14: ニュースソース検討中@自治議論スレ 2019/06/28(金) 03:57:23.19 ID:K61bElCk
いやぁ、AIってほんっとにいいもんですね

17: ニュースソース検討中@自治議論スレ 2019/06/28(金) 04:23:00.21 ID:+hVBRiLA
画像がないんだけど!

22: ニュースソース検討中@自治議論スレ 2019/06/28(金) 05:54:54.55 ID:uQWsvMnh
でもすぐ飽きる

30: ニュースソース検討中@自治議論スレ 2019/06/28(金) 06:32:11.70 ID:uQWsvMnh
結婚したら子供がこういう顔になる、の設定多めとか

31: ニュースソース検討中@自治議論スレ 2019/06/28(金) 06:33:27.91 ID:uQWsvMnh
フェイクムービーなんか誰でも作れてしまうね
誰にでも化けられる、みたいな

34: ニュースソース検討中@自治議論スレ 2019/06/28(金) 07:24:49.04 ID:495juYsv
写真や映像1つ1つにデジタル署名のようなものを付与する時代がくるのかもね
正真正銘加工してませんというオフィシャルなものがあって
それ以外はフェイクの可能性
という世界観

38: ニュースソース検討中@自治議論スレ 2019/06/28(金) 07:39:31.95 ID:9ZgR1cQJ
なんてすばらしい

39: ニュースソース検討中@自治議論スレ 2019/06/28(金) 07:41:05.84 ID:vQrh35rO
男でできないのかよ!差別!!

42: ニュースソース検討中@自治議論スレ 2019/06/28(金) 07:46:50.78 ID:U0ZaXiWB
インターネットもエロで普及した。AIもかな。

43: ニュースソース検討中@自治議論スレ 2019/06/28(金) 07:49:26.83 ID:rie8VUfQ
Dupe Nude公式でダウンロード版とWEB版があるそうなんだけど
ttps://www.deepnude.com/

鯖が死んでる
GIGAJINによれば27日21時の時点ではWEB版だけは使えたそうだ
各所でフェミニストが騒いでいるから粛清されたかもしれない

44: ニュースソース検討中@自治議論スレ 2019/06/28(金) 07:49:56.22 ID:1u6ckTxT
最後にAIが勝つ

52: ニュースソース検討中@自治議論スレ 2019/06/28(金) 08:22:39.22 ID:mzgwa1vm
リベンジポルノの効力がなくなるだろ
流失してもコラだって言い張ればいい

54: ニュースソース検討中@自治議論スレ 2019/06/28(金) 08:34:52.30 ID:tymddHGJ
Googleグラスが影のスポンサーになってくれたらハッピーエンド

55: ニュースソース検討中@自治議論スレ 2019/06/28(金) 08:39:03.08 ID:5IK36WGY

59: ニュースソース検討中@自治議論スレ 2019/06/28(金) 08:54:17.46 ID:hO9olBra
有名人の顔をくっつけたコラ写真も一時期流行っていたけど
脳が「フェイク」と認定するとチンコ反応しないんだよなあ

結局、写真の背景にある情報を推察して「フェイク」と
判定するから意味ないような…

67: ニュースソース検討中@自治議論スレ 2019/06/28(金) 09:12:36.25 ID:b9VFc9ZG
性とAIで偽装して釣るhaoみたいなツールじゃないの

69: ニュースソース検討中@自治議論スレ 2019/06/28(金) 09:14:36.56 ID:CqO84xcM
AIが或いはソフトがある一定のデータから作ってくれるのか
なんか人間もここまで落ちぶれると可笑しさや悲しさが入り交じる感
人間の劣化を感じざるを得ないアホソフト

72: ニュースソース検討中@自治議論スレ 2019/06/28(金) 09:24:58.25 ID:7v5crNlR
もうちょっと凄いAI作れんのかね
みんなが幸せになる方法を考えるAIとか
未知の科学技術を生み出すAIとか

73: ニュースソース検討中@自治議論スレ 2019/06/28(金) 09:28:02.53 ID:ZVY1Iue5
本人のものじゃなけらば意味がない
コラと一緒

74: ニュースソース検討中@自治議論スレ 2019/06/28(金) 09:32:23.71 ID:ZVY1Iue5
でもエロは技術革新を加速させるから
そういう意味では無駄ではないのかも

76: ニュースソース検討中@自治議論スレ 2019/06/28(金) 09:58:32.50 ID:k3I5dZ3d
エロコラ製造アプリか

82: うひょのふ 2019/06/28(金) 10:26:28.87 ID:hMSrcK2/
十数年前にアイコラブームあったなぁ
広末とか、かわいそうやった

141: ニュースソース検討中@自治議論スレ 2019/06/28(金) 17:33:49.35 ID:RilKT0AW
>>82
皇室のアイコラとかジャニーズのアイコラとか色々あったなあ
あの頃の2ちゃんねるはアングラ感ハンパなかったわ

86: ニュースソース検討中@自治議論スレ 2019/06/28(金) 10:45:30.10 ID:5+/4VIfa
AI顔作るサイト出来たときに体作るの激しく希望してたわりに
いざできるとなると文句多いなw

91: ニュースソース検討中@自治議論スレ 2019/06/28(金) 11:08:52.46 ID:qw5IM4U8
>>86
まあ、本物じゃないからな。最初から分かっていることだが。

90: ニュースソース検討中@自治議論スレ 2019/06/28(金) 11:08:10.02 ID:iRmTUf/f
全自動アイコラ?

95: ニュースソース検討中@自治議論スレ 2019/06/28(金) 11:49:46.84 ID:8Ag988+w
実際には無い虐殺行為とか宣戦布告とかを捏造されて
滅ぼされる国とか出てきそうで怖いな。

378: ニュースソース検討中@自治議論スレ 2019/07/13(土) 08:35:16.27 ID:Ylq8N5gX
>>95
それはむしろ本道のやり方やん

102: ニュースソース検討中@自治議論スレ 2019/06/28(金) 12:18:28.63 ID:se1u7gy4
これ裸の写真につかったらどうなるんだろ
肉体が変わるのだろうか

103: ニュースソース検討中@自治議論スレ 2019/06/28(金) 12:19:16.17 ID:byNhy38l
同じ様な事を考える奴は居るもんだな。
Googleグラスにこのソフトでリアルタイムに処理できたらスケスケ眼鏡の出来上がりやで。

108: ニュースソース検討中@自治議論スレ 2019/06/28(金) 12:33:13.11 ID:YKYp93Bg
写真だけでなく、動画もできれば
リベンジポルノの被害者も救われそう。
画像や動画の信ぴょう性が低くなれば実体験型の産業も潤うし。

111: ニュースソース検討中@自治議論スレ 2019/06/28(金) 12:40:29.92 ID:M3MhcEZe
フェイクポルノは既に日本からはアクセスできないんじゃないっけか

これもそうなる気がするわ

115: ニュースソース検討中@自治議論スレ 2019/06/28(金) 13:05:18.75 ID:/3lsdLZJ
これが普及すれば、写真なんかどうせフェイクだっていうの当たり前になるだけだろ

118: ニュースソース検討中@自治議論スレ 2019/06/28(金) 13:44:45.64 ID:M3MhcEZe
フェイクポルノはスゴイ技術だけど、もろに法にひっかかるからな
これも肖像権はクリアできないわ

119: ニュースソース検討中@自治議論スレ 2019/06/28(金) 14:03:53.02 ID:CojAM9ns
VRでやってくれ

124: ニュースソース検討中@自治議論スレ 2019/06/28(金) 15:11:45.07 ID:zq8Ta5m8
手に入れたら憧れのあの人に使ってみたい。
画像は持ってるから。

126: ニュースソース検討中@自治議論スレ 2019/06/28(金) 15:33:56.88 ID:KjJjE3xQ
googleグラスで街中の女の子を透視しながら散歩できる日も近いなあ

128: ニュースソース検討中@自治議論スレ 2019/06/28(金) 15:46:01.44 ID:lA4VwBFs
>>126
汝が深淵を覗き込むとき、深淵もまた汝を覗き込んでいるのだ



クスクス クスクス
9センチ...

143: ニュースソース検討中@自治議論スレ 2019/06/28(金) 17:42:00.08 ID:nPT9n+xt
おまえたちはもっとできる子だと思っていたのに画像がホリエモン以外貼られていないとは
残念だよっ!!

元スレ: https://egg.5ch.net/test/read.cgi/scienceplus/1561655747/