(出典 cdn-ak.f.st-hatena.com)


1 峠 ★ :2019/11/19(火) 21:16:53 ID:CAP_USER.net

 はてな匿名ダイアリーに投稿された、「Googleドライブのエロ画像が消された」というエントリがネットユーザーの間で 
話題になっています。ネット上ではGoogleの対応を巡り、「え、(ファイル内容を)見られてるの」 
「非公開でも消されるの流石にちょっと」などさまざまな声があがりましたが、Googleに問い合わせたところ 
「自動システムによるスキャンで乱用を示すシグナルを検出しており、人による確認はしていません」とのことでした。 

Googleドライブ

(出典 image.itmedia.co.jp)

Googleドライブのエロ画像が消された

(出典 image.itmedia.co.jp)

 発端となったエントリは11月13日に投稿されたもの。タイトルの通り、Google ドライブに「エロ画像(二次元)」を
保存しておいたところ、いきなりGoogleから「消した」というメールが届いたといいます。投稿者によれば、
画像は一般公開も共有もしていなかったといい、あくまでプライベートなファイル置き場として利用していた様子。
投稿者は「ヤバいよもうGoogleドライブ使い続けるの無理だわ。それだけじゃないよ、可能な限り利用サービス
分散してかないとリスクが大きすぎる」と感想をつづっています。

 実はこうした「消された」報告は以前からしばしばあがっていましたが、知らなかったという人からは
「えっこわい」「勉強になった」といった声も。また、非公開のファイルでも削除対象になることに衝撃を受けた人も多かったようで、
「検閲かよ」「非公開を検閲されるって、仕事や個人機密のデータも置いてたら全部見られちゃってるってこと?」など、
自分のファイルがGoogleに見られているのでは、と不安がる声もみられました。

 一連の流れを受け、編集部ではGoogleに「削除の基準」と「どのように判断しているのか(ファイル内容を確認しているか)」を
問い合わせました。

■Googleの回答は

 Googleによると、削除基準については、ヘルプページ内の「不正行為に関するプログラム」を確認してほしいとのこと。
今回のケースが恐らく該当するとみられる「児童の搾取」の項目には、次のように書かれています。

 > 児童の搾取や虐待にあたるコンテンツは、アップロードしたり、共有したりしないでください。
これには、児童の性的虐待のすべての画像(漫画も含む)や、児童を性的に表現したすべてのコンテンツが含まれます。
つまり、Google のサービスを使用して児童の性的虐待画像を作成、所有、配布することや、Google のサービスを使用して
児童の画像ギャラリーを作成して性的に露骨なコメントを追加することなどは禁止されています。

  (不正行為に関するプログラム ポリシーと適用より)

 ポイントとなるのは、「アップロード」や「所有」といった行為自体も禁止されていること。つまり、非公開であっても
アップロードした時点で削除・BANの対象になりうるという点です。また「(漫画も含む)」と付記されていることから、
イラストであっても削除対象になることが分かります。加えて規約には、削除やBANだけでなく「法執行機関に報告するなどの
適切な措置を講じます」との記載もみられました。

 また、多くの人が不安がっていた「どのように判断しているのか(ファイル内容を確認しているか)」については、
「自動システムによるスキャンで乱用を示すシグナルを検出しており、人による確認はしていません」とのこと。
まとめると、「児童の搾取」に該当するコンテンツであれば、たとえ非公開設定であっても(イラストであっても)
削除やBANの対象になるが、ファイルの中身を誰かが見ているということはなく、システムによる検出で判断している、
ということになります。

>>2以降に続く


2 峠 ★ :2019/11/19(火) 21:17:03 ID:CAP_USER.net

>>1からの続き

 ただ、Google ドライブのこうした規約は珍しいものではなく、例えばAppleの「iCloud」も、利用規約内で
「猥褻、低俗」なコンテンツの「アップロード」を禁止しています。オンラインストレージを「自由に使えるプライベートな
ファイル置き場」と考えている人は、一度利用規約を見直してみた方がいいかもしれません。

 > B. お客様の行為
 > お客様は、以下の行為のために本サービスを利用しないことに同意します。
 > a. 不法、迷惑、脅迫的、有害、不法行為に当たる、中傷的、誹謗的、虐待的、暴力的、猥褻、低俗、
他人のプライバシーを侵害する、悪意的、人種もしくは民族差別的、またはその他好ましくないコンテンツを
アップロード、ダウンロード、掲示、メール送信、伝達、保存、その他利用可能な状態にすること。

  (iCloud利用規約より)

 とはいえもちろん、どこまでが「児童ポルノ」と判断されるのか、また「自動システムによるスキャン」が
どこまで正確かといった疑問は残ります。Google ドライブの場合、コンテンツの削除が不当であった時は、
サイト上から異議申し立てを行うこともできるとしています。

 なお、追記によると、元エントリの投稿者はその後別のオンラインストレージ(MEGA)に乗り換えたそうです。

ソース ねとらぼ 11/19 20:23
https://nlab.itmedia.co.jp/nl/articles/1911/19/news140.html


4 Ψ :2019/11/19(火) 21:20:12 ID:BZVy9zWL.net

逆に、エロじゃないのに消されてしまう画像を研究して遊ぼうや


5 Ψ :2019/11/19(火) 21:23:20 ID:5S+kDFBj.net

前はアカウントごと使えなくなるって話を聞いたから
それよりはマシだろか?

Androidで必須なのにアカウントごと消えたら困るわな


6 Ψ :2019/11/19(火) 21:29:09 ID:sFPAKBJF.net

youtubeのお気に入り消えてもたけど死にたい


7 Ψ :2019/11/19(火) 21:49:24 ID:mkQyXEeT.net

いやどんなエロ画像だろうが、そんなところに入れるなよ


8 Ψ :2019/11/19(火) 21:54:19 ID:DqPe3gBG.net

きっと自動システムによる簡易スキャン後に人が見てるだろ。
消したファイルすぐ復活してくれたり、中の人は見放題でがばがばだね。


10 Ψ :2019/11/19(火) 21:57:20 ID:vYbkKZIm.net

自前で保存しろよ
クラウドにエロ画像wwwwwwwwwwwwwwwwwww