AIポルノは、ディープフェイク、同意、女性への嫌がらせにフラグを立てる

ヌード写真は彼女が共有するコンテンツの一部ではないと彼女は言います. しかし、インターネット上の誰かが、コンピューターで生成されたポルノで QTCinderella の肖像を使用して、いくつかを作成しました。 今月、著名なストリーマーの Brandon Ewing は、他の何千ものディープフェイクを含む Web サイトでこれらの画像を表示したことを認め、AI 時代の増大する脅威に注目を集めました。このテクノロジーは、女性をターゲットにする新しいツールを作成します。
「大したことではないと言っている人は誰でも、自分がやったことのないことをしている自分の写真が家族に送られるのを見るのがどのように感じられるかはわかりません」とQTCinderellaはライブストリーミングビデオで語った.
通常、ストリーマーは本名を明らかにせず、ハンドル名を使用します。 QTCinderella は別のコメント要請に応じなかった. 彼女はライブストリームで、事件に対処することは「疲れ果てて」おり、彼女の仕事の一部であってはならないと述べた.
最近まで、リアルな AI ポルノを作成するにはコンピューターの専門知識が必要でした。 今では、新しい使いやすい AI ツールのおかげもあって、被害者の顔の画像にアクセスできる人なら誰でも、AI が生成した身体を使ってリアルに見える露骨なコンテンツを作成できます。 虐待の専門家によると、悪意のある人物が AI モデルを使用して、有名人から元ガールフレンド、さらには子供まで、さまざまなターゲットに屈辱を与えるため、嫌がらせや恐喝の事件が増加する可能性が高いとのことです。
女性は自分自身を守る方法がほとんどなく、被害者はほとんど頼りにならない、と彼らは言う。
AI企業DeepTrace Technologiesの分析によると、2019年現在、インターネット上のディープフェイクの96%はポルノであり、事実上すべてのポルノディープフェイクが女性を描いていました. それ以来、ディープフェイクの存在は急増しているが、法執行機関や教育者からの対応は遅れていると、法学教授でオンライン虐待の専門家であるダニエル・シトロン氏は述べています。 ディープフェイク ポルノに対処する法律があるのは、米国の 3 つの州だけです。
「これは蔓延している問題です」と Citron 氏は言います。 「それにもかかわらず、私たちは新しくて異なるものをリリースしました [AI] 社会的慣行とその使用方法を認識せずにツールを使用する」
研究所の OpenAI は、2022 年に主力の画像生成モデルである Dall-E を一般に公開し、誤報、著作権、偏見に関する喜びと懸念を巻き起こしました。 競合他社の Midjourney と Stable Diffusion がすぐ後に続き、後者はコードを誰でもダウンロードして変更できるようにしました。
悪用者はディープフェイクを作成するために強力な機械学習を必要としませんでした。Apple や Google のアプリ ストアで入手できる「フェイス スワップ」アプリにより、ディープフェイクの作成はすでに簡単になりました。 しかし、AI の最新の波により、ディープフェイクはよりアクセスしやすくなり、モデルは斬新な方法で女性に敵対する可能性があります。
これらのモデルは、インターネットから数十億の画像を取り込むことで何をすべきかを学習するため、社会的偏見を反映し、デフォルトで女性の画像を性的対象にする可能性があると、デジタル画像の分析を専門とするカリフォルニア大学バークレー校のハニー・ファリド教授は述べています。 AI によって生成された画像が改善されるにつれて、Twitter ユーザーは、パフォーマーが進んで自分の体を見せたり性行為を行ったりするサービス OnlyFans など、画像が合意に基づいて作成されたアダルト コンテンツに金銭的な脅威をもたらすかどうかを尋ねてきました。
一方、AI 企業はシリコンバレーの「素早く動いて物事を壊す」という精神に従い続けており、問題が発生したときに対処することを選択しています。
「これらのテクノロジーを開発している人々は、同意のないポルノの被害者になったり、オンラインでハラスメントを経験したりした女性の視点から考えていません」とファリドは言いました。 「『ねえ、これを見て』みたいに座っている白人の男がたくさんいます。」
ディープフェイクの被害は、世間の反応によって増幅されます
南カリフォルニア大学のケック人権クリニックで法医学的精神保健のディレクターを務めるクリステン・ザレスキ氏は、同意なしにあなたの露骨な画像を閲覧することは、それらの画像が本物であるか偽物であるかにかかわらず、性的暴力の一形態であると述べています。 被害者は、雇用主や地域社会からの判断と混乱に直面することが多いと彼女は言いました. たとえば、Zaleski は、彼女の同意なしに教師の肖像で作成された AI ポルノについて親が知った後、職を失った小さな町の学校教師と既に仕事をしていると語った。
「学校の保護者は、どうしてそんなことができるのか理解できませんでした」とザレスキは言いました。 「彼らは、子供たちにもう彼女に教えてほしくないと主張しました。」
ディープフェイクの供給の増加は需要によって引き起こされている: ユーイングの謝罪に続いて、ディープフェイクをホストする Web サイトへのトラフィックの洪水により、サイトが繰り返しクラッシュしたと、独立研究者 Genevieve Oh は述べた. AI 画像処理ツールが急増したため、サイト上の新しい動画の数は 2021 年から 2022 年にかけてほぼ 2 倍になったと彼女は言います。 ディープフェイクの作成者もアプリ開発者も同様に、購読料を請求したり、寄付を募ったりして、コンテンツからお金を稼いでいることがわかりました.Redditは、新しいディープフェイクツールとリポジトリを見つけることに特化したスレッドを繰り返しホストしています.
Reddit の広報担当者は、これらのスレッドを常にすぐに削除しない理由を尋ねられたところ、プラットフォームは検出システムの改善に取り組んでいると述べました。 「Redditは、このコンテンツを禁止するサイト全体のポリシーを確立した最も初期のサイトの1つであり、プラットフォームの安全性を確保するためにポリシーを進化させ続けています.
機械学習モデルは、児童虐待やレイプを描写した画像を吐き出すこともでき、作成中に誰も害を及ぼさないため、そのようなコンテンツは法律に違反しないとシトロン氏は述べています. しかし、これらの画像が利用可能になったことで、実際の被害者が増える可能性があると、ザレスキ氏は述べています。
Dall-E を含む一部の生成画像モデルには、明示的な画像の作成を困難にする境界があります。 OpenAI は、Dall-E のトレーニング データのヌード画像を最小化し、ユーザーが特定のリクエストを入力するのをブロックし、ユーザーに表示する前に出力をスキャンします。
別のモデルである Midjourney は、ブロックされた単語と人間の節度を組み合わせて使用していると、創設者の David Holz 氏は述べています。 同社は今後数週間で、単語の文脈をより適切に説明する、より高度なフィルタリングを展開する予定である、と彼は述べた。
モデル Stable Diffusion のメーカーである Stability AI は、最新リリースのトレーニング データにポルノを含めることをやめ、偏見と性的コンテンツを大幅に減らしたと、創設者兼 CEO の Emad Mostaque 氏は述べています。
しかしユーザーは、公開されている Stable Diffusion のコードの修正版をダウンロードするか、同様の機能を提供するサイトを見つけることで、すぐに回避策を見つけました。
モデルの出力を制御するのに 100% 効果的なガードレールは存在しない、とバークレー校の Farid 氏は述べています。 AIモデルは、ヌードやその他の露骨な画像が除外されているかどうかに関係なく、トレーニングデータのソースであるインターネットに蔓延する偏見のために、性的なポーズや表現を持つ女性を描いています.
たとえば、11 月にアプリ チャートのトップに躍り出たアプリ Lensa は、AI によって生成されたセルフ ポートレートを作成します。 多くの女性は、アプリが自分の画像を性的に表現し、胸を大きくしたり、上半身裸で描いたりしたと述べています。
12月にLensaを試したロサンゼルス出身の29歳のLauren Gutierrezは、LinkedInのプロフィール写真など、公開されている自分の写真をLensaに入力したと語った. 次に、Lensa は複数の裸の画像をレンダリングしました。
グティエレスは、最初は驚いたと言いました。 それから彼女は緊張した。
「それはほとんど不気味に感じました」と彼女は言いました. 「男性がオンラインで見つけたばかりの女性の写真を撮って、このアプリに入れると、彼女が裸に見える様子を想像できるようになります。」
ほとんどの人にとって、AI の悪用のリスクを回避するためにインターネットから自分の存在を削除することは現実的ではありません。 代わりに、専門家は、同意のない性的コンテンツを消費することを避け、それが被害者の精神的健康、キャリア、関係にどのように影響するかをよく理解するように勧めています.
彼らはまた、「デジタル同意」について子供たちに話すことを勧めています。 人々は自分の体の画像を誰が見るかをコントロールする権利を持っています – 本物かそうでないか。