AI偽画像で120万円荒稼ぎ?逮捕された男の驚くべき手口

誰でも被害者になりうる時代が到来:AI偽画像の衝撃的実態

2025年10月16日、日本の犯罪史に新たな1ページが刻まれました。警視庁保安課が、生成AIを悪用して女性芸能人の性的な偽画像を作成・販売していた秋田市の会社員、横井宏哉容疑者(31歳)を逮捕したのです。この事件は、生成AI技術の負の側面が一般市民にも及ぶ可能性を示す、極めて深刻な問題として注目を集めています。

横井容疑者は、2024年10月から2025年9月までの約1年間で、俳優やタレント、アイドルなど262人もの女性芸能人の偽わいせつ画像を約2万枚も作成し、約120万円の売上を得ていたとされています。特に注目すべきは、容疑者が専門的なAIの知識を持たない「普通の会社員」だったという点です。インターネット上の記事や動画を参考にしただけで、誰でも簡単に精巧な偽画像を作成できる時代が到来したことを、この事件は如実に示しています。

「小遣い稼ぎとして始めた。売上は生活費や奨学金の返済に使った」。容疑者のこの供述は、経済的動機さえあれば誰でも加害者になりうる現実を浮き彫りにしました。

専門知識不要で誰でも加害者に:横井容疑者の犯行手口

横井容疑者の手口は、技術的ハードルの低さと収益化の巧妙さが特徴的です。容疑者は特別な専門知識を持たず、インターネット上で公開されている記事や動画を参考にして、海外製の生成AIソフトウェアを使用していました。

具体的な手順は以下の通りです。まず、ターゲットとなる芸能人の写真をインターネットから収集します。次に、海外の生成AIソフトウェアに写真を入力し、わいせつな画像を生成させます。生成された画像の中から精度の高いものを選別し、有料サイトにサンプルとして掲示します。興味を持ったユーザーが月額料金を支払うと、容疑者のSNSアカウントへのアクセス権が付与され、そこで大量の偽画像を閲覧できる仕組みでした。

さらに悪質なのは、高額プランの会員向けに「リクエスト制作」というサービスを提供していた点です。ユーザーが指定した芸能人の、指定したポーズやシチュエーションの偽画像を個別に作成するというもので、まるで「オーダーメイドの性的コンテンツ製作所」と化していました。

この仕組みにより、容疑者は2024年10月から2025年9月までの約12ヶ月間で約120万円を売り上げたとされ、月平均で約10万円の副収入を得ていたことになります。一般的な会社員の副業として見れば決して少なくない額であり、経済的インセンティブの高さが犯罪を助長した可能性が指摘されています。

被害の深刻さ:262人の女性が被害に、子どもにも拡大

この事件で特に深刻なのは、被害者の数と範囲の広さです。警視庁の捜査により、横井容疑者が作成した偽画像に登場する女性は、判明しているだけで262人に上ることが明らかになりました。被害者には、著名な女優、テレビタレント、アイドル歌手など、様々なジャンルの芸能人が含まれています。

さらに憂慮すべきことに、警視庁は「被害が子どもにも拡大している可能性がある」と発表しました。未成年者のアイドルや子役タレントの画像も悪用されていた疑いがあり、児童ポルノに関する法的措置も検討されています。

被害者たちは、自分の顔が無断で使用され、性的なコンテンツとして世界中に拡散される精神的苦痛を受けています。一度インターネット上に公開された画像は完全に削除することが極めて困難であり、被害者は長期間にわたって苦しめられることになります。

芸能事務所の関係者は「本人が知らないうちに被害に遭っているケースも多く、発見されたときには既に大量に拡散されている」と語り、深刻な被害実態を明かしました。また、一部の被害者は「自分の偽画像がインターネット上に存在すること自体が耐え難い」と精神的ダメージを訴えています。

日本の法律は対応できているのか:立法の遅れと現行法の限界

この事件で浮き彫りになったのは、日本の法整備の遅れです。実は、日本にはディープフェイクポルノそのものを直接処罰する明確な法律が存在しません。今回の横井容疑者の逮捕も、「わいせつ電磁的記録媒体陳列罪」という既存の法律を適用したものであり、AI生成画像に特化した法律ではありません。

現在の日本法では、AI生成画像が法的に「その人物を描写したもの」と認定するには客観的証拠が必要とされ、「実在の人物に酷似しているが、実際には存在しない画像」の扱いがグレーゾーンとなっています。このため、加害者が「これは実在の人物ではなく、AIが生成した架空の人物です」と主張した場合、立件が困難になる可能性があるのです。

対照的に、海外では既に規制が進んでいます。アメリカでは複数の州でディープフェイクポルノを禁止する法律が制定され、韓国では2020年に「性暴力処罰法」を改正してディープフェイクポルノを明確に違法としました。イギリスでも2023年にオンライン安全法を成立させ、非同意のディープフェイク画像の作成・共有を犯罪としています。

日本政府も対応を進めており、2025年5月には「AI促進法」が成立しましたが、この法律には罰則規定が含まれておらず、技術開発を妨げないことを優先した内容となっています。また、2025年4月には鳥取県知事が三原じゅん子地方創生担当大臣に対してディープフェイク規制を要請するなど、地方自治体レベルでも問題意識が高まっています。

法律専門家は「現行法での対応には限界があり、ディープフェイク技術に特化した新たな立法が急務だ」と指摘しています。

なぜ今この事件が起きたのか:生成AI技術の民主化と犯罪の低コスト化

この事件が2025年に発生した背景には、生成AI技術の急速な「民主化」があります。2023年頃から爆発的に普及した画像生成AIは、当初は技術者向けの高度なツールでしたが、わずか2年で誰でも使える簡単なサービスへと進化しました。

特に問題となっているのは、海外で公開されている「顔交換」や「ポーズ変換」に特化した生成AIツールです。これらのツールの多くは無料または低価格で利用でき、複雑な設定なしに高精度の合成画像を生成できます。横井容疑者も、こうした民間のツールを使用していたとされています。

また、SNSやダークウェブ上では、ディープフェイク画像の作成方法を詳細に解説したチュートリアル動画やマニュアルが氾濫しており、誰でもアクセスできる状態です。「AI ディープフェイク 作り方」といった検索ワードで、具体的な手順を説明するコンテンツが簡単に見つかってしまうのが現状です。

経済的なハードルの低さも犯罪を助長しています。従来、このような画像を作成するには高度な画像編集技術と高価なソフトウェアが必要でしたが、現在では無料のAIツールと一般的なパソコンがあれば十分です。初期投資がほとんど不要であるため、「気軽に始められる副業」として認識されてしまう危険性があります。

さらに、匿名性の高い決済システムや、国境を越えたサーバー利用により、加害者の特定と逮捕が困難になっている現実もあります。今回の横井容疑者の逮捕は、国内での活動だったために可能でしたが、海外サーバーを経由して活動していた場合、摘発はさらに困難だったと考えられます。

あなたも被害者になるかもしれない:一般人への拡大リスク

「芸能人だけの問題」と思っていませんか?実は、この技術は既に一般人にも向けられ始めています。SNSに投稿した写真、卒業アルバムの写真、会社のウェブサイトに掲載されている顔写真——これらすべてが、ディープフェイク画像の「素材」として悪用される可能性があるのです。

実際、警視庁は「卒業アルバムの写真が悪用されるケースも確認されている」と警告を発しています。学校のクラスメイトや元交際相手による「リベンジポルノ」目的でのディープフェイク作成も報告されており、被害は確実に一般人に広がっています。

特に懸念されているのが、若年層への被害拡大です。SNSに日常的に顔写真を投稿している10代~20代の若者は、特に標的になりやすいとされています。また、職場での嫌がらせや、ストーカー行為の一環としてディープフェイク画像が使用されるケースも増加傾向にあります。

デジタルリテラシー教育の専門家は「自分の顔写真がインターネット上に存在する限り、誰もがディープフェイクの被害者になる可能性がある」と警鐘を鳴らしています。

どうすれば自分を守れるのか:今すぐできる5つの対策

この脅威から身を守るために、私たちができることは何でしょうか。専門家が推奨する具体的な対策を紹介します。

**対策1:SNSでの顔写真公開を最小限に**
可能な限り、SNSのプロフィール写真や投稿に高解像度の顔写真を使用しないことです。どうしても使用する場合は、公開範囲を「友達のみ」などに限定しましょう。

**対策2:画像検索で自分の写真が拡散されていないか定期チェック**
GoogleやBingの画像検索機能を使って、自分の顔写真が無断で使用されていないか定期的に確認することが重要です。

**対策3:被害を発見したら即座に法的措置を**
もし自分のディープフェイク画像を発見したら、直ちに弁護士や警察に相談してください。早期対応が被害拡大を防ぎます。

**対策4:子どもの写真は特に慎重に**
お子さんの顔写真をSNSに投稿する際は、特に慎重になる必要があります。将来的な被害を防ぐため、顔が明確に写らないアングルや、スタンプで顔を隠すなどの配慮が推奨されます。

**対策5:デジタルフットプリントの管理**
過去にインターネット上にアップロードした写真で、現在不要なものは削除することも有効です。特に、学生時代の写真など、コントロールが効かなくなっているものがないか確認しましょう。

被害に遭ったらどうする:具体的な相談窓口と対処法

万が一、ディープフェイクの被害に遭ってしまった場合、どこに相談すればよいのでしょうか。

**警察への相談**
最寄りの警察署の生活安全課、またはサイバー犯罪相談窓口(#9110)に連絡してください。画像のスクリーンショットや、発見したURLなどの証拠を保存しておくことが重要です。

**法律相談**
弁護士に相談し、名誉毀損や肖像権侵害、著作権侵害などの民事訴訟を検討することも可能です。日本弁護士連合会の法律相談センターや、各地の弁護士会が窓口を設けています。

**削除要請**
画像が掲載されているウェブサイトやSNSプラットフォームに対して、削除要請を行うことができます。多くのプラットフォームは、非同意の性的画像の削除ポリシーを持っています。

**心理的サポート**
被害による精神的ダメージは深刻です。必要に応じて、カウンセリングや心理療法を受けることも検討してください。性犯罪・性暴力被害者のためのワンストップ支援センター(#8891)も利用できます。

今後の展望:技術と法律のいたちごっこ

AI技術の進化は止まりません。生成AIの精度は日々向上しており、専門家でも本物と偽物の区別が困難になりつつあります。一方で、ディープフェイクを検出する技術も発展しています。

政府は2025年中に、ディープフェイクに特化した法規制の枠組みを検討する専門委員会を設置する予定です。また、SNSプラットフォーム各社も、AI生成画像への「合成」ラベル表示を義務化するなど、自主規制を強化しています。

教育面では、デジタルリテラシー教育の一環として、小中学校でのディープフェイクに関する授業が検討されています。技術的知識だけでなく、被害者にならない、加害者にならないための倫理教育も重要視されています。

国際協力も不可欠です。ディープフェイク犯罪は国境を越えて行われるため、各国が協力して犯罪者を追跡し、処罰する枠組みの構築が求められています。

私たちにできること:社会全体で取り組むべき課題

ディープフェイク問題は、技術的・法的対応だけでは解決できません。社会全体で意識を変えていく必要があります。

まず、「見る側」の責任を認識することが重要です。ディープフェイク画像を閲覧し、拡散することは、被害を助長する行為です。「本物かどうか分からない性的画像」を見つけたら、それを共有するのではなく、通報することが求められます。

また、技術開発者やAI企業にも倫理的責任があります。悪用されにくい設計、悪用の早期発見システム、被害者支援の仕組みなど、技術的対策を積極的に導入することが期待されています。

メディアの役割も重要です。センセーショナルな報道に終始するのではなく、問題の本質と対策方法を冷静に伝えることで、社会全体のリテラシー向上に貢献できます。

そして、私たち一人ひとりが、この問題を「他人事」ではなく「自分事」として捉え、家族や友人と話し合い、対策を共有していくことが、被害を減らす第一歩となるでしょう。

今回の横井容疑者の逮捕は、日本におけるAI犯罪取締りの重要な第一歩です。しかし、これはあくまで始まりに過ぎません。技術の進化と共に犯罪手口も高度化していく中で、私たち社会全体がどう向き合っていくのか——その姿勢が問われています。

投稿者 hana

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です