近年、生成AIの急速な発展はさまざまな分野での活用が期待される一方、悪用されるリスクも指摘されています。そんな中、生成AIを利用して携帯電話会社のシステムに不正アクセスし、多数の通信回線を契約したとして、警視庁は中高生3人を逮捕しました。彼らは不正に契約した回線を転売し、暗号資産を獲得していたとされています。未成年による高度なサイバー犯罪がどのようにして行われたのか、事件の詳細や社会的影響について掘り下げます。
逮捕されたのは全国の中高生3人
警視庁によると、逮捕されたのは以下の3人です。
- 岐阜県大垣市の高校1年生(16歳)
- 滋賀県米原市の中学3年生(15歳)
- 東京都立川市の中学3年生(14歳)
彼らは昨年5月から8月にかけて、大手携帯電話会社である楽天モバイルのシステムに不正ログインし、合計で100件以上の通信回線を契約していた疑いが持たれています。この行為が、不正アクセス禁止法違反および電子計算機使用詐欺の疑いに該当するとして、今回の逮捕に至りました。
犯罪の手口――生成AIを活用した高度なプログラム
今回の事件で注目すべきは、中高生たちが生成AI「ChatGPT」を利用し、犯罪行為を効率化するプログラムを開発していた点です。
① 30億件以上のID・パスワードを入手
3人は、不正ログインを行うために、30億件以上のIDやパスワードを「テレグラム」経由で購入。テレグラムは匿名性が高いため、違法取引が頻繁に行われる場としても知られています。
② AIを使って不正ログインのプログラムを改良
取得した膨大な情報をもとに、彼らはAIを活用して高速でログイン可能なプログラムを開発しました。ChatGPTを使いながら、処理速度を向上させる方法やセキュリティの回避方法を学び、プログラムを改良。これにより、短期間で多数の回線契約が可能になりました。
③ 契約した回線を転売し750万円相当の暗号資産を獲得
不正に契約した回線は、インターネット上で転売されました。転売によって得た資金は約750万円相当の暗号資産に変換され、3人はこれをオンラインカジノなどに使用していたとされています。
オンラインゲームで知り合い、犯罪グループを形成
驚くべきことに、3人はリアルな知り合いではなく、オンラインゲームを通じて出会った仲間でした。
ゲーム内のコミュニケーションをきっかけに親しくなり、互いにスキルを持ち寄る形で犯罪行為を進めていったとのことです。1人がプログラムの開発を担当し、別の1人がSNSなどを通じて情報を収集、もう1人が転売の役割を果たしていたという分業体制が敷かれていました。
警視庁の調べに対し、3人は以下のような供述をしています。
- 「高度な犯罪手法を考案することで、SNSで注目を集めたかった」
- 「稼いだお金はオンラインカジノで使った」
彼らは犯罪行為そのものを楽しんでいた側面もあるようです。
生成AIの悪用リスクが世界的に高まる
近年、生成AIの進化は目覚ましく、プログラミングの知識がなくても簡単に高度なコードを生成できるようになりました。そのため、サイバー犯罪の敷居が大幅に下がりつつあるのが現状です。
国内での生成AIを使った犯罪事例
今回の事件以前にも、国内で生成AIを悪用したサイバー犯罪が報告されています。
- 2024年:20代の男性が、生成AIを利用してランサムウェア(身代金要求型ウイルス)を作成し、逮捕された事件が発生。
- 容疑者はプログラミングの知識を持たず、ChatGPTを使ってコードを生成。
- その結果、わずか数時間で危険なウイルスを作り出すことができた。
この事件と同様に、今回の中高生たちも独学でプログラムを学び、生成AIを駆使して犯罪行為を行っていた点が共通しています。
AI技術の発展と倫理的課題
今回の事件を通じて浮かび上がるのは、AI技術の倫理的な利用に関する課題です。
① AIを使えば誰でもサイバー犯罪が可能になる
従来、サイバー犯罪を行うには高度なプログラミングスキルが必要でした。しかし、生成AIの登場により、その壁が崩壊しています。
特にChatGPTのようなAIは、サイバー攻撃の技術を学ぶための手助けをする可能性があるため、犯罪リスクが高まっています。
② 子どもたちが犯罪に手を染めるリスク
今回の事件で逮捕されたのは14歳~16歳の未成年です。若年層でも高度なサイバー犯罪が可能になったことで、今後も同様の事件が発生する可能性があります。
警視庁「犯罪を必ず検挙することで、AI悪用を防ぐ」
警視庁は、今回の事件を受けて以下のようにコメントしています。
「生成AIを悪用した犯罪は、今後さらに増加する可能性がある。技術の進歩に応じた捜査体制を強化し、犯罪者を必ず検挙することでAIの悪用を防いでいきたい」
また、AI技術の開発者に対しても、
「AIの悪用を防ぐための対策を強化し、責任ある開発を行うべきだ」
と述べています。
今後の展望――AI時代の犯罪対策
今回の事件は、生成AIの進化がもたらすリスクを浮き彫りにしました。今後、AI技術がさらに発展する中で、以下のような対策が求められます。
- 生成AIの使用制限や規制の強化
- 教育現場でのAIリテラシー向上
- 企業側のセキュリティ対策の強化
- 警察のサイバー犯罪捜査能力の向上
特に未成年の犯罪リスクが高まっているため、学校や家庭での適切なAI教育が急務となっています。
まとめ
今回の事件は、生成AIの悪用が現実の問題になりつつあることを示す衝撃的な事例です。AIは便利な技術である一方、使い方を誤れば犯罪に悪用される危険性があることを、私たちは強く認識する必要があります。
今後の技術発展の中で、AIを正しく活用するための倫理的な議論がさらに求められるでしょう。
コメント