たった3秒です。あなたの声を完璧にコピーするのに必要な時間。2024年6月、OKX取引所のユーザーがAIディープフェイク詐欺で200万ドル(約3億円)を失いました。ハッカーは被害者の顔と声をAIで複製し、取引所のセキュリティシステムを完全に騙したんです。
テレグラムのメッセージから始まった悪夢
最初は普通のメッセージでした。ハッカーはテレグラムで個人情報を抜き取り、メールアカウントをハッキング。そこからが本当に恐ろしい部分です。
AIで作った偽の動画で、本人のふりをし始めたんです。電話番号も変更、メールも変更、Google認証アプリまですべて書き換えました。OKXサポートチームとビデオ通話をする際、画面に映る人物は確かに本人に見えました。声も、表情も、ジェスチャーまで完璧でしたから。
24時間もかからずに、口座は空っぽに。200万ドルが跡形もなく消えたんです。
YouTubeの動画一つあれば、あなたも標的になる
最も恐ろしいのは、これが特別な技術じゃないということです。最近のAI音声合成ツールは1ドル以下のコストで誰でも使えます。
SNSに投稿した短い動画、YouTubeのコメント動画、電話の録音ファイル一つあれば十分。ハッカーはこれであなたの声を完璧に真似します。イントネーション、話し方、笑い声まで。
実際の調査では、70%の人が本物の声とAIが作った偽の声を区別できなかったそうです。家族から急にお金を送ってと電話が来たら?取引所から本人確認のビデオ通話を求められたら?私たちはどれくらい簡単に騙されるでしょうか。
ブロックチェーンプロジェクトも安全じゃなかった
2025年7月、Plasmaというブロックチェーンプロジェクトの公式Twitterがハッキングされました。ハッカーは管理者権限を奪い、偽のリンクをばらまきました。幸い、すぐにアカウントを回復しましたが、もしAIディープフェイクまで使われていたら?
公式アカウントから代表者が直接「緊急アップデートです!今すぐこのリンクにアクセスしてください!」と動画メッセージを送ったら、ほとんどの人が疑いなくクリックしたでしょう。
今すぐ実践すべき5つの防御策
二段階認証は最低限の基本です SMSやメール認証だけでは不十分。Google OTPやハードウェアキーを必ず追加しましょう。生体認証も併用するとより安全です。
突然の変更通知は必ず疑う アカウント情報変更のメールが来たら、取引所の公式アプリで直接確認を。リンクは絶対にクリックしないでください。
SNSに音声や動画を投稿する前に考える インスタのストーリー、TikTok動画...これらすべてがディープフェイクの学習材料になり得ます。特に本人確認に使えそうな情報は極力隠しましょう。
「急いで」メッセージは一旦停止 家族でも上司でも取引所でも、急かされたら必ず別ルートで再確認。電話一本で3億円を守れるかもしれません。
AIディープフェイク検知プログラムを活用 最近はディープフェイクを検知するセキュリティツールが出てきています。取引所や金融アプリが提供するセキュリティ機能はすべてオンにしておきましょう。
これはまだ始まりにすぎない
正直に言って、状況はもっと悪化するでしょう。AI技術は日々進化し、ハッカーも巧妙になっています。
でも、私たちにもできることがあります。「疑わしければ二度確認」この習慣一つで、ほとんどの詐欺は防げます。技術がどれだけ発展しても、結局は人を騙すのは人間。何か変だと感じたら、一旦立ち止まって考え直すことです。
仮想通貨を扱っている方、今日のうちにセキュリティ設定を見直してみませんか?