生成AI詐欺にだまされないための予防策

人間の認知能力には限界があります。
社長の声と顔までそっくりに生成AIに作られてしまったら、家族でもだまされてしまうかもしれません。
生成AIを使った詐欺に合わないようにするために、できることからしておきましょう。
1つ目は、SNSの利用を警戒し、情報の出しすぎに注意するようにします。
生成AIの学習データとして使われるのは、インターネット上に公開された情報です。
特に、中小企業の場合、社長が広告塔になったり、営業の第一線に出たりすることがあると思いますが、必要以上に動画や音声をネットに露出することには注意が必要です。
また、社長や役員だけでなく、経理担当者や一般社員も、SNSで「長期休暇」や「新規プロジェクト」などの業務に関する投稿を控えるべきでしょう。
これらの情報は、詐欺組織にとって犯罪のチャンスやタイミングを示唆する情報となり、攻撃のヒントになってしまう危険があります。
2つ目は、アナログな確認手続きを最終防衛策として準備することです。
デジタル技術が高度化するほど、対面での確認や、社長本人へのコールバック(折り返し電話)といったアナログな手段が確実なセキュリティ対策になります。
着信した電話やメールの指示で動くのではなく、必ず経理担当者から、社長が普段使っている登録済みの携帯電話番号にかけ直して確認することを義務付けます。
あらかじめ合い言葉(シークレット・ワード)を決めておくのもいいでしょう。
電話やビデオ会議で送金の話が出た場合、社長と経理担当者との間で本人確認するためのルールを作っておきます。
家族やペットの名前、社内だけで通じる隠語などが有効です。
今日にでも、経理担当者と生成AIを使った詐欺事件について話をして、万が一のために合い言葉を決めておきましょう。
社長の写真はインターネット上に何枚公開されていますか?





















