サイバーセキュリティにおけるAIAIのリスク
人工知能(AI)は何年も前からサイバー・セキュリティ・ツールを強化してきた。例えば、機械学習ツールは、ネットワーク・セキュリティ、マルウェア対策、不正検知ソフトウェアを、人間よりもはるかに速く異常を発見することでより強力なものにしている。しかし、AIはサイバーセキュリティにリスクももたらしている。総当たり攻撃、サービス妨害(DoS)、ソーシャル・エンジニアリング攻撃は、AIを利用した脅威の一例に過ぎない。
人工知能がサイバーセキュリティに与えるリスクは、AIツールが安価になり、より身近になったことで、急速に高まると予想される。例えば、ChatGPTを騙して悪意のあるコードを書かせたり、イーロン・マスクから寄付を求める手紙を書かせたりすることができる、
また、多くの deepfakeツールを使えば、わずかな学習データで驚くほど説得力のある偽のオーディオトラックやビデオクリップを作成することもできる。また、AIと機密情報を共有することに抵抗を感じるユーザーが増えるにつれ、プライバシーに関する懸念も高まっている。
この詳細ガイドをお読みください:
- AIの定義。
- 人工知能のリスク
- サイバーセキュリティにおけるAI。
- AIとプライバシーリスク
AIとは:人工知能
AI(人工知能)とは、通常人間の知能を必要とするタスクを実行し、意思決定を行うことができるコンピューターシステムの開発を指す。機械がデータから学習し、パターンを認識し、新しい情報や状況に適応できるようなアルゴリズムやモデルを作成することが含まれる。
簡単に言えば、AIとはコンピューターに人間のように考え、学習することを教えるようなものだ。機械が大量のデータを処理・分析し、パターンや異常を特定し、その情報に基づいて予測や決定を下すことを可能にする。AIは、画像認識や音声認識、自然言語処理、ロボット工学、サイバーセキュリティなど、さまざまな用途に利用できる。
全体として、AIは複雑な問題を解決し、タスクを自動化し、さまざまな分野で効率と精度を高めるために、人間の知性を模倣することを目的としている。
機械学習とディープラーニング
機械学習(ML)はAIのサブセットとしてよく使われている。MLのアルゴリズムと技術は、システムがデータから学習し、明示的にプログラムされることなく意思決定を行うことを可能にする。
ディープラーニング(DL)は、ニューラルネットワークと呼ばれる人間の脳に着想を得た人工的な計算モデルを、より高度なタスクのために活用するMLのサブセットである。ChatGPTは、人間が生成したプロンプトを理解し、それに応答するためにMLを使用するAIの例です。
ナローAIと人工知能
すべてのタイプのAIはNarrow AIとみなされる。その範囲は限定的で、感覚を持たない。このようなAIの例としては、音声アシスタント、チャットボット、画像認識システム、自動運転車、メンテナンスモデルなどがある。
人工知能(AGI)とは、人間の知能に匹敵する、あるいはそれを凌駕する自意識AIを指す仮説的概念である。AGIが実現するのは数年、あるいは数十年先のことだと推測する専門家がいる一方で、それは不可能だと考える専門家もいる。
ジェネレーティブAIとは何か?
ジェネレーティブAIとは、画像、テキスト、音声、あるいは動画など、新しいコンテンツの作成と生成を伴う人工知能技術のサブセットを指す。既存のデータのパターンを理解するためにモデルを訓練し、その知識を使って訓練データに似た新しいオリジナルのコンテンツを生成する。
生成的AIに対する一般的なアプローチの1つに、生成的敵対ネットワーク(GAN)の利用がある。GANは、生成ネットワークと識別ネットワークの2つのニューラルネットワークで構成される。ジェネレーター・ネットワークは新しいコンテンツを生成し、識別器ネットワークは生成されたコンテンツと実際のコンテンツを評価し区別する。この2つのネットワークは競争的に機能し、ジェネレーターは、ディスクリミネーターが実際のデータと区別できないようなコンテンツを生成しようとする。
生成AIは様々な領域で応用されている。例えば
-
画像生成:ジェネレーティブAIは、写実的な顔や風景、あるいは現実世界には存在しないまったく新しいオブジェクトを作成するなど、リアルな画像を生成するために使用できる。
-
テキスト生成:生成モデルは、首尾一貫した、文脈に関連したテキストを生成するように訓練することができ、チャットボット、コンテンツ作成、言語翻訳などのタスクに使用することができる。
-
音楽と音声の生成:ジェネレーティブAIは、新しい楽曲を作成したり、リアルなサウンドや音声を生成することができる。
ジェネレーティブAIは多くのポジティブな用途を持つ一方で、偽のコンテンツやdeepfake 動画を生成し、人々を欺いたり操ったりするのに利用されるなど、悪用される可能性についての懸念もある。ジェネレーティブAIの倫理的配慮と責任ある使用は、これらのリスクに対処するための重要な要素である。
サイバーセキュリティの領域では、ジェネレーティブAIはツールであると同時に課題でもある。モデルを訓練し、セキュリティ対策を改善するために現実的な合成データを生成するために使用することができますが、説得力のあるフィッシングメールやdeepfake 攻撃の生成など、悪意のある目的に使用された場合にリスクをもたらす可能性もあります。これは、潜在的な脅威を軽減するための強固な防御と検出メカニズムを開発することの重要性を浮き彫りにしている。
サイバーセキュリティにおけるAIのリスクとは?
他のテクノロジーと同様、AIは善意にも悪意にも利用できる。脅威行為者は、詐欺、詐欺、その他のサイバー犯罪を犯すために、人類を助けるために設計されたのと同じAIツールのいくつかを使用することができる。
サイバーセキュリティにおけるAIのリスクを探ってみよう:
1:サイバー攻撃の最適化
専門家によると、攻撃者は生成AIと大規模な言語モデルを使用することで、これまでにないスピードと複雑さで攻撃を拡大することができるという。攻撃者はジェネレーティブAIを利用して、クラウドの複雑性を損なったり、地政学的な緊張を利用して高度な攻撃を行ったりする新たな方法を見つけることができる。また、ランサムウェアや フィッシング攻撃のテクニックをジェネレーティブAIで磨くことで、最適化することもできる。
2:自動化されたマルウェア
ChatGPTのようなAIは、正確に数字を計算することに優れている。コロンビア大学ビジネススクールのオデッド・ネッツァー教授によれば、ChatGPTはすでに「かなり上手にコードを書く」ことができるという。
専門家によれば、近い将来、ソフトウェア開発者、コンピューター・プログラマー、コーダーの仕事を助けるか、あるいは彼らの仕事をより多く代替するようになるかもしれないとのことだ。
ChatGPTのようなソフトウェアには、ユーザーが悪意のあるコードを作成できないようにするための保護機能があるが、専門家は巧妙なテクニックを使ってそれを回避し、マルウェアを作成することができる。例えば、ある研究者は抜け穴を見つけ、ほぼ検出不可能な複雑なデータ盗難実行ファイルを作成することができた。この実行ファイルは、国家が支援する脅威行為者*によって作成されたマルウェアのような精巧さを備えていた。
これは氷山の一角かもしれない。将来的には、AIを搭載したツールによって、初級レベルのプログラミングスキルを持つ開発者が、高度な悪意のあるボットのような自動マルウェアを作成できるようになるかもしれない。では、悪意のあるボットとは何か?悪意のあるボットは、データを盗んだり、ネットワークに感染させたり、人の手をほとんど介さずにシステムを攻撃したりすることができる。
*https://www.ijirset.com/upload/2023/january/109_A%20Study.pdf
3: 身体的安全
自律走行車、製造・建設機械、医療システムなど、AIを使用するシステムが増えるにつれ、人工知能が身体の安全に及ぼすリスクは高まる可能性がある。例えば、AIを利用した真の自動運転車がサイバーセキュリティ侵害を受けた場合、同乗者の身体的安全に対するリスクが生じる可能性がある。同様に、建設現場のメンテナンスツールのデータセットが、攻撃者によって危険な状態を作り出すように操作される可能性もある。
AIのプライバシーリスク
OpenAIのCEOであるサム・アルトマンにとって恥ずべきバグで、ChatGPTは他のユーザーのチャット履歴の一部を流出させた。このバグは修正されたが、AIが解析する膨大なデータにより、他にもプライバシー上のリスクがある可能性がある。例えば hackerAIシステムに侵入したハッカーは、さまざまな種類の機密情報にアクセスする可能性がある。
マーケティング、広告、プロファイリング、監視のために設計されたAIシステムは、ジョージ・オーウェルが想像もできなかった方法でプライバシーを脅かす可能性もある。一部の国では、AIプロファイリング技術がすでに国家によるユーザーのプライバシー侵害を助けている。
AIモデルを盗む
ネットワーク攻撃、ソーシャル・エンジニアリング技術、脆弱性の悪用を通じたAIモデルの盗難には、国家に支援されたエージェント、企業スパイのような内部脅威者、ありふれたコンピューター・hackersような脅威主体によるリスクもある。盗まれたモデルは、攻撃者のさまざまな悪意のある活動を支援するために操作され、修正される可能性があり、社会に対する人工知能のリスクを複雑にしています。
データ操作とデータ・ポイズニング
AIは強力なツールだが、データ操作には弱い。結局のところ、AIは学習データに依存している。データが修正されたり、毒されたりすると、AIを搭載したツールは予期せぬ、あるいは悪意のある結果を生み出す可能性がある。
理論的には、攻撃者はモデルの結果を変えるために、悪意のあるデータでトレーニングデータセットを汚染することができる。攻撃者は、バイアス・インジェクションと呼ばれる、より巧妙な操作を行うこともできる。このような攻撃は、ヘルスケア、自動車、運輸などの業界において特に有害である。
なりすまし
AIを搭載したツールが、映画製作者がいかに観客を騙すのに役立っているかは、映画以外を見るまでもないだろう。例えば、ドキュメンタリー映画『ロードランナー』では、有名シェフの故アンソニー・ボーデインの声がAIによって生成された音声で作られ、視聴者を簡単に騙したことで物議を醸した。同様に、『インディ・ジョーンズと運命のダイヤル』では、ベテラン俳優のハリソン・フォードが人工知能の力で説得力をもって数十年も老けさせられた。
攻撃者が同様の手口を使うのに、ハリウッドの大予算は必要ない。適切な映像があれば、無料のアプリを使って誰でもdeepfake 映像を作ることができる。また、AIを搭載した無料のツールを使えば、わずか数秒の音声を訓練して、驚くほどリアルな偽の声を作ることもできる。
だから、AIがバーチャル誘拐詐欺に使われるようになっても驚くにはあたらない。ジェニファー・デステファノは、娘が泣き叫びながら電話をかけてきたとき、親にとって最悪の悪夢を体験した。彼女の声は、100万ドルの身代金を払わないと薬物を投与して虐待すると脅す男に変わっていた。
キャッチボール?専門家は、その声はAIによって生成されたものだと推測している。法執行機関は、バーチャル誘拐計画に加えて、AIは将来、祖父詐欺を含む他のタイプのなりすまし詐欺で犯罪者を助けるかもしれないと考えている。
ジェネレーティブAIは、オピニオンリーダーの声でテキストを生成することもできる。サイバー犯罪者はこのテキストを使って、電子メールやTwitterようなソーシャルメディア・プラットフォームのような媒体で、詐欺的な景品、投資機会、寄付のようなさまざまなタイプの詐欺を行うことができる。
より巧妙な攻撃
前述したように、脅威者はAIを利用して高度なマルウェアを作成したり、詐欺のために他人になりすましたり、AIの訓練データを汚染したりすることができる。また、フィッシングやマルウェア、クレデンシャル・スタッフィング攻撃を自動化するためにAIを利用することもできる。AIはまた、敵対的攻撃と呼ばれる攻撃において、音声認識ソフトウェアのようなセキュリティ・システムを回避するのに役立つこともある。
風評被害
AIを活用する組織は、その技術が誤作動を起こしたり、サイバーセキュリティ侵害に見舞われたりしてデータ損失が発生した場合、風評被害を被る可能性がある。そのような組織は、罰金、民事罰、顧客関係の悪化に直面する可能性がある。
AIリスクから身を守るには
AIは強力なツールである一方、サイバーセキュリティ上のリスクもある。この技術を安全に利用するためには、個人も組織も全体的かつ積極的なアプローチを取る必要がある。
AIのリスクを軽減するためのヒントをいくつか紹介しよう:
1: 使用するAIシステムの監査
セキュリティとプライバシーの問題を避けるために、使用するAIシステムの現在の評判をチェックする。組織は定期的にシステムを監査して脆弱性を塞ぎ、AIのリスクを減らすべきである。監査は、侵入テスト、脆弱性評価、システムレビューを行うことができるサイバーセキュリティと人工知能の専門家の助けを借りて行うことができる。
2: 自動化によって共有される個人情報の制限
プライバシーに対するAIのリスクを理解しないまま、機密情報を人工知能と共有する人が増えている。例えば、著名な組織のスタッフがChatGPTに会社の機密データを入れているのが見つかった。ある医師でさえ、ChatGPTのセキュリティリスクを理解せずに、手紙を作成するためにチャットボットに患者の名前と病状を送信した。
このような行為はセキュリティリスクをもたらし、HIPAAのようなプライバシー規制に抵触する。AIの言語モデルは情報を開示できないかもしれないが、会話は品質管理のために記録され、システム・メンテナンス・チームがアクセスできる。そのため、AIと個人情報を共有することは避けるのがベスト・プラクティスだ。
3: データ・セキュリティ
前述したように、AIは良い結果を出すためにトレーニングデータに依存している。データが変更されたり、毒されたりすると、AIは予想外の危険な結果をもたらす可能性がある。AIをデータポイズニングから守るために、組織は最先端の暗号化、アクセス制御、バックアップ技術に投資しなければならない。ネットワークはファイアウォール、侵入検知システム、高度なパスワードで保護する必要がある。
4: ソフトウェアの最適化
AIのリスクから身を守るために、ソフトウェアメンテナンスのベストプラクティスをすべて守りましょう。これには、AIソフトウェアやフレームワーク、オペレーティング・システム、アプリを最新のパッチやアップデートで更新し、悪用やマルウェア攻撃のリスクを減らすことが含まれます。高度な悪意のある脅威を阻止するために、次世代アンチウイルス技術でシステムを保護する。さらに、ネットワークとアプリケーションのセキュリティ対策に投資し、防御を強化する。
5:敵対的トレーニング
敵対的トレーニングは、AIが攻撃に対応するためのAI特有のセキュリティ対策である。この機械学習法は、AIモデルをさまざまなシナリオ、データ、テクニックにさらすことで耐性を向上させる。
6: スタッフ・トレーニング
AIのリスクは非常に幅広い。サイバーセキュリティとAIの専門家に相談し、AIのリスク管理について従業員を訓練する。例えば、AIによって設計されたフィッシング攻撃である可能性のある電子メールを事実確認することを学ぶべきである。同様に、人工知能が作成したマルウェアの可能性がある未承諾のソフトウェアを開くことも避けるべきである。
7: 脆弱性管理
組織はAI脆弱性管理に投資することで、データ侵害や漏えいのリスクを軽減することができる。脆弱性管理は、脆弱性の特定、分析、優先順位付けを含むエンドツーエンドのプロセスであり、AIシステムのユニークな特性に関連する攻撃対象領域を縮小する。
8: AIインシデント対応
最高のセキュリティ対策を施していても、人工知能のリスクが高まるにつれて、組織がAI関連のサイバーセキュリティ攻撃を受ける可能性があります。そのような事態から回復するために、封じ込め、調査、修復をカバーするインシデント対応計画を明確に策定する必要があります。
裏面:AIがサイバーセキュリティにもたらす恩恵
さまざまな規模や分野の産業が、サイバーセキュリティを強化するためにAIを利用している。例えば、銀行から政府機関に至るまで、世界中のあらゆる組織がAIを利用して本人認証を行っている。また、金融業界や不動産業界では、AIを使用して異常を発見し、不正行為のリスクを低減している。
ここでは、AIがサイバーセキュリティにどのようなメリットをもたらすかについて詳しく説明する:
1:サイバー脅威の検知
洗練されたマルウェアは、コードや構造の変更を含むさまざまな回避テクニックを使用することで、標準的なサイバーセキュリティ技術を回避することができる。しかし、高度なアンチウイルス・ソフトウェアは、AIとMLを使用して、潜在的な脅威の全体的な構造、プログラミング・ロジック、データの異常を見つけることができる。
AIを搭載した脅威検知ツールは、こうした新たな脅威を狩り出し、警告と対応能力を向上させることで、組織を保護することができる。さらに、AIを搭載したエンドポイント・セキュリティ・ソフトウェアは、組織内のラップトップ、スマートフォン、サーバーを保護することができる。
2: 予測モデル
サイバーセキュリティの専門家は、ジェネレーティブAIを活用することで、リアクティブな姿勢からプロアクティブな姿勢へと移行することができる。例えば、新たな脅威を特定し、リスクを軽減する予測モデルを作成するために、ジェネレーティブAIを利用することができる。
このような予測モデルは、結果として
- より迅速な脅威検知
- 時間の節約
- コスト削減
- インシデントレスポンスの向上
- リスクからの保護
3: フィッシング検知
フィッシングメールは重要な脅威ベクトルです。わずかなリスクで、脅威者はフィッシングを利用して機密情報や金銭を盗むことができる。さらに、フィッシングメールは本物のメールと区別することが難しくなってきています。
AIはフィッシング対策を強化することで、サイバーセキュリティに恩恵をもたらすことができる。AIを活用したメールフィルターは、テキストを分析して疑わしいパターンのメールにフラグを立て、さまざまなタイプのスパムをブロックすることができる。
4: ボットの特定
ボットは、ネットワークやウェブサイトに危害を加えたり、ダウンさせたりして、組織のセキュリティ、生産性、収益に悪影響を及ぼします。また、ボットは盗んだ認証情報でアカウントを乗っ取り、サイバー犯罪者の詐欺や詐欺行為を手助けすることもあります。
機械学習ベースのモデルを活用するソフトウェアは、ネットワークトラフィックとデータを分析してボットのパターンを特定し、サイバーセキュリティの専門家がボットを排除するのに役立ちます。ネットワークの専門家は、AIを使用して、ボットに対してより安全なCAPTCHAを開発することもできます。
5: ネットワークの保護
攻撃者はネットワークに侵入した後、データを流出させたり、システムをランサムウェアに感染させたりします。このような脅威を早期に検知することは非常に重要です。AIベースの異常検知は、ネットワーク・トラフィックやシステム・ログをスキャンし、不正アクセス、異常なコード、その他の疑わしいパターンを検出することで、侵害を未然に防ぐことができます。さらに、AIは要件や特性を分析することで、ネットワークのセグメント化を支援することができる。
6: インシデント対応
AIは脅威ハンティング、脅威管理、インシデント対応を強化することができる。AIは、チームがオフラインの状態でも、24時間体制で脅威に対応し、緊急措置を講じることができます。さらに、インシデントレスポンス時間を短縮し、攻撃による被害を最小限に抑えることができます。
7: 内部脅威の軽減
インサイダーの脅威は、組織の収益、企業秘密、機密データなどを犠牲にする可能性があるため、真剣に対処しなければならない。内部脅威には、悪意のあるものと意図的でないものの2種類があります。AIは、リスクのあるユーザーの行動を特定し、組織のネットワークから機密情報が流出するのをブロックすることで、両方のタイプの内部脅威を阻止するのに役立ちます。
8:アクセス・コントロールの強化
多くのアクセス・コントロール・ツールは、AIを使ってセキュリティを向上させている。不審なIPアドレスからのログインをブロックしたり、不審なイベントにフラグを立てたり、パスワードが脆弱なユーザーにログイン認証情報の変更や多要素認証へのアップグレードを求めたりすることができる。
AIはユーザーの認証にも役立つ。例えば、生体認証、コンテキスト情報、ユーザーの行動データを活用して、認証されたユーザーの身元を正確に確認し、悪用されるリスクを軽減することができる。
9: 偽陽性の特定
ITチームにとって、誤検知の管理は疲れるものです。誤検知が大量に発生すると、精神衛生上の問題が生じる可能性があります。また、正当な脅威を見逃してしまう可能性もある。しかし、人工知能を使用して脅威の検出精度を向上させるサイバー・セキュリティ・ツールを使用すれば、誤検出の量を減らすことができる。このようなツールは、セキュリティ・チームの時間とリソースを浪費する可能性の低い脅威を自動的に管理するようにプログラムすることもできる。
10: ITスタッフの効率とコスト
中小企業の多くは、高度化する脅威を24時間体制で管理する大規模な社内サイバーセキュリティチームに投資する余裕がない。しかし、24時間365日稼働するAIを活用したサイバーセキュリティ技術に投資することで、継続的な監視、効率性の向上、コスト削減を実現することができる。このようなテクノロジーは、企業の成長に合わせてコスト効率よく拡張することもできる。
さらに、AIは疲れないのでスタッフの効率も向上する。四六時中同じ品質のサービスを提供し、人為的ミスのリスクを軽減する。また、AIは人間のセキュリティ・チームよりもはるかに多くのデータを管理することができる。