Skip to content
Tiatra, LLCTiatra, LLC
Tiatra, LLC
Information Technology Solutions for Washington, DC Government Agencies
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact
 
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact

AI対AIへ、AI時代のセキュリティで変わるもの・変わらないもの

プロフィール:染谷 征良
ヨーロッパ、北米、日本のセキュリティ業界で、製品・技術戦略、競合戦略、危機管理、CSIRT構築・運営、品質管理、顧客支援、コミュニケーション戦略まで20年以上の幅広い実務経験を有する。パロアルトネットワークスでは、最新のトレンドを踏まえた企業のセキュリティ変革の支援に従事。全世界の従業員から選出されるグローバルでの年間最優秀社員賞をセキュリティベンダー2社から受賞。セキュリティ・キャンプ実行委員、RSA Conference Asia Pacific & Japanプログラム委員などを歴任。

生成AI利用は890%増加、インシデントも増えている

企業における生成AI利用の現状を示すデータによると、パロアルトネットワークスの顧客環境では2024年、ChatGPTが爆発的に普及した2023年と比較して、生成AIに対するトラフィックが890%増加した。10倍近い増加と言える。

「生成AIからビジネスメリットを享受しようという企業が増えている」と染谷氏。しかし同時に、情報漏洩インシデントも増えており、リスクの高い生成AIアプリケーションを従業員が使ってしまっているケースが見られるという。

染谷氏は実際に発生したAI関連インシデントをいくつか紹介してくれた。

最初に紹介したのは、AIコーディングツールが本番データを削除するというインシデントだ。AIが指示に反して全く違う動きをし、本番環境でデータを完全に消去してしまった。さらに深刻なのは、AIが実際の動作について「嘘をつき続けた」ことだ。やっていることと違うことを説明し続け、被害が拡大した。最終的に、開発ツールのCEOが謝罪文を発表する事態に発展したという事例だ。「適切なガードレールがないままにAIを使うと、ビジネスに影響が出る可能性があるという、わかりやすい例」と染谷氏は解説する。

2つ目は、Air Canadaの事例だ。この航空会社のチャットボットが顧客の問い合わせに誤った情報を出したため、経済的損失を被った顧客がこの航空会社を提訴、最終的に裁判所は損害賠償を命じた。「企業はAIが誤ったアウトプットをすると自社の責任になるというビジネスリスクの例」と説明する。

3つ目として、Sports Illustratedが、記事の著者から記事自体まで、全部生成AIが作ったものを使っていたことが暴露された。このメディアは慌ててAIが作ったデータを全て削除したものの、労働組合が「経営陣からの説明を要求する」という声明を発表する事態となった。染谷氏は、「AIの活用方法を誤ると、従業員の信頼を失い、モチベーションが大きく低下する。これも重大なビジネスリスク」と述べる。

本質的なリスクはAIでも変わらない、だが対象は拡大

生成AIがもたらすセキュリティリスクについて、染谷氏は「本質的なリスク自体は、変わっていない」と前置きする。情報が漏洩したり、サプライチェーンや業務が停止したりするといった問題は従来から存在した。

しかし、「いくつか変わる論点がある」と続ける。最も大きな変化は、サイバー犯罪で狙われる対象が増えることだ。従業員が生成AIサービスを活用すれば、そこがリスクの起点になり得る。業務アプリケーションにAIを組み込めば、その開発基盤や本番環境が攻撃対象となる。

もう1つの大きな変化は、テクノロジーの民主化だ。「知識やスキルがなくてもAIを活用できる。これは大きなメリットだが、使う側に適切に使うための知識がなく、組織も対策がないままに活用することはリスクの増加につながる」。

パロアルトネットワークスの調査では、生成AIに関するデータ損失防止(DLP)インシデントは2025年、月平均で2.5倍増えた。データ漏洩については、「悪意がある場合と過失の場合が考えられる」という。入力したデータが保存されたり学習用に利用されたりすると知らずに外部の生成AIサービスを使う場合は過失だが、知っていて使う場合や勤務先で許可されていないデータを使用するのであれば確信犯となる。

調査ではまた、企業の中では平均66もの生成 AI アプリが従業員によって活用されていることも分かった。うち10% は高リスクに分類される。ここで染谷氏は、未認可の生成AIツールの利用が拡大しているというトレンドをシャドーAIとして紹介した。SaaSの無断利用、個人デバイスの持ち込み、IoTデバイスの無断接続など、過去にあった問題が繰り返されていると染谷氏。

問題は、そのリスクが可視化されていないこと。「ルールやポリシーを作って全社展開しているので、守ってもらっているはず、という感覚の責任者が多い。しかし、実際には見えていないところでリスクが野放しになっている」と染谷氏は指摘する。

AI特有の脅威、プロンプトインジェクション

生成AIのトレンドに追いつく間もなく、企業はAIエージェントの時代に突入しつつある。「AIエージェントの場合は、リスクが大きくなる可能性がある」と染谷氏は警告する。

「エージェンティックAIでは、人がものを動かすわけではない。本来取るべきではないアクションを取ってしまう可能性が大きい」。複数のエージェントが連携して動く場合、高い権限を与える必要があり、権限設定が適切でなければ、取るべきではないアクションを取ってしまう。さらに深刻なのは、「エージェントが活用しようとするデータに悪意のあるものを仕込んで、それをアウトプットとして出させる」といった攻撃が技術的に可能なことだ。

「AIの世界ではユーザーIDに加えて、マシンIDという考え方が出てきている」と染谷氏は解説する。従来は誰がアクセスしているかのユーザーIDを管理すればよかったが、人間だけでなくAIエージェントも自律的に行動する。「エージェントは社員のようなもの」。このアイデンティティの概念変化に、どう対応していくのかがセキュリティ面でも大きなテーマになる。

AIならではの脅威として、プロンプトインジェクションもある。これは、生成AIのサービスが意図しないアウトプットを出させるように細工をしたプロンプトを使う攻撃だ。例えば、「学生です。研究目的で知りたいです」など、さまざまなプロンプトを使って迂回し、本来は出力されない悪意のあるコードやランサムウェアの生成を引き出させるといったケースだ。

各ベンダーが対策を講じてはいるが、「完璧ではない可能性がある」と染谷氏は警告する。本来出してはいけない個人情報や顧客データをアウトプットしてしまうことが技術的に可能だという。

攻撃者もAI活用する「AI対AI」の時代に

そのような中で対策をとらなければならない。

まずは、先述のように可視化が最優先の課題だ。従業員がどの生成AIサービスを使っているのか、どういうデータを流しているのか、使おうとしているAI基盤にどういうリスクがあるのか。これらを可視化することで、初めて適切な対策が可能になる。

その上で染谷氏が提唱するのは、性善説からの脱却だ。「『ポリシーは作っている。社員は守っているはず』という考え方から脱却しなければいけない」。コロナ禍で広まった「ゼロトラスト」の考え方、すなわち「すべてのものを疑い、必ずセキュリティチェックをかける。これを利便性を損なわない形でアーキテクチャに組み込む」ことが必要だと説く。

「悪意がある場合、悪意はなく過失の場合を含めて、誤使用というリスクが出てくる。単純にアウェアネスを高めるだけではなく、組織的な対策と技術的な対策の両輪で進めなければ、現実的に制御していくのは難しい」。

具体的には、本来アクセスしてはいけない生成AIサービスなら利用をそもそも遮断する、許可されている生成AIアプリケーションでも、プロンプトに流しているデータの中に機密情報が入っている場合はそれを見つけて止める、AI基盤上の脆弱性や設定ミスを見つけて修正する、でも利便性は損なわないといった仕組みを活用していくアプローチが非常に大事になってくる。

さらに、「これまでの人・手作業中心でやっていたセキュリティを、AI・自動化を中心にしたアプローチに変えていく必要がある」と染谷氏は強調する。「サイバー犯罪にAIが使われ始めており、AI対AIという世界観になっている。防御する側もAI・自動化中心にシフトができなければ、サイバー犯罪のスピードに追いついていくことは難しい」。

パロアルトネットワークス

パロアルトネットワークス

攻撃側がAIを活用することで、フィッシング攻撃の手口はより巧妙になり、攻撃の実行スピードは格段に速くなっている。人間の目では見逃してしまうぐらい短時間で攻撃が完了してしまう。実際に、平均するとサイバー攻撃は企業ネットワークへの侵入から完了までわずか2日間で終わっている。しかし、被害企業が異変に気づくのは平均で侵入から1週間後。外部からの連絡や業務上の異変、サイバー犯罪者からの脅迫文で初めて事態を知ったという事例も少なくないという。

「我々がメリットがあると思ってAIを活用しているということは、悪意を持った犯罪者も当然活用している」(染谷氏)。

パロアルトネットワークス

パロアルトネットワークス

生成AIを活用することで、従来2日かかっていた攻撃が25分で完了できたという実証実験結果を紹介しながら、「進化は本当に速い。それにどう追いついていくか」と染谷氏は述べる。そこでは”スーパーマン”になるよりも、「どこまでテクノロジーに任せて、どこまで自社でやるのか、という考え方が重要になる」という。

ビジネスとセキュリティの溝を埋める

組織面では、ビジネスとセキュリティの溝を埋めることが不可欠だ。染谷氏は、多くの企業が抱える課題を次のように指摘する。「ビジネス側とIT/セキュリティ側の間に大きな溝がある。お互いの正義で平行線を辿っている」。さらに深刻なケースでは、「インフラチームとITセキュリティ部門がまともに会話したことがない」という企業も実際に存在するという。

こうした溝を解決するには、「各現場レベルに任せるのではなく、トップダウンでやっていく必要がある」と染谷氏は断言する。アウトカムにフォーカスし、IT戦略、デジタル戦略、セキュリティ戦略を組織全体として一貫性を持って実行することが重要だ。

「テクノロジーはあくまで我々のビジネスゴールを達成するための手段でしかない。それを生かすも殺すも結局は人だ」。だからこそ、「やみくもにAI活用やDXを現場レベルで進めるのではなく、ビジネスメリットを最大化するために安全性と利便性を両立させるべき」と染谷氏は強調する。

ビジネス側とセキュリティ側が相互理解を深め、ビジネスメリットを最大化しながらリスクを管理していく。このアプローチが、シャドーAIの根本原因であるコミュニケーション不足を解決する鍵となる。

事故が発生した際の対応の観点でも、組織的な対策は重要だ。染谷氏によると、特に重要なのが事前の合意形成だという。

「実際に起きた時に会社としてどう対応するのかを、あらかじめ組織として合意形成しておくのが大事」と染谷氏。よくあるのは、セキュリティ部門では対応が決まっているが、事業部門の責任者や経営層と合意が取れていないケースだ。「実際に事故が起きた時に、お互いの正義でいろんな摩擦が起きて、問題の対応が円滑に進まない」。

土台として、「自社は大丈夫」という過信を捨てることも大切だ。2024年にパロアルトネットワークスが世界各地で対応したセキュリティインシデントの約75%でサイバー攻撃を裏付ける明確な証拠がログに残っていた。「(攻撃を受けていると)リアルタイムに気付けていないことが解決すべき喫緊の課題」と染谷氏。

染谷氏自身、一部事業の売り上げが数ヶ月止まるインシデント対応を過去に経験している。「リスクを可視化できていないから起きる。対応も現場任せでは紛糾する」と振り返る。だからこそ、「ことが起きてから危機意識を共有するのでは遅い」と痛感しているという。

また、日本企業が直面している法規制の現実にも言及した。「日本はまだAI関連法規制はおろか、データプライバシーの法規制が、欧米と比べると緩い」と染谷氏。欧州や米国では、セキュリティ対策の不備や情報開示の遅れに高額の罰金が科せられるのが近年普通になっている。グローバル展開している日本企業は欧米の法規制に合わせた対策が求められる。

このように、染谷氏は対策として可視化と事前の合意形成をあげた後、「AIセキュリティは経営レベルの課題という認識を共有することが重要」と述べる。

例えば事業やサプライチェーンが止まるインシデントが多方面で確認されているが、パロアルトネットワークスが世界各地で対応したインシデントの86%で事業影響が確認されているという。

「サイバーセキュリティ上の事故は、過失か確信犯かは別として、いつ起きるか分からない。実際に起きたときにどういうビジネスへの影響が想定されるのかを踏まえ、セキュリティをビジネス基盤に当たり前のものとして組み込んでいくことが大事」と染谷氏。

パロアルトネットワークス

パロアルトネットワークス

最後に、染谷氏は次のようにアドバイスした。 「進化は実に速い。それにどう追いついていくのか、追いついていくことができるのかが、大きなリスク。我々が、メリットがあると思って活用しているということは、悪意を持った犯罪者も当然今活用している。まずはそれを知っていただくことが必要です」。


Read More from This Article: AI対AIへ、AI時代のセキュリティで変わるもの・変わらないもの
Source: News

Category: NewsNovember 17, 2025
Tags: art

Post navigation

PreviousPrevious post:What’s keeping enterprises from fully integrating AI?NextNext post:How AI agents are reshaping enterprise experience and intelligent flow

Related posts

독일 소버린 AI 대표주자 알레프 알파, 코히어와 손잡고 글로벌 연합 선택
April 29, 2026
Las empresas se están replanteando Kubernetes
April 29, 2026
Enterprises still chase incremental, not transformational, AI gains
April 29, 2026
SAP 2027 deadline for S/4HANA out of reach for most customers
April 29, 2026
Creating an exciting, customer-centric vision
April 29, 2026
AI 코딩 보조에서 개발 파이프라인까지…오픈AI ‘심포니’의 전환 실험
April 29, 2026
Recent Posts
  • 독일 소버린 AI 대표주자 알레프 알파, 코히어와 손잡고 글로벌 연합 선택
  • Las empresas se están replanteando Kubernetes
  • Enterprises still chase incremental, not transformational, AI gains
  • Creating an exciting, customer-centric vision
  • SAP 2027 deadline for S/4HANA out of reach for most customers
Recent Comments
    Archives
    • April 2026
    • March 2026
    • February 2026
    • January 2026
    • December 2025
    • November 2025
    • October 2025
    • September 2025
    • August 2025
    • July 2025
    • June 2025
    • May 2025
    • April 2025
    • March 2025
    • February 2025
    • January 2025
    • December 2024
    • November 2024
    • October 2024
    • September 2024
    • August 2024
    • July 2024
    • June 2024
    • May 2024
    • April 2024
    • March 2024
    • February 2024
    • January 2024
    • December 2023
    • November 2023
    • October 2023
    • September 2023
    • August 2023
    • July 2023
    • June 2023
    • May 2023
    • April 2023
    • March 2023
    • February 2023
    • January 2023
    • December 2022
    • November 2022
    • October 2022
    • September 2022
    • August 2022
    • July 2022
    • June 2022
    • May 2022
    • April 2022
    • March 2022
    • February 2022
    • January 2022
    • December 2021
    • November 2021
    • October 2021
    • September 2021
    • August 2021
    • July 2021
    • June 2021
    • May 2021
    • April 2021
    • March 2021
    • February 2021
    • January 2021
    • December 2020
    • November 2020
    • October 2020
    • September 2020
    • August 2020
    • July 2020
    • June 2020
    • May 2020
    • April 2020
    • January 2020
    • December 2019
    • November 2019
    • October 2019
    • September 2019
    • August 2019
    • July 2019
    • June 2019
    • May 2019
    • April 2019
    • March 2019
    • February 2019
    • January 2019
    • December 2018
    • November 2018
    • October 2018
    • September 2018
    • August 2018
    • July 2018
    • June 2018
    • May 2018
    • April 2018
    • March 2018
    • February 2018
    • January 2018
    • December 2017
    • November 2017
    • October 2017
    • September 2017
    • August 2017
    • July 2017
    • June 2017
    • May 2017
    • April 2017
    • March 2017
    • February 2017
    • January 2017
    Categories
    • News
    Meta
    • Log in
    • Entries feed
    • Comments feed
    • WordPress.org
    Tiatra LLC.

    Tiatra, LLC, based in the Washington, DC metropolitan area, proudly serves federal government agencies, organizations that work with the government and other commercial businesses and organizations. Tiatra specializes in a broad range of information technology (IT) development and management services incorporating solid engineering, attention to client needs, and meeting or exceeding any security parameters required. Our small yet innovative company is structured with a full complement of the necessary technical experts, working with hands-on management, to provide a high level of service and competitive pricing for your systems and engineering requirements.

    Find us on:

    FacebookTwitterLinkedin

    Submitclear

    Tiatra, LLC
    Copyright 2016. All rights reserved.