Building sovereignty at speed in 2026: Why CIOs must establish AI and data foundations in 120 days

The new CIO mandate As CIOs enter 2026, the urgency surrounding AI adoption and data sovereignty has reached a critical turning point. Artificial intelligence is now embedded in every strategic conversation—from operational efficiency to board-level risk—and data sovereignty has become the linchpin of regulatory readiness, security posture, and competitive differentiation. The question is no longer whether to…

New IDC research: SAP BTP Boosts Business Suite Value

Organizations face rising pressure to deliver measurable results from technology investments. Yet, despite expanding their software portfolios, many struggle to realize their full value. Fragmented systems, siloed data, and isolated AI efforts often stall transformation. The real opportunity lies in uniting these investments into a connected ecosystem that powers daily operations while unlocking new levels of agility,…

From cloud-native to AI-native: Why your infrastructure must be rebuilt for intelligence

The cloud-native ceiling For the past decade, the cloud-native paradigm — defined by containers, microservices and DevOps agility — served as the undisputed architecture of speed. As CIOs, you successfully used it to decouple monoliths, accelerate release cycles and scale applications on demand. But today, we face a new inflection point. The major cloud providers are no…

Reset the economics of enterprise IT with agentic AI

At a time when many business leaders are starting to scrutinize artificial intelligence (AI) spending, BMC Helix is focused on how to deliver measurable, meaningful cost savings with AI agents that streamline ServiceOps, the convergence of service management and operations management. At the BMC Helix Roadshow in New York City in November, Ali Siddiqui, president…

From compliance to confidence: Redefining digital transformation in regulated enterprises

Compliance is no longer the brake on digital transformation. It is the steering system that determines how fast and how far innovation can go. In sectors such as healthcare, insurance, manufacturing, and banking, regulation defines how fast and how far innovation can progress. When compliance becomes an architectural principle rather than a procedural constraint, it…

End-to-end encryption is next frontline in governments’ data sovereignty war with hyperscalers

Data residency is no longer enough. As governments lose faith that storing data within their borders, but on someone else’s servers, provides real sovereignty, regulators are demanding something more fundamental: control over the encryption keys for their data. Privatim, a collective of Swiss local government data protection officers, last week called on their employers to…

「量子への備え」が問い直す企業ITの寿命設計―Post-Quantum Cryptography標準化がもたらすパラダイムシフト

しかし、その到来を待つことなく、世界のセキュリティコミュニティはすでに不可逆な転換点を超えている。2020年代前半、米国標準技術局(NIST)によるPost-Quantum Cryptography(PQC:耐量子計算機暗号)の標準化プロセスが最終段階を迎え、新たな連邦標準(FIPS)として結実しようとしているからだ。これは単なる技術仕様の改定ではない。インターネットの黎明期から現代に至るまで、デジタルの信頼を根底で支えてきたRSA暗号や楕円曲線暗号といった「現代暗号の終焉」と、それに代わる「次世代暗号への移行」という、数十年単位の巨大な地殻変動が始まったことを意味している。GoogleやCloudflareといったテクノロジーの巨人はすでにブラウザやネットワークレベルでの実装実験を繰り返しており、大手クラウドベンダーも水面下で対応を進めている。本稿では、まだ見ぬ脅威であるはずの量子計算機対策が、なぜ今、企業の喫緊の課題として浮上しているのか、そしてPQCへの移行が企業ITの長期戦略にどのような変革を迫るのかを、技術的背景と経営的リスクの両面から詳説する。

「Harvest Now, Decrypt Later」の脅威と標準化の加速

一般に、量子コンピュータによる暗号解読の話題が出ると、多くの経営者やIT責任者は「まだ実用化には時間がかかる」「自分が現役の間は関係ない」と捉えがちである。確かに、Shorのアルゴリズムを用いて現在の公開鍵暗号を現実的な時間で破るために必要な、大規模かつ誤り訂正機能を備えた量子コンピュータの実現は、依然として技術的なハードルが高い。しかし、企業が直面しているリスクの実体は、将来の解読能力そのものではなく、現在のデータが未来の時点で危険に晒されるという時間軸のズレにある。 セキュリティ業界で「Harvest Now, Decrypt Later(今収集し、後で解読する)」と呼ばれる攻撃手法への懸念が、各国の標準化を急がせる最大の要因となっている。攻撃者は、たとえ現時点では暗号を解読できなくとも、ターゲットとする企業の通信データや暗号化されたファイルを今のうちに大量に収集・保存しておくことが可能である。そして、将来的に十分な性能を持つ量子コンピュータが登場した瞬間に、過去に蓄積したデータを一気に解読にかけるのだ。このシナリオにおいて、暗号化通信の安全性は「通信している瞬間」だけでは完結しない。その情報が持つ機密性の保持期間と、暗号技術が破られるまでの期間の競走となる。

たとえば、国家機密に関わる外交文書、知的財産となる新薬の研究データ、あるいは個人の遺伝子情報や長期の金融資産記録などは、10年から数十年という極めて長い期間にわたって機密性を維持する必要がある。もし2030年代あるいは2040年代に量子計算機が実用化されると仮定すれば、今日送信されている長期保存データの多くは、すでに危険水域に入っていると言えるだろう。NISTが選定したCRYSTALS-Kyber(鍵共有方式、標準化名称:ML-KEM)やCRYSTALS-Dilithium(署名方式、標準化名称:ML-DSA)といった新しいアルゴリズムは、こうした「未来の脅威による現在のリスク」を封じ込めるための防波堤である。これらは従来の素因数分解や離散対数問題とは異なる、格子暗号などの数学的難問を安全性の根拠としており、量子計算機による攻撃に耐えうると考えられている。すでにこれらのアルゴリズムはFIPS(連邦情報処理標準)として文書化が進み、TLS(Transport Layer Security)やVPN、電子署名といった社会インフラの深層への組み込みが前提となりつつある。つまり、PQCは遠い未来の技術ではなく、すでに実装フェーズに入った「現代の技術」なのである。

アルゴリズムの「リプレース」を超えたシステム基盤への衝撃

PQCへの移行が企業ITにとって極めて厄介なのは、それが単なるソフトウェアのアップデートや、設定ファイルの書き換え程度では済まない可能性が高いという点にある。かつてDESからAESへ、あるいはSHA-1からSHA-2へと暗号アルゴリズムが移行した際も相応の労力を要したが、今回のPQC移行はそれらとは比較にならないほどシステム基盤への物理的・論理的なインパクトが大きい。 その最大の要因は、鍵サイズと署名データサイズの肥大化である。たとえば、鍵共有メカニズムであるML-KEMは、現在主流の楕円曲線暗号(ECDHなど)と比較して、鍵長や暗号文のサイズが桁違いに大きくなる傾向がある。同様に、電子署名に用いられるML-DSAも、従来のRSAやECDSAに比べて署名サイズが増大する。最新の高性能サーバーや太い帯域を持つバックボーン回線であれば、この程度のオーバーヘッドは許容範囲かもしれない。しかし、リソースが厳しく制限された環境においては、この「重さ」が致命的なボトルネックとなり得る。

具体的に影響が懸念されるのは、IoT(Internet of Things)やOT(Operational Technology)の領域である。工場内のセンサー、自動車の制御ユニット、スマートメーター、あるいは医療用埋め込みデバイスなどは、極めて限られたメモリと計算能力で動作しており、通信帯域も狭い場合が多い。ここにサイズの大きなPQCをそのまま導入しようとすれば、パケット分割による遅延の増大、メモリ不足による動作不安定、あるいはハンドシェイク処理によるバッテリー消費の激増といった問題が顕在化する恐れがある。 さらに、既存のプロトコルやデータフォーマットが、これほど大きな鍵や署名を格納することを想定していないケースも多々ある。X.509証明書にPQCの公開鍵や署名を埋め込んだ結果、証明書のサイズが肥大化し、従来のUDPベースの通信でパケットサイズ制限に抵触したり、古いミドルウェアがバッファオーバーフローを起こしたりするリスクも指摘されている。

また、移行期特有の複雑さとして「ハイブリッド暗号」の運用が挙げられる。PQCのアルゴリズムは比較的新しいため、将来的に未知の脆弱性が見つかる可能性を完全には否定できない。そのため、移行期間中は、長年の実績がある従来の楕円曲線暗号と、新しいPQCアルゴリズムを組み合わせて二重に鍵共有を行う「ハイブリッド方式」が推奨されている。これは安全性における保険としては合理的だが、システム運用側から見れば、管理すべき鍵の種類が増え、処理負荷が増大し、トラブルシューティングが複雑化することを意味する。既存のRSAやECDSAのみに対応したレガシー機器と、PQC対応の最新機器が混在する環境を、セキュリティポリシーの一貫性を保ちながらどう統合管理していくのか。企業は、ネットワーク機器の買い替えサイクルやアプリケーションの改修計画を含めた、長期的なロードマップの策定を迫られることになる。

暗号ライフサイクル管理(CLM)と「クリプト・アジリティ」の確立

このような技術的・運用的な課題を前にして、企業はどのような戦略を持つべきなのか。最も重要な視点は、PQC対応を単なる「20XX年問題」のような期限付きの対処療法として捉えるのではなく、組織全体の「暗号の管理能力(クリプト・アジリティ)」を抜本的に強化する機会と捉えることである。 クリプト・アジリティとは、使用している暗号アルゴリズムに危殆化(安全性が損なわれること)や脆弱性が発見された際に、システム全体への影響を最小限に抑えつつ、迅速かつスムーズに新しい安全なアルゴリズムへ切り替える能力を指す。これまで多くの企業システムでは、暗号アルゴリズムは一度実装されれば、システムが廃棄されるまで塩漬けにされることが一般的であった。アプリケーションのコードの中にハードコードされていたり、ハードウェアチップに焼き付けられていたりして、容易に変更できない構造になっていることが多かったのである。PQCへの移行は、こうした硬直的な構造を打破し、暗号部品をいつでも交換可能な「部品」として疎結合化するアーキテクチャへの転換を促すものである。

具体的な第一歩として求められるのは、自社のシステム資産における暗号依存関係の完全な棚卸しである。これを近年では「CBOM(Cryptography Bill of Materials:暗号部品表)」と呼ぶ動きもある。どのサーバーのどのライブラリで、どのバージョンのOpenSSLが動いているのか。独自開発のアプリケーション内で、どのような暗号関数が呼び出されているのか。外部と接続するVPN装置や、クラウドサービスとのAPI連携において、どの暗号スイートが使われているのか。そして何より、それぞれのシステムで扱われているデータの保存期間はどれくらいなのか。これらを網羅的に可視化しない限り、どこから手をつけるべきかの優先順位すら決めることができない。 特に、情報の「寿命」と暗号の「寿命」のギャップが大きい領域こそが、最優先で対策を講じるべきホットスポットとなる。たとえば、法定保存期間が長い文書管理システムや、製品寿命が20年に及ぶインフラ設備の制御システムなどは、汎用的なIT機器よりもはるかに早い段階でPQC対応、あるいはハイブリッド構成への移行計画を立てる必要があるだろう。逆に、数時間で価値を失う一時的なログデータや、短期間で破棄されるキャッシュデータであれば、直ちにコストをかけてPQCを導入する必要性は低いかもしれない。

結局のところ、Post-Quantum時代におけるセキュリティ戦略とは、来るべき量子コンピュータの脅威に怯えることではなく、自社が守るべき情報の価値と時間軸を再定義し、それを守るための技術基盤を「更新可能な状態」に保ち続けるプロセスそのものであると言える。量子技術の進展速度は、一企業のコントロールを超えた外部要因である。しかし、自社のシステムが古い暗号技術と心中するのか、それとも新しい技術を柔軟に受け入れられる体質に変わるのかは、経営の意思決定にかかっている。PQC標準化という波は、暗号という「見えないインフラ」を経営アジェンダへと押し上げ、静的だったセキュリティ運用を動的でしなやかなものへと進化させるための、強力な触媒として機能しているのである。


Read More from This Article: 「量子への備え」が問い直す企業ITの寿命設計―Post-Quantum Cryptography標準化がもたらすパラダイムシフト
Source: News