From cloud-native to AI-native: Why your infrastructure must be rebuilt for intelligence

The cloud-native ceiling For the past decade, the cloud-native paradigm — defined by containers, microservices and DevOps agility — served as the undisputed architecture of speed. As CIOs, you successfully used it to decouple monoliths, accelerate release cycles and scale applications on demand. But today, we face a new inflection point. The major cloud providers are no…

Reset the economics of enterprise IT with agentic AI

At a time when many business leaders are starting to scrutinize artificial intelligence (AI) spending, BMC Helix is focused on how to deliver measurable, meaningful cost savings with AI agents that streamline ServiceOps, the convergence of service management and operations management. At the BMC Helix Roadshow in New York City in November, Ali Siddiqui, president…

From compliance to confidence: Redefining digital transformation in regulated enterprises

Compliance is no longer the brake on digital transformation. It is the steering system that determines how fast and how far innovation can go. In sectors such as healthcare, insurance, manufacturing, and banking, regulation defines how fast and how far innovation can progress. When compliance becomes an architectural principle rather than a procedural constraint, it…

End-to-end encryption is next frontline in governments’ data sovereignty war with hyperscalers

Data residency is no longer enough. As governments lose faith that storing data within their borders, but on someone else’s servers, provides real sovereignty, regulators are demanding something more fundamental: control over the encryption keys for their data. Privatim, a collective of Swiss local government data protection officers, last week called on their employers to…

「量子への備え」が問い直す企業ITの寿命設計―Post-Quantum Cryptography標準化がもたらすパラダイムシフト

しかし、その到来を待つことなく、世界のセキュリティコミュニティはすでに不可逆な転換点を超えている。2020年代前半、米国標準技術局(NIST)によるPost-Quantum Cryptography(PQC:耐量子計算機暗号)の標準化プロセスが最終段階を迎え、新たな連邦標準(FIPS)として結実しようとしているからだ。これは単なる技術仕様の改定ではない。インターネットの黎明期から現代に至るまで、デジタルの信頼を根底で支えてきたRSA暗号や楕円曲線暗号といった「現代暗号の終焉」と、それに代わる「次世代暗号への移行」という、数十年単位の巨大な地殻変動が始まったことを意味している。GoogleやCloudflareといったテクノロジーの巨人はすでにブラウザやネットワークレベルでの実装実験を繰り返しており、大手クラウドベンダーも水面下で対応を進めている。本稿では、まだ見ぬ脅威であるはずの量子計算機対策が、なぜ今、企業の喫緊の課題として浮上しているのか、そしてPQCへの移行が企業ITの長期戦略にどのような変革を迫るのかを、技術的背景と経営的リスクの両面から詳説する。

「Harvest Now, Decrypt Later」の脅威と標準化の加速

一般に、量子コンピュータによる暗号解読の話題が出ると、多くの経営者やIT責任者は「まだ実用化には時間がかかる」「自分が現役の間は関係ない」と捉えがちである。確かに、Shorのアルゴリズムを用いて現在の公開鍵暗号を現実的な時間で破るために必要な、大規模かつ誤り訂正機能を備えた量子コンピュータの実現は、依然として技術的なハードルが高い。しかし、企業が直面しているリスクの実体は、将来の解読能力そのものではなく、現在のデータが未来の時点で危険に晒されるという時間軸のズレにある。 セキュリティ業界で「Harvest Now, Decrypt Later(今収集し、後で解読する)」と呼ばれる攻撃手法への懸念が、各国の標準化を急がせる最大の要因となっている。攻撃者は、たとえ現時点では暗号を解読できなくとも、ターゲットとする企業の通信データや暗号化されたファイルを今のうちに大量に収集・保存しておくことが可能である。そして、将来的に十分な性能を持つ量子コンピュータが登場した瞬間に、過去に蓄積したデータを一気に解読にかけるのだ。このシナリオにおいて、暗号化通信の安全性は「通信している瞬間」だけでは完結しない。その情報が持つ機密性の保持期間と、暗号技術が破られるまでの期間の競走となる。

たとえば、国家機密に関わる外交文書、知的財産となる新薬の研究データ、あるいは個人の遺伝子情報や長期の金融資産記録などは、10年から数十年という極めて長い期間にわたって機密性を維持する必要がある。もし2030年代あるいは2040年代に量子計算機が実用化されると仮定すれば、今日送信されている長期保存データの多くは、すでに危険水域に入っていると言えるだろう。NISTが選定したCRYSTALS-Kyber(鍵共有方式、標準化名称:ML-KEM)やCRYSTALS-Dilithium(署名方式、標準化名称:ML-DSA)といった新しいアルゴリズムは、こうした「未来の脅威による現在のリスク」を封じ込めるための防波堤である。これらは従来の素因数分解や離散対数問題とは異なる、格子暗号などの数学的難問を安全性の根拠としており、量子計算機による攻撃に耐えうると考えられている。すでにこれらのアルゴリズムはFIPS(連邦情報処理標準)として文書化が進み、TLS(Transport Layer Security)やVPN、電子署名といった社会インフラの深層への組み込みが前提となりつつある。つまり、PQCは遠い未来の技術ではなく、すでに実装フェーズに入った「現代の技術」なのである。

アルゴリズムの「リプレース」を超えたシステム基盤への衝撃

PQCへの移行が企業ITにとって極めて厄介なのは、それが単なるソフトウェアのアップデートや、設定ファイルの書き換え程度では済まない可能性が高いという点にある。かつてDESからAESへ、あるいはSHA-1からSHA-2へと暗号アルゴリズムが移行した際も相応の労力を要したが、今回のPQC移行はそれらとは比較にならないほどシステム基盤への物理的・論理的なインパクトが大きい。 その最大の要因は、鍵サイズと署名データサイズの肥大化である。たとえば、鍵共有メカニズムであるML-KEMは、現在主流の楕円曲線暗号(ECDHなど)と比較して、鍵長や暗号文のサイズが桁違いに大きくなる傾向がある。同様に、電子署名に用いられるML-DSAも、従来のRSAやECDSAに比べて署名サイズが増大する。最新の高性能サーバーや太い帯域を持つバックボーン回線であれば、この程度のオーバーヘッドは許容範囲かもしれない。しかし、リソースが厳しく制限された環境においては、この「重さ」が致命的なボトルネックとなり得る。

具体的に影響が懸念されるのは、IoT(Internet of Things)やOT(Operational Technology)の領域である。工場内のセンサー、自動車の制御ユニット、スマートメーター、あるいは医療用埋め込みデバイスなどは、極めて限られたメモリと計算能力で動作しており、通信帯域も狭い場合が多い。ここにサイズの大きなPQCをそのまま導入しようとすれば、パケット分割による遅延の増大、メモリ不足による動作不安定、あるいはハンドシェイク処理によるバッテリー消費の激増といった問題が顕在化する恐れがある。 さらに、既存のプロトコルやデータフォーマットが、これほど大きな鍵や署名を格納することを想定していないケースも多々ある。X.509証明書にPQCの公開鍵や署名を埋め込んだ結果、証明書のサイズが肥大化し、従来のUDPベースの通信でパケットサイズ制限に抵触したり、古いミドルウェアがバッファオーバーフローを起こしたりするリスクも指摘されている。

また、移行期特有の複雑さとして「ハイブリッド暗号」の運用が挙げられる。PQCのアルゴリズムは比較的新しいため、将来的に未知の脆弱性が見つかる可能性を完全には否定できない。そのため、移行期間中は、長年の実績がある従来の楕円曲線暗号と、新しいPQCアルゴリズムを組み合わせて二重に鍵共有を行う「ハイブリッド方式」が推奨されている。これは安全性における保険としては合理的だが、システム運用側から見れば、管理すべき鍵の種類が増え、処理負荷が増大し、トラブルシューティングが複雑化することを意味する。既存のRSAやECDSAのみに対応したレガシー機器と、PQC対応の最新機器が混在する環境を、セキュリティポリシーの一貫性を保ちながらどう統合管理していくのか。企業は、ネットワーク機器の買い替えサイクルやアプリケーションの改修計画を含めた、長期的なロードマップの策定を迫られることになる。

暗号ライフサイクル管理(CLM)と「クリプト・アジリティ」の確立

このような技術的・運用的な課題を前にして、企業はどのような戦略を持つべきなのか。最も重要な視点は、PQC対応を単なる「20XX年問題」のような期限付きの対処療法として捉えるのではなく、組織全体の「暗号の管理能力(クリプト・アジリティ)」を抜本的に強化する機会と捉えることである。 クリプト・アジリティとは、使用している暗号アルゴリズムに危殆化(安全性が損なわれること)や脆弱性が発見された際に、システム全体への影響を最小限に抑えつつ、迅速かつスムーズに新しい安全なアルゴリズムへ切り替える能力を指す。これまで多くの企業システムでは、暗号アルゴリズムは一度実装されれば、システムが廃棄されるまで塩漬けにされることが一般的であった。アプリケーションのコードの中にハードコードされていたり、ハードウェアチップに焼き付けられていたりして、容易に変更できない構造になっていることが多かったのである。PQCへの移行は、こうした硬直的な構造を打破し、暗号部品をいつでも交換可能な「部品」として疎結合化するアーキテクチャへの転換を促すものである。

具体的な第一歩として求められるのは、自社のシステム資産における暗号依存関係の完全な棚卸しである。これを近年では「CBOM(Cryptography Bill of Materials:暗号部品表)」と呼ぶ動きもある。どのサーバーのどのライブラリで、どのバージョンのOpenSSLが動いているのか。独自開発のアプリケーション内で、どのような暗号関数が呼び出されているのか。外部と接続するVPN装置や、クラウドサービスとのAPI連携において、どの暗号スイートが使われているのか。そして何より、それぞれのシステムで扱われているデータの保存期間はどれくらいなのか。これらを網羅的に可視化しない限り、どこから手をつけるべきかの優先順位すら決めることができない。 特に、情報の「寿命」と暗号の「寿命」のギャップが大きい領域こそが、最優先で対策を講じるべきホットスポットとなる。たとえば、法定保存期間が長い文書管理システムや、製品寿命が20年に及ぶインフラ設備の制御システムなどは、汎用的なIT機器よりもはるかに早い段階でPQC対応、あるいはハイブリッド構成への移行計画を立てる必要があるだろう。逆に、数時間で価値を失う一時的なログデータや、短期間で破棄されるキャッシュデータであれば、直ちにコストをかけてPQCを導入する必要性は低いかもしれない。

結局のところ、Post-Quantum時代におけるセキュリティ戦略とは、来るべき量子コンピュータの脅威に怯えることではなく、自社が守るべき情報の価値と時間軸を再定義し、それを守るための技術基盤を「更新可能な状態」に保ち続けるプロセスそのものであると言える。量子技術の進展速度は、一企業のコントロールを超えた外部要因である。しかし、自社のシステムが古い暗号技術と心中するのか、それとも新しい技術を柔軟に受け入れられる体質に変わるのかは、経営の意思決定にかかっている。PQC標準化という波は、暗号という「見えないインフラ」を経営アジェンダへと押し上げ、静的だったセキュリティ運用を動的でしなやかなものへと進化させるための、強力な触媒として機能しているのである。


Read More from This Article: 「量子への備え」が問い直す企業ITの寿命設計―Post-Quantum Cryptography標準化がもたらすパラダイムシフト
Source: News

LLMエージェントとは何か──ChatGPT以後の“動くAI”の基本概念

対話するAIから「目的を達成するAI」へ

多くの人にとって、LLMとの最初の接点は、ブラウザーやアプリを通じて行うチャット体験でした。質問を投げかけると、自然な文章で答えが返ってくる。その体験の延長線上にあるのがLLMエージェントですが、決定的な違いは「目的達成の主体」として設計されているかどうかという点です。

通常のチャットボットは、ユーザーからのプロンプトに対する一回ごとの応答に最適化されています。それに対してエージェントは、ユーザーが「ゴール」や「やってほしい仕事」を伝えると、その達成のために必要なサブタスクを自分で分解し、外部ツールを呼び出し、途中経過を踏まえて計画を修正しながら、最終的な成果物にたどり着こうとします。人間のアシスタントが、資料の調査からドラフト作成、修正提案まで一連の仕事を回してくれるのに近いイメージです。

ここでポイントになるのは、エージェントが「状態」を持つことです。単発のやり取りではなく、ある程度のスパンで進行するタスクの途中状況、すでに取得した情報、試行錯誤の履歴といったものを踏まえながら、次の行動を選択していきます。対話AIが「高度な検索窓」であるのに比べ、エージェントは「半自律的なプロジェクト・マネージャー」に近い存在だと捉えると分かりやすくなります。

LLMエージェントを構成する基本コンポーネント

LLMエージェントは、単に大規模言語モデルだけで成り立っているわけではありません。大雑把に言えば、頭脳としてのLLMに加えて、現実世界とつなぐためのインターフェースや、記憶・計画の仕組みが組み合わさって動いています。

中核にあるのは当然ながらLLMです。自然言語を理解し、計画を立て、次の行動を文章として生成する役割を担います。しかしLLM単体では、ブラウザーを開いたり、表計算ソフトでデータを処理したり、社内システムから情報を取得したりすることはできません。そこで登場するのがツール呼び出し機能です。LLMが「今このAPIを呼び出すべきだ」「このデータベースを検索すべきだ」と判断したとき、その指示をもとに外部の関数やサービスが実際の処理を実行し、結果をふたたびLLMに返します。

もう一つ重要なのがメモリです。単純なチャットであれば、数ターン分の文脈を保持すれば十分ですが、エージェントは数十分から数時間、場合によってはもっと長いスパンでタスクを追いかけます。そのため、取得した情報や中間成果物を整理して保存し、必要なときに取り出せる仕組みが必要になります。エピソード的な会話履歴を保持する短期メモリ、プロジェクトをまたいで再利用する長期メモリ、ユーザーの好みやワークフローに関する知識を蓄積するプロファイル的メモリなど、いくつかの層に分けて設計されることも増えています。

そして最後に、全体の流れを組み立てるプランニングの機構があります。目標から逆算してタスクを分割し、優先順位をつけ、実行順序を決め、途中で状況が変われば計画を修正する。こうしたプロセスは、人間のプロジェクトマネジメントのごく自然な作法ですが、LLMにとっても同様に重要です。最近のエージェントフレームワークでは、LLMに自分の「思考過程」を言語化させることで、このプランニング能力を引き出す設計がよく用いられています。

RAGや従来の自動化との違いと補完関係

実務の現場では、LLMエージェントは、すでに広がりつつあるRAG(Retrieval-Augmented Generation)や既存のワークフロー自動化ツールとどう関係するのか、という疑問をよく生みます。RAGは、社内文書やナレッジベースから関連情報を検索し、それを踏まえて回答を生成する仕組みです。つまり「どの情報を参照するか」を賢く選べる検索付きのチャットボットだと言えます。

これに対してエージェントは、RAGを含めたさまざまなツールを統合し、「何をすべきか」から考えることができます。例えば、ある製品についての社内ドキュメントを整理して顧客向けの提案書を作るタスクを考えてみましょう。RAG単体であれば、関連資料を探して要約するところまでが主な役割ですが、エージェントはそこからさらに、提案書の構成案を作り、必要な図表を生成し、過去の提案事例を引き合いに出しながら、最終的なドラフトを仕上げるところまでを担えます。その過程では、RAGによる検索や、表計算ソフトの操作、テンプレート管理システムへのアクセスなど、複数のツールが組み合わされていきます。

既存のRPAやワークフロー自動化ツールとの関係も同様です。ルールがはっきり定義され、例外が少ない処理は、従来型の自動化の方が安定して動作します。一方で、入力の揺れや例外処理が多く、人間の判断が必要だった領域こそが、エージェントの出番です。つまり、ルールベースの自動化とLLMエージェントは、競合というより「硬い自動化」と「柔らかい自動化」として補完関係にあると言えます。

現在の限界と、数年先に見えている風景

こうした魅力的な特徴を持つエージェントですが、現時点ではいくつかの本質的な限界も抱えています。第一に、LLM自体の幻覚問題が完全には解決していないことです。エージェントが外部のツールやデータにアクセスすることで、事実ベースの判断は改善しますが、それでもなお、存在しないAPIを「ある」と思い込んだり、仕様を誤解したりするリスクは残ります。第二に、長期のタスクにおける一貫性の維持が難しい点です。セッションをまたぐタスクや、複数の担当者が介在するワークフローの中で、エージェントが「前回の文脈」を適切に再構成できるようにするには、メモリやログ管理のさらなる工夫が不可欠です。

また、責任の所在も重要なテーマです。エージェントが勝手にメールを送り、誤った契約条件を提示してしまったとき、責任は誰が負うのか。現実的には、権限を段階的に制限し、人間による最終確認を必須にするなど、ガバナンスの枠組みを組み合わせて運用する必要があります。

それでも、数年先を見渡すと、エージェントがビジネスや生活のさまざまな場面で「当たり前のインフラ」になっている光景は十分に想像できます。メール返信やスケジュール調整といった個人レベルの作業から、レポート作成、調達業務、顧客対応の一部まで、複数のエージェントが分担しながら裏側で動き続ける世界です。人間は細かい操作から解放され、問いを立て、判断し、方向性を決めることにより多くの時間を割くようになるでしょう。

LLMエージェントとは、単なる「賢いチャットボット」ではなく、情報システムと人間の仕事の関係そのものを組み替えていく存在です。その全体像を理解することは、自分の仕事や組織をどう変えていくかを考える出発点でもあります。


Read More from This Article: LLMエージェントとは何か──ChatGPT以後の“動くAI”の基本概念
Source: News

LLMエージェントの内部構造を分解する──プランニング・ツール・メモリの役割

観察・思考・行動のループとしてのエージェント

LLMエージェントを理解するうえで役に立つのが、観察、思考、行動という三つのステップを繰り返す存在だと捉える視点です。エージェントは、まず現在の状況を「観察」します。ここには、ユーザーからの最新の指示、これまでの会話履歴、ツールから返ってきた結果、メモリに保存されている過去の情報などが含まれます。それらを入力として、LLMが「今何が起きているのか」を言語的に再構成します。

次に、その状況を踏まえて「思考」を行います。ゴールは何か、現在の進捗はどこまでか、この先にどんなサブタスクが必要か、どのツールを呼び出すべきか、あるいはユーザーに追加の質問を投げかけるべきかといったことを、LLMが内部で推論します。最近のエージェント設計では、この思考過程そのものを半ば明示的に文章として出力させることで、より良い計画を立てさせる工夫もよく採用されています。

そして最後に「行動」です。ここでは、具体的なAPI呼び出しの指示や、ユーザーへの応答、外部システムへの書き込みといったアクションが選択されます。ツール呼び出しの形式で行動を表現することで、LLMは「このAPIをこういう引数で呼んでほしい」という意図をホスト側に伝えます。実際のAPI呼び出し自体は、LLMの外側にあるランタイムが担い、その結果を再び観察フェーズに戻してループが続きます。

この観察・思考・行動のサイクルが、エージェントの「生命活動」のようなものです。単発の質問応答ではなく、複数回のループを通じて段階的にゴールへ近づいていく姿が、エージェントならではの振る舞いを生み出します。

ツール呼び出しがエージェントに与える「手足」

LLM単体は、テキストの範囲では非常に強力ですが、現実世界のデータやシステムに直接アクセスする能力は持っていません。そこで重要になるのがツール呼び出しの仕組みです。ツールとは、検索エンジンやデータベースクエリ、SaaSのAPI、コード実行環境、メール送信機能など、外部の機能を抽象化したものです。

エージェントにとってツールは、人間で言えば手足や感覚器官に近い存在です。ウェブ検索ツールを使うことで最新の情報を取得でき、社内RAGツールを使うことで自社のナレッジベースにアクセスでき、カレンダーツールを使うことで予定の確認や調整を行えます。LLMは、「今は情報が足りないから検索した方が良い」「この数値は計算が必要だからコード実行ツールを使おう」といった判断を文章として出力し、その意図に応じてツールが発火します。

興味深いのは、ツール呼び出しの設計次第で、エージェントの能力が大きく変わることです。たとえば、あるCRMに対して読み取り専用のAPIツールしか与えられていなければ、エージェントは情報閲覧とレポート作成しかできません。しかし、顧客レコードの更新やメール送信の権限を持つツールを与えれば、フォローアップの自動化やステージ更新など、より攻めの役割を担えるようになります。その反面、誤操作のリスクも高まります。どこまでの権限をどのツールに与えるかは、エージェント設計におけるガバナンスそのものと言えます。

ツールはまた、エージェントの「弱点」を補う役割も果たします。長い数式の計算や、膨大なデータを対象とする集計処理は、LLMに任せるよりも、専用のコード実行環境やデータベースに任せた方が正確で高速です。LLMは、何をどう計算してほしいかを自然言語からSQLやコードに変換し、その結果だけを受け取って次の思考に活かすことで、自身の限界を乗り越えていきます。

メモリとマルチエージェントがもたらす「継続性」と「役割分担」

エージェントが現実的なタスクで力を発揮するためには、記憶の扱いが欠かせません。一回のセッション内での短期的な記憶だけでなく、別の日の会話や過去のプロジェクトから得た知見を活かせるかどうかが、実用性を大きく左右します。

短期メモリは、主に当該タスクに関わる会話履歴や中間結果を保持します。問題は、LLMのコンテキスト長には限界があることで、長期タスクになるとすべてをそのまま詰め込むわけにはいきません。そこで、重要度の高い情報だけを要約して保持したり、トピックごとに分割して外部ストアに保存したりする工夫が必要になります。長期メモリは、ユーザー固有の好みや過去の選好、以前に成功した解決策などをストックし、新しいタスクに対する初期提案の質を高める役割を持ちます。

さらに進んだ設計として、複数のエージェントを役割分担させるマルチエージェント構成があります。一つの巨大なエージェントに何でもかんでも押し込むのではなく、情報収集特化のエージェント、プランニングに特化したエージェント、文章生成に特化したエージェントなどを用意し、それぞれがメッセージをやり取りしながら仕事を進めます。その中心には、全体の進行を管理するオーケストレーターが置かれ、各エージェントの出力を評価しつつ、次に誰に何をさせるかを決めていきます。

このような構造にすることで、システムのモジュール性が高まり、個々のエージェントを独立して改善しやすくなります。一方で、エージェント同士の対話が冗長になってしまったり、責任の所在が分かりにくくなったりする課題もあります。内部構造をどう切り分け、どのレベルまでをユーザーや開発者に見えるようにするかは、今まさに試行錯誤が続いている領域です。

エージェントの内部構造を理解することは、単に技術的な興味を満たすだけではありません。どこで誤りが生まれやすいのか、どの部分に安全装置を入れるべきか、どこを改善すればユーザー体験が向上するのかを見極めるための基盤にもなります。ブラックボックスに見えるエージェントの中で、観察・思考・行動、ツール、メモリ、多数のエージェントたちがどのように協奏しているのか。そのイメージを持つことが、次の一歩の設計につながっていきます。


Read More from This Article: LLMエージェントの内部構造を分解する──プランニング・ツール・メモリの役割
Source: News