Cybersicurezza, non solo deepfake: ecco le sfide del 2026 e come affrontarle

Non c’è trend tecnologico che tenga: la cybersicurezza supererà l’AI come priorità dei CIO anche nel 2026. Ovviamente, l’intelligenza artificiale irrompe sul panorama della security perché è sia un’arma di attacco che di difesa, creando nuove sfide per l’anno in arrivo. La complessità è aumentata dalla possibile escalation delle tensioni geopolitiche, che si riverbera sulle…

제품 차별화 가능할까···분석가가 본 ‘인텔 네트워킹 사업부 매각 철회’의 의미

인텔 CEO 립부 탄은 취임 이후 비핵심 기술 정리를 핵심 과제로 추진해 왔으며, NEX는 그중에서도 가장 큰 규모의 매각 대상이었다. NEX 유지 결정에 대해 인텔은 원하는 조건의 거래가 성사되지 않았는지, 혹은 내부적으로 판단이 달라졌는지 밝히지 않았다. 인텔 대변인은 “네트워킹은 인텔 데이터센터 전략의 핵심 요소”라며 “시스템과 플랫폼 중심 기업으로 전환하는 과정에서 이번 결정은 신중하게 내린 전략적…

急成長するネオ・クラウド市場:AI特化型クラウドは新たな選択肢になりうるか

爆発的成長が予想されるネオ・クラウドとは ネオ・クラウドとは、GPU中心の高性能インフラに特化したクラウドプラットフォームを指す。主要なサービスは、GPUaaS(GPU as a Service)、GenAI(生成AI)プラットフォームサービス、そして高容量データセンターの提供だ。 このネオ・クラウド市場、実に驚異的な成長を遂げている。調査会社のSynergy Research Groupによると、2025年第2四半期(4月-6月期)の収益は前年比205%という高い成長率を記録し、50億ドルの大台を突破した。2025年通年の収益は230億ドルに達する見込みという。 急成長の背景には、AIインフラへの高い需要がある。 企業のAI需要は急増しているが、ハイパースケーラーなどのクラウドプロバイダーは「膨大なAI需要に供給を合わせるのに苦労している状況」とSynergyの創業者でチーフアナリストを務めるJeremy Duke氏はコメントしている。 従来、企業がAIワークロードを実行する選択肢は、オンプレミスかパブリッククラウドと大きく二択だった。しかし、それぞれに大きな課題がある。オンプレミスでは、GPUは高価で電力消費が大きく、専門人材の確保や物理的な導入が困難という課題がある。一方、Amazon Web Services(AWS)、Microsoft Azure、Google Cloudといったハイパースケーラーのパブリッククラウドは、幅広いサービスを提供する反面、コストの予測が難しいというリスクがある。業界、ユースケース、組織のルールなどの縛りがある場合は、データ主権の観点からも懸念が残る。 ネオ・クラウドは、この二つ以外の選択肢として登場した。ハイパースケーラーが広範なクラウドサービスを提供するのに対し、ネオ・クラウドはGPUとAIワークロードに特化することで差別化を図る。 IDCのアジア/太平洋 エンタープライズサーバーおよびデータセンターリサーチグループでアソシエイト・リサーチディレクターを務めるCynthia Ho氏は、「ネオ・クラウド事業者はNVIDIAとの契約により迅速にリソースを確保し、高性能なサービスを提供している点でハイパースケーラーよりも優位性がある。AIという成長市場でシェアを獲得しつつある」と述べている。 ネオ・クラウドのメリットは「安心して試せる場所」 ネオ・クラウド市場の主要プレイヤーには、CoreWeave(2017年創業)、Crusoe(2018年創業)、Lambda(2012年創業)、Nebius(Yandexから2024年に誕生)、そしてOpenAI(2015年)など。最後のOpenAIは「ChatGPT」を提供するが、2025年初めに発表したAIインフラの「Stargate」構想により、今後市場の重要なプレイヤーになると見られている。これらに加えて、Applied Digital、DataRobot、Together AIなどの新規参入も続いている。興味深いのは、CoreWeaveのように、暗号マイニング企業が高性能コンピューティングサービスプロバイダーへと転換しているケースが多い点だ。 ここまで挙げたネオ・クラウド事業者は米国や欧州中心に展開している大手だが、ローカルで提供するネオ・クラウドもある。その1社がオーストラリアで展開するSharon AIだ。2024年に創業、この11月に最大50MWの容量拡大契約を発表したばかりだ。 Sharon AIでCTOを務めるDan Mons氏が、Ciscoが11月にオーストラリア・メルボルンで開催したイベントで、Ciscoのオーストラリア&ニュージーランド バイスプレジデント兼ゼネラルマネージャーを務めるStefan Leitl氏と対談した。そこではネオ・クラウドの優位性として、以下が挙がった。 まずコスト優位性だ。ハイパースケーラーと比較して予測可能な価格体系を提供し、予想外の課金のリスクを回避できる。従量課金で予想外の高額請求が発生するリスクを嫌う企業にとって、これは大きなメリットだろう。 2つ目として、専門性の深さである。ネオ・クラウドプロバイダーの多くは、HPC(ハイ・パフォーマンス・コンピューティング)やスーパーコンピューティングの分野で知見を持つ。実際、Mons氏は「AIであまり語られていない秘密」として、「AIインフラで必要な知識の多くは、HPCやスーパーコンピューティングの世界では40年以上前からやってきたこと」と明かす。HPCのバックグラウンドを持つMons氏らにとっては「新しいものではない」と語る。この専門知識があるからこそ、複雑なAIワークロードに対応できるという。 3つ目が、迅速なリソース提供だ。ネオ・クラウドプロバイダーはNvidiaとの契約を通じて、ハイパースケーラーよりも迅速にGPUリソースを確保できる。GPU不足が続く現状において、これは決定的な優位性となる。 これらに加えて、Mons氏が挙げた興味深い優位性が、「安全に失敗できる場所」だ。生成AIプロジェクトの95%がPOCから本番環境に到達しない(MITレポート)などと言われている。「組織が必要とするのは安全に失敗できる場所であり、早く失敗するして学ぶ必要がある。新しい技術を試してみることが重要で、その場所を我々は提供できる」とMons氏。 最後に上がったのが、データ主権への対応だ。「データ主権は多次元的な問題だ」とMons氏は指摘する。データなしにAIはない。通貨とも言われるデータだが、データの種類によっては「データをどこに置くべきか、従うべきコンプライアンス規制はどれか、地域でスキルをどう見つけるか、信頼できるベンダーをどう見つけるかなどを考えなければならない」(Mons氏)。Sharon AIなどローカルで展開するネオ・クラウドはこうした地域特有の要件に精通しており、グローバルなハイパースケーラーとは異なる価値を提供している。 企業がネオ・クラウドに注目すべき理由 実際にネオ・クラウドを利用する企業はどのような企業なのか。 Mons氏は、初期顧客の1社としてVictor Chang心臓研究所を紹介した。従来の研究をGPUベースに移行し、AIを活用しているという。Sharon AIを選択した理由はGPUへのアクセスだけでない。医療研究機関が扱うデータは機密性が高いため、データ主権は極めて重要な課題だ。Sharon AIはオーストラリアの2拠点にインフラを設置しており、データが国外に出ることはないという点が魅力だったようだ。 Victor Chang心臓研究所のような研究機関や大学に加え、AIサービスを開発するスタートアップなどもネオ・クラウドの顧客のようだ。「現時点では、技術的な知識が比較的高い企業が組織が多いようだ」とHo氏。一部地域では、GPUアクセスに制限のある中国企業が顧客というネオ・クラウドもあると言われている。 成長は今後も続きそうだ。Synergyは2030年までにネオ・クラウド市場の規模は約1800億ドルに到達し、年平均成長率69%で拡大すると予測している。GPUaaS/GenAIプラットフォームサービス市場は現在、年間165%という高い成長率を維持しており、ここでネオ・クラウドはかなりのシェアを占めるという。 だが課題はある。Ho氏は稼働率を挙げる。「巨大なインフラ投資が必要だが、実際のところ稼働率はどのぐらいか。利用は追いついていないのではないか」(Ho氏)。ネオ・クラウドという選択肢が定着するためには、ユースケースやメリットをより明確にして訴求する必要もありそうだ。 気になる日本ではどうなのか? IDCでシニアリサーチマネージャーとして日本国内のエンタープライズインフラストラクチャ市場を担当する加藤慎也氏は、日本では「ネオ・クラウド」と大々的に名乗る事業者は登場していないと認めながら、経済産業省の「クラウドプログラム」などによりGPUの大規模投資が発生しており、今後GPUクラウドサービスが活況となる可能性を示唆した。実際に「GPUをフルに活用できる環境として最適化されており、パフォーマンスのメリットは大きい」と話す。 現時点での用途は研究開発や学術研究などこれまでHPCを用いていたユースケースがわかりやすいものの、企業も動向に注目しておく必要はありそうだ。日本でもネオ・クラウドサービスが本格化するかという提供者側の課題はあるものの、「HPCおよびAI領域において、すでにGPUを利用していたり大規模な需要があったりする企業は、クラウドにある効率的・効果的なインフラという選択肢になる可能性はある」と加藤氏。「ネオ・クラウドの重要な特徴にコストとスピードがある。AIを活用する分野で、開発力で競争優位性を測るためにも選択肢の1つになりうると注目しておいて良いだろう」と続けた。 Read More from This Article:…

Meet the MAESTRO: AI agents are ending multi-cloud vendor lock-in

For today’s CIO, the multi-cloud landscape, extending across hyperscalers, enterprise platforms, and AI-native cloud providers, is a non-negotiable strategy for business resilience and innovation velocity. Yet, this very flexibility can become a liability, often leading to fragmented automation, vendor sprawl, and costly data silos. The next frontier in cloud optimization isn’t better scripting—it’s Agentic AI systems. These autonomous, goal-driven…

エンジニア視点から見たLLMエージェント実装入門──フレームワーク選定からプロトタイプ構築まで

アーキテクチャの全体像を押さえる

最初の一歩として重要なのは、LLMエージェントシステムの基本的なアーキテクチャを頭の中で描けるようにすることです。多くの場合、中核にはLLM推論APIがあり、その周囲にプロンプトテンプレート、ツール群、メモリストア、RAG用のベクトルデータベース、ログやモニタリングの仕組みが配置されます。エージェント自体は、これらを組み合わせた「オーケストレーション層」として実装され、観察・思考・行動のループを管理します。

クライアントからのリクエストは、まずアプリケーションサーバーを通じてエージェントに渡されます。エージェントは、現在のコンテキストとメモリをもとにプロンプトを構築し、LLM APIを呼び出します。LLMから返ってきた出力のうち、ツール呼び出しが含まれている部分はパースされ、対応するツール関数や外部APIが実行されます。その結果が再びエージェントに戻り、次のステップのプロンプトに組み込まれ、ループが続きます。

RAGを組み込む場合は、エージェントが必要に応じて検索ツールを呼び出し、ユーザーの質問やタスクに関連するドキュメントをベクトルデータベースから取得します。取得したテキストは、LLMのコンテキストに組み込まれ、事実ベースの回答や判断を支えます。メモリストアは、ユーザーごとの長期的な情報やタスクの中間状態を保持し、次回以降のインタラクションでも活用されます。

このような構造を意識することで、「どこを先に作り、どこを後から差し替え可能に保つか」という設計判断がしやすくなります。たとえば、最初は単純なRDBMSをメモリストアとして使い、後から専用のベクトルデータベースやキャッシュ層を追加するといった段階的なアプローチが可能になります。

フレームワーク選定と小さなプロトタイプ

実装手段としては、各社やコミュニティが提供するエージェントフレームワークやワークフローエンジンを利用する方法と、自前で薄いオーケストレーションレイヤーを書く方法があります。どちらを選ぶにせよ、「最初から完璧な基盤を作ろうとしない」ことが成功の鍵です。

フレームワークを選ぶ際には、対応しているLLMプロバイダ、ツール連携のしやすさ、ステート管理の仕組み、ログやモニタリングの機能などを確認します。また、コードの読みやすさや拡張のしやすさも重要です。エージェントの振る舞いを細かく制御したくなる場面は必ず訪れるため、ブラックボックスに見えるフレームワークよりも、中身を理解しやすいものを選ぶ方が長期的には安全です。

最初のプロトタイプとしては、一つの明確なユースケースに特化したエージェントを作るのがよいでしょう。たとえば、ウェブ検索と社内RAGを組み合わせてレポート草案を作るリサーチエージェントや、社内のFAQを参照しながら従業員の問い合わせに答えるヘルプデスクエージェントなどです。この段階では、認証や複雑な権限管理、スケーリング戦略などは最低限にとどめ、とにかくエージェントの「手触り」をチームで共有することが目的になります。

プロトタイプの中では、ツールを二、三個に絞り、メモリもセッション内の簡易なものに留めると実装が楽になります。その代わり、ログを丁寧に残し、どのようなプロンプトがどのような出力を生んだのか、ツールの呼び出しが成功したのか失敗したのかを可視化する仕組みを整えておくと、後の改善に役立ちます。

開発プロセスとテスト・評価の工夫

LLMエージェント開発でエンジニアが戸惑いやすいのが、テストの難しさです。同じ入力に対して同じ応答が返らないことも多く、従来の単体テストやスナップショットテストの手法をそのまま適用することは困難です。そこで重要になるのが、シナリオベースの評価と、自動評価と人手評価の組み合わせです。

具体的には、典型的なタスクシナリオを複数用意し、それぞれについて期待される振る舞いの条件を定義します。たとえば「この問い合わせに対しては、社内規程の該当箇所を引用しつつ、三つの選択肢を提示する」といったレベルです。エージェントを定期的にこれらのシナリオに対して実行し、LLMを用いた自動評価やルールベースのチェッカーで合否を判定します。これに加えて、重要なシナリオについては人手によるレビューを行い、主観的な品質も確認します。

開発プロセスとしては、プロンプトやツール構成を頻繁に変更できるようにしつつ、変更の影響範囲を把握するための評価ジョブをCIに組み込むとよいでしょう。エージェントの設定を変更するたびに、シナリオ評価を走らせ、重要指標の変化を可視化します。これにより、「一つのユースケースを改善したつもりが、別のユースケースを劣化させてしまった」といった事態を早期に検知できます。

最後に、運用フェーズでは、ユーザーのフィードバックとログ分析が重要な情報源になります。ユーザーに簡単に「この回答は役に立ったか」「どこが問題だったか」を送信してもらえるインターフェースを用意し、その情報をログと紐づけて分析することで、改善の優先順位を決めることができます。エンジニアは、モデルやプロンプトの調整だけでなく、ツールの追加・削除、メモリ戦略の見直し、エラー処理の強化など、システム全体を対象とした改善を継続的に行うことになります。

LLMエージェント実装は、単なるAPI呼び出しのラッパー作りではなく、推論システム、ワークフロー、データ基盤、UXが交差する総合格闘技のような領域です。しかし、小さなプロトタイプから始め、アーキテクチャの骨格を意識しながら徐々に拡張していけば、現実的なコストで本番運用に耐えうるエージェントを育てていくことができます。


Read More from This Article: エンジニア視点から見たLLMエージェント実装入門──フレームワーク選定からプロトタイプ構築まで
Source: News

安全なLLMエージェントを作るためのリスクとガバナンス──幻覚・セキュリティ・法的責任

LLMエージェント特有のリスクの全体像

まず押さえておきたいのは、LLMエージェントのリスクは、単一の技術的問題ではなく、複数のレイヤーにまたがっているという点です。ひとつは、LLMそのものが持つ幻覚の問題です。もっともらしいが誤った情報を自信満々に語ってしまう振る舞いはよく知られていますが、エージェントとして外部ツールにアクセスする場合、この誤りが具体的なアクションにつながってしまう可能性があります。存在しないAPIエンドポイントを呼び出そうとしたり、誤った条件でデータを抽出したりすることは、業務プロセスに直接的な影響を与えます。

次に、セキュリティとプライバシーのリスクがあります。エージェントは、ユーザーの入力内容だけでなく、社内の各種システムやドキュメントにアクセスすることが多く、その過程で機密情報を扱います。これらの情報がモデル提供者やログシステムを通じて外部に送信される場合、情報管理上のリスクが生じます。また、エージェントが攻撃者に悪用される可能性も無視できません。たとえば、プロンプトインジェクション攻撃によってエージェントの行動方針が書き換えられ、意図しない情報送信や操作が行われるといったシナリオです。

さらに、法的責任の問題もあります。エージェントが生成した内容や実行したアクションが法令違反や契約違反につながった場合、誰が責任を負うのか。モデル提供者か、エージェントを組み込んだサービス提供者か、それとも最終的に利用したユーザーか。この問いに明確な答えが出ていない領域も多く、ガバナンス設計の難しさを増しています。

ガードレール設計と権限管理の考え方

こうしたリスクに対処するためには、技術的・運用的なガードレールを多層的に設計する必要があります。その中心にあるのが権限管理です。エージェントに与える権限は、原則として必要最小限にとどめ、「まずは読み取り専用から始める」ことが安全なアプローチです。たとえば、CRMシステムとの連携では、最初は顧客情報の参照のみに絞り、一定期間問題がないことを確認したうえで、レコード更新の権限を限定的に解放していくといった段階的な設計が考えられます。

また、危険度の高いアクションについては、必ず人間の承認を挟むワークフローにすることが重要です。高額な支払い指示、契約条件の変更、対外的な重要文書の送付などは、エージェントがドラフトや提案を行うことはあっても、最終実行は人間が行う形にすべきです。この「人間の承認ステップ」をエージェントのフローの中に明示的に組み込むことで、誤動作の影響を限定できます。

プロンプトインジェクションやデータ漏えいへの対策としては、入力と出力のフィルタリングも欠かせません。ユーザー入力や外部サイトから取得したテキストをそのままシステムプロンプトに取り込まない、外部に送信してはならない情報が出力に含まれていないかをチェックする、特定のキーワードやパターンが検出された場合には処理を停止してアラートを上げるといった仕組みが有効です。これらは、モデルの外側のアプリケーションレイヤーで実装できることが多く、ガードレールの重要な一部になります。

モニタリングと責任の明確化によるガバナンス

ガードレールを設計したとしても、一度導入したエージェントをそのまま放置してよいわけではありません。エージェントは学習済みモデルの上に成り立っているとはいえ、その挙動はコンテキストや環境によって変化します。したがって、運用開始後も継続的なモニタリングと改善が必要です。

モニタリングの対象には、成功したタスクと失敗したタスクの比率、ユーザーによる修正頻度、エラーや例外の発生パターン、セキュリティ上の疑義のある挙動などが含まれます。特に重要なのは、「重大事故につながる手前の未遂事例」を早期に検知することです。たとえば、エージェントが禁止されている外部ドメインへのアクセスを試みたが、ガードレールによりブロックされたというログは、設計の改善余地を示す貴重なシグナルです。

また、責任の明確化もガバナンスの一部です。組織内部においては、エージェントの設計と運用について最終責任を負うオーナーを明示し、変更管理やインシデント対応のプロセスを定義しておく必要があります。外部向けには、利用規約やプライバシーポリシーにおいて、エージェントの機能と限界、ユーザー側に求められる確認義務などを分かりやすく説明することが求められます。

安全なLLMエージェントとは、リスクがゼロのエージェントではなく、リスクが可視化され、コントロール可能な形で運用されているエージェントです。幻覚や誤判断を完全に排除することはできない以上、それらを前提として、どこで止め、どこで人間につなぐのか、問題が発生したときにどう検知し、どう学びに変えるのかというガバナンスの枠組みこそが、設計と同じくらい重要になっていきます。


Read More from This Article: 安全なLLMエージェントを作るためのリスクとガバナンス──幻覚・セキュリティ・法的責任
Source: News

CIOs shift from ‘cloud-first’ to ‘cloud-smart’

Common wisdom has long held that a cloud-first approach will gain CIOs benefits such as agility, scalability, and cost-efficiency for their applications and workloads. While cloud remains most IT leaders’ preferred infrastructure platform, many are rethinking their cloud strategies, pivoting from cloud-first to “cloud-smart” by choosing the best approach for specific workloads rather than just…