일문일답 | 美 육군 통신장교 출신 CSO, 보험 업계에서 사이버 위협에 맞서다

미국 육군 통신장교로 24년간 복무한 예편 대령 배리 헨슬리의 군 경력에서 IT 보안은 매우 중요한 역할을 차지했다. 헨슬리는 주둔지에 있든, 전투에 투입된 병력을 지원하든 관계없이 ‘군 네트워크의 설계와 구축’을 책임지는 역할을 맡는 경우가 많았다. 헨슬리는 파운드리 산하 언론사 CSO와의 인터뷰에서 “군 경력의 정점은 전 세계 군 통신 네트워크를 운용하고 방어하는 것을 최종 임무로 하는 정예…

오픈텍스트, 새 CEO에 아이만 안톤 임명

오픈텍스트에 따르면 신임 CEO인 안톤은 IT 산업에서 30년 이상의 글로벌 기술 리더십, 운영 규율 및 전환 경험을 보유하고 있다. IBM에서 오랜 경력을 쌓았으며, 특히 IBM 아메리카 사장으로서 미국, 캐나다, 라틴 아메리카 등 크고 복잡한 사업 부문을 이끌었다. 오픈텍스트는 그가 재임 기간 동안 클라우드, 인프라, 사이버보안, 인지 솔루션, 디지털 현대화 분야에서 중요한 발전을 이끌었다고 평가했다.

오픈텍스트 집행 의장 겸 최고전략책임자 P. 토마스 젠킨스는 “오픈텍스트 이사회는 아이만을 맞이하게 되어 매우 기쁘며, 그가 핵심 엔터프라이즈 정보 관리 사업과 에이전틱 AI 훈련 비즈니스를 통해 수익을 성장시키고 주주 가치를 높이는 데 가장 적합한 리더라고 믿는다”라고 말했다. 젠킨스는 또한 안톤의 엔터프라이즈 기술 전문성과 대규모 글로벌 전환을 이끈 경력이 오픈텍스트의 다음 성장 단계에 중요한 촉매가 될 것이라고 강조했다. 

안톤은 제임스 맥고울레이의 뒤를 이어 취임했다. 맥고울레이는 임시 CEO로서 역할을 계속 수행해 왔으며, 전환 이후 오픈텍스트의 경영진 리더십 팀 내 다른 역할로 이동할 예정이다. 또한 젠킨스는 이사회 의장으로 복귀할 예정이다. 

안톤은 성명에서 “오픈텍스트의 핵심 제품 포트폴리오와 전 세계 고객 기반은, 오늘날 신뢰할 수 있는 데이터가 경제, 국가 및 기업 운영의 필수 요소가 된 상황에서 경쟁 우위를 제공한다. 회사를 다음 장으로 이끌 기회를 기대하고 있으며, 이사회 및 리더십 팀과 협력해 회사의 성장 전략을 가속화하고 장기적인 주주 가치를 창출할 것”이라고 밝혔다. 
dl-ciokorea@foundryco.com


Read More from This Article: 오픈텍스트, 새 CEO에 아이만 안톤 임명
Source: News

Capgemini to sell US subsidiary after ICE criticism

French IT company Capgemini is now selling its American subsidiary Capgemini Government Solutions after heavy criticism of its cooperation with the American immigration agency ICE, AFP reports. The background is that two people were killed in connection with ICE and border police operations in Minneapolis, which attracted great attention in the US and globally. Capgemini’s subsidiary…

AIエージェント時代のデータ戦略 ―先行者利益獲得のための「AI-Readyデータ」整備とは?IDCアナリストが提言

「考える」から「実行する」へ―推論能力の飛躍的向上 鈴木氏はまず、企業のAI活用が新たな段階に入ったと指摘する。「2024年は生成AIが話題の中心でしたが、2025年になると、それは使えて当たり前。AIエージェントまでやってみたいという企業が非常に増えています」。 変化の背景にあるのが、AIモデルの推論能力の飛躍的な向上だ。中でも注目すべきは「Tool Use」(Function Calling)と呼ばれる技術の安定性向上だ。 「従来のプログラムでは、呼び出す条件やロジックを人間が事前に設計する必要がありました。しかし今のAIは、意味を判断して『これは外部モジュールに聞いた方がいい』と自主的に判断し、外部モジュールを呼びに行く。ここが大きく変わりました」と鈴木氏は説明する。 例えば、『顧客の購入金額が1万円以上』といった条件を設定するとそれに合致した場合のみ在庫確認システムを呼び出すのが従来のやり方とすれば、現在は問い合わせ内容や文脈から『この案件には在庫状況の確認が必要』とAIが判断し、適切なタイミングで外部システムにアクセスする、といったことが可能だ。 加えて、RAG(検索拡張生成)の進化も重要だ。推論の過程で検索を繰り返す手法やSelf-Correcting RAG(自己修正機能を持つRAG)など、多様な応用技術が登場し、AIコーディング能力の向上とも相まって、AIエージェントの実用性が格段に高まった。 具体的な成果も出ている。2025年7月には、Google DeepMindのAlphaGeometryが「記号演繹モジュール」を利用し、国際数学オリンピアードで金メダルに相当する成績を達成した。同じく7月には、Moonshot AIが開発した「Kimi K2 Thinking」が、200~300回の連続したツール呼び出しを安定して実行する能力を実証している。 従来は、多段階推論・行動において、初期方針と矛盾する行動を取る、途中の目標・制約を保持できない、過去の決定を忘れたかのように振る舞うという問題の克服が難しく、「30回の壁をどう超えるかが業界共通の課題でしたが、コンテキストウィンドウの拡張によってこの問題が解決されました」と説明する。 エージェンティックワークフローによる業務自動化が実用段階に入った今、企業には新たな課題が突きつけられている。それがデータ基盤の整備だ。 AIエージェントは、推論の過程で何度も外部データを参照しながら動作する。2024年まで主流だったRAGは入力時に一度だけデータを参照する仕組みだったが、2025年のAIエージェントは推論の実行フェーズで繰り返しデータにアクセスする。つまり、参照するデータの品質が、そのままAIエージェントの判断精度に直結するのだ。 スケーリング則の限界と「2026年問題」 AIの進化を語る上で欠かせないのが、2017年のTransformer論文以降の開発競争の歴史だ。2020年にはスケーリング則が発見され、「データ量×パラメータ数×計算リソース」を増やせば精度が向上することが明らかになった。2022年のChatGPT公開後は、LLMへの期待が一気に高まったが、技術的な競争の軸は、それより少し早く変化を迎えていた。同年発表のDeepMindによる「Chinchilla」論文が、単なるパラメータ増加競争に疑問を呈するものであったためである。 「Chinchillaの論文は、計算リソースが限られた条件下では、モデルのパラメータ数を増やすよりも、パラメータ数とデータ量のバランスを最適化する方が精度が高くなることを示しました。多くのLLMは過剰にパラメータを増やし、相対的にデータが不足する『Under-training』状態だった。この論文によって、業界の開発の方向性が変わりました」と鈴木氏は振り返る。 さらに深刻なのが、学習データの枯渇問題だ。「インターネット上の高品質な未学習テキストデータが枯渇しつつある」という指摘があり、データの枯渇が懸念される「2026年問題」として業界で議論されている。全世界のWebデータを一通り学習し終えた今、新たな高品質データの確保が困難になっているのだ。 「量は少なくても高品質なデータは、量は多くても低品質なデータの学習結果を遥かに凌ぐ。Metaの『Llama 3』開発でも、データ量を増やすよりも品質を上げた方が精度が向上したという結果が論文で示されています」と鈴木氏は説明する。 AI開発のテーマは、モデルの大きさからデータの品質へと完全にシフトした。鈴木氏は次のように強調する。「AI革命、いわばゴールドラッシュの競争は、AIモデル、つまりスコップよりも、データ品質、すなわち金脈の品位で決まる」。 5割の企業がデータ整備の壁に直面 では、日本企業の現状はどうか。IDC Japanが2025年3月に実施した調査によると、組織固有情報の整備状況について、第1・第2段階(AIで利用するには整備が必要)と回答した企業が約5割を占めた。 業界別に見ると興味深い傾向がある。「一般的には、金融業界がフィンテックで非常に先行しているという印象がありますが、実際のデータを見ると必ずしもそうでもない。むしろ流通業界がデジタルマーケティングを多く手掛けてきた経験から、段階別の構成比として少し先に進んでいる面もあります」と鈴木氏は分析する。 srcset=”https://b2b-contenthub.com/wp-content/uploads/2026/01/スライド1.png?quality=50&strip=all 2160w, https://b2b-contenthub.com/wp-content/uploads/2026/01/スライド1.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2026/01/スライド1.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2026/01/スライド1.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2026/01/スライド1.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2026/01/スライド1.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2026/01/スライド1.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2026/01/スライド1.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2026/01/スライド1.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2026/01/スライド1.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2026/01/スライド1.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”auto, (max-width: 1024px)…

Indian incentives for foreign cloud providers using local DCs to deliver globally could stabilize cloud costs

The Indian government’s newly announced incentives for foreign cloud providers could also recalibrate cloud economics for local CIOs, analysts say. During the presentation of the Union Budget to Parliament on Sunday, India’s Finance Minister Nirmala Sitharaman outlined a series of proposals that were aimed at boosting India’s data center ecosystem. These proposals include a tax…

AIエージェント導入のガバナンス:社内規程・評価・監査を形にする方法

ガバナンスが必要になるポイント:誰が何を決めるのか

ガバナンスという言葉が嫌われるのは、「現場のスピードを落とすだけ」と思われがちだからだ。しかしAIエージェントでは、統制がない状態こそがスピードを落とす。事故が起きれば止まるし、関係者が多いほど復旧は遅い。つまり目的はブレーキではなく、安心して踏めるアクセルを作ることになる。そのためには、決めるべきことを少数に絞り、責任分界点を明確にする必要がある。

最初に決めるべきは、エージェントの「提供形態」と「利用範囲」だ。社内向けの業務支援なのか、顧客向けに提供するプロダクト機能なのかで、求められる統制レベルは変わる。社内向けでも、限定チームの試験運用なのか、全社展開なのかで扱いが違う。顧客向けであれば、顧客データを扱うことが前提になり、説明責任や監査要件も増える。まずここを言語化しておかないと、後から「そのエージェントは本番扱いなのか?」「試験だからログは不要だったのか?」という混乱が起きる。

次に、役割と責任を分ける。AIエージェントでは「モデル」「プロンプト」「ツール」「データ」「運用」の五つが絡むため、責任が曖昧になりやすい。プロダクト責任者が目的と利用範囲を決める。セキュリティ担当がリスク受容の基準と必須コントロールを定義する。データ管理者がデータ分類とアクセス条件を決める。開発チームが実装とテストを担い、運用チームが監視とインシデント対応を回す。全員が全部を見るのではなく、「決める人」「実装する人」「運用する人」を分けることが重要だ。これができないと、事故が起きたときに責任の押し付け合いになり、対策が遅れる。

そして、権限付与の意思決定を明確にする。エージェントはツールを通じて現実に介入するため、権限が最大のリスク要因になる。そこで「誰が」「どの条件で」「どの権限を」与えられるかを決める必要がある。特に、外部送信(メール、共有リンク公開、外部API投稿)、個人情報参照、請求や決済、権限変更、データ削除や設定変更といった操作は、統制の対象として明確に扱うべきだ。現場が自分の判断で広い権限を付けられる状態だと、PoCが勝手に本番級の権限を持ち始める。

最後に、変更管理を設計する。AIエージェントはモデルの更新、プロンプトの変更、ツールの追加、参照データの更新で挙動が変わる。従来のアプリも同じだが、エージェントは変化の影響範囲が読みにくい。だから「何が変わったら再評価が必要か」を決める必要がある。モデルのバージョンが変わった、ツールを追加した、外部連携を増やした、扱うデータ分類が変わった、承認フローを変更した。このあたりは再評価を必須にすると事故が減る。ガバナンスが現場の敵にならないためには、再評価のトリガーを限定し、判断の負担を減らすことも大事になる。

リスクアセスメントをテンプレ化する

ガバナンスが回らない最大の理由は、評価が属人化し、書くのが重いことだ。そこで必要になるのがテンプレ化である。チェックリストにすると形式だけが残りやすいので、テンプレ項目を文章で埋めれば自然に論点が揃う形にするのがよい。ここでは、エージェントのリスクアセスメントを最小限の項目で回すための枠組みを示す。

最初の項目は「目的と成功条件」だ。エージェントは目的が曖昧だと、意図しない行動をしやすい。何を自動化するのか、何は自動化しないのか、どこまでが範囲なのかを明記する。成功条件は精度だけでなく、時間短縮、誤送信ゼロ、承認率など、運用と結びついた指標にする。目的と成功条件が明確だと、必要な権限も絞りやすい。

次に「データ分類と入出力」を書く。入力は何か、参照するデータはどこか、出力はどこへ行くか。ここを文章で書くだけで、漏えい経路の半分は見える。特に「外部に出る可能性がある出力」と「ログに残る情報」を分けて書くと良い。エージェントは出力がメールや共有リンクになり得るため、出口の整理が重要になる。

三つ目は「権限とツールの一覧」だ。どのツールを呼べるか、読み取りか書き込みか、実行範囲はどこまでか、トークンのスコープと有効期限はどうか。権限は最小にするのが原則だが、ここで「現場の要望に引っ張られて広げすぎていないか」をチェックできる。加えて、危険操作の定義もここに含める。外部送信、個人情報アクセス、金銭、破壊的変更、権限変更などが該当するなら、承認や制限の方針をセットで書く。

四つ目は「悪用シナリオと想定被害」だ。ここは難しく考えすぎないほうが回る。信頼できない入力に誘導文が混ざる、RAGが汚染される、ツール実行が誤誘導される、ログに秘密が残る、外部送信が暴走する。こうした典型シナリオを当てはめ、起きたら何が失われるかを文章で書く。被害は、機密性(漏えい)、完全性(改ざん)、可用性(停止)、そして信用(顧客信頼)に分けると整理しやすい。

五つ目は「検知可能性と対応」だ。起きたときに気づけるのか、どのログで追えるのか、止める手段はあるのか。キルスイッチ、トークン失効、権限剥奪、外部送信ブロックなど、封じ込め手段が明確かどうかを書く。これは監査にも直結するし、現場の安心にもなる。

最後に「受容条件と残リスク」を書く。すべてをゼロにできない以上、何を条件にリリースできるかを決める必要がある。例えば、危険操作は承認必須、外部送信はドメイン制限、個人情報は最小開示、ログはマスキング、モデル更新時は再評価、といった条件が揃えば許可する。残リスクは「どの条件でも残るもの」を明記し、責任者が受け入れる。これを文書化すると、後から「そんなリスクは聞いてない」が減る。

テンプレ化の狙いは、完璧な評価ではなく、必要な論点を漏らさず短時間で揃えることだ。エージェントは増えやすいので、評価が重いと抜け道が生まれる。軽く回せる枠組みこそが統制を強くする。

監査と継続改善:モデル更新・ツール追加に耐える運用

ガバナンスが本当に必要になるのは導入時よりも、運用が続いた後だ。エージェントは「一度作って終わり」にならない。モデルが更新され、ツールが増え、参照データが変わり、利用部門が広がり、いつの間にか当初の想定を超えて使われ始める。この変化に耐える仕組みがないと、最初は安全だったものが徐々に危険になる。

監査で見るべきものは、エージェントが「何を見て」「何を実行し」「どこに出したか」の証跡だ。会話ログだけでは足りない。参照したドキュメントや検索結果の識別子、ツール呼び出しの履歴と引数、実行した権限、結果の成功失敗、そして外部送信の有無。これらが紐づいて追えるようになっているかが重要になる。ここが欠けていると、事故が起きても原因を特定できないし、監査で説明できない。

継続改善のポイントは、変更のたびに再評価を強制すると運用が止まることだ。だから、再評価のトリガーを限定し、頻度を設計する。たとえばモデル更新は定期で起きるため、影響が大きい場合だけ再評価し、影響が小さい変更は回帰テストで吸収する。逆に、ツール追加や権限変更、外部送信経路の追加、データ分類の拡大は影響が大きいので、必ず再評価にする。この線引きを最初に決めておくと、ガバナンスが現場の敵になりにくい。

また、テストを運用に組み込むことが重要だ。エージェントは入力汚染や誘導に弱い可能性があるため、悪用シナリオを含む回帰テストを用意し、変更のたびに実行する。さらに定期的なレッドチームや疑似インシデント演習を行い、「止められるか」「追えるか」を確認する。ここはセキュリティ担当だけが頑張っても回らない。運用担当と一緒に、止血の手順、トークン失効、権限剥奪、通知経路、顧客連絡の判断基準まで含めて整備する必要がある。

最後に、最小運用から段階的に強化する発想が重要になる。最初から完璧を目指すと、何も導入できなくなる。まずは読み取り中心のエージェントから始め、危険操作は承認必須にし、外部送信は制限し、ログはマスキングで取り、キルスイッチを用意する。そのうえで、事故が起きない範囲で少しずつ自動化の範囲を広げる。この順番なら、現場の価値を出しながら統制も強くできる。

AIエージェントのガバナンスは、規程を作って終わりではない。誰が何を決めるかを明確にし、軽く回る評価テンプレを用意し、変化に耐える監査と改善サイクルを作る。これができれば、エージェント導入は「怖いから止める」か「便利だから無制限に広げる」かの二択ではなくなる。統制された自律性として、業務の武器にできるようになる。


Read More from This Article: AIエージェント導入のガバナンス:社内規程・評価・監査を形にする方法
Source: News