学習と仕事のパフォーマンスを科学する――教育・人材領域でのEEG活用

「集中している」をEEGで測るときに起こる勘違い

教育や仕事の文脈では、集中しているほど良い、という単純な価値観が入り込みがちです。しかし、学習には「理解のために考える時間」と「記憶を定着させる休息」が必要で、ずっと高覚醒を維持することが最適とは限りません。EEGで推定できるのは、注意が外に向いているか、眠気が強いか、課題負荷が上がっているかなどの状態変化であって、「この内容を理解した」という意味理解そのものを直接測るわけではありません。

たとえば、課題が難しくなったときに覚醒度が上がり、一定の帯域が変化することはあります。しかし同じ反応が、焦りや緊張、体のこわばりでも起き得ます。また、簡単な反復練習では覚醒度が下がって見えるかもしれませんが、それが必ずしも悪いとは限りません。だから教育でEEGを使うときは、推定した状態を「評価」ではなく「調整のヒント」として扱うことが重要です。

さらに、個人差が大きい点にも注意が必要です。同じ教材、同じ授業でも、ある人は静かなアルファ優位で集中し、別の人はベータが強い状態で集中するかもしれません。比較ランキングを作るような使い方は、学習者の自己効力感を損ない、逆に学びを壊すリスクがあります。

認知負荷とフィードバックの設計:授業を改善するための使い方

教育・人材領域で現実的なのは、EEGを「教材やタスク設計の評価」に使うことです。個人を採点するのではなく、教材の難易度遷移や説明の長さ、演習の配置が、学習者の負荷や眠気にどう影響するかを、集団データとして検討します。ここではEEG単体より、行動指標と組み合わせるのが強力です。正答率、反応時間、視線、自己報告、学習ログとEEGの変化を照合すると、「つまずきやすい箇所」「説明が冗長で注意が落ちる箇所」「休憩を入れるべきタイミング」が見えてきます。

また、リアルタイムフィードバックを学習者に返す場合は、返し方がすべてです。たとえば「集中度が低い」と表示されると、学習者は不安になり、かえって集中できなくなることがあります。代わりに、「呼吸を整える」「姿勢を変える」「30秒目を休める」といった行動提案と結びつけ、状態推定は裏側で穏やかに使う方が学習支援として機能します。学習は感情と密接で、数値の提示は強い介入になり得るからです。

研修や知的作業支援でも同様で、EEGを監視ツールにすると反発と萎縮を生みます。一方で、本人が自分の状態を整える目的で任意に使うなら、価値が出やすいです。集中が切れやすい時間帯を知って会議を短くする、長文作業は午前に回す、休憩の質を上げる、といった自己調整の材料として使う設計が現実的です。

倫理とガバナンス:学びを良くするはずが、管理にならないために

教育や企業でEEGを扱うとき、最も慎重であるべきは倫理です。EEGは生体情報であり、本人の同意なしに収集・解析することは避けるべきです。たとえ同意があっても、同意が自由意志に基づくか、拒否して不利益がないか、データが目的外利用されないか、といった条件が揃わなければ、実質的には強制になってしまいます。

また、採用や評価への利用は極めてリスクが高いです。推定精度が不十分な段階で個人評価に使えば、誤判定で人生に影響しますし、本人の尊厳を損ないます。教育・人材領域でEEGを使うなら、個人の評価ではなく、環境設計や教材改善、本人のセルフケア支援に限定する、といった線引きが不可欠です。

技術的には、個人適応モデルの開発、ノイズ耐性の向上、説明可能性の確保が課題です。運用面では、最小限のデータ収集、保存期間の限定、匿名化、第三者提供の禁止、結果の解釈ガイドの整備が欠かせません。EEGは学びを科学する強力な道具になり得ますが、その価値は「人を管理する」方向ではなく、「学びやすい環境を作る」方向に使って初めて発揮されます。


Read More from This Article: 学習と仕事のパフォーマンスを科学する――教育・人材領域でのEEG活用
Source: News

脳波(EEG)では何がわかり、医療でどう使われているのか

脳波は「速いカメラ」で脳の状態を映す

EEGが捉えるのは、脳の奥深くで一つひとつのニューロンが発火する電位そのものではなく、主に大脳皮質の錐体細胞が同期して活動した結果として生じる電位変化です。頭皮に置いた電極が拾う信号は非常に小さく、日常生活の雑音や体の動き、筋肉の活動、瞬きといった生体由来のノイズの影響を受けます。それでもEEGが手放せないのは、脳の活動の変化が起きた直後から、ほぼリアルタイムに追跡できるからです。睡眠の段階が移り変わる瞬間、てんかん発作の前触れ、麻酔で意識が落ちる過程など、「時間の流れ」が鍵になる現象に強いのがEEGです。

脳波の波形は、ざっくり言えばさまざまな周波数成分の重ね合わせで表されます。アルファ波、ベータ波といった呼び名は一般にも知られていますが、医療では「どの帯域が増えたか」だけで結論を出すより、波形の形状、左右差、出現のタイミング、誘発条件、背景活動の変化を総合して判断します。さらに、同じ患者でも時間帯、薬剤、睡眠不足、感染、痛み、精神状態で波形は変わります。つまりEEGは、単発の「測定値」ではなく、文脈を含めて読む「連続した生理学的な記録」と考えると理解しやすいです。

てんかん、意識障害、術中モニタリングでの実際

EEGの代表的な臨床用途が、てんかんの診断と治療方針の決定です。発作が起きていない時間帯でも、棘波や鋭波などの発作間欠期放電が記録されることがあり、てんかん性の活動を裏づけます。ただし、EEGで異常が出ないからといっててんかんを否定できるわけではありません。発作焦点が深部にある場合や、記録時間が短い場合、発作がたまたま起きなかった場合には見逃されます。そこで長時間ビデオ脳波モニタリングが用いられ、臨床症状と脳波の同時記録により、発作型や焦点部位の推定精度を上げます。外科治療を検討するケースでは、頭皮EEGだけでなく、硬膜下電極や深部電極を用いた侵襲的モニタリングに進むこともあります。ここでは「どこから始まり、どう広がるか」を時間順に追えるEEGの強みが最大限に活かされます。

意識障害やけいれんが疑われる救急・集中治療でもEEGは重要です。見た目にはけいれんが止まっているのに、脳内では発作が続いている非痙攣性てんかん重積(NCSE)は、臨床所見だけでは気づきにくく、EEGが決め手になります。鎮静薬や抗てんかん薬の投与調整、脳の回復度合いの評価にも、連続EEGが使われます。脳炎、低酸素脳症、代謝性脳症などでは、背景活動の遅徐化や周期性放電などのパターンが鑑別に寄与しますが、これも「単純な異常・正常」ではなく、病態の推移と合わせて読む必要があります。

手術や麻酔管理でもEEGの応用は広がっています。麻酔の深さを推定する市販モニタは、EEGを加工した指数で表示しますが、指数だけに頼ると、薬剤の種類や患者の年齢、低体温などで解釈がずれることがあります。実際の臨床では、指数の変化と生波形の特徴、血圧や心拍、投与薬剤の履歴を合わせて判断し、過剰な鎮静による循環抑制や術後せん妄のリスクを下げる方向で使われます。EEGは万能の自動操縦装置ではなく、医療者の状況判断を補助する計器として価値がある、という位置づけが現実的です。

医療でEEGを活かすための落とし穴と設計思想

EEG活用の難しさは、ノイズと個人差に集約されます。頭皮上の電極が拾う信号は、頭蓋骨や皮膚で減衰し、筋電図や眼電図に簡単に埋もれます。例えば「集中しているからベータが増えた」と言いたくなる場面でも、実は額やこめかみの筋肉が緊張していただけ、ということが起きます。だから医療では、記録品質の確保が最優先です。電極インピーダンス、装着位置、皮膚処理、アーチファクトのマーキング、必要なら再計測という地味な工程が診断精度を左右します。

次に重要なのが、EEGの解釈を「確率的な情報」として扱う姿勢です。EEG所見は診断の決定打になることもありますが、多くの場合は他の検査や症状と組み合わせて診断仮説を強めたり弱めたりする材料です。たとえば、てんかんらしい臨床発作がある患者で棘波が出れば可能性は上がりますが、棘波が出ないからといって可能性が消えるわけではありません。逆に、健康な人でも一見異常に見える波形が出ることがあります。だからこそ、EEGは「結果を単独で断定する検査」ではなく、「臨床推論を更新する検査」として扱うのが安全です。

最後に、デジタル化とAIの導入が進むほど、現場で問われるのは説明責任です。自動検出が発作候補を提示し、医師が最終確認するワークフローは効率的ですが、誤検出や見逃しが起きたときに、なぜそう判断したのかが説明できなければ医療として成立しません。EEGの活用を本当に前進させるのは、ブラックボックスの精度競争だけではなく、記録品質の標準化、データの偏りを抑えた検証、臨床意思決定にどう組み込むかという設計思想です。EEGは古典的な検査に見えますが、運用設計次第で、いまも臨床の質を底上げできる「時間に強い生体計測」なのです。


Read More from This Article: 脳波(EEG)では何がわかり、医療でどう使われているのか
Source: News

「健康情報」はなぜ特別扱いなのか――個人情報保護法から見た医療データ

要配慮個人情報というカテゴリーの意味

個人情報保護法は、すべての個人情報を一律に扱っているわけではありません。人種・信条・社会的身分・病歴・犯罪歴など、差別や不利益につながるおそれが高い情報を、特に「要配慮個人情報」と呼び、取得や第三者提供に当たって原則として本人の同意を必要とする、と定めています。その中核に位置するのが、まさに医療データです。

要配慮個人情報というカテゴリーが設けられた背景には、欧州のGDPRなど国際的なプライバシー法制の動向とともに、日本国内での差別や偏見への懸念があります。例えば、就職や昇進の場面で過去の精神疾患の履歴が不当に参照されたり、保険商品の引き受け判断の際に糖尿病やがんの既往歴が不適切に利用されたりすれば、個人の尊厳が大きく損なわれます。健康情報は、一見すると医療従事者と本人だけの問題に見えますが、その実、社会生活のあらゆる局面に影響を与えうるセンシティブな情報なのです。

そのため、医療機関や企業が健康情報を取得する際には、原則として本人の明示的な同意が必要とされます。診療の過程で医師が患者から問診を行い、検査を指示するような場面では、診療契約に付随するものとして取得が許容されますが、診療目的を超えた利用、例えばマーケティングやサービス改善のために第三者に提供する場合には、改めて明確な同意や法令上の根拠が求められます。この「一次利用と二次利用の違い」が、医療データの活用において常に問題になるゆえんです。

取得・利用・第三者提供における法的枠組み

個人情報保護法の枠組みは、大きく「取得」「利用」「第三者提供」の三つのフェーズに分けて理解すると分かりやすくなります。医療機関を例にとると、取得の段階では、初診時に記入する問診票や診療情報提供書、紹介状などを通じて患者情報が集められます。このとき、医療機関は利用目的を「診療および診療に付随する業務」「診療報酬請求」「医療の質向上」といった形でできる限り具体的に特定し、院内掲示やWebサイトで公表します。ここでのポイントは、後になって「そんな使い方をされると思っていなかった」と患者に感じさせない程度の具体性が求められるということです。

利用のフェーズでは、医師や看護師、検査技師、医療事務など、多くの職種が患者情報にアクセスします。個人情報保護法は、こうした院内の利用そのものを細かく規制しているわけではありませんが、「目的外利用をしないこと」という原則は貫かれます。例えば、職員が個人的な興味から有名人のカルテを閲覧したような場合、たとえ外部に漏らしていなくても、目的外利用として重大な法令違反と評価されうるのです。

第三者提供のフェーズでは、ルールが一段と厳しくなります。医療機関が患者情報をほかの医療機関や企業、研究機関に提供する場合、原則として患者本人の同意が必要です。健康診断の結果を職場に提供するような場合も、個人情報保護法と労働法制の双方を踏まえた慎重な運用が求められます。要配慮個人情報である医療データについては、単に「同意を取った」と言えば足りるわけではなく、同意が真に自由意思に基づいているか、情報非対称性が大きすぎないか、といった観点も重要になります。

クラウド・AI時代の「越境移転」と責任の所在

近年の大きな論点の一つが、医療データのクラウド利用やAIモデル学習における「越境移転」です。医療機関が国内クラウドにデータを保存する場合であっても、そのクラウドベンダーが海外グループ企業と連携しているケースは少なくありません。さらに、AIモデルの学習のために海外のデータセンターが使われると、事実上、患者情報が海外に移転されることになります。個人情報保護法は、こうした越境移転について、十分性認定や標準契約条項に相当する枠組みを通じて一定の条件を定めていますが、実務での理解はまだ発展途上と言えます。

また、AIベンダーが医療機関から受託する形でデータを預かる場合、その関係が「委託」なのか「第三者提供」なのかによって、法的な位置付けが大きく変わります。委託であれば、あくまで医療機関の管理のもとでデータが処理されるため、委託先の監督義務が中心的な論点になりますが、第三者提供であれば、AIベンダーが自らの目的でデータを利用することになるため、患者の同意や次世代医療基盤法のような特別法上の枠組みが必要になります。この線引きは、契約書の書きぶりだけでなく、実際のビジネススキームによっても左右されるため、ケースごとに慎重な検討が欠かせません。

こうした状況の中で、医療機関や企業に求められているのは、単に法令を「守る」ことにとどまりません。患者の視点から見て、データの利用が理解可能であり、納得できるものであるかどうか。データガバナンスの設計と説明責任の果たし方が、今後ますます重要になっていくでしょう。


Read More from This Article: 「健康情報」はなぜ特別扱いなのか――個人情報保護法から見た医療データ
Source: News

インド・フィンテックの2025年を振り返る

世界最大級の決済インフラがもたらす「公共財」としての革命とデータ経済圏

インドのフィンテックを語る上で、もはや避けて通れないのがUPI(Unified Payments Interface)の圧倒的なプレゼンスである。かつては画期的なモバイル決済手段として紹介されることが多かったUPIだが、今やその存在意義は完全に変質したと言ってよい。国際通貨基金(IMF)がインドのUPIを取引量ベースで「世界最大の小売向けファストペイメントシステム」と定義づけ、その相互運用性が爆発的な普及を後押ししたと分析していることからも、その影響力は国境を超えて認知されている。インド政府がACI Worldwideのデータを引用して示した、UPIが世界のリアルタイム決済取引量の約49%を占めるという事実は、インドという巨大市場が持つデジタル・パワーを象徴する数字である。これは単なるアプリの普及ではなく、決済システムそのものが水道や電気と同じような「公共財」として機能し、あらゆる経済活動の土台として完全に組み込まれたことを意味している。

足元の数字を見ても、その成長力は依然として衰えを知らない。NPCI(インド決済公社)のデータを引用した報道によれば、2025年8月にはUPIの月間取引件数が史上初めて200億件の大台を突破し、その取引総額は約24兆8500億ルピーという天文学的な規模に達したとされる。この数字が示唆するのは、デジタル決済がもはや都市部の富裕層や若年層だけのものではなく、農村部や露店を含むあらゆる商取引の現場で、小口から大口まで高頻度で利用されているという現実である。決済が「日常の空気」のような存在になったことで、決済事業者間の競争軸も劇的に変化した。かつてのようなキャッシュバックキャンペーンやUIの使いやすさだけでは差別化は難しく、獲得した莫大な決済フロー(お金の流れ)を起点として、いかに信用供与や保険販売、資産形成といった高付加価値サービスへとユーザーを誘導できるかが勝負の分かれ目となっている。いわゆるスーパーアプリ化の議論が進む一方で、小売業、公共料金の支払い、回収代行、さらにはB2Bにおける複雑な請求・回収業務など、各産業特有の商習慣に深く入り込んだユースケースが、それぞれの論理で厚みを増しているのが2025年の特徴である。

決済インフラの成熟に続いて、次の成長レイヤーとして急速に立ち上がっているのが「データ連携の標準化」である。インド政府が推進するAccount Aggregator(AA)は、利用者の同意に基づいて金融データを安全に共有する仕組みであり、これがインド版オープンファイナンスの実装を加速させている。2025年9月時点で22億を超える口座がAAのフレームワーク上で利用可能となり、すでに1億1234万人もの人々がアカウント連携を完了させているという事実は、データの民主化が絵空事ではなく現実の社会実装フェーズにあることを証明している。AAの普及は、これまでの煩雑な書類提出や長い審査時間を過去のものとし、ローン審査や資産管理のユーザー体験を劇的に短縮させた。実務面においてもその効果は顕著であり、2025会計年度にはAAを経由して総額16万クローレ(1兆6000億ルピー)規模の融資が実行されたとの報道もある。これは、データの可用性が高まったことで、従来の金融機関がリーチできなかった層への与信が可能になり、スピードとコスト構造が根本から覆され始めていることを示している。決済データと金融データの双方がデジタル化され、相互に連携することで、インドの金融包摂は「口座を持たせる」段階から「適切な金融サービスを届ける」段階へと進化を遂げたのである。

規制強化という「成長痛」とセキュリティ主導の市場再編

市場の急激な拡大の裏側で、インド規制当局が2024年から2025年にかけて最も神経を尖らせてきたのが、デジタル金融がもたらす「負の外部性」への対処である。特に社会問題化したのが、法外な金利や脅迫まがいの取り立てを行う違法なデジタル貸付アプリの横行と、それに伴う個人データの乱用であった。こうした状況を重く見たインド準備銀行(RBI)は、2025年にデジタル貸付に関する規制枠組みを統合・強化する形で「Digital Lending Directions, 2025」を策定したと報じられている。この新指針では、借り手の保護や契約の透明性確保はもちろんのこと、金融機関に対して融資サービスプロバイダー(LSP)の管理責任を厳格に求めている点が大きな特徴である。

さらに具体的な施策として、規制当局は「ディレクトリ化」による市場の浄化に乗り出している。規制対象となる正規の金融機関に対し、提携するデジタル貸付アプリ(DLA)の情報をRBIが管理するCIMSポータルへ報告させる義務を課し、消費者が利用しようとしているアプリが正規のものか否かを即座に確認できる仕組みの整備が進められている。この動きは、無登録の違法業者を市場から締め出す強力なフィルターとして機能する一方で、正規のプレイヤーにとってはコンプライアンスコストの増大を意味する。しかし、このコストは長期的な市場の健全な発展と、利用者からの信頼回復のために避けて通れない投資であり、規制対応能力そのものが企業存続の条件となる時代が到来したと言える。

データガバナンスの領域でも、規制のハードルは一段と高くなっている。「Digital Personal Data Protection Act, 2023(2023年デジタル個人データ保護法)」の公布以降、個人データの処理プロセスや権利保護に関する法的枠組みが整備され、フィンテック企業はこれに準拠したシステム設計を余儀なくされている。同意取得におけるユーザー体験の適正化や、収集したデータの目的外利用の厳格な抑制、さらには外部委託先の管理監督など、事業拡大よりも先に内部統制を作り込まなければならないのが現状だ。かつてのように「データは集めたもの勝ち」という論理は通用せず、差別化を急ぐあまりコンプライアンスを軽視すれば、規制当局からの処分やレピュテーションリスクによって一瞬で市場から退場させられるリスクがある。この「成長の臨界点」とも言える厳しい現実が、2025年のフィンテック企業の経営戦略を保守的かつ堅実なものへと変化させている。

そして、事業継続における最大のボトルネックかつ最重要課題として浮上しているのが、高度化するサイバー攻撃への「総合防衛」である。RBIはデジタル決済の認証に関する最終ガイドラインを公表し、従来の二要素認証の枠組みを維持しつつ、取引のリスクレベルに応じて動的に追加認証を求める方向性を示した。このガイドラインの発効は2026年4月1日と報じられており、金融機関やフィンテック企業は残された時間の中で実装と運用体制の見直しを迫られている。2025年12月にはRBI総裁が銀行に対し、テクノロジー活用による業務効率化と並行して、増加の一途をたどるデジタル詐欺へのセキュリティ対策強化を強く促したとも伝えられている。決済や与信の裾野が広がれば広がるほど、攻撃者が付け入る隙も拡大するため、KYC(本人確認)の厳格化、デバイスフィンガープリント技術の導入、AIを活用した異常検知システムの構築、そしてチャージバック(不正利用時の返金)対応からユーザー教育に至るまで、セキュリティを製品の一部として統合できるかどうかが、競争力の源泉となっているのである。

資金調達の選別と「実利」を追求する新たな成長領域

インドのフィンテック市場における資金調達環境は、2021年前後のバブル的な熱狂期と比較すれば、明らかに落ち着きを取り戻している。しかし、それは市場の縮小を意味するものではない。Tracxnのレポートを引用した報道によれば、2025年上半期のインド・フィンテック企業の資金調達額は8億8900万ドルを記録し、国別ランキングでは米国と英国に次ぐ世界第3位の座を維持している。これは、投資家がインド市場のポテンシャルを依然として高く評価している証左である一方で、Tracxnの四半期データが示すように、2021年のピーク以降、資金流入額自体は低下基調にあることも事実である。この変化は、投資家の視点が「将来の夢」から「現在の数字」へとシビアに移行したことを物語っており、企業側も「成長のための成長」ではなく、貸借対照表の健全性と収益性を最優先する経営へと舵を切っている。

現在の資金調達環境において特に顕著なのが、明確なユニットエコノミクス(顧客一人当たりの採算性)を証明できるプレイヤーへの資金集中と、エクイティ(株式)に頼らないデット(負債)性資金の活用である。直近の事例を見ても、デジタル与信大手のFibeが国際金融公社(IFC)から3500万ドルを調達した件や、RupeeRedeeを運営するFincFriendsがデットファイナンスで資金を確保したニュースなどは、与信需要の強さと資本による企業の「選別」が同時に進行していることを象徴している。これは、規制強化に耐えうる強固なガバナンス体制を備え、リスクを適切に価格に転嫁できるビジネスモデルを構築した企業だけが生き残るという市場からの明確なメッセージである。赤字を垂れ流しながらシェアを拡大するモデルは終焉を迎え、利益を生み出しながら自走できる筋肉質な企業体質が求められている。

こうした環境下で、成長領域の見取り図も大きく書き換わりつつある。かつての花形であったコンシューマー向けの決済アプリや貸付アプリが飽和感を見せる一方で、脚光を浴びているのがB2B領域である。金融SaaS、決済インフラの提供、債権回収・与信管理のデジタル化など、企業のバックオフィス業務や金融オペレーションを効率化する「裏方」のプレイヤーが力強い成長を見せている。UPIやAAの普及によって表側のサービス競争が激化し、差別化が困難になる中、企業側の複雑化する業務プロセスを支援するソリューションには依然として巨大なデジタル化の余地が残されているからだ。

また、非金融企業が自社のサービスに金融機能を組み込む「エンベデッド・ファイナンス(組み込み型金融)」も、小売、物流、SaaSといった多様な業界へと染み出し始めている。金融が単体の商品としてではなく、商取引の文脈の中でシームレスに提供されることで、ユーザーの利便性は向上し、新たな収益機会が創出されている。さらに、公的なデジタル通貨の動きも見逃せない。インド準備銀行(RBI)は中央銀行デジタル通貨(デジタル・ルピー)の実証実験を継続しており、これを現金と同様の法定通貨と位置づけてパイロット参加を呼びかけている。今後は、インターネット接続がない環境でも利用可能なオフライン決済機能や、特定の目的のみに使用を限定できるプログラマブルマネーとしての実装が重要な論点となり、民間フィンテック企業との連携も期待される分野である。

総じて、2025年末時点のインド・フィンテックは、決済インフラの超巨大化という第1フェーズを完了し、与信・データ流通・不正対策といった「社会的コスト」を引き受けながらシステム全体の信頼性を高める第2フェーズの真っ只中にあると言える。派手なユニコーン誕生のニュースや巨額の資金調達額よりも、規制の枠内で着実にスケールさせる運用力、データ連携を高度に活用した審査・回収モデルの設計力、そしてセキュリティ対策を摩擦のないプロダクト体験に溶け込ませる実装力が、次の時代の勝者を決定づけることになるだろう。インフラが整った国において、最後に差をつけるのは「信頼」である。技術と制度の両面からその信頼を積み上げ、社会インフラとしての責任を果たせるかどうかが、インド・フィンテックの次の10年を占う試金石となる。


Read More from This Article: インド・フィンテックの2025年を振り返る
Source: News

ソフトウェアサプライチェーンの透明化が問い直す企業の信頼――SBOM世界標準化の現在地と日本企業が講ずべき生存戦略

こうした状況に対し、近年、世界各国の政府や規制当局が足並みを揃えて導入を推進している概念がある。それが「SBOM(Software Bill of Materials)」である。日本語では「ソフトウェア部品表」と訳されるこの仕組みは、単なるセキュリティ界隈のバズワードや一時的な流行に留まらない。それは、複雑に入り組んだソフトウェア供給網を「見える化」し、健全なデジタル社会を維持するための国際的な共通言語として、急速に標準化が進んでいる。本稿では、SBOMが注目される背景にある国際的な動向と標準化の流れ、そしてそれが日本企業の経営や実務にどのような変革を迫るのかについて、その本質を解き明かしていく。

ソフトウェアサプライチェーンの闇を照らす「SBOM」の台頭と国際標準化

SBOMとは、文字通りソフトウェアを構成する「部品」の一覧表である。これはしばしば、食料品のパッケージ裏面に記載されている原材料表示になぞらえられる。私たちが食品を購入する際、アレルギー物質が含まれていないか、原産地はどこかを確認できるように、ソフトウェアにおいても「この製品の中には、どのベンダーの、どのバージョンのコンポーネントが使われているか」を透明化しようという発想である。米国の大統領令14028号に基づく定義によれば、SBOMは「ソフトウェアを構築するために使用されたさまざまなコンポーネントの詳細とサプライチェーンの関係を記述する正式な記録」と位置付けられている。実務的な観点からは、コンポーネント名、バージョン、サプライヤー名、ライセンス情報、そしてコンポーネント間の依存関係といった情報が含まれることが最低限求められている。

この概念が一気に国際政治の表舞台に躍り出た契機は、2021年に発令された米国大統領令14028号「国家のサイバーセキュリティの向上」であった。相次ぐ大規模なサイバー攻撃やサプライチェーンを悪用したインシデントを受け、米国政府は連邦政府が調達するソフトウェアに対して極めて高い透明性を要求し、その具体的な手段としてSBOMの提供を条件付けたのである。これを受けて、米国商務省電気通信情報庁(NTIA)は同年に「SBOMの最小要素(The Minimum Elements for a Software Bill of Materials)」を公表した。ここでは、データフィールドの定義や運用上の考慮事項、自動化への対応という三つの視点から、SBOMとして備えるべき最低限の基準が示された。その後、このバトンはサイバーセキュリティ・インフラストラクチャセキュリティ庁(CISA)へと渡され、2024年のフレーミング文書や2025年の改訂版ドラフトといった形で、継続的に内容の更新と洗練が行われている。重要なのは、これらが一度策定して終わりの静的な規格ではなく、実際の運用現場からのフィードバックや管理ツールの進化に合わせて、動的にアップデートされ続けている点である。SBOMはもはや、納品時に一度だけ提出される書類ではなく、開発から運用、廃棄に至るまでのソフトウェアライフサイクル全体を通じて維持されるべき、継続的なサプライチェーン管理の中核プロセスとして位置づけられているのである。

法規制化する透明性――EUの厳格化と日本のガイドライン整備

米国が政府調達という強大な購買力をテコにSBOMの普及を図る一方で、欧州連合(EU)は製品規制というより強力な法的枠組みを用いて、市場全体にSBOMの導入を義務付けようとしている。その象徴となるのが「サイバーレジリエンス法(Cyber Resilience Act, CRA)」である。2024年12月10日に発効したこの法律は、EU市場で販売される「デジタル要素を含む製品」のメーカーに対し、極めて厳格なサイバーセキュリティ要件を課している。その中核的な義務の一つが、技術文書の一部としてのSBOMの作成と維持である。具体的には、少なくともトップレベルの依存関係を網羅したSBOMを、一般的に利用可能な機械可読フォーマットで作成し、脆弱性管理プロセスと一体化させて運用することが求められる。この法律の主要な義務規定は2027年12月から適用される予定だが、脆弱性やインシデントに関する報告義務については2026年9月から先行して適用されるスケジュールとなっており、対応までの猶予は決して長くない。対象はEU域内のメーカーに限らず、日本を含むEU域外から製品を輸出する企業や、自社ブランドで製品を流通させる輸入業者も含まれるため、グローバルにビジネスを展開する製造業やIT企業にとって、SBOM対応は市場参入のための必須条件、いわば「パスポート」となりつつある。

こうした欧米の動きに呼応するように、日本国内においても環境整備が急ピッチで進められている。経済産業省は2023年に「ソフトウェア管理に向けたSBOMの導入に関する手引」を公開し、さらに実証実験の結果などを踏まえた改訂版(ver2.0)を2024年に提示した。これらのガイドラインは、先行するNTIAの最小要素やNIST(米国国立標準技術研究所)のリスク管理ガイダンスとの整合性を保ちつつ、日本企業特有の商習慣や実務上の課題に配慮した具体的な導入手順を示している点が特徴である。また、2024年8月には英語版のガイドも公表され、海外の規制当局やパートナー企業との対話における共通言語としての役割を果たしている。さらに特筆すべきは、2025年9月に日本政府が複数国と連名で署名した文書「A Shared Vision of Software Bill of Materials (SBOM) for Cybersecurity」の存在である。これは、SBOMが単なる一国の施策ではなく、サイバーセキュリティ確保のための国際的な共通インフラであるという認識を明確にしたものであり、今後はより詳細な技術仕様や運用ルールの策定に向けた多国間での議論が加速することを示唆している。日本企業にとって、これはもはや「対岸の火事」ではなく、自社の開発プロセスや調達基準をグローバルスタンダードに合わせて再構築する好機と捉えるべき局面に差し掛かっている。

現場から経営まで――SBOM導入がもたらす実務変革と競争力への転換

SBOMを単なる「規制対応のために作成しなければならない面倒なドキュメント」と捉えてしまうと、その本質的な価値を見誤ることになる。適切に運用されたSBOMは、企業のITガバナンスとセキュリティ運用に劇的な効率化と高度化をもたらすポテンシャルを秘めている。その実務的なインパクトは、主に三つの領域で顕著に現れる。

第一に挙げられるのは、脆弱性管理の圧倒的な効率化である。Log4j問題に代表されるように、広く使われているライブラリに深刻な脆弱性が発見された際、企業が直面する最大の課題は「自社のどのシステムの、どこにその部品が使われているか」を即座に特定できないことにある。従来であれば、各システムの担当者に聞き取り調査を行ったり、Excelの手作業による台帳をひっくり返したりして確認作業に膨大な時間を費やしていた。しかし、SBOMが整備され、最新の状態に保たれていれば、それは「検索可能なデータベース」として機能する。特定の脆弱性が公表された瞬間、影響を受けるシステムを網羅的に特定し、リスクの大きさに基づいてパッチ適用の優先順位を即座に決定することが可能になる。これは、インシデント対応の初動速度を劇的に向上させ、経営リスクを最小化することに直結する。

第二のメリットは、ライセンスコンプライアンスの強化である。現代のソフトウェア開発においてOSSの利用は不可欠だが、それぞれのコンポーネントには再配布や商用利用、特許条項などに関する多種多様なライセンス条件が付随している。これらを十分に理解しないまま安易に製品に組み込めば、意図せずしてライセンス違反を犯し、訴訟リスクや社会的信用の失墜を招く恐れがある。SBOMを活用すれば、製品に含まれるすべてのOSSとそのライセンス情報を一覧化できるため、出荷前の監査プロセスを自動化したり、第三者からの問い合わせに対して迅速かつ正確に回答したりすることが容易になる。これは法務・知財部門にとっても強力な武器となるだろう。

第三に、調達プロセスの透明性と健全化が挙げられる。調達側がベンダーに対してSBOMの提出を要件化することで、これまで「中身の分からないブラックボックス」として購入していたソフトウェアを、「構成要素が明示された説明可能な資産」へと変えることができる。米国では既に連邦政府調達においてこの動きが標準化しており、日本においても民間企業間の取引慣行として徐々に浸透しつつある。供給側にとっても、自社製品の透明性を担保することは、品質への自信とセキュリティに対する誠実な姿勢を示すことになり、競争優位性の一つとなり得る。

もちろん、SBOM導入には課題も残されている。SPDXやCycloneDXといった複数のデータフォーマットが並立しており、ツール間の完全な相互運用性が確立されるまでにはまだ時間を要する側面がある。また、SBOMは「作ること」自体が目的化しやすいという落とし穴もある。自動生成ツールを使えば形式上のファイルを作成することは容易だが、それがCI/CDパイプラインに組み込まれておらず、リリースごとに更新されていなければ、すぐに陳腐化した「使えないゴミデータ」になってしまう。さらに、開発、運用、セキュリティ、法務、調達といった部門間の壁を越えて、誰がSBOMのオーナーシップを持つのかという組織設計も大きなハードルとなる。

だからこそ、日本企業のIT部門は今、能動的に動き出す必要がある。まずは自社のソフトウェアサプライチェーンを棚卸しし、自社開発、委託開発、SaaSのそれぞれについて、どこまで構成情報を可視化できるか現状を把握することから始めるべきである。その上で、既存の構成管理やセキュリティ診断ツールと連携可能なSBOM生成・管理の仕組みを検討し、段階的に導入を進めていくことが求められる。また、対外的な契約や調達基準においても、SBOMに関する条項を盛り込み、サプライチェーン全体で透明性を高めていく姿勢が必要だ。

サプライチェーン攻撃が常態化し、ソフトウェアの安全性が経済安全保障の観点からも問われる現代において、「中身が見えない」ことはそれ自体が許容しがたいリスクとなりつつある。SBOMは魔法の杖ではないが、複雑なデジタル社会において信頼を担保するための最も基礎的なインフラであることは間違いない。世界標準としてのSBOMにいち早く適応し、自社のソフトウェアの中身を自信を持って説明できる企業こそが、次代の市場競争における信頼という名の通貨を手にすることができるのである。


Read More from This Article: ソフトウェアサプライチェーンの透明化が問い直す企業の信頼――SBOM世界標準化の現在地と日本企業が講ずべき生存戦略
Source: News

フェデレーション技術が拓く「集めないデータ活用」の新地平――企業ITが直面する分散型アーキテクチャへの転換点

「分散」が価値を生む新たなメカニズム――フェデレーション技術の全貌

フェデレーション技術とは、データを物理的に一箇所へ集約することなく、各組織や各システムがデータを保持したままの状態において、分析、検索、学習、あるいは参照といった高度なデータ処理を行う方式の総称である。この技術体系は決して単一のものではなく、大きく分けてフェデレーテッドラーニング(連合学習)、フェデレーテッドクエリ、そして分散型のRAG(検索拡張生成)およびナレッジ連携という三つの主要な潮流によって形成されている。これらに共通する核心的な設計思想は、従来型のデータ活用が前提としてきた「データを計算資源のある場所へ移動させる」というアプローチから、「計算ロジックやクエリをデータが存在する場所へ派遣する」というアプローチへのコペルニクス的転回にある。

まず、フェデレーテッドラーニングについて詳述すれば、これは各エッジデバイスや拠点サーバーに機械学習モデルそのものを配布し、ローカル環境にあるデータを用いて学習を実行させる手法である。特筆すべきは、学習プロセスにおいて生のデータ自体が外部に出ることは決してないという点だ。中央サーバーへ送信されるのは、学習によって更新されたモデルの重みパラメータや勾配情報のみであり、これらが中央で統合されることでグローバルモデルが更新される。当初はスマートフォンの予測変換など、個人のプライバシー保護と利便性を両立する手段として注目されたが、現在では医療画像診断における病院間連携や、金融機関における不正検知モデルの高度化など、機密性の高いデータを扱うエンタープライズ領域での実証と実装が進んでいる。各組織が秘匿データを手元に置いたまま、組織の壁を越えた集合知を形成できる点が、この技術の最大の強みである。

次に、フェデレーテッドクエリは、データ分析の領域において物理的なデータ統合を不要にする技術である。これは、分析者が発行したSQLや検索クエリを、分散している複数のデータソースに対して直接投入し、返ってきた部分的な結果セットをメモリ上で結合して最終的な回答を導き出す仕組みを指す。近年、BigQueryやSnowflake、AWS Athenaといった主要なクラウドデータ基盤が、他社のクラウドストレージやオンプレミスのデータベースに対して直接クエリを実行できる機能を強化している背景には、このフェデレーションのアプローチがある。データを移動させる際に発生するETL処理のコストや時間を削減し、データ鮮度を保ったまま横断的な分析を可能にするこの技術は、データの物理的な所在を意識させない仮想的な統合ビューをユーザーに提供する。

そして、生成AIの台頭とともに急速に関心を集めているのが、分散型のRAGやナレッジ連携である。これは、検索拡張生成において参照すべきドキュメントやデータベースを単一のベクトルデータベースに統合するのではなく、各拠点や各部門が管理する複数のナレッジソースに対して検索を実行し、その結果を統合してLLM(大規模言語モデル)に渡すアーキテクチャである。例えば、グローバルに展開する製造業や商社において、各国の拠点が持つ契約書や技術文書を、各国の法規制に準拠した形で現地サーバーに置いたまま、本社や他拠点から必要な知見だけを自然言語で問いかけるといったシナリオで威力を発揮する。ここでも「データは動かさず、質問と回答だけが飛び交う」という原則が貫かれており、企業グループ全体で知見を共有しながらも、ガバナンスの境界線を維持することが可能となる。

必然としてのアーキテクチャシフト――規制・AI・クラウドが迫る再定義

フェデレーション技術が2020年代後半の今、改めて脚光を浴びている背景には、単なる技術的な流行を超えた構造的な必然性が存在する。それは、国際的なデータ主権をめぐる制度変化、生成AIに対する社会的要請、そしてマルチクラウド化によるデータ散在の深刻化という三つの強力なドライバーが同時に作用しているためである。これらは複合的に絡み合い、従来の中央集権的なデータ基盤構築のハードルをかつてないほど高くしている。

第一の要因は、データ主権とプライバシーに関する国際ルールの厳格化と細分化である。欧州におけるGDPR(一般データ保護規則)の施行以降、世界各国でデータ保護法制の整備が進んだが、近年ではさらに踏み込んだ規制が登場している。特にEUのData Governance Act(DGA)やData Actは、データの公正なアクセスと共有を促進する一方で、域外へのデータ移転に対して厳しい条件を課している。また、米国のCLOUD Actや中国のデータ安全法なども含め、データが物理的にどこに保存されているかという「場所」の問題が、法的リスクに直結する状況が生まれている。こうした環境下では、すべてのデータを一箇所のクラウドリージョンに集約することは、法的なコンプライアンスコストを跳ね上がらせるリスク要因となり得る。これに対し、フェデレーションはデータを生成された場所、あるいは法的に許可された場所に留め置いたまま活用することを可能にするため、各国の法規制に対する適合性を構造的に高めることができる。DGAが提唱する「データ仲介サービス」のように、データを預けずに共有する枠組みとも、フェデレーションの思想は極めて親和性が高い。

第二の要因として、生成AIの急速な普及に伴う学習データの透明性への要求が挙げられる。2024年に成立したEU AI Actは、汎用AIモデルの提供者に対し、学習に使用したデータの概要を開示する透明性義務を課している。企業が独自にLLMをファインチューニングしたり、RAGを構築したりする場合、「どのデータが、いつ、どのような権限に基づいて使用されたか」を追跡可能性(トレーサビリティ)を持って管理することが求められる。巨大なデータレイクに無秩序にデータを放り込み、そこから学習データを生成する従来の手法では、この説明責任を果たすことが困難になりつつある。対してフェデレーションのアプローチでは、データソースが明確に区分けされた状態で管理されるため、特定のデータセットを学習から除外したり、利用履歴を追跡したりといったガバナンスを効かせやすい。データを混ぜ合わせないからこそ、データの出自と利用範囲を明確に説明できるという逆説的なメリットが、AI時代のコンプライアンスにおいて重要な意味を持ち始めている。

第三の要因は、マルチクラウド戦略とSaaSの浸透による、実質的なデータ散在の常態化である。多くの企業にとって、単一のクラウドベンダーだけですべての業務を完結させることはもはや非現実的であり、部門ごとに最適なSaaSを導入した結果、顧客データや業務データは複数のクラウドとオンプレミス環境に断片化して存在している。これらをすべて一つのデータウェアハウスに統合しようとすれば、莫大なデータ転送コスト(Egress Cost)と、終わりのないデータパイプラインのメンテナンス地獄が待っている。フェデレーションは、この「データは散在するものである」という事実をあるがままに受け入れ、その状態を前提とした上で統合的な活用を目指す現実解として機能する。データを無理に移動させようとする努力を、クエリを最適に配分する努力へと転換することで、CIOはデータ転送コストの削減と、ベンダーロックインの回避という二つの果実を同時に得ることができるのである。

幻想を捨てて現実に向き合う――実務的課題とIT戦略への示唆

フェデレーション技術は、現代の企業ITが抱える多くの課題に対して魅力的な解決策を提示しているが、それは決して導入すれば直ちにすべての問題が解消される魔法の杖ではない。実務的な観点から見れば、中央集権型モデルとは異なる固有の課題や限界が存在し、それらを正しく理解した上でのアーキテクチャ設計が求められる。フェデレーションへの過度な期待を排し、その現実的な特性を見極めることが、成功への第一歩となる。

まず直面するのは、パフォーマンスとレイテンシの問題である。データが一箇所にあれば高速に完了するクエリも、ネットワーク越しに複数のデータソースへ問い合わせを行い、その結果を集計するフェデレーション構成では、どうしても応答速度が低下する傾向にある。特に、クロスリージョンやクロスクラウドでの結合処理が発生する場合、ネットワークの帯域幅や遅延がボトルネックとなり、ユーザー体験を損なうリスクがある。そのため、頻繁にアクセスされるデータについてはキャッシュ戦略を組み合わせたり、事前に集計したサマリーデータのみを同期させたりといった、ハイブリッドな設計が不可欠となる。また、フェデレーテッドラーニングにおいては、各拠点のエッジデバイスやサーバーの計算能力にばらつきがある場合、最も遅いデバイスが全体の学習プロセスを律速してしまう問題や、通信回線の不安定さが学習の収束を妨げる問題も考慮しなければならない。

次に、データガバナンスとメタデータ管理の難易度が飛躍的に向上するという点も看過できない。「データを集めない」ということは、裏を返せば「散らばったデータが論理的に繋がるように定義を揃えなければならない」ということを意味する。各拠点で異なるカラム名やコード体系が使われていれば、そのままでは横断的な検索も分析も不可能である。物理的な統合を行わない分、論理的な統合、すなわちセマンティックレイヤーやメタデータの整備に対する投資がより一層重要になる。さらに、アクセス権限の管理も複雑化する。中央集権型であればデータベースエンジンの機能で一元管理できた権限設定を、分散した各ソースシステムに対して整合性を保ちながら適用し続けるには、高度なアイデンティティ管理基盤とポリシー制御の仕組みが必要となる。クエリが広範囲に飛ぶということは、それだけ攻撃対象領域が広がるということでもあり、セキュリティ設計には細心の注意が求められる。

こうした課題を踏まえた上で、今後のCIOやIT部門が採るべき戦略とはどのようなものか。それは、データを「集めるべきもの」と「集めざるべきもの(あるいは集められないもの)」に明確に分類し、適材適所でアーキテクチャを使い分けるハイブリッドな視座を持つことである。すべてのデータを中央に集めるという過去の理想主義とも、現場任せでサイロ化を放置する現状追認とも決別し、戦略的な意図を持ってフェデレーション領域を定義することが求められる。具体的には、全社的な計数管理や高速な分析が必要なコアデータは従来通りDWHへ統合しつつ、機密性の高い顧客データ、各国の規制に縛られる現地データ、あるいは鮮度が命のIoTデータなどについては、フェデレーション技術を用いて分散管理のまま活用するといったポートフォリオ管理の発想である。

フェデレーション技術の台頭は、企業ITにおけるデータ活用のアプローチが、単純な「集中」から、より洗練された「協調」へと進化していることを示している。それは、グローバル規模での法規制への適応力、生成AIに対する透明性の担保、そしてマルチクラウド環境での柔軟性といった、現代企業が喉から手が出るほど欲しい能力を構造的に提供するものである。2025年以降のデータ戦略において、フェデレーションは単なるニッチな技術オプションではなく、中央集権型アーキテクチャと対をなす標準的な選択肢として定着していくだろう。データを所有することから、データにアクセスして価値を引き出すことへ。その重心の移動を捉え、自社のデータアーキテクチャを「分散前提」で再設計できるかどうかが、次世代の競争力を左右する試金石となるに違いない。


Read More from This Article: フェデレーション技術が拓く「集めないデータ活用」の新地平――企業ITが直面する分散型アーキテクチャへの転換点
Source: News

オプトインからオプトアウトへ―次世代医療基盤法が変えた医療データのルール

オプトアウト方式が必要とされた背景

個人情報保護法が原則として求めるのは、「要配慮個人情報の第三者提供は本人同意」というオプトイン型のルールです。しかし、がんや希少疾患、生活習慣病のように、長期的に追跡しなければ意味を持たない研究分野では、このルールが大きな壁になります。病院に通っていた時点では研究を想定していなかった患者も多く、すでに転居や死亡により連絡が取れなくなっているケースも少なくありません。その結果、研究対象が「同意を取れた人だけ」に偏り、バイアスのかかった研究しかできないというジレンマが生じていました。

次世代医療基盤法は、こうした状況を踏まえ、「一定の要件のもとであれば、本人の事前同意を要しないオプトアウト方式でも医療情報の提供を可能にしよう」という発想から生まれました。ただし、その代わりに、医療情報を集約・加工する事業者に対して厳格な認定制度を設け、匿名加工や仮名加工、安全管理措置を徹底させることで、患者の権利利益を守るというバランスがとられています。

医療機関は、この法律に基づき、患者に対して医療情報の第三者提供について事前に通知を行います。患者が提供を望まない場合には、申し出ることで提供を停止できる、いわば「提供拒否権」が保障されています。この仕組みは、すべての患者から明示同意を集めるオプトインより柔軟でありながら、完全な無断利用とも異なる、中間的なバランスを目指したものと言えます。

匿名加工医療情報と仮名加工医療情報のちがい

次世代医療基盤法の特徴は、処理された医療情報を「匿名加工医療情報」と「仮名加工医療情報」に区別している点にあります。匿名加工医療情報は、個人を特定できず、かつ元に戻すことができないように加工された情報です。氏名や住所、生年月日、保険者番号といった識別子だけでなく、極端な年齢や非常に稀な疾患名、その人固有の組み合わせといった「識別につながりうる情報」も慎重に削除やマスキングの対象になります。その結果として、再識別のリスクは低く抑えられますが、個別の患者を追跡する形の解析は難しくなります。

これに対して仮名加工医療情報は、直接の識別子を削除しつつも、希少疾患や特異な検査値といった情報を一定程度残すことを許容したものです。ここで重要なのは、仮名加工医療情報を作成する際には、元データとの対応付けが可能なキー情報が厳重に管理されている点です。対応表自体は認定事業者の厳格な管理下に置かれ、利用事業者の側からはアクセスできませんが、その存在によって、将来的に追加情報を統合したり、長期フォローアップのためにデータを拡張したりすることが技術的には可能になります。

こうした構造により、仮名加工医療情報は、希少疾患や個別化医療、薬剤反応性の評価といった、より精密な解析が必要な分野での活用を視野に入れています。一方で、利用事業者には再識別の禁止や第三者提供の制限といった厳格な義務が課され、違反した場合には罰則も想定されています。この意味で、仮名加工医療情報は「強い規律を伴う高精度データ」として位置付けられているのです。

認定事業者制度と実務へのインパクト

次世代医療基盤法のもう一つの要となるのが、「認定匿名加工医療情報作成事業者」「認定仮名加工医療情報作成事業者」「認定利用事業者」といった認定事業者制度です。医療機関や自治体、学校などから医療情報の提供を受け、その加工や名寄せ、大規模データベースの構築を担うのが作成事業者であり、そのデータを用いて研究や製品開発を行うのが利用事業者です。

作成事業者に求められる要件は多岐にわたり、情報セキュリティ体制、内部統制、倫理審査機能、外部有識者を含む委員会の設置など、高度なガバナンスが必要とされます。利用事業者の側も、利用目的や解析方法、安全管理措置について、契約や内部規程を通じて詳細に定める必要があります。こうしたハードルは一見すると高く見えますが、裏を返せば、認定スキームを通じてさえいれば、大規模な医療データを比較的安定的に利用できる「専用レーン」を確保できるとも言えます。

製薬企業や医療機器メーカー、AIスタートアップなどにとって、この枠組みは自社の研究開発戦略を構想する際の重要な選択肢になります。個々の医療機関から直接データを集めるルートと比べ、倫理審査や同意の取得を自社で一から設計する必要がない一方で、データの利用範囲や再利用、モデルの二次活用などには制約も生じます。どのレベルの柔軟性を求め、どの程度のコンプライアンスコストを許容するのか。次世代医療基盤法は、企業にそうした戦略的な判断を迫る法律でもあるのです。


Read More from This Article: オプトインからオプトアウトへ―次世代医療基盤法が変えた医療データのルール
Source: News

AI ROI: How to measure the true value of AI

For all the buzz about AI’s potential to transform business, many organizations struggle to ascertain the extent to which their AI implementations are actually working. Part of this is because AI doesn’t just replace a task or automate a process — rather, it changes how work itself happens, often in ways that are hard to…

Stop running two architectures

When I first stepped into enterprise architecture leadership, I expected modernization to unlock capacity and enable growth. We had a roadmap, a cloud architecture we believed in and sponsorship from the business. Teams were upskilling, new engineering practices were being introduced and the target platform was already delivering value in a few isolated areas. On…