サードパーティークッキーは本当に「終わる」のか?Chrome方針転換が示す現実

なぜサードパーティークッキーは「終わる」と言われ続けたのか 長年にわたり、デジタル広告とウェブサイトの分析は「サードパーティークッキー(Third-Party Cookie、以下3PC)」という技術に大きく依存してきました。サードパーティークッキーとは、訪問しているサイトとは異なるドメイン(第三者)が発行する小さなデータファイルのことです。これにより、ユーザーがどのサイトを訪れたかを横断的に追跡することが可能になり、広告主は個人の興味関心に基づいたターゲティング広告を配信したり、広告が最終的な購入(コンバージョン)にどれだけ貢献したかを計測したりすることができました。 しかし、この仕組みには大きな問題がありました。それは、ユーザー自身が「いつ、誰に、どこまで追跡されているのか」を正確に把握し、コントロールすることが極めて困難だった点です。このプライバシーへの懸念が世界的に高まる中で、3PCは「技術」と「規制」という二重の圧力にさらされることになります。 技術的な圧力の先陣を切ったのは、Appleです。同社のブラウザであるSafariは、2017年に「Intelligent Tracking Prevention(ITP)」と呼ばれる追跡防止機能を導入しました。ITPは年々その機能を進化させ、ついに2020年3月、すべてのサードパーティークッキーを例外なく、デフォルト(初期設定)でブロックするという非常に強力な措置に踏み切りました。これはウェブ業界に大きな衝撃を与え、プライバシー保護の潮流を決定づける出来事となりました。 この動きに追随したのが、MozillaのFirefoxです。Firefoxも2019年以降、「Enhanced Tracking Protection(ETP)」を標準で有効化しました。これにより、追跡目的と見なされるサードパーティ由来のクッキーやスクリプトが広く遮断されるようになりました。2025年現在も、この設定はデフォルトで機能しており、ユーザーは必要に応じてサイトごとに保護レベルを調整できますが、基本的には「追跡はブロックする」という姿勢が貫かれています。 こうしたブラウザ側による技術的な制限に加え、法規制の圧力も強まりました。特に欧州連合(EU)の「GDPR(一般データ保護規則)」や「ePrivacy指令」は、クッキーの使用に対して厳格なルールを課しました。企業は、クッキーを使用する目的を明示し、ユーザーから明確な「同意」を得なければならなくなったのです。どの目的でデータを利用するかをユーザー自身が選択できる必要があり、同意なしに3PCを利用することは法的なリスクを伴うようになりました。日本や米国の各州でも、同様の個人情報保護法制が整備されつつあります。 結果として、技術的にもはや届かないユーザー(Safari、Firefox利用者)が増え、法規制的にも利用のハードル(同意取得)が上がったことで、3PCに依存した従来の広告・解析の手法は、持続可能性の低いリスクの高い選択肢へと変わっていきました。この流れの中で、業界全体が「同意の確実な取得」「代替技術の模索」、そして何より「自社で収集するファーストパーティデータの重視」へと、戦略的なシフトを余儀なくされてきたのです。 2025年、Chromeの「Uターン」は何を変えたのか SafariやFirefoxが厳格なブロックに踏み切る一方、世界最大のシェアを持つGoogle Chromeの動向は、常に業界の最大の関心事でした。Chromeは、プライバシー保護と広告エコシステムの維持を両立させるという難しい課題に対し、「プライバシーサンドボックス(Privacy Sandbox)」構想を掲げていました。これは、3PCを廃止する代わりに、個人の特定を防ぎつつ広告配信や効果測定を可能にする新しい技術群(API)を提供するという壮大なプロジェクトです。 その計画に基づき、Googleは2024年1月、ついに全Chromeユーザーの1%を対象に3PCをデフォルトで制限する大規模なテストを開始しました。これは、競合ブラウザの動きにようやく追随する重要な一歩であり、2024年後半にかけて段階的に廃止対象を拡大していく予定であると、当時は想定されていました。 しかし、この計画は大きな転換点を迎えます。プライバシーサンドボックスの仕組みが、結果的にGoogleの広告事業における優位性をさらに高めるのではないかという競争上の懸念が、特に英国の競争・市場庁(CMA)から継続的に示されていました。CMAは、Googleが3PCを廃止するプロセスを厳しく監督することを表明し、両者は2022年にコミットメント(誓約)を結んでいました。 この複雑な状況下で、Googleは2025年4月、市場を驚かせる方針転換を発表します。それは、「3PCに関する新たなスタンドアロンの選択プロンプト(3PCをブロックするかどうかをユーザーに尋ねる独立した画面)を導入しない」こと、そして「既存のChrome設定内でユーザーに選択を委ねる」というものでした。これは、事実上、Chromeの一般ブラウジングモードにおける3PCの全面的な廃止計画を「見送る」という判断であり、主要メディアはこれを“Uターン”と報じました。 このGoogleの転換は、即座に規制当局の対応にも変化をもたらしました。CMAは2025年6月、Googleが3PCの一般的ブロック計画自体を改めたことで、競争上の懸念が後退したと判断。Googleが2022年に結んだコミットメントは「もはや必要ない」とする見解を示し、その解除に向けた意見募集を開始しました。そして同年10月、CMAはコミットメント解除の決定文書を公表し、約4年にわたる異例の監督体制に終止符が打たれました。 さらに決定打となったのが、同じく2025年10月にGoogleが更新したプライバシーサンドボックスの「今後の計画」です。Topics(興味関心ターゲティング)、Protected Audience(リターゲティング)、Attribution Reporting(効果測定)といった、広告の中核を担うと目されていた主要なAPI群について、「低い採用度(広範な採用に至らなかった)」を理由に、順次リタイア(廃止)することが明言されたのです。 一方で、CHIPS(パーティション化クッキー)、FedCM(ID連携管理)、Private State Tokens(不正対策)といった技術は継続されることも併せて発表されました。これは、Googleが「3PCの即時全廃はしない」と同時に、「3PCに代わる独自規格の広告基盤を強行することもない」という姿勢を明確にしたことを意味します。舵は、クッキーとID連携の扱いを、よりプライバシーに配慮した形へ「整える」方向へと切られたのです。 なお、Chromeのシークレット(Incognito)モードにおいては、従来どおり3PCは既定でブロックされる方針も再確認されています。一般モードでの全廃は撤回されましたが、「追跡抑制を強化する」という大方針そのものは維持されていると解釈すべきでしょう。 「ポストサードパーティークッキー」の現実 2025年の一連の出来事を経て、私たちはどのような現実に直面しているのでしょうか。「Chromeで3PCが全廃されないなら、元に戻るのか」と考えるのは、最も危険な誤解です。理由は大きく三つあります。 第一に、Chrome以外のブラウザ、すなわちSafariとFirefoxでは、すでに厳格な3PCブロッキングが常態化しています。これは、市場の一定割合のオーディエンスには、もはや3PCを用いた追跡やターゲティングが技術的に届かないことを意味します。この現実は2025年を経ても一切変わっていません。 第二に、Google自身が、プライバシーサンドボックスの中核的な広告API(Topicsなど)から撤退したという事実です。これは、「3PCの代わりに、この新しいAPIに乗り換えれば、以前と同じような広告精度が戻ってくる」という単純な移行の道が閉ざされたことを示します。Googleは、広告測定などの標準化を、自社単独ではなく、W3C(World Wide Web Consortium)のような業界横断的な合意形成の場へと差し戻した格好です。 第三に、GDPRに代表される法規制の要請は、後戻りしていません。たとえ技術的に3PCが利用可能であっても、ユーザーからの明確かつ粒度の細かい同意がなければ、法務リスクを抱えることに変わりはありません。 では、企業は具体的に何に取り組むべきなのでしょうか。焦点は、3PCに依存せずとも必要なウェブ体験やビジネス上の目標を達成するための、技術の「複線化」と「安定運用」にあります。 Googleが継続を明言した技術群は、そのための「足回り」を整えるものです。たとえば、CHIPS(Cookies Having Independent Partitioned State)は、「Partitioned」属性を付与することで、トップレベルサイトごとにストレージが分離されたサードパーティクッキーを許容する仕組みです。これはクロスサイト追跡には利用できませんが、サイトに埋め込まれたチャットウィジェット、地図、決済機能などが正しく動作するために必要な「状態保持」を、プライバシーリスクを抑えつつ実現します。 ログイン連携に関しては、FedCM(Federated Credential Management)が標準的なフローを提供します。これにより、従来の3PCやリダイレクトに頼ることなく、ブラウザがユーザーの合意を仲介し、安全なID連携(例:GoogleやFacebookでのログイン)を実現できます。UXとプライバシーの両立が図りやすくなります。 また、Private State Tokens(旧称Trust Tokens)は、個人を特定することなく「そのユーザーが信頼できるふるまいをしている証(ボットではない証など)」を暗号学的に伝える技術です。これは広告に限らず、不正アクセスやアビューズ対策といった、サイトの健全性を保つ領域で活用が想定されます。 これらはあくまで機能の「保全」であり、広告ターゲティングの代替ではありません。したがって、マーケティングや分析の実務においては、次のような多角的なアプローチが不可欠です。 まず、同意管理(CMP)のUXとログ設計を徹底的に見直し、ユーザーの信頼を得つつ、法的にクリーンな状態を担保することが大前提となります。次に、計測の軸足をクライアントサイド(ブラウザ)からサーバーサイドへと移し、ブラウザの制限によるデータの欠損や重複に耐えうるID解決の仕組み(ファーストパーティIDの整備)を構築することが急務です。 広告運用面では、リターゲティングのような3PC依存の手法への偏重から脱却し、コンテクスチュアル(文脈)広告、クリエイティブの最適化、あるいはMMM(マーケティング・ミックス・モデリング)やインクリメンタリティ測定といった、統計的なアプローチによる意思決定の比重を高めていく必要があります。 2025年の出来事を総括すると、Chromeは3PCの全面廃止を見送り、CMAの監督も終息し、プライバシーサンドボックスの主要APIから撤退しました。しかし、SafariとFirefoxのブロックは続き、規制の要請も変わりません。Googleは、CHIPSやFedCMといった機能保全技術を残しつつ、広告標準化の議論を業界全体に開きました。 ということで、サードパーティークッキーは、Chromeにおいて「突然消えはしない」ことになりました。しかし、ビジネスがサードパーティークッキーに頼りきりでいられる時代は、規制と競合ブラウザの動向によって、すでに終わっているのです。企業は、「3PCありき」の発想から完全に卒業し、ファーストパーティデータとユーザーの信頼を中核に据えた、より強靭なデジタル戦略を構築していく必要があります。 Read…

初心者でもわかるエッジコンピューティング入門

クラウドの限界を超えて――なぜ今、エッジコンピューティングが求められるのか

21世紀初頭から今日に至るまで、私たちのデジタル社会を支えてきた基盤は、間違いなくクラウドコンピューティングでした。膨大な計算資源とストレージを、必要な時に必要なだけ利用できるクラウドの登場は、ビジネスの立ち上げコストを劇的に引き下げ、データ活用の裾野をあらゆる産業へと広げました。しかし、社会のデジタル化がさらに進展し、あらゆるモノがインターネットに繋がるIoTの時代が本格的に到来したことで、これまで万能に見えたクラウド集中型のアーキテクチャは、いくつかの根源的な課題に直面することになります。

第一の課題は「遅延(レイテンシ)」です。物理的な距離は、光の速さをもってしても越えられない壁となります。例えば、工場の生産ラインを流れる製品の異常を検知するシステムや、自動運転車が前方の障害物を認識するシステムを考えてみましょう。これらのシステムでは、コンマ数秒の判断の遅れが、大きな損害や人命に関わる事故に直結します。センサーが捉えたデータを一度遠く離れたクラウドデータセンターへ送り、そこで処理した結果を現場に戻すという往復の時間は、こうしたミリ秒単位の応答性が求められる用途においては致命的なのです。データが生まれる「現場」と、それを処理する「頭脳」が離れすぎているという、クラウド集中型モデルの構造的な限界がここにあります。

第二に「通信帯域とコスト」の問題です。工場の高精細カメラ、街角の監視カメラ、車両に搭載された多数のセンサーなど、現代社会では膨大なデータがリアルタイムに生成され続けています。これらのデータをすべてクラウドに送信しようとすれば、通信ネットワークには計り知れない負荷がかかります。通信帯域を増強するには莫大なコストがかかりますし、そもそも通信環境が不安定な山間部や海上などでは、常時大容量のデータを送り続けること自体が困難です。結果として、貴重なデータでありながら、通信の制約のために収集を諦めたり、画質を落としたりといった妥協を迫られるケースは少なくありません。データは増え続ける一方、それを運ぶ道には限りがあるのです。

そして第三の課題が、「プライバシーとデータガバナンス」への意識の高まりです。個人の顔が映った映像データ、患者の機密性の高い生体情報、企業の生産に関わる重要なノウハウなど、組織の外部に持ち出すべきではないデータは数多く存在します。また、各国のデータ保護規制(例えばGDPR)は、データの国外移転を厳しく制限しており、コンプライアンス遵守は企業にとって最重要課題の一つです。すべてのデータをクラウドに集約するアプローチは、こうした機微な情報を物理的に外部へ転送することを意味し、情報漏洩のリスクや法規制への対応という点で、新たな課題を生み出しました。

これらの課題を解決するアプローチとして脚光を浴びているのが、エッジコンピューティングです。その思想は「データの地産地消」とも言え、データが発生した場所、すなわちネットワークの末端(エッジ)か、そのすぐ近くでデータを処理します。現場で即座に判断を下すことで遅延を最小化し、不要なデータをクラウドに送らないことで通信帯域を節約し、機微な情報をローカル環境に留めることでセキュリティとプライバシーを確保する。これがエッジコンピューティングの基本的な価値です。重要なのは、エッジがクラウドを完全に置き換えるものではないという点です。AIモデルのトレーニングや大規模なデータ分析、複数拠点にまたがる情報の統合管理といった、膨大な計算能力と長期間のデータ保存が求められる処理は、依然としてクラウドの得意分野です。リアルタイムの判断はエッジが担い、その結果や要約されたデータ、さらなる分析に必要な情報のみをクラウドに送る。このように、それぞれの長所を活かして役割分担を行う「協調型アーキテクチャ」こそが、現代の分散システムの理想的な姿なのです。

現場でデータを処理する技術――エッジの仕組みと具体的な活用事例

エッジコンピューティングは、単一の技術ではなく、複数の技術要素が階層的に組み合わさって機能するシステムアーキテクチャです。この構造を理解するためには、データが生成されてから価値に変わるまでの流れを追うのが最も分かりやすいでしょう。

最も現場に近い第一の階層は「デバイスエッジ」です。ここには、センサーやカメラ、工場の制御装置(PLC)、スマートフォンといった、データ発生源そのものが位置します。これらのデバイスは、近年、単純にデータを収集するだけでなく、ある程度の計算能力を持つようになりました。例えば、カメラ自身が映像の中から人の顔だけを検出したり、センサーが異常な振動パターンを検知した際にだけデータを送信したりといった、基本的な前処理やフィルタリングを行います。これにより、後段のシステムに送るデータの量を初期段階で削減できます。

次の階層が、デバイス群を束ねる「近接ノード」や「オンプレミスエッジ」です。工場の事務所に設置されたサーバー、店舗のバックヤードにある小型のデータセンター、あるいは通信事業者が提供する基地局内のサーバー(MEC: Multi-access Edge Computing)などがこれにあたります。デバイスから送られてきたデータはここで集約され、より高度な処理、特にAIによる推論が実行されます。学習済みのAIモデルを用いて、リアルタイムに不良品を判定したり、顧客の行動を分析したりといった、現場の意思決定に直結するインテリジェンスがここで生まれます。

そして、これらのエッジ層の上位に、従来通り「クラウド」が存在します。エッジで処理された結果や、統計情報、重要なイベントのログなどがクラウドに集められ、全社的な経営判断のための分析、AIモデルの再学習、ソフトウェアのアップデート管理などに活用されます。現場の自律性を担保しつつ、中央での統括的な管理と改善サイクルを回すための司令塔としての役割を担うのです。

この階層的なアーキテクチャは、すでに様々な産業で具体的な価値を生み出しています。製造業では、ベルトコンベアを流れる部品を撮影した高解像度画像をエッジサーバー上のAIが瞬時に解析し、人間の目では見逃してしまうような微細な傷や歪みを検出します。これにより、不良品の流出を未然に防ぎ、品質管理のレベルを飛躍的に向上させています。モビリティの領域では、車両に搭載されたエッジコンピュータが、カメラやレーダーからの情報をリアルタイムに処理し、歩行者の飛び出しや先行車両の急ブレーキを検知して衝突を回避します。一瞬の判断が安全を左右するこの世界では、クラウドとの通信を待つ余裕などありません。

小売業や流通業においても、エッジの活用は進んでいます。店舗内に設置されたカメラの映像をエッジで分析し、顧客の動線や商品の前での滞在時間を把握することで、より魅力的な売り場作りや効果的な人員配置に繋げています。この際、個人を特定するような映像そのものはクラウドに送らず、匿名化された統計データのみを送信することで、プライバシーに配慮したデータ活用が可能になります。また、医療現場では、患者のベッドサイドに設置されたセンサーからの生体データをエッジで常時監視し、危険な兆候が見られた場合にのみ医療スタッフの端末へアラートを送信するシステムが開発されています。これにより、医療従事者の負担を軽減しつつ、患者の急変に迅速に対応できるようになるのです。これらの事例に共通しているのは、データの発生現場で即座に状況を判断し、次のアクションに繋げることで、新たな価値を創造している点です。

導入から成熟へ――エッジコンピューティングを成功に導くための羅針盤

エッジコンピューティングがもたらす価値は大きい一方で、その導入と運用は、クラウドだけのシステムとは異なる特有の難しさを伴います。この新しいアーキテクチャを成功させるためには、技術的な課題と運用上の課題の両方を見据えた、周到な戦略が不可欠です。

導入における最初の、そして最も重要な意思決定は、「どの処理を、どの階層に配置するか」というワークロード分割です。この判断は、システムの目的によって決まります。厳しいリアルタイム性が求められる処理、オフライン環境でも動作し続ける必要がある機能、通信コストを抑えたい処理、そして機微なデータを外部に出したくない処理。これらに該当するものは、エッジ側に配置するのが原則です。一方で、膨大なデータを横断的に分析する処理や、長期にわたってデータを保管する必要があるもの、複数の拠点で一貫した管理が求められる機能は、クラウドに配置するのが合理的です。特にAIの活用においては、「推論はエッジで、学習はクラウドで」というのが現在の定石ですが、近年ではエッジ側で得られたデータを使ってモデルを少しずつ自己改善していく継続学習や、プライバシーを守りながら複数拠点に分散したデータを協調的に学習させる連合学習(Federated Learning)といった、より高度な設計も広がりつつあります。

コスト設計も重要な論点です。エッジデバイスやサーバーといったハードウェアの初期投資はもちろんですが、見落としてはならないのが、長期的に発生する通信コストと運用管理コストです。すべてのデータをクラウドに送る設計は、一見シンプルですが、データの増加に伴って通信料が膨らみ、結果的に総所有コスト(TCO)を押し上げる可能性があります。エッジでデータを適切にフィルタリングし、価値の高い情報だけをクラウドに送る設計は、プライバシーや性能面だけでなく、コスト効率の観点からも優れている場合が多いのです。

そして、システムが稼働した後の運用フェーズでは、地理的に分散した多数のデバイスをいかに効率的かつ安全に管理するかが最大の課題となります。アプリケーションのアップデートやAIモデルの更新を、遠隔から一斉に、かつ安全に展開するための仕組み(フリート管理)は必須です。また、システムの健全性を監視する際も、CPU使用率やメモリといった従来の指標に加え、AIモデルの推論精度が時間と共に劣化していないか(モデルドリフト)、センサーのキャリブレーションは正常か、といった「現場の物理的な状態」まで含めた観測が求められます。

セキュリティは、あらゆる階層で考慮されなければならない最重要項目です。現場に物理的に設置されるエッジデバイスは、盗難や不正なアクセスといった物理的な攻撃のリスクに晒されます。そのため、デバイスが起動する際に正規のソフトウェアしか実行させないセキュアブートや、暗号鍵を安全に保護するための専用チップ(TPM)の搭載といった、ハードウェアレベルでの対策が重要になります。ネットワークにおいても、拠点間やクラウドとの通信はすべて暗号化し、ゼロトラストの原則、すなわち「何も信頼しない」ことを前提に、すべての通信相手を厳格に認証する仕組みが求められます。

エッジコンピューティングの未来は、5Gやその後継となる次世代通信技術の普及、より電力効率の高いAIアクセラレータの登場、そして、より洗練された分散管理ソフトウェアの進化によって、さらに大きく開かれていくでしょう。最終的に企業の競争力を左右するのは、ビジネスの要件やコスト、法規制といった様々な制約条件の中で、クラウドとエッジの間に「最適な境界線」を継続的に見出し、引き直していく能力です。エッジコンピューティングとは、単なる技術の導入ではなく、制約の中で価値を最大化するための設計思想そのものなのです。


Read More from This Article: 初心者でもわかるエッジコンピューティング入門
Source: News

The hot issues for CIOs at TechCrunch Disrupt 2025

The TechCrunch Disrupt conference has long provided valuable insights to and about startups and their investors — but CIOs can learn by talking with startups too, and there’s plenty to learn about at this year’s event. One of the central themes at TechCrunch Disrupt 2025 is artificial intelligence, which presents both an opportunity and a…

今頃聞けないSBOMを初心者にもわかりやすく解説

なぜ今、SBOMが不可欠な存在となったのか

現代社会を支えるソフトウェアは、そのほとんどがゼロから作られているわけではありません。オープンソースソフトウェア(OSS)やサードパーティ製のライブラリといった、無数の外部コンポーネントを複雑に組み合わせて構築されています。これは、開発の速度と効率を飛躍的に向上させる一方で、新たなリスクを生み出しました。それは、自社のソフトウェアが「何でできているのか」を正確に把握できなくなるという、サプライチェーンのブラックボックス化です。この課題を解決するために登場したのが、SBOM(Software Bill of Materials)、すなわちソフトウェア部品表という概念です。

物理的な製品の世界では、ある製品がどの部品で構成されているかを一覧化したBOM(部品表)は、古くから当たり前に存在し、製造、調達、品質管理の根幹を支えてきました。SBOMは、この考え方をソフトウェアの世界に適用したものです。具体的には、あるソフトウェアを構成するコンポーネントの名称、バージョン、供給元、そしてそれらの部品がどのように依存し合っているかといった情報を、機械が読み取れる形式で網羅的に記述したデータです。この「部品表」があることで、組織は自社のソフトウェア資産の構成を正確かつ即座に把握できるようになります。

近年、SBOMが急速に注目を集めるようになった背景には、ソフトウェアサプライチェーンを標的としたサイバー攻撃の深刻化があります。その象徴的な出来事が、2021年末に発覚した「Log4j」の脆弱性問題です。世界中の非常に多くのシステムで利用されていたこのロギングライブラリに深刻な脆弱性が発見されたことで、あらゆる組織が対応に追われました。問題は、自社のシステムが直接Log4jを使っていなくても、利用している別のソフトウェアやサービスが間接的にLog4jに依存しているケースが多数あったことです。多くの企業が「自社のどこに、どのバージョンのLog4jが含まれているのか」を特定するために膨大な時間と労力を費やし、サプライチェーンの可視化がリスク管理の最重要課題であることが浮き彫りになりました。

こうした状況を受け、各国の政府や規制当局も動き出しています。特に米国では、サイバーセキュリティ強化を目的とした大統領令が発令され、政府機関にソフトウェアを納入するベンダーに対してSBOMの提出を義務付ける動きが進んでいます。この流れは、医療、金融、重要インフラといった特定の産業分野にも広がりを見せており、SBOMは単なるベストプラクティスから、契約や規制上の必須要件へと変化しつつあります。顧客から取引の条件としてSBOMの提出を求められるケースも増えており、ビジネスを継続する上で避けては通れない要素となっているのです。

組織横断で価値を生むSBOMの多面的な活用法

SBOMがもたらす価値は、単一の部門に留まるものではありません。セキュリティ、法務、そして運用・調達といった異なる領域において、それぞれの課題を解決し、組織全体のレジリエンスを向上させる力を持っています。

まず、最も直接的で分かりやすい効果は、セキュリティ部門における脆弱性対応の劇的な迅速化です。新たな脆弱性情報(CVE)が公開された際、従来であれば、影響を受ける可能性のある資産を一つひとつ手作業で調査し、棚卸しする必要がありました。これは時間がかかるだけでなく、調査漏れのリスクも常に伴います。しかし、最新のSBOMが整備されていれば、データベースを検索するだけで、脆弱性のあるコンポーネントがどの製品のどのバージョンに含まれているのか、そしてそれがどのような依存関係の上にあるのかを瞬時に特定できます。これにより、セキュリティチームは影響範囲の把握と対応の優先順位付けを数時間、場合によっては数分で完了させることが可能になり、修正パッチ適用の迅速化に繋がります。

さらに、VEX(Vulnerability Exploitability eXchange)という情報を組み合わせることで、対応の精度はさらに向上します。VEXは、特定の脆弱性が自社の製品において「実際に悪用可能かどうか」というコンテキスト情報を付与するための仕組みです。例えば、「脆弱性のあるライブラリは含まれているが、製品の利用状況や設定上、その脆弱性が悪用される経路は存在しない」といった評価を機械可読な形式で記録します。SBOMで影響範囲を網羅的に洗い出し、VEXで緊急対応が必要なものだけを絞り込むことで、セキュリティチームは誤検知による不要なアラート対応から解放され、本当にリスクの高い問題にリソースを集中させることができるのです。

次に、法務・コンプライアンス部門における価値です。現代のソフトウェア開発に欠かせないOSSには、GPLやAGPL、MITライセンスなど、それぞれ異なる利用条件が定められています。これらのライセンス条項を遵守しない場合、著作権侵害による訴訟リスクや、最悪の場合には製品の出荷停止やソースコードの公開といった事態に発展しかねません。SBOMは、ソフトウェアに含まれる全コンポーネントのライセンス情報を一覧化するため、こうしたコンプライアンス遵守を強力に支援します。製品のリリース前に、データに基づいてライセンス要件(著作権表示、ソースコード提供義務など)を網羅的にチェックするプロセスを自動化でき、これまで専門家が手作業で行っていたレビューの負荷を大幅に軽減します。これにより、事後的なライセンス違反の発覚による手戻りやビジネス上の損失といった高コストなリスクを未然に防ぐことができます。

そして、運用・調達の観点からも、SBOMは重要な役割を果たします。ソフトウェア製品やサービスを外部から調達する際、これまでは機能や価格が主な評価軸でしたが、その中身はブラックボックスでした。しかし、調達側がベンダーに対してSBOMの提出を求めることで、製品の透明性が格段に向上します。例えば、サポートが終了(EOL)に向かっている古いコンポーネントが含まれていないか、脆弱性への追従は迅速に行われているか、メンテナンスの頻度はどの程度か、といったソフトウェアの「健全性」を客観的なデータに基づいて評価できるようになります。これは、長期的な運用コストやセキュリティリスクを事前に見積もる上で極めて有効な情報となり、ベンダーロックインを回避し、より健全なパートナーシップを築く一助となります。また、M&A(企業の合併・買収)の際には、買収対象企業のソフトウェア資産の構成や潜在的リスクを把握するための技術デューデリジェンスの出発点としても活用されます。

実践的な導入から継続的運用へのロードマップ

SBOMの導入と運用を成功させるためには、その作成方法から配布、保守に至るまでのライフサイクル全体を考慮した戦略的なアプローチが求められます。

SBOMのデータフォーマットには、業界標準としてSPDXとCycloneDXの二つが広く利用されています。SPDXはLinux Foundationが主導しており、特にライセンス情報の詳細な記述や監査証跡の管理に強みを持っています。一方、CycloneDXはセキュリティコミュニティOWASPから生まれたフォーマットで、アプリケーションセキュリティのユースケースを重視し、VEXとの連携などに配慮した軽量な設計が特徴です。どちらを選択するかは、組織の目的や利用するツールとの親和性によって決まりますが、将来的にはフォーマット間の相互変換も可能になるため、まずは自社のプロセスに最も適したものから始めるのが現実的です。

SBOMを生成する手法は、主に「ソースコード解析」「ビルド時の生成」「バイナリ解析」の三つに大別されます。ソースコード解析は、開発者が用いるパッケージマネージャ(npm, Mavenなど)の依存関係ファイルから情報を抽出します。ビルド時の生成は、CI/CDパイプラインのプロセスにSBOM生成ツールを組み込み、ソフトウェアがビルドされるたびに自動で最新のSBOMを生成し、成果物と一緒に保管する方法です。バイナリ解析は、すでにコンパイルされた実行ファイルやコンテナイメージをスキャンし、実際に含まれているコンポーネントを特定します。理想的なのは、これらの手法を組み合わせ、開発の初期段階から本番運用の段階まで、一貫したパイプライン上でSBOMを継続的に更新し続けることです。

しかし、SBOMは一度作成すれば終わりという静的な文書ではありません。その価値を維持するためには、「鮮度」と「整合性」が極めて重要です。依存関係は日々更新され、ビルド環境の僅かな違いによっても成果物の中身は変化します。したがって、SBOMもそれに追随して常に最新の状態に保たれなければなりません。CI/CDへの組み込みによる自動生成は、この課題を解決するための必須のプラクティスです。

また、現場での運用においては、いくつかの課題も認識しておく必要があります。一つはデータ品質の問題です。異なるツールで生成した結果、同じコンポーネントが別の名前で記録されたり、依存関係が不正確になったりすることがあります。これを防ぐためには、purl(Package URL)のような標準化された識別子を積極的に利用し、社内での命名規約を整備することが有効です。もう一つの課題は、SaaSやマネージドサービスのように、自社で直接ビルドしないソフトウェアの扱いです。これからの時代は、SaaSプロバイダーが自社サービスのSBOMを公開し、利用企業がそれを取り込んで自社のリスク管理に統合していくという、エコシステム全体での連携が不可欠になるでしょう。

これからSBOM導入に着手する組織にとって最も重要なことは、最初から完璧を目指して立ち止まらないことです。まずは、自社の主要な製品やサービスを一つ選び、そのCI/CDパイプラインにSBOM生成を組み込むことから始めるのが良いでしょう。そして、生成されたSBOMと、実際に運用されている環境をスキャンした結果を比較し、その差分を分析することで、自社にとっての品質基準を定めていきます。次に、脆弱性管理プロセスと連携させ、VEXの試験運用を開始します。このように、開発、運用、セキュリティ、法務といった関係者を巻き込みながら、スモールスタートでサイクルを回し、徐々に適用範囲を広げていくアプローチが成功の鍵となります。

最終的に目指すべき姿は、SBOMを単なる提出書類として扱うのではなく、サプライチェーン全体の状況をリアルタイムに把握するための「観測可能性(オブザーバビリティ)のデータ基盤」として活用することです。脆弱性情報、ライセンス情報、ビルドの来歴、そして実行環境の実測データといった様々な情報をSBOMに紐づけて一元管理し、組織内の誰もが同じデータを見て、迅速かつ的確な意思決定を下せる状態を築くこと。それこそが、SBOMがもたらす真の価値と言えるでしょう。


Read More from This Article: 今頃聞けないSBOMを初心者にもわかりやすく解説
Source: News

サイバー攻撃の新たな温床「サブドメイン乗っ取り」とは? 国内外の事例から学ぶ、運用の落とし穴と対策

企業のウェブサイトやサービスで使われるドメインは、インターネット上の「住所」であり、顧客からの信頼の礎となる重要な資産です。しかし今、そのドメインの一部である「サブドメイン」が、設定のわずかな見落としから第三者に乗っ取られ、巧妙なサイバー攻撃に悪用される事例が世界中で深刻化しています。「サブドメイン乗っ取り(Subdomain Takeover)」と呼ばれるこの脅威は、使われなくなったクラウドサービスや外部サービスへのDNS設定を削除し忘れたまま放置してしまう、いわゆる「ダングリングDNS(宙ぶらりんのDNSレコード)」を足がかりにします。攻撃者はこの隙を突いて、本来の組織が持つ正規ドメインのサブドメインを掌握し、フィッシングサイトやマルウェア配布の拠点として悪用するのです。見た目は完全に正規のURLであるため、利用者は疑うことなくアクセスしてしまい、被害はブランドイメージの毀損から、サプライチェーン全体を巻き込む大規模なインシデントへと発展しかねません。2025年に入り、日本の政府機関ドメインでもこの問題が発覚し、決して他人事ではない脅威として国内でも急速に関心が高まっています。本稿では、この静かで深刻な脅威の実態を国内外の最新事例から読み解き、なぜ攻撃が起きるのか、そして組織としていかにして自社のドメインを守るべきか、その具体的な対策を深く掘り下げていきます。

日本でも顕在化した静かなる脅威――政府機関ドメインで起きたこと

2025年1月、日本のセキュリティ界隈に大きな衝撃が走りました。国土交通省をはじめとする複数の省庁や関連機関において、過去に利用していたサービスのサブドメイン設定が削除されないまま放置され、第三者がそれを悪用できる危険な状態にあったことが、大手メディアによって次々と報じられたのです。特に深刻だったのは、国土交通省が過去に使用していた特定のサブドメインが、実際にある海外のオンラインカジノの広告サイトへ利用者を誘導する目的で悪用されていたという事実でした。政府機関の公式サイトのドメイン(go.jp)を冠したURLが、全く無関係な、それも公序良俗に反する可能性のあるサイトに繋がっていたこの出来事は、「サブドメイン乗っ取り」の危険性を日本国内に広く知らしめる象徴的な事件となりました。

この攻撃の根源にあるのは、「ダングリングDNS」と呼ばれる状態です。これを分かりやすく例えるなら、引っ越した後の古い家に、以前の住人の表札が残っているようなものです。新しい住人がその表札を悪用して郵便物をだまし取ったり、なりすましたりできるように、インターネットの世界でも同様のことが起こります。企業や組織がウェブサイトのリニューアルや、利用するクラウドサービスの変更を行った際に、古いサービス(例えば、Amazon S3のストレージやMicrosoft Azureのウェブアプリなど)は解約します。しかし、その古いサービスに向けて設定されていたDNSレコード、特にドメインの別名を定義する「CNAMEレコード」を消し忘れてしまうことがあるのです。攻撃者は、インターネット上を常にスキャンし、このような「宛先を失って宙ぶらりんになったCNAMEレコード」を探しています。そして、その宛先と同じ名前で新しいクラウドサービスを契約しさえすれば、DNSの設定上、そのサブドメインへのアクセスはすべて攻撃者が用意したサーバーへと向かうことになります。これが、サブドメイン乗っ取りの基本的な仕組みです。

go.jpドメインでの事件を受け、日本のドメイン登録管理組織であるJPRS(日本レジストリサービス)は、直ちに技術的な解説と対策に関する注意喚起を発表しました。そこでは、サービス終了時にDNS設定、特にCNAMEレコードや、子会社や関連組織に委任していたNSレコードの削除を徹底することの重要性が改めて強調されました。これまでDNSの設定管理は、一部の技術専門家の間での課題と認識されがちでしたが、この一件を機に、企業の広報や経営層までもが無視できない、事業継続に関わる重大なリスク管理マターとして認識されるようになったのです。技術的な設定ミスという小さな綻びが、組織全体の信頼を根底から揺るがしかねないという厳しい現実が、白日の下に晒された瞬間でした。

世界で「産業化」する乗っ取り攻撃――巧妙化する手口とその実態

日本での事件がDNS運用の見直しを促す警鐘となった一方で、海外ではサブドメイン乗っ取りはすでに「産業化」の様相を呈しています。攻撃者は、これを一過性のいたずらではなく、継続的な収益源として確立しようと活動を活発化させているのです。2025年春、セキュリティ企業のInfobloxは、「Hazy Hawk」と名付けられた攻撃者グループの活動を報告しました。彼らは、組織が放置したクラウド資産に向けられたダングリングDNSを体系的に探し出し、米疾病対策センター(CDC)のような公的機関や、Bose、Panasonic、Deloitteといった世界的に著名な大企業のサブドメインを次々と乗っ取り、マルウェアの配布や悪質なスパムサイトへの誘導に利用していました。この攻撃手法の厄介な点は、サーバーへの不正侵入のような派手な痕跡を残さないことです。攻撃者はただ、正規の運用プロセスからこぼれ落ちた「運用のほころび」を突くだけで、正規ドメインの権威を悪用できてしまいます。そのため、被害組織側での検知が遅れがちになり、気づいた頃にはブランドイメージが大きく傷つけられているという事態に陥りやすいのです。

このような攻撃は、もはや単に偽のウェブサイトを公開するだけには留まりません。近年の攻撃者は、TDS(Traffic Distribution System)と呼ばれる仕組みを組み合わせ、アクセスしてきたユーザーの地域やデバイス、OSなどの情報に応じて、表示するコンテンツを動的に切り替えます。あるユーザーにはフィッシングサイトを、別のユーザーにはマルウェアをダウンロードさせるサイトを見せるなど、効果を最大化するよう最適化されているのです。さらに、ウェブサイト訪問時に表示される「通知を許可しますか?」というポップアップを悪用し、一度許可してしまったユーザーに対して、その後も持続的に偽の警告や詐欺的な広告を送り続けるといった手口も横行しています。表面上は「○○社の公式サイト」という信頼性の高い顔をしていながら、その裏側では、攻撃者が自由に使い捨てるためのインフラとして機能し、広告配信ネットワークなどを介して被害はネズミ算式に拡大していきます。

クラウドコンピューティングの普及が、この問題に拍車をかけている側面も無視できません。AWS S3、GitHub Pages、Heroku、各種CDN(コンテンツデリバリネットワーク)といったサービスは、誰でも手軽にウェブサイトやアプリケーションを公開できる利便性を提供します。その利便性を支えているのが、柔軟なCNAMEレコードの運用です。しかし、この手軽さが仇となり、「とりあえず作って、終わったら消し忘れる」という事態を誘発しやすくなっています。セキュリティ研究者のコミュニティでは、どのクラウドサービスのどのような設定状態であれば乗っ取りが可能か、という知見が「can-i-take-over-xyz」のような公開リポジトリに蓄積されており、攻撃者にとっても格好の参考情報となっています。利便性とリスクは常に表裏一体であり、クラウド時代の恩恵を安全に享受するためには、その光と影を正しく理解することが不可欠なのです。

脅威の連鎖を断ち切るために――今、組織が取り組むべき対策とは

サブドメイン乗っ取りという脅威の根は、突き詰めれば「ライフサイクル管理の失敗」という非常にシンプルな問題に行き着きます。プロジェクトの開始、クラウドサービスの導入、ウェブサイトの公開といった「始まり」には多くの時間と注意が払われる一方で、プロジェクトの終了、サービスの解約、サイトの閉鎖といった「終わり」の手続きは、しばしば軽視されがちです。このギャップこそが、攻撃者に付け入る隙を与えてしまうのです。この脅威の連鎖を断ち切るためには、「技術的な設定」と「組織的な運用習慣」の両面から対策を講じ、それを組織文化として根付かせる必要があります。

まず、技術的な対策としては、各クラウドプラットフォームが提供している「なりすまし防止機能」を正しく活用することが挙げられます。例えば、Microsoft AzureのApp Serviceでは、ドメインの所有権を確認するために「asuid」という固有のIDを含んだTXTレコードをDNSに設定する仕組みがあります。このTXTレコードが存在する限り、たとえCNAMEレコードが残っていても、第三者が同じ名前でサービスを立ち上げてドメインを乗っ取ることをブロックできます。これは、万が一DNSレコードを消し忘れてしまった場合の、最後のセーフティネットとして機能します。すべてのプラットフォームが完璧な保護機能を提供しているわけではありませんが、利用するサービスの仕様を正しく理解し、推奨されるセキュリティ設定を施すことは、防御の第一歩として極めて重要です。

しかし、より本質的で重要なのは、組織的な運用習慣の見直しです。具体的には、サービスやプロジェクトを終了する際の公式な手順書、いわゆる「退役手順書(Runbook)」の中に、「関連する全DNSレコードの削除」を必須のチェック項目として明記し、実行を義務付けることです。そして、その手続きが徹底されているかを、変更管理プロセスの中で確実に監査する体制を整えなければなりません。さらに、人間の注意力には限界があることを前提に、定期的に自社の管理するドメイン全体を自動スキャンし、ダングリングDNSの兆候がないかを洗い出す仕組みを導入することが望ましいでしょう。近年では、EASM(外部攻撃対象領域管理)と呼ばれるソリューションも登場しており、こうしたツールは自社の気づいていないIT資産や、今回のような設定不備を自動的に検知するのに役立ちます。

最終的に最も重要なのは、組織の壁を越えた連携です。ドメイン名の管理を担当する情報システム部門、クラウドサービスを契約・利用する事業部門や開発部門、そしてアプリケーションのライフサイクルを管理するチーム。これらの担当者が縦割りで業務を進めている限り、資産のライフサイクル全体を見通すことは困難です。ドメインという会社の「表札」を誰が管理し、その「表札」がどの「家」(クラウド資産)を指しているのか、そしてその「家」がいつ取り壊されるのか。この一連の流れを一元的に把握し、それぞれの責任者が連携して管理する文化を醸成することこそが、サブドメイン乗っ取りという脅威に対する最も強力な対抗策となります。この脅威は、特定の製品の脆弱性ではなく、私たちの「運用文化」そのものに潜んでいます。プロジェクトの「始まり」にかけるのと同じだけの情熱と規律をもって「終わり」を設計し、管理しきること。それこそが、最小のコストで最大のセキュリティ効果を生む、確実な道筋と言えるでしょう。


Read More from This Article: サイバー攻撃の新たな温床「サブドメイン乗っ取り」とは? 国内外の事例から学ぶ、運用の落とし穴と対策
Source: News

What CIOs can learn at TechCrunch Disrupt 2025

AI is arguably one of the most disruptive forces for enterprises since the advent of cloud computing, making it a natural focus for many of the presentations at TechCrunch Disrupt 2025. The event, in San Francisco from Oct. 27 to 29, offers CIOs opportunities to gain valuable insights into the latest technologies and strategies from…