칼럼 | AI ROI를 계산할 때 기대치를 더 낮춰야 하는 이유

자동차를 구매할 때는 창문 스티커에 적힌 공인 연비를 먼저 보기 마련이다. 1리터로 18km를 달린다는 수치를 보면 기대가 커지지만, 막상 차를 집까지 몰고 오면 실주행 연비는 그보다 훨씬 낮게 나온다는 점을 깨닫는다. 제조사가 평지나 내리막길, 최적의 조건만 가정해 측정한 결과가 아닌가 하는 생각이 들 때가 많다. AI 생산성을 둘러싼 논의도 이와 크게 다르지 않다. 글로벌 컨설팅사의…

“110개국에 도입” 네슬레의 SAP S/4HANA 프라이빗 클라우드 전환 여정

전 세계 약 28만 명의 직원과 2024년 기준 914억 스위스프랑(약 166조 원) 매출을 기록한 네슬레는 글로벌 식품·음료 기업 가운데서도 손꼽히는 규모를 갖춘 기업이다. 마지(Maggi), 킷캣 초콜릿바, 네스프레소와 네스카페 같은 커피 제품 등 다양한 브랜드를 보유하고 있다. 네슬레는 2000년부터 SAP를 글로벌 비즈니스 프로세스를 관리하는 중앙 플랫폼으로 활용해 왔다. 이번 SAP S/4HANA 클라우드 프라이빗 에디션 도입은 그…

“엔비디아 GPU 품절” 기업의 새로운 과제와 AI 인프라 다변화 전략

엔비디아 CFO 콜렛 크레스는 지난 주 실적 발표에서 “클라우드는 모두 매진됐고 엔비디아 GPU 설치 기반은 전부 가동되고 있다”라고 밝혀 주주들의 환호를 받았지만, AI 컴퓨팅 확장을 엔비디아에 의존해온 CIO와 데이터센터 관리자는 공급업체를 바꾸거나 계획을 수정해야 하는 상황에 놓였다. 이날 실적 발표에서 향후 12~18개월 내에 공급이 수요를 따라잡을 수 있는 현실적인 경로가 보이느냐는 질문을 받은 엔비디아 CEO…

“우선순위를 조정하라” AI 확산기에 필요한 예산 운영 방식

가트너는 전 세계 AI 지출이 올해 1조 5,000억 달러에서 2026년에 2조 달러에 이를 것으로 전망했다. 경영 컨설팅 회사 웨스트 먼로가 대기업 임원 300명 이상을 대상으로 진행한 설문에서도 응답자의 85%가 내년에 IT 예산을 늘릴 계획이라고 답했으며, 이 가운데 상당 부분이 AI에 투입될 예정이라고 밝혔다. 응답 임원의 42%는 AI와 데이터 역량 확장을 기술 투자 최우선 과제로 꼽았고,…

AI時代を支える「見えない心臓」――データセンターが握る世界の覇権と未来

「情報工場」から「計算の要塞」へ――AI特化型データセンターの構造的変革

データセンターと一口に言っても、AI時代以前と以後では、その役割と内部構造が劇的に変化しています。従来のデータセンターは、ウェブサイトのホスティングや企業の顧客データの保管、業務アプリケーションの安定稼働などを主な目的としており、いわばデータの「倉庫」や「配送センター」としての機能が主軸でした。しかし、大規模言語モデル(LLM)や生成AIの登場によって求められる機能は、「データの保管」から「圧倒的な計算処理」へとシフトしました。これは、データセンターが静的な倉庫から、膨大なエネルギーを消費して知能を生産する「高密度な工場」あるいは「計算の要塞」へと進化したことを意味しています。

この変化を象徴するのが、計算資源の「密度」と「瞬発力」の劇的な向上です。AIモデル、特に大規模な学習フェーズにあるモデルは、天文学的な回数の行列演算を必要とします。これを処理するためには、従来のCPU中心のサーバーではなく、並列処理に特化したGPUや専用AIアクセラレータを数千、数万という単位で連携させる必要があります。コンサルティング企業のマッキンゼー・アンド・カンパニーの分析によれば、AI向けデータセンター容量の需要は2030年に向けて年率30%を超える勢いで急増し、将来的には全需要の大半をAIが占めると予測されていますが、ここで問題となるのが物理的な熱と電力の密度です。一般的な企業の業務システム用サーバーラックが消費する電力は1ラックあたり数キロワットから十数キロワット程度でしたが、最新のGPUをぎっしりと搭載したAI専用ラックでは、その10倍以上となる100キロワットを超えるケースも珍しくありません。同じ床面積でありながら、消費する電力も、そこから発生する熱量も桁違いのレベルに達しているのです。

さらに、AIのワークロード特有の「負荷の波」も、データセンターの設計思想を根本から変えつつあります。AIの学習プロセスや、世界中からアクセスが集中する時間帯の推論処理においては、短時間で爆発的な計算リソースが必要となります。これに対応するため、AI向けデータセンターは、定常的な安定稼働だけでなく、急激な負荷変動にも瞬時に耐えうる強靭な電源供給能力と、ネットワーク帯域の広さが求められます。単にサーバーを並べるだけではなく、それらを極太の高速ネットワークで有機的に結合し、一つの巨大なスーパーコンピューターとして機能させるための設計が必要不可欠となっており、これが世界中で新たな建設ラッシュと技術革新を引き起こしている最大の要因なのです。

熱と電力の戦い――エネルギーインフラとしての限界と技術的挑戦

AI時代のデータセンターを語る上で、避けて通れない最大の課題が「電力」と「熱」の問題です。AIという高度な知能を維持・成長させるためには、都市一つ分にも匹敵する膨大な電力が必要となります。国際エネルギー機関(IEA)の推計によれば、2024年時点ですでに世界の電力消費の相当量をデータセンターが占めていますが、2030年に向けてその消費量は倍増し、日本全体の年間消費電力を上回る規模に達すると予測されています。この急激な需要増の主因は明らかにAI関連の処理であり、検索エンジンにAIが組み込まれることで、従来のキーワード検索と比較して数倍から十数倍のエネルギーが消費されるとも言われています。

ここで深刻なボトルネックとなっているのが、発電そのものよりも、むしろ送電網の容量です。データセンターを建設する土地や建物自体は比較的短期間で用意できたとしても、そこに数メガワット、時にはギガワット級の特高受電設備を引き込み、安定した電力を供給するための送電インフラを整備するには、数年から十数年単位の時間がかかります。不動産・インフラ調査会社のJLLなどが指摘するように、AIデータセンターの展開速度は、地域の電力インフラの整備速度によって制限される事態に陥っています。もはやデータセンター建設プロジェクトは、IT産業の枠組みを超え、地域の電力会社や行政と一体となったエネルギー開発プロジェクトの様相を呈しています。

そして、電力を消費すれば必然的に発生するのが「熱」です。高密度化したAIサーバーから発せられる凄まじい熱は、従来の空調機で冷風を当てるだけの冷却方式では制御不能になりつつあります。チップの温度が限界を超えれば処理能力は低下し、最悪の場合は故障に至るため、冷却技術はデータセンターの生命線です。そこで急速に導入が進んでいるのが、水冷方式や、サーバー自体を非伝導性の液体に浸す液冷(液浸冷却)技術です。これらは空気よりも熱伝導率の高い液体を利用することで、冷却効率を劇的に高めると同時に、冷却ファンの回転に要する電力を削減することも可能です。しかし、水冷方式には大量の水資源が必要となるため、水不足に悩む地域では新たな環境負荷となるリスクも孕んでいます。欧州委員会などが主導してデータセンターのエネルギー効率や水利用に関する規制強化の動きを見せているように、いかにして環境負荷を抑えつつ、AIの進化に必要な計算能力を確保するかという、非常に難しいバランス取りが求められているのです。廃熱を地域の暖房や農業用ハウスに利用するといったサーキュラーエコノミー的なアプローチも模索されていますが、技術的・コスト的なハードルは依然として高く、人類はAIの知能を得る代償として、エネルギーと熱という物理法則の壁に直面していると言えるでしょう。

国家戦略としてのデータセンター――経済安全保障と地政学的リスクの再定義

AI向けデータセンターの偏在は、単なる産業地図の問題にとどまらず、国際政治や経済安全保障におけるパワーバランスを決定づける要因となりつつあります。現在のAI開発競争において、計算資源、すなわち「コンピューティング・パワー」を持つ者が覇権を握ると言っても過言ではありません。IEAのデータが示すように、世界のデータセンター電力消費の過半数がアメリカと中国に集中している現状は、AI開発の主導権がこの二大国に握られている事実を如実に物語っています。高性能なGPUを搭載したデータセンターを自国内にどれだけ保有しているかは、その国のAI開発力、ひいては将来の産業競争力や軍事技術の優位性に直結します。

この重要性を認識しているからこそ、マイクロソフトやAmazon(AWS)、Googleといった巨大テック企業は、国家予算レベルの巨額投資を行い、世界中でデータセンターの囲い込みを行っています。OpenAIとAWSの巨額契約や、マイクロソフトによるチップ確保のための戦略的提携など、その動きはまさに「設備争奪戦」です。しかし、こうした巨大なデータセンター群をどこに設置するかという問題は、地政学的なリスクと常に隣り合わせです。データを他国の領土にあるサーバーに置くことは、法的な管轄権や検閲、あるいは有事の際の接続遮断といったリスクを伴います。そのため、各国は「データ主権(データ・ソブリンティ)」を掲げ、自国民のデータや重要なAIモデルを自国内のデータセンターで管理しようとする動きを強めています。これは、データセンターが単なる民間企業の設備ではなく、空港や港湾、発電所と同じく、国家が管理すべき重要インフラとして位置づけ直されていることを意味します。

また、地域経済の視点から見れば、データセンターの誘致は諸刃の剣でもあります。建設や運用に伴う巨額の投資、固定資産税収、高度な技術者の雇用創出といったメリットがある一方で、地域の電力需給の逼迫や電気料金の高騰、水資源の枯渇といったデメリットも懸念されます。BloombergNEFなどが指摘するように、データセンターによる電力の「爆食い」が、地域の他の産業や住民生活を圧迫する可能性は否定できません。したがって、国や自治体には、単に企業を誘致するだけでなく、再生可能エネルギーの供給計画や送電網の増強、環境規制の整備を含めた、包括的かつ長期的なグランドデザインを描く能力が問われています。どの地域に、どの程度の規模のデータセンターを配置し、それをどう支えるかという戦略は、そのままその国や地域の数十年後の競争力を決定づけることになるでしょう。AI時代におけるデータセンターとは、デジタル空間の出来事ではなく、土地、エネルギー、水、そして国家の意志が複雑に絡み合う、極めて物理的かつ政治的な闘争の最前線なのです。

AIの未来を物理的に実装するために

AIの進化速度は加速する一方ですが、その進化を現実世界に実装するためには、物理的な制約を乗り越えなければなりません。モデルのパラメータ数が増え、学習データが肥大化するにつれて、それを支えるデータセンターの役割と責任は重くなる一方です。私たちがAIの可能性を語るとき、どうしてもソフトウェアの革新性に目を奪われがちですが、その背後には、広大な土地を切り開き、巨大な建屋を建設し、太い送電線を這わせ、冷却水を循環させている膨大な物理インフラが存在することを忘れてはなりません。2030年、そしてその先に待つAI社会が持続可能なものになるか、それともエネルギー危機や環境破壊を引き起こすものになるかは、モデルのアルゴリズムよりもむしろ、それを支える「見えない心臓」であるデータセンターを私たちがどう設計し、どう制御していくかにかかっています。デジタルとフィジカル、技術革新と環境制約、グローバルな競争とローカルな共生。これら相反する要素を統合し、データセンターという巨大システムを最適化することこそが、AI時代の真の課題であり、私たち人類に突きつけられた最大の挑戦の一つなのです。


Read More from This Article: AI時代を支える「見えない心臓」――データセンターが握る世界の覇権と未来
Source: News

CISO가 보내는 공개 경고 : 기본을 외면한 보안 시장의 위험

사이버보안 시장이 정상적 판단을 잃었다고 진단할 수 있는 상황이 이어지고 있다. 매주 새로운 업체가 등장하고, 투자자는 완성되지 않은 아이디어에 자금을 투입하며, CISO는 실제 침해 사고를 막지 못할 제품 제안에 파묻히는 현상이 반복되고 있다. 업계의 소음은 점점 더 커지지만, 정작 보안의 핵심 원칙은 철저히 외면되고 있다. 대다수 보안 제품이 데모 단계에서도 인상적인 모습을 보여주지 못하는 상황이…

「インターネットが壊れた?」Cloudflareが止まるとXやChatGPTまで巻き込まれる理由

インターネットの「影の支配者」、Cloudflareとは一体何者なのか

まず最初に、Cloudflareという会社が一体何をしているのか、その正体を解き明かしていきましょう。一言で表現するならば、彼らは「世界中のウェブサイトの玄関口に立って、交通整理と警備を一手に引き受けている超巨大な門番」です。私たちが普段、スマートフォンやパソコンからウェブサイトを見るとき、感覚としては自分の端末から目的のサイトへ直接繋がっているように思えます。しかし、現在のインターネットの多くはそう単純ではありません。XやChatGPT、Discordといった人気サービスの多くは、自分のサーバーの手前にCloudflareという「盾」兼「加速装置」を配置しています。つまり、私たちの通信は「ユーザーの端末」から「Cloudflareのサーバー」を経由して、初めて「本物のサーバー」に届くというルートを辿っているのです。

なぜ、わざわざそんな中継地点を通す必要があるのでしょうか。そこには大きく分けて三つの重要な理由があります。一つ目は「圧倒的な高速化」です。Cloudflareは世界中のあらゆる都市にデータセンターを持っています。例えば、あなたが日本の自宅からアメリカにある企業のウェブサイトを見ようとしたとき、いちいちアメリカのサーバーまでデータを取りに行っていたら時間がかかってしまいます。そこでCloudflareは、日本国内にある彼らのサーバーにウェブサイトのコピー(キャッシュ)を一時的に保存しておきます。ユーザーは近所のCloudflareからデータを受け取れるため、驚くほど高速にページが表示されるという仕組みです。これは「CDN(コンテンツデリバリネットワーク)」と呼ばれる技術で、現代の快適なネットサーフィンには欠かせないものです。

二つ目の理由は「鉄壁の防御」です。人気のウェブサイトには、多くの一般ユーザーだけでなく、悪意あるハッカーやウイルス、サーバーをダウンさせようとする攻撃的なアクセスも押し寄せます。Cloudflareは本物のサーバーの代わりにこれらをすべて受け止め、サイバー攻撃や迷惑なボットだけを瞬時に見分けて弾き飛ばし、善良なユーザーだけを通すというフィルタリングを行っています。DDoS攻撃と呼ばれる大量のアクセス攻撃からサービスを守るためには、Cloudflareのような巨大な防波堤が必要不可欠なのです。

そして三つ目の理由が「インターネットの住所案内」です。私たちがブラウザに「x.com」や「openai.com」と打ち込んだとき、コンピューターはそれがネットワーク上のどこにあるのか(IPアドレス)を知る必要があります。この名前解決を行う「DNS(ドメインネームシステム)」という仕組みもCloudflareは提供しています。つまり、「サイトを表示するスピード」「外敵からの防御」「サイトの場所を教える案内」という、ウェブサイト運営の根幹に関わる三つの機能を一手に担っているのがCloudflareなのです。現在、世界中のウェブサイトのおよそ2割がCloudflareを利用しているとも言われており、彼らがインターネットのインフラそのものと言っても過言ではない理由がここにあります。

なぜ一社の不具合で、世界中のサービスが「共倒れ」になるのか

Cloudflareの凄さがわかったところで、次に疑問に思うのは「なぜCloudflareが止まると、XもChatGPTも一斉に使えなくなってしまうのか」という点でしょう。それぞれのサービスは別々の会社が運営しており、サーバーも別々の場所にあります。それなのに、なぜあたかも申し合わせたように同時にダウンしてしまうのでしょうか。

これを理解するために、インターネットを「高速道路」に例えてみましょう。XやChatGPTといったサービスは、それぞれが魅力的な「テーマパーク(目的地)」です。そしてCloudflareは、それらのテーマパークへ向かうための高速道路にある「巨大な料金所兼ジャンクション」だと考えてください。この料金所は非常に優秀で、正規のチケットを持った車はスムーズに通し、暴走車や危険な車は強制的に排除してくれます。だからこそ、各テーマパークはこの料金所を使う契約を結んでいるのです。

普段、このシステムは完璧に機能しています。しかし、もしこの「巨大料金所のゲート」がシステムエラーで一斉に開かなくなってしまったらどうなるでしょうか。テーマパーク自体は元気に営業しているし、内部の施設にも何の問題もありません。しかし、そこへ向かうための唯一の入り口が封鎖されてしまえば、客である私たちは目的地にたどり着くことができません。道路は大渋滞し、私たちの車のナビ(ブラウザ)には「目的地に到達できません」という無慈悲なエラーメッセージが表示されることになります。

これが、Cloudflareの障害時に起きる現象の正体です。Xのサーバーが壊れたわけでも、ChatGPTのAIが暴走したわけでもありません。それらのサービスの「手前」にあるCloudflareという入り口が閉じてしまったために、誰も中に入れなくなってしまったのです。技術的には、ブラウザに「502 Bad Gateway」や「500 Internal Server Error」といった数字が表示されることがよくあります。これは「あなたの通信は受け取ったけれど、その先にある本物のサーバーへうまく繋げませんでした」という、門番からの悲鳴のようなメッセージです。

現代のインターネットサービス開発において、自前で世界規模の高速配信ネットワークや高度なセキュリティシステムを構築するのは、莫大なコストと時間がかかります。それよりも、専門家であるCloudflareにお金を払って任せてしまった方が、安上がりで性能も良く、安全です。その結果、多くの企業が合理的な判断としてCloudflareを採用しました。これはビジネスとしては正解なのですが、構造としては「みんなが同じ一本の命綱にぶら下がっている」という状態を作り出すことになります。そのため、その命綱であるCloudflareにひとたびトラブルが起きると、業種も国も関係なく、そこに依存していたすべてのサービスがドミノ倒しのように巻き込まれ、世界規模の「インターネット障害」として体感されてしまうのです。

2025年11月18日、その時デジタル空間で何が起きていたのか

それでは、2025年11月18日に発生した大規模障害では、具体的に何が起きていたのでしょうか。CloudflareのCEOであるマシュー・プリンス氏が公開した詳細なレポートや、The Vergeなどのテック系メディアの報道を総合すると、まるでバタフライ・エフェクトのような、小さなきっかけが巨大なシステムダウンを招くプロセスが明らかになりました。結論から言えば、これは外部からのサイバー攻撃ではなく、内部のシステム更新における「想定外のミス」が原因でした。

事の発端は、Cloudflareが運用している「ボット管理システム」のアップデート作業でした。このシステムは、人間ではないプログラム(ボット)によるアクセスを検知して遮断するための重要な機能です。Cloudflareのエンジニアたちは、このシステムの裏側にあるデータベースのセキュリティを強化しようとしていました。具体的には、データベースへのアクセス権限を整理し、より安全な形に移行する作業を行っていたのです。これは日常的な改善作業の一環であり、本来であれば何の問題も起きないはずでした。

しかし、この変更によって予期せぬ副作用が発生しました。新しい設定の下でボットを識別するためのルール(シグネチャ)を生成するプログラムを動かしたところ、データベースから取り出される情報に重複が発生してしまったのです。料理に例えるなら、レシピの材料リストを作るときに、手違いで「砂糖」を2回も3回もリストに入れてしまったような状態です。その結果、生成された「設定ファイル(フィーチャーファイル)」のサイズが、普段の約2倍にまで膨れ上がってしまいました。

この「太りすぎた設定ファイル」は、自動的に世界中のCloudflareのサーバーへと配信されました。各サーバーで待ち構えていたソフトウェアは、いつものようにこのファイルを受け取り、読み込もうとしました。しかし、ここで致命的な問題が発生します。そのソフトウェアには、「読み込むファイルの大きさはこれくらいまで」という制限や、メモリの使い方の前提がプログラムコードとして組み込まれていました。想定を遥かに超える巨大なファイルが送られてきたことで、ソフトウェアはメモリを食いつぶし、処理能力の限界を超え、パニックを起こしてクラッシュしてしまったのです。

悪いことは重なるもので、Cloudflareのシステムは非常に回復力が高い設計になっていました。あるプロセスがクラッシュすると、システムは自動的に「再起動」を試みます。しかし、再起動しても読み込むのは同じ「太りすぎたファイル」です。結果として、起動してはクラッシュし、また起動してはクラッシュするという「再起動ループ」が世界中の何千台ものサーバーで一斉に発生しました。これが、大規模な通信障害の直接的な原因です。

障害はUTC(協定世界時)で午前11時20分頃から深刻化し、X、ChatGPT、Zoom、Spotify、Canvaといった主要サービスだけでなく、皮肉なことに障害情報を伝えるためのサイトであるDownDetectorまでもが繋がりにくくなりました。Cloudflareのエンジニアチームは当初、この異常なトラフィックの途絶を「大規模なDDoS攻撃を受けているのではないか」と疑いました。しかし調査を進めるうちに、外部からの攻撃の痕跡はなく、自分たちが配信した設定ファイルそのものが原因であることを突き止めました。

原因が判明してからの対応は迅速でした。エンジニアたちは問題のある設定ファイルの配信を止め、過去の正常なバージョンのファイルに差し替える作業を行いました。また、ボット管理システムの自動更新を一時的に停止し、事態の鎮静化を図りました。その結果、主要なトラフィックは数時間以内に回復し、日本時間の18日深夜から19日未明にかけて、インターネットは徐々に日常を取り戻していきました。CEOのマシュー・プリンス氏は、今回の事態を「2019年以来最悪の障害」と認め、今後は設定ファイルのサイズチェックを厳格化することや、問題発生時にシステムを一括で緊急停止できる仕組み(キルスイッチ)の改善、そしてエラーログの収集自体がサーバーに負荷をかけないような設計の見直しなど、徹底的な再発防止策を講じると約束しました。

もちろん、Cloudflare側も今回のような障害を繰り返さないために、検証プロセスの強化や、設定ミスがあっても全世界に一気に波及しない仕組みづくりを進めるとしています。しかし「インターネットの裏側で、少数の巨大事業者に機能が集中している」という構造そのものはすぐには変わりません。

私たち一般の利用者ができることは多くありませんが、「XやChatGPTが落ちている」と感じたときに、「サービスそのものではなく、Cloudflareやクラウド事業者など“裏方のインフラに障害が起きている可能性がある」という視点を持っておくと、ニュースの内容がぐっと理解しやすくなります。

今回の「インターネットが壊れた」という騒動は、便利で高速で安全なインフラに支えられた現代のネット社会が、同時に“少数の重要なハブに強く依存している世界”でもあることを、私たちに印象づける出来事だったと言えるでしょう。


Read More from This Article: 「インターネットが壊れた?」Cloudflareが止まるとXやChatGPTまで巻き込まれる理由
Source: News

Microsoft has yet to ignite enthusiasm for agentic AI

It’s the year of the agentic enterprise, according to Microsoft, which at its Ignite show this week positioned autonomous workflows and reasoning-driven automation as the almost-inevitable path that enterprises must eventually take. But there’s reluctance, and resistance to the investments that will be required to take advantage of the new technology. “Every organization will run…