GPU 공급난 속 해답 될까···구글, 신규 TPU ‘아이언우드’ 출시

AI 워크로드를 실행할 GPU 부족에 시달리거나, 전력 비용 부담으로 어려움을 겪는 기업에게 구글의 차세대 TPU가 현실적인 대안으로 떠올랐다. 구글은 더 빠르고 에너지 효율이 높은 차세대 TPU(텐서 처리 장치) ‘아이언우드(Ironwood)’를 클라우드 컴퓨팅 서비스에 곧 추가할 계획이다. 분석가들은 아이언우드가 AMD와 엔비디아의 GPU와 비슷한 성능을 더 낮은 비용으로 제공할 것으로 예상하고 있다. 이에 따라 AI 모델 학습이나 추론…

버티브, 아시아 전략 고객 총괄에 앤토니 샤프라넥 선임

샤프라넥은 싱가포르에서 버티브의 아시아 지역 내 글로벌 및 지역 전략 고객 영업 팀을 총괄하며, 통합적이고 시너지를 극대화하는 시장 진출 전략과 성장 가속화에 중점을 둘 예정이다. 샤프라넥은 아시아, 유럽, 미국 등지에서 20년 이상 상업 및 전략 분야의 리더십 경험을 쌓아온 글로벌 비즈니스 전문가로, 세일즈, 비즈니스 운영, 전략 개발 등 다양한 영역에서 탁월한 성과를 입증해 왔다. 특히…

포레스터 “AI 투자 둔화 불가피···수익성 한계 드러나”

IT 시장분석기업 포레스터는 대부분의 기업이 아직까지 AI 투자가 실질적인 수익 개선으로 이어지는 효과를 확인하지 못하고 있다고 분석했다. 이에 따라 향후 1년 내 다수의 기업이 AI 예산을 재검토할 가능성이 높다고 내다봤다. 포레스터는 많은 기업이 투자수익률(ROI)을 확인하지 못해 계획된 AI 지출의 4분의 1을 2027년까지 연기할 것으로 전망했다. 포레스터 조사에 따르면, 지난 1년간 AI 관련 수익이 증가했다고 답한…

AIインフラの地政学――チップ、クラウド、規制が支配する新秩序

新たな覇権の鍵「AIインフラ」 AIの競争は、もはやアルゴリズムやデータではなく、それを動かす物理的なインフラを誰が握るかという、より根源的な段階に入った。生成AIの巨大なモデルを支えるのは、膨大なGPU(画像処理半導体)による演算資源、莫大な電力、巨大なデータセンター、そしてそれらを統合運用するクラウドプラットフォームである。 かつて石油が国際秩序を動かす「血液」であったように、いまや「演算能力(computational power)」が国家の力そのものを左右する時代が到来した。NVIDIA、TSMC、ASMLといった半導体関連企業、そしてAWS、Azureといったクラウドジャイアント。彼らはそれぞれが、この新時代の覇権軸を形成しつつある。 チップを巡る新冷戦――誰が「AIの脳」を製造するか AIの「脳」とも呼べる高性能半導体は、今や国家間の戦略的競争のまさに中心にある。その構造は、極めて偏在的だ。 技術的チョークポイントと米国の戦略 2025年時点で、AIの学習に使用されるGPUの約9割は米国のNVIDIA製である。しかし、そのエコシステムは複雑だ。設計は米国(NVIDIA)が行い、最先端品の製造は台湾のTSMCがほぼ一手に引き受け、そしてその製造に不可欠なEUV(極端紫外線)露光装置は、オランダのASMLが世界で唯一供給している。 特にASMLのEUV露光装置は、最先端ノードの製造における絶対的な「チョークポイント(隘路)」であり、この装置の輸出を制限することが、相手国の半導体開発の命運を左右する。技術と地政学が、これほどまでに強く結びついた例は稀である。 米国はこの構造を理解した上で、覇権維持に動いている。2022年のCHIPS法(CHIPS and Science Act)で520億ドルもの巨額予算を投じ、Intelの国内工場新設やTSMCの米国(アリゾナ州)への工場誘致を強力に支援した。これは単なる国内産業の振興ではない。半導体の供給網を、自国および同盟国の管理下に閉じ込める「供給網ブロック」戦略である。 その象徴が、2023年10月に米商務省産業安全保障局(BIS)が発動した強力な輸出規制だ。AI向けハイエンドGPUである「H100」や「A100」の中国向け輸出を厳しく制限。さらに、中国市場向けに性能を落としたダウングレード版「A800」「H800」までもが追加で規制対象とされた。これは、AIの演算能力そのものが、兵器と同様の国家戦略資源とみなされたことを意味する。 中国の「チップ自主化」と日本の挑戦 対する中国は、「芯片自主化(チップの自主独立)」を国家スローガンに掲げ、猛烈な追随を図る。国内ファウンドリ(半導体受託製造企業)のSMICや、通信機器大手から転身したHuawei(ファーウェイ)が、7ナノメートル(nm)級のGPU「Ascend 910C」などを開発している。 複数の独立した検証によれば、これらの中国製チップの推論性能は、NVIDIA製GPUの約6割前後に達すると推定されている。しかし、AI学習の効率、特に電力効率の面では依然として大きな差があると報じられており、性能差を埋めるには至っていない。中国政府は、国内のデータセンターでAI学習を集中させる政策を強力に進めており、国家レベルでの演算能力の確保が最優先課題となっている。 一方、日本もこの巨大な地政学ゲームの渦中にある。熊本ではTSMCの第1工場(JASM)が稼働を開始し、さらに先端プロセス(6nm/7nm)を採用する第2工場の建設計画も進んでいる。ただし、その具体的なスケジュールをめぐっては、「予定どおり着工」という楽観的な報道と、「遅延の見通し」という慎重な報道が割れている(2025年10月時点)。 同時に、日本の「日の丸半導体」復活の夢を託されたRapidus(ラピダス)は、北海道千歳市で次世代の2nmプロセスの試作に成功したと発表した(2025年6月)。 日本にとっての真の課題は、工場という「ハコ」の建設や製造装置の導入よりも、それを使いこなす熟練した半導体技術者と、工場を24時間365日動かし続けるための安定的かつ安価な電力の確保にある。半導体産業はもはや個々の企業の努力だけで成り立つものではなく、電力、水、人材、物流といった社会インフラ全体の総合力が問われる産業へと変貌した。 GPUの寡占とEUV露光装置の独占という二重のチョークポイントは、現実には「クラウド上で誰の演算資源を、どの国のルールで使うか」という選択に直結していく。 クラウドが握る「演算主権」――データは誰の法の下にあるか 本稿で「演算主権(Computational Sovereignty)」と呼ぶのは、自国のデータやAIモデルを、どの法域(どの国の法律が適用されるか)に属する、どの演算資源(GPUや各種AIアクセラレータ)で処理し、その運用権限や監査権限を誰が持つか、という概念である。 クラウド市場は、今やAI覇権の主戦場だ。米調査会社Synergy Research Groupの報告(2025年第2四半期)によれば、世界シェアはAmazon Web Services (AWS)が30%、Microsoft Azureが20%、Google Cloudが13%となっている。この上位3社だけで、世界市場の63%を支配する寡占状態だ(四半期レポート準拠)。 現在、世界中で開発・運用されている生成AIの多くが、これら3社の提供する巨大なGPUクラスタ上で稼働している。これは、研究機関や企業のAI開発の自由度さえも、これらクラウド事業者の利用規約やサービス提供の判断に左右されかねない構造が定着しつつあることを示している。 EUの「デジタル主権」とソブリンクラウド この米系メガクラウドによる支配に、最も強く異を唱えているのがEUだ。EUは「デジタル主権」を掲げ、AIやデータを域内の法律(GDPRや後述のAI法など)によって厳格に統制しようとしている。 この動きに対し、クラウド事業者側も対応を迫られている。Microsoftは「EU Data Boundary」を導入し、AWSも「European Sovereign Cloud」を立ち上げた。これらは、データの保存場所だけでなく、運用を行う人材、暗号鍵の管理、さらにはシステム監査の権限までもEU域内に限定するというものだ。特にAWSの欧州ソブリンクラウドは、会計的にも運用的にも独立した事業体として運営され、クラウドの「運用領域」を法的に再定義する野心的な試みとなっている。 日本のジレンマと「見えない越境処理」 日本も無関係ではない。政府のクラウド調達(ガバメントクラウド)においては、国内でのデータ運用要件が導入され、AWS、Google Cloud、Microsoft Azure、Oracleの4社が認定された。さらに2023年度には、さくらインターネットが条件付きで認定を受け、国産IaaS(Infrastructure as a Service)が加わった。 しかし、民間企業レベルでは課題が残る。多くの企業は、クラウド事業者が提供する「東京リージョン」でデータを運用していると認識している。だが、実際にはAIの推論処理などが、コストや負荷分散のために国外のサーバーで(ユーザーに明示されずに)行われているケースがあると指摘されているのだ。自社のデータが、どの国の法律の下で、どこで演算されているかを正確に確認できていない事例も散見される。 東南アジアでは、シンガポールやマレーシアが、米中両陣営(AWSやAzureと、Alibaba CloudやTencent Cloud)のクラウドを併用する、ASEAN型の分散構成を採用している。複数のクラウドの並立は、特定陣営への依存を避ける柔軟性をもたらすが、同時に法的な属地性の監査が極めて難しいという課題を伴う。各国がデータローカライゼーション(データの国内保存義務)法の整備を急いでいる背景には、この「見えない越BG処理」への深刻な懸念がある。 クラウドの利便性は疑いようもなく高い。だが、その選択は同時に「どの法体系の演算リソースを使うか」という、極めて政治的な決定を伴うものとなった。データ主権から演算主権への転換は、静かに、しかし確実に進行している。 規制が築く「見えない壁」――法がAIインフラを分断する 2024年8月に施行された「EU…

プライバシーかパーソナライゼーションか:データ活用は「信頼」の時代へ

便利な「最適化」か、行き過ぎた「監視」か かつて、企業が顧客を理解するための手段は、購買履歴やアンケートといった限定的なデータが中心でした。しかし、AIとクラウド技術が爆発的に進化した現在、私たちは日々、膨大なデータを無意識のうちに提供しています。 SNSでの「いいね」、スマートフォンが記録する位置情報、ECサイトの閲覧履歴、動画の視聴速度や停止したタイミング――。これらすべてがリアルタイムで解析され、企業は「顧客が欲しがる前に提案する」力を手に入れました。 ECサイトを開けば、AIが過去の傾向から「あなたへのおすすめ」を個別に提示し、動画配信サービスは、自分でも気づいていなかった“隠れた嗜好”を正確に抽出して次のコンテンツを推薦します。 この「パーソナライゼーション(個別最適化)」は、間違いなく私たちの生活を便利にしました。しかし、その最適化が過剰になった時、それは「便利さ」から「監視」へと姿を変えます。自分がネットで検索した商品が、別のサイトやSNSで執拗に広告として表示される。そんな「追いかけられる」感覚に、違和感や不快感を覚えた経験は誰にでもあるのではないでしょうか。 技術が個人の行動や心理を深く理解しすぎることは、新たな火種を生んでいます。2023年、欧州の消費者機構(BEUC)は、Meta社(旧Facebook)の広告ターゲティング手法が、利用者の自由意思を実質的に侵害している可能性があるとして、各国当局へ申立てを行いました。これは、利便性を支える技術が、同時に私たちの「選択の自由」を脅かす可能性を示した象徴的な出来事です。 日本も例外ではありません。2022年に施行された改正個人情報保護法では、企業が個人データを第三者に提供する際の記録義務や、本人が停止を求める権利(オプトアウト)の要件が厳格化されました。もはや企業は、従来型のトラッキング(追跡)に依存したマーケティング手法を、根本から見直す局面に立たされているのです。 データ黄金期の終焉と「同意疲れ」という現実 2010年代後半は、まさに「データ活用の黄金期」でした。ビッグデータ分析技術とクラウドベースのCRM(顧客関係管理)ツールが普及し、企業のマーケティング活動を一変させました。 特に小売業や金融業では、リアルタイムで顧客の行動を可視化し、一人ひとりに合わせた施策を打つことで、顧客維持率(リテンション)が劇的に向上したと報告されています。 しかし、この黄金期は、2018年にEUで施行された「一般データ保護規則(GDPR)」を境に、大きな転換点を迎えます。GDPRは、個人データの処理と移転に関して厳格なルールを定め、違反した企業には巨額の制裁金を科すことを可能にしました。 これにより、ウェブサイトを訪れるたびに表示される「Cookie(クッキー)利用への同意」バナーが世界中に氾濫しました。利用者は、そのサイトを利用するために、半ば強制的に「同意する」ボタンを押すことを求められます。これが、いわゆる「同意疲れ(Consent Fatigue)」と呼ばれる現象です。多くの人は、複雑な説明文を読むことなく同意を押しており、これが本当に「自由な意思に基づく同意」と言えるのか、疑問が呈されています。 さらに、データ活用の根幹を支えてきたサードパーティCookie(訪問サイト以外が発行するCookie)の扱いは、極めて不透明な状況が続いています。Googleは、プライバシー保護を理由にChromeブラウザでのサードパーティCookieの段階的廃止を宣言しましたが、そのスケジュールは何度も見直され、2025年時点でもいまだ「計画を再検討中」としています。 この混乱は、企業が従来のように自由に収集・分析できるデータの量と質が、確実に縮小圧力にさらされていることを意味します。 日本企業も、この世界的な潮流に適応を迫られています。EC各社では、Cookieへの依存度を低減させる過程で、一時的にマーケティング指標が変動するなどの影響が出ました。しかし一方で、プライバシーポリシーをより明確で分かりやすい言葉に修正し、顧客に誠実な説明を尽くした企業では、むしろサイトの滞在時間や再訪率が改善したという事例も報告されています。 この事実は、私たちが単なるデータの「量」を追い求める時代から、利用者が納得して提供してくれた「質」の高いデータを重視する時代へと移行しつつあることを示しています。 AIが暴く「無意識の嗜好」という危うさ 近年のAI技術、特に生成AIや行動分析AIの進化は、データ活用の質をさらに変えようとしています。AIは、顧客自身がまだ自覚していない「無意識の嗜好」や、その時の感情までも推定する能力を持ち始めています。 Amazonの強力なレコメンドエンジンや、Netflixが個別に最適化して表示する予告編は、私たちがクリックした情報(顕在的データ)だけでなく、どの位置で動画を停止したか、どれくらいの速度でスクロールしたかといった「暗黙的データ(Implicit Data)」を学習し、本人の意図を超えた推論を行います。 この「無意識の推定」は、思いがけない良質なコンテンツとの出会い(セレンディピティ)を生むなど、顧客体験を豊かにする側面があります。しかし同時に、個人の選択の自由を本質的に侵食する危険性もはらんでいます。 もしAIが、ある人物が精神的に落ち込んでいる状態を検知し、その隙(脆弱性)につけ込んで高額な商品を推薦してきたとしたら、それは「おもてなし」でしょうか、それとも「行動操作」でしょうか。 欧州連合(EU)が導入を進める「AI法」では、まさにこうした「行動操作」や「脆弱な個人層の搾取」につながるAI利用を、高リスクまたは原則禁止の類型として厳しく規制しようとしています。 日本でも、内閣官房が公表したAIガイドライン案(2024年)において、AIが消費者の判断を不当に誘導するリスクを明確に指摘し、企業に対して説明責任を果たすよう求めています。 技術の精度が高まれば高まるほど、「予測の正確さ」と「介入の正当性」の線引きは難しくなります。AIが顧客の心を“推し量る”時代だからこそ、企業はあえて立ち止まり、そのアプローチを“問い直す”設計へと転じ始めています。 信頼回復の鍵「ゼロパーティデータ」という新たな選択肢 Cookieやトラッキングによる「受動的なデータ収集」が困難になる中で、企業が次なる一手として注目しているのが「ゼロパーティデータ」です。 これは、顧客が自らの意思で、積極的に企業へ提供する嗜好や価値観、ニーズに関するデータを指します。追跡(トラッキング)に依存しない、透明性の高いデータ収集の形です。 例えば、大手化粧品会社のロレアル(L’Oréal)は、AIによるスキンケア診断アプリ「SkinConsultAI」を展開しています。利用者は、自分の肌質や生活習慣、悩みなどを自ら入力します。AIは、その結果(=ゼロパーティデータ)をもとに、その人にとって最適な製品を提案します。 この方式では、利用者が「自分の意思でデータを提供し、その見返りとして価値ある提案を得ている」と明確に感じられるため、体験への満足度が非常に高い傾向があります。 日本でも同様の動きが見られます。ANA Xが運営する「ANA Pocket」アプリは、2024年に大幅なリニューアルを行いました。単に移動距離でポイントが貯まるだけでなく、利用者が自身の関心事やライフスタイルの目的をあらかじめ登録することで、それに応じた特典や体験が提示される仕組みを導入しました。 これは、顧客が企業から一方的に「選ばれる側」だった状態から、自ら「選ぶ側」へと転換することを促す設計です。 このように、データの主権を(企業ではなく)顧客側に戻すアプローチは、単なる技術的な差別化戦略ではなく、失われかけた「信頼」を再設計するための重要な潮流として広がりつつあるのです。 技術は「矛盾」を解決できるか? プライバシー保護技術の最前線 パーソナライゼーションとプライバシーという倫理的な矛盾に対し、技術的なアプローチからの解決策も急速に進展しています。データを「集める」のではなく、「守りながら活用する」技術です。 経済産業省は2024年のガイドライン改訂版で、個人が特定できないよう処理した「匿名加工情報」や、匿名化のレベルを少し緩めて有用性を高めた「仮名加工情報」を活用したAI開発を推奨しています。 その具体的な手法の一つが「連合学習(Federated Learning)」です。NECは2023年、複数の病院が持つ医療データを対象とした連合学習の実証実験を公表しました。これは、各病院が持つ個人データを外部のサーバーに一切送信することなく、AIモデル(計算方法)だけを各病院で学習させ、その結果(賢くなったAI)だけを集約する仕組みです。個人のプライバシーを守りながら、AIの精度を向上させることができます。 また、「差分プライバシー」という技術も普及が進んでいます。これは、分析結果のデータに意図的に「統計的なノイズ(揺らぎ)」を加えることで、集計結果からは個人の情報が特定できないようにする技術です。 Appleは2024年、「Private Cloud Compute(PCC)」という新たな構想を発表しました。これは、AIの処理を個人のデバイス(iPhoneなど)と、プライバシー保護に特化した専用サーバーで安全に分散させる設計です。Apple自身も利用者のデータを閲覧・保存できない仕組みを構築し、「設計段階からのプライバシー配慮(プライバシー・バイ・デザイン)」を強く打ち出しています。 しかし、どれほど精緻な技術も、それ単体で顧客の「信頼」を保証するものではありません。 「信頼」を設計する時代へ:法規制と企業倫理が築く新たな秩序 これからの企業の競争力を左右するのは、もはや保有するデータの「量」ではなく、その利用の「正当性」です。顧客が「自分の情報が、どのように、何のために使われるのか」を理解し、納得した上で提供できる設計。これが「信頼のUX(Trust Experience)」と呼ばれ、いま最も重要視されています。 この「信頼の設計」を、法的に位置づけようとする世界的な動きが加速しています。 その筆頭が、EUの「AI法」です。2024年8月に発効(主要条文は2025年以降段階的に適用)したこの法律は、AIのリスクを厳格に分類し、特にリスクが高いとみなされるAI(例:採用活動、信用スコアリング)については、企業に厳格な透明性と説明責任を義務付けました。AIと対話していることの明示や、ディープフェイクの開示も義務化され、「説明できること」がコンプライアンスの最低ラインとなりました。 一方、米国では、連邦レベルでの包括的なAI法規制はまだ存在しませんが、「市場が信頼を競う」構造が主流です。NIST(米国国立標準技術研究所)が策定した「AIリスクマネジメント・フレームワーク(AI RMF)」が、事実上の業界標準として企業の指針となっています。 Appleが2020年から導入している、アプリごとのデータ利用目的を食品表示のように示す「プライバシー栄養ラベル」や、Amazonが2024年に公表した「責任あるAIの原則」は、まさに透明性をブランド価値と直結させようとする戦略の表れです。…

グリーンITの理想と現実: サステナビナビリティ対応がIT現場にもたらす疲弊とその先の展望

避けられない「サステナビリティ報告」の波とIT部門の苦悩 企業の環境・社会・ガバナンス(ESG)に対する取り組みが、投資家や消費者から厳しく評価される時代になりました。これに伴い、サステナビリティ情報の開示は、従来の財務情報と並ぶ「経営開示の両輪」として制度化が進んでいます。 グローバル基準の厳格化と日本への波及 特に影響が大きいのが、欧州連合(EU)のCSRD(企業サステナビリティ報告指令)です。2024年から段階的に適用が始まり、EU域内に子会社を持つ多くの日本企業も対象となります。また、ISSB(国際サステナビリティ基準審議会)が策定したIFRS S1およびS2基準も、2025年度から日本国内での任意適用が開始される見込みであり、国際的な報告基準の統一化が進んでいます。 国内においても、金融庁・経済産業省・環境省の三省は、東証プライム上場企業を中心に、2025年以降、温室効果ガス(GHG)排出量の開示を段階的に義務化する方針を示しています。 IT部門を直撃する「開示品質の保証」という重圧 これらの制度変化は、単なる「報告書作成」という事務作業の追加にとどまりません。開示が求められるGHG排出量の算定において、企業活動の「Scope 1(直接排出)」「Scope 2(間接排出)」に加え、「Scope 3(サプライチェーン全体の排出)」が重要視されています。 IT部門は、この算定において極めて重要な役割を担います。自社のデータセンター(オンプレミス)の電力使用量(Scope 2)はもちろんのこと、利用しているクラウドサービスの電力消費、購入したサーバーやPCなどのハードウェア製造(Scope 3)に至るまで、ITインフラに関連するデータが算定対象となるからです。 従来、IT部門は「報告支援部門」として、ESG部門にデータを提供する立場でした。しかし、開示情報に「監査」が入り、その信頼性が厳しく問われるようになると、IT部門は「開示品質の保証部門」へと進化せざるを得ません。ITシステムがどれだけ正確に、網羅的に、遅滞なくデータを収集・加工・可視化できるかが、企業全体のESG開示の信頼性を左右することになるのです。 さらに、2024年に公布され、2025年4月1日に施行された「情報流通プラットフォーム対処法」(旧プロバイダ責任制限法)も、直接的な環境規制ではないものの、大規模プラットフォーム事業者に対する運用の透明化や説明責任の拡大を求めています。こうした「説明責任の拡大」という社会的な潮流は、間接的にIT部門の実務にも影響を及ぼし、現場のプレッシャーを高める一因となっています。 クラウドとAIが加速させる電力消費と「再エネ100%」の現実 ITインフラの消費電力は、クラウドサービスの普及、そして近年のAI活用の爆発的な拡大によって、急増の一途をたどっています。 クラウド大手の野心的な目標と「年間マッチング」の罠 大手クラウド事業者(AWS、Microsoft、Google)は、この課題に率先して取り組む姿勢を見せています。Amazon(AWSの親会社)は2023年に消費電力を100%再生可能エネルギーで「マッチした」と発表しました。Microsoftも2030年のカーボンネガティブ達成を目標に掲げています。 特にGoogleは、2030年までに全拠点で「24時間・毎日カーボンフリー電力(24/7 CFE)」での運用を目指すという、最も野心的な目標を掲げています。 しかし、ここで注目すべきは「100%再エネ」という言葉の定義です。多くの企業が採用する「年間マッチング」方式は、年間の総消費電力量と同等量の再エネ証書(REC)を購入したり、PPA(電力購入契約)を結んだりすることで「100%」を達成するものです。これは、データセンターが24時間稼働している一方で、太陽光が発電しない夜間や風が吹かない時間帯には、実際には系統電力(化石燃料を含む)を使用している可能性があることを意味します。 これに対し、Googleが目指す「24/7 CFE」は、電力消費の「実時間(リアルタイム)」でカーボンフリー電力を調達・運用することを目指すものであり、技術的なハードルは格段に上がります。Google自身も、2021年時点でCFE比率が66%であったと報告しており、完全な脱炭素化がいかに困難であるかを示しています。 日本の電力事情という高い壁 日本国内において、このハードルはさらに高くなります。経済産業省の「エネルギー白書2025」によれば、2023年度の日本の電源構成において再生可能エネルギーが占める比率は22.9%にとどまり、依然として68.6%を火力発電に依存しています。 北海道や九州のように再エネ電源が比較的豊富な地域もありますが、データセンターの需要が集中する首都圏近郊では、系統容量の制約や地価の高騰から、大規模な再エネ発電所や専用データセンターの新設は容易ではありません。 国内でもNTTやさくらインターネット、富士通などが再エネ由来の電力によるデータセンター運用を進めていますが、全国的に見ればまだ限定的です。結果として、多くの日本企業は「国内のデータセンターでは電力制約や再エネ調達の難しさに直面し、海外のクラウドを利用すればデータ主権や複雑な報告制約に悩まされる」という二重の板挟み状態に置かれています。 性能か、環境か? AI導入が突きつける「電力のジレ ンマ」 サステナビリティへの対応と同時に、企業はAI、特に生成AI(LLM)の導入によるDX推進という、もう一つの大きな命題にも直面しています。しかし、この二つは時として相反する要求を現場に突きつけます。 AIの学習と「推論」が消費する莫大な電力 大規模言語モデル(LLM)の「学習」に莫大な電力が消費されることはよく知られており、研究機関の推計では、学習1回あたりで数千トン規模のCO₂を排出する例も報告されています。 しかし、問題は学習フェーズだけではありません。一度学習されたモデルが、日々の業務でユーザーからの問い合わせに答える「推論」フェーズでも、継続的に電力が消費されます。ビジネスがAIを活用すればするほど、推論処理による電力負荷は増大し続けるのです。 空冷の限界と「液冷」への移行コスト このAIの計算処理を支えるのがGPU(画像処理半導体)サーバーです。NVIDIAのH100(SXM仕様)のような最新の高性能GPUは、1基で最大700ワットを超える電力を消費します。これを高密度に集積したサーバーラックは、従来の「空冷」では冷却が追いつかなくなっています。 そのため、サーバーを特殊な液体に浸したり、配管で冷却水を循環させたりする「液冷」技術への移行が不可避となっています。しかし、これはデータセンター側にとって、液冷配管や熱交換器、専用変圧器の設置など、莫大な追加投資と大規模な設備改修を意味します。国内のデータセンター事業者からも、こうした対応を公表する例が出てきています。 日本はOECD主要国と比較して商用電力単価が高いことでも知られています。AIを大規模に運用しようとする企業ほど、「高い電力コスト」と「脱炭素・液冷化への追加投資」という二重の負担を負うことになります。「性能を上げれば電力消費が増え、省エネを優先すればAIの応答性や生成速度が落ちる」という、構造的なトレードオフが現場を圧迫しているのです。 “見える化”の罠――CO₂算定に追われる現場の実態 制度対応と技術革新の狭間で、IT部門の実務は具体的にどのような混乱に見舞われているのでしょうか。 国内のある製造業のIT部門担当者は、次のように証言します。「クラウド利用量を月次でエクスポートし、GHG排出量を算定しようにも、利用リージョン(国)ごとに排出係数が異なり、それらを統合計算するだけで1週間かかることもある」 こうした“データ整合の遅延”は、制度的な要求と現場のキャパシティのギャップを如実に示しています。報告業務そのものはESG部門が主導していても、実データの収集・加工はIT部門に集中し、本来の開発プロジェクトと並行して対応せざるを得ないのです。 マルチクラウド環境の複雑さ 各クラウドベンダーが提供する「カーボンフットプリント・ダッシュボード」は有用なツールですが、各社の算定方式や開示データの粒度(細かさ)は微妙に異なります。多くの企業が複数のクラウド(マルチクラウド)を使い分ける現代において、これらの異なる基準のデータを正確に統合し、会社全体の排出量として報告する作業は、想像以上に煩雑です。 Uptime Instituteが発表した「Global Data Center Survey 2024」も、AI対応とサステナビリティ報告の両立が、データセンター運用における主要な課題の一つになっていると指摘しています。 さらに、EUの炭素国境調整メカニズム(CBAM)は、2026年以降、鉄鋼やアルミなど炭素集約型の輸入品に事実上の課税を行う制度ですが、ITサービスは直接の対象ではないものの、サーバー筐体や電材といったハードウェアの調達において、間接的な影響を受ける可能性があり、サプライチェーン全体での管理が一層複雑化しています。 「グリーンIT疲れ」を乗り越える グリーンITは理念としては正しいものの、現状では「見える化」や「報告対応」にとどまり、実効的な排出削減に結びついていないケースが散見されます。電力や排出量を可視化するだけでは、根本的な最適化には至りません。…

デジタルDNA:AIは企業文化をどうコード化するのか

なぜ今、「文化」がデータ化されるのか クラウド化、リモートワークの常態化、そしてAIの急速な導入。これらの変化が進むほど、企業の「文化」は、単なる曖昧な理念やスローガンではなく、具体的なデータとして読み解かれる対象へと変貌しています。 かつて、企業文化は「オフィス」という物理的な空間で醸成されてきました。雑談から生まれる一体感、会議室の空気、上司と部下の阿吽の呼吸。しかし、リモートワークが普及し、組織が物理的な共同体としての側面を失いつつある今、その文化形成の装置は希薄化しています。世界中から優秀な人材を採用できるようになった一方で、組織全体をつなぎとめる「共通言語」や「暗黙のルール」が失われつつあるのです。 この断絶と不安を補うかのように、AIが「文化の翻訳者」となっています。 人材の流動性、チーム内の会話の傾向、メールやチャットで使われる言葉のトーン、さらには意思決定の速度――。これら膨大なデジタル・フットプリント(活動の痕跡)をAIが解析し、企業を一つの人格のようにモデル化する。経営者はもはや、「数字で語れないもの」として文化を聖域に置くことはできません。文化までもがダッシュボード上で可視化され、スコアで評価される時代が到来したのです。 しかし、それは組織の魂、あるいは「デジタル遺伝子」とも呼べるものをデータ構造として扱うという、きわめてラディカルな転換でもあります。私たちは今、その入り口に立っています。 文化を「測る」という誘惑 文化を測定し、管理したいという欲望は、経営合理化の最終段階とも言えます。従来から行われてきた従業員満足度(ES)調査やエンゲージメントサーベイは、その入口にすぎませんでした。それらが従業員の「意識(アンケート回答)」を測るものだったとすれば、今起きているのは「行動そのもの」をデータ化する試みです。 いまや企業は、SlackやMicrosoft Teamsでのチャットログ、オンライン会議での発言、さらには社内Wikiやドキュメントの文体まで解析し、AI(特に自然言語処理:NLP)を用いて「組織DNA」を抽出しようとしています。 この分野は「カルチャー・アナリティクス」と呼ばれ、急速に立ち上がっています。たとえば、MIT Sloanの研究チームは、組織内のコミュニケーションデータを解析し、従業員がどのような価値観(例:「革新」「顧客前提」「誠実」)について語っているか、その言葉の選び方や応答時間、否定語の頻度などを統計化し、企業文化を「行動言語モデル」として表現する実験を行っています。 この動きは海外だけのものではありません。国内の先進的な企業でも、社内コミュニケーションを匿名化した上でAIに学習させ、感情の傾向(ポジティブ/ネガティブ)、部署間の応答パターン、情報共有のハブとなっている人物などを可視化する実験が進められています。 Googleがかつて実施した「プロジェクト・アリストテレス(Project Aristotle)」は、この分野の古典とも言えるでしょう。Googleは複数年にわたり多数の社内チームを分析し、高い業績を上げるチームの共通因子を探りました。その結果、チームの生産性に最も大きく影響するのは、メンバーの能力や構成ではなく、「心理的安全性の高さ」であったことを突き止めました。これは、文化という曖昧な要素が業績に直結することをデータで証明した象徴的な事例です。 現代のカルチャー・アナリティクスは、この「心理的安全性」を、アンケートではなく、日々のコミュニケーションログから直接測定しようと試みています。「異論が出やすい会議か」「失敗が報告された時の周囲の反応はどうか」といったことを、AIが自動でスコアリングするのです。 技術実装のリアリティとIT部門の役割 では、こうした「文化の測定」は、技術的にどのように実現されているのでしょうか。 多くの場合、文化解析AIは、企業がすでに保有しているデータ基盤と連携して動作します。SlackやTeamsの発話履歴、社内Wiki(Confluenceなど)の改訂履歴、タスク管理ツール(Jira、GitHubなど)のコメントログ。これらバラバラに存在していたコミュニケーションデータをデータレイクやデータウェアハウスに集約し、自然言語処理(NLP)のAPIを通じて解析する、というのが一般的な構成です。 ここで極めて重要なのは、文化分析の精度や可否は、IT部門のアーキテクチャ設計に根本的に依存するという事実です。 たとえば、社内チャットのログ解析は、技術的にはすでに確立しています。しかし、そのデータを「いつまで保存するか(データ保持期間)」「誰がアクセスできるのか(権限設計)」「どのレベルで匿名化するか」を決めるのは、人事部門ではなく、情報システム部門です。 文化とは行動の集合であり、その行動はシステム上ではログ(記録)として表現されます。したがって、文化分析AIの精度は、ログ設計やメタデータ設計の「粒度」に依存します。例えば、開発組織の文化を分析する際、GitHubのログ(レビュー速度、コラボレーションの強度など)は非常に雄弁なデータとなります。 会議ログやナレッジベースをAIで横断解析すれば、「発言の多様性スコア」や「異論が提示された割合」を指標化することも可能です。しかし、そもそもそれらのログが適切に保存され、解析可能な形で管理されていなければ、AIは何も分析できません。 文化を“測る”仕組みは、データ設計の上に成り立つものであり、その設計を行うIT部門は、知らず知らずのうちに「文化分析の土台」を形成しているのです。 ガバナンスという名の「技術的境界線」 文化の解析は、企業の透明性と従業員のプライバシーという、相反する要求の狭間で実行されます。このバランスを決定するのもまた、技術的な実装です。 特に、データを再利用する際の権限管理を、Active DirectoryやIAM(Identity and Access Management)といった認証基盤でどう実装するかは、企業の倫理観に直結します。誰が、どのデータを、どのレベルの匿名性で閲覧できるのか。その境界線を引くのは、経営理念ではなく、IAMのポリシー設定です。 法規制の観点からも、IT部門の役割は重大です。特に、2024年に成立したEU AI法(Regulation (EU) 2024/1689)では、雇用、人事管理、採用に関連するAIの活用を「高リスク分類」として厳格に指定し、人間の監督と高い透明性を義務づけています。 企業が欧州子会社の人材ログやAI解析を実施する場合、AIがどのような判断を下したのかを後から検証できる「監査証跡(Audit Trail)」を残せるログ設計が、法的に求められます。この法対応は、単なる社内運用ルール(「AIを使うときは気を付けよう」)ではなく、AIモデルの再学習履歴やデータセットの構成を記録する、具体的な「アーキテクチャ要件」となります。 このように、データ保持期間の設定、匿名化のプロセス、モデル再学習の可否といった技術仕様は、文化分析の「技術的境界線」であると同時に、企業ガバナンスの実装そのものなのです。 “数値化された文化”がもたらす光と影 企業文化を可視化し、スコア化することには、経営管理上の大きなメリットがあります。例えば、離職率と特定の文化スコア(例:心理的安全性の低さ、部署間の連携不足)との間に明確な相関関係を明示できれば、人材の再配置や、介入すべき組織の特定に役立ちます。いわば、組織の「健康診断」として機能するのです。 しかし同時に、AIによる文化の可視化は、“測定のための文化”という本末転倒な状況を生み出す危険をはらんでいます。 「心理的安全性スコア」が人事評価(KPI)の目的となってしまうと、何が起きるでしょうか。社員はAIに「良い発言」と判定されるよう、当たり障りのないポジティブな言葉を選び、本質的な異論や批判的な意見を控えるようになります。結果として、スコアは上がるかもしれませんが、組織からは多様な視点や健全な衝突が失われる。形式的な安心感だけが残り、文化は「自己検閲」を始めることになります。 この危険性は、システムの技術仕様にも反映されます。Slackのメッセージを後から編集・削除できるか。その編集履歴はどこまで追跡可能か。こうしたシステム設計一つひとつが、社員の発話行動、ひいては組織文化そのものを変容させていくのです。文化は、技術仕様によって形成されます。 さらに、アルゴリズムの「バイアス(偏見)」の問題も避けて通れません。AIは多くの場合、過去の成功企業のデータや、自組織の過去のデータを学習します。そのため、“過去の価値観”や“既存の多数派の価値観”を無意識のうちに再生産しやすいという特性があります。 たとえば、過去に成果主義的・競争的な文化で成功した企業のデータを学習したモデルは、協調的・調和的な言語傾向を「非効率」や「生産性が低い」と誤認する可能性があります。MIT Sloan Management Reviewの報告(2023年)では、有害な(Toxic)企業文化は、賃金水準の低さよりも強く離職を予測する要因であると指摘されています。文化のスコア化は、ガバナンスの設計次第で、組織改革の強力な道具にもなれば、組織を硬直化させる装置にもなり得るのです。 文化を測ることは、文化を問うことである AIはついに、企業文化という、最も人間的で曖昧だった領域に踏み込みました。そこにあるのは、効率化という抗いがたい誘惑と、同質化という深刻な危険、そして「自己認識の可能性」です。 データ化された文化は、私たちの無意識の判断や偏見を写し取る鏡であり、同時に、私たちの行動を再構成する強力な装置でもあります。 文化を「測る」とは、自組織の「文化を問う」ことです。AI時代のマネジメントとは、突き詰めれば「私たちは、どんな文化を生み出し、どんな文化を未来に残したいのか」という問いを背景に、システム構造そのものを変えていくプロセスに他なりません。 文化データをどのように保存し、誰がアクセスし、どのように監査し、どのように廃棄するか。それはもはや単なる技術論ではなく、その企業の経営哲学そのものです。企業がAIという鏡を通じて自らを測るとき、それは単なる評価ではなく、自己理解と変革のプロセスとなるのです。 Read…

Transforming IT from a service counter into a strategic advantage

<!–/* Style Definitions */ p.MsoNormal, li.MsoNormal, div.MsoNormal {mso-style-unhide:no; mso-style-qformat:yes; mso-style-parent:””; margin:0in; line-height:115%; mso-pagination:widow-orphan; font-size:11.0pt; font-family:”Arial”,sans-serif; mso-fareast-font-family:Arial; mso-ansi-language:EN;}a:link, span.MsoHyperlink {mso-style-priority:99; color:blue; mso-themecolor:hyperlink; text-decoration:underline; text-underline:single;}a:visited, span.MsoHyperlinkFollowed {mso-style-noshow:yes; mso-style-priority:99; color:purple; mso-themecolor:followedhyperlink; text-decoration:underline; text-underline:single;}.MsoChpDefault {mso-style-type:export-only; mso-default-props:yes; font-size:11.0pt; mso-ansi-font-size:11.0pt; mso-bidi-font-size:11.0pt; font-family:”Arial”,sans-serif; mso-ascii-font-family:Arial; mso-fareast-font-family:Arial; mso-hansi-font-family:Arial; mso-bidi-font-family:Arial; mso-font-kerning:0pt; mso-ligatures:none; mso-ansi-language:EN;}.MsoPapDefault {mso-style-type:export-only; line-height:115%;}@page WordSection1 {size:8.5in 11.0in; margin:1.0in 1.0in 1.0in 1.0in; mso-header-margin:.5in; mso-footer-margin:.5in; mso-page-numbers:1;…

The next great cybersecurity threat: Agentic AI

Make no mistake about it, agentic AI will be an important security concern for companies — both large and small — over the next several years. This isn’t a distant forecast but a quickly materializing reality. The capabilities that make these systems — AI entities that can perceive, reason, decide, and act autonomously — so revolutionary…

Reweaving the digital fabric: Creating the foundation for European enterprises

Today’s CIOs face a digital paradox: The more technologies their organizations adopt, the more complex their environments become. Legacy infrastructure and decades of regulation have combined to create technical debt and disconnected silos. Even as workloads shift to the cloud, CIOs struggle with integration; expanding toolsets often create fragmented estates rather than streamlined operations. Amit…