칼럼 | AI 도입이 제자리걸음이라면, 문제는 기술이 아니라 ‘맥락’이다

필자는 올해 지능형 코파일럿, 자동화 에이전트, 워크플로우 보조 도구 등 다양한 형태의 AI에 과감히 투자한 여러 CIO와 이야기를 나눴다. 이들이 한결같이 들려준 이야기가 있다. 초기에는 눈에 띄는 성과가 있었지만, 곧 정체되거나 실패로 돌아가는 경우가 발생했다는 것이다. AI는 그 어느 때보다 정교하게 정보를 요약하고 예측하며, 자동화할 수 있는 수준에 도달했다. 하루가 다르게 발전하고 있지만, 여전히 한…

AI 리스크보다 더 큰 위협은 ‘저성장 경제’···가트너가 꼽은 1순위 위험 요인 

가트너는 전 세계 184명의 기업 리스크·보증 경영진을 대상으로 실시한 ‘분기별 신흥 리스크 보고서(Quarterly Emerging Risk Report)’를 통해 AI 관련 위험 요인과 글로벌 무역 긴장, 고용 불안, 인플레이션으로 인한 저성장 경제 환경이 2025년 3분기 기업 리스크 책임자들의 주요 우려 사항으로 떠올랐다고 밝혔다. 이 보고서는 관세를 기반으로 한 무역 긴장, 금융 시장 변동성, 소비심리 위축 등이 지속된다는…

“1인 작가 글로벌 진출 지원” 아마존, AI 기반 번역 서비스 ‘킨들 트랜스레이트’ 베타 출시

이 서비스는 킨들 다이렉트 퍼블리싱(Kindle Direct Publishing, KDP)을 이용하는 작가들이 자신의 전자책을 여러 언어로 번역할 수 있도록 돕는 기능이다. KDP는 작가나 출판사가 중간 유통사 없이 직접 자신의 책을 아마존에서 출판하고 판매할 수 있게 해주는 자가출판 플랫폼이다. 아마존에 따르면, 아마존닷컴에서 판매되는 도서 중 두 언어 이상으로 번역되어 제공되는 책은 전체의 5% 미만이다. 이에 따라 이번 서비스…

SAP 테크에드 2025, ‘AI’ 중심으로 본 핵심 발표 포인트 5가지

최근 개최된 SAP의 연례 개발자 행사 ‘테크에드’에서는 일부 예상 밖의 내용도 공개됐지만, 중심 화두는 두 글자로 요약된다. 바로 ‘AI’다. 2,800명 이상의 현장 참가자와 2만 명 이상의 온라인 참석자를 기록한 이번 행사에서 AI의 존재감은 어느 때보다 두드러졌다. AI는 제품과 서비스 곳곳에 폭넓게 적용됐으며, 그 활용 방식 또한 익숙한 영역부터 새로운 시도에 이르기까지 매우 다양했다. 행사에서 특히…

GPU 공급난 속 해답 될까···구글, 신규 TPU ‘아이언우드’ 출시

AI 워크로드를 실행할 GPU 부족에 시달리거나, 전력 비용 부담으로 어려움을 겪는 기업에게 구글의 차세대 TPU가 현실적인 대안으로 떠올랐다. 구글은 더 빠르고 에너지 효율이 높은 차세대 TPU(텐서 처리 장치) ‘아이언우드(Ironwood)’를 클라우드 컴퓨팅 서비스에 곧 추가할 계획이다. 분석가들은 아이언우드가 AMD와 엔비디아의 GPU와 비슷한 성능을 더 낮은 비용으로 제공할 것으로 예상하고 있다. 이에 따라 AI 모델 학습이나 추론…

버티브, 아시아 전략 고객 총괄에 앤토니 샤프라넥 선임

샤프라넥은 싱가포르에서 버티브의 아시아 지역 내 글로벌 및 지역 전략 고객 영업 팀을 총괄하며, 통합적이고 시너지를 극대화하는 시장 진출 전략과 성장 가속화에 중점을 둘 예정이다. 샤프라넥은 아시아, 유럽, 미국 등지에서 20년 이상 상업 및 전략 분야의 리더십 경험을 쌓아온 글로벌 비즈니스 전문가로, 세일즈, 비즈니스 운영, 전략 개발 등 다양한 영역에서 탁월한 성과를 입증해 왔다. 특히…

포레스터 “AI 투자 둔화 불가피···수익성 한계 드러나”

IT 시장분석기업 포레스터는 대부분의 기업이 아직까지 AI 투자가 실질적인 수익 개선으로 이어지는 효과를 확인하지 못하고 있다고 분석했다. 이에 따라 향후 1년 내 다수의 기업이 AI 예산을 재검토할 가능성이 높다고 내다봤다. 포레스터는 많은 기업이 투자수익률(ROI)을 확인하지 못해 계획된 AI 지출의 4분의 1을 2027년까지 연기할 것으로 전망했다. 포레스터 조사에 따르면, 지난 1년간 AI 관련 수익이 증가했다고 답한…

AIインフラの地政学――チップ、クラウド、規制が支配する新秩序

新たな覇権の鍵「AIインフラ」 AIの競争は、もはやアルゴリズムやデータではなく、それを動かす物理的なインフラを誰が握るかという、より根源的な段階に入った。生成AIの巨大なモデルを支えるのは、膨大なGPU(画像処理半導体)による演算資源、莫大な電力、巨大なデータセンター、そしてそれらを統合運用するクラウドプラットフォームである。 かつて石油が国際秩序を動かす「血液」であったように、いまや「演算能力(computational power)」が国家の力そのものを左右する時代が到来した。NVIDIA、TSMC、ASMLといった半導体関連企業、そしてAWS、Azureといったクラウドジャイアント。彼らはそれぞれが、この新時代の覇権軸を形成しつつある。 チップを巡る新冷戦――誰が「AIの脳」を製造するか AIの「脳」とも呼べる高性能半導体は、今や国家間の戦略的競争のまさに中心にある。その構造は、極めて偏在的だ。 技術的チョークポイントと米国の戦略 2025年時点で、AIの学習に使用されるGPUの約9割は米国のNVIDIA製である。しかし、そのエコシステムは複雑だ。設計は米国(NVIDIA)が行い、最先端品の製造は台湾のTSMCがほぼ一手に引き受け、そしてその製造に不可欠なEUV(極端紫外線)露光装置は、オランダのASMLが世界で唯一供給している。 特にASMLのEUV露光装置は、最先端ノードの製造における絶対的な「チョークポイント(隘路)」であり、この装置の輸出を制限することが、相手国の半導体開発の命運を左右する。技術と地政学が、これほどまでに強く結びついた例は稀である。 米国はこの構造を理解した上で、覇権維持に動いている。2022年のCHIPS法(CHIPS and Science Act)で520億ドルもの巨額予算を投じ、Intelの国内工場新設やTSMCの米国(アリゾナ州)への工場誘致を強力に支援した。これは単なる国内産業の振興ではない。半導体の供給網を、自国および同盟国の管理下に閉じ込める「供給網ブロック」戦略である。 その象徴が、2023年10月に米商務省産業安全保障局(BIS)が発動した強力な輸出規制だ。AI向けハイエンドGPUである「H100」や「A100」の中国向け輸出を厳しく制限。さらに、中国市場向けに性能を落としたダウングレード版「A800」「H800」までもが追加で規制対象とされた。これは、AIの演算能力そのものが、兵器と同様の国家戦略資源とみなされたことを意味する。 中国の「チップ自主化」と日本の挑戦 対する中国は、「芯片自主化(チップの自主独立)」を国家スローガンに掲げ、猛烈な追随を図る。国内ファウンドリ(半導体受託製造企業)のSMICや、通信機器大手から転身したHuawei(ファーウェイ)が、7ナノメートル(nm)級のGPU「Ascend 910C」などを開発している。 複数の独立した検証によれば、これらの中国製チップの推論性能は、NVIDIA製GPUの約6割前後に達すると推定されている。しかし、AI学習の効率、特に電力効率の面では依然として大きな差があると報じられており、性能差を埋めるには至っていない。中国政府は、国内のデータセンターでAI学習を集中させる政策を強力に進めており、国家レベルでの演算能力の確保が最優先課題となっている。 一方、日本もこの巨大な地政学ゲームの渦中にある。熊本ではTSMCの第1工場(JASM)が稼働を開始し、さらに先端プロセス(6nm/7nm)を採用する第2工場の建設計画も進んでいる。ただし、その具体的なスケジュールをめぐっては、「予定どおり着工」という楽観的な報道と、「遅延の見通し」という慎重な報道が割れている(2025年10月時点)。 同時に、日本の「日の丸半導体」復活の夢を託されたRapidus(ラピダス)は、北海道千歳市で次世代の2nmプロセスの試作に成功したと発表した(2025年6月)。 日本にとっての真の課題は、工場という「ハコ」の建設や製造装置の導入よりも、それを使いこなす熟練した半導体技術者と、工場を24時間365日動かし続けるための安定的かつ安価な電力の確保にある。半導体産業はもはや個々の企業の努力だけで成り立つものではなく、電力、水、人材、物流といった社会インフラ全体の総合力が問われる産業へと変貌した。 GPUの寡占とEUV露光装置の独占という二重のチョークポイントは、現実には「クラウド上で誰の演算資源を、どの国のルールで使うか」という選択に直結していく。 クラウドが握る「演算主権」――データは誰の法の下にあるか 本稿で「演算主権(Computational Sovereignty)」と呼ぶのは、自国のデータやAIモデルを、どの法域(どの国の法律が適用されるか)に属する、どの演算資源(GPUや各種AIアクセラレータ)で処理し、その運用権限や監査権限を誰が持つか、という概念である。 クラウド市場は、今やAI覇権の主戦場だ。米調査会社Synergy Research Groupの報告(2025年第2四半期)によれば、世界シェアはAmazon Web Services (AWS)が30%、Microsoft Azureが20%、Google Cloudが13%となっている。この上位3社だけで、世界市場の63%を支配する寡占状態だ(四半期レポート準拠)。 現在、世界中で開発・運用されている生成AIの多くが、これら3社の提供する巨大なGPUクラスタ上で稼働している。これは、研究機関や企業のAI開発の自由度さえも、これらクラウド事業者の利用規約やサービス提供の判断に左右されかねない構造が定着しつつあることを示している。 EUの「デジタル主権」とソブリンクラウド この米系メガクラウドによる支配に、最も強く異を唱えているのがEUだ。EUは「デジタル主権」を掲げ、AIやデータを域内の法律(GDPRや後述のAI法など)によって厳格に統制しようとしている。 この動きに対し、クラウド事業者側も対応を迫られている。Microsoftは「EU Data Boundary」を導入し、AWSも「European Sovereign Cloud」を立ち上げた。これらは、データの保存場所だけでなく、運用を行う人材、暗号鍵の管理、さらにはシステム監査の権限までもEU域内に限定するというものだ。特にAWSの欧州ソブリンクラウドは、会計的にも運用的にも独立した事業体として運営され、クラウドの「運用領域」を法的に再定義する野心的な試みとなっている。 日本のジレンマと「見えない越境処理」 日本も無関係ではない。政府のクラウド調達(ガバメントクラウド)においては、国内でのデータ運用要件が導入され、AWS、Google Cloud、Microsoft Azure、Oracleの4社が認定された。さらに2023年度には、さくらインターネットが条件付きで認定を受け、国産IaaS(Infrastructure as a Service)が加わった。 しかし、民間企業レベルでは課題が残る。多くの企業は、クラウド事業者が提供する「東京リージョン」でデータを運用していると認識している。だが、実際にはAIの推論処理などが、コストや負荷分散のために国外のサーバーで(ユーザーに明示されずに)行われているケースがあると指摘されているのだ。自社のデータが、どの国の法律の下で、どこで演算されているかを正確に確認できていない事例も散見される。 東南アジアでは、シンガポールやマレーシアが、米中両陣営(AWSやAzureと、Alibaba CloudやTencent Cloud)のクラウドを併用する、ASEAN型の分散構成を採用している。複数のクラウドの並立は、特定陣営への依存を避ける柔軟性をもたらすが、同時に法的な属地性の監査が極めて難しいという課題を伴う。各国がデータローカライゼーション(データの国内保存義務)法の整備を急いでいる背景には、この「見えない越BG処理」への深刻な懸念がある。 クラウドの利便性は疑いようもなく高い。だが、その選択は同時に「どの法体系の演算リソースを使うか」という、極めて政治的な決定を伴うものとなった。データ主権から演算主権への転換は、静かに、しかし確実に進行している。 規制が築く「見えない壁」――法がAIインフラを分断する 2024年8月に施行された「EU…

プライバシーかパーソナライゼーションか:データ活用は「信頼」の時代へ

便利な「最適化」か、行き過ぎた「監視」か かつて、企業が顧客を理解するための手段は、購買履歴やアンケートといった限定的なデータが中心でした。しかし、AIとクラウド技術が爆発的に進化した現在、私たちは日々、膨大なデータを無意識のうちに提供しています。 SNSでの「いいね」、スマートフォンが記録する位置情報、ECサイトの閲覧履歴、動画の視聴速度や停止したタイミング――。これらすべてがリアルタイムで解析され、企業は「顧客が欲しがる前に提案する」力を手に入れました。 ECサイトを開けば、AIが過去の傾向から「あなたへのおすすめ」を個別に提示し、動画配信サービスは、自分でも気づいていなかった“隠れた嗜好”を正確に抽出して次のコンテンツを推薦します。 この「パーソナライゼーション(個別最適化)」は、間違いなく私たちの生活を便利にしました。しかし、その最適化が過剰になった時、それは「便利さ」から「監視」へと姿を変えます。自分がネットで検索した商品が、別のサイトやSNSで執拗に広告として表示される。そんな「追いかけられる」感覚に、違和感や不快感を覚えた経験は誰にでもあるのではないでしょうか。 技術が個人の行動や心理を深く理解しすぎることは、新たな火種を生んでいます。2023年、欧州の消費者機構(BEUC)は、Meta社(旧Facebook)の広告ターゲティング手法が、利用者の自由意思を実質的に侵害している可能性があるとして、各国当局へ申立てを行いました。これは、利便性を支える技術が、同時に私たちの「選択の自由」を脅かす可能性を示した象徴的な出来事です。 日本も例外ではありません。2022年に施行された改正個人情報保護法では、企業が個人データを第三者に提供する際の記録義務や、本人が停止を求める権利(オプトアウト)の要件が厳格化されました。もはや企業は、従来型のトラッキング(追跡)に依存したマーケティング手法を、根本から見直す局面に立たされているのです。 データ黄金期の終焉と「同意疲れ」という現実 2010年代後半は、まさに「データ活用の黄金期」でした。ビッグデータ分析技術とクラウドベースのCRM(顧客関係管理)ツールが普及し、企業のマーケティング活動を一変させました。 特に小売業や金融業では、リアルタイムで顧客の行動を可視化し、一人ひとりに合わせた施策を打つことで、顧客維持率(リテンション)が劇的に向上したと報告されています。 しかし、この黄金期は、2018年にEUで施行された「一般データ保護規則(GDPR)」を境に、大きな転換点を迎えます。GDPRは、個人データの処理と移転に関して厳格なルールを定め、違反した企業には巨額の制裁金を科すことを可能にしました。 これにより、ウェブサイトを訪れるたびに表示される「Cookie(クッキー)利用への同意」バナーが世界中に氾濫しました。利用者は、そのサイトを利用するために、半ば強制的に「同意する」ボタンを押すことを求められます。これが、いわゆる「同意疲れ(Consent Fatigue)」と呼ばれる現象です。多くの人は、複雑な説明文を読むことなく同意を押しており、これが本当に「自由な意思に基づく同意」と言えるのか、疑問が呈されています。 さらに、データ活用の根幹を支えてきたサードパーティCookie(訪問サイト以外が発行するCookie)の扱いは、極めて不透明な状況が続いています。Googleは、プライバシー保護を理由にChromeブラウザでのサードパーティCookieの段階的廃止を宣言しましたが、そのスケジュールは何度も見直され、2025年時点でもいまだ「計画を再検討中」としています。 この混乱は、企業が従来のように自由に収集・分析できるデータの量と質が、確実に縮小圧力にさらされていることを意味します。 日本企業も、この世界的な潮流に適応を迫られています。EC各社では、Cookieへの依存度を低減させる過程で、一時的にマーケティング指標が変動するなどの影響が出ました。しかし一方で、プライバシーポリシーをより明確で分かりやすい言葉に修正し、顧客に誠実な説明を尽くした企業では、むしろサイトの滞在時間や再訪率が改善したという事例も報告されています。 この事実は、私たちが単なるデータの「量」を追い求める時代から、利用者が納得して提供してくれた「質」の高いデータを重視する時代へと移行しつつあることを示しています。 AIが暴く「無意識の嗜好」という危うさ 近年のAI技術、特に生成AIや行動分析AIの進化は、データ活用の質をさらに変えようとしています。AIは、顧客自身がまだ自覚していない「無意識の嗜好」や、その時の感情までも推定する能力を持ち始めています。 Amazonの強力なレコメンドエンジンや、Netflixが個別に最適化して表示する予告編は、私たちがクリックした情報(顕在的データ)だけでなく、どの位置で動画を停止したか、どれくらいの速度でスクロールしたかといった「暗黙的データ(Implicit Data)」を学習し、本人の意図を超えた推論を行います。 この「無意識の推定」は、思いがけない良質なコンテンツとの出会い(セレンディピティ)を生むなど、顧客体験を豊かにする側面があります。しかし同時に、個人の選択の自由を本質的に侵食する危険性もはらんでいます。 もしAIが、ある人物が精神的に落ち込んでいる状態を検知し、その隙(脆弱性)につけ込んで高額な商品を推薦してきたとしたら、それは「おもてなし」でしょうか、それとも「行動操作」でしょうか。 欧州連合(EU)が導入を進める「AI法」では、まさにこうした「行動操作」や「脆弱な個人層の搾取」につながるAI利用を、高リスクまたは原則禁止の類型として厳しく規制しようとしています。 日本でも、内閣官房が公表したAIガイドライン案(2024年)において、AIが消費者の判断を不当に誘導するリスクを明確に指摘し、企業に対して説明責任を果たすよう求めています。 技術の精度が高まれば高まるほど、「予測の正確さ」と「介入の正当性」の線引きは難しくなります。AIが顧客の心を“推し量る”時代だからこそ、企業はあえて立ち止まり、そのアプローチを“問い直す”設計へと転じ始めています。 信頼回復の鍵「ゼロパーティデータ」という新たな選択肢 Cookieやトラッキングによる「受動的なデータ収集」が困難になる中で、企業が次なる一手として注目しているのが「ゼロパーティデータ」です。 これは、顧客が自らの意思で、積極的に企業へ提供する嗜好や価値観、ニーズに関するデータを指します。追跡(トラッキング)に依存しない、透明性の高いデータ収集の形です。 例えば、大手化粧品会社のロレアル(L’Oréal)は、AIによるスキンケア診断アプリ「SkinConsultAI」を展開しています。利用者は、自分の肌質や生活習慣、悩みなどを自ら入力します。AIは、その結果(=ゼロパーティデータ)をもとに、その人にとって最適な製品を提案します。 この方式では、利用者が「自分の意思でデータを提供し、その見返りとして価値ある提案を得ている」と明確に感じられるため、体験への満足度が非常に高い傾向があります。 日本でも同様の動きが見られます。ANA Xが運営する「ANA Pocket」アプリは、2024年に大幅なリニューアルを行いました。単に移動距離でポイントが貯まるだけでなく、利用者が自身の関心事やライフスタイルの目的をあらかじめ登録することで、それに応じた特典や体験が提示される仕組みを導入しました。 これは、顧客が企業から一方的に「選ばれる側」だった状態から、自ら「選ぶ側」へと転換することを促す設計です。 このように、データの主権を(企業ではなく)顧客側に戻すアプローチは、単なる技術的な差別化戦略ではなく、失われかけた「信頼」を再設計するための重要な潮流として広がりつつあるのです。 技術は「矛盾」を解決できるか? プライバシー保護技術の最前線 パーソナライゼーションとプライバシーという倫理的な矛盾に対し、技術的なアプローチからの解決策も急速に進展しています。データを「集める」のではなく、「守りながら活用する」技術です。 経済産業省は2024年のガイドライン改訂版で、個人が特定できないよう処理した「匿名加工情報」や、匿名化のレベルを少し緩めて有用性を高めた「仮名加工情報」を活用したAI開発を推奨しています。 その具体的な手法の一つが「連合学習(Federated Learning)」です。NECは2023年、複数の病院が持つ医療データを対象とした連合学習の実証実験を公表しました。これは、各病院が持つ個人データを外部のサーバーに一切送信することなく、AIモデル(計算方法)だけを各病院で学習させ、その結果(賢くなったAI)だけを集約する仕組みです。個人のプライバシーを守りながら、AIの精度を向上させることができます。 また、「差分プライバシー」という技術も普及が進んでいます。これは、分析結果のデータに意図的に「統計的なノイズ(揺らぎ)」を加えることで、集計結果からは個人の情報が特定できないようにする技術です。 Appleは2024年、「Private Cloud Compute(PCC)」という新たな構想を発表しました。これは、AIの処理を個人のデバイス(iPhoneなど)と、プライバシー保護に特化した専用サーバーで安全に分散させる設計です。Apple自身も利用者のデータを閲覧・保存できない仕組みを構築し、「設計段階からのプライバシー配慮(プライバシー・バイ・デザイン)」を強く打ち出しています。 しかし、どれほど精緻な技術も、それ単体で顧客の「信頼」を保証するものではありません。 「信頼」を設計する時代へ:法規制と企業倫理が築く新たな秩序 これからの企業の競争力を左右するのは、もはや保有するデータの「量」ではなく、その利用の「正当性」です。顧客が「自分の情報が、どのように、何のために使われるのか」を理解し、納得した上で提供できる設計。これが「信頼のUX(Trust Experience)」と呼ばれ、いま最も重要視されています。 この「信頼の設計」を、法的に位置づけようとする世界的な動きが加速しています。 その筆頭が、EUの「AI法」です。2024年8月に発効(主要条文は2025年以降段階的に適用)したこの法律は、AIのリスクを厳格に分類し、特にリスクが高いとみなされるAI(例:採用活動、信用スコアリング)については、企業に厳格な透明性と説明責任を義務付けました。AIと対話していることの明示や、ディープフェイクの開示も義務化され、「説明できること」がコンプライアンスの最低ラインとなりました。 一方、米国では、連邦レベルでの包括的なAI法規制はまだ存在しませんが、「市場が信頼を競う」構造が主流です。NIST(米国国立標準技術研究所)が策定した「AIリスクマネジメント・フレームワーク(AI RMF)」が、事実上の業界標準として企業の指針となっています。 Appleが2020年から導入している、アプリごとのデータ利用目的を食品表示のように示す「プライバシー栄養ラベル」や、Amazonが2024年に公表した「責任あるAIの原則」は、まさに透明性をブランド価値と直結させようとする戦略の表れです。…

グリーンITの理想と現実: サステナビナビリティ対応がIT現場にもたらす疲弊とその先の展望

避けられない「サステナビリティ報告」の波とIT部門の苦悩 企業の環境・社会・ガバナンス(ESG)に対する取り組みが、投資家や消費者から厳しく評価される時代になりました。これに伴い、サステナビリティ情報の開示は、従来の財務情報と並ぶ「経営開示の両輪」として制度化が進んでいます。 グローバル基準の厳格化と日本への波及 特に影響が大きいのが、欧州連合(EU)のCSRD(企業サステナビリティ報告指令)です。2024年から段階的に適用が始まり、EU域内に子会社を持つ多くの日本企業も対象となります。また、ISSB(国際サステナビリティ基準審議会)が策定したIFRS S1およびS2基準も、2025年度から日本国内での任意適用が開始される見込みであり、国際的な報告基準の統一化が進んでいます。 国内においても、金融庁・経済産業省・環境省の三省は、東証プライム上場企業を中心に、2025年以降、温室効果ガス(GHG)排出量の開示を段階的に義務化する方針を示しています。 IT部門を直撃する「開示品質の保証」という重圧 これらの制度変化は、単なる「報告書作成」という事務作業の追加にとどまりません。開示が求められるGHG排出量の算定において、企業活動の「Scope 1(直接排出)」「Scope 2(間接排出)」に加え、「Scope 3(サプライチェーン全体の排出)」が重要視されています。 IT部門は、この算定において極めて重要な役割を担います。自社のデータセンター(オンプレミス)の電力使用量(Scope 2)はもちろんのこと、利用しているクラウドサービスの電力消費、購入したサーバーやPCなどのハードウェア製造(Scope 3)に至るまで、ITインフラに関連するデータが算定対象となるからです。 従来、IT部門は「報告支援部門」として、ESG部門にデータを提供する立場でした。しかし、開示情報に「監査」が入り、その信頼性が厳しく問われるようになると、IT部門は「開示品質の保証部門」へと進化せざるを得ません。ITシステムがどれだけ正確に、網羅的に、遅滞なくデータを収集・加工・可視化できるかが、企業全体のESG開示の信頼性を左右することになるのです。 さらに、2024年に公布され、2025年4月1日に施行された「情報流通プラットフォーム対処法」(旧プロバイダ責任制限法)も、直接的な環境規制ではないものの、大規模プラットフォーム事業者に対する運用の透明化や説明責任の拡大を求めています。こうした「説明責任の拡大」という社会的な潮流は、間接的にIT部門の実務にも影響を及ぼし、現場のプレッシャーを高める一因となっています。 クラウドとAIが加速させる電力消費と「再エネ100%」の現実 ITインフラの消費電力は、クラウドサービスの普及、そして近年のAI活用の爆発的な拡大によって、急増の一途をたどっています。 クラウド大手の野心的な目標と「年間マッチング」の罠 大手クラウド事業者(AWS、Microsoft、Google)は、この課題に率先して取り組む姿勢を見せています。Amazon(AWSの親会社)は2023年に消費電力を100%再生可能エネルギーで「マッチした」と発表しました。Microsoftも2030年のカーボンネガティブ達成を目標に掲げています。 特にGoogleは、2030年までに全拠点で「24時間・毎日カーボンフリー電力(24/7 CFE)」での運用を目指すという、最も野心的な目標を掲げています。 しかし、ここで注目すべきは「100%再エネ」という言葉の定義です。多くの企業が採用する「年間マッチング」方式は、年間の総消費電力量と同等量の再エネ証書(REC)を購入したり、PPA(電力購入契約)を結んだりすることで「100%」を達成するものです。これは、データセンターが24時間稼働している一方で、太陽光が発電しない夜間や風が吹かない時間帯には、実際には系統電力(化石燃料を含む)を使用している可能性があることを意味します。 これに対し、Googleが目指す「24/7 CFE」は、電力消費の「実時間(リアルタイム)」でカーボンフリー電力を調達・運用することを目指すものであり、技術的なハードルは格段に上がります。Google自身も、2021年時点でCFE比率が66%であったと報告しており、完全な脱炭素化がいかに困難であるかを示しています。 日本の電力事情という高い壁 日本国内において、このハードルはさらに高くなります。経済産業省の「エネルギー白書2025」によれば、2023年度の日本の電源構成において再生可能エネルギーが占める比率は22.9%にとどまり、依然として68.6%を火力発電に依存しています。 北海道や九州のように再エネ電源が比較的豊富な地域もありますが、データセンターの需要が集中する首都圏近郊では、系統容量の制約や地価の高騰から、大規模な再エネ発電所や専用データセンターの新設は容易ではありません。 国内でもNTTやさくらインターネット、富士通などが再エネ由来の電力によるデータセンター運用を進めていますが、全国的に見ればまだ限定的です。結果として、多くの日本企業は「国内のデータセンターでは電力制約や再エネ調達の難しさに直面し、海外のクラウドを利用すればデータ主権や複雑な報告制約に悩まされる」という二重の板挟み状態に置かれています。 性能か、環境か? AI導入が突きつける「電力のジレ ンマ」 サステナビリティへの対応と同時に、企業はAI、特に生成AI(LLM)の導入によるDX推進という、もう一つの大きな命題にも直面しています。しかし、この二つは時として相反する要求を現場に突きつけます。 AIの学習と「推論」が消費する莫大な電力 大規模言語モデル(LLM)の「学習」に莫大な電力が消費されることはよく知られており、研究機関の推計では、学習1回あたりで数千トン規模のCO₂を排出する例も報告されています。 しかし、問題は学習フェーズだけではありません。一度学習されたモデルが、日々の業務でユーザーからの問い合わせに答える「推論」フェーズでも、継続的に電力が消費されます。ビジネスがAIを活用すればするほど、推論処理による電力負荷は増大し続けるのです。 空冷の限界と「液冷」への移行コスト このAIの計算処理を支えるのがGPU(画像処理半導体)サーバーです。NVIDIAのH100(SXM仕様)のような最新の高性能GPUは、1基で最大700ワットを超える電力を消費します。これを高密度に集積したサーバーラックは、従来の「空冷」では冷却が追いつかなくなっています。 そのため、サーバーを特殊な液体に浸したり、配管で冷却水を循環させたりする「液冷」技術への移行が不可避となっています。しかし、これはデータセンター側にとって、液冷配管や熱交換器、専用変圧器の設置など、莫大な追加投資と大規模な設備改修を意味します。国内のデータセンター事業者からも、こうした対応を公表する例が出てきています。 日本はOECD主要国と比較して商用電力単価が高いことでも知られています。AIを大規模に運用しようとする企業ほど、「高い電力コスト」と「脱炭素・液冷化への追加投資」という二重の負担を負うことになります。「性能を上げれば電力消費が増え、省エネを優先すればAIの応答性や生成速度が落ちる」という、構造的なトレードオフが現場を圧迫しているのです。 “見える化”の罠――CO₂算定に追われる現場の実態 制度対応と技術革新の狭間で、IT部門の実務は具体的にどのような混乱に見舞われているのでしょうか。 国内のある製造業のIT部門担当者は、次のように証言します。「クラウド利用量を月次でエクスポートし、GHG排出量を算定しようにも、利用リージョン(国)ごとに排出係数が異なり、それらを統合計算するだけで1週間かかることもある」 こうした“データ整合の遅延”は、制度的な要求と現場のキャパシティのギャップを如実に示しています。報告業務そのものはESG部門が主導していても、実データの収集・加工はIT部門に集中し、本来の開発プロジェクトと並行して対応せざるを得ないのです。 マルチクラウド環境の複雑さ 各クラウドベンダーが提供する「カーボンフットプリント・ダッシュボード」は有用なツールですが、各社の算定方式や開示データの粒度(細かさ)は微妙に異なります。多くの企業が複数のクラウド(マルチクラウド)を使い分ける現代において、これらの異なる基準のデータを正確に統合し、会社全体の排出量として報告する作業は、想像以上に煩雑です。 Uptime Instituteが発表した「Global Data Center Survey 2024」も、AI対応とサステナビリティ報告の両立が、データセンター運用における主要な課題の一つになっていると指摘しています。 さらに、EUの炭素国境調整メカニズム(CBAM)は、2026年以降、鉄鋼やアルミなど炭素集約型の輸入品に事実上の課税を行う制度ですが、ITサービスは直接の対象ではないものの、サーバー筐体や電材といったハードウェアの調達において、間接的な影響を受ける可能性があり、サプライチェーン全体での管理が一層複雑化しています。 「グリーンIT疲れ」を乗り越える グリーンITは理念としては正しいものの、現状では「見える化」や「報告対応」にとどまり、実効的な排出削減に結びついていないケースが散見されます。電力や排出量を可視化するだけでは、根本的な最適化には至りません。…