SAP customers not sold on S/4HANA ROI

A huge percentage of SAP customers are wary about the company’s efforts to move its customers away from perpetual licenses to subscription pricing, with most worried about future pricing increases, according to a recent survey. SAP is ending support for its legacy ECC ERP solution, generally sold with a perpetual license, at the end of…

2,700개 사업 통합·AI 맞춤 추천···중소벤처기업부, AI 기반 통합지원 플랫폼 구축

해당 플랫폼으로 정부 당국은 중소기업이 제출해야 하는 서류는 평균 9개에서 4.4개로 절반 이상 줄고, 21종의 확인·인증서도 한 번에 발급받을 수 있을 것으로 전망했다. 중소벤처기업부는 4일 정부청사에서 열린 산업경쟁력강화 관계장관회의에서 수요자 중심·AI 기반의 ‘중소기업 지원체계 개선방안’을 발표했다. 이번 대책은 지난 8월 21일 한성숙 장관이 주재한 중소기업 현장 간담회와 지난달 1일 개최한 중소기업 지원 공공기관 정책협의회 등을…

‘실천이 필요한 때’···보안과 비즈니스 전략을 확실히 연계하려면

독일의 물류장비 및 기술 솔루션 제조업체 융하인리히AG(Jungheinrich AG)의 CISO인 팀 사틀러는 회사의 AI CoE(center of excellence)에서 실제 비즈니스 성과로 이어질 기술을 파악하는 업무를 담당하고 있다. 그는 “다양한 기회를 모색하고 있다”라고 말했다. AI 전문가 그룹이라면 이런 논의를 진행하는 것이 자연스럽다. 하지만 주목할 점은 보안 책임자인 사틀러가 팀의 일원으로 함께하고 있다는 사실이다. 실제로 보안 책임자가 이런 역할을…

“산업제어시스템 공격 급증···실제 사례 통해 보안 강화해야” 캐나다 사이버보안센터

그동안 보안 전문가들은 산업제어시스템을 인터넷에 노출할 경우 정부 연계 위협 그룹이나 해커의 주요 공격 표적이 될 수 있다고 꾸준히 경고해 왔다. 캐나다 정부 산하 사이버보안센터는 최근 상수도 시설, 석유·가스 기업, 농장 등에서 운영에 영향을 미친 공격 사례들을 공개하면서 CISO에게 즉각적인 대응을 촉구했다. 센터는 “개별 기관이 적대 세력의 직접적인 공격 목표가 아니더라도, 해커 그룹이 인터넷에 접근…

“정부용 AI 인프라 강화” 슈퍼마이크로, 차세대 엔비디아 베라 루빈 플랫폼 도입

슈퍼마이크로는 2026년 출시 예정인 엔비디아 베라 루빈 NVL144 및 NVL144 CPX 플랫폼 기반 솔루션을 출시할 계획이라고 밝혔다. 해당 플랫폼은 이전 세대 블랙웰 울트라 대비 3배 이상 향상된 AI 어텐션 가속 성능을 제공하여, 복잡한 AI 학습 및 추론 워크로드를 효율적으로 처리할 수 있도록 지원한다. 슈퍼마이크로는 현재 엔비디아 HGX B300 및 B200, 엔비디아 GB300 및 GB200, 그리고…

虚構が真実を侵食する時代――ディープフェイクの脅威と社会防衛の最前線

人工知能(AI)によって生成された偽の動画や音声は、もはや人間の目や耳では容易に見分けがつかないほどの精度に達しています。こうしたコンテンツは、一度ソーシャルメディア(SNS)やニュースサイトに流布されれば、その真偽が確かめられる前に瞬く間に拡散し、深刻な社会的混乱や企業活動への重大な打撃を引き起こす可能性があります。ディープフェイク技術は、エンターテインメントやマーケティングの分野で新たな表現の可能性を示す一方で、「何が本当か」という私たちが依拠する基盤そのものを揺るがす、現代における最大のリスク要因の一つとなりつつあります。本稿では、画像、映像、音声を含むこれらの合成・改変コンテンツ全般を「ディープフェイク」と呼び、その技術の進化から被害の実態、国際的な規制の動き、そして「真実」という概念の変容に至るまでを整理し、この新たな課題を検証します。

現実を凌駕する「虚構」――技術の進化と拡散する実害

ディープフェイクの技術的な端緒は、2017年頃に登場した顔交換動画に遡ります。当初は技術的に粗雑な点も多く、「インターネット上の悪ふざけ」の域を出ないものと見なされていました。しかし、GAN(敵対的生成ネットワーク)と呼ばれる技術が普及するにつれて、その写実性は飛躍的に高まりました。さらに近年では、拡散モデル(diffusion model)が登場したことにより、専門家でなくても、一般ユーザーが高精度な画像や映像を容易に生成できる時代が到来しています。ここに、大規模言語モデル(LLM)による自然なテキスト生成や、高度な音声合成技術が結合し、テキスト、音声、映像を自在に横断し組み合わせる「マルチモーダル生成」が一般化しつつあります。

こうした技術の進化は、すでに現実世界に深刻な被害をもたらしています。2024年には香港で、ある国際企業の財務担当者が、経営幹部全員の顔と声を精巧に模した偽の映像を用いたオンライン会議に騙され、約2億香港ドル(当時の日本円で約38億円)を不正に送金するという衝撃的な事件が発生しました。また2023年には、「米国防総省(ペンタゴン)の近くで爆発があった」とする偽の画像がSNS上で拡散し、金融市場がこれに反応して一時的に株式市場が下落する事態も報じられています。

政治の領域も例外ではありません。2024年の米国大統領選挙戦では、特定の候補者を模したAIによる合成音声が、有権者に投票を控えるよう促す目的で拡散されました。この事態を受け、FCC(連邦通信委員会)は同年2月、AIによって生成された音声をTCPA(電話消費者保護法)が規制する「人工または録音音声」に該当すると明確化し、自動電話(ロボコール)と同様に事前の同意などを要件とする立場を示しました。日本国内においても、著名人や一般の人々を標的としたフェイクポルノや、なりすましの偽映像の拡散が増加傾向にあります。

社会基盤を揺るがす脅威――企業と産業が直面する新たなリスク

ディープフェイクは、個人のみならず企業活動においても直接的な脅威として顕在化しています。例えば、企業のCEO(最高経営責任者)が辞任を発表する、あるいは不祥事を謝罪するといった内容の偽動画がSNSに流れれば、企業の株価は瞬時に急落し、長年かけて築き上げてきたブランド価値は一瞬にして失墜しかねません。また、災害発生時に避難を指示する偽の放送や、自社製品の重大な欠陥とリコールを装った偽音声が拡散すれば、社会的なパニックを引き起こすと同時に、企業の経営そのものに深刻なリスクをもたらします。前述の香港での巨額詐欺事件のように、海外ではすでにディープフェイクを悪用した企業詐欺が現実のものとなっており、各国で企業におけるリスク管理体制の強化が喫緊の課題として取り上げられています。こうした新たな脅威への対応には、従来のCSIRT(シーサート)のようなサイバーセキュリティ部門だけでなく、広報、法務、そして経営層自身を含む、組織横断的な危機対応体制の整備が不可欠であるとの指摘がなされています。

この影響は、特定の産業に留まりません。報道業界では、従来「動かぬ証拠」とされてきた映像や音声が、もはや自動的に「証拠」として機能しなくなりつつあります。多くの報道機関が、情報の真偽を検証する専門部門の新設や、AIを用いた検証ツールの導入を進めるなど、対応を迫られています。金融業界では、偽ニュースや偽映像による市場の撹乱が現実的な懸念事項となっており、先のペンタゴン偽画像事件のように、短期的な市場変動リスクがすでに現実化しています。エンターテインメント業界においても、著名な俳優やアーティストの肖像がAIによって無断で使用される事例が問題化し、契約書に「AIによる肖像利用の禁止条項」を明記する動きが広がりました。さらに司法分野では、裁判において偽の証拠や巧妙に改変された映像が提出されるリスクが増大しており、証拠管理体制の一層の強化が課題として挙げられています。

「真実」を守るための戦い――規制・技術・リテラシーの国際的動向

こうした虚構の氾濫に対し、社会全体で「真実」を保全するための取り組みも進められています。技術的な対策としては、生成されたコンテンツに人間には見えない「識別透かし(デジタルウォーターマーク)」を埋め込む技術や、コンテンツの出所や来歴を記録・署名する技術が進化しています。特に、Adobeが主導する「Content Authenticity Initiative(CAI)」および業界連合の「C2PA」には、GoogleやMetaといった主要なテクノロジー企業も参加し、生成物に出所情報(プロヴェナンス)を付与するための国際的な標準化が進められています。Googleは2025年5月、識別支援ポータル「SynthID Detector」を公開し、同社の技術で埋め込まれた透かし(SynthID)の有無や信頼度を一般ユーザーが確認できる仕組みの提供も開始しました。しかし、こうした防御技術には限界もあります。2025年7月に公表されたカナダ・ウォータールー大学の研究「UnMarker」は、既存の多くの透かしを高精度で除去できる技術を発表し、検知技術の脆弱性を浮き彫りにしました。生成技術と検出技術は常に「いたちごっこ」の関係にあり、技術的な対策だけで社会的な信頼を完全に維持することは困難です。そのため、制度的な枠組みと社会的な運用の両輪による信頼維持の重要性が広く論じられています。

各国政府も、法規制による対応を急いでいます。EU(欧州連合)では、2024年8月1日に包括的な「AI法(AI Act)」が施行されました。禁止されるAIの類型や、透明性・説明責任に関する措置が2025年2月から順次適用開始となり、基盤モデル(GPAI)関連の主要義務は2025年8月から、高リスクAIへの全面適用は2026年8月から開始されます。重大な違反には、全世界の売上高の最大7%という巨額の制裁金が科される可能性があります。また、EUは「デジタルサービス法(DSA)」に基づき、巨大プラットフォーム事業者に対してシステミックリスクの低減を義務付けており、2024年3月には選挙期間中のAI利用に関するガイダンスも公表しました。

対照的に、米国では連邦レベルでの包括的なAI法は未整備の状況です。テキサス州が2019年に選挙前の欺瞞的ディープフェイクを禁止する州法(SB751)を制定するなど、州法レベルでの対応が中心でした。しかし、カリフォルニア州で2024年に成立した選挙ディープフェイク対策法群の一部(AB2839やAB2655)が、2024年から2025年にかけて連邦地裁で違憲判断や仮差止命令を受けるなど、表現の自由との兼ね合いで法整備は難航しています。一方で、FTC(連邦取引委員会)が2024年に「個人なりすまし」に関する規則案を公表し、AIを利用した欺瞞的な広告をFTC法違反として執行するなど、連邦機関による既存法の積極的な適用が進んでいます。

中国は、国家管理型のアプローチを採っています。2023年1月10日に「深度合成サービス管理規定」を施行し、生成コンテンツに対して明確なラベル表示、本人の同意、出所表示を義務化しました。これは国家による検閲と一体化した体制であり、情報拡散の強力な抑止を目的としています。

日本では、総務省が通信分野、経済産業省が産業分野、警察庁がサイバー犯罪対策と、分野別に制度整備が進められています。2025年4月1日に施行された「情報流通プラットフォーム対処法(情プラ法)」は、大規模なプラットフォーム事業者を対象に、権利侵害情報への対応や通知・公表義務を定めています。

プラットフォーム事業者自身も、責任ある対応を迫られています。Metaは2024年2月、C2PA標準に対応し、AI生成画像の自動ラベリングを拡大すると発表しました。YouTubeも同年3月、現実的に見える合成映像や音声について、投稿者による開示を義務化しました。TikTokも5月にC2PAに対応し、自動ラベル表示を開始しています。ただし、日々投稿される膨大なコンテンツ量を考えると、識別精度と運用の徹底には限界があり、プラットフォームが「真実のゲートキーパー」としてどこまで機能できるかは、依然として不透明です。

電子署名やタイムスタンプ、ブロックチェーン技術による来歴管理など、技術的な対策は確かに進化しています。しかし、最終的に何を「真実」とみなすかは、技術だけでは決まらず、文化的な、あるいは社会的な合意に依存します。報道機関や教育現場では、情報を受け取る側の「検証リテラシー」を重視する取り組みが進められており、安易に情報を鵜呑みにせず、一度立ち止まって「疑う文化」「確認する文化」を社会に定着させることが課題となっています。技術、制度、そして文化(リテラシー)の三本柱がそろって初めて、ディープフェイクの氾濫に対抗する社会的な防衛線が機能すると言えるでしょう。

ディープフェイクは、私たちが築いてきた情報信頼性を根底から揺るがす深刻な脅威です。生成AIの利便性が高まれば高まるほど、虚構の拡散もまた加速するというジレンマを抱えています。多くの企業が、従来のサイバーセキュリティ対策室だけでなく、経営層、広報、法務を横断した危機対応体制の整備を進めているのは、この脅威がもはや単なる技術的な問題ではないことを示しています。最終的に問われているのは、私たちの社会が「確かめられる真実」を維持し続けられるかどうかです。フェイクが「本物よりも本物らしく」なり得る時代に、私たちは社会全体で「信頼」という基盤そのものを再構築する必要に迫られています。


Read More from This Article: 虚構が真実を侵食する時代――ディープフェイクの脅威と社会防衛の最前線
Source: News