기고 | 데이터의 바벨탑에서 부문 간 소통 살리기
오프사이트 워크숍, 아침 스탠드업, 영업 시작 회의, 1:1 미팅, 소규모 팀 주간 회의 등에서 전달되는 메시지의 근간은 동일하다. ‘우리는 같은 페이지에 있어야 하며, 같은 노래를 불러야 한다. 서로 눈높이를 맞추고, 동기화하고, 정렬해야 한다.’ 기업의 목표가 돈을 버는 것이 아니라 공통된 기반을 찾는 것인 것처럼 보일 정도다. 이 다소 과장된 표현은 중요한 진실을 품고 있다. 대규모…
오프사이트 워크숍, 아침 스탠드업, 영업 시작 회의, 1:1 미팅, 소규모 팀 주간 회의 등에서 전달되는 메시지의 근간은 동일하다. ‘우리는 같은 페이지에 있어야 하며, 같은 노래를 불러야 한다. 서로 눈높이를 맞추고, 동기화하고, 정렬해야 한다.’ 기업의 목표가 돈을 버는 것이 아니라 공통된 기반을 찾는 것인 것처럼 보일 정도다. 이 다소 과장된 표현은 중요한 진실을 품고 있다. 대규모…
Il ruolo del Chief Information Officer è senz’altro uno dei più dinamici nella suite esecutiva aziendale: prima la trasformazione digitale e adesso l’arrivo dell’AI continuano a ridefinirne compiti e caratteristiche. L’evoluzione è così profonda che le competenze chiave del CIO nel 2025 sembrano essere tutte “soft, a quanto svelano i CIO stessi. Antonio Tosato,…
팔로알토에 따르면 기업들은 고객 지원부터 코드 생성에 이르기까지 전 영역에 AI 앱과 대형 언어 모델(LLM)을 도입하며 혁신을 주도하고 있지만, 동시에 보안 사각지대와 새로운 위협, 취약점이 함께 증가하고 있다. 이에 따라 AI 프로젝트를 보다 효과적으로 보호하고 보안 사고를 예방하기 위해서는 전방위적인 AI 보안 플랫폼이 필수적이라는 설명이다. 팔로알토는 프리즈마 에어즈가 업계 최고 수준의 보안 역량을 기반으로 AI 생태계 전반을 보호하며, 기업이 AI 기술을 보다 안전하고 자신 있게 도입·활용할 수 있도록 지원한다고…
There’s no doubt that the US federal government operations contain inefficiencies. But a new report from MeriTalk and Workday reveals just how bad things are from an HR perspective: Outdated systems are wasting employees’ time and costing taxpayers billions. In fact, 89% of federal HR leaders say legacy tools hinder their agency’s mission, while nearly…
Swedish Fintech company Klarna’s approach to the use of AI as opposed to live employees remains unchanged, a spokesperson for the firm said on Monday. John Kraske was responding to a news report from Bloomberg stating that CEO and co-founder Sebastian Siemiatkowski believes the company’s “pursuit of cost-cutting in customer service, fueled by advancements in…
카운터포인트가 ‘2024년 4분기 글로벌 스마트폰 SoC 매출 및 예측 트래커(Q4 2024 Global Smartphone SoC Revenue and Forecast Tracker)’를 발표했다. 이에 따르면 전 세계 프리미엄 안드로이드 스마트폰 SoC 시장은 퀄컴, 삼성, 중국 업체들이 시장을 이끌고 있다. 전 세계 프리미엄 안드로이드 SoC 매출 1위는 퀄컴으로 2024년 전체 매출의 59%를 퀄컴이 달성했다. 이는 2023년 74%에서 15% 하락한 것이지만…
Gartner made a bold prediction two years ago that cloud computing will become a business necessity by 2028, and this has proven prescient. The reasons are clear: businesses need to be agile and innovative yet cost-efficient to stay competitive, and the cloud is the foundation of those objectives. This is reflected among Australia’s mid-sized businesses,…
生成AIは、企業のDX推進において急速に導入が進んでいる技術である。多様な業務において、テキスト生成をはじめ、画像・音声などのメディア生成にまで応用可能となり、従来のITシステムにはないスピードでビジネス上の価値を創出している。一方で、その背後には、膨大なデータを扱うからこそ生じるリスクが存在する。プライバシー侵害、法令違反、知的財産権の問題など、企業が真剣に向き合わねばならない課題は多岐にわたる。
EYストラテジー・アンド・コンサルティング株式会社でリスク・コンサルティングのパートナーを務める川勝健司氏も、「生成AIだからこそ問題になるリスクは、かつてのITシステムより広範囲におよぶ」と述べている。とりわけ「画像や音声といった多様な生成物が、詐欺や誹謗中傷など犯罪的な行為を助長する可能性があることは、従来にはなかった大きな懸念材料である」と強調する。
このように高度化するリスクに対応するためには、単に「使い方に気をつける」だけでなく、新しいガバナンス体制の構築が不可欠である。技術の進化や規制動向に即応しつつ、企業として適切なチェック&バランスをどのように取り入れるべきか。本記事ではまず、組織体制やポリシー策定の観点から、生成AIのリスク管理をいかに進めるべきかを探る。
従来の企業ガバナンスでは、新しいテクノロジーを導入する際、法務やコンプライアンス部門が中心となってルールを整備してきた。しかし生成AIは、セキュリティやプライバシーにとどまらず、「データの学習プロセス」や「モデル選定」、「出力の信頼性・フェイク生成」など、技術的な知見を要するリスクを同時に包含する。
帝国データバンクが2024年夏に4,705社を対象に行った調査では、生成 AI を活用している企業のうちリスク対応の担当部門が「決まっていない」企業が45.1%も存在することがわかった。
川勝氏は、「法務コンプライアンスの方は規制面の知見に長けている一方、IT部門は技術面のリスクを理解している」と指摘する。だが、生成AIを使う上では「法務だけ」でも「ITだけ」でも不十分であるとし、「両者が連携する“全社横断的なチーム”が欠かせない」と強調する。
さらに川勝氏は、金融機関の例を引き合いに出しながら、いわゆる「1.5線」と呼ばれるリスク管理の枠組みを提示している。通常の企業では、「現場(ファーストライン)」と「監査・コンプライアンス等(セカンドライン)」があるが、金融機関ではIT部門内などに「システムリスク管理機能」を設け、ファーストとセカンドの中間として機能させる場合があるという。
「1.5線的な役割を持つ部署を用意し、IT部門の中でリスク管理を担うメンバーを置くことが理想である。上流で話し合われたポリシーを、実際のシステム要件やサービス仕様に落とし込む“翻訳者”が必要になるからだ」と川勝氏は語る。
この「翻訳者」が存在しないと、上流のポリシーが抽象的なまま終わってしまい、現場で機能しない事態に陥る。AIならではの複雑なリスクに対応するためには、法務・コンプライアンス・ITそれぞれの領域を繋ぎ、具体的な実装要件にブレイクダウンしていく1.5線の仕組みが重要である。
組織体制を考える上で鍵となるのが、横断的な委員会(あるいは小委員会)と1.5線のITリスク部門の連携である。川勝氏によれば、下記のような流れが望ましいという。
この体制が整えば、「ポリシーはあるが実行されていない」「法務が考えたルールと現場が想定する運用が噛み合わない」といったミスマッチを減らせるというわけだ。
先述の帝国データバンクの調査によれば、生成 AI を活用している企業のうち指針やガイドラインを策定した企業は2割弱だった。
川勝氏は、ポリシー策定のポイントとして「大枠の方針と、実務ガイドラインを分けて整備すること」を推奨している。具体的には、たとえば最上位の“基本規定”では、OECDのAI原則など国際的な基準を参照しつつ、倫理やプライバシー保護の理念を社内規定として明文化する。一方で、利用モデルごと・技術ごとに“ガイドライン”を設け、より具体的な禁止事項や推奨事項を整理する。
「たとえば『個人情報をAIに入力してはいけない』というのは理念的には正しいが、業務上、どうしても個人情報を取り扱わざるを得ないケースもある。そうした場合は『本人同意の範囲を確認する』『データを匿名化する仕組みを導入する』といったガイドラインレベルの定義が必須である」(川勝氏)
AI技術は日進月歩であり、各国での規制強化も進んでいる。このため、いったん定めた社内規程やガイドラインを機動的にアップデートできる体制が重要となる。川勝氏は「厳格すぎる承認プロセスをポリシーに組み込むと、変化に追いつかなくなる」と警鐘を鳴らしている。
そのためには、横断委員会の定期開催や、AIガバナンス担当者の専任配置などで、スピーディにルール更新を決定できるようにしておくことが望ましい。
また、生成AIを使いこなし、新しい価値を創出するためには「何でも禁止」が最善ではない。一方で、無制限に使わせればプライバシー漏洩や規制違反、信用失墜のリスクは大きい。川勝氏は「ガードレールを決めて、一定の自由度を認める」アプローチが合理的だと述べている。
「こまかくすべてをチェックしてしまうと、導入が面倒になってイノベーションが損なわれる。逆に、野放しにしておくと重大な事故を起こす可能性がある。その間を埋めるガードレールとして、やはりポリシーやガイドラインが必要になる」という。
経営層にとって悩ましいのは、AIガバナンスにかかるコストをどこまで正当化できるかという点である。だが、万一のインシデントによる当局からの制裁や信用失墜を考えれば、事後リスクの方が遥かに高額な損失に結びつく可能性がある。
「最近では、同業他社の事例を参考にして『あの企業はここまでやっている』という横並び意識で意思決定が進むことも少なくない」と川勝氏は語る。本来は「インシデントが起こった場合の処分や訴訟コスト」「ブランド毀損による売上減」などを考慮した上で、リスク対効果を定量的に考えていくのが理想であるものの、それができている企業はなかなかないという。
実際のデータ侵害コストは年々高騰している。日本IBMが2024年9月に公表したレポートによると、国内企業がデータ侵害を受けた際の平均コストは6億3,000万円(前年比5%増)と過去最高を更新した。
ガバナンス強化には一定の投資が必要であるが、このように一度大規模インシデントを起こせば、数億円規模の損失につながりかねない。経営層への説明としては、「事後コスト>事前投資」を示す定量的な根拠として、こうしたデータが有力な裏付けとなるだろう。
生成AI時代のガバナンス構築は、単なるコンプライアンス対応ではなく、企業がAIを安心して活用しイノベーションを創出するための“土台づくり”である。横断委員会と1.5線が連携し、全社ポリシーと具体的な実装指針を行き来できる組織設計を整えることで、過度な制限なくリスクを最小化することが可能になるに違いない。
Read More from This Article: 変化の早いAIに対して日本企業はどんなガバナンス体制を設けるべきなのか
Source: IT Strategy
At offsite retreats, morning stand-ups, sales kickoffs, 1:1 catch-ups and small-team weeklies, the message is the same: we need to get on the same page, sing from the same hymn book — level-set, sync up, get aligned. You would swear the goal of a business is not to make money, but to reach common ground. …
Fue en mayo de 2024 cuando BBVA suscribió una alianza con OpenAI y puso a disposición de sus empleados 3.300 licencias de ChatGPT Enterprise, la versión empresarial del popular chatbot que cuenta con el mayor grado de seguridad y privacidad. El objetivo no era otro que explorar su potencial para acelerar procesos y estimular la innovación…