Skip to content
Tiatra, LLCTiatra, LLC
Tiatra, LLC
Information Technology Solutions for Washington, DC Government Agencies
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact
 
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact

AIエージェント時代に向けたガバナンス体制とは—「攻めのAIガバナンス」で企業の競争力を高める

プロフィール:大柴 行人
Robust Intelligence共同創業者、Cisco Foundation AIディレクター。高校卒業後、渡米。2019年、ハーバード大学にてコンピューターサイエンス・統計学の学位を取得。大学在学中に、「AIの脆弱性」を研究テーマにAIのトップ会議に複数論文が採択。2019年に当時の指導教授とRobust Intelligenceを創業。セコイア、タイガー・グローバルなどから資金調達し、シスコへ売却。Forbes 30 Under 30に北米・日本両地域で選出。Silicon Valley Japan Platform Executive Committee。デジタル庁先進的AI利活用アドバイザリーボード委員。AIガバナンス協会代表理事。

米国では株主総会の議題に、高まるAIガバナンスへの関心

大柴氏はまず、AIガバナンスについて「AI技術の活用にあたって、企業内でリスク管理、法への対応が必要になる。コーポレートガバナンスの一環としてITガバナンスをこれまでやってきたが、それと同様にAIにもガバナンスが必要」と説明する。

AIガバナンスに対する経営層の関心は高まっている。投資会社のBerkshire Hathaway(バークシャー・ハサウェイ)が株主総会で企業にAIの利用についての監視や管理について経営陣に求める提案があるなど、株主総会の場でAIガバナンスが重要な議題になりつつある。「この傾向は遅かれ早かれ日本にも波及するだろう」と大柴氏は予測する。投資家からAIの活用状況やAIリスクへの対応について質問が当然のように出てくる時代が迫っているのだ。

この変化は、AIガバナンスが従来のリスク管理部やセキュリティ部の範囲を超えた経営課題であることを示している。その重要性から経営課題となり、CISO(最高情報セキュリティ責任者)職が生まれたサイバーセキュリティと同じような道のりをたどっているといえる。

そのAIガバナンスを考えるにあたって、技術と組織の2つからのアプローチが必要と大柴氏は指摘する。技術面では、AIのハルシネーション(幻覚)やデータ漏洩などのリスクがあり、組織面では、それらリスクにどのような組織で対応していくのかを考える。組織では、ガバナンスは通常、第1線(ビジネスユースケースの当事者)、第2線(リスク管理者)、第3線(監査役)と3つのラインで組むことが多いが、AIガバナンスではこの3つのラインをどのように作るのかを考える必要があるという。

AIエージェントは生成AIよりもリスクが大きい

AIガバナンスに取り組むにあたって、まずはリスクを理解する必要がある。経営者が把握しておくべきこととして、AIには技術リスクと社会リスクの2つがある、と大柴氏は整理する。

1つ目の技術リスクは、AIであるがゆえに間違ったことを言ってしまう(ハルシネーション)や、AIの活用によりデータが漏洩してしまうといった、AI技術の制約に起因するもの。技術リスクについては、技術が向上すれば改善されていく可能性もあるという。

2つ目の社会リスクには、学習データの著作権問題、オフショア人材を使ったデータラベリングで不適切な画像や有害コンテンツを低賃金で大量に閲覧・分類させる問題なども含まれる。これらは技術の進歩だけでは解決されず、むしろAIが高性能化すればするほど深刻化する可能性がある。

生成AIのトレンドに追いつくまもなく、AIエージェントの時代に突入しつつある。大柴氏はCIOなど幹部が知っておくべき点として、「AIよりもAIエージェントの方がリスクや脅威は大きい」と警告する。

「これまでの生成AIはコパイロットのように、あくまで助手として人がAIに助けてもらうという使い方だった。これに対して、AIエージェントはその名(エージェント=代理人)の通り、代理人として人間のようにさまざまな意思決定をする」と大柴氏は説明する。このような性質の変化から、アシスタントのリスクよりエージェントのリスクの方が高いとする。

さらに深刻な点として、次のように説明する。「AIエージェントは人間よりも、意思決定のスピードが速く、短時間でより膨大なデータにアクセスしている」。つまり、AIエージェント時代のリスク管理は、従来のリスク管理と比べると脅威のレベルも、規模も大きくなるという。

プロンプトインジェクションだけではない、AIの脅威は?

実際の脅威の例として、プロンプトインジェクション攻撃の実例を挙げる。論文サイト「arXiv(アーカイヴ)」で公開された一部の論文に、高評価するよう指示するプロンプトが仕込まれ、査読AIがそれらの論文を高く評価するといった事例が既に報告されている。

フィッシング攻撃とAIを組み合わせた新たな脅威も見られるという。フィッシングメールの中に、AIにしか分からないようなコマンドが仕込まれており、それをコピーペーストしてAIに入力すると、AIが機密データを取得して外部に送信してしまうといった攻撃手法が現実化している。従来のマルウェアやフィッシング攻撃にAI特有のリスクを組み合わせた新しい形の脅威である。

セキュリティコミュニティであるOWASP(Open Web Application Security Project)では、LLMアプリケーションの脅威トップ10を挙げている。その中には、上記のプロンプトインジェクション、機密情報の漏洩、データおよびモデルの汚染、社内の情報との連携に用いられることが多いRAG(Retrieval-Augmented Generation:検索拡張生成)システムでの埋め込み処理における脆弱性などが挙がっている、と紹介する。

国際的な規制動向:日本は米国と欧州の中間

パワフルな技術であるAIに対して、世界各国では規制を進めている。だが、アプローチは様々だ。大柴氏は米国、欧州、日本の3つのアプローチを分析した。

もともと、規制を作るよりガイドラインや基準を設けるソフトロー寄りだった米国は、トランプ政権の下、さらにその方向性が強まっている。トランプ政権は前政権の大統領令を取り消し、規制緩和の方向に舵を切っている。特にDEI(ダイバーシティ、エクイティ、インクルージョン)関連では、「発言の倫理性を取り締まる部分は、かなり緩くなってきている」と状況を説明した。一方で「セキュリティは、国防とも関連してくるので引き続きかなり投資がされている」という。

対照的なのが欧州だ。欧州連合(EU)のAI規制「EU AI Act」に代表されるように、規制強化の方向性をとっている。EU AI ActはAIシステムをリスクレベル別に分類し、高リスクシステムには厳格な要件を課すもので、2024年に成立し、発効している。段階的に施行が始まっており、今後新しいオープンソースAIモデルを出す際には、安全性や透明性などのチェックが求められる。

両極にある米国と欧州に対して、日本はちょうど良い中間にある、と大柴氏は評価する。2025年に「AI新法」が公布されたが、大柴氏は「日本政府は基本的には研究開発やAIの導入は促進しつつ、リスクへの対応もしっかりする。バランスを取ってAIを利用するというスタンス」と日本のアプローチを説明する。

実は大柴氏がAIガバナンス協会を立ち上げた理由は、このような日本のアプローチを支えるためだという。政府が大枠を決めた後、そこで具体的に何をどのようにチェックをすればいいのか、どのような組織や技術的な仕組みを作ればAIガバナンスを構築できるのかを考えている、と大柴氏は活動の狙いを説明する。

「攻めのAIガバナンス」:活用促進のためのリスク管理

ではAIガバナンスをどのように進めていくべきか。大柴氏が提唱するのは「攻めのAIガバナンス」だ。

「AIを使いたいがどこまで使っていいかわからない、なんとなく怖い、という声を日本企業からよく聞く。このような状況に対して、何が課題となり得るのかの解像度を高め、守るべき部分をしっかり守る。ラインを引くことで、安心してAIを使える」(大柴氏)。

実効性のあるAIガバナンス体制構築のポイントとして、大柴氏は「攻めと守りが同じ部屋にいること。SWATチームのようなものを作って一緒にやることが大切」とアドバイスする。

AI活用するプロジェクトを進めるにあたって、ローンチ準備や議論の段階から、AI、ビジネス、リスク管理、セキュリティなどそれぞれのステークホルダーが参加する。これにより、ビジネスがやりたいこと、AIでできることの議論に、リスク管理やセキュリティの観点からチェックを入れながら進めることができる。その都度チェックするというより、「可視性を確保し、リスク管理やセキュリティチームがプロジェクトを把握できている状態を作る」と大柴氏は強調する。

リスクやセキュリティが最後に入ると、せっかく進めてきたプロジェクトをリスクやセキュリティの観点から終了しなければならなくなる。もし、リスクやセキュリティを無視して推し進めた場合は、深刻なリスクを負うことになる。この点は、既存のソフトウェア開発でセキュリティチームが最初から関わるというやり方を踏襲できる。「新たに仕組みやプロセスを作るというより、既存のものを利用することが成功のポイント。その方がナレッジも溜まりやすい」と大柴氏は指摘する。「たとえば、AIやAIエージェントのPoCを進める際にAIガバナンスを組み込んでやってみる形で進めてはどうか」と助言した。

取り組みを進めるのは、当初はCISOやCRO(最高リスク責任者)など。最終的にはAIガバナンスを専門とする担当者や役職ができることが予想される。

難しい点は、「AIガバナンスはかなり複合的でマルチステークホルダーの領域」と大柴氏。「法律も絡み、プライバシーやサイバーセキュリティとの関わりもある。サプライチェーンの議論もあり、技術的な議論もある」。そこでAIガバナンス協会では社会全体の視点でAIガバナンスのあり方を探っており、取り組み項目として「AIガバナンス行動目標」の策定、実装のための自己診断ツール「AIガバナンスナビ」の開発などを行っている。

トップアジェンダとしての認識を

最後に大柴氏は、CIOや経営層に向けて2つのアドバイスを提示している。

第1に「AIガバナンスやAIのリスクは経営レベルの課題という認識をしっかりと共有する」こと。

AIガバナンスはもはやトップアジェンダだという認識をもち、投資家、取引先、顧客に自社のAI活用におけるガバナンスについて聞かれた時に答えられるようにしておく。「まずは正しい課題の認識を持つことが重要」と大柴氏は強調する。

第2は「AIのユースケースに対して、AIガバナンスをパイロット的に適用する」。これにより、AIガバナンスはAIの活用を抑制するものではなく、促進をする力になることを実感できるだろう、と続ける。そうやってAIのリスクを洗い出し、チェックリストなどを作成していくうちに、成功体験ができてくる。その積み重ねが大切、という。

「AIのリスクについて、ソフトウェアのリスクや組織のリスクなど、部分的に捉える人が多い。だが、AIの可能性を考えると、今後AIリスクは部分的な捉え方を凌駕するものになる」──この認識こそが、AIエージェント時代を生き抜く企業にとって不可欠な出発点となるという。


Read More from This Article: AIエージェント時代に向けたガバナンス体制とは—「攻めのAIガバナンス」で企業の競争力を高める
Source: News

Category: NewsSeptember 24, 2025
Tags: art

Post navigation

PreviousPrevious post:Amazon and SAP partner on data sovereignty platforms to offer better oversightNextNext post:Google Cloud adds features to Colab to boost data scientists’ productivity

Related posts

オプトインからオプトアウトへ―次世代医療基盤法が変えた医療データのルール
December 13, 2025
AI ROI: How to measure the true value of AI
December 13, 2025
Analytics capability: The new differentiator for modern CIOs
December 12, 2025
Stop running two architectures
December 12, 2025
法令だけでは足りない―医療情報ガイドラインと医療DXのリアル
December 12, 2025
SaaS price hikes put CIOs’ budgets in a bind
December 12, 2025
Recent Posts
  • オプトインからオプトアウトへ―次世代医療基盤法が変えた医療データのルール
  • AI ROI: How to measure the true value of AI
  • Analytics capability: The new differentiator for modern CIOs
  • Stop running two architectures
  • 法令だけでは足りない―医療情報ガイドラインと医療DXのリアル
Recent Comments
    Archives
    • December 2025
    • November 2025
    • October 2025
    • September 2025
    • August 2025
    • July 2025
    • June 2025
    • May 2025
    • April 2025
    • March 2025
    • February 2025
    • January 2025
    • December 2024
    • November 2024
    • October 2024
    • September 2024
    • August 2024
    • July 2024
    • June 2024
    • May 2024
    • April 2024
    • March 2024
    • February 2024
    • January 2024
    • December 2023
    • November 2023
    • October 2023
    • September 2023
    • August 2023
    • July 2023
    • June 2023
    • May 2023
    • April 2023
    • March 2023
    • February 2023
    • January 2023
    • December 2022
    • November 2022
    • October 2022
    • September 2022
    • August 2022
    • July 2022
    • June 2022
    • May 2022
    • April 2022
    • March 2022
    • February 2022
    • January 2022
    • December 2021
    • November 2021
    • October 2021
    • September 2021
    • August 2021
    • July 2021
    • June 2021
    • May 2021
    • April 2021
    • March 2021
    • February 2021
    • January 2021
    • December 2020
    • November 2020
    • October 2020
    • September 2020
    • August 2020
    • July 2020
    • June 2020
    • May 2020
    • April 2020
    • January 2020
    • December 2019
    • November 2019
    • October 2019
    • September 2019
    • August 2019
    • July 2019
    • June 2019
    • May 2019
    • April 2019
    • March 2019
    • February 2019
    • January 2019
    • December 2018
    • November 2018
    • October 2018
    • September 2018
    • August 2018
    • July 2018
    • June 2018
    • May 2018
    • April 2018
    • March 2018
    • February 2018
    • January 2018
    • December 2017
    • November 2017
    • October 2017
    • September 2017
    • August 2017
    • July 2017
    • June 2017
    • May 2017
    • April 2017
    • March 2017
    • February 2017
    • January 2017
    Categories
    • News
    Meta
    • Log in
    • Entries feed
    • Comments feed
    • WordPress.org
    Tiatra LLC.

    Tiatra, LLC, based in the Washington, DC metropolitan area, proudly serves federal government agencies, organizations that work with the government and other commercial businesses and organizations. Tiatra specializes in a broad range of information technology (IT) development and management services incorporating solid engineering, attention to client needs, and meeting or exceeding any security parameters required. Our small yet innovative company is structured with a full complement of the necessary technical experts, working with hands-on management, to provide a high level of service and competitive pricing for your systems and engineering requirements.

    Find us on:

    FacebookTwitterLinkedin

    Submitclear

    Tiatra, LLC
    Copyright 2016. All rights reserved.