公共領域への応用──自治体・教育・医療の可能性 ―― 昨今のAIブームの特徴を挙げるとするとどのようなことが言えますか。 野田 今回のAIブームに関しては、意外にも日本の大企業──いわゆるJTC(Japanese Traditional Company、日本の伝統的大企業)──が初期から積極的に投資している点が特徴です。これまでのDXトレンドとは異なる動きです。 橋口 生成AIは「大企業が勝てる技術」でもあります。なぜなら、ルールやモデルが同じであれば、差を生むのはデータとオペレーションの質だからです。自社の強みを技術と結びつけられる企業が、規模に関係なく勝っていくでしょう。 野田 それだけではありません。生成AIの活用は企業だけでなく、公共領域にも広がりつつあります。 橋口 教育分野では、個別最適化された学習支援や教員の業務負担軽減が期待されています。医療では、問診補助やカルテ要約など、非診療領域での活用が進んでいますが、信頼性と責任の所在が課題です。 野田 行政では、問い合わせ対応や文書作成の自動化が進んでいます。ただし、制度的な整備が追いついていないため、実証実験レベルにとどまっている自治体も多いのが現状です。 橋口 公共領域では「説明責任」が強く求められるため、AIの出力に対して「なぜその答えになったのか」を説明できる設計が不可欠です。いわゆる「XAI(説明可能なAI)」の重要性が高まっています。 倫理と制度設計──信頼性と人間中心設計 ―― 公共領域でAIを活用する場合、特に注意しなければならない点は何ですか。 橋口 生成AIの導入には、倫理的な配慮と制度的なガバナンスが不可欠です。プロンプトインジェクション(悪意ある指示)や誤情報の拡散など、AI特有のリスクに対する設計が求められます。 野田 弊社では、グループ企業横断のガバナンスに関する分科会を設けて、利用可能なサービスのホワイトリスト管理や、教育・ガバナンスの継続的な見直しを行っています。こうした仕組みは、公共領域にも応用可能です。 橋口 最終的な判断は人間が行うという「人間中心設計」が、信頼性の担保には不可欠です。AIはあくまで補助者であり、責任の所在を曖昧にしない設計が重要です。 野田 たとえば医療現場では、AIが診断補助を行っても、最終判断は医師が下すという構造が必要です。これは単なる制度設計ではなく、患者との信頼関係を守る文化設計でもあります。 未来の働き方──人間の役割と価値の再定義 ―― AIは単に作業の効率化を図る手段なのでしょうか。 野田 生成AIの進化は、人間の働き方そのものを問い直します。単純作業の自動化だけでなく、創造的業務の補助や意思決定支援まで広がる中で、人間の役割は「判断」「共感」「設計」へとシフトしていきます。 橋口 AIは「相棒」として機能する存在になりつつあります。業務のたたき台を作り、情報を整理し、選択肢を提示する──その上で、最終判断を人間が行うという設計が、安心感と信頼性を生みます。 野田 この変化は、教育・評価・報酬制度にも波及します。「時間」ではなく「成果」で価値を測る報酬や評価の設計、「個人」ではなく「チーム」で成果を出す文化──生成AIは、働き方の根本を揺さぶる技術です。 橋口 たとえば、コンサルティングやクリエイティブ領域では、成果物の質に応じた報酬設計が求められます。これは「時間=価値」という従来の労働観からの脱却を意味します。 ハイブリッド運用──人間中心設計と複数モデルの活用 ―― AIも間違いをするといわれていますが、AIが出した答えを最終的には誰が責任を持つのでしょうか。AIに任せきりでもいいのでしょうか。 橋口 AIの出した答えが正しいかどうかは、最終的に人間が判断する必要があります。経費精算のエージェントを導入した企業でも、最終的には「経理担当者に確認したい」という心理が残ります。 野田 その心理を前提に、AIに「経理担当者の判断軸」を学習させることで、より信頼性の高いエージェント設計が可能になります。人間中心のAI設計とは、こうした心理的安全性を担保することでもあります。 ―― AIが出した答えが間違っているかどうかを判断する方法はありますか。またAIが判断を間違えても、それを補完する方法はありますか。 橋口 複数のAIモデルに同じ質問を投げて、回答を比較する「エヴァンゲリオンのMAGIシステム方式」も有効です。海外ツールでは、1つのプロンプトに対して複数のバリエーションを同時に出す機能もあります。これにより、AIの出力を比較検証しながら、最適解を人間が選ぶという運用が可能になります。 野田 画像認識などでは、従来のコンピュータビジョンとマルチモーダルAI(テキスト・画像・音声・動画など複数の異なる情報形式(モダリティ)を同時に処理・理解・生成できるAI技術)を併用することで、精度を補完する事例もあります。たとえば、商品棚の画像から在庫状況を把握する際に、AIが見落とした部分を人間が補完することで、業務精度が向上します。 橋口 こうしたハイブリッド運用は、単なる技術的工夫ではなく、「人間が最終判断を下す」という設計思想に基づいています。AIを業務に組み込む際には、必ず人間の判断余地を残すことが、安心感と信頼性の担保につながります。 野田 その意味では、生成AIは「完全自動化」ではなく「補助と協働」の文脈で捉えるべきです。AIが提案し、人間が選び、修正し、仕上げる──このプロセスが、最も現実的で効果的な活用モデルだと思います。 ―― すでにさまざまなAIが誕生していますが、今後はどのような差別化が進んでいくのでしょうか。 橋口 生成AIのモデル間の性能差は徐々に縮まりつつあります。GPT-4からGPT-5、Gemini、Claudeなど、論理推論やマルチモーダル対応などで差はあるものの、今後はアプリケーション連携が差別化の主戦場になるでしょう。 野田 エンタープライズ向けAI-SaaSと個人利用の携帯端末を連携させて議事録をAIで取得し、SaaS側でボット化するなど、一貫した業務活用が可能なサービスもあれば、コーディング領域で突出しており、エンジニアの支持が厚いサービスもあります。 橋口 OpenAIはAPI(Application Programming Interface、接続口)利用が多く、先端モデルをいち早く提供するフラッグシップ的な立ち位置です。取っ付きやすさと汎用性が強みですね。 野田 今後は「モデルを選ぶ」より「目的に応じたツールを使う」時代になります。たとえば、プレゼン資料を自動生成するにはこのツール、タスクごとに最適なモデルを自動選択したい場合はこのツールなどと使い分けができるような、多様なアプリケーションの開発が進んでいます。 橋口 業務特化型のツールも急速に伸びています。たとえば、ウェブアプリ生成に特化した「Lovable」、エージェント構築に特化した「Dify」や「n8n」など、分野別の進化が加速しています。 野田 AI駆動開発、バイブコーディングの流れも重要です。自然言語で「こんなアプリ作って」と指示するだけで、動くものが出てくる世界が現実になりつつあります。セキュリティ面の課題は残りますが、来年にはさらに進化するでしょう。 構造変化と統合的進化──制度・文化・技術の三位一体 ―― AIはどのような可能性を秘めているのでしょうか。 野田 生成AIは、単なる業務支援ツールではなく、業務設計そのものを再構築する力を持っています。自然言語でアプリを生成する、複数モデルを自動選択する、業務フローを再設計する──これらはすでに現実のものとなりつつあります。 橋口 この変化は、企業の中だけでなく、教育、医療、行政、そして制度設計にまで波及します。AIが業務の「相棒」として機能することで、人間の役割は「判断」「設計」「共感」へとシフトしていきます。 野田 技術だけでは社会は変わりません。制度設計、文化的受容、技術的実装──この三つが揃って初めて、生成AIは社会に定着します。たとえば、労働価値を「時間」から「成果」へと移行するには、報酬制度や評価軸の見直しが必要です。 橋口 また、組織文化として「使える人」から「使いこなす組織」へと進化するには、教育とガバナンスの設計が不可欠です。逆メンター制度やアンバサダー制度など、現場と経営をつなぐ仕組みが鍵になります。 現場実装のリアル──人材、文化、スピード、そして“影のAI” ―― AIを導入することによって、利用者の仕事の仕方も大きく変わるのではないでしょうか。 野田 今や、誰もがアプリ開発者になれる時代です。たとえば、服の画像と人物写真を入力すると、自然に着せ替えた画像を生成するAPIが登場しています。こうした技術を使えば、eコマースや百貨店向けの試着体験アプリも、個人レベルで開発できてしまう。 橋口 本来は大手企業が活用すべき技術ですが、個人が先にプロトタイプ(試作品)を作ってしまう。これはまさに「スピードが競争力」になっている象徴的な事例ですね。 野田 生成AIを活用する人材に共通するのは、「楽したい」「自分の知見をスケールさせたい」という意識です。逆に、労働時間の長さをアピールしたい、自分の専門性を囲い込もうとする人は、なかなか使いこなせない傾向があります。 ―― AIを導入しやすい組織、しにくい組織というものがあるのでしょうか。 橋口 導入が進みやすい組織には「スクラップ&ビルド」を厭わず、「まず使ってみる」文化があります。失敗を許容し、試行錯誤を楽しめる文化が定着の鍵です。逆に、稟議が必要な組織や、完璧主義が強い文化では導入が難航しがちです。 野田 医療現場などでは、正式導入されていないにもかかわらず、現場の医師が個人的に生成AIを使っているという“シャドーAI”の実態もあると聞きます。これは、法人としての導入を遅らせることで逆に情報漏洩やハルシネションによる企業リスクを高めている例です。 橋口 こうした状況に対応するには、CIOや情報部門が「使わせない」のではなく「安全に使わせる」設計をする必要があります。セキュリティやガバナンスの設計は、現場の実態を踏まえて行うべきです。…