AIが生む“ナレッジ格差”
この状況は社内の知識格差を加速させます。プロンプト設計に長けた一部の社員は高品質な出力を引き出せますが、経験の浅い社員は表層的な回答にとどまりがちです。従来の業務スキルとは別の、新たな格差が生まれています。
たとえば、スタンフォード大学とMITの研究では、AI支援により新人カスタマーサポート担当者の生産性が向上し、8か月分の経験を約2か月で習得できたと報告されています。これは生成AIが熟練者の知識を暗黙的に伝達した例であり、同時にAIを使いこなせない社員との成果差を広げる要因にもなります。さらに、ハーバード・ビジネス・スクールとBCGの実験では、プロンプト設計の指導を受けたグループは、受けていないグループに比べて成果が高かったとされています。プロンプト設計力は、単なるツール操作を超え、業績に直結する戦略的能力になりつつあります。
分断される社内コミュニケーション
生成AIを使えば“誰にも相談せず、すぐに答えが得られる”ようになります。これは個人のスピードを高めますが、社内のナレッジ共有や相談の文化を弱めるおそれがあります。これまでSlackで気軽に尋ねたり、隣の席で聞いたりしていた「問い」は、AIという“サイレントパートナー”に向かうようになります。
その結果、暗黙知の伝播が滞り、業務知識の社会的共有が細る。新人育成、スキル継承、文脈(コンテキスト)の共有が空洞化します。こうした課題に対し、ベルシステム24は顧客対応履歴をAIでFAQ化しチャットボットに組み込む「Hybrid Operation Loop」を展開。現場の知見を再利用可能な形に再構成し、属人化した知識の全社活用を進めています。
共有されないまま各人のPCやブラウザに閉じ込められた知識——いわば「サイロ化したAI知」は、組織にとってブラックボックスの連鎖です。属人化したプロンプトや出力は他者が再利用できず、業務の再現性を奪います。さらに、AIが誤った情報を出力してもレビューや検証の網にかからなければ、個人レベルの意思決定に誤りが入り込む危険もあります。
ナレッジ共有を取り戻す5つの対策
“個人最適化の暴走”を抑える鍵は、技術だけでなく制度と文化の設計にあります。以下に実例を踏まえた5つの手立てを示します。
- プロンプトと出力を共有資産にする
パーソルホールディングスは社内版GPTに「プロンプトギャラリー」を設け、社員がプロンプトを共有・評価できる仕組みを実装。2024年7月時点で280件超が集まり、活用ノウハウが循環する文化が根づいています。
- 社内検索×要約で形式知化を進める
アサヒビールは社内ドキュメント検索とAI要約を組み合わせたシステムを構築。PDFやWordから横断的に情報を引き、要点を約100字で提示することで、属人的な資料探索からの脱却を図っています。
- 全社的なAIチャット基盤でナレッジを民主化する
帝人やINPEXはイントラ上でAIチャットボットを展開し、部門横断の情報取得を支援。誰もが同じナレッジ基盤にアクセスできることで、情報の偏在や部門間格差を縮小しています。
- AI出力のレビュー制度を設ける
モルガン・スタンレーは社内GPTの回答を専門家チームがレビューし、基準を満たしたものだけを正式ナレッジに採用。生成AIの“誤りをそのまま使う”リスクを抑えています。
- ナレッジ活用にインセンティブを付与する
LIFULLの「GAIA」表彰では優れたAI活用事例を毎月共有。社内通知を漫画化して閲覧率が3.5倍に伸びた事例などを可視化し、創造的活用の促進と学習効果の波及を生んでいます。
AIが媒介する「知」の再設計へ
生成AIは、知識を生み出す道具であると同時に“知識のあり方”そのものを変えています。情報が個人最適化され続ければ、組織の“共通言語”は崩れていきます。だからこそAI時代のナレッジマネジメントでは、AIから得た知をどう社会化し、制度に埋め込むかが問われます。
属人化を防ぎ、共有知として定着させるには、AIを使った後の“人の関与”が欠かせません。プロンプトの共有、出力のレビュー、活用の可視化——これらはテクニックではなく、新しい時代の“知識倫理”の実践です。生成AIが生む知は、組織全体で使われてこそ価値を持ちます。AIを“孤独な答え”ではなく“つながる知”として設計し直す——いま、すべての組織に突きつけられている課題です。