칼럼 | 비영어 생성형 AI의 데이터 격차, 투명성과 비용 절감 이끌어낼까?

영어에서 비영어 기반 대규모 언어 모델(LLM)로 전환할 때 품질이 급격히 저하된다는 사실이 더 분명해지고 있다. 비영어 모델은 정확도가 낮을 뿐만 아니라, 데이터 학습과 관련해 데이터 양과 품질 모두에서 투명성 부족 문제가 제기되고 있다. 이는 생성형 AI 도구와 플랫폼에서 꾸준히 언급돼 온 문제다. 하지만 기업들은 생산성이 낮은 비영어 모델에 대해서도 동일한 비용을 지불하고 있다. 왜 CIO는…

“메타, 한국 AI 반도체 스타트업 ‘퓨리오사AI’ 인수 논의 중” 포브스

포브스에 따르면, 현재 메타는 퓨리오사AI 인수를 위한 협상을 진행하고 있으며, 이르면 이번 달 중 거래가 성사될 수 있다. 다만 메타 외에도 여러 기업들이 퓨리오사AI 인수에 관심을 보이고 있어 성사 여부는 확실치 않은 상태다. 퓨리오사AI 측은 “추측성 보도에 대해 답변할 수 없다”는 입장을 밝혔으며, 메타 측은 즉각적인 답변을 하지 않았다. 퓨리오사AI는 2017년에 설립된 AI 반도체 팹리스…

“임원 25%가 커뮤니케이션에 AI 활용 목표”··· 딥엘, 언어 AI 백서 발표

딥엘은 이번 백서에서 글로벌 기업의 AI 도입 동향, 부실한 커뮤니케이션이 국제 비즈니스에 미치는 재정적 영향, 언어 AI 툴의 실제 효과와 가치 등 중요한 주제를 다루며 비즈니스에서 언어와 AI가 만나는 지점에 초점을 맞췄다고 밝혔다. 백서는 EMEA 및 미주 비즈니스 리더들을 대상으로 실시한 딥엘의 최신 설문조사 결과와 다양한 외부 자료를 기반으로 작성됐다. 딥엘 창업자 겸 CEO 야렉 쿠틸로브스키는 “영어는 국제 비즈니스의 공용어로 널리…

구글, 공공 부문 5가지 AI 트렌드 제시 “정부 기관도 변화 중”

구글이 ‘공공 부문에서의 2025년 AI 트렌드(AI Trends 2025 Public Sector)’ 보고서를 발표했다. 보고서는 구글이 IDC에 의뢰해서 진행한 연방 정부 최고 AI 책임자와 기타 AI 의사결정권자 161명에 대한 설문 조사를 기반으로 작성됐다. 이번 조사 결과 공공 기관의 50%가 높은 수준의 성숙도를 보인 것으로 나타났다. 보고서에 따르면 2025년에는 공공 부문에서 AI 기반 혁신을 통한 정부 기관의 효율성…

솔트웨어, AWS 연계 ‘AI 기반 기술지원 시스템’ 개발

이번에 도입된 어시스턴트 AI는 AI 에이전트를 활용해 고객의 기술적 문제를 자동으로 분석하고, 상담원이 보다 신속하고 정확한 해결 방안을 제시할 수 있도록 설계됐다. 솔트웨어는 AWS의 PLS(Partner Led Support) 파트너로 활동하고 있다. PLS 파트너는 AWS 이용 고객의 기술 문제를 직접 해결하며, AWS의 AI와 클라우드 기술을 활용한 맞춤형 지원 서비스를 제공하는 역할을 한다. 솔트웨어는 AI 에이전트 기반 시스템을…

The 5 S’s of cyber resilience: How to rethink enterprise data security and management

Cybersecurity consistently ranks as the top concern among CIOs worldwide, but despite the high priority they place on ensuring their environments are safe from cybercriminals and hackers, only about one-third (35%) of IT organizations have implemented a comprehensive cyber recovery plan, according to PwC’s 2025 Global Digital Trust Insights report. This gap between awareness and…

従業員向けAIプロンプトの約1割が機密データを含む

従業員からのAIデータ漏えいは、企業の悪夢となっている。

HarmonicのAIデータ漏えいに関する最新レポートによると、人気のLLMに対する従業員のプロンプトの8.5%に機密データが含まれており、セキュリティ、コンプライアンス、プライバシー、法的な懸念がある。

2024年第4四半期にChatGPT、Copilot、Gemini、Claude、Perplexityに対する数万件のプロンプトを分析したHarmonicは、請求情報や認証データを含む顧客データが流出データの最大シェア46%を占めることを明らかにした。この中でHarmonicは、処理時間を短縮するために従業員がAIツールに頻繁に入力する顧客データが多く含まれる報告書の一種として、保険金請求を取り上げた。

給与データや個人を特定できる情報(PII)を含む従業員データは、機密性の高いプロンプトの27%を占め、次いで法務・財務データが15%だった。

「センシティブなプロンプトの6.88%を占めるセキュリティ関連情報は、特に懸念すべきものです。「例えば、侵入テストの結果、ネットワーク設定、インシデントレポートなどである。このようなデータは、脆弱性を悪用するための青写真を攻撃者に提供する可能性がある。

影からの脱出

ジェネレーティブAIのデータ漏えいは困難な問題であり、企業のジェネレーティブAI戦略がCISOをストレスフルな状況に追い込んでいる主な理由でもある。

企業におけるLLMの使用は、ライセンス供与や自社開発による実装を含む公認のデプロイメント、シャドーAI(通常、正当な理由によって企業によって禁止されている無料のコンシューマーグレードのアプリで構成)、セミシャドージェネレーティブAIの3つに大別される。

無許可のシャドーAIはCISOにとって主要な問題であるが、この最後のカテゴリーは、最もコントロールが難しいかもしれない成長中の問題である。事業部門の責任者によって開始されたセミシャドーAIには、IT部門の承認を得ていない有償のAIアプリが含まれる可能性があり、実験、便宜、生産性向上のために導入されている。このような場合、経営幹部はシャドーITに従事しているが、事業部門の従業員はAI戦略の一環として経営陣からツールを利用するよう指示されている。

シャドーまたはセミシャドーの無料生成AIアプリは、ライセンス条項が通常、すべてのクエリでトレーニングを許可しているため、最も問題がある。Harmonicの調査によると、機密データ漏えいの大部分を占めるのは、無料層のAI利用である。例えば、機密プロンプトの54%はChatGPTの無料層で入力されている。

しかし、ほとんどのデータスペシャリストは、有料のAIアプリの契約上の約束を信用することをCISOに勧めない。

Carstens, Allen & Gourley知的財産法律事務所の弁護士ロバート・テイラーは、企業秘密の例を挙げる。従業員が生成AIシステムに企業秘密を暴露するような質問をすると、様々な法的保護、特に企業秘密保護が失われる可能性がある、と彼は言う。知的財産を保護する弁護士は、禁止されているデータが発見されるかどうかを確認するために、チームメンバーに企業秘密について幅広いAIアプリに質問させることがよくあると付け加える。もしそうなら、誰かが漏らしたことになる。

競合他社がリークを知れば、リークによって営業秘密の法的保護が無効になると法廷で主張することができる。テイラーによれば、知的財産権所有者の弁護士は、企業が秘密を保護するために様々な仕組みを導入したことを証明しなければならない。生成的なAIクエリに関するトレーニングを行わないことを約束した契約条項に頼ることは、「十分なレベルの合理的努力とは言えない」とテイラーは言う。

「それは総合的な状況でしょう」と彼は言う。企業は、”データの使用に関して従業員を拘束するポリシー “を導入し、厳格に実施しなければならない。

データに配慮した実践

CISOはビジネスリーダーと協力し、保護されたデータを使用せずにLLMから同じ結果を得る方法を従業員に教育する必要がある、とForrester社の副社長兼主席アナリストであるジェフ・ポラードは言う。そうすることで、プロンプトをより繊細に扱う必要があるが、AIが生成した回答の有効性を薄めることなく、機密情報を保護することができる。

「しかし、クエリの言い回しを理解するようにユーザーを訓練する必要がある」とポラードは言う。

ロックダウンされた企業負担のアプリではなく、無料のAIツールを従業員が使用する場合、「従業員を取り締まることは最も明白なことですが、核心的な疑問は『なぜ従業員はそれをやっているのか』ということです」と、ガートナーの著名な副社長兼アナリストのアルン・チャンドラセカラン氏は指摘する。

「IT部門が従業員に必要なツールを提供していないために、従業員はそれを行っているのです」と彼は主張する。

CISOは、全社的なAIツールは「本当に使える」ものであるべきだということを徹底させるために、C-suiteの担当者にこのことを指摘すべきだと彼は言う。

残念なことに、ソフトウェア・ベンダーUnilyのシニア・コミュニティ&パートナー・マーケティング・マネージャーであるカズ・ハッサン氏によれば、ジェネレーティブAIでは、すでに精霊は瓶の外に出ているという。

「従業員によるAIの利用は、ITチームが追いつく能力を凌駕しています。「ITチームは、状況が良くないことは分かっていても、影響を与えるためのコミュニケーション、文化、戦略の部分にまで手が回らないのです」

新たな青写真が必要であり、組織はリスクを減らすために今すぐ明確なAI戦略が必要であり、従業員の技術スタックにAIを織り込んですぐにフォローアップする必要がある” とハッサンは付け加えた。

典型的な監視・制御アプリは、データ漏洩のポイントを外していると彼は主張する。

「パワー・ユーザーが無許可のAIツールで機密データを処理しているのは、制御できないからではなく、スピードが落ちないからだ。制限して保護するという古いやり方は、単に失敗しているだけでなく、AIのイノベーションを積極的に陰に追いやろうとしているのです」とハッサンは言う。「CISOはこの現実を直視する必要がある。AIの変革をリードするか、セキュリティ境界が溶解していくのを見るかだ」

ハッサン氏は、ジェネレーティブAIによるデータ問題は2つの方向に向かうと指摘する。クエリによって機密データが流出することと、幻覚によって、あるいは誤った情報に基づいて訓練された欠陥のあるデータが、ジェネレーティブAIの回答を通じて企業に入ってくることだ。

「今日のCISOは、機密データの流出だけを心配するべきではありません。悪いデータが入ってくることも心配すべきです」とハッサンは言う。


Read More from This Article: 従業員向けAIプロンプトの約1割が機密データを含む
Source: News