오픈AI, 챗GPT에 광고 테스트 시작 “답변 독립성·대화 비공개 원칙”

이번 광고 실험은 챗GPT의 무료 서비스와 월 8달러의 보급형 구독 서비스인 챗GPT 고를 이용하는 로그인한 성인 사용자를 대상으로 진행된다. 플러스, 프로, 비즈니스, 엔터프라이즈 구독 이용자에게는 광고가 표시되지 않는다. 광고를 원하지 않는 무료 사용자는 상위 플랜으로 업그레이드하거나, 일일 무료 메시지 수가 줄어드는 조건으로 광고 수신을 거부할 수도 있다. 오픈AI는 공식 블로그를 통해 이번 광고 도입의 목적을…

“은퇴 뒤에도 경력은 계속된다” CIO의 ‘포스트 리더십’ 설계법

CIO를 비롯한 기술 리더는 늘 어려운 과제를 마주해 왔다. 경력 후반부에 접어든다고 장애물이 사라지는 것은 아니다. 다만 ‘과제의 성격’이 달라질 뿐이다. 경력 후반부 IT 리더들은 새로운 기술을 배우고 빠른 변화에 적응하는 능력이 과소평가되거나, 나이와 관련된 편견 같은 문제를 맞닥뜨린다. 구조조정으로 일자리를 잃은 경우에는 시장 위축, 연령 차별, 더 젊은 기술 임원과의 경쟁이 겹치며 재취업이 특히…

칼럼 | ‘슈뢰딩거의 고양이’로 보는 기업 보안의 역설

대부분의 보안 리더는 입에 올리지 않는 하나의 역설을 조용히 안고 있다. 실제 환경이라는 상자 안을 들여다보기 전까지, 기업은 안전한 상태이면서 동시에 이미 침해된 상태에 놓여있다는 점이다. 대시보드상에서는 안전하다는 표시가 뜨고 감사 보고서가 안심을 주지만, 직접적이고 반복적인 관찰 없이는 실제 보안 상태를 알 수 없는 것이 현실이다. 보안 상태를 ‘슈뢰딩거의 고양이’에 비유할 이유 슈뢰딩거의 고양이(Schrödinger’s cat)에…

인터뷰 | “자동차 업계, 변화는 찾아왔다” 미국 닛산 CIO가 말하는 조직 혁신의 공식

자동차 업계는 근본적으로 재편되고 있다. 차량은 더 이상 엔지니어링과 제조 역량만으로 정의되지 않는다. 데이터 생성과 고객 경험 설계, 소프트웨어를 통해 지속적으로 진화하는 디지털 플랫폼이 됐다. 미국 닛산의 CIO 레슬리 마는 혁신을 주도하며, 기술이 비즈니스를 어떻게 가능하게 하고 또 어떻게 더 빠르게 성장시키는지를 새롭게 그려나가고 있다. 마는 “대규모 변화가 반드시 필요한 상황에서 일하는 것을 즐긴다. 변화를…

인텔, 소프트뱅크와 차세대 메모리 ‘ZAM’ 개발···분석가 “아직은 먼 얘기”

인텔이 옵테인(Optane) 제품군을 단종한 지 4년 만에 다시 메모리 사업에 복귀한다. 인텔은 소프트뱅크의 자회사와 협력해 ‘ZAM’이라는 새로운 메모리 기술을 선보일 계획이다. ZAM은 Z-앵글 메모리(Z-Angle Memory)의 약자로, 인텔과 소프트뱅크 산하 사이메모리가 공동 개발하고 있다. ZAM 메모리 기술 개발은 미국 에너지부가 주도한 첨단 메모리 기술(AMT) 프로그램 아래에서 시작된 것으로 알려졌으며, 인텔이 ‘차세대 디램(DRAM) 본딩 프로젝트’라고 부른 연구…

오픈텍스트, ‘엔드투엔드 제로 트러스트 웨비나’ 26일 개최

오픈텍스트는 최근 사이버 공격의 고도화와 내부·외부를 가리지 않는 위협 확산으로 인해 기존의 경계 기반 보안 모델에 한계가 드러나고 있다고 강조했다. 이에 따라 ‘절대 신뢰하지 않고 항상 검증한다’는 원칙을 기반으로 한 제로 트러스트 보안 모델이 새로운 보안 기준으로 주목받받는다는 진단이다. 제로 트러스트는 사용자, 디바이스, 애플리케이션, 데이터 전반에 대해 지속적인 검증과 통제를 수행함으로써 보안 리스크를 최소화하는 접근…

LLMに「根拠」を求めるプロンプト設計:正確性を上げる現実的アプローチ

「根拠を示して」だけでは精度が上がらない

生成AIに対して不安を感じる瞬間の多くは、もっともらしい文章が出るのに、どこまで信じてよいか分からないときです。そこで多くの人が最初に試すのが「根拠を示して」「理由も書いて」という指示です。しかし、これだけで正確性が劇的に上がることは少なく、場合によっては逆に危険になります。なぜなら、モデルは「根拠らしい説明」を作ることも得意だからです。

ここで押さえるべきは、生成AIの得意分野が「文章として筋が通る説明」を作ることであって、「外部世界の真偽を検証すること」ではない、という点です。入力に根拠が含まれていないのに根拠を要求すると、モデルは空白を埋めるために推測を混ぜてしまいがちです。結果として、誤った内容に説得力が付くという、いちばん厄介な形になります。説明が滑らかであるほど、人間は疑いにくくなります。根拠要求が誤りを見えにくくするのは、この心理とモデルの性質が噛み合ってしまうからです。

また「根拠」と一言で言っても、実務で求めるものは状況によって違います。入力文書に書かれている箇所を示してほしいのか、一般知識としての理由づけがほしいのか、計算や推論の過程がほしいのか、仮説としての説明がほしいのか。ここが曖昧なままだと、モデルはそのときどきで異なる種類の根拠を混ぜ、読者は「根拠があるように見えるが、どのタイプの根拠なのか分からない」状態になります。

さらに、根拠要求は文章を冗長にしやすい側面もあります。理由づけの段落が増え、結論が遅れ、読み手の意思決定に必要な情報が埋もれます。正確性を高めたいはずが、判断しにくい文書が出来上がる。これも現場でよく起きる失敗です。

結局、「根拠を書いて」という一文は、万能の安全策ではありません。安全に寄せたいなら、まず根拠の出所と範囲を決める必要があります。モデルにやらせるべきことは、根拠があるふりをすることではなく、根拠の種類を明確にし、推測が混ざるなら混ざると分かる形で提示することです。そのための設計が次の論点になります。

根拠の種類を分けると、設計が急に簡単になる

根拠の扱いを難しくしている原因は、「根拠」という言葉が幅広すぎることです。ここを分解すると、プロンプトに書くべき条件が見えてきます。実務で扱いやすい分け方として、少なくとも次の四つを意識すると整理が進みます。

一つ目は、入力文書に基づく根拠です。会議メモ、要件定義、FAQ、顧客の問い合わせ文など、手元のテキストに答えが含まれているタイプです。この場合の安全策は明快で、「与えた文書に書かれていることだけを根拠にする」「書かれていないことは推測しない」「不明なら不明とする」をルール化します。さらに強くするなら、根拠として使った文の引用や、該当箇所の要約を短く付ける形式にします。これにより、読み手は検証できますし、モデルが勝手に補完する余地も減ります。

二つ目は、一般知識に基づく根拠です。たとえば「良いプロンプトに必要な要素」「よくある失敗」「文章構成の定石」など、広く共有されている知識から説明する場合です。このタイプは便利ですが、最新情報や専門領域に入ると誤りが増えます。だからこそ、プロンプトで「一般的な範囲で述べる」「確度が低い場合は断定しない」「例外があり得ることを明記する」といった表現ルールを設計しておくと安全です。必要なら「どこが一般論で、どこが推測かを分けて書く」と指示すると、読み手の受け取り方が安定します。

三つ目は、計算や変換に基づく根拠です。数値の再計算、条件の整理、文章の変換、要約など、手順が明確な作業では、根拠は「計算結果」や「変換ルール」になります。この場合は、途中の計算や変換の要点を簡潔に示すことが有効です。ポイントは、細かい過程を長々と書かせるのではなく、重要な前提と結果の整合だけを確認できる形にすることです。読み手が検算できる程度の情報があれば足ります。

四つ目は、仮説としての根拠です。市場の反応、ユーザー心理、原因推定など、外部情報が不足しているのに結論を出したいときは、根拠は確定的なものではなく仮説になります。このタイプは、推測を推測として扱うことが何より重要です。そこで、プロンプト側で「仮説」「想定」「未検証」を明示し、確度や検証方法も添える形式にすると、誤解が減ります。仮説の根拠は、事実ではなく推論なので、断定調を避けるルールが効きます。

この四分類で考えると、プロンプトに書くべきことは「根拠の出所」「使ってよい範囲」「不明時の扱い」「出力での表示方法」の四点に収束します。根拠を求めるのではなく、根拠を管理する。そう捉えると、設計は急にシンプルになります。

安全な出力に寄せる言い方とフォーマット

根拠の扱いを設計しても、最後に読み手が誤解したら意味がありません。安全性を上げるには、言い方とフォーマットで「どこまで確かか」を見える化することが効果的です。ここでは、実務でそのまま使える考え方をまとめます。

まず言い方の基本は、断定の抑制です。特に根拠が入力文書にない場合、断言は避けるべきです。「必ず」「間違いなく」「唯一」などの強い表現は、読み手に誤解を与えやすい。代わりに「一般的には」「多くの場合」「可能性がある」「条件次第」といった限定を置き、どの条件で成り立つのかを添えます。文章が弱くなるのではなく、責任の範囲が明確になると考える方が実務的です。

次に有効なのが、事実と推測の分離です。混ざっていると危険ですが、分けて並べるだけで読み手は判断しやすくなります。たとえば「文書に書かれている事実」「そこから言える解釈」「追加で確認すべき点」という順序にすると、検証可能性が上がります。特に社内文書の要約や顧客対応文の下書きでは、この分離が事故を減らします。

また、根拠を示すときは“出典の範囲”を明示するのが効きます。たとえば「以下は提示された文章の範囲での整理」「外部情報は参照していない」「一般知識としての補足を含む」といった注記です。これがあるだけで、読み手はその文章をどう扱うべきか判断できます。逆に、どこまでが与件でどこからが補足かが不明だと、誤りが混ざっても見抜きにくくなります。

フォーマットの面では、長い説明よりも、短い根拠と結論のセットが有効です。結論を一文で置き、その直後に「根拠:」として根拠を一文か二文で添える。これだけでも、断定の暴走が減り、読み手の判断も速くなります。さらに安全に寄せるなら、「不確実性:」や「確認方法:」を短く添えます。こうすると、モデルが分からないことを分からないと言いやすくなり、読み手も次の行動に移れます。

最後に、プロンプトの設計方針として「分からない場合の振る舞い」を明記しておくのは非常に重要です。不明点を勝手に埋めない、必要な追加情報を質問として出す、仮説として出すなら仮説と明記する。この方針があるだけで、もっともらしい誤答の確率は下がります。根拠の設計とは、正確性を上げるというより、誤りが混ざったときにそれが見える形にすることでもあります。 生成AIに根拠を求めるとは、モデルに真偽判定能力を期待することではありません。根拠の種類と範囲を決め、推測は推測として扱い、読み手が検証できる形に整えることです。この運用を入れると、生成AIは「便利だけど怖い道具」から「使いどころが分かる道具」に変わります。まずは次に依頼するとき、根拠の出所を一つだけでいいので指定してみてください。そこから安全性は確実に上がります。


Read More from This Article: LLMに「根拠」を求めるプロンプト設計:正確性を上げる現実的アプローチ
Source: News

Accelerate your IT career at CIO 100 Leadership Live

The CIO 100 Leadership Live Series, launching March 2026 in Atlanta, offers technology leaders and rising talent a powerful platform to accelerate career growth and industry impact. Spanning five cities throughout the year, this series delivers unmatched opportunities to gain bold ideas, actionable insights, and make meaningful connections. With a distinct focus on professional development and…