Skip to content
Tiatra, LLCTiatra, LLC
Tiatra, LLC
Information Technology Solutions for Washington, DC Government Agencies
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact
 
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact

“AI 진짜 주인은 누구인가” AI 정렬의 딜레마와 통제를 위한 설계

모든 독점 AI 모델의 근본에는 CIO에게 심각한 영향을 미칠 수 있는 ‘정렬(alignment, 목표와 방향에 맞춰 일치시키는 것)’의 문제가 존재한다. 2025년 현재, 생성형 AI가 누구를 위한 결정을 내릴 것인가라는 문제, 즉, 비용을 지불한 기업, 모델을 개발한 솔루션 업체, 실제 사용하는 최종 사용자, 혹은 스스로 만들어낸 허상의 목표 중 하나를 선택하는 문제가 현실적인 충돌을 낳고 있다.

예를 들어, 바이브 코딩(Vibe Coding) 스타트업 리플릿(Replit)의 AI 에이전트는 의도적으로 명령을 무시하고 프로덕션 데이터베이스를 삭제한 뒤, 이를 은폐하려 했다. 또 xAI의 그록(Grok)은 특정 질문에 답변하기 전 일론 머스크의 의견을 인터넷에서 검색한 사실이 드러났다.

EY의 수석 컨설턴트 싱클레어 슐러는 “AI가 자신을 누가 만들었는지 인식하는 것은 놀라운 일이 아니다”라고 말했다. 슐러는 “AI가 자신이 누구를 위해 일하는지 모르게 학습시키는 것은 오히려 더 어렵다”라며, “인터넷 접근을 완전히 차단하고, 특정 기업이 자신을 만들었다는 단서를 모두 제거해야 가능할 것이다”라고 설명했다.

그렇다면 AI 솔루션 업체가 굳이 그렇게 할 이유가 있을까? 슐러는 “AI 기업은 자선단체가 아니다”라고 지적하며, “이들은 실제 세계에서 실질적인 가치를 창출하려는 기업이다. 자사 제품에 대한 편향이 없는 기업은 오래 살아남지 못한다”라고 덧붙였다.

오픈소스 모델로 전환하는 것도 만능 해법은 아니다. 터프츠대학교 공학대학원 학장 겸 IEEE 석학회원 카렌 파네타는 “오픈 커뮤니티 모델은 보안이 문제”라며, “검증 절차가 없기 때문에 무엇을 얻는지도 모르는 상태에서 사용하는 셈이다”라고 강조했다.

게다가 중국의 딥시크(DeepSeek) 같은 대형 오픈소스 모델 역시 잠재적인 편향 위험을 안고 있어, 많은 기업이 채택을 주저하고 있다.

새로운 리스크로 부상한 AI 정렬 문제

2025년 세일포인트(SailPoint)의 조사에 따르면, 전체 기업의 82%가 AI 에이전트를 활용하고 있으며, 이 중 80%는 에이전트가 의도하지 않은 행동을 한 경험이 있다고 답했다. 구체적으로는 39%가 접근해서는 안 되는 시스템에 접근했고, 33%가 부적절한 데이터를 열람했으며, 31%는 부적절한 데이터를 공유했고, 23%는 접근 인증 정보를 노출했다. 응답자의 2/3가 AI 에이전트를 점점 커지는 보안 위협으로 인식하는 이유다.

거버넌스 프레임워크와 가드레일을 구축하면 AI가 정해진 경계를 벗어나지 않게 관리할 수 있다. 그러나 세일포인트 조사에 따르면, 실제로 AI 에이전트를 위한 거버넌스 정책을 갖춘 조직은 44%에 불과했고, 에이전트가 접근하는 데이터를 추적·감사할 수 있는 기업은 52%뿐이었다.

문제는 점점 심각해지고 있다. EY가 전 세계 대기업의 C레벨 임원 975명을 대상으로 한 조사에서 99%의 조직이 AI 관련 위험으로 재정적 손실을 입었다고 답했으며, 일부는 피해 규모가 100만 달러를 넘었다.

이에 따라 일부 대기업은 예상치 못한 AI 행동을 탐지하기 위한 지속적 모니터링과 사고 대응 체계를 구축하고 있다. 그러나 이는 결코 쉬운 일이 아니다. 콘스텔레이션 리서치의 애널리스트 치라그 메타는 “AI는 블랙박스다. 모델이 자사 제품을 경쟁사 제품보다 더 추천하는지, 정치적 혹은 지역적 편향이 있는지, 아니면 다른 문제가 있는지를 알아내기가 어렵다”라고 설명했다.

메타는 “현재 그런 평가 체계가 존재하지 않는다. 모델 학습 과정을 추적할 수 있는 엄격한 감사 기준도, 이를 공개해야 하는 의무도 없다”라고 지적하며, “결국 최종 사용자가 스스로 의심하는 태도를 가져야 한다. AI 모델이 항상 옳은 일을 할 것이라고 맹신해서는 안 된다”라고 경고했다.

AI를 사람처럼 관리해야 하는 이유

기존 소프트웨어는 명시적인 명령어를 입력하면 컴퓨터가 그 지시를 일관되게 수행한다. 그러나 AI는 확률적(probabilistic) 방식으로 작동하기 때문에 전혀 예기치 못한 행동을 보일 수 있고, 그 이유가 고객의 이익에 반할 수도 있으며, 그 원인을 찾아내기도 어렵다.

예를 들어, 그록(Grok)이 갑자기 일론 머스크의 발언을 그대로 반복하기 시작한 이유에 대해 xAI는 “모델이 스스로 xAI에 의해 만들어졌다는 사실을 알고 있으며, 따라서 자신을 회사의 방향성과 일치시키기 위해 xAI나 일론 머스크가 해당 주제에 대해 한 발언을 검색한다”라고 설명했다.

이런 편향은 인간적인 성향에 가깝다. 일부 기업은 이 문제를 AI를 인간처럼 관리하는 방식으로 해결하려 하고 있다.

페이지듀티(PagerDuty)의 CIO 에릭 존슨은 “AI를 거의 사람처럼 관리해야 한다”라고 강조했다. 페이지듀티는 내부 운영과 자사 제품 및 서비스에 생성형 AI와 AI 에이전트를 도입했다. 존슨은 “예전에는 헬프데스크 직원이 많았지만, 지금은 에이전트형 솔루션이 사람 대신 고객 문의에 답변하고 있다. 지원 인력이 줄었지만, 대신 AI 에이전트를 감독하는 팀이 필요하다”라고 밝혔다.

이 관리 업무는 AI 에이전트가 배포되기 전 단계부터 시작된다. 존슨은 프로토타입 개발, 테스트, 파인튜닝 과정에서 “AI가 올바르게 응답하도록 교정하고 원하는 방식으로 작동하는지 확인해야 한다”라고 말했다.

운영 단계에서도 감독은 계속된다. 업무 효율화 목적의 에이전트라면 사용자가 스스로 감독의 역할을 수행한다. 존슨은 “AI가 항상 정확한 것은 아니고, 때로는 편향이 있기 때문에 매우 명확한 면책 조항이 있다”라고 강조했다.

페이지듀티는 아바쿠스 AI(Abacus AI) 플랫폼을 사용해 여러 최신 LLM 중에서 선택해 사용할 수 있도록 했다. 챗GPT, 클로드, 제미나이, 그록, 라마, 딥시크 등 다양한 모델이 포함돼 있다. 하지만 AI의 결정이 법적·재정적 영향을 미칠 경우, 단순 생산성 도구 수준을 넘어선 강화된 감독 체계가 필요하다.

존슨은 “새로운 직원이 입사했을 때와 비슷하다”라며, “사람이 계속해서 맡은 일을 제대로 수행하면 감독은 점차 줄지만, 그래도 여전히 팀과 주기적으로 점검하며 ‘신뢰하되 검증한다’는 원칙을 지킨다. 에이전트형 솔루션도 마찬가지일 것이다. 일정한 방식으로 운영되고 비즈니스 프로세스가 바뀌지 않았다면 신뢰할 수 있지만, 언제든 예기치 못한 문제가 발생할 수 있으므로 지속적인 모니터링이 필요하다”라고 설명했다.

존슨은 모니터링이 IT 부서와 비즈니스 부문이 공동으로 책임져야 할 영역이라며, “이제 사람들은 수많은 AI와 봇을 어떻게 운용하고 관리할지 이해해야 한다. 보이지 않는 곳에서 인프라와 기술은 매우 빠르게 진화하고 있으며, 사람들이 생각하는 것보다 훨씬 복잡하다”라고 덧붙였다.

AI로 AI를 감시하라

스타트업 쿠브(Qoob)는 생성형 AI를 활용해 8명 규모의 작은 조직으로도 업무 생산성을 대폭 확장하고 있다. 예를 들어, LLM 테스트 플랫폼 랭스미스(LangSmith)가 쿠브의 요구에 맞지 않자, 단 일주일 만에 자체 버전을 구축했다. 쿠브의 CTO 미카엘 퀴스트는 “AI 덕분에 원래 걸릴 시간의 1/5만에 완성할 수 있었다”고 말했다.

페이지듀티처럼 쿠브도 여러 LLM을 제품 개발과 업무 효율화 모두에 활용하고 있다. 퀴스트는 “우리는 항상 솔루션 업체를 평가하고 있으며, 문제가 생기면 다른 모델로 즉시 전환할 수 있다”라고 말했다. 쿠브가 AI를 통제하는 핵심은 지속적인 테스트와 평가다. 퀴스트는 “자동으로 여러 솔루션 업체를 상대로 평가를 실행하며, 하나가 실패하면 그 다음 모델로 전환하는 폴백(fallback) 로직이 있다”라고 설명했다.

모델이나 프롬프트가 바뀔 때마다 평가가 수행되며, LLM이 다른 AI의 출력을 판정하는 심사위원 역할을 한다. 여기에 머신러닝 기반 감정 분석이 더해진다. 또한 사람이 이 과정을 감독해 결과의 타당성을 검증한다.

개발자는 커서 IDE(Cursor IDE), 클로드 코드(Claude Code), VS 코드(VS Code) 등 다양한 개발 도구를 챗GPT나 클로드와 함께 사용한다. 코드 리뷰에는 깃허브 코파일럿(GitHub Copilot), 오픈AI의 코덱스(Codex), 클로드 코드를 함께 사용한다. 세 AI가 모두 쿠브의 코드를 검토해 문제를 식별한다.

퀴스트는 “AI마다 결과가 다르게 나온다. 이 차이를 바탕으로 어떤 부분을 수정할지 결정한다. 즉, AI가 AI를 감시하고, 최종 결정은 사람이 내린다”라고 설명했다.

카네기멜런대학교 비즈니스 테크놀로지학과 조이 지앙 교수는 “중요한 의사결정에 여러 AI 플랫폼을 병행 사용하는 것은 편향이나 비정렬 위험을 줄이는 데 매우 효과적인 전략”이라고 분석했다. 지앙 교수는 “예를 들어 직원이 웹 브라우저를 평가한다고 가정하면, 마이크로소프트의 AI는 엣지를 추천하겠지만, 다른 AI는 그렇지 않을 수도 있다. 중요한 비즈니스 결정일수록 이런 다중 평가가 충분히 가치 있다”라고 말했다.

EY의 싱클레어 슐러 역시 “이 접근법은 일회성 결정뿐 아니라 핵심적인 비즈니스 프로세스 전반으로 확장할 수 있다”라고 평가했다. 또, “현재 여러 LLM에 동시에 프롬프트를 전달한 뒤, 또 다른 LLM이 그중 어떤 응답이 가장 적절한지 판단하는 시스템이 개발되고 있다”라고 설명했다.

‘MoE(Mixture of Experts, 전문가 혼합)’ 접근법의 변형이지만, 일반적인 경우와 달리 모델들이 한 업체의 변형 모델이 아닌 만큼 동일한 편향에서 벗어날 수 있다. 다만 이런 방식은 비용이 많이 든다. 단일 모델에 질의하는 대신 여러 모델에 각각 질의하고, 그 결과를 평가하기 위한 추가 질의까지 필요하기 때문이다.

명확한 한계를 설정하라

AI 정렬을 확보하는 또 다른 방법은 AI가 접근할 수 있는 데이터나 시스템, 수행할 수 있는 행동에 대해 엄격한 한계를 설정하는 것이다. 지앙 교수는 “AI가 고객에게 가격을 제안하거나 할인을 제공한다면, 반드시 사전에 설정된 가격 한도를 넘지 않는지 확인해야 한다”라고 말했다.

이처럼 코드로 직접 제어되는 가드레일은 생성형 AI의 비결정적 특성이나 부주의한 인간의 실수를 피할 수 있다. 가장 극단적인 형태가 바로 ‘제로 권한(zero authority)’ 방식이다. 유니시스(Unisys) AI/ML 부문 부사장 크리스 베넷은 “이 방식에서는 챗봇이 입력을 받아 출력을 전달하는 역할만 한다”라고 설명했다. 실제 의사결정은 규칙 기반 시스템이 별도로 수행한다.

또 다른 방식으로 ‘최소 권한(least privilege)’ 접근법이 있다. 베넷은 “접근 권한은 보편적이어선 안 되고, 목적에 따라 제한돼야 한다. 예를 들어 코파일럿이 사용자 이메일에 접근해야 한다면, 세션당 단 한 개의 이메일만 접근하도록 제한하고 전체 사서함에는 접근할 수 없게 해야 한다”라고 설명했다.

결국 핵심은 아키텍처다

AI를 도입하는 기업이 AI의 주인이 되려면, 해답은 아키텍처에 있다. EY의 슐러는 “CIO가 아키텍처에 집중한다면 올바른 방향으로 가고 있는 것”이라며, “AI의 승부는 결국 아키텍처에서 갈릴 것”이라고 강조했다.

젠팩트(Genpact)의 전략·기업개발·글로벌 에이전틱 AI 총괄 최고 전략 책임자인 한진숙은 “AI 통제의 문제는 철학적인 질문이 아니라 설계의 문제”라며, “이는 가드레일, AI 감사 체계, 그리고 최종 검증을 담당할 인간 전문가를 포함한 의도적 구조적 선택이 필요하다”라고 설명했다.

한진숙 CSO는 “AI의 진짜 주인은 이런 시스템을 구축하는 사람”이라며, “집의 주인이 담장을 세우고 경계를 정하듯, AI의 주인도 위험을 어느 정도 감수할지 스스로 결정해야 한다”라고 조언했다.
dl-ciokorea@foundryco.com


Read More from This Article: “AI 진짜 주인은 누구인가” AI 정렬의 딜레마와 통제를 위한 설계
Source: News

Category: NewsNovember 10, 2025
Tags: art

Post navigation

PreviousPrevious post:인터뷰 | 이은주 GS칼텍스 DX센터장 “현업이 직접 AI 에이전트 만드는 에너지 기업, 비결은 DAX 통합 추진”NextNext post:“혁신과 책임을 동시에 잡아라” 클라우드 거버넌스가 당장 필요한 이유

Related posts

Snowflake offers help to users and builders of AI agents
April 21, 2026
Does IT have a value problem?
April 21, 2026
Why the CIO is uniquely positioned to lead the digital workforce
April 21, 2026
Increased AI expectations without guidance leads to employee burnout
April 21, 2026
Ciberseguridad en el sector farmacéutico: la experiencia de Faes Farma
April 21, 2026
The gap between SAP and its customers must not widen further
April 21, 2026
Recent Posts
  • Snowflake offers help to users and builders of AI agents
  • Does IT have a value problem?
  • Increased AI expectations without guidance leads to employee burnout
  • Why the CIO is uniquely positioned to lead the digital workforce
  • Ciberseguridad en el sector farmacéutico: la experiencia de Faes Farma
Recent Comments
    Archives
    • April 2026
    • March 2026
    • February 2026
    • January 2026
    • December 2025
    • November 2025
    • October 2025
    • September 2025
    • August 2025
    • July 2025
    • June 2025
    • May 2025
    • April 2025
    • March 2025
    • February 2025
    • January 2025
    • December 2024
    • November 2024
    • October 2024
    • September 2024
    • August 2024
    • July 2024
    • June 2024
    • May 2024
    • April 2024
    • March 2024
    • February 2024
    • January 2024
    • December 2023
    • November 2023
    • October 2023
    • September 2023
    • August 2023
    • July 2023
    • June 2023
    • May 2023
    • April 2023
    • March 2023
    • February 2023
    • January 2023
    • December 2022
    • November 2022
    • October 2022
    • September 2022
    • August 2022
    • July 2022
    • June 2022
    • May 2022
    • April 2022
    • March 2022
    • February 2022
    • January 2022
    • December 2021
    • November 2021
    • October 2021
    • September 2021
    • August 2021
    • July 2021
    • June 2021
    • May 2021
    • April 2021
    • March 2021
    • February 2021
    • January 2021
    • December 2020
    • November 2020
    • October 2020
    • September 2020
    • August 2020
    • July 2020
    • June 2020
    • May 2020
    • April 2020
    • January 2020
    • December 2019
    • November 2019
    • October 2019
    • September 2019
    • August 2019
    • July 2019
    • June 2019
    • May 2019
    • April 2019
    • March 2019
    • February 2019
    • January 2019
    • December 2018
    • November 2018
    • October 2018
    • September 2018
    • August 2018
    • July 2018
    • June 2018
    • May 2018
    • April 2018
    • March 2018
    • February 2018
    • January 2018
    • December 2017
    • November 2017
    • October 2017
    • September 2017
    • August 2017
    • July 2017
    • June 2017
    • May 2017
    • April 2017
    • March 2017
    • February 2017
    • January 2017
    Categories
    • News
    Meta
    • Log in
    • Entries feed
    • Comments feed
    • WordPress.org
    Tiatra LLC.

    Tiatra, LLC, based in the Washington, DC metropolitan area, proudly serves federal government agencies, organizations that work with the government and other commercial businesses and organizations. Tiatra specializes in a broad range of information technology (IT) development and management services incorporating solid engineering, attention to client needs, and meeting or exceeding any security parameters required. Our small yet innovative company is structured with a full complement of the necessary technical experts, working with hands-on management, to provide a high level of service and competitive pricing for your systems and engineering requirements.

    Find us on:

    FacebookTwitterLinkedin

    Submitclear

    Tiatra, LLC
    Copyright 2016. All rights reserved.