Skip to content
Tiatra, LLCTiatra, LLC
Tiatra, LLC
Information Technology Solutions for Washington, DC Government Agencies
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact
 
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact

LLM 신뢰해도 될까?··· “모델 절반이 ‘보안 위험’ 등급”

최근 대부분의 조직이 AI 플랫폼을 활용하고 있다. 대규모 언어 모델(LLM)은 기존 애플리케이션에 통합되거나 신규 애플리케이션에 포함돼 배포되고 있으며, 직원들이 직접 실험해 보거나 워크플로우에 도입하기 위한 도구로 선택되고 있다.

하지만 사이버보안 전문가들은 CEO의 압박이나 시장의 과장된 기대치가 있더라도 다른 애플리케이션 도입과 마찬가지로 철저한 리스크 관리 관점에서 LLM을 선택해야 한다고 경고했다.

사이버보안, AI, 프라이버시 전문가인 조셉 스타인버그는 조직에서 AI 모델을 도입할 때 리스크 분석뿐만 아니라 명확한 정책, 절차, 기술 통제도 수반돼야 한다고 말했다.

그는 “실제로는 이 3가지 중 어느 하나에도 충분한 투자를 하지 않은 조직이 대부분이며, LLM이 유발하는 보안 문제의 규모를 외면하고 있다”라고 지적했다.

스타인버그는 특히 “보안 침해 건수와 관계없이 사용자 프롬프트를 통한 데이터 유출 자체가 심각한 문제라는 점을 알아야 한다”라고 강조했다. 그는 “사용자들이 프롬프트에 무심코 개인 정보를 입력할 수 있으며, 본인은 그런 행동이 어떤 결과를 낳을지 전혀 인지하지 못하는 경우가 많다. 예컨대 한 조직의 IP 주소를 쓰는 10명이 특정 기술이나 기능 구현 방식에 대해 AI에 질문하기 시작하면, AI는 해당 조직이 그 기술을 사용하고 있으며 고급 지식은 부족하다는 사실을 학습하게 될 수 있다”라고 말했다.

“보안 리스크, 생각보다 더 크다”

최근 발표된 한 연구는 LLM이 예상보다 훨씬 높은 보안 리스크를 갖고 있다는 점을 시사했다.

사이버뉴스(Cybernews) 연구팀은 공개된 정보를 바탕으로 10개의 AI 모델을 분석한 결과, 절반인 5개 모델이 보안 리스크 평가에서 ‘B 등급 이하’, 즉 위험도가 상대적으로 높은 수준으로 나타났다고 밝혔다. 나머지 절반인 앤트로픽(Anthropic), 코히어(Cohere), 미스트랄(Mistral) 등은 위험도가 낮은 것으로 평가됐다.

반면 오픈AI(OpenAI)와 01.AI는 높은 위험도를 나타내는 D 등급을 받았으며, 인플렉션AI(Inflection AI)는 F 등급으로 평가돼 치명적인 보안 리스크를 지닌 것으로 나타났다.

연구팀은 10개 업체 중 5곳이 데이터 유출 사고를 겪은 바 있다고 밝혔다. 이 중 오픈AI는 분석 시점으로부터 불과 9일 전에도 데이터 누출 사고가 발생했으며, 총 1,140건으로 가장 많은 유출 사례를 기록했다. 퍼플렉시티AI(Perplexity AI)의 경우 13일 전 유출 사고로 190개의 기업 인증 정보가 탈취된 것으로 추정된다고 연구팀은 언급했다.

이에 대해 오픈AI 대변인은 CSO닷컴에 “AI 보안에 대한 연구를 환영하며, 사용자 보안과 프라이버시를 매우 중요하게 생각한다. 보안 프로그램의 진행 상황을 투명하게 공개하고 있으며 위협 인텔리전스 보고서를 정기적으로 발표하고 있다. 기사에 언급된 보고서를 요청했으나 접근 권한이 부여되지 않아 해당 데이터나 방법론을 평가할 수 없었다. 따라서 제기된 주장에 동의하지 않는다”라고 밝혔다.

SANS 연구소 수석 연구원 로버트 T. 리는 해당 보고서에 대해 “대부분의 LLM이 기본적인 보안 스니핑 테스트를 통과하지 못한다. D나 F 등급 평가에 매주 발생하는 유출 사고까지 고려하면, 해당 기업들이 보안을 고려하고 있지 않다는 점은 분명해 보인다”라고 지적했다.

CSO를 위한 보안 조언

리는 CSO가 LLM을 승인하기 전 다음 항목을 반드시 고려해야 한다고 말했다:

  • 학습 데이터: 모델이 어디서 정보를 수집했는지 파악해야 한다. 웹 데이터를 무작위로 긁어오면 조직의 정보가 노출될 수 있다.
  • 프롬프트 기록: 질문이 서버에 남아 있다면 다음 유출 사고 때 그대로 드러날 수 있다.
  • 자격 증명: 도난당한 API 키나 취약한 비밀번호는 공격자에게 좋은 먹잇감이 된다. 다단계 인증(MFA)과 실시간 경보 도입이 필요하다.
  • 인프라: TLS 설정이 철저한지, 패치가 제때 적용되는지, 네트워크가 완전히 격리됐는지 확인해야 한다. 미완성 설정은 공격당할 가능성이 높다.
  • 접근 통제: 역할별 권한을 명확히 설정하고, 모든 AI 호출을 기록해 SIEM/DLP 시스템에 로그를 전송해야 한다. 섀도 AI는 보이지 않는 위협이다.
  • 침해 사고 대응 훈련: 침해 사실을 즉시 통지하도록 요구하고, API 키 유출이나 프롬프트 삽입 공격 상황을 시뮬레이션해 실제 상황에 대비해야 한다.

리는 “LLM은 은행 금고를 지키듯이 다뤄야 한다”라며 “과장된 기대는 잊고, 미션 크리티컬 시스템과 동일하게 엄격한 검증을 거쳐야 한다. 그렇게 하면 AI의 장점을 누리면서도 백도어를 활짝 열어두는 실수는 피할 수 있다”라고 조언했다.
dl-ciokorea@foundryco.com


Read More from This Article: LLM 신뢰해도 될까?··· “모델 절반이 ‘보안 위험’ 등급”
Source: News

Category: NewsMay 30, 2025
Tags: art

Post navigation

PreviousPrevious post:칼럼 | 글쓰기가 IT 리더를 더 성장시키는 이유NextNext post:브로드컴 “프라이빗 클라우드 선호 뚜렷··· 기업 69%가 이전 고려”

Related posts

人の経験に頼った物流から、データで動く物流へ──SGHグループが挑む「データドリブン経営」の真価
April 22, 2026
Carles Llach: “La tecnología ha generado unas eficiencias enormes en el notariado”
April 22, 2026
The 4 disciplines of delivery — and why conflating them silently breaks your teams
April 22, 2026
The silent failure between approval and delivery
April 22, 2026
AI hype to AI value: Escaping the activity trap
April 22, 2026
Ways CIOs can prove to boards that AI projects will deliver
April 22, 2026
Recent Posts
  • 人の経験に頼った物流から、データで動く物流へ──SGHグループが挑む「データドリブン経営」の真価
  • Carles Llach: “La tecnología ha generado unas eficiencias enormes en el notariado”
  • The 4 disciplines of delivery — and why conflating them silently breaks your teams
  • The silent failure between approval and delivery
  • AI hype to AI value: Escaping the activity trap
Recent Comments
    Archives
    • April 2026
    • March 2026
    • February 2026
    • January 2026
    • December 2025
    • November 2025
    • October 2025
    • September 2025
    • August 2025
    • July 2025
    • June 2025
    • May 2025
    • April 2025
    • March 2025
    • February 2025
    • January 2025
    • December 2024
    • November 2024
    • October 2024
    • September 2024
    • August 2024
    • July 2024
    • June 2024
    • May 2024
    • April 2024
    • March 2024
    • February 2024
    • January 2024
    • December 2023
    • November 2023
    • October 2023
    • September 2023
    • August 2023
    • July 2023
    • June 2023
    • May 2023
    • April 2023
    • March 2023
    • February 2023
    • January 2023
    • December 2022
    • November 2022
    • October 2022
    • September 2022
    • August 2022
    • July 2022
    • June 2022
    • May 2022
    • April 2022
    • March 2022
    • February 2022
    • January 2022
    • December 2021
    • November 2021
    • October 2021
    • September 2021
    • August 2021
    • July 2021
    • June 2021
    • May 2021
    • April 2021
    • March 2021
    • February 2021
    • January 2021
    • December 2020
    • November 2020
    • October 2020
    • September 2020
    • August 2020
    • July 2020
    • June 2020
    • May 2020
    • April 2020
    • January 2020
    • December 2019
    • November 2019
    • October 2019
    • September 2019
    • August 2019
    • July 2019
    • June 2019
    • May 2019
    • April 2019
    • March 2019
    • February 2019
    • January 2019
    • December 2018
    • November 2018
    • October 2018
    • September 2018
    • August 2018
    • July 2018
    • June 2018
    • May 2018
    • April 2018
    • March 2018
    • February 2018
    • January 2018
    • December 2017
    • November 2017
    • October 2017
    • September 2017
    • August 2017
    • July 2017
    • June 2017
    • May 2017
    • April 2017
    • March 2017
    • February 2017
    • January 2017
    Categories
    • News
    Meta
    • Log in
    • Entries feed
    • Comments feed
    • WordPress.org
    Tiatra LLC.

    Tiatra, LLC, based in the Washington, DC metropolitan area, proudly serves federal government agencies, organizations that work with the government and other commercial businesses and organizations. Tiatra specializes in a broad range of information technology (IT) development and management services incorporating solid engineering, attention to client needs, and meeting or exceeding any security parameters required. Our small yet innovative company is structured with a full complement of the necessary technical experts, working with hands-on management, to provide a high level of service and competitive pricing for your systems and engineering requirements.

    Find us on:

    FacebookTwitterLinkedin

    Submitclear

    Tiatra, LLC
    Copyright 2016. All rights reserved.