Skip to content
Tiatra, LLCTiatra, LLC
Tiatra, LLC
Information Technology Solutions for Washington, DC Government Agencies
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact
 
  • Home
  • About Us
  • Services
    • IT Engineering and Support
    • Software Development
    • Information Assurance and Testing
    • Project and Program Management
  • Clients & Partners
  • Careers
  • News
  • Contact

일문일답 | “AI의 위협은 미래에 있지 않다” 한 AI 윤리 책임자의 메시지

폴 동하는 냇웨스트그룹에서 ‘책임감 있는 AI’와 AI 전략을 총괄하며, AI가 안전하고 윤리적이며 규제 기준에 부합하는 방식으로 운영되도록 하는 프레임워크를 개발하고 있다.

그는 앞서 로이드뱅킹그룹(Lloyds Banking Group)에서 데이터 및 AI 윤리 총괄을 역임해 기업 AI 시스템에 투명성, 책임성, 신뢰를 내재화하는 데 핵심적인 역할을 수행한 바 있다.

여러 금융 기관에서 신기술을 도입하고 활용하는 방식을 설계해 온 경험을 바탕으로, 동하는 AI가 기업과 사회에 가져올 기회와 위험에 대해 명확한 시각을 제시했다.

그는 챔피언스 스피커스 에이전시(Champions Speakers Agency)와의 인터뷰에서, CISO와 이사회가 주목해야 할 윤리적 경고 신호, 규제 기관의 역할, 그리고 오늘날 시급하게 대응해야 할 현실적인 AI 위험 요소에 대해 논의했다.

Q. AI를 도입할 때 CISO와 이사회가 특히 주의해야 할 윤리적 위험 신호는 무엇인가?

폴 동하: 최근 AI 시스템과 관련해 드러난 핵심 문제와 위험 요소로는 ‘사람의 주체성’이 있다.

AI 시스템은 매우 정교한 결과물을 생성할 수 있으며, 일부는 사람이 스스로 올바른 결정을 내리는 능력을 약화시킬 수 있다. 사람의 주체성 상실은 매우 심각한 위험이기 때문에 이를 명확히 인식하고 관리해야 한다.

또 다른 위험은 ‘견고성’이다. AI 시스템은 동일한 질문에 서로 다른 답변을 내놓는 경우가 있다. 따라서 기술적 견고함, 즉 동일한 질문에 대해 시간이 지나도 일관된 결과를 도출하도록 보장하는 것이 매우 중요하다. 반드시 점검해야 할 부분이다.

데이터 프라이버시 또한 중요하다. AI 시스템이 의도치 않게 개인이나 조직의 기밀 정보를 노출할 가능성이 있기 때문에, 정보 유출 위험에 대해서도 철저히 대비해야 한다.

AI에 투명성은 필수적인 요소라고 생각한다. 머신러닝이나 AI 시스템은 비선형적으로 작동하기 때문에 결과가 어떻게 도출되는지 이해하기 어렵다. AI가 특정 답변을 도출하는 과정 내부를 분석할 수 있는 기술이 있지만, 이는 어디까지나 근사치일 뿐이다. 따라서 머신러닝이든 생성형 AI든, 알고리즘의 투명성을 확보하는 문제는 반드시 세심히 다뤄야 한다.

아울러 편향 문제도 빼놓을 수 없다. 여러 AI 시스템에 편향이 스며들면서 다양성과 포용성을 저해하는 사례가 반복되고 있다. 편향은 학습 데이터에 내재돼 있을 수도 있고, 시스템 개발 과정에서 발생할 수도 있다. 생성형 AI의 경우 방대한 학습 데이터를 사용하기 때문에 이 문제가 더욱 두드러진다. 편향 제거는 지금도 계속 연구되는 중요한 과제다.

마지막으로 강조할 요소는 ‘책임’이다. 특히 상업 조직은 AI 시스템의 결과로 인해 문제가 발생했을 때, 사람들이 이에 대해 이의를 제기하고 구제를 받을 수 있는 절차를 갖추고 있음을 명확히 보여줘야 한다. 기업은 AI 시스템을 어떻게 설계하고 운영하는지에 대해 전적으로 책임을 져야 한다.

Q: 모든 대기업이 AI 윤리 위원회를 구성해야 한다고 보는가? 그 위원회의 역할 범위는 어떻게 설정돼야 하는가?

폴 동하: 대기업의 경영진과 의사결정권자 관점에서 고려해야 할 몇 가지 중요한 요소가 있다.

먼저, 윤리 위원회는 선택이 아니라 필수다. 위원회는 조직 내 다양한 배경을 가진 고위 임원들로 구성돼야 하며, 구성원들은 고객이 누구인지, 고객이 무엇을 원하는지를 충분히 이해하고 있어야 한다.

윤리 위원회 구성원은 반드시 윤리 교육을 이수하고, AI가 내포한 잠재적 위험과 한계를 명확히 이해하고 어떤 AI 애플리케이션을 고객에게 공개할지에 대해 책임감 있는 결정을 내려야 한다.

중요한 점은 윤리 위원회가 단순히 IT 시스템에만 의존해 윤리적 판단을 내려서는 안 된다는 것이다. 윤리 문제는 본질적으로 다양한 이해관계자 간의 논의를 통해 해결해야 한다. 윤리 위원회는 이러한 논의를 주도하고, 경계 사례에 대해 토론하는 역할을 한다. 예를 들어 어떤 애플리케이션을 출시할 때, 고객에게 해를 끼칠 가능성이 있는지 혹은 예기치 않은 혼란이나 불쾌감을 유발할 수 있는지를 두고 의견이 엇갈리면 위원회가 논의를 심도 있게 다뤄야 한다.

또한 모든 은행, 심지어 모든 대규모 조직의 위원회에 ‘책임감 있는 AI 담당 임원’을 임명해야 한다고 본다. 이 임원은 AI 애플리케이션 개발 단계부터 배포 이후까지 전 과정에서 발생할 수 있는 리스크를 총괄 관리하는 역할을 맡는다. 윤리적 고려는 개발과 출시의 모든 단계에서 반영돼야 한다.

리스크 관리 절차와 내부 감사 기능 역시 해당 임원의 권한 아래 통합돼야 한다. 그래야 조직 전체 차원의 견고한 감시 체계를 확보할 수 있다.

Q: 정부와 규제 기관이 AI 리스크를 제대로 통제할 만큼 충분히 빠르게 움직이고 있다고 보는가?

폴 동하: 이 문제에서는 정부와 민주적으로 선출된 기관, 그리고 각 산업의 규제 기관이 모두 중요한 역할을 맡고 있다고 본다.

우리는 사회 구성원으로서 정부를 선출해 안전과 권익을 맡긴다. 입법 절차는 이를 위해 존재한다. 예를 들어 운전처럼 단순한 행위에도 차량을 안전하게 운행하기 위한 규칙이 있다. 만약 규칙이 없다면 운전은 매우 위험한 일이 될 것이다. AI도 마찬가지다. AI가 어떻게 사용되고 배포되는지를 규제하는 법과 규칙은 필수적이다.

기업은 주주에게 책임을 지기 때문에 수익성이 언제나 최우선 과제일 수밖에 없다. 따라서 기업 스스로가 AI의 안전장치를 설계하고 운영하도록 내버려두는 방식은 현명하지 않다. 정부가 개입해 무엇이 합리적인지, 어떤 수준의 위험이 허용 가능한지, 그리고 공익에 부합하는 기준이 무엇인지 명확히 설정해야 한다.

물론 기술 기업들도 이러한 논의에 참여해야 하지만, 논의를 주도해서는 안 된다. 사회의 이익을 대표하는 공적 기관, 즉 우리가 선출한 제도권 기관이 논의의 중심이 돼야 한다.

Q: 인공 일반 지능(AGI)은 실제로 얼마나 위협적인가? 오늘날 우리가 주목해야 할 리스크는 무엇인가?

폴 동하: 인간 수준의 지능에 근접하는 AGI는 수십 년 동안 AI 연구자들이 추구해 온 궁극적인 목표였지만, 아직은 그 단계에 이르지 못했다. 현재의 AI는 사회적 상호작용, 감성 지능, 시각 인식의 일부 요소 등 사람 지능의 많은 측면을 구현하지 못하고 있다.

최근 트랜스포머 기반 기술이 매우 정교해 보이긴 하지만, 실제로 내부 구조를 들여다보면 인간이 사고하고 행동하는 방식과는 전혀 다르게 작동한다. 인류가 AGI에 근접했다고 보지 않으며, 현재의 기술 접근 방식으로는 그 목표에 도달하기 어렵다고 본다.

따라서 당장 ‘초지능’이 등장하거나 영화 ‘터미네이터’ 같은 상황이 벌어질 것을 걱정할 필요는 없다고 생각한다. 다만 언젠가 그런 가능성이 현실이 될 수도 있다는 점은 인식해야 한다. 그렇기 때문에 지금부터 대비가 필요하다.

한편 현재 우리가 사용하는 AI 세대에도 이미 심각한 위험이 존재한다. 대표적으로 AI의 무기화, 허위정보 유포, 적대적 국가가 생성형 AI를 이용해 여론을 조작하거나 선거에 영향을 미치는 행위가 있다. AGI가 등장하지 않더라도 지금의 AI 시스템은 막대한 힘을 가지고 있으며, 그 힘이 잘못된 손에 들어가면 사회에 심각한 피해를 초래할 수 있다.
dl-ciokorea@foundryco.com


Read More from This Article: 일문일답 | “AI의 위협은 미래에 있지 않다” 한 AI 윤리 책임자의 메시지
Source: News

Category: NewsOctober 14, 2025
Tags: art

Post navigation

PreviousPrevious post:몽고DB, 장정욱 신임 한국 지사장 선임NextNext post:사례 | “AI 혁신, 조직 문화에서 출발한다” 美 엔로헬스의 디지털 전환 전략

Related posts

La deuda de datos: un elemento invisible que merma el valor de la IA
April 24, 2026
AI 시대 IT 인력의 진화… “실행보다 통제·관리 역할 커졌다”
April 24, 2026
The AI workplace paradox: Higher productivity, higher anxiety
April 24, 2026
칼럼 | AI ROI의 진짜 변수는 기술 아닌 ‘조직 설계’
April 24, 2026
AI 책임 보장서 발 빼는 보험사들…불확실성에 시장 재편 조짐
April 24, 2026
IBM shareholder proposal demands IBM defend AI bias protocols
April 24, 2026
Recent Posts
  • La deuda de datos: un elemento invisible que merma el valor de la IA
  • AI 시대 IT 인력의 진화… “실행보다 통제·관리 역할 커졌다”
  • The AI workplace paradox: Higher productivity, higher anxiety
  • 칼럼 | AI ROI의 진짜 변수는 기술 아닌 ‘조직 설계’
  • AI 책임 보장서 발 빼는 보험사들…불확실성에 시장 재편 조짐
Recent Comments
    Archives
    • April 2026
    • March 2026
    • February 2026
    • January 2026
    • December 2025
    • November 2025
    • October 2025
    • September 2025
    • August 2025
    • July 2025
    • June 2025
    • May 2025
    • April 2025
    • March 2025
    • February 2025
    • January 2025
    • December 2024
    • November 2024
    • October 2024
    • September 2024
    • August 2024
    • July 2024
    • June 2024
    • May 2024
    • April 2024
    • March 2024
    • February 2024
    • January 2024
    • December 2023
    • November 2023
    • October 2023
    • September 2023
    • August 2023
    • July 2023
    • June 2023
    • May 2023
    • April 2023
    • March 2023
    • February 2023
    • January 2023
    • December 2022
    • November 2022
    • October 2022
    • September 2022
    • August 2022
    • July 2022
    • June 2022
    • May 2022
    • April 2022
    • March 2022
    • February 2022
    • January 2022
    • December 2021
    • November 2021
    • October 2021
    • September 2021
    • August 2021
    • July 2021
    • June 2021
    • May 2021
    • April 2021
    • March 2021
    • February 2021
    • January 2021
    • December 2020
    • November 2020
    • October 2020
    • September 2020
    • August 2020
    • July 2020
    • June 2020
    • May 2020
    • April 2020
    • January 2020
    • December 2019
    • November 2019
    • October 2019
    • September 2019
    • August 2019
    • July 2019
    • June 2019
    • May 2019
    • April 2019
    • March 2019
    • February 2019
    • January 2019
    • December 2018
    • November 2018
    • October 2018
    • September 2018
    • August 2018
    • July 2018
    • June 2018
    • May 2018
    • April 2018
    • March 2018
    • February 2018
    • January 2018
    • December 2017
    • November 2017
    • October 2017
    • September 2017
    • August 2017
    • July 2017
    • June 2017
    • May 2017
    • April 2017
    • March 2017
    • February 2017
    • January 2017
    Categories
    • News
    Meta
    • Log in
    • Entries feed
    • Comments feed
    • WordPress.org
    Tiatra LLC.

    Tiatra, LLC, based in the Washington, DC metropolitan area, proudly serves federal government agencies, organizations that work with the government and other commercial businesses and organizations. Tiatra specializes in a broad range of information technology (IT) development and management services incorporating solid engineering, attention to client needs, and meeting or exceeding any security parameters required. Our small yet innovative company is structured with a full complement of the necessary technical experts, working with hands-on management, to provide a high level of service and competitive pricing for your systems and engineering requirements.

    Find us on:

    FacebookTwitterLinkedin

    Submitclear

    Tiatra, LLC
    Copyright 2016. All rights reserved.