살리마 비마니는 2017년부터 2023년까지 알파벳(Alphabet)에서 ‘포용적이고 책임 있는 기술, 비즈니스, 리더십’ 수석 전략가 겸 이사로 재직하며 조직의 윤리적 AI 사용을 장려했다.
비마니는 알파벳 재직 당시 웨이모(Waymo), 윙(Wing), X 등 여러 기업과 협력해 지속 가능한 비즈니스와 글로벌 영향력을 고민했다. 현재는 기업이 비즈니스에 부합하고 책임감 있는 AI 전략을 설계, 통합, 도입하도록 돕는 컨설팅 기업 10X리스폰서블테크(10Xresponsibletech)의 CEO다.
최근 인터뷰에서 비마니는 AI를 윤리적으로 활용하려는 사고의 중요성과 이를 통해 인류와 조직이 얻을 수 있는 이점을 언급했다. 그는 “AI와 다른 첨단 기술은 건강과 정보 불평등 같은 난제를 해결하는 등 인류에게 큰 이익을 줄 잠재력을 지녔지만, 이를 실현하려면 벤더와 사용자가 새로운 관점으로 IT를 바라봐야 한다”라고 설명했다.
비마니는 “우리 앞에 놓인 기회는 단순히 AI의 물결을 타는 일이 아니다. 윤리와 같이 지금까지 보지 못한 영역을 살피고 이를 기술 발전 기회로 봐야 할 시점”이라고 말했다. 지금까지 IT 리더와 기업이 사용자와 고객에 혜택을 주는 ‘혁신’에 초점을 맞춰왔지만 이제는 글로벌 영향력을 더 폭넓게 생각해야 한다는 설명이다.
그는 “과거에는 기술의 동기가 혁신, 그리고 인류를 위한 혁신, 세상에 선한 영향을 미치고 훌륭한 제품을 만드는 데 있었다. 이제 모든 사람에게 도움이 되도록 세상을 재구성하는 방식으로 혁신을 바라봐야 한다. 자선적인 요구 사항이 아니라 기술이 인류의 진보를 긍정적인 방향으로 가속화해야 한다는 요구 사항이다”라고 언급했다. 비마니와 진행한 인터뷰 내용을 소개한다.
그랜트 그로스: 알파벳과 새로운 회사에서 AI의 윤리적 사용에 집중했다. ‘윤리적 AI’를 어떻게 정의하는가?
비마니: 생각하는 정의에는 크게 3가지 요소가 있다. 첫째는 피해를 없애야 한다. 구축하고 통합하는 AI 시스템이 의도치 않게 기존의 문제를 악화시키거나 새로운 해악을 만들지 않도록 한다는 의미다.
두 번째는 혜택의 확대다. 해로운 측면에 집중하는 경향이 있지만, 혜택을 확대하는 일도 윤리적 AI의 중요한 부분이다. AI를 통합할 때 직원의 역할을 단순히 없애는 대신, 실제로 직원들의 영향력과 회사 내 입지를 확장하는 파트너로 만들어야 한다. AI를 유익하고 확장된 기회로 만들어야 한다.
마지막으로 인간과 공생하는 AI 시스템 구축이다. 사람들은 AI를 스스로 발전하는 존재로 여긴다. 어느 정도 사실이지만, 실제로는 여전히 인간이 만든다. 시스템과 인간의 필요 및 욕구는 공생 관계이며, 계속해서 의도적으로 노력해야 한다. 초기에 입력된 데이터로 새로운 데이터셋을 만드는 AI 시스템이더라도 사람들의 실제 참여와 거버넌스가 필요하다.
CIO, CAIO 및 다른 IT 리더가 조직을 위해 윤리적 AI를 추구해야 하는 이유는 무엇인가? 어떤 이점이 있는가?
CIO의 역할이 변화했다. 과거에는 시스템 운영 유지, 인프라 관리, 시스템 안정성 보장, 또는 통합에 초점을 맞췄지만, 이제는 조직 내에서 전략적 비전을 제시하는 역할이다. 비즈니스 목표에 부합하는 AI 전략을 구축하고, AI가 제시하는 기회를 파악해야 한다.
CIO와 CAIO는 비즈니스와 기술을 연결한다. 여기에서 윤리적 측면은 필수적인 요소가 될 가능성이 높다. 이 기술의 이점을 비즈니스 목표에 어떻게 확대 적용할지, 어떻게 새로운 비즈니스 기회를 창출하고 리스크 완화, 혁신을 이끌지 고민해야 한다.
또한 최고의 인재 유치도 중요하다. 일부 연구에 따르면 AI 인재는 윤리적 측면을 고려하는 조직이나 기업과 일하기를 선호한다.
편견을 유발하는 제품이나 AI 시스템 개발은 브랜드와 평판 문제를 일으키기에 철회가 불가피할 수 있다. 다시 말해 CIO나 CAIO는 기술과 비즈니스의 연계를 넘어 사회적 리스크의 영향과 사회적 이익 및 기회를 생각해야 한다.
최근 다양성, 형평성, 포용성(DEI) 정책에 대한 정치적 반발을 우려하는가? AI와 관련된 윤리, 평등 문제를 무시했을 때 어떤 영향을 미치는가?
윤리나 책임 또는 DEI를 소외된 사람들의 관점에서만 바라봐 왔지만, 실제로는 모두에게 이롭다. 데이터로봇의 2022년 조사에 따르면 알고리즘 편향으로 62%의 수익 손실과 61%의 고객 손실이 발생했다. 법적 비용 외에 직원 손실도 43%에 달했다. 이는 명백한 비즈니스적 영향을 보여준다. 사람들은 AI 시스템이 올바른 방식으로 개발된다는 사실을 알고 싶어 한다.
IT 리더는 구축하거나 구매하는 AI 제품의 윤리적 사용을 어떻게 보장할 수 있나?
먼저 조직 내 윤리적 AI 정의가 필요하다. 일반적인 정의도 있지만 각 비즈니스의 목표에 맞는 특정 정의도 필요하다. 이는 조직 또는 기업의 경영진과 함께 수립해야 한다. 리더십 차원에서 AI에 전략적으로 접근해 제품이나 서비스의 윤리성을 보장하기 위한 절충안을 이해하고 여러 부서에서 통합할 수 있는 거버넌스 모델을 구축해야 한다.
또한 AI 도입을 결정하는 이들의 이해도가 매우 중요하다. 기업은 AI가 직원들에게 미칠 영향을 파악하고 이를 제대로 활용하는 능력과 역량을 갖추는 데 투자해야 한다.
책임감과 지속적인 시스템 평가도 필수다. 원하는 윤리적 AI 목표를 달성하는지, 아니면 예상하지 못한 결과를 낳는지 계속해서 점검해야 한다.
허위 정보부터 일자리 감소, 인류 지배까지 AI를 우려하는 목소리가 많은데, 주요 우려 사항은 무엇이라고 생각하는가?
잃어버린 시장이 우려된다. 세계에는 디지털 격차가 있으며 많은 사람이 여전히 인터넷에 접속하지 못한다.
문제는 현재 사용하는 데이터 대부분이 제한된 디지털 공간에 기반한다는 점이다. 다시 말해 AI 시스템의 설계와 개발 방식이 제한된 데이터로 구성된다. AI 시스템이 궁극적으로 세상을 위해 봉사하려면 그 기반이 되는 데이터가 기본적으로 전 세계를 포함해야 한다.
이는 앞으로 풀어나가야 할 중요한 과제다. 많은 해결책이 여전히 북미나 유럽에서 나오는 지금 같은 상황에선 특히 그렇다. 우리 모두는 전 세계 커뮤니티와 함께 문제를 해결할 책임이 있다.
또한 기술 기업, 정부, 개발자, 심지어 사용자와 소비자까지 AI의 현재와 미래 역할에 대해 우려하고 관심을 갖는 주체 간의 진정한 협력과 소통이 필요하다. 과연 서로를 이해하려 하고 공통 분모를 찾고 있는지에 대한 질문이다.
한편 규제는 아주 중요한 부분이다. 기술 기업과 정부가 다른 속도로 움직인다면 이는 충분히 우려스러운 일이다.
[email protected]
Read More from This Article: 알파벳의 책임 있는 기술 전략가 출신이 말하는 ‘윤리적 AI가 IT 리더에게 중요한 이유’
Source: News