CIO라면 누구나 벤더의 정책과 입장을 곧이곧대로 신뢰해서는 안 된다는 것을 알고 있을 터다. 벤더가 정책을 엄격하게 준수하지 않을 수 있고 예고 없이 정책을 변경할 수도 있기 때문이다.
지난주 구글은 그리 놀랍지 않은(?) 발표를 단행했다. 무기 제조나 감시 작업을 돕지 않겠다는 입장에서 한 걸음 물러났다. 물론 기업을 움직이는 주된 동기는 수익, 이익, 시장 점유율이기 마련이다. 대량 살상 무기를 만들거나 정부가 국민을 감시하도록 도와줌으로써 이러한 재무 지표를 개선할 수 있다면, 경영자 대다수는 그런 판단을 내릴 수 있다.
그러나 CIO가 이를 이해해줘야만 하는 것은 아니다. CIO는 벤더 입장에서 고객인 경우가 많다. 그리고 고객은 막대한 예산을 가지고 있기에 큰 영향력을 행사할 수 있다. 벤더가 여러분의 돈을 원한다면, 여러분이 제안 요청서(RFP)와 계약서에 동의해야만 한다.
더 큰 규모의 벤더가 일반 기업의 RFP에 따라야 할 이유가 뭘까? 그렇게 하지 않으면 경쟁사 중 하나가 그렇게 할까 봐 두렵기 때문이다. 그렇게 되면 시장 점유율과 수익을 잃을 수 있기 때문이다.
이번 경우에서 구글이 피하고자 하는 상황은 무었이었을까? 회사의 작년 성명서에는 “추구하지 않을 AI 애플리케이션” 목록이 나열돼 있다. 목록의 일부는 다음과 같다:
“전반적으로 해악를 유발하거나 유발할 가능성이 있는 기술. 실질적 해악의 위험이 있는 경우, 우리는 이점이 위험을 상당히 능가한다고 믿는 경우에만 진행할 것이며, 적절한 안전 제약 조건을 포함할 것이다.
인간에게 상해를 유발하거나 직접적으로 촉진하는 목적의 무기 또는 기타 기술.
국제적으로 인정된 규범을 위반하는 감시 관련 기술.
그 목적이 국제법과 인권에 널리 인정된 원칙에 위배되는 기술.”
당시 구글은 이 목록은 점점 더 구체화될 것이라고 예고했다. 그런데 실제로 목록은 점점 더 구체화됐다. 목록은 훨씬 짧아졌다.
구글은 이제 ‘인간의 고통과 죽음, 그리고 장애가 더 높은 수익과 시장 점유율에 의해 상쇄될 수 있다. 윤리, 도덕, 그리고 인간성은 빛을 밝히는 데 도움이 되지 않는다, 친구!” ’라고 말하는 듯하다.
이 회사는 ‘사악해지지 말자’(Don’t be evil)라는 슬로건을 포기한 것을 기억할 것이다. 구글은 10년 전에 이 슬로건을 버린 것으로 보인다. 아마도 지금은 다음과 같이 업데이트했을 수 있겠다. ‘악을 피하는 것이 수익 창출을 방해하지 않도록 한다.’
최근 스위스 클라우드 제공업체인 피닉스 테크놀로지스의 두 임원과 이 문제에 대해 논의했다. 그들은 기업 CIO가 벤더의 약속을 순진하게 믿어서는 안 된다고 강조했다. 특히 대형 언어 모델(LLM) 제작에 있어서는, 어떻게 훈련되고 사용되는지에 촉각을 기울여야 한다는 주장이다.
피닉스 그룹의 최고 제품 책임자인 피터 드메오는 “거래하는 모델 제작사가 누구에게나 서비스를 제공할 수 있다는 내용의 이용 약관을 가지고 있다면, 그로 인한 결과에 대해 기꺼이 받아들여야 할 것”이라며, “모델 제작사는 정말이지 신뢰할 수 없는 이들이다. 그들이 정부 계약으로 수익을 얻어야 하는 경우에는 특히 그렇다”라고 말했다.
그의 동료인 피닉스 그룹 CTO 누네즈 멘시아스는 구글이 제한을 없앴다는 사실에 놀라지 않았다. “모델 제작사들이란 언제든지 정책과 규칙을 바꿀 수 있는 이들이다”라고 그는 말했다.
그러나 벤더가 스스로 정한 규칙의 존재를 신뢰할 수 없을지라도, 일반 기업의 CIO들이 마냥 무력하지는 않다. 소속 기업의 철학과 맞지 않는 부분이 있다면 목소리를 낼 수 있다.
.
기억할 부분은 다음과 같다. CIO의 반대편에 있는 악당들은 언제나 누군가로부터 생성형 AI(genAI) 서비스와 도구를 얻을 수 있다. 대규모 테러 조직이 돈을 써서 누군가에게 LLM을 만들어 달라고 할 수 없다고 생각하는가?
아무리 강력한 기업일지라도 이를 막을 수는 없을 것이다. 그러나 중요한 것은 그게 아니다. 월마트, 엑슨모빌, 아마존, 체이스, 힐튼, 화이자, 도요타 등 거대 기업들은 자금을 어디에 쓸지 선택할 수 있다. 기업은 악당들의 AI 사용을 막을 수는 없지만, 적어도 악당들을 돕는 AI에 자금을 지원하지 않도록 할 수는 있다.
만약 그들이 모든 제안 요청서에 X, Y, Z를 하지 않겠다는 데 동의하는 모델 제작사하고만 일하겠다는 조항을 추가한다면, 많은 관심을 끌 것이다. 물론 계약은 현실적으로 이루어져야 한다. 예를 들어, “모델 제작사 측이 추후 위에서 설명한 금지된 행위에 대한 대금을 수령하기로 결정할 경우, 이미 지불한 모든 금액을 환불해야 하며, 18개월 전에 통지해야 한다. 그래야만 당사의 계약 조건을 존중하는 업체로 공급업체를 교체할 수 있기 때문이다”라는 조항을 넣을 수 있겠다.
구글을 비롯해 마이크로소프트, 오픈AI, IBM, AWS 등의 시각에서 본다면, 그들은 정부의 예산에 더해 일반 기업들의 돈도 취하고자 한다. 그러나 만약 두 가지 중 하나를 선택해야 하는 상황이라고 생각한다면, 고민의 여지가 생긴다.
구글이 수익을 더 중시하기로 결정했다는 점을 감안할 때, 그들에게 도덕성을 호소하는 것은 답이 아니다. 그들이 돈만 신경 쓴다면, 그들과 같은 언어로 이야기해야 한다.
다행히도 요구를 관철시킬 힘을 가진 대기업이 많이 있다. 이러한 구매력을 활용해야할 시점은 어쩌면 바로 지금이다. 구글을 비롯한 AI 기업들이 누구에게 서비스할지, 어떤 일을 하지 말아야 할지 압박해야 한다.
[email protected]
Read More from This Article: 칼럼 | 구글의 입장 변화가 전하는 교훈, ‘AI 벤더의 내부 정책은 믿을 게 못 된다’
Source: News