IT 업계의 분위기만 보면, AI 에이전트가 전체 비즈니스 프로세스를 자동화해 전 세계 기업을 바꿔놓을 것 같다. 하지만 현실은 전혀 다르다.
와튼 스쿨과 지비케이 컬렉티브(GBK Collective)가 발표한 AI 도입 조사에 따르면, 기업 IT 의사결정권자 58%가 조직 내에서 AI 에이전트를 시범 운영하고 있다고 답했으며, 대다수는 프로세스 자동화, 워크플로우 효율화, 고객 서비스 등의 사용례에 적용할 계획이라고 밝혔다.
하지만 어디까지나 파일럿 단계이며, 프로덕션 환경에 적용된 것은 아니다. 완성된 인간-AI 에이전트 협업 워크플로우를 위한 교본 같은 것은 아직 없다.
IT 부서가 AI를 사용해 운영을 자동화할 최선의 길을 두고 고민하는 과정에서 HR과의 긴밀한 협력이 필수적인 요소로 떠올랐다. IT와 HR의 협력은 혼란을 최소화하고 인간과 AI가 동료로서 같이 근무하는 환경이 현실화될 때 등장할 새 역할, 프로세스, 팀 구조에 기업이 빠르게 적응할 수 있도록 지원한다.
AI 에이전트를 조직 안으로 들이는 방법
사이버 보안 회사 소포스(Sophos)의 CIO 토니 영은 책임 있는 AI 배포를 위한 변화관리에서 IT와 HR의 밀착이 중요하다고 강조했다. 영은 “올바른 접근은 HR 전문가들과 함께하고, 어떻게 구성원을 변화에 동참시킬지 이해하는 것”이라며 HR과의 동행을 핵심으로 짚었다.
영이 그리는 미래 조직에는 자동화 전문가뿐 아니라, 콘텐츠를 큐레이션하고 데이터를 다뤄 에이전틱 AI 전환을 매끄럽게 만드는 인력도 늘어난다. HR은 이런 ‘새로 생겨나는 전문 인력’을 팀에 자연스럽게 섞어 배치하는 역할을 맡는다.
AI 전환기에는 직원의 불안을 완화할 ‘작은 장치’도 유용하다. 소포스의 마케팅 부서는 AI 에이전트를 조직도에 팀 구성원으로 포함했고, 새 에이전트가 투입되면 사람과 마찬가지로 ‘신규 팀원 소개’ 공지를 낸다. IT 서비스 데스크에는 사람 직원이 디지털 동료와 성과를 비교할 수 있는 리더보드도 마련했다. 다만 사람 직원이 AI 에이전트의 결과를 검증하고 감시하는 구조를 유지해 휴먼 인 더 루프(human-in-the-loop) 베스트 프랙티스에 맞춘 운영을 이어간다는 설명이다.
역량 기준도 달라진다. 영은 “LLM을 활용하는 법이나 에이전트를 만드는 법은 엑셀을 다루는 것과 비슷하다”라며, “모두가 갖춰야 하는 새로운 기본 역량이 됐다”라고 표현했다. 이를 위해 CIO가 HR 리더와 함께 AI 교육 의제를 정하고, 생성형 AI 관련 자격·교육과정까지 포함한 ‘전사 학습 로드맵’을 마련해야 한다는 주장이다.
수백 수천의 봇이 일하는 회사의 운영모델
에이전틱 AI 환경을 완성한 기업은 어떤 모습일까. 수백 수천의 자율 ‘봇’이 엔드 투 엔드 업무 프로세스를 수행하고, 이들 봇을 관리하며 작업 이탈을 막는 ‘보스 봇’이 상단에 있는 구조가 거론된다. 인간 조직이 지식 노동을 해온 방식과 대칭적이지만, 실제로는 에이전트와 함께 일하기 위한 새로운 운영모델이 필요하다는 것이 핵심이다.
앞으로 IT 부서는 에이전트의 의사결정 체계와 그에 따른 워크플로우를 설계·배포·운영하는 책임이 커질 것이다. 워크플로우는 부서마다 다르게 설계돼야 한다. 예를 들어 콜센터 업무를 AI로 자동화하려면, 사람이 에이전트를 모니터링하는 법을 배워야 한다. 이는 기존 상담 인력의 업무 도구를 넘어서는 관리·기술 역량을 요구한다.
기업 맥킨지의 수석 파트너 클레멘스 야르타르는 “통화 의도를 이해하고 경계를 설정하는 등 새로운 역량이 필요하다”라고 설명했다. 기존의 ‘사람 중심’ 운영 방식에 익숙한 조직일수록 프로세스 관리 역량을 새로 길러야 한다는 지적이다.
세일즈·마케팅에 AI 에이전트를 접목할 때는 CRM 등 고객 접점 시스템 전반의 워크플로우 재설계가 과제로 떠오른다. 운영 조직 등 다른 기능도 마찬가지다. 어떤 업무 흐름이든 HR은 명확하고 일관된 커뮤니케이션으로 직원들이 받을 충격을 줄이고, IT와 각 부서가 재교육·리스킬링 전략을 실행하도록 돕는 역할을 맡을 수 있다.
마이크로소프트는 IT와 HR이 인간·디지털 인력을 함께 조율하는 CRO(Chief Resource Officer)’ 같은 새 역할을 만들 수 있다고 전망했고, 일부 조직에는 ‘에이전트 보스(agent boss)’가 등장할 가능성도 제기했다. 맥킨지는 AI 윤리·책임 사용, AI 품질 보증 책임, 에이전트 코치 등 신규 직무가 생겨날 것으로 내다봤다.
데이터 신뢰성은 자율성의 생명줄
과제가 어렵지만, 넘지 못할 수준은 아니라는 평가도 나온다. 다만 에이전틱 AI 아키텍처에 지나친 의사결정 권한을 부여하는 것은 위험하다는 지적이 적지 않다.
핀옵스 플랫폼 서비스 업체 두잇(DoiT)의 필드 CTO 아미트 킨하는 서로 다른 플랫폼 전반에 걸친 기술적 난제와 ‘암묵지(tribal knowledge)’의 공백을 리스크로 지목했다. 예를 들어, 저연차 개발자에게 업무를 주면 필요할 때 선임에게 도움을 구할 수 있지만, 현재 AI 에이전트는 그런 지식 접근 메커니즘이 부족하다는 지적이다. 킨하는 “진실의 출처(source of truth)가 어디인지가 중요하다”며 “그 기반이 유효하지 않으면 의사결정 트리 전체가 무효가 된다”라고 우려를 드러냈다.
에이전트 실행의 파급력도 크다. 예컨대 15개 시스템에 걸쳐 업데이트할 수 있는 멀티 에이전트 시스템은 하위 단계에 연쇄적인 영향을 주며 수익성에 실질적 타격을 입힐 수 있다. 이런 리스크를 줄이려면 거버넌스 차원에서 ‘체크포인트’를 두는 방식이 대안으로 꼽힌다. 어떤 에이전트는 단독 결정을 허용하되, 다른 에이전트는 사람 승인 없이는 실행하지 못하게 하는 식이다.
킨하는 “완성하기 가장 어려운 부분이 의사결정 자율성”이라며, 자율성이 너무 낮으면 사람에게 매번 확인하느라 자동화가 멈추고, 너무 높으면 치명적 실수가 발생할 수 있다고 설명했다. 또, 목표와 의도를 명확히 하고, 데이터 위생을 확고히 해야 한다고 덧붙였다.
밝지만 예측할 수 없는 미래
기술과 프로세스의 퍼즐이 맞춰지기 시작하면, 사람에서 ‘사람+기계’로 일하는 방식으로 넘어가는 전환을 돕는 축은 결국 IT와 HR의 파트너십이 될 가능성이 크다. AI 에이전트를 도입하는 모든 기업은 프로세스 실행 방식과 성과 측정 체계를 더 의도적으로 설계해야 한다.
야르타르는 “각 기능 영역의 구성원 모두가 의도 설정, 경계 설정, 측정 역량을 끌어올려야 한다”라며 “그 과정에는 여러 해가 걸릴 것”이라고 내다봤다. 영도 “기업마다 속도가 다를 것”이라며, 자동화를 강하게 밀어붙이는 조직과 그렇지 않은 조직 사이에 새로운 ‘격차’가 생길 수 있다고 덧붙였다.
한 가지, 직장에서 인간과 기계가 함께 일하는 환경과 관련된 도전은 이제 막 시작됐다는 점은 분명하다.
dl-ciokorea@foundryco.com
Read More from This Article: “에이전틱 AI 전략의 빠진 고리” IT와 HR의 협력
Source: News

