구글과 스탠퍼드 대학교 연구진에 따르면, AI 모델과 2시간 정도의 대화만으로도 실제 인물의 성격을 상당히 정확하게 재현할 수 있는 것으로 나타났다.
최근 프로젝트에서 연구진은 각 참가자와 2시간 동안 진행한 인터뷰를 바탕으로 1,052명의 ‘시뮬레이션 에이전트’, 즉 AI 복제본을 생성했다. 이 인터뷰는 미국 보이스 프로젝트(American Voices Project)가 개발한 프로토콜을 기반으로 했으며, 인생 이야기부터 현재 사회 문제에 대한 견해까지 사회과학자들이 관심을 가질 만한 다양한 주제를 다뤘다. 이를 통해 인간의 행동을 모방하도록 설계된 생성형 AI 모델을 훈련시켰다.
AI 복제본의 정확도를 평가하기 위해 각 참가자는 성격 검사, 사회 조사, 논리 게임을 두 차례 실시했다. AI 복제본이 동일한 검사를 수행했을 때, 그 결과는 인간 참가자의 답변과 85%의 정확도로 일치했다.
성격 설문지에서 AI 복제본의 응답은 인간 참가자와 거의 차이가 없었다. 특히 성격 설문지 답변을 재현하고 사회적 태도를 판단하는 데 있어 뛰어난 성과를 보였다. 그러나 경제적 의사 결정과 관련한 상호작용 게임에서 행동을 예측하는 데는 정확도가 다소 떨어졌다.
연구 목적 및 의의
연구진은 시뮬레이션 에이전트 개발 동기가 실제 사람을 대상으로 하기에는 비용이 많이 들거나, 비현실적이거나 윤리적으로 문제가 될 연구를 수행하기 위해서라고 설명했다. 예를 들어 AI 모델은 공공보건 조치의 효과를 평가하거나 제품 출시에 대한 반응을 이해하는 데 도움이 될 수 있다. 연구진은 중요한 사회적 사건에 대한 반응을 모델링하는 것도 가능할 것이라고 설명했다.
연구진은 “각각의 시뮬레이션된 인물이 사회, 정치, 정보 등 다양한 상황에서 실제처럼 반응할 수 있는 범용 인간 행동 시뮬레이션을 통해, 연구자들은 여러 가지 개입 방법과 이론을 시험해 볼 수 있는 실험실을 구축할 수 있을 것”이라고 설명했다.
하지만 이 기술 오용될 수 있다는 점도 인정했다. 예를 들어 시뮬레이션 에이전트가 딥페이크 공격으로 온라인상에서 다른 사람을 속이는 데 사용될 수 있다는 것이다.
보안 전문가들은 이미 딥페이크 기술이 빠르게 발전하고 있으며, 사이버 범죄자들이 기업을 상대로 사용할 수 있는 비즈니스 모델을 찾아내는 것은 시간 문제라고 보고 있다.
많은 기업 임원들이 최근에 금융 자산을 노린 딥페이크 사기의 표적이 됐다고 밝혔다. 보안 기업 엑사빔(Exabeam)은 북한의 가짜 IT 인력 사기와 관련해 딥페이크가 구직 면접에 사용된 사례에 대해 논의한 바 있다.
구글과 스탠퍼드 연구진은 자신들이 생성한 1,000개 이상의 시뮬레이션 에이전트로 구성된 ‘에이전트 뱅크’ 구축을 제안했다. 연구진에 따르면, 스탠퍼드 대학교가 호스팅하는 이 뱅크는 “에이전트 행동에 대한 통제된 연구 전용 API 접근을 제공”할 수 있다.
해당 연구가 딥페이크 생성 능력의 발전을 명시하진 않았지만, 오늘날 첨단 연구에서 시뮬레이션된 인간 성격을 만드는 것이 얼마나 빠르게 가능해지고 있는지를 보여준다.
[email protected]
Read More from This Article: “2시간 대화로 실제 인물의 AI 버전 생성··· 딥페이크 위협 확산 가능성도” 구글·스탠퍼드대 연구진
Source: News