메타, 새 정책 문서에서 ‘위험한 AI 시스템 출시 않겠다’ 약속
메타의 새로운 정책 문서인 프론티어 AI 프레임워크(Frontier AI Framework)에 따르면, 회사는 특정 위험 시나리오에 해당할 경우 자체 개발한 AI 시스템을 외부 출시하지 않을 방침이다. 이 문서는 ‘고위험’(high risk) 또는 ‘극위험’(critical risk)으로 분류될 수 있는 두 가지 유형의 AI 시스템을 정의한다. 두 경우 모두 사이버, 화학 또는 생물학적 공격을 수행하는 데 도움이 될 수 있는 시스템이다.…