[아이뉴스24 김한빈 기자] 인공지능(AI) 기업 오픈AI가 미 국방부와 계약을 맺은 지 약 일주일 만에 고위 임원이 우려를 표하며 사임했다.
![샘 올트먼 오픈AI 최고경영자(CEO). [사진=EPA/연합뉴스]](https://image.inews24.com/v1/51b9a781eb3476.jpg)
7일(현지 시각) 미 정치전문매체 폴리티코 등에 따르면 오픈AI 로보틱스 부문 책임자인 케이틀린 칼리노브스키는 소셜미디어 엑스(X·옛 트위터)를 통해 "미국인에게 사법적 감독 없는 감시와 인간 승인 없는 자율 살상 문제는 더 충분한 논의가 필요했다"고 지적하면서 사임 의사를 밝혔다.
그는 "안전장치가 확립되기도 전에 (국방부와의 계약) 발표가 성급하게 이뤄졌다는 것이 문제"라며 "거버넌스(의사결정 구조)에 우려가 있다"고 말했다.
오픈AI의 차세대 사업으로 꼽히던 로보틱스에서도 사업 총책임자가 사직하면서 국방부와의 계약을 우려하는 목소리가 크다는 점이 재확인됐다.
논란은 오픈AI가 지난달 27일 미 국방부와 계약을 맺으면서 시작됐다. 오픈AI는 계약과 관련해 자사 AI 모델을 미 국방부의 기밀 클라우드 네트워크에 배치하기로 했고, 이후 계약에는 추가적인 보호 장치가 포함돼 있다고 설명했다.
또 자사 기술이 미국 내 대규모 감시, 자율 무기 시스템 제어, 중대한 자동화 의사 결정에는 쓰일 수 없다는, 이른바 '금지 사항'을 두고 있다고 밝혔다.
하지만 샘 올트먼 오픈AI 최고경영자(CEO)는 계약 공개가 너무 서둘러 이뤄졌다고 인정했고, 이후 미국인에 대한 국내 감시 우려를 더 명확히 막는 방향으로 계약 문구를 손보겠다는 입장을 내놨다.
그동안 AI 스타트업 앤트로픽이 국방부에 자사 AI 모델인 클로드를 제공해 왔지만, 지난달 윤리 문제로 도널드 트럼프 행정부와 마찰을 빚고 있다.
국방부는 클로드를 제한 없이 군사적으로 활용하려 했고, 앤트로픽은 미국인에 대한 전방위적인 감시, 완전 자율형 무기 체계 사용 등에 사용해선 안 된다고 맞섰다.
이에 국방부는 이례적으로 앤트로픽을 '공급망 위험' 기업으로 지정하고 퇴출을 선언했고, 앤트로픽은 이에 불복해 법적 대응 방침을 밝힌 상태다.
/김한빈 기자(gwnu20180801@inews24.com)
--comment--
첫 번째 댓글을 작성해 보세요.
댓글 바로가기