"완벽한 AI란 없다"…수용 가능한 거버넌스 논의로 '확대'


서울대-네이버 공동 웨비나…임용 교수

[아이뉴스24 최은정 기자] "인간의 도덕성 등 추상적인 가치를 인공지능(AI) 기술의 평가 잣대로 삼기보다는 우리 사회가 '수용 가능한' 수준의 AI는 어디까지인지 등 관련 거버넌스 체계 마련이 우선돼야 합니다."

17일 임용 서울대 교수는 서울대 AI 정책 이니셔티브(SAPI)와 네이버가 공동 주최한 'AI 윤리: 원칙을 넘어 실천으로 - 현장에서 논하는 AI 윤리' 웨비나에서 이같이 주장했다.

수용 가능한(Acceptable) AI는 AI 자체가 현재 지속 개발되고 있는 기술이라는 점을 인지하는 것에서 부터 시작한다. AI는 완전 무결한 존재가 아니기에 오류가 발생할 수 밖에 없다는 점을 인정하는 것이다.

임용 서울대 교수 [사진=캡처]

때문에 AI가 쓰이는 사회 내부의 거버넌스 체계가 더욱 중요해진다.

임용 교수는 "구체적인 상황, 이용자 마다 어느 정도 수준의 AI 오류를 받아들일 수 있는지 모두 다르다"며 "사회 전체가 허용 가능한 오류율에 합의를 가져오기 위해 입법 등 민주적 절차를 거쳐야 할 수도 있다"고 말했다.

그러면서 최근 국내의 AI 챗봇 '이루다' 관련 논의는 '윤리'에만 국한돼 있다고 지적했다. 관련 논의를 거버넌스 구축 등 분야로 확대해야 한다는 주장이다.

그는 "이제는 원칙 중심의 AI 윤리에서 더 나아가 거버넌스 구축 등으로 논의 분야를 확대해야 할 시점"이라며 "AI윤리를 논하는 것이 의미 없다는 얘기는 아니다"라고 덧붙였다.

거버넌스 구축을 위해서는 먼저 AI 전반에 걸친 사회 시스템이 제대로 마련돼 있어야 한다. 임 교수가 생각하는 이상적인 사회 시스템은 기업, 개발자뿐 아니라 사용자까지도 모두 AI 개발 과정을 투명하게 볼 수 있도록 하는 것이다.

임 교수는 "수용 가능한 AI를 만들기 위해 코드, 조직, 제품 개발, 의사결정 과정 등 AI 개발 전반에 걸쳐 사람들이 참여할 수 있는 시스템이 필요하다"며 "가령 기업뿐 아니라 외부 위원회가 개발 중인 AI 기술을 견제하는 등 역할하는 것"이라고 했다.

그러면서 "우리 목표는 도덕적인 AI 기술을 개발하는 것이 아닌, 신뢰 가능한 AI 기반 사회 시스템을 조성하는 것"이라고 강조했다.

최은정 기자 ejc@inews24.com





포토뉴스