실시간 뉴스



"AI '고위험·일반' 구분하자"…자율규제 위한 '한걸음' [IT돋보기]


25일 국회서 알고리즘‧인공지능 법률안 공청회 개최

[아이뉴스24 김혜경 기자] 자율규제 환경 조성을 위해 인공지능(AI)에 대한 고위험군과 일반군을 구분해야 한다는 주장이 제기됐다. 절차적 접근 방식을 통해 보다 유연한 규제와 진흥정책을 수립할 수 있다는 게 근거다.

25일 오전 국회에서 윤영찬 더불어민주당 의원 주최로 '알고리즘‧AI 법률안 공청회가 열렸다. [사진=윤영찬 의원실]
25일 오전 국회에서 윤영찬 더불어민주당 의원 주최로 '알고리즘‧AI 법률안 공청회가 열렸다. [사진=윤영찬 의원실]

25일 오전 국회에서 윤영찬 더불어민주당 의원 주최로 열린 ‘알고리즘‧AI 법률안 공청회’에서 최경진 가천대 법대 교수(AI‧빅데이터 정책연구센터장)는 “AI 규제를 위해서는 절차적 접근 방식을 구체화할 필요가 있다”며 “현 상황에서 다각적인 접근 방식이 없다면 적절한 대응이 아예 불가능할 수 있으므로 자율적인 규제도 함께 모색해야 한다”고 말했다.

최 교수는 “고위험 AI에는 강도 높은 제재가 필요하지만 그 외 AI에는 자율규제를 고려해볼 수도 있다”며 “AI의 수용성을 높이고 향후 보편적 활용을 전망했을 때 자동차 보험과 비슷한 방식으로 사회 전체가 잠재적 위험성을 함께 분담할 수 있는 제도도 필요하다”고 설명했다.

25일 오전 국회에서 윤영찬 더불어민주당 의원 주최로 '알고리즘‧AI 법률안 공청회가 열렸다. [사진=윤영찬 의원실]
25일 오전 국회에서 윤영찬 더불어민주당 의원 주최로 '알고리즘‧AI 법률안 공청회가 열렸다. [사진=윤영찬 의원실]

지난해 11월 윤영찬 의원은 '알고리즘 및 인공지능에 관한 법률안'을 대표발의한 바 있다. 해당 법안의 특징은 고위험 AI와 AI 개발사업자 및 이용자 개념 도입, AI 단계별 규제, AI 관련 다양한 윤리원칙을 반영했다는 점이다.

앞서 발의된 다른 법률안 대비 산업 발전적 측면에 좀 더 무게를 뒀지만 ‘고위험AI심의위원회’ 설치 등 혁신과 규제의 균형을 윤 의원실의 설명이다.

고위험 AI에 대한 정의는 '생명, 신체의 안전 및 기본권의 보호에 중대한 영향을 미치는‘ AI로 규정했다. 구체적으로 ▲생체인식 ▲교통‧수도‧가스‧난방 등 주요 사회기반시설 관리·운용 ▲채용 등 인사 평가 및 직무 배치의 결정 ▲응급 서비스, 대출 신용평가 등 필수 공공·민간 서비스 ▲수사 및 기소 등 기본권을 침해할 수 있는 국가기관의 권한 행사 ▲문서 진위 확인, 위험 평가 등 이민, 망명 및 출입국 관리 등에 AI가 활용되는 경우다.

이현규 정보통신기획평가원 인공지능사업단장도 “AI를 크게 두 부분으로 나눠본다면 대부분은 ‘인간이 통제할 수 있는’ AI로 볼 수 있고 그 외 극히 일부에 한해 ‘강(strong) AI’로 구분할 수 있을 것”이라며 “현재는 걸음마 단계에 불과하며 바둑 등 특정 분야에 한정했을 경우에만 수준이 높을 뿐”이라고 설명했다.

이 단장은 “현재 산업계 AI 활용률을 보면 얼마 전까지 0.6%였다가 현재는 3% 수준에 머물고 있다”며 “현장의 기대 수준과 AI 기술 수준에 간극이 있기 때문에 아직까지는 규제에 대한 요소보다는 ‘규제를 위한 논의’가 필요한 시점이며 이같은 현실을 고려해 제도를 만들어야 한다”고 덧붙였다.

현재 차세대 AI 관련 연구 개발이 진행되고 있다. AI의 판단 근거를 분석해 상대방이 이해할 수 있도록 설명해 줄 수 있는 기술을 확보하는 것이 골자다.

강용성 와이즈넛 대표는 법안 내 AI개발사업자와 이용사업자의 정의가 모호하다는 의견을 냈다. 강 대표는 “개발사업자에는 SW개발업체 혹은 대다수 중소기업이 포함되고 대형 플랫폼기업들은 대부분 이용사업자에 해당될 것으로 보인다”며 “플랫폼기업들도 이용사업자이자 개발사업자가 될 수 있는데 이같은 대형업체의 경우 법률안에 기재된 책무 중 어느 것을 부여할지 명확하지 않다”고 말했다.

강 대표는 시행 시점에 대한 조율과 세부 법안에 대해서는 시행 초기 의무를 줄였다가 안정화 시기 도래 이후 점진적으로 확대하는 방식도 제언했다.

이준열 엔키스 대표는 어떤 AI 서비스가 ‘고위험’에 해당하는지 좀 더 명시적으로 정리할 필요가 있다고 봤다. 이 대표는 “생체인식이 프라이버시를 침해했을 경우에는 위험성이 있다고 볼 수 있지만 자율주행에서 보행자를 보호하기 위해 해당 기술이 적용된 것은 다르게 봐야한다”며 “AI도 인간처럼 성장하기 때문에 단계별 상이한 규제 적용이 필요하다”고 설명했다.

박민철 김앤장 변호사는 해당 법안이 상대적으로 유연한 규제체계를 갖췄다고 평가하면서 “고위험 AI에 규제를 한정했다는 것은 의미가 있지만 사후적 규제 방향으로 가야한다”고 말했다.

이재형 과학기술정보통신부 인공지능기반정책과장은 “고위험 AI에 대해서는 대상이 되는 AI를 최대한 명확하게 규정하는 것이 바람직할 것”이라며 “명확한 판단 기준이 없다면 어떤 AI 제품이나 서비스가 고위험에 포함되는지 혼란이 있을 수 있다”고 평가했다.

이와 함께 고위험 AI 개발사업자나 이용사업자가 의무를 위반할 시 적용할 별도의 벌칙 조항이 필요하다고 봤다. 이 과장은 “다만 벌칙 규정이 없는 장점을 최대한 활용해 민관이 함께 세부적인 시행 방안을 점진적으로 구체화할 수 있다는 점에서는 긍정적”이라고 말했다.

/김혜경 기자(hkmind9000@inews24.com)







alert

댓글 쓰기 제목 "AI '고위험·일반' 구분하자"…자율규제 위한 '한걸음' [IT돋보기]

댓글-

첫 번째 댓글을 작성해 보세요.

로딩중
포토뉴스