[IT돋보기] "AI, 인간 대신하기엔 시기상조"…알고리즘 고도화 힘 쏟아야


'설명가능 인공지능' 도입 추세…국내 한계 고려한 '차세대 AI기술' 전략

[아이뉴스24 박진영 기자] "인공지능(AI)의 궁극적인 롤모델은 인간의 지능이고, AI의 발달로 가장 큰 혜택을 누리는 것도 인간이다. AI 연구·개발을 할 때, 사람의 멘탈 모델을 참고하는 등 인간 중심적인 접근이 필요하다"

국내외 인공지능(AI) 전문가들이 21일 열린 정보통신기획평가원(IITP)의 '글로벌 인공지능 포럼' 패널 토의 세션에서 토론하고 있다. [사진=온라인 포럼 캡처]

인공지능(AI) 전문가 논의가 이어진 21일 열린 정보통신기획평가원(IITP)의 '글로벌 인공지능 포럼'에서 화두로 제시된 발언이다.

패널 토의 세션에 참여한 장형진 교수(영국 버밍엄 대학)는 "AI 성능이 빠르게 발달하고 있는데, 대부분 AI 계산 모델에 집중하고 있지만, 개발 과정에서 인적요소를 항상 고려해야 한다"면서, "거대 IT기업에서 AI성능을 개선하고 상업화하는 과정에서 인간을 간과하기 쉽지만, 데이터 라벨링과 같은 단순한 업무만이 아니라 책임성 있는 AI개발 과정에 인간이 직접 개입할 필요가 있다"고 밝혔다.

이날 포럼에서는 현재 인공지능의 기술적 한계와 국내에서 설명가능 인공지능 개발 현황 및 차세대 AI기술 전략 등에 대한 논의가 이어졌다.

◆ "AI가 인간을 대체한다는 우려 '시기상조'…협소한 영역서만 뛰어나"

전문가들은 AI가 인간의 일자리를 대체하거나, 인간보다 지능이 뛰어나 위협적일 수 있다는 일부의 우려에 대해 아직은 걱정할 때가 아니라는 입장에 입을 모았다.

패널 토의 세션에서 수바라오 캄밤파티 교수(미국 애리조나 주립 대학)는 "AI가 언어습득과 같은 협소한 능력에서는 사람보다 훨씬 뛰어날 수 있으나, 전반적인 영역에서는 인간의 영역을 뛰어넘을 수 없다"면서, "AI의 도덕, 윤리적 판단에서 오류가 발생하는 경우가 많은데, 현재 AI 기술은 한정적 영역을 벗어났을 때 어떤 결과를 내는 지 확신할 수 없는 수준"이라고 밝혔다.

레슬리 P. 캘블링 교수(미국 매사추세츠 공과대학교)도 "강한 AI를 판단하는 기준은 의식의 유무라고 할 수 있는데, 현재의 기술은 갈길이 멀다"면서, "AI가 스스로 의식하고 판단할 수 있는 정도는 아니기 때문에 (AI가 인간을 위협할 것이라고) 걱정할 단계는 아니다"고 말했다.

최재식 교수(한국과학기술원)가 21일 열린 정보통신기획평가원(IITP)의 '글로벌 인공지능 포럼'에서 '최근 한국의 설명가능 인공지능의 발전 동향' 주제로 발표하고 있다. [사진=온라인 포럼 캡처]

◆ 국내 금융·제조·의료, '설명가능 인공지능' 도입

이같은 기술적 한계로 인해 '설명가능 인공지능' 기술 개발에 대한 관심이 높아지고 있다.

특히, AI기술이 인간의 생명 등 중대한 상황에 영향을 끼치는 '미션 크리티컬'한 시스템에 적용될 경우 AI가 어떤 알고리즘으로 이러한 의사결정을 했는지 인간에게 설명할 수 있도록 설계돼야 한다는 것이다.

최재식 교수(한국과학기술원)는 "AI의 딥러닝 입력과 내부를 설명하는 것이 중요한데, 어떤 모델이 이런 출력(결과값)에 기여했는지 등을 알아내는 기술을 개발하고 있다"면서, "특히, 딥러닝을 상용화할 때 모델을 압축하는 과정에서 AI의 설명성이 깨지기 쉬운데, 압축경량화 과정에서도 설명성을 보장할 수 있는 원천기술을 확보했다"고 설명했다.

현재 국내 의료, 금융, 제조 등을 중심으로 설명가능 인공지능을 개발, 실제 산업에 적용하고 있다.

의료부문에서는 세브란스병원, 분당서울대학교병원 등에서 중환자의 상태를 설명하는 기술을 개발하고 있다. AI가 환자 상태의 위험도를 예측하고, 왜 그렇게 예측했는지 설명하도록 설계된다. 포스코, 삼성전자 등은 제조공정의 상태를, 신한·하나·IBK기업은행 등 금융권에서는 고객 신용평가 모델의 이유를 설명하도록 AI기술을 개발하고 있다.

최 교수는 "수천만개 이상의 뉴런이 있지만, 딥러닝 과정을 설명 가능하다고 믿고 연구를 진행하고 있다"면서, "다만, 인공지능의 설명가능성과 성능의 상관관계 등 기술적으로 아직 남아있는 문제가 많다"고 전했다.

한편, 국가 차원에서 설명가능 인공지능의 국제표준을 제안하는 작업반을 구성하고, 올해부터 3년간 관련 기반을 닦을 수 있는 연구개발을 진행한다.

◆ "국내 AI개발 선진국에 비해 뒤쳐져…알고리즘 고도화에 초점"

유럽, 미국 등 선진국에서 국가적으로 인공지능 전략을 세우고 있다. AI가 국가 경쟁력을 좌우할 정도로 강력한 기술이 될 수 있다는 의미다. 이 가운데 국내에서도 지난 2019년 인공지능 국가전략을 수립하고, 차세대 AI 원천기술 개발을 진행하고 있다.

국가별로 산업의 강점을 살려 AI기술을 개발하고 있다. 전 세계를 리딩하는 미국과 중국은 군의 요소를 활용해 기술개발 생태계를 넓히고 있으며, 일본은 로봇과 지능을 결합한 기술에 집중하고 있다.

이현규 정보통신기획평가원 인공지능사업단장(PM)은 "국내는 AI기술 개발에서 뒤쳐지고 있는 상황"이라면서, "공공에서는 민간 AI산업을 최대한 활성화시키려고 하지만, 민간에서 AI 활용도는 (외국에 비해) 떨어지는 편"이라고 말했다.

또한 양질의 학습 데이터량이 AI의 성능과 비례할 수밖에 없는데, 국내 데이터량은 한정적이다. 때문에 국내에서는 같은 형태의 학습 데이터라도 더 좋은 결과를 낼 수 있도록 성능이 높은 알고리즘을 개발하는 것이 중요하다는 의견이 나왔다.

이현규 PM은 "한정된 학습된 데이터를 가지고도 적용 범위를 넓혀 추가적인 학습을 최소화하거나, 과거의 지식과 새로 발견되는 지식을 결합해 계속해서 진화할 수 있도록 알고리즘을 설계하고 있다"면서, "또 신뢰할 수 있는 AI, 인간과 소통할 수 있는 AI 등이 차세대 AI기술 개발의 과제"라고 전했다.

/박진영 기자(sunlight@inews24.com)







포토뉴스