실시간 뉴스



"AI 개인정보 규율, 모델 학습에만 집중...서비스 운영은 '사각지대'"


김병필 KAIST 교수 "에이전트AI 환경, 정보 활용 흐름 사전 통제 점점 어려워져"
국내 기업 55.7% "AI 프라이버시 문제 이미 직면"...전문 인력·예산 부족 애로
정부, 'AI프라이버시 민·관협의회' 전면 개편...37명 참여 3개 분과로 전방위 지원

[아이뉴스24 윤소진 기자] 에이전트 AI와 피지컬 AI 확산으로 개인정보 처리가 서비스 운영 전 과정으로 확대되고 있지만 관련 규율은 여전히 모델 학습 단계에 머물러 있어 제도 개선과 가이드라인이 시급하다는 진단이 나왔다.

김병필 KAIST 교수(AI 민관 정책협의회 데이터처리기준 분과장)이 2일 서울 중구 은행회관 국제회의실에서 열린 ‘2026 인공지능(AI) 프라이버시 민·관 정책협의회’ 제1회 전체회의에서 기조 발제를 하고 있다. [사진=윤소진 기자]
김병필 KAIST 교수(AI 민관 정책협의회 데이터처리기준 분과장)이 2일 서울 중구 은행회관 국제회의실에서 열린 ‘2026 인공지능(AI) 프라이버시 민·관 정책협의회’ 제1회 전체회의에서 기조 발제를 하고 있다. [사진=윤소진 기자]

김병필 KAIST 교수는 2일 서울 중구 은행회관 국제회의실에서 열린 ‘2026 인공지능(AI) 프라이버시 민·관 정책협의회’ 제1회 전체회의에서 “AI 에이전트는 학습된 개인정보를 재현하는 데 그치지 않고, 웹 검색이나 기업 내부 데이터베이스 등 외부·내부 도구를 활용해 개인정보를 실시간으로 수집조합한다"며 "이 과정에서 기존 개인정보 처리의 적법성 근거가 에이전트 환경에서도 그대로 적용될 수 있는지에 대한 의문이 제기된다"고 말했다.

김 교수는 "에이전트AI를 활용해 반복적인 검색과 정보 축적을 한다면 누구나 특정인의 온라인 신상 털기가 가능해진 상황"이라며 "기업 내부 데이터를 연계하는 과정에서도 접근 권한과 통제가 제대로 작동하는지에 대한 관리 공백이 적지 않다"고 지적했다.

특히 개인정보가 수집·추론·결정·실행 단계로 연속 처리되는 에이전트 AI 환경에서는 정보 활용 흐름을 사전에 통제하기가 점점 어려워지는 문제도 제기됐다.

김 교수는 “지금까지는 학습 데이터 내 개인정보 암기 위험을 중심으로 개인정보 침해 위험을 평가해 왔지만, 에이전트 환경에서는 도구 활용, 기억, 다중 에이전트 간 정보 교환이라는 새로운 과제가 등장하고 있다”며 “이러한 변화에 맞춰 개인정보보호법 체계 안에서 보다 구체적인 기준과 안내가 마련돼야 한다”고 언급했다.

이날 회의에서는 한국정보통신기술협회(TTA)가 수행한 국내 공공·민간 AI 기술 도입·활용 현황 조사 결과도 공유됐다. 조사 결과에 따르면 국내 AI 활용은 아직 일부 업무에 제한적으로 적용되는 초기·과도기 단계에 머물러 있으며, 개인정보 안전조치 적용과 관련한 현장의 불확실성이 여전히 크다는 점이 주요 시사점으로 제시됐다.

107개 기업·기관(대기업 22개, 중소기업 79개, 공공기관 6개)을 대상으로 AI 도입·활용 방식을 조사한 결과(복수응답), 68.2%가 외부 AI 서비스 API를 이용하고 있었으며, 40.2%는 오픈소스 모델, 29.9%는 자체 개발 모델을 활용하고 있는 것으로 나타났다.

개인정보 강화기술 도입이 필요하다고 응답한 비율은 35.5%였지만, 실제 적용 사례는 1곳에 불과했다. 특히 기술적 이해부족(23.7%)과 기술자원 부족(27.1%)가 가장 큰 장애물로 꼽혔다.

조사 대상 기업의 55.7%는 AI 프라이버시가 이미 직면한 문제라고 인식하고 있었지만, 47.4%는 전문 인력과 예산 부족으로 고급 안전조치 적용에 어려움을 겪고 있는 것으로 조사됐다.

민·관 협업으로 에이전트·피지컬AI 등 신기술 대응 강화

김병필 KAIST 교수(AI 민관 정책협의회 데이터처리기준 분과장)이 2일 서울 중구 은행회관 국제회의실에서 열린 ‘2026 인공지능(AI) 프라이버시 민·관 정책협의회’ 제1회 전체회의에서 기조 발제를 하고 있다. [사진=윤소진 기자]
개인정보보호위원회는 2일 서울 중구 은행회관 국제회의실에서 열린 ‘2026 인공지능(AI) 프라이버시 민·관 정책협의회’ 제1회 전체회의를 개최했다. 사진은 권창환 AI프라이버시 민관 정책협의 민간 공동의장(왼쪽)과 송경희 개인정보위원장. [사진=윤소진 기자]

이 같은 문제의식을 바탕으로 개인정보위는 지난 2023년 10월 설립한 AI프라이버시 민관 정책협의회를 전면 개편하고 대규모 데이터 수집과 학습 중심 논의에서 ‘서비스 흐름’에서의 ‘복합적 리스크’로 정책의 무게 중심을 전환하기로 했다.

협의회는 △데이터 처리기준 △리스크 관리 △정보주체 권리 등 3개 분과로 운영된다. 산업계·학계·법조계·시민단체 등 총 37명이 참여하며 정부 측 의장은 개인정보보호위원장이, 민간 측 공동의장은 권창환 부산회생법원 부장판사가 맡았다. 각 분과에는 카카오, KT, LG AI 연구원, 현대자동차, 구글코리아, MS를 비롯해 NC AI, 스캐터랩, 셀렉트스타, 코난테크놀로지 등 국내외 AI 관련 기업들이 대거 참여한다.

개인정보위는 협의회를 통해 AI 서비스 기획·운영 단계에서 발생할 수 있는 개인정보 리스크를 사전에 진단하고, 현장에서 적용 가능한 기준과 가이드라인을 마련한다는 방침이다.

권창환 AI프라이버시 민관 정책협의 민간 공동의장(부산회생법원 판사)은 "이제는 규범과 기술을 분리해 논의하기보다, 서비스 현장에서 실제로 작동하는 원칙과 기준을 마련해야 할 시점”이라며 “국민의 개인정보와 권익을 보호하는 동시에 산업 현장이 과도한 불확실성 속에서 위축되지 않도록 예측 가능한 정책 환경을 조성하는 것이 중요하다”고 했다.

송경희 개인정보위원장은 "에이전트·피지컬 AI 환경에서는 개인정보가 연속적으로 활용되는 만큼, 사전 예방적 기준과 기술적 가드레일을 선제적으로 마련하는 것이 중요하다"며 "협의회는 앞으로 정부와 기업이 함께 위험 요인을 식별하고, 서비스 현장에서 작동하는 기술적 가드레일을 공동으로 설계하는 정책 플랫폼 역할을 해 나갈 계획"이라고 밝혔다. 이어 "단순한 자문기구를 넘어, 설계 단계부터 프라이버시 보호가 내재화되도록 기업의 자발적 참여와 실천을 이끌겠다"고 말했다.

김병필 KAIST 교수(AI 민관 정책협의회 데이터처리기준 분과장)이 2일 서울 중구 은행회관 국제회의실에서 열린 ‘2026 인공지능(AI) 프라이버시 민·관 정책협의회’ 제1회 전체회의에서 기조 발제를 하고 있다. [사진=윤소진 기자]
2일 서울 중구 은행회관 국제회의실에서 열린 ‘2026 인공지능(AI) 프라이버시 민·관 정책협의회’ 제1회 전체회의 현장. [사진=윤소진 기자]
/윤소진 기자(sojin@inews24.com)




주요뉴스



alert

댓글 쓰기 제목 "AI 개인정보 규율, 모델 학습에만 집중...서비스 운영은 '사각지대'"

댓글-

첫 번째 댓글을 작성해 보세요.

로딩중

뉴스톡톡 인기 댓글을 확인해보세요.



포토뉴스