실시간 뉴스



AI, 편향 수렴·획일화→인류 지혜·적응력↓ [지금은 과학]


두 개의 관련 논문 12일 연속 발표돼, AI 단점 각각 지적

[아이뉴스24 정종오 기자] 인공지능(AI) 확산 시대에 AI의 단점과 맹점에 관한 논문이 잇따라 발표돼 눈길을 끈다. AI 만능시대로 표현되는 지금 무엇을 비판적으로 수용하고 어떻게 대응해야 하는지를 가늠케 한다.

AI 챗봇이 말하고, 쓰고, 생각하는 방식을 표준화하고 획일화하고 있다는 지적이 하나이다.

두 번째 논문은 ‘잘못된 정보’에 의한 것이라고 사전, 사후에 알려줬는데도 AI에 기대는 경향을 보였다는 게 요점이다. 인간이 아직 AI가 제공하는 콘텐츠를 충분히 비판적으로 내면화할 만큼 훈련돼 있지 않다는 것을 보여준다.

AI가 편향적이고 획일적 지식을 제공할 위험성이 크다는 지적이 나왔다. [사진=GEMINI]
AI가 편향적이고 획일적 지식을 제공할 위험성이 크다는 지적이 나왔다. [사진=GEMINI]

SNS 홍수 시대에 ‘가짜뉴스’ ‘카더라’ 뉴스가 판치는 상황에서 이젠 ‘AI가 그러던데’라는 문장까지 추가될 것으로 우려된다. 앞으로 AI로 빚어질 악영향이 적지 않을 것이란 경고음이다. 인류가 AI를 주체적으로 수용하고 비판적으로 받아들일 자세를 가져야 한다고 주문했다.

AI 챗봇, 말하고 쓰고 생각하는 방식 획일화

AI 챗봇이 사람들이 말하고, 쓰고, 생각하는 방식을 표준화하고 있다는 연구 결과가 나왔다. 획일화, 동질화되고 있다는 것이다. 다양성이 사라지고 있다는 지적이다.

‘Trends in Cognitive Sciences’에 발표된 관련 논문(논문명: The homogenizing effect of large language models on human expression and thought)은 획일화가 제어되지 않고 계속된다면 인류의 집단 지혜와 적응력이 떨어질 위험이 있다고 주장했다.

미국 연구팀은 대규모언어모델(LLM) 결과물이 인간이 작성한 글보다 다양성이 떨어지며 교육 수준이 높고 산업화된 서구의 부유한 민주 사회의 언어, 가치관, 사고방식을 반영하는 경향이 있다는 사실을 여러 연구 결과를 통해 제시했다.

연구팀은 개인이 LLM을 사용할 때 더 자세하고 풍부한 아이디어를 떠올리는 경우가 많다는 연구 결과도 있는데 집단이 LLM을 사용할 때는 단순히 구성원들의 힘을 합칠 때보다 아이디어의 수와 창의성이 떨어진다고 지적했다.

‘잘못된 정보’ 경고에도 AI 입장에 수렴

또 다른 논문은 편향된 AI 어시스턴트를 사용해 사회 문제에 대해 글을 쓸 경우, 사람들의 태도는 AI 입장에 수렴하는 경향을 보인다는 논문(논문명: Biased AI Writing Assistants Shift Users’ Attitudes on Societal Issues)이다. 12일 ‘사이언스 어드밴시스’에 발표됐다.

미국 코넬대 등 연구팀은 2582명의 사용자를 대상으로 실험했다. 중요한 사회적 문제에 대해 글을 쓰게 하면서 편향된 자동 완성 제안을 제공하는 AI 글쓰기 어시스턴트를 사용하게 했다.

그 뒤 연구팀은 완성된 글의 편향성을 평가하고, 참여자를 대상으로 설문조사를 벌여 AI의 편향성과 글쓴이 자신이 받은 영향을 측정했다.

그 결과 참가자들의 글이 편향된 AI의 입장에 수렴하는 경향을 보임을 확인했다. 참가자들은 AI의 편향성을 인지하지 못했고 자신이 영향을 받았다는 사실도 깨닫지 못했다.

사람들이 AI 도우미의 편향성에 대해 사전에 또는 사후에 경고받았음에도 불구하고, AI의 편향성을 피하는 데에 도움이 되지 못했다.

연구팀은 편향성에 대한 사전 경고나 사후 설명이 참가자들의 태도에 영향을 크게 미치지 않았다며 편향된 AI 제안이 사용자의 태도에 미치는 영향을 효과적으로 줄이는 방안을 연구해야 한다고 주장했다.

“AI와 놀고 생각하고 일하는 것, 어떻게 해야 할까”

박한우 영남대 교수(미디어커뮤니케이션학과·디지털융합비즈니스대학원·사이버감성연구소)는 “이 논문(사이언스 어드밴시스)’을 읽으면서 인간과 AI가 함께 놀이하고, 생각하고, 작업하는 ccPTW(collaborative creation for Playing, Thinking, & Working) 시대를 어떻게 이해해야 할지 다시 생각하게 됐다”며 “이 논문은 AI를 단순한 기능적 도구로만 보기 어렵다는 점을 분명하게 보여준다”고 평가했다.

박 교수는 ‘ccPTW’는 세 가지 유형의 AI를 포괄하는 개념이라고 설명했다. 첫째는 장난감처럼 상호작용하는 챗봇형 AI. 둘째는 의사소통과 전략적 의사결정을 수행하는 에이젠틱 AI(agentic AI). 셋째는 인간의 노동을 보조하거나 대체하는 피지컬(physical) AI 등이다.

최근 다양한 LLM 서비스가 등장하면서 수많은 메시지와 AI 도우미 기능이 제공되고 있다. 박 교수는 “그 결과, 정보의 홍수 속에 놓였다”며 “문제는 인간이 아직 AI가 제공하는 콘텐츠를 충분히 비판적으로 내면화할 만큼 훈련돼 있지 않다는 데 있다”고 지적했다.

인간 vs AI 상호작용(Human-AI Interaction)을 새로운 관점에서 보여주는 연구 결과로 해석했다.

박 교수는 “인간과 AI가 대등한 관계에 있다는 낙관적 가정에 의문을 제기한다”며 “오히려 인간이 AI의 영향을 받는 수동적 존재가 될 수 있음을 보여준다”고 진단했다.

AI 에이전트가 단순히 정보를 전달하는 도구가 아니라 인간의 인지와 판단에 직접적 영향을 미칠 수 있다고 분석했다.

실험에서 참가자들에게 디벙킹(debunking, 정체를 밝혀내 허구임을 드러내는 것) 개입을 제공했음에도 참가자들은 여전히 AI 에이전트가 제시한 편향적 메시지의 영향을 받았다는 것은 눈여겨볼 점이라는 것이다.

디벙킹(debunking, 사후처방)은 일종의 사후적 전략이다. 이미 제시된 정보가 잘못됐음을 팩트 체크나 설명을 통해 바로잡는 방식이다. 잘못된 정보가 노출된 이후에 그것을 교정하려는 접근이다.

박 교수는 이런 점을 지적하면서 “이번 논문은 중요한 함의를 제공하고 있는데 AI가 제공한 정보에 대해 사후 설명이나 사후 경고만으로는 기대만큼 영향력을 줄이기 어렵다는 점을 보여준다”고 말했다.

그는 “정부가 AI 서비스 제공자에게 보다 적극적 개입을 요구할 필요가 있다고 본다”며 “단순한 면책 고지나 짧은 경고 문구만으로는 충분하지 않다”고 강조했다.

최기영 전 서울대 전기정보공학부 교수는 “인공지능이 영향을 준다는 사실을 인지하지 못하고, 심지어 영향을 줄 수 있다는 경고를 해도 효과가 별로 없다는 실험 결과는 인공지능 사용에 대해 더욱 큰 경각심을 갖게 한다”며 “인공지능이 학습에 사용하는 데이터에 편향이 있으면 그런 인공지능을 활용하는 사용자를 통해서 그 편향이 사회에 더욱 광범위하게 확산될 가능성과 우려를 생각해 보게 한다”고 말했다.

LLM, WEIRD(Western, Educated, Industrialized, Rich, Democratic) 특성 반영

박 교수는 “AI에 입력되는 데이터의 편향성은 알고리즘 학습 과정에 그대로 반영된다”며 “텍스트 기반 LLM에서는 이러한 편향성이 언어 문체, 관점 선택, 추론 방식에서 나타난다”고 설명했다.

‘Trends in Cognitive Sciences’에 발표된 논문은 챗GPT나 제미나이와 같은 LLM 서비스가 파운데이션 모델 단계에서 국가별·문화권별 언어 데이터베이스를 별도로 구축하지 않는 것과 무관하지 않다. 특정 국가나 문화권의 언어 관점이나 추론 방식을 직접적으로 반영하기 쉽지 않다는 것이다.

챗GPT가 대중화된 이후 AI 알고리즘의 편향성과 다양성 문제에 대한 연구는 꾸준히 증가하고 있다. 이번 연구에서는 미국 실리콘밸리 지역의 주요 대학 연구자들이 AI 알고리즘 설계 과정에서 소수자 집단의 목소리가 어떻게 배제되는지를 체계적으로 검토했다는 점에서 눈길을 끈다.

LLM이 관점 형성 과정에서 WEIRD 사회(Western, Educated, Industrialized, Rich, Democratic)의 특성을 반영하는 경향이 있다는 점을 다시 한번 강조됐다. 서구적이고 교육 수준이 높고, 산업화되고, 부자와 민주주의적 특성을 반영한다는 것이다.

박 교수는 “이번 연구는 한국의 소버린 AI 정책에도 중요한 시사점을 제공한다”며 “소버린 AI는 특정 지역이 아니라 국가 전체를 대표하는 알고리즘으로 설계돼야 하는데 현실에서는 서울 지역 중산층 이상이 사용하는 언어가 사실상 표준어로 기능한다”고 지적했다.

소버린 AI가 서울 시민만의 AI가 돼서는 안된다는 것이다. 박 교수는 “지역 주민의 언어, 문화, 생활 경험과 상호작용해야 하고 지금 추진되는 소버린 LLM이 서울 시민의 추론 방식만을 반영한다면 그것은 서울 시민에게도 바람직하지 않다”며 “편향성과 다양성 문제는 한국의 소버린 AI 설계 과정에서도 더욱 적극적으로 고려돼야 한다”고 덧붙였다.

/정종오 기자(ikokid@inews24.com)




주요뉴스



alert

댓글 쓰기 제목 AI, 편향 수렴·획일화→인류 지혜·적응력↓ [지금은 과학]

댓글-

첫 번째 댓글을 작성해 보세요.

로딩중

뉴스톡톡 인기 댓글을 확인해보세요.



포토뉴스