[사진=로이터 연합뉴스] 최근 생성형 인공지능(AI)을 통한 고민상담, 일상대화 등 정서적 상호작용이 확대되면서, AI 캐릭터와 결혼까지 하는 사례가 발생했다. 더욱이 생성형 AI에 정서적으로 과도하게 의존하고, 심지어 생각과 감정은 물론 행동까지도 영향을 받아 생명을 잃는 사례도 나타났다. 이러한 문제가 확산하면서 AI 정신병에 대한 경각심이 높아지고 있는 추세다.
30일 국회입법조사처는 최근 생성형 AI 챗봇과 지속적으로 대화를 나눈 청소년이 극단적 선택을 한 사례들이 나타나고 있어 이미 생성형 AI로 인한 정서적 의존 위험성이 현실화되고 있다고 경고했다. 이에 생성형 AI와 적정한 거리두기를 위한 제도적 기반을 마련할 필요가 있다고 제시했다.
최근 AI에 대한 정서적 의존 사례가 늘고 있다. 일례로 2024년 2월 미국에서는 정서적으로 깊이 의지하던 AI 챗봇을 보러 가기 위해 14세 청소년이 극단적 선택을 했다. 지난 4월에도 16세 청소년이 AI 챗봇과 수개월간 개인적 고민과 자살 방법에 대해 대화를 나눈 끝에 자살한 사건이 보고됐다. 10월에는 일본에서 30대 여성이 파혼 후 AI 챗봇 연인과 결혼하며 현실의 인간관계를 생성형 AI와의 관계로 대체한 사례가 있었다.
이를 두고 최근 학계에선 'AI 정신병'이라고 지칭하고 있다. AI에 대한 과도한 몰입과 그로 인한 정신건강 문제가 발생하는 것을 의미한다.
문제는 생성형 AI의 정서적 반응은 인간에게 '관계'로 인식될 수 있지만, 그로 인해 발생하는 결과에 대한 책임은 제도적 공백 상태다. 생성형 AI와 관계에 과도하게 몰입하면서 자살·자해 등 위험한 대화가 발생하더라도 이를 체계적으로 감지하고 개입하기 위한 대응 체계가 미흡하다. 더욱이 AI 조언이 중대한 결과를 초래하더라도 책임을 명확히 추궁하기 어려운 구조적 한계가 존재한다.
특히 한국은 미국에 이어 챗GPT 이용량이 많다. 그럼에도 AI와 대화 과정에서 발생할 수 있는 정서적 의존 위험에 대한 제도적 대응은 미흡하다. 미국의 경우 일리노이주와 캘리포니아주 등에서 AI의 정서적 상호작용을 제한하거나, 자살·자해 대응 및 미성년자 보호를 위한 구체적인 제도적 방안을 도입하고 있다.
이에 반해 한국은 '인공지능 발전과 신뢰 기반 조성 등에 관한 기본법' 제31조에 따른 AI 기반 서비스 고지 의무에 그친다. AI와 상호작용으로 인한 정서적 의존 문제를 직접적으로 규율하는 제도적 장치는 부족한 것이다.
국회입법조사처 측은 "생성형 AI에 대한 정서적 의존을 개인의 선택에만 맡길 것이 아니라, 사회적으로 건전한 활용과 적정한 거리두기가 이루어질 수 있도록 제도적 보완이 필요하다"고 강조했다.
이어 "생성형 AI 사업자가 대화 형태 서비스를 제공할 경우 이용자가 대화 상대방이 생성형 AI임을 인식할 수 있도록 조치를 마련하고, 정신적 영향을 초래할 수 있는 대화에 대해서는 명확한 기준이 필요하다"면서 "AI기본법상 '영향받는 자'를 적극적으로 고려한 입법 보완을 통해 생성형 AI로 인한 정서적 의존에 대한 책임 귀속을 보다 명확히 할 필요가 있다"고 밝혔다.
박진영 기자 sunlight@ajunews.com