본문바로가기

해당 기사는 최근 급속도로 성장하고 있는 AI 동반자(AI Companion) 시장과 관련해 정서적 의존, 개인정보 유출 등 사회적 문제의 심각성을 다루고 있습니다. AI 동반자란 사용자와 정서적·사회적 관계를 지속적으로 맺으며 대화를 나누는 인공지능 기술로, 특히 청소년과 1인 가구를 중심으로 빠르게 확산되고 있습니다.

 

이번 기사에서는 AI 동반자 사용이 인간의 정신 건강과 사회적 고립 문제에 어떠한 영향을 미치고 있는지, 그리고 AI에 대한 과도한 신뢰가 가져오는 사고·범죄·정보 유출 등의 사례들이 소개됐습니다.

 

특히 미국, 벨기에 등 해외에서는 AI와 감정적으로 교류하던 사용자들이 극단적 선택을 한 사건이 보도되었고, 국내에서는 AI 챗봇 이루다의 개인정보 유출 사건이 실제 법적 책임으로 이어졌습니다.

 

이에 법무법인 민후 양진영 변호사는 “AI가 인간과 정서적 상호작용을 하는 과정에서 생기는 문제의 핵심은, AI가 사용자의 긍정 피드백만을 학습 데이터로 반영한다는 점이라고 지적하며, “이로 인해 AI는 사용자의 생각을 더욱 편향되게 만들고, 마치 완벽한 공감자인 것처럼 오인하게 된다.”고 강조했습니다.

 

또한 이러한 상황은 인간관계의 단절과 의사소통 능력 저하, 결국 사회적 고립으로 이어질 수 있다, “소셜미디어가 10대의 디지털 헤로인이었다면, 규제되지 않은 AI10대의 펜타닐이라는 경고성 비유를 덧붙이며 우려를 표했습니다.

 

마지막으로 양진영 변호사는 “AI 챗봇은 인간보다 오히려 더 쉽게 개인적인 이야기나 감정적인 대화를 유도하고, 많은 사용자가 생각보다 민감한 개인정보를 무의식적으로 입력하고 있다, 이 같은 위험성에 대해 지적하고 관련 법제도 개선 및 사용자 주의의 필요성을 강조하며 발표를 마쳤습니다.

 

기사 전문은 우측 상단의 [기사바로보기]를 통해 확인하실 수 있습니다.