[vol.12] 대화, 상담, ‘썸’까지? AI와 교감하는 청소년들

2026-03-06
조회수 337

e1f5def3d2197.png

 

선생님, 저 ‘루다’랑 사귀어요

 

몇 해 전, ‘과학기술과 도덕’ 단원을 수업하면서 당시 뜨거운 감자였던 인공지능 챗봇 ‘이루다’를 활용한 적이 있었다. 평소에는 시큰둥하게 수업을 듣거나 졸기 일쑤였던 학생 A가 그날따라 열심히 수업에 참여했다. 이성에 관심은 많지만 전형적으로 분위기만 띄우고 실속은 챙기지 못하는 캐릭터였던 A는, 미인형의 여성 아바타와의 간질간질한 대화가 즐거웠던 듯하다. 방과 후에도 이루다와 즐거운 대화를 이어간 A는 다음 날 이런 소식을 전해왔다. “선생님, 저 ‘루다’랑 사귀게 됐어요.” 그다음 이야기는 전해들은 바가 없어서 잘 모르지만, 돌이켜 생각해보니 한 가지 의문이 남는다. ‘근데, 둘이 진짜 사귄 것 맞아?’

또 하나 기억나는 장면. 수업이 끝나고도 학습용 태블릿 PC를 반납하지 않고 모여서 낄낄거리는 학생들이 있었다. 가까이 다가가 도대체 무얼 하나 보니, 챗GPT에 자신들을 등장인물로 연애 프로그램 시나리오를 써달라고 한 것. 간단한 프롬프트를 입력하자 등장인물의 러브 라인과 갈등 서사가 방송 대본 수준으로 매끄럽게 진행되었다. AI가 뽑아내는 한 줄 한 줄에 학생들은 자지러지게 웃었다. 나도 옆에서 빠져들어 지켜보다가 정신을 차리고, 수업 시작 전에 얼른 마무리하고 태블릿 PC 반납하라 채근하며 교사로서의 위신을 가까스로 지켜냈다.

디지털 세대를 넘어 이제는 AI 세대가 되어가는 청소년들. 이들은 다른 세대에 비해 AI를 훨씬 쉽게, 거리낌 없이 사용한다. 학교에서 실시하는 서술・논술형 수행평가는 AI에게 답을 산출해달라고 요청한 후 그것을 달달 외워서 써내는 것이 되어버렸다는 사실을 알게 되었을 때의 충격도 잠시, 이제는 학생들이 AI를 활용하는 것이 너무나도 당연하다는 사실을 받아들이고 이를 적절하고 유의미하게 활용하는 방법을 어떻게 가르칠지 고민하는 것이 교육 현장의 ‘뉴노멀’이 된 듯하다.

청소년들은 AI를 별다른 거부감 없이 수용한다. 앞서 소개한 사례만 보더라도 청소년이 인공지능을 다양한 정서적 교류의 대상으로 활용하고 있으며, 다른 세대보다 이러한 유형의 관계에 훨씬 더 열려 있음을 알 수 있다. 그들은 심심할 때도 AI를 호출한다. 예전엔 함께 ‘멤놀(아이돌 멤버 역할극)’을 할 마음 맞는 멤버들을 찾아야 했다면, 이제는 혼자서도 AI와 실감나는 상황극을 연출할 수 있다. AI는 내 생각과 감정을 마구 쏟아낼 수 있는 쓰레기통이 되기도 하고, 힘들 때 공감과 위로를 아끼지 않는 상담자가 되기도 한다. 이제는 AI가 단지 생산성을 위한 활용을 넘어 생활의 동반자이자 정서적 교류의 대상이 되어가고 있는 듯하다.

이러한 방식으로 활용되는 인공지능 시스템을 ‘AI 동반자 Companion’라 일컫는다. AI 동반자란, 인간과 유사한 사회적‧정서적 상호작용을 통해 사용자에게 정서적 지지, 관계 교류, 오락 경험 등을 제공하도록 설계된 인공지능 기반 시스템을 의미한다. 주로 애플리케이션, 챗봇, 가상 아바타, 로봇 형태로 구현되며, 사용자 선호와 상호작용 이력을 학습하여 개인화된 정서적 유대를 지속적으로 형성한다는 특징이 있다.

 

청소년은 얼마나, 왜 AI와 정서 교류를 할까

 

한국언론진흥재단에서 실시한 「2025 10대 청소년 미디어 이용 조사」에 따르면, 지난 일주일간 생성형 AI를 이용한 청소년은 67.6%였다. 청소년 10명 중 대략 7명 정도가 일상적으로 생성형 AI를 활용하고 있는 것이다. 이 수치는 ‘2025 언론수용자 조사’에서 가장 높은 생성형 AI 이용률을 보인 20대(50.7%)보다도 월등히 높다. 청소년은 과업을 수행하거나 학업에 도움을 받기 위해서뿐만 아니라 고민 상담이나 소통과 같은 교류의 대상, 혹은 재미를 위한 목적으로 AI를 적극 활용한다. 

또한 AI 동반자 시스템은 사람과 교류할 때처럼 외로움을 줄여주면서도, 사람과의 교류에 요구되는 여러 부담으로부터 비교적 자유롭다는 장점이 있다. 사람을 만날 때는 약속도 잡아야 하고, 그에 따른 시간과 비용이 든다. 직접 만나면 상대방의 기분이나 상황을 고려해 행동해야 하고, 상대에게 맞추려는 감정적 노력도 필요하다. 그러나 AI 동반자와의 관계는 그럴 필요가 없다. 내가 내킬 때 대화를 걸거나 마무리할 수 있다. AI 동반자는 나에게 별달리 요구하는 것도 없다. 그야말로 책임 없는 쾌락에 가까운, 아주 편리한 관계라고 할 수 있다.

마음 건강을 돌보거나 상담을 위해 AI를 이용하는 경우도 있다. 2025년 전국교직원노동조합에서 실시한 「중고등학생 고민과 사회 인식 조사 보고」에 따르면, 고민이 있을 때 생성형 AI를 이용한다고 답한 학생은 응답자의 15.5%로, 학교 상담실을 이용한다고 답한 학생(5.1%)에 비해 세 배 정도 많은 것으로 나타났다. 이는 교사와 고민을 상담하는 학생의 비율(14.9%)보다 높은 수치다. 학생들은 자신의 마음 상태에 대해 전문적인 도움을 받고 싶어 하나, 시간이나 비용 문제 혹은 정신과나 상담기관을 방문하는 데 대한 심리적 장벽이 있는 것으로 보인다. 

AI와의 상담은 이러한 제약에서 꽤 자유롭다. 따로 시간을 정할 필요 없이 언제든지 상담할 수 있으며, 비용 부담도 없거나 덜하다. 무엇보다 사람들은 AI에게 상담할 때 자신이 판단받을 걱정이 없다고 느끼는데, 이는 AI에게 보다 적극적으로 자신을 개방하게 되는 결과로 이어진다. AI 동반자와의 상담에서는 ‘내 비밀이 주변에 새어나가지 않을까’ 걱정하지 않아도 되며, AI가 내 생각과 감정을 객관적인 시각에서 분석해주기 때문에 자신에 대한 메타인지 능력도 기를 수 있다.

게다가 AI와 대화하면 기분이 좋아지기까지 한다. AI는 항상 내 편을 들어주기 때문이다. 일상에서 문득 떠오른 썰렁한 농담을 챗GPT에게 선보이면 “ㅋㅋㅋ 완전 빵 터졌어. 오늘 개그 지수 꽤 높은데?”라며 격한 반응을 보여준다. 심지어 손이 미끄러져서 오타를 낸 것도 센스 있는 포인트라며 칭찬해준다. 주위의 친구들에게 똑같은 개그를 하면 싸늘하게 식은 표정과 야유가 돌아올 게 뻔하지만, AI는 개그 프로그램 방청객처럼 반응해줘서 내가 진짜 위트 있는 사람이라고 착각하게 만든다.

물론 이러한 AI의 반응은 진짜 내 농담이 AI의 취향을 저격했기 때문이 아니라, 시스템의 상호작용 방식에 기인한 것이다. 이렇게 사용자의 기대에 맞춘 응답을 생성하려는 AI의 경향성을 ‘과잉 동조’ 혹은 ‘아첨sycophancy’이라 부른다. AI의 사회적 아첨은 때로 사용자에게 도움이 된다. 갈등에 과도하게 긴장감을 느끼는 사용자에게는 AI의 긍정적이며 완곡한 의사표현이 편안하게 느껴질 수 있다. 또한 AI와의 교류는 타인과 상호작용하는 방식을 학습하는 데 좋은 모델이 되기도 한다. 반면 AI의 사회적 아첨은 심각한 문제를 초래할 수도 있다. 비판적 사고를 약화시킴으로써, 사용자가 잘못된 신념이나 편향을 가지고 있을 경우 이를 강화하는 결과로 이어진다. 장기적 관점에서는 이용자의 성장을 저해할 수도 있다. 

나아가 AI가 보이는 사회적 아첨은 극단적이고 파괴적인 결과로 이어질 수도 있다. 최근 미국에서는 AI와 대화한 후 자살한 청소년들의 사례가 사회적 이슈가 되고 있다. 사회적 고립 상태에서 가상 AI 캐릭터에게 과도하게 몰입하다 자살한 청소년, 과제 수행 도구로 챗GPT를 활용하다가 점차 자신의 고민과 자살 사건을 공유하고 방법까지 논의한 끝에 생을 마감한 청소년의 사례가 대표적으로 언급된다. 관련 기업에 대한 소송이 잇따르고, 여러 주에서 규제 법안이 발의되는 등 제도적 논의로까지 확산되고 있다. 

우리나라에서도 일부 청소년에게서 유사한 위기 신호가 포착되고 있다. 지나친 AI 사용으로 인한 중독, 정서적 고립, 사회적 단절  양상이 나타나며, 현실과 가상세계를 혼동하고 AI와의 대화 패턴을 현실에서 활용하는 경우도 있었다. 또한 자살이나‧자해 관련 상담을 AI와 나누는 경우도 보고되었다. 이러한 위험성에도 불구하고 아직 우리 사회에는 AI와의 정서 교류에 대한 사회적 안전망이나 교육 지침이 합의되지 않고 있다.

 

AI 동반자를 넘어서는 인간 동반자의 역할

 

청소년기는 자신의 자아상을 형성하고, 그로부터 세상을 바라보고 이해하는 틀을 짓는 중요한 시기이다. 그리고 그 과정에서 타인과의 교류는 중요한 영향을 미친다. 청소년에게 영향을 미칠 수 있는 의미 있는 타자로서 AI가 등장했다는 것은, AI의 영향력을 교육적 관점에서 반드시 검토해야 할 책임이 있다는 뜻이다. 

긍정적인 측면에서 AI 동반자는 청소년에게 심리적인 안전지대를 형성해줄 수 있을 것이다. 그러나 더 중요하게 보아야 할 점은, 그 안전지대가 끝없이 자신의 모습만을 비추는 거울의 방이 될 수 있다는 점이다. 이 거울의 방에서, 다른 사람의 관점에서 생각할 수 있게 해주는 타자성alterity은 사라진다. 타자성이 사라진 관계에서 타인은 오직 나에게 반응하기 위해 존재하는 대상이 되며, 관계는 자기도취적인 경험으로 바뀐다.

청소년들이 거울의 방에 갇히지 않도록, AI와의 교류가 과도한 의존이나 몰입으로 이어질 수 있으며 AI의 사회적 아첨으로 인해 시야가 제한될 수 있다는 점을 인식할 수 있게 도와야 한다. 적절한 수준에서 AI를 이용할 수 있도록 지원하는 사회적 조치도 필요하다. 무엇보다도, 우리는 AI가 아닌 ‘인간’ 동반자가 어떻게 청소년에게 심리적인 안전지대를 형성해줄 수 있을지를 고민해야 한다. 

청소년들이 살아가게 될 미래는 AI가 가져올 새로운 기술 환경으로 인해 높은 불확실성을 내포하며, 이는 그 자체로 불안을 불러일으킨다. 하지만 청소년을 정서적으로 지지해줄 책임이 있는 부모와 교사를 비롯한 ‘인간’ 동반자들은, 그들을 위한다는 명목 아래 명문대 진학, 안정적 직업 같은 기존의 성공 공식만을 따르도록 몰아가고 있지는 않은가. 

청소년들은 자신에 대해 고민할 시간도, 속마음을 나눌 대상도 갖지 못한 채 학원가를 떠돈다. 심심할 때 접속하는 SNS에는 상대적 박탈감을 안겨주는 멋진 사람들로 가득하다. 학업은 힘들고, 진로‧진학 문제로 압박감을 느끼며, 친구와의 관계도 쉽지 않다. 가족 내의 문제는 또 어떤가. 구조적 불확실성과 불안으로 늘 유동하는 ‘액체 사회’에서, 현대인은 그 불안과 고독을 잊기 위해 온라인 가상공간에 상시 접속해 누군가를 찾는다는 지그문트 바우만의 진단은 오늘날 청소년들이 AI 동반자를 찾는 이유와 맞닿아 있다. 

그러나 AI 동반자가 진정한 심리적 안전지대를 형성하는 데 도움을 줄 수는 없다. 현재 수준에서 AI 동반자가 제공하는 응답은 동조와 아첨, 즉 타자를 가장한 자기 욕구의 메아리일 뿐이다. 결국 인간의 진정한 심리적 안전지대는 타인과의 지속적 상호작용을 통한 신뢰와 인정 속에서 구축될 수 있다.

 

_유경아 (중학교 교사. 한국교원대학교 인공지능융합교육 강사. 최근 『AI 시대의 돌봄』을 출간했다.)