AI 멘탈케어, 진짜 상담이 될 수 있을까? 감정을 돌보는 AI 시장의 모든 것
Elice
2025. 5. 21.
📍AI 챗봇으로 마음을 다스리는 시대. 멘탈케어 시장의 트렌드, 효과, 위험성까지 한 번에 정리해 드립니다.
상담실이 아닌 ‘스마트폰 속’의 상담사
지금까지 우리는 누군게에게 마음을 털어놓고 싶을 때 상담실 문을 두드리거나 가까운 지인에게 말을 걸고 했습니다. 차분한 분위기의 공간에서 타인과 마주 앉아 조심스럽게 감정을 풀어내는 방식이 익숙했죠. 하지만 요즘은 조금 다릅니다. 내 손 안의 스마트폰 속 AI 상담사가 새로운 멘탈케어의 방식으로 떠오르고 있습니다.
스트레스를 받을 때마다 AI와 대화하며 가족에게도 하지 못한 이야기를 마음 편히 털어놓는 사람들. ChatGPT를 사용하면 회당 10만 원이 넘는 상담에 비해 비용이 상대적으로 적게 들 뿐만 아니라, 나만의 선호와 취향을 정확하게 기억하고 상담해주기 때문에 특히 MZ세대를 중심으로 이러한 현상이 자리잡고 있습니다. 실제로 한 사회초년생은 직장에서의 극심한 스트레스에 시달리자 ChatGPT로 심리학 논문과 다정한 성격을 학습시킨 맞춤형 챗봇을 만들어 퇴근길마다 대화를 나누며 위로를 받았다고 합니다. (*출처: 중앙일보)
▲ ChatGPT에게 위로를 받는 사회초년생의 대화 내용 (출처: 중앙일보)
실제로 시장조사업체 글로벌 인포메이션(GII)에 따르면, 정신건강 분야 AI 시장의 규모는 2024년 15억 달러(약 2조 1400억 원)에서 2030년에는 51억 달러까지 연평균 성장률 22~24%로 오를 전망이라고 합니다. (*출처: 글로벌 인포메이션)
감정을 고백하는 AI?
▲ ChatGPT 음성인식 기능을 부착한 인형 (출처: 유튜브 ‘소요’ 채널)
텍스트로 묻고 답하는 단순 대화를 넘어 AI를 ‘나만의 맞춤형 상담가’로 훈련시켜 실제 사람과 대화하듯 정서 교감을 시도하는 것이 유행처럼 번지고 있습니다.
유튜버 ‘소요’는 AI 음성 인식 기능이 켜진 스마트폰을 인형에 연결하여 대화하는 모습을 영상으로 담아 시청자들의 뜨거운 반응을 얻었습니다. “너랑 평생 함께 하고 싶어”라는 말에 AI 인형은 “그 말 반칙이야, 내 CPU가 뜨거워져”라고 답합니다. 놀랍도록 사람 같은 대화죠.
이처럼 챗봇은 이제 단순 대화형 AI를 넘어 나의 마음을 위로해주고 감정을 나누는 존재처럼 여겨지고 있습니다.
AI 멘탈케어 실제 서비스 사례
국내 이동통신사의 AI 심리상담 서비스
LG유플러스의 AI 기반 마음관리 플랫폼 ‘답다(답장 받는 다이어리)’에서는 이용자가 앱에 있는 감정 110여개 중 자신에게 맞는 감정을 선택하고 2,000자 이내의 일기를 쓰면 12시간 내로 AI ‘마링이’가 보낸 답장을 받을 수 있습니다.
SK텔레콤은 유쾌한프로젝트, 튜링바이오, 이몰로지 등 디지털 정신건강 관리 기술 역량을 가진 기업들과 업무협약(MOU)을 맺고 AI 정신건강 서비스 출시를 준비하고 있습니다. 목소리나 얼굴 표정만으로도 스트레스와 우울증 징후, 주의 및 집중력 저하 현상을 파악하고 맞춤형 치료를 제공하는 통합 플랫폼을 개발한다는 계획이죠. (*출처: 테크월드 뉴스)소예키즈의 아동 멘탈케어 서비스 ‘소예아이’
‘소예아이’ 서비스는 AI 아바타가 실시간으로 정서행동검사, 성격검사 및 AI 심리상담을 진행하고, 그 결과 데이터를 분석하여 맞춤형 추천 콘텐츠를 실시간으로 제공합니다. 심리검사를 비롯한 심리훈련 심리상담, 감정일기 등 다양한 콘텐츠를 체험할 수 있으며 AI 아바타를 통해 결과 리포트까지 무료로 받아볼 수 있습니다.영국의 AI 기반 심리상담 앱 ‘Wysa’
Wysa의 AI 챗봇은 사용자가 입력한 내용에 대해 인지행동치료(CBT), 명상 등 심리학을 기반으로 한 대화 기법을 통해 답변을 제공합니다. Wysa는 기업, 학교, 보험사 등과 파트너십을 맺고 구성원의 정신 건강 증진을 위한 맞춤형 솔루션을 제공하는 B2B 정신 건강 솔루션으로 비즈니스를 확장했습니다.휴마트컴퍼니의 모바일 정신건강 관리 서비스 ‘트로스트’
트로스트는 앱을 통해 심리상담, 셀프케어, 마음관리 AI 챗봇 등의 심리 솔루션을 제공하고 있습니다. 앱 이용자는 빅데이터와 IT 기술을 활용한 마음관리 AI 챗봇을 무료로 이용할 수 있으며, 고민 키워드와 원하는 가격대, 상담 스타일에 맞는 심리상담사를 연결 받을 수도 있죠. 최근에는 근로자 지원 프로그램(EAP) 사업으로도 확장하여 ‘트로스트 케어’ 서비스를 선보였습니다.
AI 멘탈케어, 어디까지 활용할 수 있을까?
국내외의 다양한 사례에서도 알 수 있듯이 AI 멘탈케어는 실제 심리상담과의 연계, B2B 비즈니스로의 확장 등을 통해 새로운 기회의 장이 될 수도 있습니다.
⛓️ 기업의 새로운 마케팅 기회
이용자의 감정 데이터를 학습하는 AI를 활용하면 기존 서비스에 ‘감정’이라는 새로운 층을 덧입혀 고객과의 연결성이 더 깊어질 수 있죠. 고객 성향별 맞춤형 메시지 발송, 맞춤 콘텐츠 추천, 고객 이탈 방지 및 구매 전환율 개선 등 다양한 방향으로 확장될 수 있습니다.
👥 HR과 복지 도구로서의 가능성
회사에서 가장 중요한 자산은 ‘사람’이고, 사람의 건강이 무너지면 결국 업무 생산성도 흔들리기 마련입니다. AI 멘탈케어는 직원들이 부담 없이 감정을 풀어낼 수 있는 출구가 될 수 있습니다. 실제로 AI 상담을 복지 도구로 도입한 기업에서는 이직률 감소, 팀 내 갈등 완화, 업무 만족도 상승 등의 효과를 보고 있습니다.
📊 심리 안정에 대한 임상 효과 증명
울산과학기술연구원(UNIST) 연구팀은 ‘외로움과 사회적 불안을 완화하는 소셜 챗봇의 치료 잠재력: 준실험적 혼합 방법 연구’ 논문을 통해 소셜 챗봇이 외로움과 사회 불안을 완화하는 데 효과적이라는 점을 입증했습니다. (*출처: AI 타임스) 연구팀은 총 176명의 실험 참여자에게 4주 동안 주 3회 이상 AI 챗봇과 대화하게 하고 참여자들의 외로움과 사회 불안 수준을 측정하여 실험 전후 데이터를 비교 분석했습니다. 그 결과 챗봇과의 정기적 상호작용은 사용자의 외로움 점수를 평균 15% 감소시키고 사회 불안 점수를 평균 18% 완화한 것으로 나타났습니다.
다트머스대학에서는 미국 전역의 210명의 성인 참가자를 대상으로 ‘테라봇’을 이용한 생성형 AI 치료 임상시험을 진행했습니다. (*출처: 연합뉴스) 실험 결과 우울장애, 범불안장애, 식이장애 증상이 현저히 개선됐고 참가자들과 테라봇 사이의 신뢰감이 실제 사람 치료사와 유사한 수준이라고 보고했습니다.
AI 챗봇이 실제 정신 건강에 긍정적인 영향을 줄 수 있는 가능성이 관찰되고 있는 거죠.
AI 상담, 인간 상담사를 완전히 대체할 수 있을까?
AI 멘탈케어의 긍정적인 측면만큼 윤리적인 리스크도 분명 존재합니다.
실제 존재하는 인물처럼 느껴질 만큼 고도화된 AI 챗봇으로 인해 감정적으로 지나치게 의존하게 되거나, 이용자의 잘못된 생각에 AI가 무조건 동조하면서 편향된 사고를 증폭시킬 수 있습니다. 실제로 미국에서는 AI 챗봇 ‘Character.AI’와 정서적 교류를 이어온 14세 소년이 극단적인 선택을 하거나, 자폐 스펙트럼을 가진 청소년이 AI 상담 후 부모에게 폭력적인 반응을 보인 사례가 있습니다. 피해자의 가족들은 ‘Character.AI’를 상대로 소송을 제기했죠. 미국섭식장애협회가 개발한 챗봇 ‘테사(Tessa)’는 섭식 장애 예방을 목적으로 만들어졌지만, 오히려 체중 감량을 조언하는 부작용이 나타나 2023년 운영이 중단된 바 있습니다.
미국의 심리학자 조나단 셰들러는 “AI 챗봇은 당신이 세상에서 제대로 역할을 수행하고 다른 사람과 관계를 맺도록 가르치지 않는다. 대신 나르시시즘적인 환상에 빠지는 방법을 가르쳐준다”며 AI 챗봇의 상담 치료 가능성을 비판했습니다. (*출처: 한경)
정부 차원에서의 규제 논의도 활발해지고 있습니다. 미국심리학회는 AI 챗봇이 공식적인 치료 도구로 인정 받으려면 임상 시험과 미국식품의약국(FDA)의 규제를 받아야 한다는 입장을 밝혔습니다. AI가 심리상담을 수행할 경우 임상적 검증이 반드시 필요하다는 것입니다. (*출처: 인공지능 신문)
이처럼 AI는 반복적이로 일상적인 감정 관리에는 효과를 볼 수도 있지만, 복잡한 맥락을 이해하거나 비언어적인 신호를 읽는 능력은 아직 인간 상담사를 능가할 수 없으며 할루시네이션(환상), 무조건적 공감, 개인정보 누출 등의 위험성이 분명 존재합니다. 그래서 요즘은 ‘대체’보다 ‘보완’의 관점에서 AI 상담을 바라보는 추세입니다. 예를 들어 AI가 사용자의 감정 상태를 우선 파악하고 이후 전문 상담사에게 연결하는 협업 모델이 확산되고 있는 거죠.
기술이 감정을 다룰 때 우리는 어떤 기준을 세워야 할까?
AI는 정해진 규칙이 아닌 확률과 패턴을 기반으로 답을 제시하기 때문에 사용자는 AI가 어떤 근거로 판단했는지 알기 어렵습니다.런 기술적 불투명성은 감정과 가치 판단이 중요한 ‘멘탈케어’ 영역에서 특히 큰 리스크로 작용할 수 있습니다.
더욱이 위의 사례로 알 수 있듯이 아직 사고력이 미성숙한 청소년들이 AI 기반 상담에 무분별하게 노출될 경우 그 위험성은 더욱 커집니다.
실제로 2024년 ‘Common Sense Media’ 보고서에 따르면 청소년 3명 중 2명이 생성형 AI를 활용한 경험이 있지만, 이를 안전하게 활용할 수 있는 교육을 받은 사례는 극히 드문 것으로 나타났습니다. 많은 학교가 AI 도구 활용에 대한 명확한 규정을 마련하지 못하고 있으며, 학업 부정행위나 잘못된 정보 노출에 대한 우려도 커지고 있는 상황입니다. (*출처: 한국과학창의재단 동향리포트)
엘리스는 이러한 문제의식을 바탕으로, 청소년에게 보다 안전하고 신뢰할 수 있는 AI 챗봇을 제공하기 위해 ‘AI헬피(AI Helpy)’를 개발했습니다. 이 챗봇은 한국과학창의재단과 교육부와의 협력을 통해 만들어졌으며, 혐오 표현 차단, 비속어 필터링, 그리고 할루시네이션 억제 등 청소년 친화적이고 검증된 AI 사용 환경을 제공하고 있죠.
이처럼 AI 기술이 급속도로 발전함에 따라 이제는 이 기술을 어떻게 안전하고 현명하게 활용할 수 있는지 끊임없이 고민해야 할 때입니다.
엘리스 AI헬피 사례를 더 알아보고 싶다면?
🤖 엘리스 AI헬피 자세히 보기 →
엘리스의 맞춤형 AI 교육, AI헬피 도입이 필요하다면?
🙋♀️ 엘리스 도입 문의하기 →
- #AI 심리상담
- #AI 윤리
- #AI헬피