.png)
open access
메뉴
ISSN : 1229-8778
생성형 AI에 로봇이 결합된 휴머노이드 AI는 인간의 과업을 도와주는 기술 도구를 넘어 심리적․사회적 교감을 유도하는 새로운 상호작용 주체로 주목받기 시작했다. 동시에 인간처럼 대화가 가능해지면서 휴머노이드 AI가 제공하는 서비스의 범위도 더욱 넓어지기 시작했다. 이러한 추세에 맞춰 소비자들은 휴머노이드 AI의 유형에 따라 대화 수준도 달라질 수 있을 것으로 기대하기 시작했다. 동시에 휴머노이드 AI와 대화하는 과정에서 개인정보 유출에 대한 우려도 높아지기 시작했다. 본 연구는 휴머노이드 AI가 소비자와 소통하는 과정에서 발생하는 언어 형상화가 소비자 평가에 미치는 영향을 검증하고자 한다. 또한 이러한 영향은 소비자가 인식하는 개인정보 민감도에 따라 달라질 것으로 예측하고 있다. 이를 검증하기 위해 2(휴머노이드 AI 유형: 보조자형 vs. 동반자형) X 2(언어 형상화: 턴테이킹 vs. 그라운딩) X 2(개인정보 민감도: 높음 vs. 낮음) 실험설계로 실증 검증을 진행했다. 검증결과 그라운딩 수준에서 소비자들은 긍정적인 평가를 하지만 보조자형 AI의 경우 이 효과가 감소하는 것으로 나타났다. 또한 개인정보 민감도가 높은 소비자는 정서적 교류가 목적인 AI와의 그라운딩 단계를 호의적으로 인식하지 않음을 발견했다. 이상의 결과에 근거해 학술적, 실무적 시사점을 제안했다.
Humanoid AI, which combines generative AI with a physical robotic form, is emerging not only as a technological tool that assists human tasks but also as a new agent of interaction that facilitates psychological and social engagement. As these AI systems increasingly emulate human-like conversation, the scope of services they provide is also expanding. In line with this trend, consumers have begun to expect the nature and depth of conversation to vary depending on the type of humanoid AI. At the same time, concerns about personal information leakage during interactions with humanoid AI have also intensified. This study investigates how the degree of verbal embodiment exhibited by humanoid AI during communication influences consumer evaluations. Furthermore, it explores whether this effect varies depending on consumers’ perceived sensitivity to personal information. To test these relationships, a 2 (Type of Humanoid AI: Assistant-type vs. Companion-type) × 2 (Verbal Embodiment: Turn-taking vs. Grounding) × 2 (Privacy Concern: High vs. Low) experimental design was employed. The results show that consumers generally respond more positively under the grounding condition, but this effect diminishes when interacting with assistant-type AI. Additionally, consumers with high personal information sensitivity evaluated grounding with companion-type AI—intended for emotional exchange—less favorably. Based on these findings, the study offers both theoretical and practical implications.