기존의 시설 중심 정책이 돌봄 공백 등의 한계를 드러내며 한국 사회는 지역사회 통합돌봄으로의 패러다임 전환을 꾀하고 있다. 이러한 전환은 디지털/AI 산업 육성 전략과 결합하며 이른바 ‘스마트 돌봄’ 정책으로 구체화되고 있다. 본 연구는 이 디지털/AI 돌봄이 돌봄의 윤리와 정의, 관계적 차원을 성찰하기보다, 비용 절감과 효율성, 수익성 및 노동 생산성을 우선시하는 기존 시장 중심 패러다임을 답습하고, 심지어는 이를 고도화하고 있다는 점을 비판적으로 고찰한다. 디지털/AI 돌봄은 효율성과 자동화의 논리를 내세우며 시간성, 주체성, 책임성이라는 관계적 정의의 세 층위를 침식시킨다. 돌봄의 과정을 압축하여 자동화 및 효율화가 가능하다는 믿음은 관계 맺기에 필수적인 과정의 ‘시간성’을 생략한다. 또한 디지털 기술과 인공지능(AI)의 개입은 돌봄 과정에서 관계 맺는 인간들 간의 상호적 ‘주체성’을 기술의 객체로 전락시킨다. 나아가 알고리즘과 인공지능(AI)의 의사결정은 국가와 기업 등 실제 돌봄의 책임 주체가 되어야 할 이들의 책임을 기술 시스템 내부로 은폐한다. 이러한 차원들은 디지털/AI 기술의 매개로 인해 해체되는 데 그치지 않고 오히려 ‘돌봄 통치성’을 구성하는 핵심 기제로 재편된다. 디지털/AI 돌봄 정책은 돌봄에 관한 사회적 논의를 디지털 기술 도입, 개발, 투자의 문제로, 즉 자본주의적 인식론 내부에만 머무르게 하여 근본적인 문제제기를 어렵게 한다. 결론적으로, 이 논문은 기술을 중립적이고 도구적인 것으로 보며 사실상 통치성으로 작동하는 디지털/AI 돌봄 정책의 관점을 비판하고 돌봄의 관계적 차원에 주목하는 윤리로 나아갈 것을 주장한다.
As facility-centred policies have become apparent to have limitations, there has been a societal demand for a paradigm shift towards integrated community care. This transition is being formalised through the implementation of so-called “smart care” policies, being integrated with strategies for the advancement of the digital/AI industries. This study critically examines how these digital/AI care policies, rather than reflecting on the ethics, justice, and relational dimensions of care, are reiterating and even elevating the existing market-centered paradigm, prioritising cost reduction, efficiency, profitability, and labour productivity. Digital/AI care has eroded three core layers of relational justice, including temporality, subjectivity, and responsibility. By prioritizing outcomes and fostering the belief that the care process can be compressed, automated, and streamlined, these technologies bypass the ‘temporality of the process’ that is indispensable for relational engagement. The intervention of digital technology and artificial intelligence (AI) reduces the mutual ‘subjectivity’ of the human actors involved in the care relationship to mere technological objects. Consequently, algorithmic and AI-driven decision-making serves to conceal the ‘responsibility’ of states and corporations within the opacity of the technical system. Rather than merely being dismantled through digital mediation, these dimensions are reorganized as the core mechanisms that constitute ‘care governmentality.’ Digital/AI care policies has been shown to restrict the social discourse on care to matters pertaining to the adoption, development and investment of digital technologies. This is, in essence, a manifestation of a capitalist epistemology, which hinders the ability to address fundamental issues. In conclusion, this paper critiques the perspective of digital/AI care policies, which regard technology as neutral and instrumental, effectively operating as a form of governmentality. The text puts forward the argument that there should be a shift towards an ethics that focuses on the relational dimension of care.