
AI-driven customer service systems deployed by banks, credit card companies, and public institutions in Korea have led to widespread dissatisfaction among both customers and call center workers. An investigation and interviews with 15 people across the sector reveal that AI consultants were introduced without proper involvement of experienced human staff, resulting in ineffective automation that still relies on human agents for most tasks and often increases workload.
Workers report that AI systems frequently misinterpret complex requests, fail to handle nuanced inquiries, and lack the capability to convey empathy, which is essential in high-stress customer interactions such as emergency assistance or sensitive financial matters. As a result, many calls are redirected to human consultants, but the AI can distort workflows, creating bottlenecks and longer caller wait times while reducing staff numbers based on flawed metrics.
The integration of AI has also led to new challenges, including rapid monitoring and evaluation by AI systems, which automate quality assessments and surveillance of employees. Critics say this shift diminishes accountability, as regulators have not established clear guidelines for liability when AI errors occur, and corporations increasingly use AI to justify layoff decisions that ultimately harm service quality.
Experts warn that the AI adopted without input from frontline workers suffers from “technological optimism,” with limitations exposed by real-world conditions in call centers. They emphasize the need for collaborating with labor representatives, training for workers, and designing AI that genuinely learns from authorized human expertise to avoid eroding job quality and customer trust.
요약: AI 고객 서비스가 도입되면서 금융권 등에서 고객 응대 업무가 빠르게 자동화되고 있지만, 고객과 직원 모두 만족하지 못하는 사례가 잇따르고 있다. 은행·카드사 등에서 AI 시스템이 도입된 이후 고객 상담의 원활성은 떨어지고, 안내의 정확성 부족, 감정 이입의 부재 등으로 인한 불만이 증가했다. 인간 상담원은 여전히 고난도 질문 응대와 정서적 지지에 강점을 보이며, AI가 단순하고 반복적인 작업만 처리하는 경향이 있어 노동 강도가 오히려 증가하는 사례가 많았다. 또한 AI의 성능 미흡으로 발생하는 책임 소지 문제와 감시·평가 체계의 변화로 인해 직원들이 불안감을 호소했다. 본문: 중년의 고객이 전화로 “사람이 맞냐”고 묻자, 상담원은 “네, 저는 사람입니다”라고 응답한다. 하지만 고정된 대화 흐름을 벗어나지 못하는 AI 시스템은 여전히 민감한 상황에서 적절한 대응을 보여주지 못했고, 고객 불만은 지속됐다. 매일 다수의 전화가 AI 고객 서비스에 대한 불만으로 시작되며, 이는 기업의 비용 절감 목적 외에 심리적·현실적 문제를 낳았다. 2024년경부터 은행·카드사, 보험사 및 국세청 등은 고객 문의를 처리하기 위해 AI를 도입했으나, 고객과 직원 모두 만족하지 못하는 상황이 계속됐다. AI 도입의 문제점으로는 인간 상담원 없이 AI가 고도화를 진행함에 따라 실제 업무 지식의 체계가 축소되거나 왜곡될 위험이 지적됐다. 일부 기업은 AI 컨설턴트를 도입했으나, 사전 직원 교육 없이 도입된 탓에 현장의 문제를 예측하지 못했고, 결국 직원의 대화 노하우를 기반으로 한 지식이 AI에 과도하게 주입되었다. 이로 인해 노동조합과 정치권의 강력한 반발이 있어 도입 방식의 수정이 필요했다. 또한, 초기 AI 도입으로 인해 일부 은행은 고객 서비스 인력의 해고를 검토했고, 상황 악화를 막기 위한 조치가 취해졌다. AI의 한계로 인해 고객 응대의 질은 떨어지고, 상황에 따라서는 AI가 복잡한 요청을 이해하지 못해 오히려 상담 시간을 늘리는 사례가 발생했다. 예를 들어 일부 항목에 대해 AI가 잘못된 정보를 제공하거나 감정적 공감 능력이 부족해 고객의 불안감을 키우기도 했다. 실험적으로도 AI가 인간 상담원을 대체하기 어렵고, 사람의 직관과 현장 경험이 필요한 영역이 남아 있음을 확인했다. 이로 인해 고객은 인간 상담원을 직접 찾으려는 우회 경로를 사용하고, 일부는 신용카드나 대출 등 중요한 거래를 보완하기 위해 더 높은 이자나 대출로까지 상황을 해결했다. 노동 환경과 책임 문제도 큰 논란이다. AI가 잘못된 안내를 제공할 경우 누구가 책임을 질 것인지에 대해 명확한 규정이 부재했다. 또한 QA 평가를 AI가 담당하는 사례가 늘어나면서, 인간 상담원의 보상과 승진에도 AI 평가가 큰 영향을 미치게 되었다. 감시 및 평가 체계의 강화로 인해 직원들은 상시 모니터링과 기록 열람으로 인해 프라이버시 침해를 느끼고 있다. 전문가들은 AI 도입의 시작점으로 인간의 의견을 반영하는 협력적 개발이 필요하다고 지적한다. 현장의 정보를 충분히 반영하고, 노동자와의 대화로 시스템을 개선해야 한다는 것이다. 기술적 낙관론에 빠지지 말고 한계를 명확히 인식해야 하며, AI가 인간을 대체하는 것이 아닌 보조적으로 작동하도록 설계하는 것이 중요하다고 말했다. 특정 기관은 AI 기술 도입 시 노동조합과의 대화를 포함한 합의 체계를 마련하고, 직원 교육 및 재훈련을 제공하는 방향으로 선회했다. 결론적으로, AI가 제시하는 비용 절감의 약속은 실제 현장에선 기대보다 낮았고, 인간 상담원의 경험적 지식과 정서적 지원 능력이 여전히 중요하다. AI가 완전히 인간을 대체하는 시대는 아직 멀었으며, AI의 도입은 신중한 설계와 직원 참여, 책임 체계 확립이 병행될 때에만 효과를 내실 수 있다. IT 기술의 발전에도 불구하고, 인간 중심의 협력적 접근이 미래의 핵심이라는 견해가 제시된다.