트럼프 정부 AI 해고 논란, 일자리 위협?

Share

트럼프 행정부, AI 해고 도입 논란: 정부 효율화인가, 일자리 위협인가?

지난 한 달 반 동안 트럼프 행정부는 연방 정부 인력 감축을 대대적으로 추진하며 논란의 중심에 섰습니다. 공무원 사회뿐 아니라 정부 서비스 이용 시민들의 우려가 커지는 가운데, 알고리즘을 활용한 해고 가능성까지 제기되며 불안감이 더욱 증폭되고 있습니다. 이번 블로그 글에서는 트럼프 행정부의 인력 감축 배경과 현황, 알고리즘 해고 논란, 그리고 그 함의에 대해 심층적으로 분석해 보겠습니다.

트럼프 행정부의 대규모 인력 감축, 왜?

트럼프 행정부는 낭비, 사기, 부정을 줄이겠다는 목표 하에 정부 효율성 부서(DOGE)를 설립했습니다. 비록 공식적인 연방 부서는 아니지만, DOGE는 연방 기관 18곳에 영향을 미치며 해고 또는 명예퇴직 프로그램을 진행해 왔습니다. 2025년까지 정확한 감축 규모는 불확실하지만, 현재까지 약 22만 2천 명이 해고된 것으로 추산됩니다. 예산 삭감이 본격화되면 추가 감원이 예상되며, 로이터 통신에 따르면 2월 미국 내 해고율은 245% 급증했습니다.

알고리즘 해고, 오토RIF의 부활?

비영리 단체 EPIC의 애비게일 쿤클러 연구원은 엔지니어들이 기존 인력 감축(RIF) 소프트웨어를 수정하여 해고 작업을 지원했다고 밝혔습니다. 특히, DOGE가 오토RIF 소프트웨어를 재구성해 해고 대상 직원 선정에 활용하고 있다는 의혹이 제기되었습니다. 오토RIF는 과거 국방부가 개발한 소프트웨어로, 인력 감축 관리에 활용되어 왔습니다. 일각에서는 자동화된 의사 결정 소프트웨어가 효율성을 높이고 차별 위험을 줄일 수 있다고 주장하지만, 쿤클러 연구원은 편향성, 감시 강화, 투명성 부족 등의 문제를 지적합니다.

AI 해고, 투명성과 공정성의 문제

자동화된 의사 결정 과정에서 데이터 편향은 심각한 문제입니다. 불완전하거나 차별적인 과거 데이터로 인해 편향이 지속될 수 있으며, 이는 자의적이거나 차별적인 결정으로 이어져 노동자의 권리를 침해할 수 있습니다. 특히, 오토RIF와 같은 소프트웨어가 어떻게 수정되었는지, AI가 감원 결정에 어떤 방식으로 개입하는지 투명하게 공개되지 않고 있다는 점은 우려를 더합니다. 쿤클러 연구원은 연방 기관이 자동화된 의사 결정 도구를 사용할 때 노동자와 그들의 대표자에게 정보 접근성이 제한된다고 비판합니다.

알고리즘 관리 시대, 노동자의 미래는?

노동자 데이터 수집, 감시, 평가 시스템, 자동화된 의사 결정의 확산은 '알고리즘 관리'라는 새로운 현상을 낳고 있습니다. DOGE가 대규모 언어 모델(LLM)을 활용해 '불필요한' 직원을 가려내려는 시도는 알고리즘 관리의 대표적인 사례로 볼 수 있습니다. 이러한 자동화된 의사 결정 과정은 노동자의 권리를 침해하고 고용 관련 법률을 위반할 가능성을 내포하고 있습니다. 따라서 AI 해고 도입에 대한 투명한 정보 공개와 사회적 논의가 시급합니다.

결론: AI 해고, 사회적 합의가 우선되어야

트럼프 행정부의 인력 감축과 AI 해고 도입 논란은 효율성과 공정성 사이의 딜레마를 보여줍니다. 정부 효율화를 위한 노력은 필요하지만, 그 과정에서 노동자의 권리가 침해되어서는 안 됩니다. AI 해고 도입은 투명하고 공정한 절차를 거쳐 사회적 합의를 이루어야 할 것입니다. 앞으로 정부는 AI 기술 도입에 앞서 잠재적 위험을 충분히 고려하고, 노동자와 시민의 우려를 해소하기 위한 노력을 기울여야 할 것입니다.

You may also like...