트럼프 행정부, 인공지능 해고 알고리즘 도입 논란: 공무원 사회 불안감 증폭
최근 트럼프 행정부가 연방 정부 인력 감축에 박차를 가하면서 공무원 사회의 불안감이 고조되고 있습니다. 특히 감축 과정에 인공지능(AI) 기반 해고 알고리즘이 사용될 수 있다는 우려가 제기되면서 논란이 더욱 거세지고 있습니다.
자동화된 해고, 효율인가 인권 침해인가?
미국 비영리 단체인 전자 개인 정보 보호 센터(EPIC)의 법률 연구원인 아비가일 쿤클러는 정부 효율성 부서(DOGE)가 인력 감축을 돕기 위해 기존의 인력 감축(RIF) 소프트웨어 프로그램을 수정하고 있다고 밝혔습니다. Wired의 보도에 따르면 DOGE는 AutoRIF 소프트웨어를 재정비하여 해고 대상자를 결정하는 데 활용하고 있습니다. 자동화된 의사 결정 소프트웨어는 효율성을 높이고 관리 부실 및 차별 위험을 줄일 수 있다는 주장이 있지만, 편향성, 감시 및 투명성 부족에 대한 우려도 제기되고 있습니다.
정부 효율성 부서(DOGE)의 역할
DOGE는 도널드 트럼프 대통령이 낭비, 사기 및 남용을 줄이겠다는 목표로 설립한 정부 기관입니다. 현재까지 DOGE의 노력은 18개의 연방 기관에 영향을 미쳤으며 해고 또는 매수 형태로 나타나고 있습니다. 2025년 연방 정부 일자리 감축의 정확한 수는 아직 불분명하지만, 보고서에 따르면 지금까지 약 222,000명이 해고되었으며 예산 삭감이 시행됨에 따라 더 많은 해고가 예상됩니다.
AutoRIF 소프트웨어의 문제점
AutoRIF는 국방부에서 20년 전에 개발한 소프트웨어로, 기관들이 인력 감축을 관리하는 데 도움을 줍니다. Wired는 DOGE 직원들이 AutoRIF의 코드를 수정하고 있으며, 최근에는 트럼프 대통령 취임 후 머스크와 관련된 사람들이 관리하는 인사 관리처의 GitHub 저장소를 통해 업데이트가 이루어졌다고 보도했습니다. 그러나 해당 GitHub 사이트를 검토한 결과 "공개" 저장소는 없는 것으로 확인되었습니다.
투명성 부족과 잠재적 차별 문제
쿤클러는 "자동화된 의사 결정 도구를 사용하는 연방 고용주는 직원과 그 대리인에게 투명성을 크게 감소시킨다"고 지적했습니다. 도구가 어떻게 작동하는지, 어떤 데이터가 입력되는지, 분석에서 다양한 데이터를 어떻게 가중하는지에 대한 통찰력이 부족하다는 것입니다. 결정 뒤에 숨겨진 논리는 직원에게 접근할 수 없으며, 정부 맥락에서는 도구가 연방 고용 도구가 따라야 하는 법적 및 규제 요구 사항을 준수하는지 여부를 알기가 거의 불가능합니다. 이러한 투명성 부족은 불공정한 해고 결정으로 이어질 가능성이 있으며, 이는 1964년 민권법 제7조와 같은 법률을 위반할 수 있습니다.
알고리즘 관리의 확산
직원 데이터 수집, 감시, 평가 시스템 및 자동화된 의사 결정의 확산을 "알고리즘 관리"라고 합니다. DOGE가 "불필요한" 직원을 가려내기 위해 대규모 언어 모델(LLM)을 사용하려는 시도는 알고리즘 관리 및 자동화된 의사 결정의 한 형태입니다. 알고리즘은 불완전하거나 차별적인 과거 데이터와 같은 결함 있는 정보로 인해 편향성을 영속화할 수 있으며, 이는 자의적이거나 차별적인 결정으로 이어져 직원의 권리와 법률을 잠재적으로 위반할 수 있습니다.
결론
인공지능 기반 해고 알고리즘 도입은 효율성 향상이라는 명분 뒤에 숨겨진 잠재적인 인권 침해 문제를 제기합니다. 투명성 확보와 공정한 기준 마련을 통해 자동화된 의사 결정 시스템이 사회적 약자를 차별하지 않도록 감시해야 할 것입니다.