AI와 일자리
직장 내 AI 도입률은 비교적 낮지만, 생성형 AI(예: ChatGPT)의 등장, 비용 하락, AI 기술을 보유한 근로자의 증가 등과 같은 빠른 진전은 OECD 국가들이 AI 혁명을 거의 목전에 두고 있음을 시사합니다. 어떤 직업이 변화하고 새롭게 생겨날 지 또는 사라질 지 그리고 필요 역량이 어떻게 바뀌고 있는지 등 직장에서의 AI 이용에 대한 새롭고 더 나은 정보를 수집하는 것은 필수적입니다. AI를 포함한 모든 자동화 기술을 고려할 때, 일자리의 27%는 자동화가 될 가능성이 높다고 분석됩니다.
OECD는 2022년, 7개국의 제조 및 금융 부문 내에서 AI가 개인 및 직장에 미치는 영향에 대해 설문조사를 실시했습니다. 조사에 따르면 직장 내 AI 이용은 직무 만족도, 건강, 임금 등 근로자에게 긍정적인 결과를 가져올 수 있는 것으로 나타났습니다. 하지만 사생활, 업무 강도, 그리고 편향과 관련된 리스크도 존재했습니다. 이번 설문조사는 근로자들이 현재 업무에서 AI 이용에 대해 생각하는 것과 미래에 다가올 두려움 사이에 확실한 간극이 있음을 보여줍니다. 이는 AI 시대에 아무도 소외되지 않도록 하는 즉각적인 정책적 조치가 필요하다는 것을 의미합니다.
이와 관련하여 OECD는 크게 세 가지 측면에서 정부의 개입을 권고합니다:
- 저임금 근로자 지원: 최저임금 및 단체교섭과 같은 임금 정책은 구매력 손실[1]을 완화하는 데 도움이 될 수 있습니다. 또한 정부는 저소득 가구의 순소득을 보장하기 위해 세금 및 복지 제도를 통해 직접적으로 저소득 가구를 지원할 수 있습니다.
- 안전장치 구축: 근로자의 기본권과 복지에 대한 위협 요인에 대해 고심하면서도 AI가 기업에 줄 수 있는 혜택은 얻기 위해, 국가는 신뢰할 수 있는 AI 이용의 핵심 원칙에 대해 구체적인 정책 도입을 고려해야 합니다. 정부는 AI가 노동시장의 포용성을 저해하는 것이 아니라 지원하는 역할을 하도록 해야 합니다.
- AI 교육 보장: AI 개발과 도입이 점점 빨라짐에 따라 AI 관련 새로운 기술이 필요해지는 동시에, 다른 기술은 쓸모 없어질 것입니다. 따라서 저숙련 근로자와 고령 근로자뿐만 아니라 고숙련 근로자에게도 교육이 필요합니다. 정부는 고용주가 근로자에게 더 많은 교육을 제공하고, AI 기술을 교육에 통합하고, 다양한 AI 인력을 지원하도록 장려해야 합니다.
한국 역시 AI 개발 및 적용의 부정적 영향을 최소화하기 위해 지속적인 논의를 이어가고 있습니다. 지난해 4월 국가인권위원회는 ‘인공지능 개발 및 활용에 관한 인권 가이드라인’을 마련하여 인공지능 개발・활용 시 인간의 존엄성과 기본권 보장을 위한 기준을 제시한 바 있으며, 한국 정부는 ‘Chat GPT가 숙련기술과 훈련에 미치는 영향’ 등을 비롯하여 AI가 노동시장에 미치는 영향에 대한 연구를 진행하고 있습니다. 그러나 AI 기술 및 솔루션을 도입한 기업의 비중이 아직 적은 상황으로, AI와 포용적 노동시장에 관한 심도 있는 논의 역시 상대적으로 아직 충분치 않은 상황입니다.[2]
직장에서의 AI 리스크
2022년 유네스코에서 발간한 ‘AI가 여성의 직장 생활에 미치는 영향’에 관한 보고서에 따르면 채용 과정 등에서 AI가 여성의 승진 기회를 배제하고 있다고 합니다. 보고서가 인용한 한 연구에서는 6만 개 이상의 타겟형 구인 광고를 대상으로 진행된 21개의 실험을 통해 ‘사용자의 성별을 여성으로 설정하면 성별을 남성으로 선택한 사용자보다 고임금 직업과 관련된 광고가 더 적게 표시되는 것으로 나타났다’고 밝혔습니다. 채용에 있어 이러한 AI의 편향은 이미 잘 알려져 있지만, 이것이 사라지려면 다소 시간이 걸릴 것입니다. 유네스코 보고서에 따르면 ‘2021년 연구에서는 광고주가 광고대상의 성 균형을 원하는 상황에서도 성별에 따라 페이스북(Facebook) 구인 광고가 왜곡되어 노출된 증거가 발견되었다’고 합니다. 편향된 데이터는 계속해서 AI가 활용하는 정보를 오염시키고 다양성, 형평성, 포용성과 같은 노동력의 핵심 요소를 위협할 것입니다.
생성형 AI로 인해 조직이 겪을 수 있는 법적 위험은 차별적 고용 관행 뿐 아니라 다양하게 존재합니다. 예를 들어, OpenAI는 ChatGPT가 유해한 거짓 정보를 생성했다는 주장으로 인해 첫 명예훼손 소송에 직면해 있습니다. 명예훼손과 관련된 문제 외에도 저작권 및 지적 재산권 침해와 관련된 위험성도 있습니다. 또한 라이선스가 있는 콘텐츠를 부적절하게 사용했다는 혐의로 생성형 AI 도구 개발자가 소송을 당한 유명한 법적 사건이 몇 건 있었습니다. AI의 대규모 배포는 사이버 공격의 위험도 확대시킵니다. 사이버 보안 전문가들은 코딩과 버그 탐지를 자동화하는 대규모 언어 모델(Large Language Model, LLM)의 기능을 고려할 때 생성형 AI가 기업 정보 시스템 내의 취약점을 식별하고 악용하는 데 사용될 수 있으며, 악의적 이용자가 이를 보안 장벽을 뚫는 데 사용할 수 있다는 점을 우려하고 있습니다. 또한 직원들이 실수로 중요 데이터를 AI 서비스 제공사에 넘길 수 있다는 우려도 있습니다.
직장에서의 책임 있는 AI 이용을 위한 원칙
하버드 비즈니스 리뷰(HBR)는 의사결정권자가 AI 시대에 경쟁력을 유지하면서 부정적인 결과는 피할 수 있도록, 지속가능한 AI 기반 인력 운용을 위한 몇 가지 원칙을 제시하는 기고문을 소개하고 있습니다. 이 원칙은 미국 국립과학재단과 같은 기관의 윤리적 프레임워크 그리고 미국의 전자통신 개인정보 보호법 및 캘리포니아 개인정보 보호법 등 직원 모니터링 및 개인정보 보호와 관련된 법적 요건을 종합적으로 고려한 것입니다. HBR에서 제안하는 직장에서의 책임감 있는 AI 이용을 보장하기 위한 조치는 다음과 같습니다.
- 정보에 기반한 동의: AI의 개입에 관한 직원의 자발적 동의는 AI 이용 계획에 대한 모든 정보를 제공한 후에 얻도록 합니다. 해당 정보에는 프로그램의 목적, 절차, 잠재적 위험 그리고 이점이 모두 포함됩니다.
- 이해관계 합치: 고용주와 직원 양측 모두의 목표, AI 활용에 대한 득과 실이 명확하게 표현되고 조정되도록 합니다.
- 사전동의 및 수월한 해지: 직원은 어떠한 강요나 강압을 느끼지 않고 AI 기반 프로그램의 참여에 동의해야 하며, 어떠한 불이익이나 부차적인 설명 없이도 언제든지 쉽게 동의를 철회할 수 있어야 합니다.
- 대화의 투명성: AI 기반 대화형 에이전트[3]를 이용하는 경우, 에이전트는 직원과의 대화를 통해 시스템이 달성하고자 하는 목표를 설득력 있게 그리고 공식적으로 밝혀야 합니다.
- 편향되지 않고 설명 가능한 AI: AI를 기반으로 직원들에게 개입함에 있어서 편견, 특히 혜택받지 못한 취약한 그룹에 대한 편견을 제거, 최소화, 완화하기 위해 취한 조치를 명시적으로 설명하고, AI 시스템이 어떤 식으로 결정을 하고 행동을 하는지 투명하게 공개해야 합니다.
- AI 교육 및 개발: AI 기반의 도구를 안전하고 책임감 있게 사용할 수 있도록 지속적으로 직원들을 교육하고 개발합니다.
- 건강과 행복: AI로 인한 스트레스, 불편함 또는 피해의 유형을 파악하여 위험 요인을 최소화하기 위한 조치를 명확히 설명합니다. (예: AI 기반의 지속적인 직원 모니터링으로 야기되는 직원들의 스트레스를 어떻게 최소화할 것인지)
- 데이터 수집: 어떤 데이터를 수집할 것인지, 데이터 수집 시 인권이나 사생활 침해적 절차가 있는지(예: 재택근무 시 웹캠 사용), 리스크를 최소화하기 위해 어떤 조치를 취해야 하는지를 파악합니다.
- 데이터 공유: 개인 정보를 공유하려는 의도, 공유 대상, 이유를 공개합니다.
- 개인정보 보호 및 보안: 개인정보 보호, 직원 정보 보관, 그리고 개인정보 침해 시의 조치에 대한 규약을 명확히 설명합니다.
- 제3자 공개: AI 자산을 제공하고 유지 및 관리하는 데 참여하는 모든 제3자와 그 역할, 그리고 제3자의 개인정보 보호 방식을 공개합니다.
- 커뮤니케이션: 데이터 수집, 데이터 관리, 그리고 데이터 공유와 관련된 변동 사항과 AI 자산 및 제3자와 관련된 변동 사항이 있을 시 직원들에게 알립니다.
- 법률 및 규정: 직원들의 데이터 및 AI 이용과 관련된 모든 법률과 규정을 준수하겠다는 의지를 지속적으로 표명합니다.
[참고 자료]
OECD, https://oecd.org/employment-outlook/2023/#report
OECD, https://www.oecd-ilibrary.org/sites/c6762c67-ko/index.html?itemId=/content/component/c6762c67-ko
Harvard Business Review, https://hbr.org/2023/06/13-principles-for-using-ai-responsibly
[1] [역주] 인플레이션 상태에서 화폐 가치의 하락에 따라 발생하는 손실
[2] 출처: OECD, Employment Outlook 2023 – Country Report: Korea
[3] [역주] 스마트 스피커, 챗봇 등과 같이 자연어를 통해 인간과 소통하는 AI