EN KO

Korea Leaders Summit 2024 – 데이터 경제에서의 인권 리스크 관리

  • 일시: 2024년 11월 5일 화요일 14:10 – 15:20
  • 장소: 콘래드 호텔 서울, 그랜드볼룸
  • 참석자: 이석준 국가인권위원회 정책교육국장, 임용 서울대학교 법학전문대학원 교수, Vera Jourova EU 집행위원회 부위원장, 송세련 경희대학교 법학전문대학원 교수 및 한국인권재단 이사장, 김금선 한국마이크로소프트 변호사, 하정우 네이버 퓨처AI센터장, 구본권 사람과디지털연구소장

▲ 왼쪽부터 임용 서울대학교 법학전문대학원 교수, 김금선 한국마이크로소프트 변호사, 하정우 네이버 퓨처AI센터장,
구본권 사람과디지털연구소장, 송세련 경희대학교 법학전문대학원 교수

유엔글로벌콤팩트 한국협회는 데이터 경제 시대에서 인권 리스크 관리의 중요성을 조명하고, 인공지능(AI)을 포함한 디지털 기술이 인권과 노동 환경에 미치는 영향을 다각도로 논의하기 위해 국가인권위원회 인권경영포럼과 함께 분과세션을 개최했습니다. 본 세션에서는 디지털 경제에서 기업이 직면하는 인권 리스크를 중심으로 논의가 진행되었으며, 특히 AI와 디지털 기술이 가져오는 도전과 기회 속에서 기업들이 인권 보호를 위해 나아가야 할 방향과 실질적인 대응 방안에 대해 각계 전문가들의 의견을 들어보았습니다.

▲ 이석준 국가인권위원회 정책교육국장

본격적인 시작에 앞서 이석준 국가인권위원회 정책교육국장은 환영사를 통해 AI와 디지털 기술이 우리의 삶과 일터에 깊숙이 자리 잡아가고 있는 오늘날, 이들 기술이 인권에 미치는 영향을 신중하게 평가하고 개선하는 노력이 필요하다고 강조했습니다. 이 국장은 국가인권위원회가 그동안 디지털 기술의 인권적 측면에 대해 지속적인 관심을 가져왔으며, 특히 AI 개발과 활용에서 인권영향평가의 필요성을 강조해 왔다고 설명했습니다. 특히 한국이 디지털 경제에서 세계적인 경쟁력을 확보하기 위해서는 인권 보호와 기술 혁신이 균형을 이뤄야 한다며, 이 과정에서 국가인권위원회가 인권 보호를 위한 정책적 지원을 아끼지 않겠다고 전했습니다.

▲ 베라 요우로바(Vera Jourova) EU 집행위원회 부위원장

첫 번째 순서로 베라 요우로바(Vera Jourova) EU 집행위원회 부위원장의 <데이터 경제에서의 인권 존중을 위한 EU의 프레임워크> 발표가 있었습니다. 요우로바 부위원장은 급변하는 디지털 기술이 전 세계적으로 인권과 자유의 개념에 미치는 영향과 이에 따른 정책적 대응의 중요성을 강조하며, 디지털 기술의 발전이 단순히 경제적 성과를 넘어 보편적 가치를 증진하는 역할을 해야 한다고 설명했습니다. 또한, 디지털 연결성이 유럽연합과 한국 간 파트너십의 중심에 있다고 언급하며, 이러한 파트너십이 사람 중심의 기술, 즉 인권과 자유를 보장하는 기술 생태계 조성이라는 공통된 신념에 기초하고 있음을 강조했습니다. 특히, AI와 같은 첨단 기술은 업무와 창의적 활동, 소통 방식을 혁신하고 있지만, 동시에 알고리즘의 편향성, 허위 정보 확산, 온라인 감시 등의 새로운 리스크를 초래한다며, 이러한 위험을 관리하고 기술의 책임성을 높이기 위해 도입한 EU의 디지털 서비스법(DSA)과 디지털 시장법(DMA) 등을 소개했습니다. 끝으로, 오늘과 같은 지속적 교류가 기술, 기업의 지속가능성, AI, 디지털 경제에 대한 논의를 한층 심화할 수 있는 기회라고 밝히며, 이를 통해 양국 간의 깊이 있는 대화와 의미 있는 협력이 앞으로도 지속되어, 디지털 경제에서의 인권과 자유 보호가 글로벌 스탠다드로 자리 잡을 수 있기를 기대한다고 전했습니다.

▲ 송세련 경희대학교 법학전문대학원 교수

다음으로 송세련 경희대학교 법학전문대학원 교수가 <데이터 경제 시대의 인권 보호: 국제적 흐름과 한국의 대응>을 주제로 발표를 이어 나갔습니다. 송 교수는 먼저 데이터 경제의 확산과 인권 문제의 복잡성이 점차 심화되고 상황을 설명하며, 데이터가 단순히 경제적 자원이 아니라, 오늘날 사회와 경제의 근간이 되는 필수적 요소로 자리 잡고 있다고 강조했습니다. 또한, 데이터 경제가 개인 정보 보호, 차별 방지, 투명성 보장 등 다양한 인권 리스크를 동반하고 있으며, 특히 대규모 플랫폼 기업들이 주도하는 데이터 기반 의사결정 과정에서 알고리즘 편향과 프라이버시 침해 문제가 심각하다고 설명했습니다. 송 교수는 한국에서도 EU의 GDPR*과 같은 강력한 데이터 보호 체계가 필요함을 언급하며, 이를 위한 정책적 방안을 구체적으로 제안했습니다. 무엇보다도 기업이 데이터 경제에서의 인권 리스크를 관리하기 위해 인권 실사를 통해 체계적이고 지속적인 노력을 기울여야 한다며, 이해관계자 참여를 통한 동의 절차의 가시화와 인권 친화적인 데이터 생태계 구축이 필요하다고 강조했습니다. 마지막으로, 인권 실사 과정에서 위험 식별과 평가, 정책 수립, 전사적인 문화 내재화가 이루어져야 함을 강조하며, 기업이 기술 혁신과 인권 보호의 균형을 이루기 위해 더욱 적극적으로 나서야 한다고 당부했습니다.

*일반 데이터 보호 규칙(General Data Protection Regulation, GEPR): 유럽연합(EU)과 유럽경제지역(EEA) 내 모든 개인의 개인정보 보호를 강화하는 규제로, 개인정보 보호를 통한 유럽 내 보안 체계 통합과 국제 비즈니스 환경에서의 규제 복잡성 감소를 목표로 함.

임용 서울대학교 법학전문대학원 교수가 좌장을 맡은 패널 토론에서는 김금선 한국마이크로소프트 변호사, 하정우 네이버 퓨처AI센터장, 구본권 사람과디지털연구소장, 송세련 교수가 참여하여 디지털 기술로 인해 발생하는 인권 리스크의 관리에 대한 구체적 사례와 기업 대응 방안을 논의했습니다.

▲ 김금선 한국마이크로소프트 변호사       ▲ 하정우 네이버 퓨처AI센터장        ▲ 구본권 사람과디지털연구소장      

김금선 변호사는 마이크로소프트가 책임 있는 AI를 위해 2016년부터 추진해 온 AI 원칙과 정책을 소개하며, 공정성, 신뢰성, 안전성을 보장하는 방향으로 AI 시스템을 설계하고 운영하는 회사의 노력에 대해 설명했습니다. 특히 안면 인식과 같은 민감한 AI 기술의 경우 특정 요건을 만족해야만 사용을 허용하는 내부 절차를 마련해, 기술이 인권을 침해하지 않도록 지속적으로 관리하고 있다고 말했습니다.

하정우 센터장은 AI와 데이터 경제 시대에서 AI 에이전트가 사용자들에게 실질적인 도움을 주는 도구로 자리 잡을 가능성을 언급하면서, 이러한 기술이 개인정보 보호와 인권을 침해하지 않는 방식으로 사용될 수 있도록 지속적으로 개선하고 있다고 전했습니다. 그는 맞춤형 AI 에이전트 시대를 대비해 네이버는 개인화된 데이터의 안전한 활용을 위해 AI 에이전트를 관리하는 절차를 강화해 나갈 계획이라고 밝혔습니다.

구본권 소장은 ‘잊혀질 권리’와 같은 새로운 인권 개념의 중요성을 강조했습니다. 구 소장은 디지털 기술의 발전으로 인해 개인의 모든 기록이 영구히 남게 되어 새로운 형태의 인권 침해가 발생하고 있다고 설명했습니다. 또한, AI와 빅데이터 시대에 맞춰 인공지능 알고리즘의 편향과 사생활 침해 문제에 대응할 필요성을 언급하며, 이러한 기술들이 인간 중심으로 설계되고 규제되어야 함을 강조했습니다.

▲ 임용 서울대학교 법학전문대학원 교수       ▲ 송세련 경희대학교 법학전문대학원 교수

Q. 디지털 경제에서 공익 목적의 데이터 기부가 인권에 미치는 영향에 대해 어떻게 생각하는가?

A. 송세련 교수: 데이터는 오늘날의 경제적 자산이자 사회적 자산이다. EU처럼 데이터를 자발적으로 기부하여 공익에 활용하는 방식은 긍정적이지만, 데이터를 수집하는 방식과 동의의 과정이 명확하게 정립되어야 한다. 우리나라에서도 데이터 가치를 인식하고 자발적 데이터 기부가 가능해지려면, 기업과 개인이 데이터의 사회적 역할과 가치에 대해 명확히 이해하는 환경이 조성되어야 한다.

Q. AI와 디지털 기술 발전으로 인해 일자리 감소에 대한 우려가 커지고 있다. 이러한 변화 속에서 노동자의 역할은 어떻게 변화할 것으로 보는지, 그리고 이를 긍정적으로 전환하기 위해 필요한 요소는 무엇이라고 생각하는가?

A. 송세련 교수: AI로 인해 사라질 직업을 생각하면 위기감이 들지만, 희망적인 면도 존재한다. AI가 재편할 경제지형 속에서 인간이 해야 할 새로운 역할들이 많이 생길 것으로 기대된다. 두 가지 중요한 것은, 첫째로 산업혁명 시기 포디즘(Fordism)처럼 기술을 투명하게 공개하고 독점이 아닌 공유를 통한 경제적 발전을 이루는 것이다. 둘째로 노동자에게 재교육 기회를 충분히 제공하여 변화된 환경에서 실질적으로 도움이 되도록 지원하는 것이다.

Q. 생성형 AI 시대에 들어와 개인의 외형적 특징(Likeness)이 탈취될 위험이 제기되고 있다. 이러한 시대에 ‘잊혀질 권리’는 어떻게 해석되어야 하는가?

A. 구본권 소장: 과거에는 정보가 체계적으로 인덱싱되지 않아 쉽게 접근할 수 없었기 때문에 프라이버시에 대한 위기감이 덜했다. 그러나 지금은 모든 정보가 인덱싱되어 누구나 쉽게 접근할 수 있어 위기감이 커지고 있다. AI 모방의 경우, 컴퓨터는 서로 다른 정보로 인식할 수 있지만, 사람들은 이를 유사하다고 판단하는 경우가 많다. 생성형 AI 시대에는 딥페이크 기술과 같이 사람의 외형적 특징이 탈취되지 않도록 사회적 공론화가 필요하다. AI가 기준이 아니라 인간의 시각과 가치를 중심으로 논의와 제도 마련이 이루어져야 한다.

Q. AI 에이전트가 개인정보를 안전하게 관리하도록 하는 데 필요한 접근 방법은 무엇인가?

A. 하정우 센터장: AI 에이전트는 사용자의 업무와 과업을 지원하기 위해 개인 데이터를 활용할 수 있다. 따라서 신뢰성 있는 프로세스를 구축해 사용자의 데이터가 안전하게 관리되도록 해야 하며, 장기적으로 AI 에이전트가 사용자 맞춤형 기능을 제공하는 방식을 개발하는 것이 중요하다.

Q. 글로벌 테크 기업으로서 로컬의 특수한 문화와 환경을 어떻게 반영하는가?

A. 김금선 변호사: 글로벌 기업으로서 지역별 차이를 반영하는 데는 많은 어려움이 있지만, 마이크로소프트는 각 지역의 파트너십을 통해 로컬 문화에 맞춘 AI 접근을 모색하고 있다. 예를 들어, 한국에서도 최근 ‘책임 있는 AI’ 원칙을 발표하고 로컬 파트너들과 협력하여 정책 실행, 연구 활동 등을 전개하고 있다.

세션의 좌장을 맡은 임용 서울대 법학전문대학원 교수는 데이터 경제에서 인권 리스크 관리의 중요성이 점차 커지고 있음을 강조하며, 이러한 변화에 대응하기 위해 기업과 정부가 협력해야 할 필요성을 역설했습니다. 임 교수는 특히 기업들이 디지털 기술이 초래하는 인권 문제에 효과적으로 대응할 수 있도록 관련 지침과 교육을 마련하는 것이 중요하다고 말했습니다. 앞으로도 기업과 시민사회, 정부가 함께 인권 보호를 위한 디지털 생태계를 조성하는 데 협력해 나가기를 기대한다며 세션을 마무리했습니다.