인공지능(AI)이 재정의하는 윤리는? 윤리적인 인공지능 시스템 관리를 위한 4가지 핵심요소

0

인공지능(AI)은 1950년대부터 머신러닝, 링크 걸기 시작 딥러닝(deep learning), 인지 컴퓨팅(cognitive computing)이 점차 발전하면서 우리와 꽤 오랜 시간을 함께 해왔습니다. 최근 달라진 점이 있다면 아마 활용할 수 있는 데이터의 양이 어마어마하게 늘었다는 것인데요. 방대한 양의 데이터 덕분에 오늘날 과거에는 불가능했던 방식으로 인공지능 기반의 모델을 학습시킬 수 있게 되었습니다. 이러한 인공지능은 지금의 세상과 거대한 데이터를 이해하는 일에 핵심적인 역할을 하고 있죠.

이 말은 결국 인공지능이 프로세스와 개인 모두에게 미치는 영향이 급격하게 증가했음을 의미함과 동시에 기술이 지속적으로 발전할 수 있도록 인공지능 시스템을 윤리적으로 관리할 수 있어야 함을 뜻하는데요. 최근 포브스 인사이트(Forbes Insights)의 ‘성공을 위한 AI 모멘텀, 성숙 및 모델(AI Momentum, Maturity and Models for Success)’ 연구 결과에 따르면 대부분의 기업이 인공지능 기술 활용을 고민할 때 최우선적으로 ‘윤리’를 고려한다고 합니다. 인공지능이 기업과 시장에 거대한 영향을 미치기 때문에 기업은 영향 평가와 윤리적인 검토를 통해 인공지능이 긍정적인 근무 환경을 조성하고 비용 절감에 도움을 주는 지 확인해야 합니다.

인공지능이 일자리에 미칠 가장 큰 영향은

인공지능이 조직에 큰 영향을 미칠 것에 대해서는 의문의 여지가 없습니다. 포브스(Forbes)가 최근 발표한 연구 결과에 따르면 2035년까지 인공지능을 활용할 경우 38%의 수익 증가를 얻을 수 있을 것이라고 하는데요. 기업이 이런 큰 이익 증대를 얻기 위해서는 자동화를 통해 조직 운영 방식을 크게 바꿔야 합니다. 하지만 일자리 측면에서 본다면 자동화에 의한 기업 변화는 긍정적일 수도, 부정적일 수도 있습니다.

몇몇 전문가들은 인공지능이 사람의 일자리를 대체해 현재 사람이 수행하는 작업을 대신할 것이라고 예측했는데요. 이러한 작업 과정 중 데이터를 듣고 감지하는 인지의 영역은 이미 센서가 탑재된 차량과 공장, 그리고 수 많은 산업 영역에서 기계에 의해 감지되고 수집되고 있습니다. 그렇다면, 인공지능으로 인한 가장 큰 변화는 데이터를 분석하고 그에 따라 행동하는 과정에 있을 것입니다. 인공지능의 부정적인 측면에 주목하는 평론가들은 이것이 대규모의 일자리 감소를 초래할 수 있다고 강조해왔지만 다른 평론가들은 인공지능 시스템과 함께 작업하는 새로운 일자리가 생길 것이라는 의견을 내고 있습니다.

아마도 이에 대한 가장 큰 질문은 ‘사람을 대체하는 기계가 사람이 원하는 방식과 그 기대치에 맞게 작업을 수행할 수 있다는 것을 어떻게 보장할 것인가?’일 텐데요. 결국 이 질문은 인공지능 애플리케이션이 효율적으로 운영될 수 있도록 관리하는 프로세스를 갖췄는지를 의미합니다.

윤리적인 인공지능을 위한 네 가지 핵심 요소

인공지능의 윤리적인 발전을 위해서 고려해야 하나의 기본 체계는 ‘FATE’인데요. 이 약어를 구성하는 네 단어는 ‘공평함(Fair)’, ‘책임(Accountability)’, ‘투명성(Transparency)’, ‘설명력(Explainability)’인데요. 이 네 가지 요소를 통해 효과적인 인공지능 시스템 관리를 위한 체계를 마련할 수 있습니다.

  • 공평함(Fair)은 기업이 가진 편견이나 차별을 없애는 것을 의미합니다. 시스템은 사람이 가지는 편견을 배제하고 새로운 기계적인 편견을 만들어내서는 안됩니다. 예로, 실리콘밸리에서 초기에 개발된 얼굴 인식 모델은 백인의 얼굴을 인식하는 데에는 뛰어났지만 아시아 또는 아프리카계 미국인의 얼굴 인식 능력은 좋지 못했습니다. 이는 데이터 세트의 속성이 반영되었다는 것을 의미합니다. 모델 학습 과정에서 익힌 사진 중 아시아인과 아프리카계 미국인의 사진이 많지 않았다는 것이죠. 여기서 고려해야 할 사항은 인공지능이 만든 결과에 대한 옳고 그름을 누가 결정하냐는 것입니다. 이에 대한 답은 대부분 산업과 맥락에 따라 결정됩니다.
  • 책임(Accountability)은 의사 결정 소유권자가 행동의 책임을 지는 것을 나타냅니다. 조직은 의사 결정에 대한 책임이 어디에 있는지 고려해야 하며, 이러한 책임은 문화적인 요인에 따라 달라지기도 합니다.
  • 투명성(Transparency)은 시작부터 끝까지 프로세스에 대한 높은 이해도를 가지고 있다는 것을 의미합니다. 이러한 투명성을 거치면 시스템이 내린 결정에 대한 신뢰도를 높일 수 있습니다.
  • 설명력(Explainability)은 내린 의사결정을 설명하고 이해시킬 수 있는 능력을 뜻합니다. 이는 모든 모델의 핵심이라 할 수 있는 해석에 관한 것입니다. 투명성 높은 프로세스가 설명력이 있는 모델을 만들 가능성이 높기 때문에 투명성 요소와 밀접하게 관련되어 있습니다. 일반적인 모델의 경우 균형 있는 정확도와 해석 능력을 보이는데요, 이보다 복잡한 모델은 더 정확할 수 있지만 동시에 이해하고 설명하기가 더 어렵습니다.

인공지능이 직장 업무 환경에 긍정적으로 미치는 영향 중 하나는 직원들이 단순노동에서 벗어나 더욱 보람 있는 일을 할 수 있다는 것입니다. 포브스 인사이트에 따르면 10명 중 6명이 인공지능 기술을 통해 행정 업무보다는 전략적인 업무에 집중하게 되어 인공지능의 효과에 대해 강력하게 동의한다고 하는데요. 이러한 업무 중 일부는 새로운 인공지능 시스템이 효과적으로 작동되도록 해당 시스템과 협업하는 업무일 것으로 예상됩니다.

인공지능 시스템은 사람의 노력을 증대시킬 수 있다는 엄청난 이점을 가지고 있지만, 때로는 인공지능 기술을 발전시키기 위한 사람의 노력도 필요합니다. 인공지능 시스템은 스스로 관리할 수 있도록 개발될 수 있지만 이를 위해서는 인공지능이 옳은 결정을 내리는 지 확인하고 감독하는 업무가 필요합니다. 이러한 결정 중 많은 부분이 인공지능을 통해 가능하거나 할 수 있는 일이 아닌, 우리가 해야 하는 일에 관한 문제로 이어질 것이며 이러한 결정은 어디까지나 사람의 영역이라 할 수 있습니다.


해당 기사는 Iain Brown의 기사를 일부 편집한 내용입니다.
Tags
Share

About Author

SAS Korea

Related Posts

Leave A Reply

Back to Top