책임감 있는 AI를 시작하는 방법

0

사회의 모든 측면에서 인공 지능(AI) 채택이 급격히 증가함에 따라 윤리는 기술의 새로운 프론티어임이 입증되고 있습니다. 대중의 인식, 언론 조사 및 향후 규정으로 인해 조직과 데이터 과학 커뮤니티는 AI 사용의 윤리적 의미를 고려해야 합니다.

인적 요소를 고려하고 비즈니스 결과에 기여할 뿐만 아니라 개인, 사회 및 환경을 보호하는 AI 시스템을 개발할 필요성을 뒷받침하는 "책임감 있는 AI(Responsible AI)의 필수 요소"에 대한 많은 원칙들을 이야기하는 다양한 버전이 있으며 이들은 거의 동일한 것을 이야기하고 있습니다. "책임감 있는 AI(Responsible AI)의 필수 요소"에 대해 자세히 살펴보려면 “The Vital Ingredients of Responsible AI,”( https://blogs.sas.com/content/hiddeninsights/2021/11/02/the-vital-ingredients-of-responsible-ai/)를 참고하시기 바랍니다.

이러한 책임감 있는 AI에 대한 원칙을 실제로 적용하는 것은 훨씬 더 복잡합니다. 흔히 그렇듯이 기술적인 적용은 쉬운 부분입니다. 조직은 또한 데이터에서 의사 결정에 이르는 종단 간 분석 수명 주기에서 필요한 규칙, 표준, 보호 및 프로세스를 설정하기 위해 거버넌스 프레임워크를 설정해야 합니다. 이를 위한 사전 전략이 있어야 하며, 집단적으로나 개별적으로 책임 문화를 육성하는 데 중점을 두어야 합니다.

이 작업이 벅차게 보일 수 있지만, 책임감 있는 AI를 시작할 때 얼리 어답터가 유용하다고 생각한 고려 사항이 있습니다.

  1. 상황에 맞는 원칙을 세워라 (Contextualize the principles)

조직의 가치 및 우선 순위에 따라 책임감 있는 AI(Responsible AI) 원칙의 고유 버전을 정의한 후 첫 번째 과제는 이러한 원칙을 AI 시스템 개발, 배포 및 사용에 관련된 모든 사람들과 소통할 수 있는 실용적인 지침으로 변환하는 것입니다.  그것들을 맥락화해야 하는 이유는 당신이 운영하는 산업, 솔루션이 배포된 국가, 조직의 문화 및 AI 어플리케이션에 대한 사용의도 따라 단일 원칙이 같은 방식으로 적용되지 않을 수 있기 때문입니다.

예를 들어, 건강 관리에서 성별 변수를 사용하는 것은 의학적 상태의 분석 및 진단을 지원하는 데 중요할 수 있습니다. 그러나 대출을 승인하기 위해 성별을 사용하는 것은 일반적으로 허용되지 않습니다. 상업 웹사이트에서 차선책을 제시하는 데 필요한 투명성 수준은 다른 것들에 필요한 수준과 다릅니다. 채용 과정에서 이력서를 심사하거나, 사회 혜택 청구에서 잠재적인 사기를 표시하거나, 유죄 판결을 받은 범죄자가 재범할 가능성을 계산하는 경우에는 다를 수 있습니다.

일기 예보에 사용되는 AI 시스템에 필요한 보안 수준은 군사 애플리케이션을 위해 매우 민감한 데이터를 처리하는 것과 같지 않습니다. 원칙을 특정 지침에 맞게 적용해야 합니다. 그리고 윤리적 의미와 위험을 평가하기 위한 방법론을 수립해야 합니다.

  1. 책임감 있는 AI(Responsible AI)를 데이터 및 분석 전략의 일부로 포함해라!

두 번째 적용을 위한 권고 사항은 책임감 있는 AI(Responsible AI) 자체를 주요주제로 다루지 않는 것입니다. 책임감 있는 AI(Responsible AI)를 데이터 및 분석 전략에서 분리할 수 없습니다. 그리고 책임감 있는 AI(Responsible AI) 원칙을 기존 디지털 트랜스포메이션 (digital transformation) 프로그램에 포함시켜야 합니다.

누가 책임감 있는 AI (Responsible AI)에 대한 책임을 가져야 합니까? 현재 "AI 윤리학자"라는 새로운 직업에 대한 과대 광고가 있습니다. 문서에 따르면 일종의 유니콘으로, 방대한 AI 도구와 기술을 통달할 수 있고, 비즈니스와 산업을 이해할 수 있는 충분한 경험을 갖고 있으며, 그 안에 존재하는 특정 AI 윤리적 위험을 식별할 수 있는 사람이 있습니다. 광범위한 규제, 법률 및 정책 지식 등을 갖춘 훌륭한 의사 소통 기술과 조직 경계를 넘어 작업할 수 있는 능력. 실제로, 당신은 그것을 찾지 못할 것이 거의 확실합니다!

좋은 소식은 팀 노력으로 더 나은 서비스를 받을 수 있기 때문에 필요하지 않을 수 있다는 것입니다. 다양한 사람들이 자신의 특정 기술을 가져올 수 있으며 다양성은 개인의 편견에 대한 보호 장치 역할을 합니다.

AI 윤리학자가 필요하지 않을 수도 있지만 이러한 노력을 이끌 전담팀을 지정하는 것을 고려해야 합니다. 부서 전반과 AI 수명 주기의 모든 단계에서 책임감 있는 AI(Responsible AI) 원칙의 운영을 조율할 수 있습니다. 또한 이 팀이 조직의 비즈니스 측면에서 가능한 가장 높은 수준에서 보고할 것을 권장합니다. IT 팀과 분석 팀 모두 약간의 이해 상충이 있으며 이러한 책임을 수행하기에 적합하지 않을 수 있습니다.

피해야 할 위험

법무 부서에 윤리 팀을 구성하지 마십시오. 이것은 책임감 있는 AI(Responsible AI)를 순수한 규정 준수 및 책임 문제로 만들 것입니다. 또한 데이터 과학자가 책임감 있는 AI(Responsible AI) 요구 사항의 유일한 수호자나 청지기가 되어서도 안 됩니다. 데이터 과학자는 투명하고 설명 가능하며 배포 가능한 예측 모델을 설계하고 개발하는 역할을 합니다. 그러나 그들은 종단 간 AI 수명 주기의 작은 부분만을 소유하고 있습니다.

일부에서는 데이터 과학(Data science)이 규제를 받는 직업이 되어야 한다고 주장합니다. 또는 데이터 과학자는 의사가 하는 히포크라테스 선서와 유사한 일종의 맹세를 해야 합니다. 이 이면의 좋은 의도를 알 수는 있지만 실용적일지는 모르겠습니다. 그리고 저는 책임감 있는 AI(Responsible AI)가 실제로 훨씬 더 광범위한 문제일 때 데이터 과학의 렌즈를 통해 보고 있다고 생각합니다.

  1. AI 수명 주기의 모든 단계에서 책임감 있는 AI(Responsible AI) 원칙을 넣어라

방금 논의한 것처럼 데이터 과학은 AI 라이프사이클 전과정의 일부일 뿐입니다.

적절한 체크리스트와 보호 장치를 사용하여 처음부터 끝까지 모든 단계에서 책임감 있는 AI(Responsible AI) 원칙을 준수합니다. 이것은 AI 시스템의 시작과 설계로 시작됩니다. 윤리적 위험을 평가합니다. 그리고 완화 조치와 성공 기준을 정의합니다.

데이터 수집(Data collection): 데이터 수집 중에 데이터를 사용하고 민감한 속성을 보호하기 위해 개인의 명시적 동의를 수집해야 합니다. 나중에 해당 변수와 관련된 편향을 측정하고 완화할 수 있도록 해당 개인 및 민감한 데이터 중 일부를 수집하려고 합니다. 동의 정보와 함께 데이터를 저장하는 민감한 변수에 플래그를 지정해야 합니다.

데이터 준비 및 분석(Data preparation and analysis): 데이터 준비 및 분석 중에 편향을 평가합니다. 훈련 데이터는 알고리즘이 사용하도록 설계된 모집단을 대표해야 합니다. 개인 정보를 보호하고 훈련 데이터의 편향을 줄이기 위해 데이터 세트에 더 많은 다양성을 추가하기 위해 합성 데이터를 사용하는 것을 고려할 수 있습니다.

모델링 및 테스트(Modeling and testing): 모델링 및 테스트 중에 코드 문서화와 PD, ​​ICE, LIME 및 SHAP와 같은 설명 가능성 알고리즘 기술의 사용과 관련하여 수행해야 할 몇 가지 분명한 작업이 있습니다. 그러나 나의 주요 권장 사항은 가능한 한 단순하게 유지하는 것입니다. 머신 러닝이 모든 것에 대한 답은 아니며 정확성과 투명성 및 설명 가능성의 균형을 맞춰야 합니다. 기계 학습을 사용하여 얻을 수 있는 점진적인 이점은 설명 가능성 측면에서 이러한 모델과 절충안을 구축 및 배포하기 위한 노력의 가치가 없는 경우가 있습니다. 따라서 단순 선형 회귀가 충분하면 그냥 가십시오!

개발 (Development): 분석 모델 및 AI 애플리케이션을 배포하는 동안 핵심은 CI/CD(continuous integration/continuous delivery)파이프라인과 같은 자동화되고 예측 가능하며 반복 가능한 프로세스를 사용하는 것입니다. 그 과정에서 계보 정보를 캡처하는 것도 중요합니다. 이를 통해 모델 학습에 사용된 데이터, 예측을 수행하는 데 사용된 모델 및 예측이 사용된 방식을 추적할 수 있습니다. 또한 결정을 내리고 결과와 영향을 확인하기 위한 몇 가지 비즈니스 논리가 있습니다.

생산 (Production): AI 애플리케이션이 생산에 들어가면 편향되었다고 가정하고 이를 반증하려고 합니다. 모델의 출력과 모델이 내리는 결정의 편향을 사전에 모니터링해야 합니다. 다양한 이해 관계자가 이해할 수 있는 방식으로 공유할 수 있는 KPI 시스템과 일부 편견 및 공정성 대시보드를 구축합니다.

  1. ModelOps 프레임워크 활용

분석의 수준에 따라 더 이상 가능성의 영역을 탐색하고 새로운 기술을 실험하지 않는 것이 과제가 되는 지점에 도달했을 수 있습니다. 조치가 취해지고 의사결정이 내려지고 비즈니스 결과가 실현되는 비즈니스 최전선에서 분석을 운영하고 분석 인사이트 도출 또는 예측 모델의 결과를 프로덕션으로 가져올 준비가 되어 있을 수 있습니다.

이를 효과적으로 수행하려면 엔드 투 엔드 라이프 사이클을 산업화하여 배포 프로세스를 가속화하고 통제되는 환경에서 안정적이고 일관된 출력을 생성하여 궁극적으로 디지털 혁신의 일부로 분석 기반 의사 결정을 확장해야 합니다. 이를 수행하는 방법론을 ModelOps(또는 MLOps)라고 하며 여기에는 자동화된 배포 및 모니터링 프로세스는 물론 AI에 대한 공식 거버넌스 모델 구현이 포함됩니다.

흥미로운 점은 동일한 거버넌스 프레임워크와 기본 기능이 책임감 있는 AI(Responsible AI)의 많은 요구 사항을 지원할 가능성이 있다는 것입니다. 실제로 ModelOps를 사용하면 표현을 허용하면 하나의 돌로 세 마리의 새를 잡을 수 있습니다. 분석을 확장하고 분석을 운영하고 책임감 있게 수행할 수 있습니다.

  1. 기다리지 말고 오늘 시작하세요!

마지막 권장 사항은 기다리지 않는 것입니다. 규정이 시행될 때까지 기다리지 마십시오. 책임감 있는 AI(Responsible AI) 원칙을 구현하는 것은 나중에 생각할 수 없습니다. 이를 기존 AI 애플리케이션으로 재작업하는 것은 처음부터 이를 포함하는 것보다 훨씬 더 많은 비용이 들 것입니다. 아마도 모든 것을 다시 구축해야 하고 행동과 프로세스를 변경하기 위한 힘든 과정에 직면해야 하기 때문입니다. The journey starts now!

※해당 블로그 컨텐츠는 원문을 참고해 작성되었습니다.

Tags
Share

About Author


Principal Systems Engineer • Advanced Analytics

Related Posts

Leave A Reply

Back to Top