WHO는 건강 분야의 인공 지능 (AI)에 대한 최초의 글로벌 보고서와 설계 및 사용을위한 6 가지 기본 원칙을 발표합니다.
인공 지능 (AI)은 전 세계적으로 의료 및 의료 제공을 개선 할 수있는 큰 가능성을 갖고 있지만, 오늘 발표 된 새로운 WHO 지침에 따르면 윤리와 인권이 설계, 배포 및 사용의 중심에 있어야합니다.
보고서, 건강을위한 인공 지능의 윤리 및 거버넌스, WHO가 임명 한 국제 전문가 패널이 2 년간 협의 한 결과.
"모든 신기술과 마찬가지로 인공 지능은 전 세계 수백만 명의 건강을 개선 할 수있는 엄청난 잠재력을 가지고 있지만 모든 기술과 마찬가지로 오용되어 해를 끼칠 수도 있습니다."라고 WHO 총장 인 Tedros Adhanom Ghebreyesus 박사는 말했습니다. "이 중요한 새 보고서는 AI의 이점을 극대화하는 동시에 위험을 최소화하고 함정을 피하는 방법에 대한 귀중한 가이드를 국가에 제공합니다."
인공 지능이 될 수 있으며 일부 부유 한 국가에서는 이미 질병 진단 및 선별의 속도와 정확성을 향상시키는 데 사용되고 있습니다. 임상 치료를 지원하기 위해; 건강 연구 및 약물 개발을 강화하고 질병 감시, 발병 대응 및 건강 시스템 관리와 같은 다양한 공중 보건 개입을 지원합니다.
또한 AI는 환자가 자신의 건강 관리를 더 잘 제어하고 진화하는 요구 사항을 더 잘 이해할 수 있도록 지원할 수 있습니다. 또한 자원이 부족한 국가와 환자가 종종 의료 종사자 또는 의료 전문가에 대한 접근을 제한하는 농촌 지역 사회를 통해 의료 서비스 접근의 격차를 해소 할 수 있습니다.
그러나 WHO의 새로운 보고서는 특히 보편적 인 건강 보험을 달성하는 데 필요한 핵심 투자와 전략을 희생하면서 AI가 건강에 미치는 이점을 과대 평가하지 않도록 경고합니다.
또한 기회가 건강 데이터의 비 윤리적 수집 및 사용을 포함하여 도전 및 위험과 연결되어 있음을 지적합니다. 알고리즘에 인코딩 된 편견과 환자 안전, 사이버 보안 및 환경에 대한 AI의 위험.
예를 들어 AI의 개발 및 배포에 대한 민간 및 공공 부문 투자가 중요하지만, AI의 규제되지 않은 사용은 환자와 지역 사회의 권리와 이익을 기술 회사의 강력한 상업적 이익 또는 감시 및 정부의 이익에 종속 될 수 있습니다. 사회적 통제.
이 보고서는 또한 주로 고소득 국가의 개인으로부터 수집 된 데이터에 대해 훈련 된 시스템이 저소득 및 중간 소득 환경의 개인에게 잘 작동하지 않을 수 있음을 강조합니다.
따라서 AI 시스템은 사회 경제적 및 건강 관리 환경의 다양성을 반영하도록 신중하게 설계되어야합니다. 특히 역할과 기능이 자동화 된 경우 디지털 문해력이나 재교육이 필요하고 의사 결정에 도전 할 수있는 기계와 경쟁해야하는 수백만 명의 의료 종사자들을 위해 디지털 기술, 커뮤니티 참여 및 인식 제고에 대한 교육이 수반되어야합니다. 제공자와 환자의 만들기와 자율성.
궁극적으로 기존 법률 및 인권 의무, 윤리 원칙을 명시하는 새로운 법률 및 정책에 따라 정부, 공급자 및 설계자는 AI 기술의 설계, 개발 및 배포의 모든 단계에서 윤리 및 인권 문제를 해결하기 위해 협력해야합니다. .
AI가 모든 국가의 공익을 위해 작동하도록 보장하는 6 가지 원칙
건강을위한 AI 사용에 내재 된 위험을 제한하고 기회를 극대화하기 위해 WHO는 AI 규제 및 거버넌스의 기반으로 다음 원칙을 제공합니다.
인간의 자율성 보호: 건강 관리의 맥락에서 이것은 인간이 건강 관리 시스템과 의료 결정을 계속 통제해야 함을 의미합니다. 프라이버시와 기밀성이 보호되어야하며 환자는 데이터 보호를위한 적절한 법적 프레임 워크를 통해 유효한 정보에 입각 한 동의를 제공해야합니다.
인간의 웰빙과 안전 및 공익 증진. AI 기술의 설계자는 잘 정의 된 사용 사례 또는 적응증의 안전성, 정확성 및 효율성에 대한 규제 요구 사항을 충족해야합니다. AI 사용에있어 실제 품질 관리 및 품질 향상에 대한 측정이 가능해야합니다.
투명성, 설명 가능성 및 명료성을 보장합니다. 투명성을 위해서는 AI 기술을 설계하거나 배포하기 전에 충분한 정보를 게시하거나 문서화해야합니다. 그러한 정보는 쉽게 접근 할 수 있어야하며 기술이 어떻게 설계되고 어떻게 사용되어야하는지 여부에 대한 의미있는 공개 협의 및 토론을 촉진해야합니다.
책임과 책임을 기릅니다. AI 기술은 특정 작업을 수행하지만 적절한 조건에서 적절한 교육을받은 사람이이를 사용하도록 보장하는 것은 이해 관계자의 책임입니다. 알고리즘을 기반으로 한 결정에 의해 부정적인 영향을받는 개인 및 그룹에 대한 질문과 시정에 효과적인 메커니즘을 사용할 수 있어야합니다.
포용성과 형평성을 보장합니다. 포용성은 건강을위한 AI가 연령, 성별, 성별, 소득, 인종, 민족성, 성적 지향, 능력 또는 인권법에 따라 보호되는 기타 특성에 관계없이 최대한 광범위하게 공평한 사용과 접근을 장려하도록 설계되어야합니다.
반응이 빠르고 지속 가능한 AI를 홍보합니다. 설계자, 개발자 및 사용자는 실제 사용 중에 AI 애플리케이션을 지속적이고 투명하게 평가하여 AI가 기대와 요구 사항에 적절하고 적절하게 반응하는지 확인해야합니다. 또한 AI 시스템은 환경 적 영향을 최소화하고 에너지 효율성을 높이도록 설계되어야합니다. 정부와 기업은 의료 종사자가 AI 시스템 사용에 적응할 수 있도록 교육하고 자동화 된 시스템 사용으로 인한 잠재적 인 일자리 손실을 포함하여 직장에서 예상되는 중단 문제를 해결해야합니다.
이러한 원칙은 미래의 WHO가 의료 및 공중 보건을위한 AI의 잠재력을 모두의 이익을 위해 사용할 수 있도록 지원하기위한 노력을 안내 할 것입니다.
https://www.who.int/news/item/28-06-2021-who-issues-first-global-report-on-ai-in-health-and-six-guiding-principles-for-its에서 -디자인 및 사용