본문 바로가기

과학/IT

美 브루킹스硏, 인공지능 윤리적 딜레마 대책 논의...구글, MS, IBM, OpenAI 등 파트너십

세계는 인공지능(AI) 기술의 발전을 주목하고 있다. 경제, 금융, 국방, 의료, 사법 및 교육 등 사회 전반에서 인공 지능 분야에서 특별한 발전을 보이고 있다.


그러나 동시에 AI에 포함 된 윤리적 가치와 알고리즘이 기본적인 인간 존중 등에 대한 우려가 있다.

윤리학자들은 AI의 투명성과 책임성 부족, 불공정과 편견에 대해 걱정한다. 각 응용 프로그램을 구성하는 수백만 줄의 코드, 소프트웨어에서 알고리즘이 자동화된 결정에 도달하는 과정을 알기 어렵다. 소프트웨어개발 과정에서 코더는 알고리즘이 작동하고 결정을 내리는 데 영향을 미치는 대다수의 결정을 내린다.


미국 워싱턴D.C 정책싱크탱크 '브루킹스연구소(Brookings Institution)'는 '인공지능 미래를 위한 청사진(A BLUEPRINT FOR THE FUTURE OF AI)' 시리즈의 일환으로 최근 'AI시대 윤리적 딜레마에 대한 대비(Preparing for the ethical dilemmas of the AI era)' 패널 토의를 진행했다. 크리스 메저롤(Chris Meserole) 대외정책 펠로우(Fellow - Foreign Policy, Center for Middle East Policy)가 사회를 맡았다.


전체글 : [AI윤리①]美 브루킹스硏, 인공지능 윤리적 딜레마 대책 논의…구글, MS, IBM, OpenAI 등 파트너십

패널은 윌리엄 갈스턴(William A. Galston) 에즈라 질카 의장(Ezra K. Zilkha Chair), 빌 갈스턴(BillGalston) 거버넌스연구 부소장(vice president of Governance Studies), 첼리나 추(Charina Chou) 구글 신기술글로벌정책리드(Global Policy Lead for Emerging Technologies- Google),
히더 페터슨(Heather Patterson) 인텔연구소 선임과학자(Senior Research Scientist - Intel Labs) 등이 참가 했다.

이들은 무기 및 군사 관련 응용 프로그램, 법률, 정부 감시, 인종 편향 문제, 사회적 신용 시스템 등 5 가지 AI 윤리적 딜레마를 검토했다. 기술 회사가 이러한 문제를 다루는 방법과 이러한 문제를 해결하기 위한 원칙 및 프로세스의 중요성에 대해 논의, 의사 결정에서 윤리성 강화를 지적했다.


기업 차원에서 AI 윤리를 진지하게 검토하기 위한 몇 가지 단계는 이렇다.


기업 의사 결정자 및 소프트웨어 개발자와 협력하는 윤리 전문가 고용.
다양한 문제 처리 방법을 설명하는 AI 윤리 강령 개발.
기업의 윤리적 질문에 정기적으로 답변하는 인공지능 검토 보드 마련.
다양한 코딩에서 의사 결정 과정을 보여주는 AI감사 추적기법 개발.
직원이 일상 업무에서 윤리적 고려 사항을 운영 할 수 있도록 AI 교육 프로그램 구현.
인공 지능 솔루션이 사람이나 조직에 해를 입히거나 피해를 입힐 때 복구 방법 제공.