인공지능 윤리는 어디에서 왔을까? 의학은 아니다
인공지능 윤리는 어디에서 왔을까? 의학은 아니다
  • 정의윤 기자
  • 승인 2019.12.28 14:25
  • 댓글 0
이 기사를 공유합니다

이미지 출처: D1_TheOne
이미지 출처: D1_TheOne

[퓨처타임즈=정의윤기자] 인공지능의 파괴적 잠재력에 대한 두려움이 커지면서 최근 몇 년 동안 인공지능 윤리가 대두되었다. 프라이버시, 투명성 및 예상치 못한 방식으로 사회 및 정치 담론을 왜곡하는 알고리즘의 능력에 대한 우려로 인해 기업, 정부 및 초국가적 조직에서 윤리적 인공지능 개발을 수행하는 방법에 대한 선언문이 쏟아졌다.

대다수는 이러한 시스템을 구축하는 사람들에게 지침이 되는 고급 원칙을 개괄하는 데 중점을 두었다. 우연이든 의도적으로든, 그들이 결합한 원칙은 의학 윤리의 핵심에 있는 원칙과 매우 유사하다. 그러나 옥스포드대학(University of Oxford)의 브렌트 미텔슈타트(Brent Mittelstadt)는 네이처 머신 인텔리전스(Nature Machine Intelligence)에 글을 쓰며 인공지능 개발은 의학과는 매우 다른 짐승이며 간단한 복사와 붙여 넣기는 효과가 없을 것이라고 지적했다.

의학적 윤리의 4가지 핵심 원칙은 자율성(환자가 치료 방법을 통제해야 함), 선의(의사가 환자의 최선의 이익을 위해 행동해야 함), 비 유해성(의사가 피해를 입지 않아야 함) 및 정의(의료자원은 공정하게 분배되어야 함)에 대한 존중이다. .

공표 된 80개 이상의 인공지능 윤리 보고서는 동질적이지만 유사한 존중, 자율성, 공정성 및 피해 예방과 관련된 주제와는 거리가 멀다. 그리고 이것은 인공지능 개발에 적용 할 합리적인 원칙처럼 보인다. 미텔슈타트는 문제는 의학과 같은 학문의 맥락에서 원칙은 효과적인 도구이지만 인공지능에는 적합하지 않다고 지적했다.

의사는 환자의 건강을 증진시키는 데 있어 공통의 목표를 가지고 있으며, 윤리적 의사 결정과 관련하여 최고 관심사가 청구된다. 이 연대의 중심점은 광범위하게 균질한 전문 문화와 윤리적 틀로 이끄는 규범과 표준의 역사를 공유했다. 이것은 전문적인 행동강령 및 규제체계로 더욱 공식화 되었으며, 부족한 사람들에게는 엄격한 처벌을 받는다.

인공지능은 환자와 동등하지 않으며 인공지능 개발자의 목표와 우선 순위는 인공지능을 적용하는 방법과 개인 또는 공공 분야에서 일하고 있는지에 따라 매우 다를 수 있다. 인공지능 실무자는 의사와 변호사의 방식으로 공공 서비스에 헌신 할 필요가 없으며 전문적 또는 법적으로 회계 책임을 지도록 하는 메커니즘은 거의 없다.

실제로 다른 분야에서 볼 수 있는 것과 유사한 분야에 대한 전문적인 표준을 만들려고 노력하는 것은 의미가 없다고 미텔슈타트는 말한다. "인공지능 개발자는 각각 고유한 역사와 문화를 가진 다양한 분야와 전문 배경을 가지고 있다. 필드를 단일 직업 또는 전문 지식 유형으로 줄이는 것은 지나치게 단순화 된 것이다."

인공지능 시스템은 여러 학제 간 팀이 개발 및 배포의 여러 단계에서 생성하기 때문에 개별 개발자의 결정에 윤리적으로 미치는 영향을 추적하는 것은 거의 불가능하여 이러한 선택을 안내하는 표준을 만들 수 있는 능력을 저해한다.

결과적으로 인공지능 윤리는 높은 수준의 원칙에 중점을 두었지만 이 추상화 수준에서는 실제로 행동을 이끌어 내기에는 너무 모호하다. 공정성이나 존엄성 같은 아이디어는 보편적으로 합의 된 것이 아니므로 각 실무자는 이를 구현하는 방법을 결정해야 한다.

미텔슈타트는“실제로 규범적 이론, 개념 및 가치를 인공지능 실무자들이 채택 할 수 있는 모범 사례로 바꾸는 윤리의 진정으로 어려운 부분은 길을 걷어차고 있다”고 말했다.

의학에서 이것은 윤리 검토위원회, 라이센싱 체계, 기관 정책 수립에 의한 노력이 인공지능에 존재하지 않는 노력을 통해 이루어진다. 이는 인공지능 윤리 원칙에 대한 높은 언어에도 불구하고 행동으로 전환 될 가능성이 적다는 것을 의미한다.

미텔슈타트는“자체 거버넌스가 실패 할 때 개입 할 보완적인 징벌적 메커니즘과 거버넌스 기구가 없다면, 원칙적 접근 방식은 단순히 윤리적이거나 신뢰할 수 있는 인공지능에 대한 잘못된 보증을 제공 할 위험이 있다"고 기술한다.

대신, 그는 인공지능의 작은 하위 분야에 중점을 두고 윤리적 원칙을 개발하고 도전적인 소설 사례를 해결하는 인공지능 윤리에 대한 상향식 접근법을 요구한다. 또한 얼굴 인식이나 치안과 같이 공공 분야에서 고위험 인공지능 응용 프로그램 개발자에게 라이센스를 부여하여 비 윤리적 행동에 대한 처벌 전문가 중요성을 소개한다.

또한 개별 전문가가 아닌 조직에 윤리적 책임을 다시 교육해야 한다. 이를 통해 개별 개발자의 모든 것을 비난하는 것이 아니라 특정 응용 프로그램 및 기본 비즈니스의 적법성에 중점을 둘 수 있다. 마지막으로 윤리는 기술 수정으로 해결할 수 있는 솔루션이 아니라 개발자가 하는 모든 작업에 내장되어야 하는 프로세스로 간주해야 한다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.