머신러닝 알고리즘은 특정 영역에서 인간의 성능을 능가하기 시작했으나 의사결정을 설명할 수 없다
머신러닝 알고리즘은 특정 영역에서 인간의 성능을 능가하기 시작했으나 의사결정을 설명할 수 없다
  • 최영란 기자
  • 승인 2019.12.23 16:12
  • 댓글 0
이 기사를 공유합니다

사진=Seanbatty
사진=Seanbatty

[퓨처타임즈=최영란기자] 머신러닝 알고리즘은 이미지 인식 및 특정 유형의 의료 진단과 같이 여러 가지 좁은 특정 영역에서 인간의 성능을 능가하기 시작했다. 또한 인간과 유사한 텍스트를 생성하는 것과 같이 보다 복잡한 영역에서도 빠르게 개선되고 있다. 우리는 머신러닝 알고리즘에 점점 더 많은 주제를 결정하기 위해 점점 더 많은 주제를 결정한다.

그러나 머신러닝 알고리즘은 의사 결정을 설명 할 수 없다. 사람들이 그러한 결정을 내리는 방법을 이해하지 못하는 경우 사람들의 삶에 영향을 미치는 결정을 담당하도록 이러한 시스템을 배치하는 것을 어떻게 정당화 할 수 있을까? 머신러닝 알고리즘에서 원시 숫자 이상을 얻으려는 이러한 욕구는 설명 가능한 인공지능, 즉 결정을 내리거나 조치를 취할 수 있는 알고리즘에 대한 새로운 초점을 가져 왔다.

무슨 말을 하는 것인가?

어떤 상황에서는 이미 설명 가능한 인공지능으로 가는 길을 볼 수 있다. OpenAI의 GTP-2 모델 또는 IBM의 프로젝트 토론자를 선택해보자. 이 두 가지 모두 대규모 훈련 데이터를 기반으로 텍스트를 생성하고 주어진 프롬프트에 최대한 관련성을 갖도록 노력한다. 이 모델이 정보를 얻은 훈련 데이터 모음에서 상위 몇 가지 소스에 대한 빠른 요약을 제공 할 수 있는 경우, "인수"(또는 유니콘에 대한 시적 에세이)가 어디에서 왔는지 이해하는 것이 더 쉬울 수 있다.

이는 구글이 현재 이미지 분류기를 찾고 있는 접근 방식과 유사하다. 많은 알고리즘은 사람처럼 윤곽선으로 객체를 인식하는 대신 텍스처와 이미지의 인접한 픽셀 간의 관계에 더 민감하다. 이것은 이상한 결과를 낳는다. 일부 알고리즘은 북극곰의 완전히 뒤섞인 이미지를 행복하게 식별 할 수 있지만 북극곰 실루엣은 아니다.

이미지 분류기를 설명 가능하게 만들려는 이전의 시도는 중요도 매핑에 의존했다. 이 방법에서 알고리즘은 결정을 내리는 데 가장 통계적 가중치를 부여한 이미지 영역을 강조한다. 이것은 일반적으로 이미지에서 픽셀 그룹을 변경하고 이미지가 무엇인지에 대한 알고리즘의 인상에 가장 큰 영향을 미치는 것을 확인함으로써 결정된다. 예를 들어, 알고리즘이 정지 신호를 인식하려고 하는 경우 배경을 변경하는 것이 부호를 변경하는 것만큼 중요하지는 않다.

구글의 새로운 접근 방식은 알고리즘이 객체를 여러 가지 해상도로 검사하고 기본 객체 내의 다른 "하위 객체"와 일치하는 항목을 검색하여 객체를 인식하는 방식을 변경한다. 귀하 또는 본인은 깜박이는 표시 등, 타이어 및 로고에서 구급차를 인식 할 수 있다. NBA 선수가 보유한 농구를 확대하여 직업을 추론 할 수도 있다. 알고리즘은 이미지의 전체 분류를 이러한 "개념"에 연결함으로써 결정을 설명 할 수 있다: 나는 꼬리와 수염 때문에 이것을 고양이로 분류했다.

그러나 이 실험에서도 의사 결정 알고리즘의“심리학”은 반 직관적이다. 예를 들어, 농구의 경우 결정을 내리는 데 가장 중요한 요소는 실제로 농구보다는 선수의 저지였다.

이해하지 못하는 것을 설명 할 수 있는가?

사소한 것처럼 보이지만 여기서의 갈등은 인공지능에 대한 접근에서 근본적인 갈등이다. 즉, 방대한 양의 데이터 사이의 통계적 연결만으로 얼마나 멀리 갈 수 있으며, 실제 지능이 발생하기 위해 추상적 개념을 얼마나 도입해야 할까?

스펙트럼의 한쪽 끝에서 GOFAI(Good Old-Fashioned AI)는 전적으로 상징적 논리를 기반으로하는 기계를 꿈꾸었다. 기계는 개, 꽃, 자동차 등의 개념을 내재화 한 모든 상징적“규칙”과 함께 하드 코딩하여 개, 꽃 및 자동차를 구별 할 수 있게 한다. (대화식 인공지능에 대한 비슷한 접근 방식이 GPT-2가 일반적으로 하는 것처럼 훈련 데이터의 문자와 단어 사이의 통계적 연관성에서 언어를 "학습"하는 것이 아니라 위에서 아래로 단어와 엄격한 문법 구조를 가르치는 것을 상상할 수 있다.)

그러한 시스템은 인간이 이해할 수 있는 높은 수준의 개념을 다루기 때문에 스스로 설명 할 수 있을 것이다. 이 방정식은 다양한 경로를 서로 연결하는 수백만 개의 숫자가 아닌 "공"+ "스티치"+ "백색"= "야구"에 더 가깝다. 이미지 인식을 설명하는 구글의 새로운 접근 방식에는 GOFAI의 요소가 있다. 새로운 알고리즘은 포함 된 하위 오브젝트를 기반으로 오브젝트를 인식 할 수 있다. 이를 위해서는 최소한 하위 개체의 모양과 "고양이에는 수염이 있는 고양이"와 같은 하위 개체에 개체를 연결하는 규칙에 대한 기초 지식이 필요하다.

물론 문제는 불가능할 수도 있지만 이러한 모든 상징적 개념과 이를 직접 연결할 수 있는 모든 가능한 규칙을 정의하는 노동 집약적인 과제이다. 실제로 존재하는 "조합 폭발"을 처리 할 수 있는 이와 같은 시스템을 만들기가 어려워 인공지능의 첫 겨울이 되었다.

한편 신경망은 방대한 데이터 집합에 대한 교육에 의존한다. 지도 학습의“표시”가 없다면 이 과정은 인간이 이해할 수 있는 개념과 전혀 관련이 없을 수 있다 (따라서 완전히 설명 할 수 없음).

설명 가능한 인공지능 애호가인 이 둘 사이에는 어마 어마한 양의 데이터를 처리 할 수 있는 행복한 매체로, 최근의 신경망 인공지능이 부여한 모든 이점을 제공하면서도 인간이 이해할 수 있는 방식으로 효과를 발휘할 수 있다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.