인공지능이 뉴스를 취합하여 편향성이 없는 뉴스를 다시 쓴다
인공지능이 뉴스를 취합하여 편향성이 없는 뉴스를 다시 쓴다
  • 문소영 기자
  • 승인 2020.01.10 18:51
  • 댓글 0
이 기사를 공유합니다

[퓨처타임즈=문소영기자] 언론의 편향성은 새로운 일이 아니다. 그러나 기술이 우리를 이야기의 한 가지 측면만을 들을 수 있는 에코챔버(Echo Chamber)로 우리를 밀어 넣고 있다. 에코 챔버 효과는 반향실에서 소리가 울려 증폭되는 것처럼 정보, 아이디어, 신념이 정의된 시스템 내에서 증폭되거나 강화되는 상황을 설명한다.

한 스타트업은 인공지능을 이용하여 진정으로 공평한 소식을 접할 수 있다고 주장하고 있다.

노우웨어(Knowhere)는 작년 초 180만 달러의 벤처 자금을 끌어들이며 출범했다. 노우웨어 사이트는 수백 개의 뉴스를 취합하여 각 기사의 세 가지 버전을 만든다. 하나는 좌측으로 편향된 기사, 하나는 우측으로 편향된 기사, 그리고 나머지 하나는 공정한 기사이다. 이 회사는 자연어 처리 알고리즘을 통해 수천 가지가 넘는 뉴스 원을 샅샅이 훑어 본 후 서술적 내용, 사실적 내용, 편향성을 분석한 후 세 가지 버전을 조합해낸다고 주장했다. 비정치적 기사에서는 공정한 기사, 긍정적 기사, 부정적 기사로 나뉜다. 이러한 이야기들은 인간 편집자와 뉴스 기사의 불일치 정도에 따라 1분에서 15분 사이에 작성된다. 편집자는 뉴스를 내보내기 전에 기사를 대강 훑어보게 된다.

노우웨어는 인간이 할 수 없는 일을 기계가 하도록 하는 것이 목표라고 말했다. 기계는 중요한 사실에 대한 기사의 홍수 속에서 가장 눈에 띄는 사실과 이야기들을 추출해낸다. 공동설립자이며 편집장인 나다니엘 발링(Nathaniel Barling)은 ‘우리는 정보 과부하 속에서 이를 극복하고 모든 기사에서 추출한 내용들을 조화시켜 모든 사람들을 위한 진정한 포괄적이고 이해하기 쉬운 언론으로 나아가기 위해 첫 걸음을 내딛고 있다’고 말했다.

탈진실(post-truth) 시대의 편향성과 잘못된 정보를 극복하기 위해 기계를 사용할 필요가 있다고 주장한 것은 이 회사가 처음이 아니다. 2016년 미국 대통령 선거에서 ‘가짜뉴스’라는 단어가 처음 사용되었으며 그동안 인터넷에서 고의적인 가짜뉴스를 제거하기 위한 많은 노력이 있었다.

페이스북은 가짜 뉴스 논란의 중심에 서있다. 페이스북은 우선 가짜뉴스 대책 마련 필요성에 공감하고 다양한 방법을 시도하는 모양새를 보였다. 마크 저커버그는 ‘뉴스 유통에 책임감을 느낀다’고 말하며 대응 방안 마련에 적극성을 보였다. 페이스북은 저널리즘 프로젝트(The Facebook Journalism Project)를 통해 언론사와 협업하여 뉴스 상품 공동 개발, 언론인을 위한 훈련 및 도구, 모든 사람을 위한 교육 및 도구 등의 내용을 제공하기로 했다. 구글은 허위정보를 사전에 차단하기 위해 기존에 신뢰를 얻고 있는 언론사들과 협력하여 뉴스의 진위를 판단하고 이를 검색 알고리즘에 적용할 예정이다.

MIT 테크리뷰(MIT Tech Review)에 의하면 인공지능도 가짜뉴스와의 전투에 참여하고 있다. 애드베리프(AdVerif.ai)라는 스타트업은 콘텐츠 플랫폼이 가짜 뉴스를 감지하는데 도움이 될 수 있는 알고리즘을 구축하고 있다. 이러한 노력은 생각만큼 쉽지 않다. 마틴 로빈스(Martin Robbins)는 가디언 기사를 통해 가짜뉴스를 쉽게 구별하기 매우 어렵다고 말했다. 사실과 허위 사이에 숨겨져 있는 폐쇄적인 정치적 의도를 파악하는 것이 그리 쉽지 않은 것이다.

노우웨어가 다루고 있는 문제들은 훨씬 더 복잡하고 미묘하다. 기사 속의 사실 관계가 진짜라 하더라도 특정한 목적을 위해 조금씩 수정될 수 있고 정도의 차이는 있지만 거의 모든 뉴스 기관들은 이러한 방법을 사용한다. 언론인들이 글을 쓰는 것은 주관적이기 때문에 선의를 가지고 있다 하더라도 이를 피하기는 어렵다. 정치나 종교에 대해 완전히 편향성이 없는 견해를 가지는 것은 불가능하며 작가나 편집자의 신념이 불가피하게 기사에 포함된다.

노우웨어는 다양한 기사들을 편향성에 따라 분류하여 중립적인 내용을 식별하고자 한다. 노우웨어는 최종적으로 세 가지 버전의 기사를 없애고 중립적이고 공정한 버전의 기사만을 내놓을 예정이다. 그러나 실제로는 단순하지 않다. 처음부터 노우웨어는 정확성에 대한 평판에 기초하여 뉴스원의 신뢰도에 대해 인위적으로 가중치를 부여했다고 인정했다. 그리고 기계가 쓴 기사는 편집자에게 전달되며 편집자는 오류와 기사 스타일, 그리고 중립적 기사의 편향성을 검토한다. 이러한 편집 내용은 알고리즘을 추가로 학습시키는데 사용된다.

잘 훈련된 인공지능은 인간의 편향성을 골라내며 수천 건의 훈련 샘플을 통해 강화될 수 있다. 그러나 미묘한 편향성의 신호도 커다란 영향을 줄 수 있다. 잠재적으로 더욱 유망한 접근 방법은 단순하게 경쟁적인 기사들을 사람들에게 보여주고 스스로 결정하게 하는 방법이다.

작년에 핀란드와 이탈리아의 연구진들은 소셜미디어 사용자의 정치적 성향을 감지하여 반대 의견을 제시할 수 있는 알고리즘을 개발했다. 일라이 파리저는 구글과 페이스북의 개인화 알고리즘으로 인해 인터넷 이용자들이 이미 동의한 정보만을 보게 될 것이라는 ‘필터버블(Filter Bubble)’ 개념을 언급했다. 이스케이프유어버블(EscapeYourBubble)은 이용자와 다른 정치적 성향을 가진 사람을 이해하고 받아들일 수 있도록 선별된 기사를 페이스북 뉴스피드 내에 제공해주는 구글의 확장 프로그램이다. 이를 사용하면 페이스북 뉴스피드 기사 상단에 이스케이프유어버블을 통해 삽입된 기사라는 붉은색 표시가 나타난다.

폴리트에코(PolitEcho)는 페이스북 뉴스피드의 정치적 편향 정도를 보여주는 구글 확장 프로그램이다. 사용자들의 뉴스피드에 정치적 편향 점수를 할당한 후 그래프를 통해 정치적 편향 정도를 시각적으로 확인할 수 있게 해준다. 리드어크로스디아일(Read Across the Aisle)은 아이폰에 제공되는 뉴스 읽기 앱으로 다양한 뉴스 출처를 통해 필터버블을 극복하려는 시도를 보여준다. MIT 미디어랩에서 만든 ‘플립피드(Flipfeed)’는 트위터 이용자가 자신의 뉴스피드를 정치적으로 반대 성향을 가진 이용자 뉴스피드로 바꾸어 볼 수 있는 크롬 확장 프로그램이다. 만약 이용자가 오른쪽에 기울어져 있다면 왼쪽으로 기울어진 이용자의 뉴스피드를 불러와서 탐색할 수 있다.

그러나 불행하게도 대부분의 사람들은 자신만의 편향성을 편안하게 생각한다. 사람들의 견해에 도전하는 프로그램을 설치하기 위해서는 열린 마음이 필요하며 소셜미디어 사이트들은 사용자를 놓치지 않기 위해 반대의 뉴스를 강제로 노출시키려 하지 않는다. 결국 잘못된 정보와 편향성이라는 인간의 문제를 기술로 수정하는 것은 그리 쉽지 않을 것이다.

 


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.