우리 생활에 파고 든 인공지능...자유 의지를 가지고 있을 까?
우리 생활에 파고 든 인공지능...자유 의지를 가지고 있을 까?
  • 류지은 기자
  • 승인 2020.10.26 12:33
  • 댓글 0
이 기사를 공유합니다

이미지 출처: Pixabay/hamburgfinn
이미지 출처: Pixabay/hamburgfinn

 

[퓨처타임즈=류지은 기자] 헤이 구글!! 오늘 어떤 영화를 볼까? 사람들은 인간보다 인공지능에 더 기꺼이 자신의 개인 정보와 당황스러운 경험을 공개하는 경향이 있다. 많은 사람들이 인공지능과 프라이버시에 대해 심각한 우려를 가지고 있지만 우리는 인공지능과 개인 정보를 더 기꺼이 공유할 수 있기 때문에 흥미롭다. 우리가 무슨 영화를 볼지, 어떤 물건을 살지 이제는 의사결정에 있어서 인공지능의 영향을 많이 받는다.

구글 어시스턴트, 애플의 시리 또는 아마존 알렉사를 사용하여 결정을 내린 적이 있는가? 어떤 신작 영화가 좋은 평가를 받았는지 물어보거나 주변의 멋진 레스토랑을 추천해 달라고 요청했을 것이다.

인공지능 및 가상 비서가 지속적으로 개선되고 있으며 곧 약속을 잡거나 의료 조언을 제공하거나 와인 한 병을 판매하려고 할 수 있다.

인공지능 기술은 우리와 동등한 사회적 기술을 개발하기 위해 갈 길이 멀지만 일부 인공지능은 인상적인 언어 이해를 보여주고 비교적 복잡한 대화형 작업을 완료할 수 있다.

2018년 몇 차례 시연에서 구글의 인공지능은 접수원이 사람이 아닌 사람과 대화하고 있다는 사실을 깨닫지 못한 채 이발 및 레스토랑 예약을 했다.

아마존 및 구글과 같은 거대 기술 기업이 개발한 인공지능 기능은 앞으로 우리에게 더 많은 영향을 미칠 수 있게 된다.

그러나 우리는 실제로 무엇을 설득력 있게 생각할까?

사람들은 일반적으로 기계가 인간의 목표와 욕구를 이해할 수 있다고 믿지 않는다. 보드 게임 Go를 플레이하도록 설계된 알고리즘인 구글의 알파고를 살펴보자. 알고리즘이 Go를 플레이하는 것이 왜 재미있는지 또는 Go 챔피언이 되는 것이 의미있는 이유를 이해할 수 있다고 말하는 사람은 거의 없다. 오히려 게임 보드에서 이동하는 방법을 알려주는 사전 프로그래밍된 알고리즘을 따른다.

우리의 연구에 따르면 사람들은 인공지능이 개인 건강 보험을 구축하는 방법, 레몬 자동차를 피하는 방법 또는 적합한 테니스 라켓을 선택하는 방법에 대한 쉬운 단계를 보여주는 상황에서 인공지능의 권장사항이 왜 중요한지 보다 설득력이 있다고 생각한다. 인간의 의미에서 할 수 있다.

인공지능은 자유 의지를 가지고 있을까?

우리 대부분은 인간에게 자유 의지가 있다고 믿는다. 우리는 다른 사람이 자유롭게 행동한다고 생각하기 때문에 다른 사람을 돕는 사람을 칭찬하고 다른 사람에게 해를 끼치는 사람은 처벌한다. 더욱이, 우리는 그 사람이 정신분열성 망상에 사로잡혀 있는 경우와 같이 자유 의지를 박탈당한 경우 형사 처벌을 기꺼이 줄일 수 있다.

하지만 사람들은 인공지능이 자유 의지를 가지고 있다고 생각할까? 알아 내기 위해 실험을 했다.

누군가에게 100달러를 주고 당신과 나누겠다고 제안한다. 그들은 80달러를 받고 당신은 20달러를 받게 된다. 이 제안을 거부하면 귀하와 제안자 모두 아무것도 얻지 못한다. 20달러를 얻는 것이 없는 것보다 낫지만, 이전 연구에 따르면 20달러 제안이 불공정하다고 인식하기 때문에 거부될 가능성이 있다. 당연히 우리는 50달러를 받아야 하지 않을까?

하지만 제안자가 인공지능이라면 어떨까? 아직 발표되지 않은 연구 프로젝트에서 동료들과 나는 거부율이 크게 떨어지는 것을 발견했다. 다시 말해, 사람들은 인공지능이 제안할 경우 이 '불공정한' 제안을 훨씬 더 많이 받아들인다.

이는 인간을 지원하기 위해 개발된 인공지능이 우리를 악용하려는 악의적인 의도가 없다고 생각하기 때문이다. 단지 알고리즘일 뿐이며 자유 의지가 없으므로 20달러만 받아들이는 것이 좋다.

사람들이 인공지능의 불공정한 제안을 받아들일 수 있다는 사실은 이 현상이 악의적으로 사용될 수 있다는 것을 의미할 수 있기 때문에 나를 우려한다. 예를 들어, 모기지 대출 회사는 결정을 알고리즘에 의해 계산된 것으로 구성하여 부당하게 높은 이자율을 청구하려고 할 수 있다. 또는 제조 회사가 컴퓨터가 내린 결정이라고 말함으로써 노동자를 조작하여 불공정한 임금을 받도록 할 수도 있다.

소비자를 보호하려면 사람들이 인공지능의 조작에 취약한 시기를 이해해야 한다. 정부는 인공지능 규제를 고려할 때 이를 고려해야 한다.

놀랍게도 인공지능에 공개할 의향이 있다.

아직 출판되지 않은 다른 작업에서, 동료들과 나는 사람들이 인간보다 인공지능에 더 기꺼이 자신의 개인 정보와 당황스러운 경험을 공개하는 경향이 있음을 발견했다.

참가자들에게 요로감염 때문에 의사에게 있다고 상상해 보라고 했다. 참가자를 나눠서 절반은 인간 의사에게, 절반은 인공지능 의사와 이야기했다. 의사가 최상의 치료법을 찾기 위해 몇 가지 질문을 할 것이며 귀하가 제공하는 개인 정보의 양은 귀하에게 달려 있다고 말했다.

참가자들은 섹스 토이, 콘돔 또는 기타 성행위 사용에 대한 잠재적으로 당황스러운 질문과 관련하여 인공지능 의사에게 인간보다 더 많은 개인 정보를 공개했다. 우리는 사람들이 인공지능이 우리의 행동을 판단한다고 생각하지 않는 반면 인간은 판단하기 때문이라는 것을 발견했다. 실제로 우리는 참가자들에게 부정적으로 판단되는 것에 대해 얼마나 염려하는지 물었고, 심사를 받는 것에 대한 우려는 그들이 얼마나 공개했는지를 결정하는 근본적인 메커니즘이라는 것을 발견했다.

인공지능과 이야기할 때 당황스럽지 않은 것 같다. 많은 사람들이 인공지능과 프라이버시에 대해 심각한 우려를 가지고 있지만 우리는 인공지능과 개인 정보를 더 기꺼이 공유할 수 있기 때문에 흥미롭다.

하지만 인공지능에 자유 의지가 있다면 어떨까?

우리는 또한 이면도 연구했다. 사람들이 인공지능에 자유 의지가 있다고 믿기 시작하면 어떻게 될까? 인공지능에게 인간과 유사한 기능이나 인간 이름을 부여하면 사람들이 인공지능에 자유 의지가 있다고 믿을 가능성이 더 커질 수 있다는 것을 발견했다.

여기에는 몇 가지 의미가 있다.

사람들은 인간과 유사한 인공지능이 인간의 목표와 동기를 이해할 수 있다고 생각하기 때문에 인공지능은 '왜'라는 질문에 대해 사람들을 더 잘 설득할 수 있다.

인공지능의 불공정한 제안은 받아들여질 가능성이 적다. 인간처럼 보이는 인공지능은 착취적일 수 있는 자체 의도를 가지고 있는 것으로 보일 수 있기 때문이다.

사람들은 인간과 같은 인공지능에 의해 판단되는 느낌을 받기 시작하고 창피함을 느끼고 개인 정보를 덜 공개한다.

사람들은 사람처럼 보이는 인공지능을 해칠 때 죄책감을 느끼기 시작하므로 인공지능에게 더 친절하게 행동한다.

우리는 앞으로 점점 더 다양한 유형의 인공지능과 로봇을 보게 될 것이다. 그들은 요리하고, 봉사하고, 우리에게 차를 팔고, 병원에서 우리를 돌보고, 심지어 데이트 파트너로 식탁에 앉을 수도 있다. 인공지능이 우리의 결정에 어떤 영향을 미치는지 이해하는 것이 중요하므로 인공지능을 규제하여 가능한 위험으로부터 자신을 보호할 수 있다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.