▶사진출처. Pixa bay
     

   우리는 2016년 인간과 인공지능 간의 바둑이 세계적인 관심을 불러일으켰던 것을 기억한다. 구글에 인수된 딥마인드에서 개발한 머신러닝 기반 바둑 프로그램인 알파고가 프로바둑의 최정상에 있던 이세돌 구단과의 대결에서 압승했다. 이 대결에서 부분적이지만 인공지능이 인간의 두뇌를 넘어설 수 있음을 보여줌으로써 많은 사람을 충격에 빠뜨렸다. 이후 인공지능에 대한 인식이 바뀌기 시작했고, 인공지능을 활용한 분야가 늘어나고 있다. 예를 들어 가정의 로봇청소기, 음식점과 인천공항의 다양한 로봇 서비스, 자율주행자동차 등이다.

   인공지능이 많은 사람의 관심을 끌게 된 것은 상대적으로 오래된 것은 아니다. 그렇지만 인공지능의 역사 자체는 상당히 오래됐다. 인공지능에 관한 연구는 1950년대 이전부터 시작됐고, 인공지능이란 용어는 1956년 다트머스에서 개최된 국제회의(Dartmouth Conference)에서 처음으로 사용됐다. 초기에 학자들은 기계가 인간처럼 생각할 수 있는지에 대해 연구했는데, 이는 여러 실험 결과 실현 가능하다는 결론에 이르렀다. 그 후 인간과 구별할 수 없는 인공지능에 관한 연구가 계속됐고, 인공지능 분야는 2010년을 전후로 하여 급속하게 발전하기 시작했다.

   인공지능에 관한 연구가 상당히 진전됐지만, 여전히 인공지능이 무엇인지 명확하게 정의되지는 않고 있다. 인공지능에 관하여 일반적으로는 컴퓨터가 인간과 같은 사고방식을 가지고, 인간의 행동 방식과 사고를 인식하는 컴퓨팅 기술이라 정의한다. 즉 인공지능은 인간의 학습 능력과 추론 능력 등을 컴퓨터에 적용해 단순히 데이터를 처리하는 수준을 벗어나, 단어의 사전적 의미가 아닌 단어의 맥락을 인식하는 기술이라 할 수 있다. 그런데 인공지능이 컴퓨터나 기계가 인간과 동일한 수준으로 지능을 가진다는 것을 의미하는 것은 아니라는 점에서 무엇이 인공지능인지는 상황에 따라 다르게 정의되어야 한다고 보기도 한다.

   인공지능 분야가 발전하면서 인간과 동일하게 또는 그 이상으로 생각하는 프로그램이나 이를 탑재한 로봇의 등장이 인간에게 부정적인 결과를 초래할지도 모른다는 우려가 2000년대부터 시작되었다. 이미 우리는 기계의 지배를 받는 인간의 미래를 그린 매트릭스라는 영화를 통해 인공지능의 위험성을 인식하고 있다. 그래서 제기된 문제가 인공지능 윤리의 문제이다. 인공지능 윤리는 인간이 주체가 되어 인공지능의 설계, 생산, 사용 등에서 윤리적 문제를 다루는 인공지능의 윤리와 로봇이 주체로 인공지능 로봇이 윤리적으로 행동하도록 어떻게 설계할 것인가를 다루는 기계윤리로 구분한다.

   인공지능윤리의 문제가 중요한 것은 인공지능의 예측할 수 없는 발전으로 발생할 수 있는 위험성으로 인한 인간의 안전 문제 때문이다. 이 문제로 인해 유럽연합과 미국은 인공지능의 윤리 문제를 중요하다고 보아 가이드라인을 강구하고 있다. 국가의 가장 중요한 과제는 모든 위험으로부터 국민을 안전하게 보호하는 것이다. 그런 점에서 인공지능 기술의 개발과 적용에 따라 개인에게 발생할 수 있는 위험은 인간의 존엄과 가치에 대한 제약으로 볼 수 있으며, 개인이 스스로 그러한 위험을 회피하고 자신을 보호하는 것은 한계가 분명하다는 점에서 국가의 역할이 무엇보다 중요하다.

   인공지능의 발전은 인간과 매우 유사한 특질을 보유한 새로운 존재를 탄생시킬 가능성이 크다는 것을 보여준다. 외형상으로 자연스러운 인간의 형태를 갖추고, 일정한 인지⋅학습⋅판단 등의 능력을 보유한 로봇의 생산이 가능해지면 미래의 세계에는 인간보다 고등한 지적 능력과 자아를 갖춘 인공지능이 일상화될 수도 있다. 그래서 2016년 유럽연합 의회는 인공지능 탑재 로봇에게 전자인간(electronic personhood)이라는 법적 지위를 부여하는 결의안을 채택했다.

   인공지능에 기반을 둔 기술 발전은 머지않은 미래에 로봇이 자율성을 넘어 자아를 갖추게 될 것으로 예상할 수 있다. 그래서 인공지능 윤리는 그 중요성을 더하고 있다. 헌법상 새로운 권리주체로서 인공지능을 승인하기 위한 기준의 정립은 그 전제로서 도덕과 윤리에 기초한 인공지능의 문제가 해결돼야 한다는 것이다. 유럽사법윤리헌장은 인공지능이 인권과 개인정보 보호를 위해서만 활용돼야 한다고 선언하면서, 기본권 존중, 차별금지, 품질과 보안, 투명성과 공정성 및 이용자에 의한 통제 등 원칙을 채택하고 있다.

   인류는 이미 인공지능의 시대로 가고 있다. 우리나라도 이런 흐름에 도태될 수는 없다. 우리도 2008년에 지능형로봇법을 제정해 시행하고 있다. 그리고 2019년 로봇기본법이 발의되기도 했지만, 더 이상 진행되지 못하고 있다. 이에 비해 미국과 일본 및 유럽연합은 인공지능 법체계를 구축하고 있다. 우리도 인공지능 관련법 체계를 구축하고 인공지능윤리 문제에 적극적으로 대응해야 한다. 윤리에 기초하지 않은 인공지능은 인류의 미래에 재앙을 초래할 수 있다는 것을 명심해야 한다.

저작권자 © 대학미디어센터 무단전재 및 재배포 금지