조인호 데이터엔비욘드 대표이사
우리는 과학과 기술이라는 이름 아래 18세기 이래로 지식을 객관화하고 중립화하는 과정을 강화해 왔다. 그리고 이러한 경향은 자연과학의 영역뿐만 아니라 인간을 다루는 학문적 분야에서도 유사하게 나타났다. 지식을 확정하는 방법의 가치중립성 확보와 이를 습득한 전문가들의 양성은 이러한 경향을 지탱하는 중요한 축이 돼 왔다. 그럼에도 정보사회까지도 우리는 지식과 관련해 권위를 행사하는 전문가들과 그들이 동원하는 대상에 대한 해석의 방식에 노출됨으로써 윤리를 비롯한 가치의 문제를 제기할 토대를 잃어버리지는 않고 있다. 그러나 지능정보사회는 우리가 지금까지 전문영역의 세분화와 전문가들의 양성을 통해 일반 대중들의 판단을 소외시킨 것처럼 컴퓨터와 알고리즘을 통해 기존의 전문가들을 소외시키는 경로를 따를 것으로 보인다. 이 과정에서 컴퓨터와 알고리즘은 인간에 의해 표상할 수 있는 지식의 형태만을 활용하거나 머신러닝의 블랙박스처럼 우리가 알지 못하는 과정을 통해 범주화된 지식을 강요하게 될 것이다. 이것이 현재 ‘알파고’와 같은 인공지능이 인간의 직업을 대체하거나 인간의 능력을 능가할 것이라는 경고와 우려보다 훨씬 더 근본적인 위험과 도전이 될 것이다.
그렇다면 우리는 지능정보사회가 가져올 이러한 도전에 어떻게 대처해야 할 것인가. 이 도전에 대한 해결책이 ‘인공지능은 윤리적으로 책임감 있게 사용해야 한다’는 허사비스의 주장을 넘어서는 것은 분명해 보인다. 인공지능을 도구로 보는 이러한 시각은 이미 과학과 기술 발전의 역사에 의해 부정됐다. 한 예로 기술과 사용자들의 분리는 지극히 어려우며 기술의 발전은 인간을 포함한 환경을 대상화하고 배열한다는 실존 철학자들의 주장은 기술결정론적이라는 비판에도 여전히 기술의 발전과 인간사회의 변화를 설명하는 주요한 틀로 받아들여지고 있다.
지능정보사회가 가져올 문제를 해결하기 위해 ‘윤리’ 혹은 ‘윤리성’이라는 알고리즘을 구성하겠다는 발상 또한 유효하지 않기는 마찬가지다. 인간의 역사를 통틀어 보편타당한 ‘윤리’의 내용을 구성하려 한 노력은 한 번도 성공적이지 않았으며, 설사 성공한다고 하더라도 앞서 논의한 중립화와 내재화의 문제를 해결할 수는 없다. 인공지능의 사회화에 대한 논의 또한 그 가능성을 이야기하기에는 너무도 한계가 분명하다. 우리는 아직 인간의 사회화 과정을 정확히 이해하지 못하고 있을 뿐만 아니라 그 과정에서 뇌를 포함한 인간의 신체가 하는 역할을 규명하지 못하고 있다.
결국 지능정보기술이 활용하는 데이터에 대한 문제의식, 데이터가 정보로 전환되는 과정에 대한 회의, 그리고 정보가 의사결정으로 발현되는 메커니즘에 대한 질문들을 어떻게 유지할 수 있는지가 지능정보사회를 준비하는 우리가 던져야 할 본질적 질문이 아닐까 한다. 이제 막 우리의 눈앞에 ‘알파고’를 내세워 성큼 다가선 지능정보사회의 모습이 어떨지는 우리가 이러한 질문을 지속할 수 있느냐와 결합돼 있다. 윤리의 문제 또한 다르지 않다.
2016-06-01 30면
Copyright ⓒ 서울신문 All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지