본지 주최 ‘글로벌 AI 동향 및 윤리·신뢰성 확보 방안’ 전문가 좌담
‘챗GPT’가 생성형 인공지능(AI) 시대를 열자 세계 주요 정보기술(IT) 기업들의 관련 기술 경쟁이 날로 치열해지고 있다. AI는 모든 산업에 적용돼 우리 생활을 완전히 변화시킬 수 있는 기술이기 때문에 국가 경쟁력과도 직결된다. 이에 한국 AI가 윤리성과 신뢰성을 확보하면서도 글로벌 경쟁에서 뒤처지지 않도록 할 정책적 지원이 절실하다는 목소리가 높다. 지난 14일 한국프레스센터에서 서울신문이 주최하고 문화체육관광부가 지원하는 ‘글로벌 AI 동향 및 AI 윤리·신뢰성 확보 방안’이라는 주제의 전문가 좌담회가 열렸다. 좌담회엔 엄열 과학기술정보통신부 AI기반정책관, 이상용 건국대 법학전문대학원 교수, 성주원 KT AI테크랩 상무, 김명신 LG AI연구원 정책수석이 참석했다.지난 14일 한국프레스센터에서 문화체육관광부 지원, 서울신문 주최로 열린 ‘글로벌 AI 동향 및 AI 윤리·신뢰성 확보를 위한 전문가 좌담회’에 참석한 전문가들은 “국내 AI 기업 역시 AI의 윤리성과 신뢰성을 확보하도록 하는 한편 글로벌 경쟁에서 뒤처지지 않도록 정부의 정책적 지원이 절실하다”고 입을 모았다.
안주영 전문기자
안주영 전문기자
김명신 “미국이 압도적으로 1등이고 중국이 2등, 한국이 6등인데 3~10위는 사실 격차가 거의 없다. 우리나라 AI 기술 경쟁력이 세계 상위권이라는 것은 의심할 여지가 없다. 전 세계에 초거대 AI를 가지고 있는 나라가 손에 꼽힐 만큼 적기 때문에, 그중 하나라는 것만으로도 굉장히 큰 가능성을 가진 셈이다. 지금부터 각 기업이 전략을 어떻게 가져가고, 국가가 어떤 정책과 제도로 지원해 주거나 적절하게 규제하느냐에 따라 앞으로 각국 AI 경쟁력 차이가 급격히 벌어질 것이다. AI가 앞으로 국가 미래 경쟁력을 좌우하고 세상을 뒤집어 놓을 만큼 중요하기 때문에 기술 확보가 굉장히 중요하다고 생각한다.”
성주원 “같은 의견이다. 한국의 AI 기술력은 결코 세계에서 뒤지지 않는다. 우수한 인적 자원을 보유했으며 대기업 위주로 진행된 과감한 투자가 결실을 보이기 시작했다. 다만 그동안 글로벌 시장에서 국내 기업들이 ‘한국어 AI는 우리가 1등’이라는 논리로 계속 얘기를 해 왔는데, 챗GPT를 비롯해 여러 가지 AI가 나오는 상황에서 대체 언제까지 ‘우리가 한국어 AI는 1등’이라고 말할 수 있을지 모르겠다. AI는 정말 투자한 만큼 결과가 나온다고 생각한다. 자금력 있는 국내 대기업의 투자도 중요하지만 국가적 차원의 대형 투자가 이뤄져야 뒤처지지 않을 것으로 본다.”
엄열 과기부 AI기반정책관
엄열 “한국은 독자적으로 초거대 AI를 보유한 5대 국가(미국, 중국, 한국, 이스라엘, 영국) 중 하나로 평가받고 있다. 국가의 생태계 조성과 청사진에 기업의 노력이 동반된 결과다. 하지만 구글이 더 정교한 초거대 AI ‘제미나이’를 출시하는 등 빅테크 주도의 생성 AI 기술 혁신은 더 빨라질 것이다. 이들과 경쟁할 국내 기업의 상황이 더 어려워질 것으로 예상되기 때문에 정부가 적극 지원할 것이다. 연구개발(R&D)비 지원, 초거대 AI 프로젝트 맞춤 지원이 있고 국가가 보유한 데이터를 AI 학습용으로 지원한다. 기업이 AI로 수익화할 서비스를 만드는 것도 도울 방침이다.”
이상용 건국대 법학대학원 교수
이상용 “각 나라의 제도는 다 배경이 있다. 각자가 처한 상황들이 다르고 이에 속셈도 제각각이다. 그래서 ‘이 나라는 이런 법을 갖고 있으니 우리도 그걸 따라해야 한다’고 단순하게 접근하면 곤란하다. 우리 상황에 맞는 제도를 만들어야 한다. 예컨대 EU의 AI법같이 굉장히 포괄적이고 경직된 제도는 우리나라에선 피해야 한다. 미국은 ‘자율 규제’다. 백악관에서 ‘AI 행정명령’이 나왔는데 기업이 쌍수를 들고 환영했다. 내용을 보면 산업 진흥을 위한 정책이 압도적으로 많다. 정부가 사전에 기업의 의사를 듣고 협의했다는 얘기다. 영국의 경우가 흥미로운데 혁신이 우선이고 AI에 어떤 위험성이 있는지는 일단 살펴보자는 태도다. 사전에 적합성 평가를 해서 안전한지 확인된 다음에 출시하라고 규정한 EU와는 반대의 입장이다.”
엄열 “EU AI법은 AI를 위험성에 따라 4가지로 분류하고 이에 따른 책무를 엄격하게 부여한 뒤 따르지 않으면 경제 제재까지 하는 아주 강력한 규제다. 한국은 한국 상황에 맞는 법을 만들어야 하는데 지금 정부가 발의한 AI 법 초안이 국회에 가 있다. 일단 시장 상황을 좀 바라보고,나중에 필요하면 ‘사후 규제’로 가겠다는 입장의 법체계다. AI 기술 발전과 신뢰성을 모두 확보하려는 정부의 입장이 균형 있게 잘 정리돼 있다고 본다. 법안의 조속한 국회 통과를 위해 정부도 적극 지원하겠다.”
-제도나 규제만으로 AI의 윤리성과 신뢰성을 확보하진 못할 것 같다. 기업은 뭘 하고 있나.
김명신 “AI가 학습하는 데이터가 편향되거나 대표성이 결여됐을 때 의도치 않게 차별적, 편향적 결과물이 나올 수 있다. AI 모델은 정확한 답변보다 사람이 말하는 것처럼 유려한 답변을 많이 하도록 만들어진 탓에 가끔 틀린 답변을 참인 것처럼 내놓는 ‘환각현상’(할루시네이션)을 일으킨다. 앞선 두 문제가 모두 해결돼도 사용자가 나쁜 의도를 가지면 굉장히 큰 문제를 일으킬 수 있다. 기업은 이렇게 데이터, 모델, 사용자 등 3개의 축으로 접근해 문제 발생을 방지하려 노력한다. 기획 단계부터 데이터를 수집, 정제하고 모델을 개발해 사용자에게 배포하는 단계까지 문제 발생 예방책을 실행해 AI가 잘못된 결과를 생성하지 않도록 조직과 절차를 갖추는 것이 필요하다.”
성주원 KT AI테크랩 상무
-최근 국제사회가 AI 규범을 마련하려는 움직임이 있다. 각국의 이해관계가 다른데 국제 규범이 의미가 있을지.
김명신 LG AI연구원 정책수석
엄열 “정부도 국제 규범 체계를 같이 논의할 수 있는 기구가 필요하다는 입장이고 그 가운데서 리더십을 발휘하겠다는 의지를 갖고 있다. 그래서 유엔 산하나 별도의 독립 기구를 만들어야 한다고 국제사회에서 주장하고 있다. 영국과 미국이 ‘AI 안전성 연구소’라는 걸 만들었는데 아시아 쪽에선 우리가 한번 주도적으로 만들 수 있지 않은지 검토하고 있다.”
2023-12-20 12면
Copyright ⓒ 서울신문. All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지