AI 기술이 빠르게 발전하면서 글, 사진, 음성, 영상 등 AI 제작 콘텐츠도 기하급수적으로 늘고 있다. 영국 AI 전문가 니나 시크는 지난 1월 CES 회의에서 “2025년까지 콘텐츠의 90%가 생성형 AI 도움을 받아 제작될 것”이라고 예측했다. 문제는 허위 정보와 명예훼손 등 AI 콘텐츠의 부작용이 걷잡을 수 없이 커지고 있다는 점이다. 22일 미국 국방부 청사에 폭발이 발생했다는 사진이 소셜미디어에 유포돼 한때 주가가 하락하는 등 혼란이 빚어졌다. 하지만 AI가 만든 가짜 이미지였다. 프란치스코 교황이 명품 브랜드의 흰색 패딩 재킷을 입은 모습, 도널드 트럼프 전 미국 대통령이 수갑을 차고 경찰에 연행되는 장면 등 온라인에서 화제가 된 사진들도 AI의 창작물이었다.
갈수록 AI가 만든 콘텐츠를 가려내기가 어려워지자 AI 활용 콘텐츠에 그 사실을 명확히 표시하는 방안이 추진되고 있다. 더불어민주당 이상헌 의원이 발의한 콘텐츠산업진흥법 개정안은 AI 기술로 만들어졌다는 점을 해당 콘텐츠에 의무적으로 표시하도록 했다. 이용자에게 콘텐츠의 진위 판단에 필요한 정보를 제공하자는 취지다. 유럽연합(EU)과 미국에서도 유사한 규제안을 논의하고 있다.
반대로 AI가 아닌 사람이 만든 콘텐츠에 이름표를 붙이는 캠페인도 있다. 콘텐츠 크리에이터 앨런 슈가 창립한 ‘낫 바이 AI’(Not by AI) 프로젝트는 웹사이트에서 배지를 내려받아 사람이 만든 콘텐츠에 붙이는 간단한 방식이다. ‘AI와 함께 작업하되 AI로 대체되지 않도록 권장한다’는 프로젝트의 취지가 혼란스러운 AI 시대를 슬기롭게 항해할 유용한 나침반이 아닐까 싶다.
2023-05-24 31면
Copyright ⓒ 서울신문. All rights reserved. 무단 전재-재배포, AI 학습 및 활용 금지