챗GPT 시대 이를 이용해 생산한 뉴스가 신뢰성을 확보하기 위해서는 팩트체크(Fact Check) 기능을 더욱 강화하고 취재 과정에 대한 투명성 보고서를 작성해 공개할 필요가 있다는 지적이 나왔다.
9월18일 전국경제인연합회 컨퍼런스에서 한국언론인협회가 언론진흥재단의 후원으로 개최한 챗GPT시대 언론의 역할과 저작권을 주제로 한 세미나에서 발제자인 심영섭 경희사이버대학교 교수는 인공지능을 활용한 챗GPT는 허위정보나 조작 또는 내외부에서 유입된 데이터 오염으로 기사 작성에 영향을 줘 가짜뉴스를 생산할 가능성이 있다며 이같이 말했다.
심 교수는 투명성 보고서에는 기사의 정확성과 책임성을 밝히는 것은 물론 개인정보와 기밀 보호와 같은 사회적 책무도 수행하고 있음을 밝힐 필요가 있다고 강조했다.
심 교수는 또 생성형 AI를 활용한 기사에 대한 가이드라인 제정과 함께 언론사는 가짜뉴스 돌발상황에 대처하고 수습할 수 있는 윤리규정과 내규를 갖춰야 할 것이라고 말했다.
심 교수는 챗GPT시대가 도래하고 있음에도 대다수 언론사는 자체적으로 온라인 포털을 운용할 수 있는 능력조차 갖추지 못한 경우가 대부분이고 챗GPT를 독자적으로 활용할 수 있는 기술기반도 없어 외주화하는 실정이라며 언론사들이 챗GPT 기술을 상용화하기 위해서는 뉴스 제작체계 전체를 온라인 해야 하고 취재부터 제작·유통까지 모두 새로운 기술을 접목할 수 있어야 한다고 말했다.
심 교수는 특히 미디어 기업은 취재기자의 활동을 지원할 수 있는 기술도입과 장비를 구비 하고 언론인 모두 일반적 단계의 AI는 물론 대화형 AI, 생성형 AI를 능숙하게 다룰 수 있는 교육이 필요하다고 지적했다.
심 교수는 유럽연합을 비롯한 선진국에서는 뉴스 기사가 언론사 또는 기자들에게 저작권이 귀속되는 어문저작물이나 우리나라는 지금까지 신문 등의 진흥에 관한 법률이나 뉴스통신 진흥에 관한 법률, 방송법 등에 구체적인 뉴스저작권 보호에 관한 규정이 없다며 챗GPT시대를 맞아 이와 관련된 법 제정이 시급하다고 역설했다.
한국언론인협회(akjor@daum.net)
.