소셜미디어에서 범람하는 가짜 뉴스는 유통하는 이들의 책임의식도 필요하다. 사진출처=뉴욕타임즈

 

기술은 가짜 뉴스의 문제를 낳았다. 그리고 기술이 그것을 해결할 수 있다고 생각하고, 우리가 올바른 알고리즘만을 찾아 문제를 해결하기만 하면 된다고 생각하는 경향이 있다. 그러나 이 접근법은 우리가 지식을 얻는 방법에 관한 철학의 한 분야인 인식론의 귀중한 교훈을 무시하는 것이다.

뉴욕타임즈(NYT)는 15일(현지시간) “과학기술은 오보의 시대를 가져왔다.  하지만 철학, 그리고 우리의 사회적 행동을 자세히 들여다보면 그것을 없애는 데 도움이 될 수 있다”는 내용을 골자로 한 토론토의 요크대 리니(Regina Rini) 교수(철학)의 주장을 게재했다.

그는 지역 정치인에 대한 소문으로 좌중에 충격을 줄 때를 상상하라고 한다. 그 이야기가 너무나 충격적이어서 맞는 말인지 확신하지 못한다. 하지만, 거기서 좋은 친구가 명예를 걸고 그것을 보증한다면 아마도  그것을 믿을 것이다. 세상에 대한 대부분의 지식은 이처럼 증언을 통해 우리에게 전달된 간접 지식이라는 것이다. 
 
그는 "이 모든 것은 증언의 규범에 의존한다"며 "사실을 주장 하는 것은, 비록 다른 곳에서 들은 것을 전달하고 있다고 할지라도, 그것에 대한 책임을 지고, 개인의 경험적 평판, 즉 출처로서 각자의 신용을 담보하는 것을 의미한다"고 부연했다. 즉, 정보를 공유할 때 사람들이  믿는 이유 중 하나는, 그 사람을 신뢰하기 때문이고 그것이 틀렸다면  그에 따른 책임을 져야한다. 간접 지식의 신뢰성은 이러한 규범에서 비롯한다는 것이다. 

하지만 소셜 미디어는 (현실과 다른) '이상한 증언 규범'이 있다는 게 그의 생각이다. 그는 "페이스북이나 트위터, 이와 유사한 플랫폼에서 사람들은 항상 자신이 말하는 것을 신뢰한다는 것을 의미하지 않으며, 그렇게 기대하지도 않는다"고 말한다. 비공식적인 트위터의 슬로건은 '리트윗은 반드시 동의하는 것이 아니라는 것이다' 이기까지 하다.

그는 "우리는 사람들이 소셜 미디어에서 항상 정확성을 확인하지도 않고 뉴스를 전달한다는 것을 알고 있지만, 우리들 중 많은 사람들은 어쨌든 그들의 말을 듣는다"며 "그들이 공유하는 정보는 무시하기에는 너무 매력적이고, 특히 그것이 기존의 정치적 신념을 재확인할 때 그렇다"고 꼬집었다. 

그는 "문제는 소셜 미디어가 매일 밤 500명의 가장 친한 친구들과 술을 마시러 나가는 것과 같다"고 말한다. 많은 정보를 얻을 수도 있지만, 그 모든 소란에서  누가 무엇을 말하고  나중에 그 정보가 잘못된 것으로 판명 났는지 누가, 무엇을 의문을 가져야 했는지 기억하기 어렵다는 것이다. 리니 교수는 "그것을 추적하기에는 너무 많은 정보가 있다"며 "가끔은 전체를 읽지만 거의가 헤드라인만 읽고 충격을 받아 버튼을 클릭한 다음 계속 스크롤을 반복한다"고 비판했다. 

스토리의 수만이 문제가 아니라 스토리텔러의 숫자도 문제라고 말한다. 페이스북 사용자는 평균적으로 수백 명의 친구를 가지고 있는데, 그들 중 다수는 오프라인에서 거의 알지 못한다. 페이스북 친구들의 신뢰를 알 방법이 없다.  이 모든 사람들과 그들이 공유하는 모든 이야기들을 위해서 평판을 계산하는 것은 불가능하다.

이에 그는 "이런 문제를 해결하기 위해서, 혹은 적어도 상황을 개선시키기 위해서, 우리는 서로를 소셜 미디어에 책임질 수 있도록 하는 안정적인 증명 규범을 세울 필요가 있다"며 "정보의 홍수를 줄이고 수백 개의 소셜 미디어 접촉의 신뢰도를 추적해야 한다"고 주장했다.

그는 페이스북이 이미 더 나은 추천 규범을 지원하는 기능들을 가지고 있다고 적시했다. 대부분의 페이스북 계정은 사용자들의 실제 소셜 네트워크와 밀접하게 연결돼 있다. 그리고 익명의 웹 해설자들과 달리, 페이스북 사용자들은 그들이 거짓말을 하는 것이 들켰을 때 바로 그들의 아이디를  빠져 나올 수 없다. 사용자는 적어도 다른 사람이 공유한 정보를 계속 본다면 자신의 경험적 평판에  관심을 가질 이유가 있다는 것이다.

페이스북은 가짜 뉴스 확산을 막기 위한 지원 시스탬도 갖고 있다. 현재, 페이스북은 정치적 영역 전반에 걸친 독립적인 사실 확인처에 허위나 오해의 소지가 있는 정보를 확인하도록 요구하고 있다. 사용자들이 가짜 뉴스라고 알려진 것을 올리려고 할 때마다, 뉴스의 문제점을 설명하고 그들이 계속하기를 원하는지 확인하도록 요구하는 팝업도 띄운다. 사용자 중 누구도 논쟁거리인 사실의 게시를 막을 순 없지만,  자신들이 공유하고 있는 것이 거짓이거나 오해의 소지가 있을 수 있다는 것을 알아야 한다는 게 페이스북의 입장이라는 것이다.

페이스북은 지난해 12월부터 공개적으로 이 시스템을 사용해 왔다. 덜 공개적으로, 그들은 또한 얼마나 자주 사용자들이 기사를 가짜 뉴스로 표기하려 하는지 예의주시해왔고, 이 기능을 사용해 사용자들의 지적 신뢰성을 계산해 왔다. 워싱턴 포스트에 따르면 올 8 월부터 페이스북은 플래그 지정 시스템의 오용을 식별하고 있으며, 다만 사용자에게는 공개하지 않는다.

이에 대해 리니 교수는 다른 견해를 제시한다. 페이스 북은 오히려 각 사용자가 정보가 허위이거나 오도 될 수 있다는 경고를 받은 후에 분쟁 정보를 공유하기로 결정하는 빈도를 추적하고 표시하는 투명성 정책을 취해야한다는 것이다. 그는 이를 '신뢰성 마크'로 명명했다. 사용자의 이름 옆에 노란색, 녹색점 등의 색상의 점을 표기하도록 하는데, 이는 사용자가  많은 논란이 되는 뉴스를 자주 공유하지 않을 경우 녹색점을 띄우는 식이다. 이런 신뢰성 표시장치는 그들의 친구가 얼마나 믿을만한지 한눈에 볼 수 있게 해준다는 게 그의 견해다.

그는 "이런 제안에 검열은 없다"며 "신뢰도가 낮은 이용자의 게시물을 억제하기 위한 알고리즘을 바꾸지 말고, 원하는 것은 무엇이든 게시할 수 있게 하되 신뢰도 표지를 볼 수 있게 해 이상한 이야기를 전달하기 전에 다시 생각할 수 있도록 하자"고 제안했다. 그는 "무엇보다 중요한 것은 녹색 신뢰도 지표가 귀중한 자원이 될 수 있다"고 덧붙였다. 

리니 교수는 "이 아이디어 뒤에는 기술이 있지만, 이미 존재하는 기술이고 소셜 미디어가 나오기 훨씬 전부터 우리의 정보 수집을 규제해 온 증언 기준을 알고리즘적으로  돕기 위한 것"이라고 설명했다.

"가짜 뉴스를 위한 해결책은 단지 영리한 프로그래밍이 아닌,  각자가 디지털 시민으로서 책임 지고 우리의 지적 명성을 온라인에 올리는 것을 포함한다."

출처 : https://www.nytimes.com/2018/10/15/opinion/facebook-fake-news-philosophy.html?action=click&module=Opinion&pgtype=Homepage
 

저작권자 © 이로운넷 무단전재 및 재배포 금지
관련기사