익명 뒤에 숨은 '그놈' 잡는다…게임업계, AI 기술로 사이버 폭력 근절
익명 뒤에 숨은 '그놈' 잡는다…게임업계, AI 기술로 사이버 폭력 근절
  • 최창민 기자
  • 승인 2023.10.27 15:22
  • 댓글 0
이 기사를 공유합니다

게이머 절반 이상 "사이버 폭력 경험"
언어폭력 비중 80% 넘어…AI로 잡아
"적극적인 예방 캠페인도 한 방법"
사진=
사진=연합뉴스

[화이트페이퍼=최창민 기자] 끊이지 않는 사이버 폭력을 근절하고자 게임사들이 인공지능(AI) 기술을 게임에 도입하고 나섰다. 비중이 가장 높은 언어폭력이 중심이다. 이용자 10명 가운데 8명이 경험했을 정도로 만연한 게임 내 폭언을 방지하는 기술 개발에 공을 들이는 모습이다. 전문가들은 게임사의 적극적인 예방 캠페인도 필요하다고 강조했다.

27일 한국콘텐츠진흥원의 '2023 게임이용자 실태조사' 보고서에 따르면 전체 게임 이용자의 절반 이상인 56.2%가 최근 1년간 게임 내에서 사이버 폭력을 경험한 적이 있는 것으로 조사됐다. 가장 빈번하게 겪은 사이버 폭력 유형으로는 언어폭력이 두드러졌다. 비중은 83.9%에 달했다.

특히 언어폭력은 빈도도 가장 높은 것으로 집계됐다. 피해 횟수를 묻는 말에 12회 이상이라고 답한 응답자가 11.3%를 기록했다. 여타 사이버 폭력에 비해 월등히 높은 수준이다.

국내 게임사들도 이 같은 상황을 인지하고 악성 이용자 제재를 위한 기술을 속속 도입했다. 상습적으로 비윤리적 표현을 일삼는 이용자의 대화를 일시적으로 제한하거나 이용을 막는 등의 형태다. 최근에는 발달된 AI 기술을 시스템에 적용하는 등 이용자들의 안전한 게임 환경 조성에 나섰다.

엔씨소프트, 넷마블, 카카오게임즈 등 3사의 올해 반기보고서에 따르면 이들 게임사는 불건전 언어 예방과 관련한 연구·개발 활동을 진행하고 있다.

먼저 엔씨소프트는 AI 윤리 기술을 개발 중이다. 국가 간 비하 표현이나 비윤리·혐오 발화, 윤리적 대화 제어 등의 연구를 펼쳤다. 분쟁 요소를 AI가 사전에 식별하고 중립적인 표현으로 변환하는 기술과 대화 엔진, 채팅 번역 등에서 비윤리적인 표현이나 혐오 표현을 인식하고 대응하는 기술 등이다.

자료=
자료=한국콘텐츠진흥원

또 엔씨는 AI가 이용자의 비윤리적 발화를 학습하지 못하게 하는 제어 기술도 개발하고 있다. 엔씨는 "지난해 13개 유형을 실제 학습 데이터에 반영하고 이를 기반으로 비윤리적·부적절한 표현이 포함된 발화를 탐지하는 기술을 개발했다"며 "이를 지속적으로 개선해 나갈 것이고 적용 대상과 서비스도 확대할 것"이라고 밝혔다.

넷마블은 AI를 활용한 다국어 불건전 콘텐츠 식별 시스템을 구축했다. 이와 함께 모든 게임에 적용되는 공통 금칙어 기준을 수립, 업데이트를 진행 중이다. 이용자가 폭력적인 언어를 사용할 경우 게임 내 모니터링이나 신고 기능으로 접수하면 즉각 조치를 취한다. 넷마블은 "지난해 출시된 신작 ‘파라곤:디 오버프라임’의 경우 딥러닝 기술을 적용해 150여개 언어의 비윤리적 표현을 탐지·제재하고 있다"라고 설명했다.

카카오게임즈는 청소년 보호에 집중했다. 청소년 보호 정책을 시행 중인 카카오게임즈는 유해 정보로 신고가 접수되면 절차를 통해 삭제 또는 제재하고 있다. 이 밖에도 청소년 보호 책임자와 담당자를 별도로 지정해 유해 행위를 감시, 게임 서비스 전반에서 실시간 모니터링을 수행하고 있다.

김정태 동양대 게임학부 교수는 지속적인 모니터링과 원천 방지책을 강조했다. AI 등 신기술과 함께 게임사 자체적인 예방 캠페인이 필요하다는 주장이다. 김 교수는 "인공지능 신기술을 적용해 욕설이나 비방글의 필터링률을 높이는 전략이 중요하다"라며 "이용자들에게 사이버(언어) 폭력이 본인뿐만 아니라 타인에게도 심대한 정신적 고통을 줄 수 있음을 알리는 캠페인을 벌이는 것도 방법이 될 수 있을 것"이라고 제언했다.

화이트페이퍼, WHITEPAPER

관련기사

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.