오픈AI가 자사 기술 악용 가능성을 인정하며 악성 국가 해커 계정을 차단했다. 이 사건은 오픈AI의 주력 기술인 대형 언어 모델(LLM)이 악용될 수 있다는 우려를 확인하는 것이라 할 수 있다.
악성 국가 해커, 오픈AI 기술 악용
오픈AI는 수많은 보안 전문가와 연구원, 위협 분석가로 구성된 마이크로소프트 위협 정보 커뮤니티와의 협업을 통해 적발 과정에서 최소 5개의 국가 지원 해커 집단이 오픈AI 서비스를 악용하고 있음을 확인했다. 이들은 오픈소스 정보 검색, 번역, 코드 오류 찾기, 기본적인 코딩 작업 등에 활용했던 것으로 알려졌다.
해당 해커 집단은 중국 차콜 타이푼(Charcoal Typhoon), 살몬 타이푼(Salmon Typhoon), 이란 크림슨 샌드스톰(Crimson Sandstorm), 북한 에메랄드 슬리트(Emerald Sleet), 러시아 포레스트 블리자드(Forest Blizzard) 등이다.
초기 단계 차단 노력
마이크로소프트는 해당 해커들이 잠재적 사이버 공격을 강화하기 위해 오픈AI 서비스를 이용했을 가능성이 있다고 밝혔다. 하지만 가장 엄격하게 감시되는 LLM은 악용되지 않은 것으로 확인됐다.
마이크로소프트는 "여기에는 잠재적 피해자의 산업, 위치, 관계에 대한 정보 수집, 소프트웨어 스크립트 및 악성 코드 개발 개선 등 코딩 지원, 목표 대상의 직업, 전문 네트워크, 기타 관계에 맞춘 허위 및 사기적 커뮤니케이션에 의존하는 사회 공학 등 네이티브 언어 학습 및 사용 지원 등이 포함된다"라고 설명했다.
마이크로소프트는 이번 발표를 잘 알려진 해커 집단들이 시도하는 "초기 단계, 점진적인 움직임"을 폭로하기 위한 조기 발견 노력으로 설명했다.
안전 강화 노력
오픈AI는 현재 모델의 사이버 공격 감지 능력이 제한적임을 인정하면서 향후 안전 투자를 위한 노력을 밝혔다. 이는 다음과 같은 내용을 포함한다.
△위협 감지를 위한 인텔리전스 및 조사, 안전, 보안, 무결성 팀 등 기술 및 팀 투자
△악용 사례 정보 교환을 위한 업계 파트너 및 이해 관계자와의 협업
△안전 위협 및 해결책에 대한 지속적인 공개 보고
오픈AI는 "우리는 이러한 악성 행위자들의 잠재적 악용을 최소화하기 위해 노력하지만 모든 사례를 막을 수는 없다"며 "하지만 지속적인 혁신, 조사, 협업, 공유를 통해 악성 행위자들이 디지털 생태계에서 발견되지 않게 만들고 다른 모든 사람들의 경험을 개선할 수 있다"고 덧붙였다.