KAIST, 원거리 인공지능 모델 탈취 기술 개발

2026-03-31     이성현 기자

[충청뉴스 이성현 기자] 스마트폰 얼굴 인식과 자율주행 등에 활용되는 인공지능이 외부에서 구조를 분석당할 수 있는 새로운 보안 취약점이 국내외 공동연구진에 의해 확인됐다.

한국과학기술원(KAIST)은 전산학부 한준 교수 연구팀이 싱가포르국립대와 저장대 연구진과 공동으로 소형 안테나를 이용해 원거리에서 AI 모델 구조를 추출하는 ‘모델스파이’ 기술을 개발했다고 31일 밝혔다.

이 기술은 AI 구동 시 발생하는 미세 신호를 수집해 내부 구조를 분석하는 방식으로 연구진은 GPU에서 발생하는 전자기파에 주목했다.

연구팀은 연산 과정에서 발생하는 전자기 신호 패턴을 분석해 모델의 레이어 구성과 설정값을 복원하는 데 성공했다.

실험에서는 최신 GPU 5종을 대상으로 최대 6m 거리와 벽 너머에서도 모델 구조를 높은 정확도로 파악했으며 레이어 구성은 최대 97.6% 정확도로 추정됐다.

연구진은 기술 악용 시 기업의 AI 자산 유출 가능성을 지적하며 전자기파 교란과 연산 난독화 등 대응책도 함께 제안했다.

한준 교수는 “이번 연구는 AI 시스템이 물리적 환경에서도 새로운 공격에 노출될 수 있음을 입증한 사례”라며 “자율주행이나 국가 기반 시설과 같은 중요한 AI 인프라를 보호하기 위해 하드웨어와 소프트웨어를 아우르는‘사이버-물리 보안’체계 구축이 중요하다”고 설명했다.