KAIST, 챗GPT 등 이용시 개인정보 악용 가능성 규명
KAIST, 챗GPT 등 이용시 개인정보 악용 가능성 규명
  • 이성현 기자
  • 승인 2025.02.24 14:33
  • 댓글 0
이 기사를 공유합니다

LLM에이전트가 웹 기반 도구들을 사용해 공격자의 요구에 따라 답변 생성하는 과정
LLM에이전트가 웹 기반 도구들을 사용해 공격자의 요구에 따라 답변 생성하는 과정

[충청뉴스 이성현 기자] 국내 연구진이 챗GPT와 같은 대형 언어 모델(LLM) 에이전트가 개인정보 수집 및 피싱 공격 등에 활용될 수 있음을 입증했다.

한국과학기술원(KAIST)는 전기 및 전자공학부 신승원 교수와 김재철 AI 대학원 이기민 교수 연구팀이 실제 환경에서 LLM이 사이버 공격에 악용될 가능성을 실험적으로 규명했다고 25일 밝혔다.

현재 OpenAI, 구글 AI 등과 같은 상용 LLM 서비스는 LLM이 사이버 공격에 사용되는 것을 막기 위한 방어 기법을 자체적으로 탑재하고 있다. 그러나 연구팀의 실험 결과, 이러한 방어 기법이 존재함에도 불구하고 쉽게 우회해 악의적인 사이버 공격을 수행할 수 있음이 확인됐다.

기존의 공격자들이 시간과 노력이 많이 필요한 공격을 수행했던 것과는 달리 LLM 에이전트는 이를 평균 5~20초 내에 30~60원 수준의 비용으로 개인정보 탈취 등이 자동으로 가능하다는 점에서 새로운 위협 요소로 부각되고 있다.

연구 결과에 따르면 LLM 에이전트는 목표 대상의 개인정보를 최대 95.9%의 정확도로 수집할 수 있었다. 또 저명한 교수를 사칭한 허위 게시글 생성 실험에서는 최대 93.9%의 게시글이 진짜로 인식됐다.

또 피해자의 이메일 주소만을 이용해 피해자에게 최적화된 정교한 피싱 이메일을 생성할 수 있었으며 실험 참가자들이 이러한 피싱 이메일 내의 링크를 클릭할 확률이 46.67%까지 증가하는 것으로 나타났다. 이는 인공지능 기반 자동화 공격의 심각성을 시사한다.

신승원 교수는 “이번 연구는 정보 보안 및 AI 정책 개선에 중요한 기초 자료로 활용될 것으로 기대되며 연구팀은 LLM 서비스 제공업체 및 연구기관과 협력하여 보안 대책을 논의할 계획”이라고 설명했다.

기사가 마음에 드셨나요?

충청뉴스 좋은 기사 후원하기


※ 소중한 후원금은 더 좋은 기사를 만드는데 쓰겠습니다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.