KAIST, AI 생각 과정 시각화

2025-11-26     이성현 기자
KAIST

[충청뉴스 이성현 기자] 국내 연구진이 AI가 생각하는 과정을 시각화하는 데 성공했다.

한국과학기술원(KAIST)은 김재철AI대학원 최재식 교수 연구팀이 AI가 어떤 근거로 판단하는지를 인간이 이해할 수 있도록 보여주는 ‘설명가능성(XAI)’ 분야에서 모델 내부의 개념 형성 과정을 회로 단위로 시각화하는 새로운 XAI 기술을 개발했다고 26일 밝혔다.

이번 연구는 ‘AI가 어떻게 생각하는지’를 구조적으로 들여다볼 수 있도록 한 중요한 진전으로 평가된다.

딥러닝 모델 내부에는 인간의 뇌처럼 ‘뉴런(Neuron)’이라는 기본 계산 단위가 존재한다. 뉴런은 이미지 속 작은 특징을 감지하는 기능을 갖고 있으며 값(신호)을 계산해 다음 단계로 전달한다.

반면 ‘회로(circuit)’는 이러한 뉴런 여러 개가 서로 연결되어 하나의 의미(개념)를 함께 인식하는 구조를 말한다. 예를 들어 ‘고양이 귀’라는 개념을 인식하기 위해서는 귀의 윤곽을 감지하는 뉴런, 삼각형 형태를 감지하는 뉴런, 털 색 패턴을 감지하는 뉴런 등 여러 뉴런이 순차적으로 작동해야 하며 이들이 하나의 기능 단위(회로)를 이룬다.

연구팀은 AI의 개념 표현 단위를 ‘뉴런 → 회로’로 확장해 해석하는 기술을 제시했다.

연구팀이 개발한 ‘세분화된 개념회로(GCC)’ 기술은 이미지 분류 모델이 내부에서 개념을 형성하는 과정을 회로 단위로 분석하고 시각화하는 새로운 방식이다.

GCC는 뉴런 민감도, 의미 흐름 점수를 계산해 회로를 자동적으로 추적한다.

뉴런 민감도는 특정 뉴런이 어떤 특징에 얼마나 민감하게 반응하는지, 의미 흐름 점수는 그 특징이 다음 개념으로 얼마나 강하게 전달되는지를 보여주는 지표로 이를 통해 색·질감 같은 기본 특징이 어떻게 상위 개념으로 조립되는지 단계적으로 시각화할 수 있다.

연구팀이 특정 회로를 잠시 비활성화하는 실험을 수행한 결과 회로가 담당하던 개념이 사라지면서 AI의 예측이 실제로 달라지는 현상이 나타났다.

이번 연구는 복잡한 딥러닝 모델 내부에서 개념이 형성되는 실제 구조를 세밀한 회로 단위로 드러낸 최초의 연구로 평가된다. 이를 통해 AI 판단 근거의 투명성 강화, 오분류 원인 분석, 편향(Bias) 검출, 모델 디버깅 및 구조 개선, 안전성·책임성 향상 등 설명가능성(XAI) 전반에서 실질적인 응용 가능성을 제시한 것이다.

최재식 교수는 “복잡한 모델을 단순화해 설명하던 기존 방식과 달리, 모델 내부를 세부 회로 단위로 정밀하게 해석한 최초의 접근”이라며 “AI가 학습한 개념을 자동으로 추적·시각화할 수 있음을 입증했다”고 설명했다.