ETRI, 초대형 AI 학습 고질적 문제 '메모리 부족' 해결 방법 제시
ETRI, 초대형 AI 학습 고질적 문제 '메모리 부족' 해결 방법 제시
  • 이성현 기자
  • 승인 2026.01.08 10:26
  • 댓글 0
이 기사를 공유합니다

기술 개념도
기술 개념도

[충청뉴스 이성현 기자] 국내 연구진이 초대형 인공지능(AI) 학습 과정의 고질적 문제인 ‘메모리 부족’을 근본적으로 해결할 수 있는 핵심 기술 개발에 성공했다.

한국전자통신연구원(ETRI)은 초대형 AI 학습에서 가장 큰 문제로 꼽히는 GPU의 메모리 한계와 데이터 병목 현상을 해결하는 새로운 메모리 기술 ‘옴니익스텐드’를 개발했다고 8일 밝혔다.

최근 초대형 AI 모델과 고성능 컴퓨팅(HPC) 수요가 급격히 증가하면서 처리해야 할 데이터 규모도 폭발적으로 커지고 있다. 그러나 GPU 성능이 아무리 향상되더라도 메모리 용량이 충분하지 않으면 연산 효율이 급격히 떨어지는 ‘메모리 장벽’ 문제는 여전히 해결 과제로 남아 있었다.

ETRI가 개발한 옴니익스텐드는 표준 네트워크 기술인 이더넷(Ethernet)을 활용해 여러 서버와 가속기 각각의 메모리를 하나의 대용량 메모리처럼 공유하는 기술이다.

즉 각 장비에 개별적으로 존재하던 메모리를 네트워크 전반으로 확장해 AI 학습에 필요한 메모리를 원하는 만큼 유연하게 확보할 수 있는 구조를 구현했다.

AI 모델이 대형화될수록 요구되는 메모리 필요량은 지속적으로 증가하는 만큼, ‘메모리를 풀(pool) 형태로 공유·활용하는 확장형 구조’는 차세대 AI 인프라의 핵심 기술로 주목받고 있다.

ETRI의 옴니익스텐드는 이러한 확장형 메모리 공유 구조를 이더넷 기반으로 구현함으로써 초대형 AI 학습의 성능과 확장성, 경제성을 동시에 확보했다.

먼저, 데이터 이동 지연을 최소화함으로써 AI 학습 속도가 향상됐으며, 서버 교체 없이 메모리를 확장할 수 있어 데이터센터 구축·운영 비용 절감 효과도 기대된다.

특히, 기존 고속 직렬 통신 인터페이스(PCIe) 기반 구조는 장비 간 연결 거리와 시스템 확장에 한계가 있었다.

반면 옴니익스텐드는 이더넷 스위치를 활용해 물리적으로 떨어진 다수의 장비를 하나의 메모리 풀로 묶을 수 있어 초대규모 AI 환경에 적합한 고확장성 시스템 구조로 평가받고 있다.

ETRI 연구진은 ▲현장 프로그래밍 가능 게이트 어레이(FPGA) 기반 메모리 확장 노드 ▲이더넷 기반 메모리 전송 엔진 등과 같은 핵심 요소기술을 개발해 시스템의 안정적 동작을 검증했다.

실제 시연에서는 이더넷 환경에서 여러 장비가 공유 메모리 풀(memory pool)을 구성하고 실시간으로 서로의 메모리에 접근하는 모습을 성공적으로 보여줬다.

또한 대규모 언어 모델(LLM)을 활용한 연산 부하 테스트를 통해 옴니익스텐드 구조가 실제 AI 학습 환경에서도 성능 향상에 기여함을 확인했다.

실험 결과 메모리 용량이 부족한 환경에서는 LLM 추론 성능이 크게 저하된 반면, 이더넷 기반으로 메모리를 확장한 경우 성능이 2배 이상 회복됐다.

이는 충분한 메모리를 갖춘 기존 환경과 유사한 수준의 처리 성능을 유지할 수 있음을 보여준다.

ETRI는 지난해 5월 프랑스 파리에서 열린‘RISC-V 서밋 유럽 2025’와 미국 샌타클라라에서 개최된‘RISC-V 서밋 노스 어메리카 2025’에서 해당 기술을 연이어 공개해 높은 관심을 받았다.

아울러 리눅스 재단 산하 칩스 얼라이언스(CHIPS Alliance)의 인터커넥트 워킹 그룹(Interconnect Working Group)을 주도하며, AI 네트워킹과 메모리 확장을 위한 오픈소스 표준 정립과 국제 확산에도 힘쓰고 있다.

ETRI는 향후 본 기술을 데이터센터 하드웨어·소프트웨어 기업을 중심으로 기술이전을 추진해 상용화를 도모할 계획이다.

특히 AI 학습·추론용 서버와 메모리 확장 장치, 네트워크 스위치 등에 적용해 차세대 AI 인프라 시장에서 실질적인 산업적 성과 창출을 추진할 방침이다.

아울러 본 기술을 차량·선박 등 고신뢰 임베디드 시스템의 대용량 메모리 연결망으로 확장하고 NPU·GPU·CPU 등 이종 가속기 간 메모리 공유 구조를 고도화하기 위한 후속 연구도 함께 추진할 예정이다.

김강호 초성능컴퓨팅연구본부장은 “향후 새로운 과제기획을 통해 신경망처리장치(NPU)와 가속기 중심의 메모리 인터커넥트 기술 연구를 본격 확대할 계획”이라며 “글로벌 AI·반도체 기업의 차세대 시스템에 본 기술이 적용될 수 있도록 기술 고도화와 국제 협력을 지속하겠다”고 밝혔다.

기사가 마음에 드셨나요?

충청뉴스 좋은 기사 후원하기


※ 소중한 후원금은 더 좋은 기사를 만드는데 쓰겠습니다.


댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.