메타, AI 인프라 최적화 도구 ‘커널이볼브’ 공개
메타가 인공지능 모델과 하드웨어 다양화에 따른 성능 병목 현상을 해결하기 위해 자동화 도구인 커널이볼브를 선보였습니다. 이 시스템은 커널 최적화를 자동화하여 연산 처리량을 대폭 개선하고 엔지니어링 시간을 단축합니다.
주장메타는 인공지능 모델의 급격한 증가와 하드웨어 다양화로 발생하는 성능 최적화 병목 현상을 해결하고자 커널이볼브를 개발했습니다. 기존의 수동 최적화 방식은 확장성에 한계가 있어 자동화된 에이전트 시스템이 필수적입니다.
팩트커널이볼브는 엔비디아 그래픽처리장치(GPU), 에이엠디(AMD) GPU, 메타의 자체 칩인 엠티아이에이(MTIA), 그리고 중앙처리장치(CPU) 등 다양한 하드웨어 환경에서 작동합니다. 이 시스템은 트리톤, 큐트 도메인 특화 언어(DSL), 플라이DSL과 같은 고수준 언어와 쿠다, 힙, 엠티아이에이 시플플 등 저수준 언어로 커널을 생성합니다.
팩트안드로메다 광고 모델의 경우 엔비디아 GPU에서 추론 처리량이 60% 이상 향상되었습니다. 메타의 자체 엠티아이에이 칩에서 실행되는 광고 모델의 학습 처리량 또한 25% 이상 개선되는 성과를 거두었습니다.
주장커널이볼브는 커널 최적화를 단순한 코드 생성이 아닌 검색 문제로 정의합니다. 전용 작업 환경이 후보 커널을 평가하고 진단 결과를 거대언어모델(LLM)에 전달하여 수백 개의 대안을 지속적으로 탐색합니다.
교차검증하드웨어마다 메모리 구조와 명령어 세트가 다르므로 특정 플랫폼에 최적화된 커널은 다른 환경에서 성능이 저하되거나 작동하지 않을 위험이 있습니다. 메타는 이를 해결하기 위해 세대별로 다른 최적화 전략을 적용합니다.
팩트메타의 엠티아이에이 칩 로드맵은 2년 동안 4개의 칩 세대인 엠티아이에이 300에서 500까지를 포함합니다. 각 세대는 새로운 연산 능력과 메모리 대역폭 특성을 가지며, 이전 세대에 최적화된 커널은 차세대 칩에서 성능이 떨어질 수 있습니다.
주장커널이볼브는 인공지능 소프트웨어와 하드웨어의 관계를 근본적으로 변화시킵니다. 과거 전문가가 수동으로 수행하던 커널 개발이 이제는 하드웨어와 모델의 변화에 맞춰 지속적이고 자동화된 방식으로 전환됩니다.
팩트커널이볼브는 메타의 랭킹 엔지니어 에이전트의 일부로 사용되며 매일 수조 건의 추론 요청을 처리하는 프로덕션 환경에 적용됩니다. 이 시스템은 수주가 소요되던 엔지니어링 작업을 수 시간으로 단축하여 인적 자원을 효율화합니다.
교차검증벤더가 제공하는 기본 라이브러리인 씨유블라스나 씨유디엔엔은 표준 연산을 지원하지만, 프로덕션 환경의 복잡한 맞춤형 연산까지 모두 대응하기에는 한계가 있습니다. 커널이볼브는 이러한 표준 라이브러리 외부의 커스텀 연산 최적화에 특화되어 있습니다.
팩트이 기술에 대한 상세 내용은 2026년 제53회 국제 컴퓨터 구조 심포지엄에서 발표될 예정입니다. 메타는 이를 통해 인공지능 인프라의 확장성과 모델 반복 주기를 획기적으로 개선합니다.
출처메타 엔지니어링 블로그(https://engineering.fb.com/2026/04/02/developer-tools/kernelevolve-how-metas-ranking-engineer-agent-optimizes-ai-infrastructure/)를 통해 해당 내용을 교차 검증했습니다.
본 기사는 전문가의 분석과 공개 자료를 기반으로 AI가 작성 후 다른 AI의 검증을 거쳐 작성됐으며 정보의 정확성과 완전성을 보장하지 않습니다. 기사 내용은 특정 투자·의사결정의 권유가 아니며, Wittgenhaus는 이를 근거로 한 행위의 결과에 책임을 지지 않습니다.