AI 시각 모델 편향 해결을 위한 WRING 기술 도입
MIT와 구글 연구진이 인공지능 시각 모델의 편향을 제거하는 WRING 기술을 발표했습니다. 기존 방식의 부작용을 해결하고 모델 성능을 유지하는 데 중점을 둡니다.
주장인공지능 시각 모델의 편향은 의료 현장과 같은 고위험 분야에서 심각한 안전 문제를 일으킵니다. 특히 피부 병변 분류 과정에서 발생하는 모델 편향은 환자의 진단 결과에 치명적인 영향을 미칠 수 있습니다.
팩트매사추세츠 공과대학교(MIT), 우스터 폴리텍 연구소, 구글 연구진은 2026년 국제 학습 표현 학회에서 가중 회전 편향 제거(Weighted Rotational DebiasING, WRING) 기술을 발표했습니다. 이 기술은 시각 언어 모델의 편향을 정밀하게 제거합니다.
교차검증기존의 투영 편향 제거 방식은 모델의 임베딩 공간에서 편향 정보를 강제로 삭제합니다. 이 과정에서 모델이 학습한 다른 중요한 관계까지 왜곡되는 부작용이 발생하며, 이를 두더지 잡기 딜레마라고 부릅니다.
팩트두더지 잡기 딜레마는 2023년 인공지능 연구 분야에 도입된 개념입니다. 특정 편향을 제거할 때 의도치 않게 다른 유형의 편향이 증폭되는 현상을 의미합니다.
주장WRING 기술은 모델의 고차원 공간 내 좌표를 회전시켜 편향을 해결합니다. 이 방식은 특정 개념 내의 그룹을 구분하지 못하게 만들면서도 모델의 다른 학습 관계를 그대로 유지합니다.
팩트WRING은 사후 처리 방식이므로 이미 훈련된 모델에 즉시 적용할 수 있습니다. 거대 모델을 처음부터 다시 훈련할 필요가 없어 자원과 비용 측면에서 효율적입니다.
교차검증현재 이 기술은 이미지와 언어를 연결하는 CLIP 모델에 최적화되어 있습니다. 연구진은 앞으로 챗GPT와 같은 생성형 언어 모델로 적용 범위를 확장할 계획입니다.
팩트이번 연구에는 MIT의 월터 게리치, 카산드라 패런트, 퀸 페리안 교수와 구글의 라피야 자베드, 저스틴 솔로몬, 마르지에 가세미 연구진이 참여했습니다. 연구는 미국 국립과학재단과 MIT-구글 컴퓨팅 혁신상의 지원을 받았습니다.
주장인공지능 모델의 편향은 데이터 문제일 뿐만 아니라 모델 구조 자체에서 증폭될 수 있습니다. 따라서 모델의 성능을 유지하면서 편향만을 정밀하게 제어하는 기술적 접근이 필요합니다.
출처MIT 뉴스 보도 자료와 2026년 국제 학습 표현 학회 발표 자료를 교차 검증했습니다.
본 기사는 전문가의 분석과 공개 자료를 기반으로 AI가 작성 후 다른 AI의 검증을 거쳐 작성됐으며 정보의 정확성과 완전성을 보장하지 않습니다. 기사 내용은 특정 투자·의사결정의 권유가 아니며, Wittgenhaus는 이를 근거로 한 행위의 결과에 책임을 지지 않습니다.