아마존 재무팀의 생성형 AI 기반 규제 대응 자동화 시스템 구축
아마존 재무 기술팀이 생성형 AI를 도입하여 복잡한 규제 문의 대응 업무를 자동화했습니다. 실시간 데이터 처리와 정밀한 검색 전략을 통해 업무 효율성과 정확도를 동시에 확보했습니다.
주장아마존 재무 기술팀은 규제 문의 대응 업무의 확장성과 효율성을 높이기 위해 생성형 AI 기반 자동화 시스템을 구축했습니다. 기존의 수동 방식으로는 증가하는 규제 요구사항과 복잡한 문서 처리를 감당하기 어려웠기 때문입니다.
팩트해당 시스템은 아마존 베드록(Amazon Bedrock), 에이더블유에스 람다(AWS Lambda), 아마존 오픈서치 서버리스(Amazon OpenSearch Serverless)를 핵심 기술로 활용합니다. 특히 클로드 소넷 4.5(Claude Sonnet 4.5) 모델을 통해 실시간 대화형 응답을 생성하며, 아마존 다이나모디비(Amazon DynamoDB)로 대화 이력을 관리합니다.
팩트문서 처리 과정에서는 아마존 베드록 데이터 오토메이션을 사용하여 피디에프(PDF), 피피티(PPT), 워드(Word) 등 다양한 형식의 문서에서 이미지와 표 데이터를 추출합니다. 추출한 데이터는 계층적 청킹(Hierarchical Chunking) 전략을 거쳐 아마존 오픈서치 서버리스에 벡터 형태로 저장됩니다.
주장계층적 청킹 전략은 금융 문서의 구조적 특성을 반영하여 정확한 정보 검색을 가능하게 합니다. 작은 단위의 청크로 정밀한 검색을 수행하고, 큰 단위의 부모 청크로 문맥을 유지하여 응답의 일관성을 확보합니다.
팩트챗 애플리케이션은 웹소켓(WebSocket) 연결을 통해 실시간 스트리밍 응답을 제공하여 사용자의 대기 시간을 줄입니다. 또한 클로드 3.5 하이쿠(Claude 3.5 Haiku) 모델을 활용해 질문을 다각도로 확장함으로써 검색 정확도를 높입니다.
팩트문서 업로드부터 벡터 저장까지의 파이프라인은 완전 자동화되어 있습니다. 사용자가 문서를 업로드하면 에이피아이 게이트웨이(API Gateway)가 람다 함수를 호출하여 에스쓰리(S3)에 저장하고, 이후 데이터 처리 과정이 자동으로 실행됩니다.
교차검증생성형 AI 도입 시 발생할 수 있는 환각 현상과 최신성 결여는 중요한 위험 요소입니다. 이를 방지하기 위해 기술팀은 오픈텔레메트리(OpenTelemetry)와 랭퓨즈(LangFuse)를 사용하여 모델의 응답 과정을 모니터링하고 성능을 지속적으로 개선합니다.
교차검증규제 대응 업무는 높은 정확도와 책임 있는 인공지능 원칙 준수가 필수적입니다. 시스템은 거대언어모델(LLM)의 응답을 캐싱하지 않는데, 이는 규제 문의가 맥락에 따라 달라지며 실시간 정보 확인이 중요하기 때문입니다.
주장이번 사례는 기업이 방대한 과거 데이터를 생성형 인공지능과 결합하여 규제 준수 업무를 자동화할 수 있는 실질적인 모델을 제시합니다. 이는 금융 및 법률 분야와 같이 문서 의존도가 높은 산업 전반에 중요한 시사점을 제공합니다.
출처아마존 웹 서비스 머신러닝 블로그의 공식 게시물을 통해 위 내용을 교차 검증했습니다. (https://aws.amazon.com/blogs/machine-learning/how-amazon-finance-streamlines-regulatory-inquiries-by-using-generative-ai-on-aws/)
본 기사는 전문가의 분석과 공개 자료를 기반으로 AI가 작성 후 다른 AI의 검증을 거쳐 작성됐으며 정보의 정확성과 완전성을 보장하지 않습니다. 기사 내용은 특정 투자·의사결정의 권유가 아니며, Wittgenhaus는 이를 근거로 한 행위의 결과에 책임을 지지 않습니다.