Memory Pruning Strategy는 메모리를 단순 삭제하는 작업이 아니라, 남길 가치가 있는 기억만 남기고 나머지를 압축하는 전략입니다. 기본 맥락은 Agent Memory와 Memory Layer Architecture에서 이어집니다.
정리하지 않는 메모리는 품질을 떨어뜨리고 조회 비용을 키웁니다. 반대로 너무 공격적으로 정리하면 개인화가 사라집니다. 그래서 pruning은 삭제가 아니라 압축, 요약, 이전, 폐기의 조합으로 보는 게 맞습니다.
왜 중요한가 #
- 오래된 기억이 현재 응답을 방해합니다.
- 검색 후보가 많아질수록 지연이 늘어납니다.
- 중복 기억이 쌓이면 관리가 어려워집니다.
- 규정 준수를 위해 일부 기억은 반드시 줄여야 합니다.
운영 정책 #
| 방식 | 설명 |
|---|---|
| Delete | 완전히 제거 |
| Compress | 요약해서 축약 |
| Archive | 차가운 저장소로 이전 |
| Merge | 유사 기억을 통합 |
| Refresh | 최신 정보로 갱신 |
LangGraph나 Mem0처럼 상태와 메모리 추출이 있는 계층에서는 pruning을 백그라운드 작업으로 두는 편이 좋습니다. Semantic Cache는 pruning 대상이 아니라 만료와 재검증 대상에 가깝습니다.
아키텍처 도식 #
체크리스트 #
- 중복 메모리와 오래된 메모리를 구분합니다.
- 삭제보다 먼저 압축 여부를 판단합니다.
- 사용자별 중요한 기억은 별도 예외를 둡니다.
- pruning 결과는 감사 로그에 남깁니다.
- prune 후 retrieval 품질을 재측정합니다.
결론 #
메모리 전략의 마지막 단계는 늘리는 것이 아니라 줄이는 것입니다. 정리 규칙이 있어야 AI 에이전트가 오래 가고, 품질도 유지됩니다.