Avamar 시스템의
용량 문제 해결Avamar 시스템에서 용량 문제를 처리할 때는 근본 원인을 이해하는 것이 중요합니다. 이를 위해서는 철저한 조사를 위한 데이터 수집부터 시작하여 일련의 단계가 필요합니다.
Avamar 시스템에는 몇 가지 유형의 용량 제한이 있습니다. 이러한 제한 사항과 과거 컨텍스트를 포괄적으로 이해하면 시스템에서 발생하는 현재 및 과거의 용량 문제를 모두 명확히 파악할 수 있습니다.
특정 용량 임계값이 초과되면 시스템은 UI(User Interface)에 특정 이벤트, 경고 또는 오류를 생성합니다.
- 80%: 용량 경고
- 95%: 상태 점검 제한에 도달했습니다.
- 100%: 서버 읽기 전용 제한에 도달하여 그리드가 관리자 모드로 전환됩니다.
Avamar 시스템이 가득 차면 다음과 같은 증상이나 오류가 나타날 수 있습니다.
- 가비지 컬렉션이 실패하여 MSG_ERR_DISKFULL 또는 MSG_ERR_STRIPECREATE 오류가 발생합니다.
- MSG_ERR_DISKFULL 오류로 인해 체크포인트가 실패합니다.
- 전체 용량으로 인해 백업을 실행할 수 없거나 실패합니다.
- 타겟 서버가 꽉 찼음을 나타내는 메시지 또는 MSG_ERR_STRIPECREATE 오류와 함께 백업이 실패합니다.
- 액세스 상태가 관리자 모드로 전환됩니다(유지 보수가 실행되고 있지 않은 경우).
- 백업 스케줄러가 비활성화되어 메타데이터 용량 제한으로 인해 재개할 수 없습니다.
이러한 측면을 이해하면 Avamar 시스템의 용량 문제를 관리하고 해결하는 데 도움이 될 수 있습니다.
정보 수집:
Avamar Server(단일 노드 또는 유틸리티 노드)에 로그인하고 모든 명령을 실행합니다. 이들은 정보만 수집하고 변경 사항을 적용하지 않습니다.
1. 아직 알려지지 않은 경우 Avamar Server 전체 이름 또는 FQDN(Fully Qualified Domain Name)을 제공합니다.
2. 유지 보수 스케줄러를 포함하여 모든 서비스가 활성화되어 있는지 확인합니다.
3. 전체 시스템 상태:
4. 용량을 실행합니다
.sh 스크립트를 사용하여 60일 분량의 데이터와 상위 10개 기여 클라이언트를 수집합니다.
capacity.sh --days=60 --top=10
5. 지난 30일 동안의 기본 가비지 수집 동작을 보여 주는 로그:
dumpmaintlogs --types=gc --days=30 | grep "4202"
6. 가비지 수집이 제거한 데이터의 양, 완료된 패스 수 및 실행 시간.
Avamar
v5.x 및 v6.x의 경우 다음을 실행합니다.
dumpmaintlogs --types=gc --days=30 | grep passes | cut -d ' ' -f1,12,13,15
Avamar
v7.x부터 다음을 실행합니다.
dumpmaintlogs --types=gc --days=30 | grep passes | cut -d ' ' -f1,10,14,15,17
7. hfscheck가 실행되는 시간을 확인합니다.
dumpmaintlogs --types=hfscheck --days=30 | grep -i elapsed|cut -d ' ' -f1,12 | grep -v check
8. 노드 및 파티션당 파일 시스템 용량 사용량의 세부 정보:
avmaint nodelist | egrep 'nodetag|fs-percent-full'
9. 시스템에서 사용할 수 있는 체크포인트 목록:
10. 유지 보수 작업 예약 시작/중지 시간:
avmaint sched status --ava | egrep -A 2 "maintenance-window|backup-window" | tail -16
11. 모든 디스크 설정을 수집합니다.
avmaint config --ava | egrep -i 'disk|crunching|balance'
Avamar SME(Subject Matter Expert)의 조언이 없는 한 값을 변경하지 마십시오. 기본값이 아닌 값은 정당한 이유로 사용할 수 있습니다. 상황을 철저히 이해하십시오.
12. 데이터 파티션별로 노드당 다양한 유형의 스트라이프 수를 수집합니다.
avmaint nodelist --xmlperline=99 | grep 'comp='
13. 각 노드에서 사용 중인 메모리(및 스왑)의 양을 확인합니다.