
1️⃣ Ceph가 뭐냐면?
**Ceph**는
여러 서버의 디스크를 하나로 묶어서
대용량 분산 스토리지 시스템을 만드는 오픈소스 스토리지 플랫폼이야.
쉽게 말하면:
- 여러 서버의 NVMe / HDD를 모아서
- 하나의 거대한 스토리지처럼 쓰게 해주는 시스템
2️⃣ Ceph는 어디에 쓰이냐?
보통 이런 곳에서 사용해:
- 클라우드 인프라 (OpenStack)
- 쿠버네티스 스토리지
- AI/HPC 클러스터
- 대규모 백업 스토리지
- S3 호환 오브젝트 스토리지
3️⃣ lsblk 결과 분석해보자
이 부분이 중요 👇
이건 무슨 뜻이냐면:
- nvme0n1 → Ceph OSD로 사용 중
- nvme1n1 → Ceph OSD로 사용 중
4️⃣ OSD가 뭐냐?
Ceph에서 디스크 하나 = OSD (Object Storage Daemon)
즉,
이라는 뜻이야.
5️⃣ 진짜 사용 중이냐?
💡 lsblk 상태 보면:
으로 되어 있고
이렇게 이름이 붙어있지?
👉 이건 Ceph가 디스크를 초기화해서
👉 OSD 블록 디바이스로 사용 중이라는 확실한 증거야.
즉:
✅ 실제로 Ceph가 이 디스크를 점유하고 사용 중이다
6️⃣ Ceph로 안 쓰는 디스크는?
이 둘은 Ceph랑 관계 없어.
7️⃣ 전체 구조 정리
| 디스크 | 용도 |
| vda | OS 루트 디스크 |
| nvme0n1 | Ceph OSD |
| nvme1n1 | Ceph OSD |
| nvme2n1 | 일반 파티션 |
| nvme3n1 | /data1 로 사용 |
8️⃣ Ceph를 실제로 돌리는 서버일 가능성
지금 구조는 거의 100%:
🔥 Ceph 클러스터 노드 (OSD 노드)
일 가능성이 매우 높아.
9️⃣ 진짜 확인하는 방법 (명령어)
아래 실행해봐 👇
또는
이게 동작하면 Ceph 클러스터에 실제로 붙어있는 서버야.
🔟 초보자용 한 줄 정리
👉 서버는
NVMe 2개를 Ceph 분산스토리지로 실제 사용 중인 상태다
=========================================
Ceph 분산스토리지는 여러 서버가 동시에 접속해서 같이 사용할 수 있어.
1️⃣ Ceph는 “디스크 공유 시스템”이야
**Ceph**는
여러 서버의 디스크를 하나로 묶어서
📦 하나의 거대한 스토리지처럼 만드는 시스템이야.
그리고 그 스토리지를
다른 서버들이 네트워크를 통해 접근할 수 있어.
2️⃣ 구조를 쉽게 그려보면
예를 들어:
Ceph로 묶으면:
그리고 다른 서버들이 이렇게 붙어:
👉 전부 동시에 접근 가능
3️⃣ 어떻게 접속하냐?
Ceph는 3가지 방식으로 접속 가능해.
🔹 ① RBD (블록 스토리지)
서버 입장에서는 그냥 디스크처럼 보임.
예:
VM, DB, 쿠버네티스에서 많이 사용.
🔹 ② CephFS (파일 시스템)
여러 서버가 동시에 마운트 가능.
예:
→ NFS처럼 사용 가능
→ 여러 서버가 동시에 read/write 가능
🔹 ③ RGW (S3 오브젝트 스토리지)
AWS S3처럼 사용.
API로 접근.
4️⃣ 여러 서버가 동시에 써도 괜찮아?
응.
Ceph는 애초에:
🔥 동시 접근을 전제로 설계된 시스템
이라서
- 데이터 자동 복제
- 자동 분산
- 자동 복구
를 지원해.
5️⃣ 그럼 왜 다들 Ceph 쓰냐?
이런 장점 때문이야:
| 장점 | 설명 |
| 확장성 | 서버 추가하면 용량 자동 증가 |
| 고가용성 | 디스크 1개 죽어도 데이터 유지 |
| 동시접속 | 여러 서버 동시 사용 가능 |
| 자동복구 | 장애나면 자동 재복제 |
6️⃣ 서버 상황은?
아까 lsblk 보면:
이건:
👉 네 서버는 Ceph 클러스터의 일부 (OSD 노드)
즉:
🔥 다른 서버들이 이 디스크 공간을 이미 사용하고 있을 가능성 높음
7️⃣ 실제 사용 예시
예를 들어 AI 클러스터라면:
- 학습 서버 32대
- Ceph 스토리지 서버 10대
학습 서버들이 전부 Ceph에 저장된 데이터를 동시에 읽음.
8️⃣ 단, 주의할 점
Ceph는 네트워크 기반이야.
그래서:
- 10GbE 이상 권장
- 보통 25G / 100G 사용
- RDMA 사용하면 더 좋음
🔥 한 줄 정리
✅ Ceph는 여러 서버가 동시에 접속해서 사용하는 분산 스토리지 시스템이다.
'[GPUaaS] > GPUmgt' 카테고리의 다른 글
| [GPU] 스크립트 사용 프로세스 확인 및 삭제 방법!! (0) | 2026.02.19 |
|---|---|
| [nvidia-healthmon] 파일 위치 및 주의사항 !! (0) | 2026.02.19 |
| nvidia-smi (System Management Interface) VS nvidia-healthmon (Tesla Health Monitor) !! (0) | 2026.02.19 |
| Ceph vs Lustre 차이 !! (0) | 2026.02.18 |
| [ECC ON] 체크 스크립트 !! (0) | 2026.02.18 |
| [Lustre 병렬 파일시스템] 초대형 AI / 슈퍼컴퓨터 전용 파일시스템 !! (0) | 2026.02.18 |
| [NVMe 번호는 고정 아님] 부팅 시 인식 순서가 달라짐 !! (0) | 2026.02.12 |
| [MBR(msdos) 파티션] MBR 방식 = 2TB 한계 / GPT 방식 (2TB 제한 제거 🔥) (0) | 2026.02.12 |
댓글