본문 바로가기
[GPUaaS]/GPUmgt

[Ceph] 대용량 분산 스토리지 시스템 !!

by METAVERSE STORY 2026. 2. 18.
반응형

 

 

 

 

 

1️⃣ Ceph가 뭐냐면?

**Ceph**는

여러 서버의 디스크를 하나로 묶어서
대용량 분산 스토리지 시스템을 만드는 오픈소스 스토리지 플랫폼이야.

쉽게 말하면:

  • 여러 서버의 NVMe / HDD를 모아서
  • 하나의 거대한 스토리지처럼 쓰게 해주는 시스템

2️⃣ Ceph는 어디에 쓰이냐?

보통 이런 곳에서 사용해:

  1. 클라우드 인프라 (OpenStack)
  2. 쿠버네티스 스토리지
  3. AI/HPC 클러스터
  4. 대규모 백업 스토리지
  5. S3 호환 오브젝트 스토리지

3️⃣ lsblk 결과 분석해보자

이 부분이 중요 👇

 
 
nvme1n1 (7T)
└─ceph--...-osd--block--...
 
nvme0n1 (7T)
└─ceph--...-osd--block--...
 

이건 무슨 뜻이냐면:

  • nvme0n1 → Ceph OSD로 사용 중
  • nvme1n1 → Ceph OSD로 사용 중

4️⃣ OSD가 뭐냐?

Ceph에서 디스크 하나 = OSD (Object Storage Daemon)

즉,

 
 
이 NVMe 디스크들은
Ceph 스토리지 풀의 일부로 실제 사용 중
 

이라는 뜻이야.


5️⃣ 진짜 사용 중이냐?

💡 lsblk 상태 보면:

 
 
TYPE lvm
 

으로 되어 있고

 
 
ceph--...-osd--block--...
 

이렇게 이름이 붙어있지?

👉 이건 Ceph가 디스크를 초기화해서
👉 OSD 블록 디바이스로 사용 중이라는 확실한 증거야.

즉:

실제로 Ceph가 이 디스크를 점유하고 사용 중이다


6️⃣ Ceph로 안 쓰는 디스크는?

 
 
nvme2n1 → 그냥 파티션만 있음
nvme3n1 → /data1 마운트
 

이 둘은 Ceph랑 관계 없어.


7️⃣ 전체 구조 정리

디스크 용도
vda OS 루트 디스크
nvme0n1 Ceph OSD
nvme1n1 Ceph OSD
nvme2n1 일반 파티션
nvme3n1 /data1 로 사용

8️⃣ Ceph를 실제로 돌리는 서버일 가능성

지금 구조는 거의 100%:

🔥 Ceph 클러스터 노드 (OSD 노드)

일 가능성이 매우 높아.


9️⃣ 진짜 확인하는 방법 (명령어)

아래 실행해봐 👇

 
 
systemctl status ceph-osd@*
 

또는

 
 
ceph -s
 

이게 동작하면 Ceph 클러스터에 실제로 붙어있는 서버야.


🔟 초보자용 한 줄 정리

👉 서버는
NVMe 2개를 Ceph 분산스토리지로 실제 사용 중인 상태다

 

 

=========================================

 

 

 

Ceph 분산스토리지는 여러 서버가 동시에 접속해서 같이 사용할 수 있어.

 


1️⃣ Ceph는 “디스크 공유 시스템”이야

**Ceph**는
여러 서버의 디스크를 하나로 묶어서

📦 하나의 거대한 스토리지처럼 만드는 시스템이야.

그리고 그 스토리지를
다른 서버들이 네트워크를 통해 접근할 수 있어.


2️⃣ 구조를 쉽게 그려보면

예를 들어:

 
 
[서버 A] 7TB
[서버 B] 7TB
[서버 C] 7TB
 

Ceph로 묶으면:

 
 
→ 하나의 21TB 스토리지 풀
 

그리고 다른 서버들이 이렇게 붙어:

 
 
[AI 서버 1]
[AI 서버 2]
[백업 서버]
[쿠버네티스 노드]
 

👉 전부 동시에 접근 가능


3️⃣ 어떻게 접속하냐?

Ceph는 3가지 방식으로 접속 가능해.


🔹 ① RBD (블록 스토리지)

서버 입장에서는 그냥 디스크처럼 보임.

예:

 
 
/dev/rbd0
 

VM, DB, 쿠버네티스에서 많이 사용.


🔹 ② CephFS (파일 시스템)

여러 서버가 동시에 마운트 가능.

예:

 
 
mount -t ceph ...
 

→ NFS처럼 사용 가능
→ 여러 서버가 동시에 read/write 가능


🔹 ③ RGW (S3 오브젝트 스토리지)

AWS S3처럼 사용.

API로 접근.


4️⃣ 여러 서버가 동시에 써도 괜찮아?

응.
Ceph는 애초에:

🔥 동시 접근을 전제로 설계된 시스템

이라서

  • 데이터 자동 복제
  • 자동 분산
  • 자동 복구

를 지원해.


5️⃣ 그럼 왜 다들 Ceph 쓰냐?

이런 장점 때문이야:

장점 설명
확장성 서버 추가하면 용량 자동 증가
고가용성 디스크 1개 죽어도 데이터 유지
동시접속 여러 서버 동시 사용 가능
자동복구 장애나면 자동 재복제

6️⃣ 서버 상황은?

아까 lsblk 보면:

 
 
nvme0n1 → ceph osd
nvme1n1 → ceph osd
 

이건:

👉 네 서버는 Ceph 클러스터의 일부 (OSD 노드)

즉:

🔥 다른 서버들이 이 디스크 공간을 이미 사용하고 있을 가능성 높음


7️⃣ 실제 사용 예시

예를 들어 AI 클러스터라면:

  • 학습 서버 32대
  • Ceph 스토리지 서버 10대

학습 서버들이 전부 Ceph에 저장된 데이터를 동시에 읽음.


8️⃣ 단, 주의할 점

Ceph는 네트워크 기반이야.

그래서:

  • 10GbE 이상 권장
  • 보통 25G / 100G 사용
  • RDMA 사용하면 더 좋음

🔥 한 줄 정리

✅ Ceph는 여러 서버가 동시에 접속해서 사용하는 분산 스토리지 시스템이다.

 

 

 

 

반응형

댓글