본문 바로가기
[AWS]/AWS SAA EXAMTOPICS

[AWS][SAA][EXAMTOPICS] Question 234

by METAVERSE STORY 2022. 7. 5.
반응형

A firm gathers data on temperature, humidity, and air pressure in cities across the world. Each day, an average of 500 GB of data is gathered each station. Each location is equipped with a high-speed internet connection. The company's weather forecasting tools are regionally focused and do daily data analysis.

What is the SPEEDIEST method for collecting data from all of these worldwide sites?

  • A. Enable Amazon S3 Transfer Acceleration on the destination bucket. Use multipart uploads to directly upload site data to the destination bucket.
  • B. Upload site data to an Amazon S3 bucket in the closest AWS Region. Use S3 cross-Region replication to copy objects to the destination bucket.
  • C. Schedule AWS Snowball jobs daily to transfer data to the closest AWS Region. Use S3 cross-Region replication to copy objects to the destination bucket.
  • D. Upload the data to an Amazon EC2 instance in the closest Region. Store the data in an Amazon Elastic Block Store (Amazon EBS) volume. Once a day take an EBS snapshot and copy it to the centralized Region. Restore the EBS volume in the centralized Region and run an analysis on the data daily.

한글 번역

한 회사에서 전 세계 도시의 온도, 습도 및 기압에 대한 데이터를 수집합니다. 매일 평균 500GB의 데이터가 각 스테이션에서 수집됩니다. 각 위치는 고속 인터넷 연결을 갖추고 있습니다. 회사의 일기 예보 도구는 지역에 초점을 맞추고 일일 데이터 분석을 수행합니다.

전 세계 모든 사이트에서 데이터를 수집하는 가장 빠른 방법은 무엇입니까?

  • A. 대상 버킷에서 Amazon S3 Transfer Acceleration을 활성화합니다. 멀티파트 업로드를 사용하여 사이트 데이터를 대상 버킷에 직접 업로드합니다.
  • B. 가장 가까운 AWS 리전의 Amazon S3 버킷에 사이트 데이터를 업로드합니다. S3 교차 리전 복제를 사용하여 대상 버킷에 객체를 복사합니다.
  • C. 매일 AWS Snowball 작업을 예약하여 가장 가까운 AWS 리전으로 데이터를 전송합니다. S3 교차 리전 복제를 사용하여 대상 버킷에 객체를 복사합니다.
  • D. 가장 가까운 리전의 Amazon EC2 인스턴스에 데이터를 업로드합니다. Amazon Elastic Block Store(Amazon EBS) 볼륨에 데이터를 저장합니다. 하루에 한 번 EBS 스냅샷을 만들어 중앙 리전으로 복사합니다. 중앙 집중식 리전에서 EBS 볼륨을 복원하고 매일 데이터에 대한 분석을 실행합니다.

 

 

 

정답

  • A. Enable Amazon S3 Transfer Acceleration on the destination bucket. Use multipart uploads to directly upload site data to the destination bucket.

 

해설

Amazon S3 Transfer Acceleration은 클라이언트와 S3 버킷 간의 장거리 파일 전송을 파일을 빠르고 쉽고 안전하게 전송할 수 있는 버킷 수준 기능입니다. Transfer Acceleration은 전 세계에서 S3 버킷으로 전송 속도를 최적화하도록 설계되었습니다. Transfer Acceleration은 Amazon CloudFront에서 전 세계에 분산된 엣지 로케이션을 활용합니다. 엣지 로케이션에 도착한 데이터는 최적화된 네트워크 경로를 통해 Amazon S3로 라우팅됩니다.

Transfer Acceleration을 사용하는 이유는 무엇입니까?

버킷에서 Transfer Acceleration을 사용하는 이유는 다음과 같이 다양합니다.

  • 전 세계 각지에서 중앙의 버킷으로 업로드하는 고객이 있는 경우
  • 전 세계에 정기적으로 수 기가바이트에서 수 테라바이트의 데이터를 전송할 경우
  • Amazon S3에 업로드할 때 인터넷을 통해 사용 가능한 대역폭을 충분히 활용할 수 없는 경우

멀티파트 업로드를 사용하면 단일 객체를 파트 세트로 업로드할 수 있습니다. 각 부분은 개체 데이터의 연속 부분입니다. 이러한 개체 부분을 독립적으로 어떤 순서로든 업로드할 수 있습니다. 어떤 부분의 전송이 실패하면 다른 부분에 영향을 주지 않고 해당 부분을 재전송할 수 있습니다. 객체의 모든 부분이 업로드되면 Amazon S3는 이러한 부분을 조합하고 객체를 생성합니다. 일반적으로 객체 크기가 100MB에 도달하면 단일 작업으로 객체를 업로드하는 대신 멀티파트 업로드 사용을 고려해야 합니다.

멀티파트 업로드를 사용하여 개체 업로드 및 복사

멀티파트 업로드를 사용하면 다음과 같은 이점이 있습니다.

  • 처리량 향상 – 부품을 병렬로 업로드하여 처리량을 향상할 수 있습니다.
  • 모든 네트워크 문제에서 빠른 복구 – 더 작은 부품 크기는 네트워크 오류로 인해 실패한 업로드를 다시 시작하는 영향을 최소화합니다.
  • 개체 업로드 일시 중지 및 다시 시작 – 시간이 지남에 따라 개체 부분을 업로드할 수 있습니다. 멀티파트 업로드를 시작한 후에는 만료일이 없습니다. 멀티파트 업로드를 명시적으로 완료하거나 중지해야 합니다.
  • 최종 개체 크기를 알기 전에 업로드 시작 – 개체를 생성하면서 업로드할 수 있습니다.

다음과 같은 방법으로 멀티파트 업로드를 사용하는 것이 좋습니다.

  • 안정적인 고대역폭 네트워크를 통해 큰 개체를 업로드하는 경우 멀티파트 업로드를 사용하여 멀티스레드 성능을 위해 개체 부분을 병렬로 업로드하여 사용 가능한 대역폭의 사용을 최대화합니다.
  • 불규칙한 네트워크를 통해 업로드하는 경우 멀티파트 업로드를 사용하여 업로드가 다시 시작되지 않도록 하여 네트워크 오류에 대한 복원력을 높입니다. 멀티파트 업로드를 사용하는 경우 업로드 중에 중단된 부분만 업로드를 다시 시도해야 합니다. 처음부터 개체 업로드를 다시 시작할 필요가 없습니다.

 

 

참조 문서

https://docs.aws.amazon.com/AmazonS3/latest/userguide/transfer-acceleration.html

 

Configuring fast, secure file transfers using Amazon S3 Transfer Acceleration - Amazon Simple Storage Service

Configuring fast, secure file transfers using Amazon S3 Transfer Acceleration Amazon S3 Transfer Acceleration is a bucket-level feature that enables fast, easy, and secure transfers of files over long distances between your client and an S3 bucket. Transfe

docs.aws.amazon.com

https://docs.aws.amazon.com/AmazonS3/latest/userguide/mpuoverview.html

 

Uploading and copying objects using multipart upload - Amazon Simple Storage Service

It is possible for some other request received between the time you initiated a multipart upload and completed it to take precedence. For example, if another operation deletes a key after you initiate a multipart upload with that key, but before you comple

docs.aws.amazon.com

 

반응형

댓글