본문 바로가기
[AWS]/AWS SAA EXAMTOPICS

[AWS][SAA][EXAMTOPICS] Question 288

by METAVERSE STORY 2022. 7. 8.
반응형

A business is developing an application that will allow customers to upload tiny files to Amazon S3. After a user uploads a file, it undergoes one-time basic processing to change the data and store it in JSON format for further analysis.
Each file must be handled immediately upon upload. Demand will fluctuate. On some days, people will upload an unusually large amount of files. On other days, people will upload a small number of files or none at all.

Which method satisfies these criteria with the LEAST amount of operational overhead?

  • A. Configure Amazon EMR to read text files from Amazon S3. Run processing scripts to transform the data. Store the resulting JSON file in an Amazon Aurora DB cluster.
  • B. Configure Amazon S3 to send an event notification to an Amazon Simple Queue Service (Amazon SQS) queue. Use Amazon EC2 instances to read from the queue and process the data. Store the resulting JSON file in Amazon DynamoDB.
  • C. Configure Amazon S3 to send an event notification to an Amazon Simple Queue Service (Amazon SQS) queue. Use an AWS Lambda function to read from the queue and process the data. Store the resulting JSON file in Amazon DynamoDB.
  • D. Configure Amazon EventBridge (Amazon CloudWatch Events) to send an event to Amazon Kinesis Data Streams when a new file is uploaded. Use an AWS Lambda function to consume the event from the stream and process the data. Store the resulting JSON file in Amazon Aurora DB cluster.

 

한글 번역

한 비즈니스에서 고객이 Amazon S3에 작은 파일을 업로드할 수 있는 애플리케이션을 개발 중입니다. 사용자가 파일을 업로드한 후 데이터를 변경하고 추가 분석을 위해 JSON 형식으로 저장하는 1회 기본 처리를 거칩니다.
각 파일은 업로드 즉시 처리해야 합니다. 수요가 변동될 것입니다. 어떤 날에는 사람들이 비정상적으로 많은 양의 파일을 업로드합니다. 다른 날에는 사람들이 적은 수의 파일을 업로드하거나 전혀 업로드하지 않습니다.

다음 중 운영 오버헤드가 가장 적은 이러한 기준을 충족하는 방법은 무엇입니까?

  • A. Amazon S3에서 텍스트 파일을 읽도록 Amazon EMR을 구성합니다. 처리 스크립트를 실행하여 데이터를 변환합니다. 결과 JSON 파일을 Amazon Aurora DB 클러스터에 저장합니다.
  • B. 이벤트 알림을 Amazon Simple Queue Service(Amazon SQS) 대기열로 보내도록 Amazon S3를 구성합니다. Amazon EC2 인스턴스를 사용하여 대기열에서 읽고 데이터를 처리합니다. 결과 JSON 파일을 Amazon DynamoDB에 저장합니다.
  • C. 이벤트 알림을 Amazon Simple Queue Service(Amazon SQS) 대기열로 보내도록 Amazon S3를 구성합니다. AWS Lambda 함수를 사용하여 대기열에서 읽고 데이터를 처리합니다. 결과 JSON 파일을 Amazon DynamoDB에 저장합니다.
  • D. 새 파일이 업로드될 때 Amazon Kinesis Data Streams에 이벤트를 보내도록 Amazon EventBridge(Amazon CloudWatch Events)를 구성합니다. AWS Lambda 함수를 사용하여 스트림에서 이벤트를 소비하고 데이터를 처리합니다. 결과 JSON 파일을 Amazon Aurora DB 클러스터에 저장합니다.

 

 

 

정답

  • C. Configure Amazon S3 to send an event notification to an Amazon Simple Queue Service (Amazon SQS) queue. Use an AWS Lambda function to read from the queue and process the data. Store the resulting JSON file in Amazon DynamoDB.

 

해설

일단 파일 형식이 JSON 형식이며, 운영 오버헤드를 줄이고 싶어한다. 그리고 파일이 어떤날은 자주 올라가고 어떤날은 조금 올라가거나 아예 올라가지 않는다. 

이 파일들을 업로드 하는데 가장 효율적인 방법은 C이다.

운영 오버헤드를 줄이기 위해서는 Serverless 서비스가 필수적이다. 또한 파일 형식이 JSON이므로 DynamoDB에 업로드 돼야 한다. 

또한 수요가 고정적이지 않고 변동적이므로 Lambda 사용이 필수적이므로 답은 C이다. 

반응형

댓글