A corporation is using AWS to construct a new machine learning model solution. The models are constructed as self-contained microservices that get around 1 GB of model data from Amazon S3 and put it into memory during startup. The models are accessed by users through an asynchronous API. Users may submit a single request or a batch of requests and designate the destination for the results.
Hundreds of people benefit from the company's models. The models' use habits are erratic. Certain models may go days or weeks without being used. Other models may get hundreds of queries concurrently.
Which solution satisfies these criteria?
- A. The requests from the API are sent to an Application Load Balancer (ALB). Models are deployed as AWS Lambda functions invoked by the ALB.
- B. The requests from the API are sent to the models Amazon Simple Queue Service (Amazon SQS) queue. Models are deployed as AWS Lambda functions triggered by SQS events AWS Auto Scaling is enabled on Lambda to increase the number of vCPUs based on the SQS queue size.
- C. The requests from the API are sent to the model's Amazon Simple Queue Service (Amazon SQS) queue. Models are deployed as Amazon Elastic Container Service (Amazon ECS) services reading from the queue AWS App Mesh scales the instances of the ECS cluster based on the SQS queue size.
- D. The requests from the API are sent to the models Amazon Simple Queue Service (Amazon SQS) queue. Models are deployed as Amazon Elastic Container Service (Amazon ECS) services reading from the queue AWS Auto Scaling is enabled on Amazon ECS for both the cluster and copies of the service based on the queue size.
한글번역
한 기업에서 AWS를 사용하여 새로운 기계 학습 모델 솔루션을 구축하고 있습니다. 모델은 Amazon S3에서 약 1GB의 모델 데이터를 가져와 시작하는 동안 메모리에 저장하는 독립형 마이크로서비스로 구성됩니다. 모델은 비동기 API를 통해 사용자가 액세스합니다. 사용자는 단일 요청 또는 일괄 요청을 제출하고 결과의 대상을 지정할 수 있습니다.
수백 명의 사람들이 회사 모델의 혜택을 받습니다. 모델의 사용 습관이 불규칙합니다. 특정 모델은 사용하지 않고 며칠 또는 몇 주가 소요될 수 있습니다. 다른 모델은 동시에 수백 개의 쿼리를 받을 수 있습니다.
어떤 솔루션이 이러한 기준을 충족합니까?
- A. API의 요청은 ALB(Application Load Balancer)로 전송됩니다. 모델은 ALB에서 호출하는 AWS Lambda 함수로 배포됩니다.
- B. API의 요청은 Amazon Simple Queue Service(Amazon SQS) 대기열 모델로 전송됩니다. 모델은 SQS 이벤트에 의해 트리거되는 AWS Lambda 함수로 배포됩니다. AWS Auto Scaling은 SQS 대기열 크기에 따라 vCPU 수를 늘리기 위해 Lambda에서 활성화됩니다.
- C. API의 요청은 모델의 Amazon Simple Queue Service(Amazon SQS) 대기열로 전송됩니다. 모델은 대기열에서 읽는 Amazon Elastic Container Service(Amazon ECS) 서비스로 배포됩니다. AWS App Mesh는 SQS 대기열 크기를 기반으로 ECS 클러스터의 인스턴스를 확장합니다.
- D. API의 요청은 Amazon Simple Queue Service(Amazon SQS) 대기열 모델로 전송됩니다. 모델은 Amazon Elastic Container Service(Amazon ECS) 서비스로 배포되며 대기열 크기에 따라 클러스터 및 서비스 사본 모두에 대해 Amazon ECS에서 AWS Auto Scaling이 활성화됩니다.
정답
- D. The requests from the API are sent to the models Amazon Simple Queue Service (Amazon SQS) queue. Models are deployed as Amazon Elastic Container Service (Amazon ECS) services reading from the queue AWS Auto Scaling is enabled on Amazon ECS for both the cluster and copies of the service based on the queue size.
해설
먼저 모델 데이터의 사이즈 때문에 람다는 작동할 수 없다. 모델 사이즈는 1GB이지만 람다의 최대 크기는 4kb이고 /tmp는 512MB이다. 그러므로 A와 B는 정답이 될 수 없다.
그리고 ALB 에서 람다를 호출하려면 동기식이어야 하지만 이 서비스는 비동기식이므로 ALB에서 람다를 호출할 수없다.
20221121
한 기업에서 AWS를 사용하여 새로운 기계 학습 모델 솔루션을 구축하고 있습니다. 모델은 Amazon S3에서 약 1GB의 모델 데이터를 가져와 시작하는 동안 메모리에 저장하는 독립형 마이크로서비스로 구성됩니다. 모델은 비동기 API를 통해 사용자가 액세스합니다. 사용자는 단일 요청 또는 일괄 요청을 제출하고 결과의 대상을 지정할 수 있습니다.
수백 명의 사람들이 회사 모델의 혜택을 받습니다. 모델의 사용 습관이 불규칙합니다. 특정 모델은 사용하지 않고 며칠 또는 몇 주가 소요될 수 있습니다. 다른 모델은 동시에 수백 개의 쿼리를 받을 수 있습니다.
어떤 솔루션이 이러한 기준을 충족합니까?
머신러닝 솔루션을 구축하고 있다. S3에서 약 1GB의 모델 데이터를 가져와 시작하는 동안 메모리에 저장하는 독립형 마이크로서비스로 구성된다. 모델은 비동기 API를 통해 사용자가 액세스 한다. 사용자는 단일 요청 또는 일괄 요청을 제출하고 결과의 대상을 지정할수 있다.
하지만 수백명의 사람들이 회사 모델의 혜택을 받는데 모델의 사용 습관이 불규칙하다. 특정 모델은 사용하지 않고 며칠 또는 몇 주가 소요될수 있다.
우선 해당 솔루션을 적용하기 위해서는 모델 데이터의 사이즈 때문에 Lambda를 적용할 수 없다. 모델 사이즈가 1GB 이지만 Lambda의 최대 크기는 4KB이고 /tmp는 512 MB이기 때문에 선택지 A와 B는 정답에서 제외된다.
또한 ALB에서 람다를 호출하는 방식은 동기식이다. 해당 서비스는 비동기이기 때문에 ALB에서 Lambda를 호출할수 없다.
AWS App Mesh는 여러 유형의 컴퓨팅 인프라에서 서비스가 서로 쉽게 통신할 수 있도록 애플리케이션 수준 네트워킹을 제공하는 서비스이다. App Mesh는 애플리케이션에 대한 종단 간의 가시성과 고가용성을 제공한다. "응용 프로그램 수준 네트워킹"이 계산되지 않기 때문에 C도 정답에서 제외된다.
모든 선택지를 제외한다면 정답은 D "API의 요청은 Amazon Simple Queue Service(Amazon SQS) 대기열 모델로 전송됩니다. 모델은 Amazon Elastic Container Service(Amazon ECS) 서비스로 배포되며 대기열 크기에 따라 클러스터 및 서비스 사본 모두에 대해 Amazon ECS에서 AWS Auto Scaling이 활성화됩니다."
'[AWS] > AWS SAA EXAMTOPICS' 카테고리의 다른 글
[AWS][SAA][EXAMTOPICS] Question 106 (확인) (0) | 2022.11.21 |
---|---|
[AWS][SAA][EXAMTOPICS] Question 104 (확인) (0) | 2022.11.21 |
[AWS][SAA][EXAMTOPICS] Question 103 (확인) (0) | 2022.11.21 |
[AWS][SAA][EXAMTOPICS][시험에 그대로 나옴] Question 102 (확인) (0) | 2022.11.21 |
[AWS][SAA][EXAMTOPICS] Question 101 (확인) (0) | 2022.11.21 |
[AWS][SAA][EXAMTOPICS] Question 100 (확인) (0) | 2022.11.21 |
[AWS][SAA][EXAMTOPICS][시험에 그대로 나옴] Question 99 (0) | 2022.11.18 |
[AWS][SAA][EXAMTOPICS] Question 98 (확인) (0) | 2022.11.17 |
댓글