본문 바로가기
[AWS]/AWS SAA EXAMTOPICS

[AWS][SAA][EXAMTOPICS] Question 222

by METAVERSE STORY 2022. 7. 5.
반응형
728x170

A corporation hosts more than 300 websites and apps on a worldwide scale. Each day, the organization wants a platform capable of analyzing more than 30 TB of clickstream data.

What should a solutions architect do with the clickstream data during transmission and processing?

  • A. Design an AWS Data Pipeline to archive the data to an Amazon S3 bucket and run an Amazon EMR cluster with the data to generate analytics.
  • B. Create an Auto Scaling group of Amazon EC2 instances to process the data and send it to an Amazon S3 data lake for Amazon Redshift to use for analysis.
  • C. Cache the data to Amazon CloudFront. Store the data in an Amazon S3 bucket. When an object is added to the S3 bucket, run an AWS Lambda function to process the data for analysis.
  • D. Collect the data from Amazon Kinesis Data Streams. Use Amazon Kinesis Data Firehose to transmit the data to an Amazon S3 data lake. Load the data in Amazon Redshift for analysis.

 

한글 번역

기업은 전 세계적으로 300개 이상의 웹사이트와 앱을 호스팅합니다. 조직은 매일 30TB 이상의 클릭스트림 데이터를 분석할 수 있는 플랫폼을 원합니다.

솔루션 설계자는 전송 및 처리 중에 클릭스트림 데이터로 무엇을 해야 합니까?

  • A. AWS Data Pipeline을 설계하여 데이터를 Amazon S3 버킷에 보관하고 데이터로 Amazon EMR 클러스터를 실행하여 분석을 생성합니다.
  • B. Amazon EC2 인스턴스의 Auto Scaling 그룹을 생성하여 데이터를 처리하고 Amazon Redshift가 분석에 사용할 수 있도록 Amazon S3 데이터 레이크로 보냅니다.
  • C. 데이터를 Amazon CloudFront에 캐시합니다. Amazon S3 버킷에 데이터를 저장합니다. 객체가 S3 버킷에 추가되면 AWS Lambda 함수를 실행하여 분석할 데이터를 처리합니다.
  • D. Amazon Kinesis Data Streams에서 데이터를 수집합니다. Amazon Kinesis Data Firehose를 사용하여 Amazon S3 데이터 레이크로 데이터를 전송합니다. 분석을 위해 Amazon Redshift에 데이터를 로드합니다.

 

 

 

정답

  • D. Collect the data from Amazon Kinesis Data Streams. Use Amazon Kinesis Data Firehose to transmit the data to an Amazon S3 data lake. Load the data in Amazon Redshift for analysis.

 

해설

목표

  • 300개 이상의 글로벌 웹사이트 및 앱에 대한 독자 통계, 노출수, 페이지 조회수와 같은 실시간 클릭스트림 이벤트를 분석하는 플랫폼을 개발하는 데 필요했습니다.
  • 편집자가 플랫폼 간 공유를 촉진하고 소비자 참여를 높이기 위해 인기 있는 콘텐츠를 모니터링하고 분석할 수 있는 더 나은 방법을 제공하고자 했습니다.
  • 클릭스트림 데이터를 사용하여 데이터 과학을 수행하고 알고리즘을 개발하며 Hearst 비즈니스 이해 관계자를 지원하는 시각화 및 대시보드를 만들려고 했습니다.

아마존 웹 서비스를 선택해야 하는 이유

  • 전 세계 300개 이상의 Hearst 웹사이트에서 스트리밍되는 하루 30테라바이트 이상의 클릭스트림 데이터를 전송하고 처리하는 클릭스트림 분석 플랫폼을 구축했습니다.
  • Amazon Kinesis Firehose 는 버퍼링된 데이터를 Amazon Kinesis Data Streams 에서 Amazon Simple Storage Service (Amazon S3) 의 영구 스토리지로 자동 이동합니다. 이는 팀이 이전에 관리해야 했던 Amazon Elastic Compute Cloud(Amazon EC2) 인스턴스를 대체합니다.
  • 변환된 클릭스트림 데이터는 Hearst 데이터 레이크에서 가져와 분석 쿼리 및 복잡한 데이터 과학 작업을 위해 Amazon Redshift로 전송됩니다.
  • Amazon Redshift에서 데이터는 API를 통해 회사의 콘텐츠 관리 시스템으로 최종 사용자에게 푸시됩니다.

혜택

  • 빠른 통찰력. 클릭스트림 분석 플랫폼을 통해 Hearst는 웹사이트 클릭에서 집계된 데이터에 이르기까지 전체 데이터 스트림을 편집자가 몇 분 만에 사용할 수 있도록 할 수 있습니다.
  • 단순화된 데이터 분석. Hearst 기업 개발 팀은 데이터 파이프라인 관리에 소요되는 시간을 줄이고 분석에 더 많은 시간을 할애합니다.
  • 콘텐츠 재순환 증가. 콘텐츠 메트릭을 빠르게 얻을 수 있는 기능으로 Hearst 편집자는 인기 있는 콘텐츠의 재순환을 25% 이상 늘렸습니다.
  • 복잡성 감소. Amazon Kinesis Firehose를 사용하여 Hearst는 더 이상 버퍼링된 데이터의 이동을 관리하고 모니터링할 필요가 없습니다. 결과적으로 팀은 EC2 인스턴스를 교체해야 하는지에 대해 걱정할 필요가 없습니다.

 

참조 문서

https://aws.amazon.com/ko/solutions/case-studies/hearst-data-analytics/

 

Hearst Data Analytics Case Study

Hearst Corporation, headquartered in New York City, is one of the largest media and information companies in the world. The company owns 15 daily and 36 weekly newspapers and more than 300 popular magazines worldwide, including Cosmopolitan, Esquire, and O

aws.amazon.com

 

반응형
그리드형

댓글