IT/AWS

AWS Machine Learning (MLA-C01) 족보 정리 (Q6~Q10)

jaewon_sss 2026. 4. 2. 11:37
반응형

EXAMTOPIC 등록된 모든 기출문제(26.03.27 기준 최신)
★ 1번부터 219번까지 문제 풀이집 19,800원 에 판매중입니다 ★

https://open.kakao.com/o/sjfhfsni

 

AWS Machine Learning Dump 문제집

MLA-C01 대비 자료 (examtopic 기준 전체 기출(26.03.27 최신) 1~219번 문제 정리 포함) 자세한 내용은 채팅방 내 공지 확인 샘플 주소 : https://won-percent.tistory.com/310

open.kakao.com

 

 

 

 

✅ AWS Machine Learning Engineer Associate 정리

MLA-C01 (6–10번)

 


 

Question 6

문제 원문 (영문) A data scientist is training a machine learning model. The data scientist needs to track parameters and metrics to compare different versions of the model. Which tool or service will meet these requirements? A. AWS Glue DataBrew B. Amazon SageMaker Experiments C. Amazon SageMaker Model Registry D. Amazon SageMaker Pipelines

문제 번역 (한국어) 데이터 과학자가 ML 모델을 학습시키고 있습니다. 모델의 서로 다른 버전을 비교하기 위해 파라미터와 메트릭(지표)을 추적해야 합니다. 이 요구 사항을 충족하는 도구 또는 서비스는 무엇입니까? A. AWS Glue DataBrew B. Amazon SageMaker Experiments C. Amazon SageMaker Model Registry D. Amazon SageMaker Pipelines

정답 B. Amazon SageMaker Experiments

해설

  • SageMaker Experiments는 여러 모델 학습 반복(Iteration)의 파라미터, 설정, 결과 지표를 구성, 추적 및 비교하는 데 특화된 서비스입니다.
  • Model Registry는 승인된 모델 버전을 관리하는 용도이며, Pipelines는 워크플로 자동화용입니다.

용어 정리

  • Amazon SageMaker Experiments: 수천 개의 ML 학습 실험을 쉽게 추적하고 비교할 수 있는 관리형 기능.

Question 7

문제 원문 (영문) An ML engineer is deploying a large language model (LLM) on Amazon SageMaker. The LLM has billions of parameters and does not fit on a single GPU. The ML engineer needs to use model parallelism to distribute the model across multiple GPUs. Which library or feature should the ML engineer use? A. SageMaker model parallelism (SMP) library B. SageMaker data parallelism (SDP) library C. Horovod D. DeepGraphLibrary (DGL)

문제 번역 (한국어) ML 엔지니어가 Amazon SageMaker에 대규모 언어 모델(LLM)을 배포하고 있습니다. LLM은 수십억 개의 파라미터를 가지고 있어 단일 GPU에 들어가지 않습니다. 여러 GPU에 모델을 분산시키기 위해 모델 병렬 처리를 사용해야 합니다. 어떤 라이브러리 또는 기능을 사용해야 합니까? A. SageMaker model parallelism (SMP) library B. SageMaker data parallelism (SDP) library C. Horovod D. DeepGraphLibrary (DGL)

정답 A. SageMaker model parallelism (SMP) library

해설

  • 모델의 크기가 너무 커서 단일 GPU 메모리에 담을 수 없을 때는 **Model Parallelism(모델 병렬화)**을 사용해야 하며, AWS에서는 SMP 라이브러리를 제공합니다.
  • SDP(Data Parallelism)는 모델은 작지만 학습 데이터가 많을 때 데이터를 쪼개서 학습 속도를 높이는 방식입니다.

용어 정리

  • Model Parallelism (모델 병렬화): 거대한 모델을 여러 조각으로 나누어 여러 디바이스(GPU)에 배치하는 기술.

Question 8

문제 원문 (영문) A company wants to build a generative AI application on Amazon Bedrock. The company needs to use a base model and then fine-tune it with their own labeled dataset to improve performance for a specific task. Which Amazon Bedrock feature should the company use? A. Knowledge Bases for Amazon Bedrock B. Agents for Amazon Bedrock C. Model Customization (Fine-tuning) D. Provisioned Throughput

문제 번역 (한국어) 한 회사가 Amazon Bedrock에서 생성형 AI 애플리케이션을 구축하려고 합니다. 특정 작업의 성능을 향상시키기 위해 기본 모델(Base Model)을 가져와 레이블이 지정된 자체 데이터셋으로 파인튜닝(미세 조정)해야 합니다. 어떤 기능을 사용해야 합니까? A. Knowledge Bases for Amazon Bedrock B. Agents for Amazon Bedrock C. Model Customization (Fine-tuning) D. Provisioned Throughput

정답 C. Model Customization (Fine-tuning)

해설

  • 자체 데이터셋을 사용하여 모델의 가중치(Weight)를 직접 조정하는 과정은 Fine-tuning에 해당하며, Bedrock에서는 이를 Model Customization으로 제공합니다.
  • Knowledge Bases RAG(검색 증강 생성)를 구현할 때 사용합니다.

용어 정리

  • Fine-tuning (파인튜닝): 이미 학습된 모델에 특정 도메인의 데이터를 추가로 학습시켜 성능을 최적화하는 기법.

Question 9

문제 원문 (영문) An ML engineer is using Amazon SageMaker Clarify to explain the predictions of a machine learning model. The engineer wants to understand how much each feature contributed to a specific individual prediction. Which explainability method should the engineer use? A. SHAP (SHapley Additive exPlanations) B. Class Activation Maps (CAM) C. Permutation Feature Importance D. Correlation Analysis

문제 번역 (한국어) ML 엔지니어가 모델의 예측을 설명하기 위해 Amazon SageMaker Clarify를 사용하고 있습니다. 엔지니어는 각 피처(Feature)가 특정 개별 예측 결과에 얼마나 기여했는지 이해하고 싶어 합니다. 어떤 설명 가능성 방법을 사용해야 합니까? A. SHAP (SHapley Additive exPlanations) B. Class Activation Maps (CAM) C. Permutation Feature Importance D. Correlation Analysis

정답 A. SHAP (SHapley Additive exPlanations)

해설

  • SHAP는 각 피처가 모델의 예측값에 미치는 영향력을 수치화하여 '개별 예측'에 대한 상세한 설명을 제공하는 가장 대표적인 기법입니다.
  • SageMaker Clarify는 기본적으로 SHAP 값을 계산하여 모델의 투명성을 높여줍니다.

용어 정리

  • SHAP: 게임 이론을 바탕으로 각 변수가 결과에 기여한 '공헌도'를 계산하는 방식.

Question 10

문제 원문 (영문) An ML engineer is using Amazon SageMaker to train a model. The engineer wants to identify issues such as vanishing gradients or non-changing losses during the training process in real time. Which SageMaker feature should the engineer use? A. SageMaker Clarify B. SageMaker Debugger C. SageMaker Model Monitor D. SageMaker Pipelines

문제 번역 (한국어) ML 엔지니어가 Amazon SageMaker를 사용하여 모델을 학습시키고 있습니다. 엔지니어는 학습 과정 중에 기울기 소실(Vanishing Gradients)이나 손실 값의 변화 없음(Non-changing losses)과 같은 문제를 실시간으로 식별하고 싶어 합니다. 어떤 기능을 사용해야 합니까? A. SageMaker Clarify B. SageMaker Debugger C. SageMaker Model Monitor D. SageMaker Pipelines

정답 B. SageMaker Debugger

해설

  • SageMaker Debugger는 학습 중 발생하는 텐서(Tensor) 데이터를 분석하여 모델의 내부 상태를 모니터링합니다. 기울기가 너무 작아지거나(Vanishing), 학습이 정체되는 등의 기술적 문제를 실시간으로 감지하여 경고를 보냅니다.

용어 정리

  • Vanishing Gradient (기울기 소실): 딥러닝 학습 중 역전파 과정에서 기울기가 점점 작아져 앞쪽 레이어의 가중치가 제대로 업데이트되지 않는 현상.

 


6–10번 문제 세트 정리 완료

 

 

 

 

 

 
 

 

EXAMTOPIC 등록된 모든 기출문제(26.03.27 기준 최신)
★ 1번부터 219번까지 문제 풀이집 19,800원 에 판매중입니다 ★

https://open.kakao.com/o/sjfhfsni

 

AWS Machine Learning Dump 문제집

MLA-C01 대비 자료 (examtopic 기준 전체 기출(26.03.27 최신) 1~219번 문제 정리 포함) 자세한 내용은 채팅방 내 공지 확인 샘플 주소 : https://won-percent.tistory.com/310

open.kakao.com

 

 

 

 

 

 

 

반응형