Post

[AutoML] Hyperparameter Optimization 알고리즘 (1)

AutoML은 machine learning으로 machine learning을 설계하는 것이라고 정의할 수 있습니다. 기계가 학습을 통해 스스로 최적의 모델을 찾도록 만드는 분야인데요. AutoML은 크게 Architecture search와 Hyperparameter Optimization로 나뉩니다. Architecture search는 학습을 통해 최적의 Neural Network 구조를 추정하는 것으로, 대표적인 모델은 아래와 같습니다.

Architecture search

  • NAS - Neural Architecture Search with reinforcement learning(2017)
  • NASNet - Learning Transferable Architectures for Scalable Image Recognition(2018)
  • EnvelopeNets - Fast Neural Architecture Construction using EnvelopeNets(2018)
  • EfficientNet - EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks(2019)

Hyperparameter Optimization은 학습을 통해 최적의 하이퍼파라미터 조합을 추정하는 것이고, 아래와 같은 세부 분야로 나눌 수 있습니다.

Hyperparameter Optimization(HPO)

Exhaust search of the search space

  • 하이퍼파라미터의 값을 일정한 간격으로 나눈 다음, 가능한 모든 조합을 적용하여 학습. 특정 구간에서 좋은 성능을 보이면, 해당 구간을 좀 더 세밀하게 나누어 적용하고, 이를 반복
  • Grid Search는 범위 내에서 일정한 간격으로 탐색하므로최적의 하이퍼파라미터 값을 놓칠 가능성이 큼
  • 하이퍼파라미터 조합을 랜덤하게 선택하여 학습
  • Random Search는 $n$번의 학습을 수행할 때, 서로 다른 $n$개의 하이퍼파라미터 값을 적용할 수 있으므로 Grid Search보다 최적의 하이퍼파라미터 조합을 찾을 가능성이 높음

Reference

This post is licensed under CC BY 4.0 by the author.