Skip to content

Latest commit

 

History

History
15 lines (8 loc) · 1.95 KB

25_Techniques_for_reducing_avoidable_bias.md

File metadata and controls

15 lines (8 loc) · 1.95 KB

25 Techniques for reducing avoidable bias

개발한 학습 알고리즘이 높은 피할 수 있는 편향 으로 부터 고통받고 있다면, 다음과 같은 기법들을 시도해 볼 수 있다:

  • 모델 크기를 증가 시키는 것 (뉴런/레이어의 수): 알고리즘이 학습 데이터셋에 더 잘 맞아들어가게 해 주는 기법으로 편향 을 줄여줄 것이다. 이 기법으로 인해서 분산 의 증가라는 결과가 발생한다면, 정규화 기법을 사용해 보자. 일반적으로 정규화 기법은 분산 의 증가를 제거해 준다.

  • 에러 분석으로 부터 얻은 통찰력에 기반하여, 입력 feature를 변경하는 것: 에러분석이 알고리즘이 실수하는 특정 에러 종류를 제거함에 도움을 줄 수 있는, 추가적인 feature의 생성에 대한 어떤 영감을 주었다고 가정해 보자 (더 많은 내용들이 다음 챕터에서 다뤄진다). 이 새로 정의된 feature는 편향분산 모두에게 도움이 될 수도 있을 것이다. 이론적으로, 더 많은 feature를 추가하면 분산 이 증가하게 된다; 하지만, 이 경우에는 정규화 방법을 사용해서 분산 의 증가를 제거해 나갈 수 있다.

  • L2, L1, 또는 Dropout과 같은 정규화 기법의 사용을 제거하거나 줄이는 것: 이 방법은 피할 수 있는 편향 을 줄이는데 도움을 주지만, 분산 을 증가시키게 된다.

  • 모델설계의 구조를 변경하여, 주어진 문제에 더 적합하도록 만드는 것: 이 기법은 분산편향 모두에게 영향을 미칠 수 있다.

크게 도움 되지 않는 방법 한 가지:

  • 더 많은 학습 데이터를 추가하는 것: 이 기법은 분산 문제에 대해서는 도움을 줄 수 있지만, 편향 문제에 대해서는 일반적으로 큰 영향이 없다.