ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • 힌지 손실(Hinge Loss)
    AI 2023. 12. 10. 00:16

    Hinge Loss는 주로 서포트 벡터 머신(Support Vector Machine, SVM)과 같은 분류 문제에서 사용되는 손실 함수입니다. 이 손실 함수는 주로 이진 분류 작업에 적용되며, 특히 마진(margin)을 기반으로 하는 학습 모델에서 유용합니다.

    Hinge Loss의 정의

    Hinge Loss는 다음과 같은 공식으로 정의됩니다:

    $$L(y) = \max(0, 1 - t \cdot y)$$

    여기서:

    • $y$ 는 모델의 예측값이며, 일반적으로 -1과 1 사이의 값입니다.
    • $t$ 는 실제 레이블이며, 이진 분류에서는 보통 -1 또는 1의 값을 가집니다.

    작동 원리

    • Hinge Loss는 모델이 정확하게 분류하고, 동시에 마진 경계에서 멀리 떨어진 결정 경계를 찾는 것을 목표로 합니다.
    • 예측값 $y$ 와 실제 레이블 $t$ 의 곱이 1보다 크면, 손실은 0이 됩니다. 즉, 모델이 올바르게 예측하고 해당 예측이 마진 경계에 충분히 멀리 있을 때 손실이 없습니다.
    • 만약 $y$ 와 $t$ 의 곱이 1보다 작으면, 이는 잘못된 예측을 의미하거나, 올바른 예측이지만 마진 경계에 너무 가깝다는 것을 의미합니다. 이 경우 손실은 0보다 커집니다.

    SVM과의 관계

    • SVM은 분류 문제에서 마진을 최대화하여 두 클래스를 구분하는 결정 경계를 찾는 모델입니다.
    • Hinge Loss는 이러한 SVM의 목표를 수학적으로 구현하는 데 사용됩니다. 즉, 마진 경계를 위반하는 예측에 대해 패널티를 부여하면서, 올바르고 확신 있는 예측에 대해서는 손실을 0으로 만드는 역할을 합니다.

    장단점

    • 장점: 마진 오류를 줄이며 모델의 일반화 능력을 향상시킬 수 있습니다. 즉, 새로운 데이터에 대한 모델의 성능이 좋아질 가능성이 높습니다.
    • 단점: 미분 불가능한 지점(0에서의 점)이 존재하기 때문에, 최적화하기 어려울 수 있습니다. 이를 해결하기 위해 "Squared Hinge Loss"와 같은 변형이 사용되기도 합니다.

    Hinge Loss는 특히 마진을 중시하는 모델에서 선호되며, 올바른 분류와 더불어 마진의 최적화라는 두 가지 목표를 동시에 달성하려는 경우에 적합합니다.

    'AI' 카테고리의 다른 글

    p-value가 찬밥 신세가 된 이유?  (1) 2023.12.10

    댓글

INGYEOMENTAL's TISTORY