
LossesMean Square Error (MSE) : L2 Loss-> RegressionCrossEntropyLoss* Entropy엔트로피는 정보의 불확실성을 의미 * CrossEntropyq(x) *log p(x)예측모델(q)는 실제 분포 p를 모르는 상태에서 구분 분포를 따라가고자함entropy를 줄이는 쪽으로 minimize함 : 불확실성을 줄이겠다.Loss 함수에서는 분포의 차이를 줄이는 것이 목표pytorch에서는 crossentropyloss는 softmax가 포함되어 구현 Kullback-Leibler divergence loss* KLDivLoss서로 다른 두 분포의 차이를 측정하는 데 쓰이는 measurecross-entropy는 entropy보다 항상 0보다 크거나 같은 값을 갖..