이번에는 Quantization에서 QAT에 대해 집중적으로 공부를 해보려고 한다. 여기서는 PTQ로 해결되지 않았던 문제를 해결하는 QAT의 개념을 보여줌! 여기서 알아야 할 건 훈련하는 방식이 달라진다는 점임!! 1. QAT의 정의 : 미리 매를 맞아보자● 기존 : 훈련을 다 끝내고 나서(floating-point), 나중에 양자화를 함● QAT : 훈련(fine-tuning) 도중에 양자화를 적용해 봄!- 너 나중에 4비트로 잘릴 거야. 그러니까 지금 훈련할 때부터 4비트 상태에 적응해라고 모델을 가르치는 것임!!- 특히 4비트 이하의 공격적인 양자화를 할 때 필수적임!! 2. 그림 해석 : 끼리끼리 묶어서 업데이트한다!그림은 학습 시 가중치가 어떻게 업데이트되는지를 보여줌(k-means 기반의 예..