release commit
authorManu Mathew <a0393608@ti.com>
Tue, 21 Jan 2020 07:21:37 +0000 (12:51 +0530)
committerManu Mathew <a0393608@ti.com>
Tue, 21 Jan 2020 07:21:37 +0000 (12:51 +0530)
docs/Quantization.md

index 8a775f1d641c955fadea93d71f754578107a95ec..41b65853e22c1cdb12f19e88a680bd934ef8969f 100644 (file)
@@ -8,7 +8,7 @@ In order to make the activations quantization friendly, it is important to clip
 <p float="left"> <img src="quantization/pact2_activation.png" width="640" hspace="5"/> </p>
 We use statistical range clipping in PACT2 to improve the Quantized Accuracy (compared to simple min-max range clipping).
 
-## Quantization Aware Training a.k.a Trained Quantization
+## Quantization Aware Training (a.k.a. Trained Quantization)
 Quantization Aware Training (QAT) is easy to incorporate into an existing PyTorch training code. We provide a wrapper module called QuantTrainModule to automate all the tasks required for QAT. The user simply needs to wrap his model in QuantTrainModule and do the training.
 
 The overall flow of training is as follows:
@@ -72,8 +72,8 @@ python ./scripts/train_classification_main.py --dataset_name image_folder_classi
 python ./scripts/train_segmentation_main.py --dataset_name cityscapes_segmentation --model_name deeplabv3lite_mobilenetv2_tv --data_path ./data/datasets/cityscapes/data --img_resize 384 768 --output_size 1024 2048 --gpus 0 1 --pretrained ./data/modelzoo/semantic_segmentation/cityscapes/deeplabv3lite-mobilenetv2/cityscapes_segmentation_deeplabv3lite-mobilenetv2_2019-06-26-08-59-32.pth --batch_size 8 --quantize True --epochs 150 --lr 5e-5 --evaluate_start False
 ```
 
-## Calibration
-We also have another method called Calibration to reduce the accuracy loss with quantization. If you are interested, you can take a look at the [documentation of Calibration here](Calibration.md) - but that is not our recommend method now.
+## Post Training Quantization (a.k.a. Calibration)
+We also have another method called Post Training Calibration or simply Calibration to reduce the accuracy loss with quantization. If you are interested, you can take a look at the [documentation of Calibration here](Calibration.md) - but that is not our recommend method now.
 
 
 ## Important Notes - read carefully