documentation update
authorManu Mathew <a0393608@ti.com>
Fri, 8 May 2020 15:17:43 +0000 (20:47 +0530)
committerManu Mathew <a0393608@ti.com>
Fri, 8 May 2020 15:18:11 +0000 (20:48 +0530)
docs/Image_Classification.md
docs/Semantic_Segmentation.md

index e832ee80ddadf1f9b8f112a72f2b0886733b61cb..41716ae5a193ebfa7f6e4d3bcce14a4ff1d81b52 100644 (file)
@@ -19,7 +19,7 @@
 
  * During the training, **validation** accuracy will also be printed. But if you want to explicitly check the accuracy again with **validation** set, it can be done:<br>
     ```
-    python ./scripts/train_classification_main.py --evaluate True --dataset_name cifar100_classification --model_name mobilenetv2_tv_x1 --data_path ./data/datasets/cifar100_classification --img_resize 32 --img_crop 32
+    python ./scripts/train_classification_main.py --phase validation --dataset_name cifar100_classification --model_name mobilenetv2_tv_x1 --data_path ./data/datasets/cifar100_classification --img_resize 32 --img_crop 32
    ```
 
  ### Cifar10 Dataset
@@ -45,7 +45,7 @@
   
   * After the training, the **validation** accuracy using (make sure that  args.dataset_name and args.pretrained are correctly set)<br>
     ```
-    python ./scripts/train_classification_main.py --evaluate True --dataset_name imagenet_classification --model_name mobilenetv2_tv_x1 --data_path ./data/datasets/imagenet_classification --pretrained <checkpoint_path>
+    python ./scripts/train_classification_main.py --phase validation --dataset_name imagenet_classification --model_name mobilenetv2_tv_x1 --data_path ./data/datasets/imagenet_classification --pretrained <checkpoint_path>
     ```
 
 ## ImageNet or any other classification dataset - manual download
 
 * ImageNet classification results are as follows:
 
-|Dataset  |Mode Name     |Resize Resolution|Crop Resolution|Complexity (GigaMACS)|MeanIoU% |
-|---------|----------    |-----------      |----------     |--------             |-------- |
-|ImageNet |MobileNetV1   |256x256          |224x224        |0.568                |**71.83**|
-|ImageNet |MobileNetV2   |256x256          |224x224        |0.296                |**72.13**|
-|ImageNet |ResNet50      |256x256          |224x224        |                     |         |
+|Dataset  |Mode Name     |Resize Resolution|Crop Resolution|Complexity (GigaMACS)|Top1 Accuracy% |Model Configuration Name|
+|---------|----------    |-----------      |----------     |--------             |--------       |------------------------|
+|ImageNet |MobileNetV1   |256x256          |224x224        |0.568                |**71.83**      |mobilenetv1_x1          |
+|ImageNet |MobileNetV2   |256x256          |224x224        |0.296                |**72.13**      |mobilenetv2_tv_x1       |
+|ImageNet |ResNet50-0.5  |256x256          |224x224        |1.051                |**72.05**      |resnet50_xp5            |
 |.
-|ImageNet |MobileNetV1[1]|256x256          |224x224        |0.569                |70.60    |
-|ImageNet |MobileNetV2[2]|256x256          |224x224        |0.300                |72.00    |
+|ImageNet |MobileNetV1[1]|256x256          |224x224        |0.569                |70.60          |                        |
+|ImageNet |MobileNetV2[2]|256x256          |224x224        |0.300                |72.00          |                        |
+|ImageNet |ResNet50[3]   |256x256          |224x224        |4.087                |76.15          |                        |
 
 
 ## Referrences
 
 [1] MobileNets: Efficient Convolutional Neural Networks for Mobile Vision Applications, Howard AG, Zhu M, Chen B, Kalenichenko D, Wang W, Weyand T, Andreetto M, Adam H, arXiv:1704.04861, 2017
-
-[2] MobileNetV2: Inverted Residuals and Linear Bottlenecks, Sandler M, Howard A, Zhu M, Zhmoginov A, Chen LC. arXiv preprint. arXiv:1801.04381, 2018.
\ No newline at end of file
+[2] MobileNetV2: Inverted Residuals and Linear Bottlenecks, Sandler M, Howard A, Zhu M, Zhmoginov A, Chen LC. arXiv preprint. arXiv:1801.04381, 2018.
+[3] PyTorch TorchVision Model Zoo: https://pytorch.org/docs/stable/torchvision/models.html
\ No newline at end of file
index fa441cbe42f2320f54d74c21215f3a02eacaff58..3f83f86715bae9d1cb2f34efc0f7e3bcb912a117 100644 (file)
@@ -68,13 +68,13 @@ Whether to use multiple inputs or how many decoders to use are fully configurabl
 ## Validation
  * During the training, **validation** accuracy will also be printed. But to explicitly check the accuracy again with **validation** set, it can be done as follows (fill in the path to the pretrained model):<br>
     ```
-    python ./scripts/train_segmentation_main.py --evaluate True --model_name deeplabv3lite_mobilenetv2_tv --dataset_name cityscapes_segmentation --data_path ./data/datasets/cityscapes/data --img_resize 384 768 --output_size 1024 2048 --gpus 0 1 --pretrained ?????
+    python ./scripts/train_segmentation_main.py --phase validation --model_name deeplabv3lite_mobilenetv2_tv --dataset_name cityscapes_segmentation --data_path ./data/datasets/cityscapes/data --img_resize 384 768 --output_size 1024 2048 --gpus 0 1 --pretrained ?????
     ```
 
 ## Inference
 Inference can be done as follows (fill in the path to the pretrained model):<br>
     ```
-    python ./scripts/infer_segmentation_main.py --evaluate True --model_name deeplabv3lite_mobilenetv2_tv --dataset_name cityscapes_segmentation_measure --data_path ./data/datasets/cityscapes/data --img_resize 384 768 --output_size 1024 2048 --gpus 0 1 --pretrained ?????
+    python ./scripts/infer_segmentation_main.py --phase validation --model_name deeplabv3lite_mobilenetv2_tv --dataset_name cityscapes_segmentation_measure --data_path ./data/datasets/cityscapes/data --img_resize 384 768 --output_size 1024 2048 --gpus 0 1 --pretrained ?????
     ```
           
 ## Results