FC2カウンター FPGAの部屋 2022年12月02日
fc2ブログ

FPGAやCPLDの話題やFPGA用のツールの話題などです。 マニアックです。 日記も書きます。

FPGAの部屋

FPGAの部屋の有用と思われるコンテンツのまとめサイトを作りました。Xilinx ISEの初心者の方には、FPGAリテラシーおよびチュートリアルのページをお勧めいたします。

Vitis-AI 2.5 の Custom OP Workflow のクイックスタートをやってみる1

Vitis-AI 2.5 の Custom OP Workflow のクリックスタートをやる前に Custom OP Workflow について見ていく。
Vitis-AI 2.5 の英語版の Custom OP Workflow と、日本語版のカスタム OP ワークフローについてのリンクを示す。

Vitis-AI 日本語版のカスタム OP ワークフローから”図 カスタム OP ワークフロー”を引用する。
Custom_OP_Workflow_1_221202.png

Vitis-AI 日本語版のカスタム OP ワークフローから”図 カスタム OP ワークフロー”の説明文を引用する。

このワークフローの手順は次のとおりです。
 1. OP を XIR にとって未知のカスタム OP として定義し、モデルを量子化します。
 2. 量子化済みモデルをコンパイルします。
 3. カスタム OP を登録して実装します。
 4. graph_runner API を使用してモデルを運用します。
手順 3 では、カスタム OP の実装および登録用に C++ と Python の両方がサポートされます。Vitis AI ライブラリでサポートされる一般的な OP は 50 以上あります。一般的な OP のソース コードは、https://github.com/Xilinx/Vitis-AI/tree/master/src/Vitis-AI-Library/cpu_task/ops にあります。


この手順をクイックスタートで確認してみよう。
まずは、Vitis-AI 2.5 の ディレクトリに移動して Docker を起動する。
cd <Vitis-AI ディレクトリ>
./docker_run.sh xilinx/vitis-ai-cpu:2.5

Custom_OP_Workflow_2_221202.png
Custom_OP_Workflow_3_221202.png

tf2_custom_op_demo.tar.gz をダウンロードする。
wget https://www.xilinx.com/bin/public/openDownload?filename=tf2_custom_op_demo.tar.gz -O tf2_custom_op_demo.tar.gz
Custom_OP_Workflow_4_221202.png

tf2_custom_op_demo.tar.gz を解凍して、tf2_custom_op_demo に移動して、vitis-ai-tensorflow2 を conda activate する。
tar -xzvf tf2_custom_op_demo.tar.gz
cd tf2_custom_op_demo
conda activate vitis-ai-tensorflow2

Custom_OP_Workflow_5_221202.png

1_run_train.sh を実行して学習する。
bash 1_run_train.sh
Custom_OP_Workflow_6_221202.png
Custom_OP_Workflow_7_221202.png

(vitis-ai-tensorflow2) Vitis-AI /workspace/tf2_custom_op_demo > bash 1_run_train.sh
2022-11-29 00:23:46.284602: W tensorflow/stream_executor/platform/default/dso_loader.cc:64] Could not load dynamic library 'libcudart.so.11.0'; dlerror: libcudart.so.11.0: cannot open shared object file: No such file or directory; LD_LIBRARY_PATH: /opt/xilinx/xrt/lib:/usr/lib:/usr/lib/x86_64-linux-gnu
2022-11-29 00:23:46.284672: I tensorflow/stream_executor/cuda/cudart_stub.cc:29] Ignore above cudart dlerror if you do not have a GPU set up on your machine.
2.8.0
Downloading data from https://storage.googleapis.com/tensorflow/tf-keras-datasets/mnist.npz
11493376/11490434 [==============================] - 1s 0us/step
11501568/11490434 [==============================] - 1s 0us/step
2022-11-29 00:24:06.121607: W tensorflow/stream_executor/platform/default/dso_loader.cc:64] Could not load dynamic library 'libcuda.so.1'; dlerror: libcuda.so.1: cannot open shared object file: No such file or directory; LD_LIBRARY_PATH: /opt/xilinx/xrt/lib:/usr/lib:/usr/lib/x86_64-linux-gnu
2022-11-29 00:24:06.121670: W tensorflow/stream_executor/cuda/cuda_driver.cc:269] failed call to cuInit: UNKNOWN ERROR (303)
2022-11-29 00:24:06.125895: I tensorflow/stream_executor/cuda/cuda_diagnostics.cc:163] no NVIDIA GPU device is present: /dev/nvidia0 does not exist
2022-11-29 00:24:06.133826: I tensorflow/core/platform/cpu_feature_guard.cc:151] This TensorFlow binary is optimized with oneAPI Deep Neural Network Library (oneDNN) to use the following CPU instructions in performance-critical operations:  AVX2 FMA
To enable them in other operations, rebuild TensorFlow with the appropriate compiler flags.
Model: "model"
_________________________________________________________________
 Layer (type)                Output Shape              Param #   
=================================================================
 input_1 (InputLayer)        [(None, 28, 28, 1)]       0         
                                                                 
 conv2d (Conv2D)             (None, 22, 22, 32)        1600      
                                                                 
 batch_normalization (BatchN  (None, 22, 22, 32)       128       
 ormalization)                                                   
                                                                 
 conv2d_1 (Conv2D)           (None, 16, 16, 32)        50208     
                                                                 
 batch_normalization_1 (Batc  (None, 16, 16, 32)       128       
 hNormalization)                                                 
                                                                 
 max_pooling2d (MaxPooling2D  (None, 8, 8, 32)         0         
 )                                                               
                                                                 
 conv2d_2 (Conv2D)           (None, 4, 4, 64)          51264     
                                                                 
 max_pooling2d_1 (MaxPooling  (None, 2, 2, 64)         0         
 2D)                                                             
                                                                 
 custom_layer (Mylayer)      (None, 2, 2, 64)          256       
                                                                 
 flatten (Flatten)           (None, 256)               0         
                                                                 
 dense (Dense)               (None, 10)                2570      
                                                                 
=================================================================
Total params: 106,154
Trainable params: 106,026
Non-trainable params: 128
_________________________________________________________________
Epoch 1/10
 1/32 [..............................] - ETA: 1:01 - loss: 1.0781 - accuracy: 0. 3/32 [=>............................] - ETA: 1s - loss: 0.6279 - accuracy: 0.21 5/32 [===>..........................] - ETA: 1s - loss: 0.4962 - accuracy: 0.26 7/32 [=====>........................] - ETA: 0s - loss: 0.4312 - accuracy: 0.31 9/32 [=======>......................] - ETA: 0s - loss: 0.3897 - accuracy: 0.3311/32 [=========>....................] - ETA: 0s - loss: 0.3583 - accuracy: 0.3713/32 [===========>..................] - ETA: 0s - loss: 0.3323 - accuracy: 0.4115/32 [=============>................] - ETA: 0s - loss: 0.3097 - accuracy: 0.4517/32 [==============>...............] - ETA: 0s - loss: 0.2956 - accuracy: 0.4819/32 [================>.............] - ETA: 0s - loss: 0.2765 - accuracy: 0.5221/32 [==================>...........] - ETA: 0s - loss: 0.2634 - accuracy: 0.5523/32 [====================>.........] - ETA: 0s - loss: 0.2572 - accuracy: 0.5525/32 [======================>.......] - ETA: 0s - loss: 0.2477 - accuracy: 0.5727/32 [========================>.....] - ETA: 0s - loss: 0.2428 - accuracy: 0.5829/32 [==========================>...] - ETA: 0s - loss: 0.2328 - accuracy: 0.6031/32 [============================>.] - ETA: 0s - loss: 0.2252 - accuracy: 0.6132/32 [==============================] - 3s 35ms/step - loss: 0.2249 - accuracy: 0.6190
Epoch 2/10
 1/32 [..............................] - ETA: 1s - loss: 0.1315 - accuracy: 0.84 3/32 [=>............................] - ETA: 1s - loss: 0.1153 - accuracy: 0.84 5/32 [===>..........................] - ETA: 0s - loss: 0.1036 - accuracy: 0.85 7/32 [=====>........................] - ETA: 0s - loss: 0.1060 - accuracy: 0.85 9/32 [=======>......................] - ETA: 0s - loss: 0.1018 - accuracy: 0.8511/32 [=========>....................] - ETA: 0s - loss: 0.1005 - accuracy: 0.8513/32 [===========>..................] - ETA: 0s - loss: 0.0948 - accuracy: 0.8715/32 [=============>................] - ETA: 0s - loss: 0.0947 - accuracy: 0.8617/32 [==============>...............] - ETA: 0s - loss: 0.0931 - accuracy: 0.8719/32 [================>.............] - ETA: 0s - loss: 0.0909 - accuracy: 0.8721/32 [==================>...........] - ETA: 0s - loss: 0.0925 - accuracy: 0.8723/32 [====================>.........] - ETA: 0s - loss: 0.0907 - accuracy: 0.8725/32 [======================>.......] - ETA: 0s - loss: 0.0910 - accuracy: 0.8727/32 [========================>.....] - ETA: 0s - loss: 0.0919 - accuracy: 0.8729/32 [==========================>...] - ETA: 0s - loss: 0.0911 - accuracy: 0.8731/32 [============================>.] - ETA: 0s - loss: 0.0889 - accuracy: 0.8732/32 [==============================] - 1s 35ms/step - loss: 0.0889 - accuracy: 0.8760
Epoch 3/10
 1/32 [..............................] - ETA: 1s - loss: 0.0707 - accuracy: 0.93 3/32 [=>............................] - ETA: 0s - loss: 0.0797 - accuracy: 0.88 5/32 [===>..........................] - ETA: 0s - loss: 0.0752 - accuracy: 0.90 7/32 [=====>........................] - ETA: 0s - loss: 0.0721 - accuracy: 0.90 9/32 [=======>......................] - ETA: 0s - loss: 0.0679 - accuracy: 0.9111/32 [=========>....................] - ETA: 0s - loss: 0.0677 - accuracy: 0.9013/32 [===========>..................] - ETA: 0s - loss: 0.0663 - accuracy: 0.9115/32 [=============>................] - ETA: 0s - loss: 0.0669 - accuracy: 0.9117/32 [==============>...............] - ETA: 0s - loss: 0.0650 - accuracy: 0.9219/32 [================>.............] - ETA: 0s - loss: 0.0634 - accuracy: 0.9221/32 [==================>...........] - ETA: 0s - loss: 0.0637 - accuracy: 0.9223/32 [====================>.........] - ETA: 0s - loss: 0.0635 - accuracy: 0.9225/32 [======================>.......] - ETA: 0s - loss: 0.0634 - accuracy: 0.9227/32 [========================>.....] - ETA: 0s - loss: 0.0635 - accuracy: 0.9229/32 [==========================>...] - ETA: 0s - loss: 0.0620 - accuracy: 0.9231/32 [============================>.] - ETA: 0s - loss: 0.0623 - accuracy: 0.9232/32 [==============================] - 1s 35ms/step - loss: 0.0625 - accuracy: 0.9280
Epoch 4/10
 1/32 [..............................] - ETA: 1s - loss: 0.0618 - accuracy: 0.90 3/32 [=>............................] - ETA: 1s - loss: 0.0520 - accuracy: 0.93 5/32 [===>..........................] - ETA: 0s - loss: 0.0512 - accuracy: 0.93 7/32 [=====>........................] - ETA: 0s - loss: 0.0547 - accuracy: 0.93 9/32 [=======>......................] - ETA: 0s - loss: 0.0533 - accuracy: 0.9311/32 [=========>....................] - ETA: 0s - loss: 0.0514 - accuracy: 0.9313/32 [===========>..................] - ETA: 0s - loss: 0.0514 - accuracy: 0.9315/32 [=============>................] - ETA: 0s - loss: 0.0506 - accuracy: 0.9417/32 [==============>...............] - ETA: 0s - loss: 0.0512 - accuracy: 0.9419/32 [================>.............] - ETA: 0s - loss: 0.0511 - accuracy: 0.9421/32 [==================>...........] - ETA: 0s - loss: 0.0512 - accuracy: 0.9323/32 [====================>.........] - ETA: 0s - loss: 0.0504 - accuracy: 0.9325/32 [======================>.......] - ETA: 0s - loss: 0.0507 - accuracy: 0.9327/32 [========================>.....] - ETA: 0s - loss: 0.0501 - accuracy: 0.9329/32 [==========================>...] - ETA: 0s - loss: 0.0499 - accuracy: 0.9331/32 [============================>.] - ETA: 0s - loss: 0.0501 - accuracy: 0.9332/32 [==============================] - 1s 35ms/step - loss: 0.0501 - accuracy: 0.9400
Epoch 5/10
 1/32 [..............................] - ETA: 1s - loss: 0.0497 - accuracy: 0.93 3/32 [=>............................] - ETA: 1s - loss: 0.0456 - accuracy: 0.92 5/32 [===>..........................] - ETA: 0s - loss: 0.0398 - accuracy: 0.95 7/32 [=====>........................] - ETA: 0s - loss: 0.0381 - accuracy: 0.95 9/32 [=======>......................] - ETA: 0s - loss: 0.0357 - accuracy: 0.9511/32 [=========>....................] - ETA: 0s - loss: 0.0346 - accuracy: 0.9613/32 [===========>..................] - ETA: 0s - loss: 0.0351 - accuracy: 0.9615/32 [=============>................] - ETA: 0s - loss: 0.0355 - accuracy: 0.9617/32 [==============>...............] - ETA: 0s - loss: 0.0355 - accuracy: 0.9619/32 [================>.............] - ETA: 0s - loss: 0.0364 - accuracy: 0.9621/32 [==================>...........] - ETA: 0s - loss: 0.0392 - accuracy: 0.9523/32 [====================>.........] - ETA: 0s - loss: 0.0390 - accuracy: 0.9625/32 [======================>.......] - ETA: 0s - loss: 0.0412 - accuracy: 0.9527/32 [========================>.....] - ETA: 0s - loss: 0.0409 - accuracy: 0.9529/32 [==========================>...] - ETA: 0s - loss: 0.0403 - accuracy: 0.9531/32 [============================>.] - ETA: 0s - loss: 0.0400 - accuracy: 0.9532/32 [==============================] - 1s 35ms/step - loss: 0.0398 - accuracy: 0.9570
Epoch 6/10
 1/32 [..............................] - ETA: 1s - loss: 0.0359 - accuracy: 0.93 3/32 [=>............................] - ETA: 1s - loss: 0.0360 - accuracy: 0.93 5/32 [===>..........................] - ETA: 0s - loss: 0.0337 - accuracy: 0.95 7/32 [=====>........................] - ETA: 0s - loss: 0.0311 - accuracy: 0.96 9/32 [=======>......................] - ETA: 0s - loss: 0.0302 - accuracy: 0.9611/32 [=========>....................] - ETA: 0s - loss: 0.0292 - accuracy: 0.9613/32 [===========>..................] - ETA: 0s - loss: 0.0302 - accuracy: 0.9615/32 [=============>................] - ETA: 0s - loss: 0.0288 - accuracy: 0.9617/32 [==============>...............] - ETA: 0s - loss: 0.0283 - accuracy: 0.9619/32 [================>.............] - ETA: 0s - loss: 0.0275 - accuracy: 0.9721/32 [==================>...........] - ETA: 0s - loss: 0.0294 - accuracy: 0.9623/32 [====================>.........] - ETA: 0s - loss: 0.0306 - accuracy: 0.9625/32 [======================>.......] - ETA: 0s - loss: 0.0306 - accuracy: 0.9627/32 [========================>.....] - ETA: 0s - loss: 0.0311 - accuracy: 0.9629/32 [==========================>...] - ETA: 0s - loss: 0.0307 - accuracy: 0.9631/32 [============================>.] - ETA: 0s - loss: 0.0309 - accuracy: 0.9632/32 [==============================] - 1s 35ms/step - loss: 0.0308 - accuracy: 0.9700
Epoch 7/10
 1/32 [..............................] - ETA: 1s - loss: 0.0136 - accuracy: 1.00 3/32 [=>............................] - ETA: 1s - loss: 0.0248 - accuracy: 0.96 5/32 [===>..........................] - ETA: 0s - loss: 0.0267 - accuracy: 0.98 7/32 [=====>........................] - ETA: 0s - loss: 0.0254 - accuracy: 0.98 9/32 [=======>......................] - ETA: 0s - loss: 0.0241 - accuracy: 0.9811/32 [=========>....................] - ETA: 0s - loss: 0.0253 - accuracy: 0.9813/32 [===========>..................] - ETA: 0s - loss: 0.0246 - accuracy: 0.9815/32 [=============>................] - ETA: 0s - loss: 0.0231 - accuracy: 0.9817/32 [==============>...............] - ETA: 0s - loss: 0.0231 - accuracy: 0.9819/32 [================>.............] - ETA: 0s - loss: 0.0231 - accuracy: 0.9821/32 [==================>...........] - ETA: 0s - loss: 0.0236 - accuracy: 0.9823/32 [====================>.........] - ETA: 0s - loss: 0.0238 - accuracy: 0.9825/32 [======================>.......] - ETA: 0s - loss: 0.0239 - accuracy: 0.9827/32 [========================>.....] - ETA: 0s - loss: 0.0243 - accuracy: 0.9729/32 [==========================>...] - ETA: 0s - loss: 0.0246 - accuracy: 0.9731/32 [============================>.] - ETA: 0s - loss: 0.0256 - accuracy: 0.9732/32 [==============================] - 1s 35ms/step - loss: 0.0256 - accuracy: 0.9760
Epoch 8/10
 1/32 [..............................] - ETA: 1s - loss: 0.0199 - accuracy: 0.96 3/32 [=>............................] - ETA: 1s - loss: 0.0191 - accuracy: 0.98 5/32 [===>..........................] - ETA: 1s - loss: 0.0166 - accuracy: 0.99 7/32 [=====>........................] - ETA: 0s - loss: 0.0179 - accuracy: 0.99 9/32 [=======>......................] - ETA: 0s - loss: 0.0181 - accuracy: 0.9911/32 [=========>....................] - ETA: 0s - loss: 0.0180 - accuracy: 0.9913/32 [===========>..................] - ETA: 0s - loss: 0.0182 - accuracy: 0.9915/32 [=============>................] - ETA: 0s - loss: 0.0186 - accuracy: 0.9917/32 [==============>...............] - ETA: 0s - loss: 0.0191 - accuracy: 0.9919/32 [================>.............] - ETA: 0s - loss: 0.0184 - accuracy: 0.9921/32 [==================>...........] - ETA: 0s - loss: 0.0190 - accuracy: 0.9923/32 [====================>.........] - ETA: 0s - loss: 0.0188 - accuracy: 0.9925/32 [======================>.......] - ETA: 0s - loss: 0.0186 - accuracy: 0.9927/32 [========================>.....] - ETA: 0s - loss: 0.0183 - accuracy: 0.9929/32 [==========================>...] - ETA: 0s - loss: 0.0181 - accuracy: 0.9931/32 [============================>.] - ETA: 0s - loss: 0.0180 - accuracy: 0.9932/32 [==============================] - 1s 35ms/step - loss: 0.0180 - accuracy: 0.9940
Epoch 9/10
 1/32 [..............................] - ETA: 1s - loss: 0.0098 - accuracy: 1.00 3/32 [=>............................] - ETA: 1s - loss: 0.0124 - accuracy: 1.00 5/32 [===>..........................] - ETA: 0s - loss: 0.0132 - accuracy: 0.99 7/32 [=====>........................] - ETA: 0s - loss: 0.0135 - accuracy: 0.98 9/32 [=======>......................] - ETA: 0s - loss: 0.0140 - accuracy: 0.9811/32 [=========>....................] - ETA: 0s - loss: 0.0134 - accuracy: 0.9913/32 [===========>..................] - ETA: 0s - loss: 0.0143 - accuracy: 0.9815/32 [=============>................] - ETA: 0s - loss: 0.0143 - accuracy: 0.9817/32 [==============>...............] - ETA: 0s - loss: 0.0145 - accuracy: 0.9819/32 [================>.............] - ETA: 0s - loss: 0.0137 - accuracy: 0.9921/32 [==================>...........] - ETA: 0s - loss: 0.0136 - accuracy: 0.9923/32 [====================>.........] - ETA: 0s - loss: 0.0140 - accuracy: 0.9925/32 [======================>.......] - ETA: 0s - loss: 0.0138 - accuracy: 0.9927/32 [========================>.....] - ETA: 0s - loss: 0.0135 - accuracy: 0.9929/32 [==========================>...] - ETA: 0s - loss: 0.0134 - accuracy: 0.9931/32 [============================>.] - ETA: 0s - loss: 0.0140 - accuracy: 0.9832/32 [==============================] - 1s 36ms/step - loss: 0.0139 - accuracy: 0.9900
Epoch 10/10
 1/32 [..............................] - ETA: 1s - loss: 0.0125 - accuracy: 1.00 3/32 [=>............................] - ETA: 1s - loss: 0.0104 - accuracy: 1.00 5/32 [===>..........................] - ETA: 1s - loss: 0.0084 - accuracy: 1.00 7/32 [=====>........................] - ETA: 0s - loss: 0.0098 - accuracy: 1.00 9/32 [=======>......................] - ETA: 0s - loss: 0.0101 - accuracy: 1.0011/32 [=========>....................] - ETA: 0s - loss: 0.0109 - accuracy: 0.9913/32 [===========>..................] - ETA: 0s - loss: 0.0106 - accuracy: 0.9915/32 [=============>................] - ETA: 0s - loss: 0.0102 - accuracy: 0.9917/32 [==============>...............] - ETA: 0s - loss: 0.0104 - accuracy: 0.9919/32 [================>.............] - ETA: 0s - loss: 0.0110 - accuracy: 0.9921/32 [==================>...........] - ETA: 0s - loss: 0.0106 - accuracy: 0.9923/32 [====================>.........] - ETA: 0s - loss: 0.0110 - accuracy: 0.9925/32 [======================>.......] - ETA: 0s - loss: 0.0107 - accuracy: 0.9927/32 [========================>.....] - ETA: 0s - loss: 0.0106 - accuracy: 0.9929/32 [==========================>...] - ETA: 0s - loss: 0.0103 - accuracy: 0.9931/32 [============================>.] - ETA: 0s - loss: 0.0104 - accuracy: 0.9932/32 [==============================] - 1s 36ms/step - loss: 0.0104 - accuracy: 0.9990
  1/313 [..............................] - ETA: 43s - loss: 0.0422 - accuracy: 0  7/313 [..............................] - ETA: 2s - loss: 0.0441 - accuracy: 0. 15/313 [>.............................] - ETA: 2s - loss: 0.0598 - accuracy: 0. 22/313 [=>............................] - ETA: 2s - loss: 0.0662 - accuracy: 0. 30/313 [=>............................] - ETA: 2s - loss: 0.0671 - accuracy: 0. 38/313 [==>...........................] - ETA: 1s - loss: 0.0685 - accuracy: 0. 46/313 [===>..........................] - ETA: 1s - loss: 0.0730 - accuracy: 0. 54/313 [====>.........................] - ETA: 1s - loss: 0.0746 - accuracy: 0. 61/313 [====>.........................] - ETA: 1s - loss: 0.0751 - accuracy: 0. 67/313 [=====>........................] - ETA: 1s - loss: 0.0762 - accuracy: 0. 74/313 [======>.......................] - ETA: 1s - loss: 0.0754 - accuracy: 0. 82/313 [======>.......................] - ETA: 1s - loss: 0.0751 - accuracy: 0. 89/313 [=======>......................] - ETA: 1s - loss: 0.0742 - accuracy: 0. 97/313 [========>.....................] - ETA: 1s - loss: 0.0737 - accuracy: 0.104/313 [========>.....................] - ETA: 1s - loss: 0.0738 - accuracy: 0.112/313 [=========>....................] - ETA: 1s - loss: 0.0737 - accuracy: 0.120/313 [==========>...................] - ETA: 1s - loss: 0.0750 - accuracy: 0.128/313 [===========>..................] - ETA: 1s - loss: 0.0752 - accuracy: 0.135/313 [===========>..................] - ETA: 1s - loss: 0.0760 - accuracy: 0.143/313 [============>.................] - ETA: 1s - loss: 0.0758 - accuracy: 0.150/313 [=============>................] - ETA: 1s - loss: 0.0758 - accuracy: 0.158/313 [==============>...............] - ETA: 1s - loss: 0.0756 - accuracy: 0.166/313 [==============>...............] - ETA: 1s - loss: 0.0743 - accuracy: 0.175/313 [===============>..............] - ETA: 0s - loss: 0.0722 - accuracy: 0.183/313 [================>.............] - ETA: 0s - loss: 0.0712 - accuracy: 0.191/313 [=================>............] - ETA: 0s - loss: 0.0714 - accuracy: 0.198/313 [=================>............] - ETA: 0s - loss: 0.0699 - accuracy: 0.207/313 [==================>...........] - ETA: 0s - loss: 0.0691 - accuracy: 0.215/313 [===================>..........] - ETA: 0s - loss: 0.0685 - accuracy: 0.223/313 [====================>.........] - ETA: 0s - loss: 0.0673 - accuracy: 0.231/313 [=====================>........] - ETA: 0s - loss: 0.0662 - accuracy: 0.239/313 [=====================>........] - ETA: 0s - loss: 0.0651 - accuracy: 0.247/313 [======================>.......] - ETA: 0s - loss: 0.0643 - accuracy: 0.255/313 [=======================>......] - ETA: 0s - loss: 0.0637 - accuracy: 0.263/313 [========================>.....] - ETA: 0s - loss: 0.0635 - accuracy: 0.271/313 [========================>.....] - ETA: 0s - loss: 0.0627 - accuracy: 0.278/313 [=========================>....] - ETA: 0s - loss: 0.0614 - accuracy: 0.286/313 [==========================>...] - ETA: 0s - loss: 0.0609 - accuracy: 0.294/313 [===========================>..] - ETA: 0s - loss: 0.0602 - accuracy: 0.301/313 [===========================>..] - ETA: 0s - loss: 0.0597 - accuracy: 0.309/313 [============================>.] - ETA: 0s - loss: 0.0602 - accuracy: 0.313/313 [==============================] - 2s 7ms/step - loss: 0.0602 - accuracy: 0.9154

***************** Summary *****************
Trained float model accuracy:  0.9154000282287598
Trained float model is saved in  ./my_model.h5


my_model.h5 が生成された。
Custom_OP_Workflow_8_221202.png
  1. 2022年12月02日 04:49 |
  2. Vitis-AI
  3. | トラックバック:0
  4. | コメント:0