Toggle navigation
Toggle navigation
This project
Loading...
Sign in
2020-2-capstone-design1
/
HCS_project
Go to a project
Toggle navigation
Toggle navigation pinning
Projects
Groups
Snippets
Help
Project
Activity
Repository
Pipelines
Graphs
Issues
0
Merge Requests
0
Wiki
Snippets
Network
Create a new issue
Builds
Commits
Issue Boards
Authored by
김지훈
2020-11-25 19:23:07 +0900
Browse Files
Options
Browse Files
Download
Email Patches
Plain Diff
Commit
e568103d3cb5ed4d7566fbd422d3e0999e7b8ec5
e568103d
1 parent
fb56811d
update readme
Hide whitespace changes
Inline
Side-by-side
Showing
1 changed file
with
17 additions
and
5 deletions
코드/연합학습/quantization/README.md
코드/연합학습/quantization/README.md
View file @
e568103
# 추론시간 개선 - 양자화 시도
## Pytorch quantization
-
학습해도 cpu 에서만 실행 가능, 모델의 채널을 신중하게 고르지 않으면 속도 개선 미미함.
-
또한 양자화 과정으로 학습된 모델은 pytorch model -> onnx -> tensorRT 변환이 불가능하여 gpu 에서 실행 불가능 학습해도 cpu 에서만 실행 가능.
-
모델의 채널을 신중하게 고르지 않으면 속도 개선 미미함
.
-
Pytorch 가 제공하는 라이브러리로 양자화 학습.
-
하지만 cpu 에서만 실행 가능, 또한 모델의 채널 수를 신중하게 고르지 않으면 cpu 에서 조차 속도 개선이 미미함.
-
양자화 과정으로 학습된 모델은 pytorch model -> onnx -> tensorRT 변환이 불가능하여 gpu 에서 실행 불가능
.
## TensorRT
-
양자화 학습을 사용하지 않고 바로 정밀도 감소 및 양자화 시도.
-
float16 은 10% 정도 속도가 개선되었으나, int8 은 실패함 (사용법 미숙, 입력 값이 0.0 ~ 1.0 등)
\ No newline at end of file
-
양자화 학습을 사용하지 않고, 라이브러리를 활용하여 모델의 정밀도 감소 및 양자화 시도.
-
모델에 따라 속도 차이가 크고 아래 단계의 정밀도가 더 빠른 경우가 있었음
-
정확한 이해가 필요해 보임 (사용법 미숙, 입력 값은 float 등)
| Inference Time(msec) | Densenet - 32 packet | Ours - 1 packet |
| -------------------- | -------------------- | --------------- |
| Torch - float32 | 19.49 | 0.49 |
| TensorRT - float32 | 4.30 | 0.37 |
| TensorRT - float16 | 4.32 | 0.35 |
| TensorRT - int8 | 3.70 | 0.41 |
\ No newline at end of file
...
...
Please
register
or
login
to post a comment