노현욱

docs : adding gift

...@@ -194,7 +194,7 @@ class Effector: ...@@ -194,7 +194,7 @@ class Effector:
194 global Q 194 global Q
195 195
196 db, main_frequency, amplitude = self.get_decibel_freq_amplitude(active_sound) 196 db, main_frequency, amplitude = self.get_decibel_freq_amplitude(active_sound)
197 - print("touched, db {}, main_frequency {}, amplitude {}".format(db, main_frequency, amplitude)) 197 + print("touched, db {:2f}, main_frequency {:2f}, amplitude {:2f}".format(db, main_frequency, amplitude))
198 param = self.get_distortion_rate(db, main_frequency, amplitude) 198 param = self.get_distortion_rate(db, main_frequency, amplitude)
199 if(self.effect == "echo"): 199 if(self.effect == "echo"):
200 print("echo 정도 :", param) 200 print("echo 정도 :", param)
......
1 # Capstone Design 2 1 # Capstone Design 2
2 -# Sound Augumentation을 이용한 악기
3 2
3 +# 연구의 필요성
4 +수많은 사운드 디자이너들은, 원하는 소리를 얻기위해 계속해서 듣고, 다시 랜더링하고 변형효과를 걸고 다시 들어보는 과정을 반복합니다. 이러한 과정을 조금 더 편하고 빠르게 할 수 있도록, 변형하고자 하는 소리를 어떤식으로 변형하고 싶은지 입력을 하게되면, 그에 따라 변형 가능하도록 프로그램을 만들고자 합니다.
5 +
6 +# 연구 목표
7 +실시간으로 입력 받은 소리의 특성을 분석해, 기존의 소리를 왜곡해 들려주는것이 목표 입니다.
8 +
9 +# Sound Augumentation을 이용한 악기
4 실행방법 10 실행방법
5 ``` 11 ```
6 pip install -r requirements.txt 12 pip install -r requirements.txt
...@@ -8,4 +14,11 @@ python low_latnecy.py ...@@ -8,4 +14,11 @@ python low_latnecy.py
8 ``` 14 ```
9 15
10 이후 본인이 직접 녹음한 소리를 사용하고 싶으면 y를 입력해 녹음을 진행하고, 16 이후 본인이 직접 녹음한 소리를 사용하고 싶으면 y를 입력해 녹음을 진행하고,
11 -그렇지 않으면 그냥 n을 누르고 소리를 입력하시면 됩니다.
...\ No newline at end of file ...\ No newline at end of file
17 +그렇지 않으면 그냥 n을 누르고 소리를 입력하시면 됩니다.
18 +
19 +### 실행화면
20 +![](example.gif)
21 +
22 +# 결론 및 제언
23 +- 이 프로젝트에서는 충격음만 변형을 했지만, 추후에는 실시간으로 변환할 소리와, 변환 소리를 위한 필터도 함께 적용하면 좋을것 같습니다.
24 +- 실시간 프로세싱을 위해 머신러닝은 사용하지 못했습니다, 필터를 찾는 과정에서 머신러닝 파트를 진행할 수 있으면 좋을것 같습니다.
......