
netron netron github에서 각자의 OS에 맞게 다운 받아 설치하면 됩니다. model 을 학습시키면 보통 결과를 .h5 확장자로 저장합니다. netron은 .h5를 시각화 해주는 툴입니다. 링크에서 샘플을 실습해 볼 수 있도록 샘플이 올려져 있으니 참고하시면 됩니다. netron을 실행한 후 .h5 모델을 불러오거나 시각화 하고 싶은 .h5 파일을 실행하면 다음과 같이 결과를 볼 수 있습니다. Ref - 케라스 모델 시각화 https://gaussian37.github.io/dl-keras-%EC%BC%80%EB%9D%BC%EC%8A%A4-%EB%AA%A8%EB%8D%B8-%EC%8B%9C%EA%B0%81%ED%99%94/
numpy.linspace numpy.linspace(start, stop, num=50, endpoint=True, retstep=False, dtype=None, axis=0) 일정 간격을 갖는 수로 구성된 벡터값을 생성하기 위한 함수로 start와 stop사이에 num개의 점을 생성한다. Usage np.linspace(2.0, 3.0, num=5) -> array([2. , 2.25, 2.5 , 2.75, 3. ]) np.linspace(2.0, 3.0, num=5, endpoint=False) -> array([2. , 2.2, 2.4, 2.6, 2.8]) np.linspace(2.0, 3.0, num=5, retstep=True) -> (array([2. , 2.25, 2.5 , 2.75, 3..

본 게시글은 [라온 피플] CNN구조 3 - VGGNet, ResNet 글을 정리한 것입니다. VGGNet 2014년 ILSVRC에서 GoogleNet과 함께 주목을 받았고 간소한 차이로 2위를 차지했지만 VGGNet은 간단한 구조와 단일 network에서 좋은 성능 등을 보여준다는 이유로, 1위를 차지한 GoogleNet보다 많은 network에서 응용되고 있다. VGGNet은 사실 network의 깊이(depth)가 어떤 영향을 주는지 연구하기 위해 설계된 network이다. 그래서 convolution kernel 사이즈를 한 사이즈로 정하고 Convolution의 개수를 늘리는 방식으로 테스트를 진행합니다. Convolution Layer는 kernel 사이즈 3x3, padding 사이즈 1로 ..

본 게시글은 [Github, Nesoy] 님의 Database의 샤딩(Sharding)이란? 글을 스크랩한 것입니다. 왜 샤딩(Sharding)이 필요할까요? 파티셔닝과 동일함으로 Link를 추가합니다. Link Vertical Partitioning 도메인에 따라 쉽게 분리할 수 있습니다. 도메인에 영향을 많이 받기 때문에 대부분 application level에서 CRUD를 구현합니다. 샤딩(Sharding)이란? 같은 테이블 스키마를 가진 데이터를 다수의 데이터베이스에 분산하여 저장하는 방법을 의미합니다. application level에서도 가능하지만 database level에서도 가능합니다. Horizontal Partitioning이라고 볼 수 있습니다. 샤딩(Sharding)을 적용하기에 ..
뻘짓 glob으로 파일들을 가져와서 데이터를 전처리하고 하나의 배열로 만들어 npy 파일로 저장해서 딥러닝 모델을 학습시켰다. 이틀 동안 모델을 바꿔가며 학습을 해봤는데 정확도는 절대 좋아지지 않았고 모델을 바꿔도 일정 수준을 맴도는 loss를 보면서 이상함을 느꼈다. 입력 데이터에 가장 문제가 있을 것 같아서 생각해보니 glob으로 불러왔던 파일명들이 떠올랐다. 파일의 번호 순서대로 라벨링이 되어있었는데, glob으로 가져올 때는 파일의 이름 순서와 상관없이 가져와진다. 분명 파일의 이름 순서와 상관없이 가져와진 것을 확인해놓고 그냥 계속 진행했다. 왜 그랬을까.. 무작위의 파일 순서로 전처리된 데이터를 가지고 이틀 동안 학습시켰다. 학습이 될 리가 있겠는가.. 그래서 glob으로 불러온 파일명들을 정..
에러 보통 tf에서 무거운 모델을 돌릴 때 발생한다. 발생 상황 batch_size가 큰 경우 Model을 두번 compile 한 경우 GPU가 이상이 있는 경우 Fully-connected 단에서 Dense layer가 높은 경우, 즉 Train parameter가 매우 큰 경우 Session이 clear 되지 않은 경우 해결 방법 batch_size를 줄여가면서 Test를 해본다. Model.compile를 찾아서 문제를 해결한다. 터미널에서 아래의 명령어를 이용하여 reset을 수행한다. nvidia-smi -r Fully-connected 단을 확인하여 Dense layer의 연결수를 줄이거나 제거한다. 세션을 clear하는 것을 loop 내에 둔다. from keras import backend..
Youtube Valerio Velardo - The Sound of AI Blog ratsgo_speechbook Fundamental Mel Frequency Cepstral Coefficient (MFCC) tutorial Github musikalkemist - https://github.com/musikalkemist/DeepLearningForAudioWithPython 인공지능 공부의 아주 기초부터 audio 처리까지 강의 자료가 있는데, 아주 좋다
LibROSA LibROSA is a python package for music and audio analysis. It provides the building blocks necessary to create music information retrieval systems. Installation instructions Tutorial python_speech_features This library provides common speech features for ASR including MFCCs and filterbank energies. Docs
- Total
- Today
- Yesterday
- netron
- Tensorflow2.0
- 인공지능 스피커 호출
- stft
- RNN
- BOJ
- 오디오 전처리
- 핵심어 검출
- LSTM
- keras
- 시계열
- lambda
- boto3
- 알고리즘
- nlp 트렌드
- nlp
- S3
- 6.006
- AWS
- librosa
- TF2.0
- MIT
- nlg
- aws cli
- tensorflow
- 알고리즘 강의
- Introduction to Algorithm
- 모델 시각화
- MFCC
- wavenet
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |