Hafoom.com

딥러닝......

DeepLearning2019.09.17 01:23

나는 석사과정을 영상처리/패턴인식 연구개발 했다.

박사과정은 하드웨어/프로세서 설계에 관한 연구를 했다.

 

전혀 연관 짓기 힘들 것으로 보았던 두 분야가.......

사실상 현재 최강 조합이 되었다...

그렇다고 내가 최강인건 아니고.....

 

내가 석사과정 때 주로 한건(정확히는 학사3학년부터)

cam shift 기반 hand tracking, finger tracking 으로 시작해서..

라이브러리 없이 화소를 바탕으로 한 feature 기반 문자 인식(인식률 80% 폭망)

트레이닝 데이터부터 , 트레이닝 프로그램, 테스트 프로그램 혼자 개발...(물론 코치는 있었음)

잡지나 책 이미지를 대상으로 텍스트/비텍스트/표 영역 분할(석사학위논문)

악보 인식을 위한 이진화, 차 번호판 인식 등이 있다.

차 번호판 인식은 학부 졸업논문인데... 일반적인 학부생 수준은 넘어 선다....

독착성이 없을 뿐이지... 난이도는 상당히 높다.

학부생들 프로젝트 검사를 해보면서 요즘 애들 수준을 가늠해보면...

요즘 영상처리 라이브러리가 상당히 잘 되어있어서 거즘 예제를 갖다 쓰더라...

 

지금 딥러닝을 다시 보니... 예전 2013년도 쯤에 딥러닝이라는 걸 접한게 기억난다.... 붐은 아마 2015년엔가 일어난 것으로 보인다. 그 때 지인은..딥러닝을 무시했는데..그 다음 딥러닝이 떴었지.......(그.. 지인은 최근 딥러닝SCI를 썼다..)

 

기존의 뉴럴 네트워크야 패턴인식 교수님들이 기본적으로 깔고 가는 것으로.. SVM보다 간혹 오히려 구렸으나...

갑자기 feature extraction 부분을 붙여서 CNN을 만든다. 

콘볼루션이라는건...나도 2013년도 번호판 인식을 할 때 feature extraction 에 많이들 사용하는 거 갖다 썼는데.. 그런 것들을 전부 학습기에 붙였다고 한다...

콘볼루션이야..영상처리의 기초중의 기초라..........(매트랩 가지고 2년 가까이 콘볼루션 짓거리만 한 나로써는....)

 

따라서. 별 거 없다.......(기존 고전적인 신경망에서 조금 업그레이드 수준..)

 

뭐 성능은 상당히 좋아졌다고는 하는데..... 

아무튼...많은 연산 처리와 임베디드 하드웨어(모바일)의 발달에 따라 하드웨어 관점에서의 신경망 가속 처리가 중요해졌다.

난 SIMD 구조인 GPU를 연구했으나, NPU와 같은 뉴럴네트워크를 위한 아키텍처는 GPU로 최적화하긴 힘들다.

현재 분석중이나, 결국 메모리가 문제다...

 

 

'DeepLearning' 카테고리의 다른 글

딥러닝......  (0) 2019.09.17
딥러닝 공부  (0) 2019.09.10

Comment +0