단순히 ANN을 깊게 쌒은 것.
학습데이터가 적거나 복잡한 문제에선 DNN이 효과적이나, 깊이가 깊어질수록 경사도 소실 문제가 있기에, 앞층은 relu함수를 활성화함수로 짜는 게 효과적이다.