TIL/딥러닝

딥러닝과 머신러닝의 차이/ 활성화함수/ 기울기소실문제

monawa 2022. 12. 3.
728x90

Q1. 딥러닝은 무엇인가요? 딥러닝과 머신러닝의 차이는?

머신러닝은컴퓨터가 스스로 주어진 데이터 패턴을 학습해 이전에 없던 새로운 데이터를 마주해도 답을 낼 수 있는 방식으로서 어린아이가 반복적으로 경험하여 개념이나 특징을 알아가는 과정과 유사합니다  

 

 

 


딥러닝은 인간 뇌에 뉴런의 작동 방식에서 아이디러를 얻어 온 학습방식으로 인공 신경망에서 발전한 형태 입니다 . 스스로 데이터 경로를 수정해 나가며 최적의 결과가 나오도록 학습하며 스스로 분류에 사용할 데이터를 학습하고 중요한  Feature을 자동적으로 골라냅니다 

 

 

 

차이점 머신러닝 딥러닝
인간의 개입  지속적인 인간의 개입이 필요  설정하기가 더 복잡하지만 그 이후에는 사람이 개입을 하지 않아도 된다
하드웨어  딥러닝 알고리즘보다 덜 복잡한 경향이 있고 기존 컴퓨터에서 실행할 수 있다 머신러닝보다 훨씬 더 강력한 하드웨어를 필요로 한다
시간 머신러닝 시스템은 빠르게
설정하고 작동할 수 있지만,
결과가 제한적일 수 있다
(훈련기간  짧음 , 테스트기간 김)
딥러닝 시스템은 설정하는 데 더 많은 시간이 걸리지만
즉각적으로 결과를 창출할 수 있고 더 많은 데이터를 사용할 수 있게 되면
시간이 지남에 따라 품질이 개선될 가능성이 있다.
(훈련기간  김, 테스트기간 짧음)
알고리즘   구조화된 데이터를 필요로 하고
전통적인 알고리즘을 사용
신경망을 채용하며,대량의 비정형 데이터를 수용하도록 구축
결정 방법  알고리즘을 사용하려 데이터를 구문 분석하고 해당 데이터에서 학습하며, 학습한 내용에 따라 정보에 근거한 결정  딥러닝은 알고리즘을 계층으로 구성하여 자체적으로 배우고 지능적인 결정을 내릴 수 있는 인공신경망을 생성
특징 추출
Feature extraction
학습 데이터를 가공하거나 특정 feature에 대한 정보만을 학습할 수 있다
=>수동적으로 중요한 Feature를 제공
분류(classification)에 사용될 데이터를 스스로 학습할 수 있다
=> 사람이 인지하지 못했지만 실제 분류 성능에 영향을 주는 더좋은 특징(feature)을 찾아서 스스로 학습
결과 해석 알고리즘이 선택된 명확한 규칙이 제공되기에 해석이 용이  성능이 우수하더라도 왜 이 결과를 부여하게 되었는지 알 수 없

 

 

Q2. 알고있는 Activation Function에 대해 알려주세요. (Sigmoid, ReLU, LeakyReLU, Tanh 등)

이름 시그모이드
sigmoid
하이퍼볼릭탄젠트
tanh
렐루
ReLU
리키렐루
Leaky ReLU
정의 s자형 곡선또는
시그모이드 곡선을 갖는 수학함수
(ex 로지스틱함수)
쌍곡선 함수중 하나
(sigmoid의 대체로 사용할수있다) -s자형태
정류 성형유닛에 대한 함수로
성혐함수를 개선한버젼

렐루함수가 거의 유사하다

입력값이 0이 아니라 0.001같은 매우작은 값을 반환

이를통해
X가 0보다 작아도 정보가 손실되지 않기에
Dying Relu문제해결
장점
모델제작에 필요한 시간을 줄임
데이터 중심을 0으로 위치시키는 효과가 있기 떄문에 
다음층의 학습이 더쉽게 이루어짐
미분 계산이 훨씬 간편해져서 학습 속도가 빨라짐 
단점
미분 범위가 짧아 정보가 손실
(grdient vanishing 현상)
미분범위가 짧아 정보가 손실

Dying Relu
= X가 0보다 작거나 같으면 항상 0을 출력
일부 사례에서는 
Sigmoid, Tanh 함수보다 
성능이 떨어진다

음수가 중요한 상황에서 제한적으로 사용하는 것을
추천
활용 로지스틱회귀
이진분류 
- 기울기 소실을 완하하는가장 방법한 방법 중 하나

최근 가장 많이 사용되는
활성화 함수 
Dying Relu현상 해결을 위해 나온 함수
y값 0
~
1
-1
~
1
0보다 작으면 0

0보다 크면 입력값
0보다 작으면 미세하게 나마 해당하는 음수값으로 출력

0보다 크면 입력값
학습속도 상대적으로 느리나 
세밀하게 학습
상대적으로 빠름     

Q3. 기울기 소실 문제는 왜 발생하나요?

기울기 소실문제란 

기울기 소실이란 역전파(Backpropagation) 과정에서(=학습할떄) 출력층에서 멀어질수록(=입력층으로 갈수록) Gradient 값이 매우 작아지는 현상을 말합니다

이는 입력층에 가까운 층들에서 가충치들이 업데이트가 제대로 되지않으면서 결국 최적의 모델을 찾을수 없게 됩니다

이는 활성화 함수중 simoid,tanh함수에서 기울기 소실 문제가 발생하며 이를 해결하기 위에 고안된것이Relu 함수입니다

이는 입력값이 양수일경우 입력값과 상관없이 항상 미분값이1 로나오면서 전파과정에서 기울기가 소실되는 문제를 해결할수 있습니다 

 

 

 

 

참고자료

 

 

딥 러닝 vs 머신러닝 - 어떤 차이점이 있을까?

딥 러닝 vs 머신러닝 차이점 요약 딥러닝과 머신러닝은 기계학습의 일종으로 인공지능의 하위 개념이다. 머신러닝은 인간이 데이터 분석의 힌트를 알려준 후 분석하는 학습방법이고 딥러닝은

wkdus0608.tistory.com

 

 

머신러닝(Machine Learning)과 딥러닝(Deep Learning)의 차이. [딥러닝][머신러닝][기계학습][심층학습][인

인공지능(AI)에 대한 관심이 날이 갈수록 커지고 있다. 인공지능이란 말을 언론이나 매체 등에서 사용할 때 머신러닝, 기계학습(Machine Learning)과 딥러닝(Deep Learning)이라는 단어가 동반되는 것을

pro-jy.tistory.com

 

 

머신러닝 vs 딥러닝

머신러닝과 딥러닝의 차이는 무엇일까요?인공지능 ⊃머신러닝 ⊃딥러닝인공지능정의데이터를 구문 분석하고 해당 데이터를 통해 학습한 후 정보를 바탕으로 결정을 내리기 위해 학습한 내용

velog.io

 

 

[딥러닝] 기울기 소실(Vanishing Gradient)의 의미와 해결방법

📚 목차 1. 기울기 소실의 의미 2. 기울기 소실의 원인 3. 기울기 소실의 해결방법 1. 기울기 소실의 의미 딥러닝 분야에서 Layer를 많이 쌓을수록 데이터 표현력이 증가하기 때문에 학습이 잘 될

heytech.tistory.com

 

 

기울기 소실 문제와 ReLU 함수

참고기울기 소실 문제(Vanishing Gradient problem)는 역전파(Backpropagation) 알고리즘에서 처음 입력층(input layer)으로 진행할수록 기울기가 점차적으로 작아지다가 나중에는 거의 기울기의 변화가 없어지

velog.io

 

728x90

댓글