선형 레이어(또는 fully-connected layer, 완전 연결 레이어)는 레이어의 모든 뉴런이 이전 레이어의 모든 뉴런과 연결된 레이어이다.
선형 레이어는 다음과 같이 선형 방정식으로 표현할 수 있다.
여기서 위첨자

전통적으로 신경망은 위 그림과 같이 뉴런과 연결층으로 표시하지만 활성함수를 분명히 표시하고 수식관계를 간편하게 알아보도록 다음과 같은 그림으로 표시하기도 한다.

신경망을 학습한다는 것은 손실함수
신경망은 입력
비용함수는 항상 스칼라 함수로 주어지므로 위 식에서
연쇄법칙으로 위 식을 이용하여 미분을 구할 때는 수식의 맨 오른쪽부터 왼쪽으로 이동하며 계산하는 역전파(backpropagation)가 유리하다. 왜냐하면 비용함수가 스칼라이므로 맨 오른쪽 미분의 결과는 벡터이기 때문이다. 왼쪽으로 이동하며 계산하게 되면 항상 행렬과 벡터의 곱인

선형 레이어는
먼저 자코비안 항이다.
만약 sigmoid를 사용한다면 다음과 같이 된다.
여기서
여기서
3차 텐서와 행렬의 곱이 좀 복잡하게 느껴지겠지만 다음과 같이 생각하면 쉽다.
먼저 벡터와 벡터의 곱은 다음과 같다. 각 벡터의 성분과 성분을 곱한 후 더한다.

행렬과 벡터의 곱은 다음과 같다. 행렬의 성분인 열벡터와 벡터의 성분을 곱한 후 더한다.

3차 텐서와 벡터의 곱은 다음과 같다. 텐서의 성분인 행렬과 벡터의 성분을 곱한 후 더한다.

'AI 수학 > 최적화' 카테고리의 다른 글
내부점 방법 (Interior-Point Method)의 개념 (0) | 2022.04.06 |
---|---|
프라이멀 문제와 듀얼 문제의 유도 (0) | 2022.04.04 |
벡터 함수를 행렬로 미분하기 (0) | 2021.03.27 |
다변수 함수의 연쇄법칙 (Chain Rule) (1) | 2021.03.23 |
[KKT 조건 - 3] 프라이멀 문제와 듀얼 문제 (0) | 2021.02.17 |
댓글