We-Co

[부스트캠프 AI Tech 준비과정] - 4주차 인공지능 수학 본문

[부스트캠프 AI Tech 준비과정] 2회차

[부스트캠프 AI Tech 준비과정] - 4주차 인공지능 수학

위기의코딩맨 2024. 5. 17. 13:35
반응형

안녕하세요. 위기의코딩맨입니다.

벌써  부스트캠프 AI Tech 준비과정 4주차가 마무리되고 있습니다.

기대반 걱정반으로 시작했는데 벌써 4주차라니!!

 

지금까지 내용을 봤을땐, 제가 혼자 공부할땐 정확한 목적지를 몰라서 이거보고 저거보고 했던거 같은데

지금은 아 어떻게 가야하는구나 라는 길이 보이는 것 같습니다. ㅎㅎㅎ

 

해당 과정을 들으면서 유튜브에서 앤드류 응님의 강의도 같이 듣고있는데

이해하는데 도움이 되는 것 같습니다. 꼭 들어보시길 추천드려요!!

 

이제 4주차 내용을 정리해보도록 하겠습니다.

 

[ 4주차 ]

인공지능 수학에 대해서 아주 기초적인 학습을 진행했습니다.

 

  • 벡터(vector) - 숫자를 원소로 갖는 리스트, 배열을 의미 (열 벡터,행 벡터).. 공간에서 한 점을 나타냄,, n차원공간 벡터는 같은 모양을 가지면 덧셈,뺄셈, 곱셈(성분곱) 연산이 가능
  • 두 벡터의 덧셈은 다른  벡터로부터 상대적 위치이동을 표현  (AX = [ax1,ax2] ..  스칼라곱 : 길이 변화 np.array([1,2,3)] )

벡터의 노름(norm)

원점에서부터의 거리

  • L1- norm  - 각 성분의 변화량의 절대값을 모두 더함(abs,sum 함수이용), 라쏘
  • L2-norm - 피타고라스 정리를 이용해 유클리드 거리를 계산(제곱 값, sum,sqrt 함수), 릿지

L1,L2 norm을 사용하는 이유는 norm의 종류에 따라 기하학적 성질이 달라져 목적에 따라 사용

 

 

두벡터사이의

 

두벡터사이의 각 (l2 에서만 가능 (inner, arccos 함수))

 

내적이란?

  • 두 벡터의 각 성분끼리 곱의 합 하나의 벡터의 방향으로 나머지 하나를 투영 시킨 벡터와 다른 한벡터의 크기의 곱
  • 스칼라 값으로 변환시키는 연산
  • 내적은 정사영된 벡터의 길이와 관련

정사영이란? 

A 대하여 평면으로 내려서 평면에 점을 A’ 나타내는  

 

행렬이란?

  • 벡터를 원소로 가지는 2차원 배열
  • 행[i]열[j] 순서로 인덱스를 갖고있습니다.
  • 벡터와 마찬가지로 같은 모양을 갖고있으면 덧셈,뺄셈, 성분곱, 스칼라 곱 이 가능함

 

벡터가 공간에서 한점을 의미한다면 행렬은 여러 점을 나타냄

X = (xij) 표기도 사용

전치행렬(transpose matrix) - 행과 열의 인덱스가 바뀐 행렬을 의미 Xt = (xji)

 

행렬의 곱셈 - 열벡터 사이의 내적으로 가지는 행렬을 계산진행

 

역행렬( inverse matrix ) 

행과 열의 숫자가 같아야함, 0이 아니어야함

행과 열이 다를때 사용하는 방법

유사 역행렬( 무어-펜로즈 )

 

응용사용

  • 연립방정식 np.linalg.pinv 함수 사용
  • 선형회귀분석 np.linalg.pinv (y절편은 직접 설정해줘야함)함수 사용, Sklearn LinearRegression 함수(y절편을 자동으로 적용) 사용

 

경사하강법

  • 극소, 극대, 최소, 최대 활용가능
  • 미분(differentiation) - 변수의 움직이에 따른 함수값의 변화를 측정하는 도구, 접선의 기울기를 구함
  • 한점의 기울기를 알면 어느 방향으로 움직여야 함수값이 증가하는지 감소하는지 확인 가능

 

선형모델 수식

  • Softmax 함수 - 모델의 출력을 확률로 해석할수 있도록 변환해주는 연산, 분류 문제를 풀때, 선형모델과 소프트맥스 함수를 결합하여 예측
  • softmax(o) = softmax(Wx+b)
  • 학습경우 softmax 함수 사용, 추론인 경우에는 one-hot 벡터를 사용
  • 활성함수 - sigmoid, tanh, ReLU
  • 신경망 - 선형모델과 활성함수를 합성한 함수를 의미

 

  • 다층 퍼셉트론 -  신경망이 여러층, 합성된 함수
  • 다층으로 쌓는 이유? - 층이 깊을수록 목적 함수를 근사하는데 필요한 뉴런 숫자가 빨리 줄어들어 조금 더 효율적인 학습이 가능그러나 층이 깊다고 좋은 것은 아님, 초기화 등 다른 작업들이 늘어남
  • 역전파 - 역순으로 순차적 계산을 진행
  • 연쇄법칙기반 - 자동미분을 사용

 

여기까지 4주차 기본 적인 학습 내용입니다!

아주 기초적인 수학의 강의를 진행했습니다.

수학적으로 공부도 열심히 열심히 해야겠어요.. ㅎㅎㅎ

 

- 본 포스트의 학습 내용은 부스트클래스 <AI 엔지니어 기초 다지기 : 부스트캠프 AI Tech 준비과정> 강의 내용을 바탕으로 작성되었습니다

반응형