네이버 부스트캠프 AI tech 2기(4)
-
경사하강법
1. 경사상승법 / 경사하강법 (gradient ascent/descent) 경사상승법 함수증가 -> 미분값을 더함 = x+f'(x) 경사하강법 함수감소 -> 미분값으 뺌 = x-f'(x) 경사상승/경사하강 방법은 극값에 도달하면 움직임을 멈춘다 극값에서는 미분값이 0이므로 목적함수 최적화 종료 점이 이동 하며 얻은 미분 값의 합/차 미분값을 더해줌 -> 함수의 최대화 미분값을 빼붐 -> 함수의 최소화 최대/최소 값일 때 움직임을 멈춤(극값에 도달) 최적화 알고리즘 학습률 조정을 통해 학습속도 조절 2. 그레디언트 벡터 다차원에서의 극값을 찾음 (x, y, z) --> (x', y', z') 벡터가 입력인 다변수 함수는 편미분을 사용 그레디언트 벡터 ∇f(x, y)는 각 점(x,y)에서 가장 빨리 증가하..
2021.08.06 -
행렬은 뭔가요?
1. 행렬(matrix)은 벡터를 원소로 가지는 2차원 배열입니다 행렬의 특정행(열)을 고정하면 행(열)벡터라 부릅니다 행렬은 벡터공간에서 사용되는 연산자(operator)로 이해한다 행렬곱을 통해 벡터를 다른 차원의 공간으로 보낼 수 있다 행렬곱을 통해 패턴을 추출할 수 있고 데이터를 압축할 수 있다 2. 전치행렬 벡터가 공간에서 한점을 의미한다면 행렬은 여러점들을 의미함 행렬의 행벡터 xi는 i번째 데이터를 의미 3. 행렬의 곱 행렬곱셈(matrixmultiplication)은 i번째 행벡터와 j번째 열벡터 사이의 내적을 성분으로 가지는 행렬을 계산합니다 4. 행렬의 내적 np.inner는 i번째 행벡터와 j번째 행벡터 사이의 내적을 성분으로 가지는 행렬을 계산 5. 역행렬 만일 역행렬을 계산할 수 ..
2021.08.06 -
AI math 1. 벡터가 뭔가요?
x = [ 1, 7, 2 ] -> x = np.array([1, 7, 2]) 숫자를 원소로 가지는 리스트(list) 또는 배열(array) 공간에서 한점을 나타낸다 원점으로부터 상대적 위치를 표현 벡터에 숫자를 곱해주면 길이만 변함 벡터의 곱셈 0
2021.08.06 -
AI tech 1일차
10시 ~ 11시 : 타운 홀미팅 11시 ~ 12시 : MeetUP (팀원 첫 미팅) 13시 ~ 16시 : 파이썬 기초강의 수강 파이썬 함수 numpy sympy 1. L1L1 norm 벡터의 크기는 L1L1 norm을 통해서 계산할 수 있습니다. L1L1 norm은 맨해튼 놈(Manhattan norm) 또는 택시 놈(Taxicab norm)이라고 불려지기도 합니다. L1L1 norm은 벡터의 모든 성분의 절대값을 더합니다. 만약에 다음과 같은 2차원 벡터가 있다면, x=[23]x=[23] 이 벡터의 L1L1 norm은 5이 됩니다. ∥x∥1=|2|+|3|=5‖x‖1=|2|+|3|=5 여기에 표기한 것처럼 L1L1 norm은 ∥∗∥1‖∗‖1로 씁니다. 여기서 왜 택시 놈이라고 불리는지 한번 생각해봅시다..
2021.08.03