분류 전체보기
-
[NumPy] type()과 dtype, np.sum()과 np.multiply()Machine Learning/numpy & pandas & maplotlib 2023. 10. 3. 17:41
* type() vs dtype type() 함수는 데이터타입을 알려주고, dtype은 ndarray의 attribute이다. * np.sum()과 np.multiply() np.multiply()는 두 개의 인자를 받아서 두 인자를 곱해준다.(np.float64, np.int 등, np.ndarray의 타입을 받을 수 있다.) 인자가 array이면 product-wise를 수행하고, return값의 type으로 np.ndarray를 반환한다. np.sum()는 np.ndarray의 타입인 하나의 배열을 받아서, 내부 합을 계산한다. axis값을 주어서 return값이 np.ndarray이면 return의 type()은 당연히, np.ndarray가 되고, axis값을 따로 주지 않으면, 전체 내부 합을..
-
[NumPy] np.pad에 대한 이해Machine Learning/numpy & pandas & maplotlib 2023. 10. 3. 01:15
* np.pad numpy에 padding을 적용하는 메서드이다. z축, y축, x축 axis에 대한 이해가 필요하다. (axis에 대한 이해) numpy.pad(array, pad_width, mode='constant', **kwargs) 1. array array는 padding을 적용할 배열 2. pad_width pad_width는 ((before_1, after_1), ... (before_N, after_N))의 형태이다. (before,after)는 해당 배열의 해당 축에 패딩을 (앞,뒤)로 덧붙이는 패딩의 갯수를 의미한다. 예를들면, pad_width가 ((0,0), (3,3), (3,3),(0,0))라고 할 때 각각, m(샘플 수)축, z축, y축, x축의 (앞, 뒤)를 의미한다. m축..
-
[DL] RegularizationMachine Learning 2023. 9. 12. 12:16
* Regularization 학습데이터에만 잘 적용되는 것이 아니라 test data에도 잘 동작되도록 만들어주기 위함(genral performance를 높여줌) 1. Early stopping validation error를 활용해서 stop training point를 찾는다. 2. Parameter norm penalty neural network가 만들어내는 함수의 공간속에서 부드러운 함수로 만들고자 한다. 부드러운 함수일수록 generalize performance가 높을 것이라는 가정아래, 파라미터의 크기가 너무 커지지 않게 하는 것. 3. Data augmentation 데이터셋을 늘리는 방법. label preserving augmentaion : label이 바뀌지 않는 한도내에서 이..
-
[DL] Gradient Descent MethodsMachine Learning 2023. 9. 12. 11:37
* stochastic gradient descent 하나의 샘플로 gradient를 계산한다. * Mini-batch gradient descent a subset of data(샘플 일부)로 gradient를 계산한다. large batch methods는 sharp minimizers로 수렴되는 경향이 있고, small-batch methods는 consistently으로 flat minimizers로 수렴된다. 일반적으로 flat minimizers가 generalize performance가 좋다. * Batch gradient descent 전체 데이터(샘플 전체)로 gradient를 계산한다. * Gradient Descent Methods 1. sotchastic gradient desce..
-
[numpy] axis, rank 이해. (n,)와(n,1)의 차이. keepdimsMachine Learning/numpy & pandas & maplotlib 2023. 9. 5. 19:35
이전 글에서 선형대수 관련 강의 영상을 정리했었는데, 기본 용어들이 헷갈려서 정리해봤다. * Rank (=basis의 개수) 더보기 "랭크(Rank)"는 행렬의 중요한 개념 중 하나입니다. 랭크는 주어진 행렬의 열 벡터(또는 행 벡터)들 중 독립적인 벡터의 최대 개수를 나타내며, 이 개수는 해당 행렬의 열(또는 행) 공간의 차원을 나타냅니다. 독립적인 벡터의 최대 개수: 랭크는 행렬 내의 열 벡터(또는 행 벡터) 중 서로 독립적인 벡터의 최대 개수를 나타냅니다. 벡터가 서로 독립적이라는 것은 어떤 한 벡터를 다른 벡터들의 선형 조합으로 나타낼 수 없다는 것을 의미합니다. 열 공간의 차원: 랭크는 해당 행렬의 열 벡터가 구성하는 열 공간(column space)의 차원을 나타냅니다. 열 공간은 벡터들이 생..
-
CV 응용 사례#7 linear operatorsCoursera 2023. 9. 5. 16:14
* Central Difference Formula 유한차분법 the partial derivative in the y-direction를 보면 horizontal stripe(수평 줄무늬)는 강하고, vertical stripes는 약하다. the partial derivative in the x-direction를 보면, vertical stripes (수직 줄무늬)는 강하고, horizontal stripe는 약하다. * x축과 y축에 대한 편도 함수의 기울기를 계산하는 선형 필터 또는 선형 변환의 예시 유한차분법을 이용해 함수의 기울기를 구하는 방법. 필터(operator) 종류 - Sobel - Prewitt - Roberts
-
CV 응용 사례#6 Linear FilteringCoursera 2023. 9. 5. 11:02
* Linear Filtering properties: Shift Invariant : 이미지에 필터를 적용해서 얻는 결과가 이웃한 픽셀의 값에 따라 달라지지만 이러한 이미지 값이 어디에 있는지는 상관없다는 것. (outcome depends on the pattern, not the location of the pattern) Linear : 분배법칙이 적용됨. * Convolution kernel -> 필터, 가중치값들이 있음. convolution -> 이미지에 필터를 적용하는 과정. -> kernel H has been convolved with F to yield R. 이라고 표현. i, j : 각 픽셀 값 가중치를 의미. F : 기존 이미지 값(original image value) H : w..