분류 전체보기
-
[Machine Learning] SVM(Support Vector Machine): 원초 문제에서 쌍대 문제로(From the Primal to the Dual Problem)Informatik 2022. 3. 1. 20:25
※ [Machine Learning] 커널 기법(Kernel Method): 커널 트릭(Kernel Trick), 서포트 벡터 머신(Support Vector Machine) [Machine Learning] 커널 기법(Kernel Method): 커널 트릭(Kernel Trick), 서포트 벡터 머신(Support Vector Machine) 기계 학습에서 회귀(Regression)나 $$(\mathbf {x}_1, y_1), \cdots, (\mathbf {x}_N, y_N) \in \mathbb {R}^n \times \mathbb {R}^m$$ 분류(Classification) $$(\mathbf {x}_1, y_1), \cdots, (\mathbf {x}_N, y_.. minicokr.com S..
-
[Machine Learning] 커널 기법(Kernel Method): 커널 트릭(Kernel Trick), 서포트 벡터 머신(Support Vector Machine)Informatik 2022. 2. 28. 23:32
기계 학습에서 회귀(Regression)나 $$(\mathbf {x}_1, y_1), \cdots, (\mathbf {x}_N, y_N) \in \mathbb {R}^n \times \mathbb {R}^m$$ 분류(Classification) $$(\mathbf {x}_1, y_1), \cdots, (\mathbf {x}_N, y_N) \in \mathbb {R}^n \times \{ \pm 1 \}$$ 문제에서 사용되는 학습 셋(Training Set)은 모두 미지수의 확률 분포(Probability Distribution) $P(\mathbf {x}, y)$를 따른다. 검정 셋(Test Set)으로 기대 오차(Expected Error)를 다음과 같이 확률 분포에 대해서 계산했을 때, 그 값이 최소..
-
26.02.22: Classic-Remise Berlin 방문, 차 수리Alltags 2022. 2. 27. 01:40
지인 중에 올드카 수리를 전문으로 하는 (잘생긴) 아재가 있는 정비소에 갔다 왔다. 여기가 Classic-Remise라고 Berlin에 있는 하나의 큰 자동차 단지인데, 이 도시에 사는 갑부 아재들이 소장용 자동차를 보관해주는 곳이기도 하다. 창고뿐만 아니라, 올드 벤츠 전문, 올드 페라리 전문, 프랑스 차 전문 등등해서 세부적으로 전문화된 자동차 정비소가 건물 내 곳곳 위치하고 있다. 엄청난 규모의 차들이 많은데 옛날 공장 건물에 숨겨져 있어서, Berlin에 살아도 차에 관심이 없으면 알지 못하고 지나칠 법도 하다. John & 아빠가 사려고 눈독 들인 올드 포르셰. 요즘 들어, 모든 소장품들의 가격들이 워낙 미친 듯이 뛰어서 더 비싸지기 전에 사는 것도 괜찮은 듯하다. 올드 911은 정말 정신 나간..
-
[Machine Learning] 멀티 클래스 선형 분류(Multi-Class Linear Classification)Informatik 2022. 2. 22. 18:28
※ [Machine Learning] 베이즈 결정 이론(Bayesian Decision Theory) [Machine Learning] 베이즈 결정 이론(Bayesian Decision Theory) 지도 학습(Supervised Learning)의 분류(Classification)에 해당하는 머신러닝(Machine Learning) 기법인 베이즈 결정 이론은 일상생활에서 흔하게 볼 수 있고 사용할 수 있는 기법이다. 예를 들어, 스팸 메일을. minicokr.com ※ [Machine Learning] 선형 분류(Linear Classification) [Machine Learning] 선형 분류(Linear Classification) 선형 분류는 일차원 혹은 다차원 데이터들을 선형 모델(Linear..
-
[Machine Learning] 분류의 성능 평가 지표(Evaluation Metrics of Classification)Informatik 2022. 2. 22. 02:35
※ [Machine Learning] 베이즈 결정 이론(Bayesian Decision Theory) [Machine Learning] 베이즈 결정 이론(Bayesian Decision Theory) 지도 학습(Supervised Learning)의 분류(Classification)에 해당하는 머신러닝(Machine Learning) 기법인 베이즈 결정 이론은 일상생활에서 흔하게 볼 수 있고 사용할 수 있는 기법이다. 예를 들어, 스팸 메일을. minicokr.com ※ [Machine Learning] 나이브 베이즈 분류(Naïve Bayes Classification) [Machine Learning] 나이브 베이즈 분류(Naïve Bayes Classification) ※ [Machine Learn..
-
[Machine Learning] 나이브 베이즈 분류(Naïve Bayes Classification)Informatik 2022. 2. 21. 22:01
※ 나이브 베이즈 분류(Naive Bayes Classification)를 공부하기 전에 베이즈 결정 이론(Bayesian Decision Theory)에 대한 기초 지식이 없다면 밑에 링크를 통해 먼저 공부하고 오는 것을 추천합니다. ※ [Machine Learning] 베이즈 결정 이론(Bayesian Decision Theory) [Machine Learning] 베이즈 결정 이론(Bayesian Decision Theory) 지도 학습(Supervised Learning)의 분류(Classification)에 해당하는 머신러닝(Machine Learning) 기법인 베이즈 결정 이론은 일상생활에서 흔하게 볼 수 있고 사용할 수 있는 기법이다. 예를 들어, 스팸 메일을. minicokr.tistor..
-
[Machine Learning] 인공 신경망(Artificial Neural Network)Informatik 2022. 2. 18. 18:19
※ [Machine Learning] 베이즈 결정 이론(Bayesian Decision Theory) [Machine Learning] 베이즈 결정 이론(Bayesian Decision Theory) 지도 학습(Supervised Learning)의 분류(Classification)에 해당하는 머신러닝(Machine Learning) 기법인 베이즈 결정 이론은 일상생활에서 흔하게 볼 수 있고 사용할 수 있는 기법이다. 예를 들어, 스팸 메일을. minicokr.com 데이터 분포(Data Distribution)를 정확히 예측한 경우, 베이즈 최적 분류기(Bayes Optimal Classifier) 보다 더 정확한 이진 분류기가 없다. 하지만 실생활에서 데이터의 분포를 예측하는 것은 어렵기 때문에 항상..
-
[Machine Learning] 피셔의 선형 판별 분석(Fisher Linear Discriminant Analysis)Informatik 2022. 2. 17. 18:35
※ [Machine Learning] 상관계수(Correlation Coefficient) [Machine Learning] 상관계수(Correlation Coefficient) 상관계수는 두 변수 사이의 통계적 관계를 표현하기 위해 특정한 상관관계의 정도를 수치적으로 나타낸 계수이다. [wikipedia] $\mathbf {x}_t \in \mathbb {R}^{T \times 1}$과 $\mathbf {y} \in \mathbb {R}^{T.. minicokr.com 일차원 데이터 $\mathbf {x} \sim \mathcal {N} (0, 1)$와 노이즈(Noise) $\epsilon \sim \mathcal {N} (0, 1)$가 주어질 때, $y = \gamma \mathbf {x} + \sq..