일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
- quicksort
- Algorithm
- For
- Kotlin
- JavaScript
- zgc
- JPA
- C++
- 기초
- IAC
- g1gc
- datatype
- jvm
- lambda
- 연산자
- While
- redis
- Class
- If
- Java
- UserDetails
- SpringBoot Initializr
- datastructure
- 자료형
- Sprint Security
- MergeSort
- programmers
- Fluent-bit
- ansible
- Spring Security
- Today
- Total
목록AI/이론 (6)
뭐라도 끄적이는 BLOG
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/bulGT1/btq3XtxXJ4h/oGiRtuREGe4ZZ0XrmptbAk/img.png)
다중 클래스 분류 이진 분류는 어떤 물체인지 표현할 필요없이 맞는지 아닌지 만 표현하면 됩니다. 하지만 다중 분류에서는 어떤 물체인지 표현 해야 합니다. 정답을 어떻게 표현할 것인가? (원핫 인코딩) 한개의 값만 1이고, 나머지 값은 0인 벡터로 표현하는 기법 원 핫 인코딩된 벡터는 미리 매핑해둔 Table을 이용해 어떤 물체인지 알 수 있습니다. 원 - 핫 인코딩의 희소 표현 Sparse Vector : 대부분의 값이 0 이고 크기가 있는 값이 희소하게 나타나는 벡터 반대로 밀집표현(Dense Presentation)이 있습니다. 얕은 신경망을 이용한 다중 클래스 분류 한가지 확률만 100%이고 나머지는 0%인 것이 정답입니다. 실제 알고리즘 출력을 확률로 변환하기 위해 Softmax 함수를 사용합니다..
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/vEMRg/btq3Tru1pjo/kvlN4NgYmHuWn1e9BX1xMk/img.png)
입력의 범주를 추정하는 분류(Classification)에 대해 조금 더 자세히 알아봅니다. 학습 샘플을 잘 나누는 선을 Decision Boundary라고 합니다. 로지스틱 회귀 이전에는 데이터를 잘 표현하는 방향으로 데이터를 따라가도록 선을 그었다면 로지스틱 회귀는 선형 회귀와 비슷하나, 범주형 데이터를 분류하는 방향으로 선을 긋는다. 로지스틱 회귀는 범주형 데이터를 대상으로 하는 회귀. 분류 기법으로 볼 수 있습니다. 로지스틱 회귀는 선형 회귀와 비슷하지만, 범주형 데이터를 분류하는 방향으로 선을 긋는것 입니다. Sigmoid Function 값이 작아질 수록 0, 커질수록 1에 수렴 모든 실수 입력 값에 대해 출력이 정의됨 출력이 0~1사이로, 확률을 표현할 수 있음 입력값이 0에 가까울 수록 출..
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/cUe05X/btq3TsgmHuh/SGswowFI37HyeIz1A5sTk1/img.png)
단순 선형 회귀 데이터를 가장 잘 표현하는 선형식을 찾는 동작 arg는 오른쪽 수식에 가장 작은 값을 가지는 w를 찾는다. 라는 의미입니다. 에러를 제곱한 부분입니다. 1/2이 붙는 이유는 미분시 상수값을 없애기 위한 관습입니다. MSE를 최소로 하는 w를 찾아라 w와 b를 지정하여 추정한 선형 회귀의 값(y)과 실제 (yi)값의 오차를 제곱한 값들의 평균이 가장 낮은 점을 찾는 것이 선형회귀의 핵심입니다. 단순 선형되귀는 독립변수(입력)이 하나이므로, 추정해야 할 변수도 하나입니다. 단, bias를 포함하면 2개가 됩니다. 평균 제곱 오차 MSE를 이용해, 고양이의 길이와 체중의 오차를 종합적으로 판단할 수 있습니다. 다중 선형 회귀 얕은 신경망과 회귀 알고리즘 얕은 신경망으로 회귀를 수행할 경우, 출..
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/eWFf7m/btq3XrUoJVS/mEgLcpSkAOgKleP0myN6O0/img.png)
뉴런의 수학적 표현 뉴런은 수학적으로 두 벡터의 내적으로 쉽게 표현할 수 있습니다. bias가 없으면 오직 원점에서만 값의 이동이 이루어집니다 자유롭게 선을 그어주기 위해 편향을 넣어주는 것이 일반적입니다. w 벡터를 transpose하여 x벡터와 곱한 값과 벡터의 내적은 같기 때문에 위와 같은 공식이 나옵니다. y 는 activation function( transpose(w) * x + b) 인 것입니다. 전결합 계층의 수학적 표현 FC 계층은 여러 개의 뉴런을 한곳에 모아둔 것으로, Matrix 곱셈 연산으로 표현 됩니다. 입력 계층(Input Layer) 입력 계층은 아무런 연산도 일어나지 않습니다. 신경망의 입력을 받아서 다음 계층으로 넘기는 역할 무엇을 입력으로 주어야 하는가? → 특징추출 문..
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/deI22d/btq3YUPAp5T/tPt2olIkBYaaLkxiSHHWck/img.png)
Neuron의 표현 Graph의 Node와 Edge를 이용해 표현한다. 여기서 Node는 단일 뉴런 연산을, Edge는 뉴런의 연결성을 의미한다. Node에서는 weight와 입력데이터를 곱하고 그결과들을 모두 더하는 일련의 과정을 모두 포함합니다. 인공신경망 뉴런이 모여서 서로 연결된 형태를 인공신경망(Artificial Neural Network)라고 부릅니다. 딥러닝은 인공신경망을 기반으로한 머신러닝을 말하는 것입니다. 전결합 계층 뉴런이 모인 한 단위를 계층(Layer)라고 하며, 이전 계층과 모든 뉴런이 서로 연결된 계층을 Fully-Connected Layer(Dense Layer)라고 합니다. 얕은 신경망(Shallow Neural Network) 입력, 은닉, 출력의 3가지 계층으로 되어 ..
![](http://i1.daumcdn.net/thumb/C150x150.fwebp.q85/?fname=https://blog.kakaocdn.net/dn/oVtkZ/btqDqj2NOSd/UX9YQkTz5BYDgByJXGOeKK/img.png)
인공지능 머신러닝 딥러닝의 관계를 쉽게 나타내면 위 사진과 같은 포함 관계를 가지게 됩니다. 인공지능 인공지능은 '사람의 지능을 만들기 위한 시스템이나 프로그램'을 말합니다. 즉, 기계가 사람의 행동을 모방하게 하는 기술을 총칭합니다. 인공지능은 강인공지능과 약인공지능으로 나눌 수 있습니다. 강인공지능은 '사람과 구분이 안 될 정도로 강한 성능을 가진 인공지능'을 합니다. 일반적으로 영화 속에서 나오는 아이언맨의 자비스 Her의 사만다를 예로 들 수 있습니다. 강인공지능은 만들 수 있는 방법은 현재 없으며 언제 나올지 예측조차 어렵습니다. 현재 이용되고 있는 인공지능 기술은 모두 약 인공지능입니다. 약인공지능은 특정 영역에서 작업을 수행하는 인공지능을 말합니다. 자율주행 자동차나 인공지능 비서 시리 구글..