일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- xshell
- 관리
- Python
- vuejs
- Machine Learning
- 리눅스
- 설정
- Language Intelligence
- 시퀸스 자료형
- linux
- TensorFlow
- vmware
- 선형회귀
- 칼리
- Visual Intelligence
- Windows
- 가상머신
- 머신러닝
- Python 기초
- ML
- 운영체제
- representation learning
- 텐서플로우
- vue
- python 설치
- Kali
- server
- centOS
- 설치
- Network
Archives
- Today
- Total
homebody's blog
[Python][TensorFlow] 07. Logistic Regression/Classification의 소개 본문
Python/TensorFlow
[Python][TensorFlow] 07. Logistic Regression/Classification의 소개
homebody 2019. 6. 23. 19:13TensorFlow(Logistic Regression/Classification의 소개)
Binary(Multi-class) Classification
-
머신러닝을 하기 위해서는 0과 1로 나뉘어야한다.
-
ex)
-
시험 : 합격 / 불합격
-
스팸메일필터 : 스팸메일 / 정상메일
-
얼굴인식 : Real / Fake
-
x_train = [[1, 2], [2, 3], [3, 1], [4, 3], [5, 3], [6, 2]]
y_train = [[0], [0], [0], [1], [1], [1]]
Logistic VS Linear
-
Logistic을 적용하기 위한 데이터
-
두가지의 케이스로 구분선을 이용하여 구별을 할 수 있고 셀 수 있으며, 흩어져 있다.
-
ex) 신발 사이즈, 직원 수
-
-
Linear을 적용하기 위한 데이터
-
데이터들이 연속적으로 분포되어 있다. 새로운 데이터가 오더라도 인근하는 데이터가 온다.
-
ex) 시간, 무게, 높이
-
Logistic_Y = [[0], [0], [0], [1], [1], [1]]
Linear_Y = [828, 833, 918, 548, 545] # 숫자
Sigmoid(Logistic) function
g(z) 함수는 0과 1사이의 값을 가진다.
hypothesis = tf.sigmoid(z) # z = tf.matmul(X, Θ) + b
hypothesis = tf.div(1., 1. + tf.exp(z))
predicted = tf.cast(hypothesis > 0.5, dtype=tf.int32)
'Python > TensorFlow' 카테고리의 다른 글
[Python][TensorFlow] 06. 다중 선형 회귀 TensorFlow 구현(Multi-variable Linear Regression) (0) | 2019.06.22 |
---|---|
[Python][TensorFlow] 05. 다중 선형 회귀(Multi-variable Linear Regression) (0) | 2019.06.21 |
[Python][TensorFlow] 04. 선형회귀와 비용을 최소화 하는 방법 (0) | 2019.06.19 |
[Python][TensorFlow] 03. 선형회귀 TensorFlow로 구현 (0) | 2019.06.18 |
[Python][TensorFlow] 02. 간단한 선형 회귀(Simple Linear Regression) (0) | 2019.06.18 |
Comments