일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
Tags
- 텐서플로우
- Language Intelligence
- server
- Kali
- TensorFlow
- 설치
- vue
- 리눅스
- linux
- ML
- Python 기초
- Visual Intelligence
- 칼리
- 관리
- 선형회귀
- representation learning
- vmware
- Network
- vuejs
- centOS
- Machine Learning
- Windows
- 설정
- Python
- python 설치
- 운영체제
- 시퀸스 자료형
- xshell
- 가상머신
- 머신러닝
Archives
- Today
- Total
homebody's blog
[Python][TensorFlow] 04. 선형회귀와 비용을 최소화 하는 방법 본문
TensorFlow(Linear Regression and How to minimize cost)
How to minimize cost?
-
cost function을 그래프로 그려보면 2차 함수 그래프 처럼 나온다.
-
여기서 최소값을 찾으면 된다.
-
Gradient descent algorithm(경사하강법, 경사하강알고리즘)
-
경사를 따라 내려가면서 최저점을 찾도록 설계된 알고리즘
-
Cost가 최소화가 되는 W, b를 찾는다.
-
변수가 1개나 2개일 때 뿐만 아니라 여러 개일 때도 사용가능하다.
-
동작 방식
-
추정을 통해서 W, b를 정한다. 랜덤도 가능
-
W, b값을 줄어들 수 있도록 조금씩 수정한다.
-
W, b 값을 지속적으로 업데이트할 때 기울기값을 구해서 cost가 최소화 되는 방향으로 업데이트
-
이 과정을 최소점에 도달했다고 판단될 때까지 반복한다.
-
-
Formal definition
- 알파값은 여기서 learning rate라고 불린다.
- 알파값에 따라 W값이 변화하는 정도가 달라진다.
- 경사하강법은 3차원 그래프에서 local minimum이 여러 개 존재할 때 시작 위치에 따라서 최소값이 달라질 수 있으므로 항상 전체의 최소값에 도달한다고는 보장할 수 없다.
-
'Python > TensorFlow' 카테고리의 다른 글
[Python][TensorFlow] 06. 다중 선형 회귀 TensorFlow 구현(Multi-variable Linear Regression) (0) | 2019.06.22 |
---|---|
[Python][TensorFlow] 05. 다중 선형 회귀(Multi-variable Linear Regression) (0) | 2019.06.21 |
[Python][TensorFlow] 03. 선형회귀 TensorFlow로 구현 (0) | 2019.06.18 |
[Python][TensorFlow] 02. 간단한 선형 회귀(Simple Linear Regression) (0) | 2019.06.18 |
[Python][TensorFlow] 01. basic ML의 용어와 개념 설명 (0) | 2019.06.18 |
Comments