๐ถ ํ์ต ๋ฒ์
- ์คํ ๋ค๋๋ฐ
- ์๊ฐ ๊ฒ์ง ํ
์คํธ
๐ถ ํ์ต ๋ด์ฉ
โจ ์คํ ๋ค๋
โ๏ธ ๊ฐ์ค์ (Hypothesis)
1. ์์
- H(x) = wx + b (w: ๊ฐ์ค์น/๋ชจ๋ธํ๋ผ๋ฏธํฐ, x: ์
๋ ฅ๋ณ์)
2. ๊ฐ๋
- ๋ชจ๋ธ์ด ๋ฐ์ดํฐ๋ก๋ถํฐ ํ์ตํ์ฌ ๋ง๋ค์ด์ง ์์ธก ํจ์
- ํจ์๋ ์ฃผ์ด์ง ์
๋ ฅ ๋ฐ์ดํฐ์ ๋ํด ํน์ ์ถ๋ ฅ(์์ธก ๊ฒฐ๊ณผ)์ ๊ณ์ฐ
- ํ๋ผ๋ฏธํฐ๋ค์ ์กฐ์ ํ๋ฉด์ ํ์ต ๋ฐ์ดํฐ์ ๊ฐ์ฅ ์ ๋ง๋๋ก ๋ชจ๋ธ์ ํ๋ จํ๋ฉฐ ๊ณ์ ์
๋ฐ์ดํธ
โ๏ธ ๊ฒฝ์ฌํ๊ฐ๋ฒ(Gradient Descent)
1. ๊ฐ๋
- ํจ์์ ์ต์๊ฐ์ ์ฐพ๊ธฐ ์ํด ์ฌ์ฉ๋๋ ์ต์ ํ ์๊ณ ๋ฆฌ์ฆ
- ๋น์ฉ ํจ์(cost function) ๋๋ ์์ค ํจ์(loss function)์ ์ต์๊ฐ์ ์ฐพ๊ธฐ ์ํด ์ฌ์ฉ
- ๋จธ์ ๋ฌ๋๊ณผ ๋ฅ๋ฌ๋ ๋ชจ๋ธ์์ ํ๋ผ๋ฏธํฐ๋ฅผ ์กฐ์ ํ๋ ๋ฐ ์ฌ์ฉ
2. ์๋ฆฌ
1) ํจ์์ ๊ธฐ์ธ๊ธฐ(gradient)๋ฅผ ๊ณ์ฐ
2) ๊ธฐ์ธ๊ธฐ๊ฐ ๊ฐ๋ฆฌํค๋ ๋ฐฉํฅ(ํจ์๊ฐ์ด ๊ฐ์ฅ ๋น ๋ฅด๊ฒ ์ฆ๊ฐํ๋ ๋ฐฉํฅ์ ๋ฐ๋ ๋ฐฉํฅ)์ผ๋ก ์ผ์ ๊ฑฐ๋ฆฌ๋งํผ ์ด๋
3) ์ด ๊ณผ์ ์ ๋ฐ๋ณตํ๋ฉด์ ์ ์ฐจ์ ์ผ๋ก ํจ์์ ์ต์๊ฐ์ ๋๋ฌ
3. ๊ณผ์
1) ์ด๊ธฐ ํ๋ผ๋ฏธํฐ ์ ํ
2) ๊ธฐ์ธ๊ธฐ ๊ณ์ฐ (ํ์ฌ ํ๋ผ๋ฏธํฐ์์ ๋น์ฉ ํจ์์ ๊ธฐ์ธ๊ธฐ(๋ฏธ๋ถ๊ฐ)๋ฅผ ๊ณ์ฐ)
3) ํ๋ผ๋ฏธํฐ ์
๋ฐ์ดํธ
> ๊ณ์ฐ๋ ๊ธฐ์ธ๊ธฐ์ ๋ฐ๋ ๋ฐฉํฅ์ผ๋ก ํ๋ผ๋ฏธํฐ๋ฅผ ์
๋ฐ์ดํธ
> ์
๋ฐ์ดํธ์ ํฌ๊ธฐ๋ฅผ ๊ฒฐ์ ํ๋ ๊ฒ์ด ํ์ต๋ฅ (learning rate)
4) ๋ฐ๋ณต
> ์์ ๋จ๊ณ๋ฅผ ์์ค ํจ์์ ๊ฐ์ด ์ถฉ๋ถํ ๋ฎ์์ง ๋๊น์ง, ๋๋ ๋ค๋ฅธ ์ข
๋ฃ ์กฐ๊ฑด์ ๋ง์กฑํ ๋๊น์ง ๋ฐ๋ณต
โ๏ธ ํผ์
ํธ๋ก (Perceptron)
1. ๊ฐ๋
- ์ธ๊ณต์ ๊ฒฝ๋ง์ ๊ฐ์ฅ ๊ธฐ๋ณธ์ ์ธ ํํ ์ค ํ๋
- ๊ฐ๋จํ ์ด์ง ๋ถ๋ฅ ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ ์ ์๋ ์๊ณ ๋ฆฌ์ฆ
- ์
๋ ฅ์ ๊ฐ์ค์น๋ฅผ ๊ณฑํ ํ, ๊ทธ ํฉ์ ํ์ฑํ ํจ์์ ํต๊ณผ์์ผ ์ถ๋ ฅ์ ์์ฑ
2. ์๊ณ ๋ฆฌ์ฆ
1) ์ด๊ธฐํ
2) ์์ธก
3) ๊ฐ์ค์น ์
๋ฐ์ดํธ
3. ์ ํ ์ฌํญ
- XOR ๋ฌธ์ ์ ๊ฐ์ด ์ ํ์ ์ผ๋ก ๋ถ๋ฆฌํ ์ ์๋ ๋ฐ์ดํฐ ์
์ฒ๋ฆฌ ๋ถ๊ฐ
โ๏ธ ๋ค์ธต ํผ์
ํธ๋ก (Multilayer Perceptron, MLP)
1. ๊ฐ๋
- ํผ์
ํธ๋ก ์ ํ์ฅํ ๊ตฌ์กฐ๋ก, ์ฌ๋ฌ ๊ฐ์ ์ธต๊ณผ ๋
ธ๋(๋ด๋ฐ)๋ก ๊ตฌ์ฑ๋ ์ธ๊ณต ์ ๊ฒฝ๋ง
- ๊ฐ ์ธต๋ง๋ค ์ฌ๋ฌ ๋ด๋ฐ์ด ์์ผ๋ฉฐ, ๋ด๋ฐ๋ค์ ์ ์ธต์ ์ถ๋ ฅ์์ ์
๋ ฅ์ ๋ฐ์ ์ฒ๋ฆฌ
- ๋น์ ํ ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ ์ ์๊ฒ ํ๋ฉฐ, ๋ณต์กํ ํจํด ์ธ์๊ณผ ๋ถ๋ฅ ์์
์ ํจ๊ณผ์
2. ๊ตฌ์กฐ
- ์
๋ ฅ์ธต(Input Layer)
> ์ค์ ์
๋ ฅ ๋ฐ์ดํฐ๋ฅผ ๋ฐ๋ ์ธต
- ์๋์ธต(Hidden Layers)
> ์
๋ ฅ์ธต๊ณผ ์ถ๋ ฅ์ธต ์ฌ์ด์ ์์นํ๋ฉฐ, ํ๋ ์ด์ ์กด์ฌํ ์ ์์
> ์๋์ธต์ ๋ฐ์ดํฐ์ ์ถ์์ ์ธ ํน์ง์ ํ์ต
> ๊ฐ ๋
ธ๋๋ ๊ฐ์ค์น์ ๋ฐ์ด์ด์ค๋ฅผ ํตํด ์
๋ ฅ์ ์ฒ๋ฆฌ
- ์ถ๋ ฅ์ธต(Output Layer)
> ์ต์ข
์์ธก ๊ฒฐ๊ณผ๋ฅผ ์์ฑํ๋ ์ธต
> ๋ถ๋ฅ๋ ํ๊ท ์์
์ ๋ชฉ์ ์ ๋ง๊ฒ ์ค์
3. ํ์ต ๊ณผ์ (์ฃผ๋ก ์ญ์ ํ ์๊ณ ๋ฆฌ์ฆ์ ์ฌ์ฉํ์ฌ ์งํ)
1) ์ ๋ฐฉํฅ ์ ํ(Forward Propagation)
> ์
๋ ฅ ๋ฐ์ดํฐ๊ฐ ๋คํธ์ํฌ๋ฅผ ํตํด ์ ๋ฐฉํฅ์ผ๋ก ํ๋ฅด๋ฉฐ, ๊ฐ ์ธต์ ์ถ๋ ฅ์ ๊ณ์ฐ
2) ์์ค ๊ณ์ฐ(Loss Calculation)
> ๋คํธ์ํฌ์ ์ถ๋ ฅ๊ณผ ์ค์ ๋ ์ด๋ธ ๊ฐ์ ์ค์ฐจ(์์ค)๋ฅผ ๊ณ์ฐ
3) ์ญ์ ํ(Backpropagation)
> ์์ค ํจ์์ ๊ทธ๋๋์ธํธ๋ฅผ ๊ณ์ฐ
> ์ด๋ฅผ ์ฌ์ฉํ์ฌ ๋คํธ์ํฌ์ ๊ฐ์ค์น์ ๋ฐ์ด์ด์ค๋ฅผ ์
๋ฐ์ดํธ
> ์ด ๊ณผ์ ์ ์ถ๋ ฅ์ธต์์๋ถํฐ ์์ํ์ฌ ์
๋ ฅ์ธต ๋ฐฉํฅ์ผ๋ก ์งํ
4) ๊ฐ์ค์น ์
๋ฐ์ดํธ(Weight Update)
> ๊ณ์ฐ๋ ๊ทธ๋๋์ธํธ๋ฅผ ์ฌ์ฉํ์ฌ ๊ฐ ๋
ธ๋์ ๊ฐ์ค์น์ ๋ฐ์ด์ด์ค๋ฅผ ์กฐ์
4. ์์ฉ
- ์์ฑ ์ธ์, ์ด๋ฏธ์ง ์ธ์, ๊ธ์ต ์์ธก ๋ฑ ๋ค์ํ ๋ถ์ผ์์ ํ์ฉ
- ํจํด์ ์ธ์ํ๊ณ ๋ถ๋ฅํ๋ ๋ฐ ๊ฐ๋ ฅ
- ๋ณต์กํ ๋น์ ํ ๊ด๊ณ ๋ชจ๋ธ๋ง ๊ฐ๋ฅ
๐ถ ๋๋์
1. ๋ ๊ธ๋ ๋ค..