๋ณธ๋ฌธ ๋ฐ”๋กœ๊ฐ€๊ธฐ
๊ต์œก/์ŠคํŒŒ๋ฅดํƒ€

[TIL] ๋‚ด์ผ๋ฐฐ์›€์บ ํ”„ AI 9๊ธฐ - 20ํšŒ

by gomdeng 2025. 2. 3.

๐Ÿถ ํ•™์Šต ๋ฒ”์œ„

  • ์Šคํƒ ๋‹ค๋“œ๋ฐ˜ 
  • ์ž๊ฐ€ ๊ฒ€์ง„ ํ…Œ์ŠคํŠธ

 

๐Ÿถ ํ•™์Šต ๋‚ด์šฉ

โœจ ์Šคํƒ ๋‹ค๋“œ

โœ”๏ธ ๊ฐ€์„ค์‹ (Hypothesis)
  1. ์ˆ˜์‹
    - H(x) = wx + b (w: ๊ฐ€์ค‘์น˜/๋ชจ๋ธํŒŒ๋ผ๋ฏธํ„ฐ, x: ์ž…๋ ฅ๋ณ€์ˆ˜)

  2. ๊ฐœ๋…
    - ๋ชจ๋ธ์ด ๋ฐ์ดํ„ฐ๋กœ๋ถ€ํ„ฐ ํ•™์Šตํ•˜์—ฌ ๋งŒ๋“ค์–ด์ง„ ์˜ˆ์ธก ํ•จ์ˆ˜
    - ํ•จ์ˆ˜๋Š” ์ฃผ์–ด์ง„ ์ž…๋ ฅ ๋ฐ์ดํ„ฐ์— ๋Œ€ํ•ด ํŠน์ • ์ถœ๋ ฅ(์˜ˆ์ธก ๊ฒฐ๊ณผ)์„ ๊ณ„์‚ฐ
    - ํŒŒ๋ผ๋ฏธํ„ฐ๋“ค์„ ์กฐ์ •ํ•˜๋ฉด์„œ ํ•™์Šต ๋ฐ์ดํ„ฐ์— ๊ฐ€์žฅ ์ž˜ ๋งž๋„๋ก ๋ชจ๋ธ์„ ํ›ˆ๋ จํ•˜๋ฉฐ ๊ณ„์† ์—…๋ฐ์ดํŠธ

โœ”๏ธ ๊ฒฝ์‚ฌํ•˜๊ฐ•๋ฒ•(Gradient Descent)
  1. ๊ฐœ๋…
    - ํ•จ์ˆ˜์˜ ์ตœ์†Œ๊ฐ’์„ ์ฐพ๊ธฐ ์œ„ํ•ด ์‚ฌ์šฉ๋˜๋Š” ์ตœ์ ํ™” ์•Œ๊ณ ๋ฆฌ์ฆ˜
    - ๋น„์šฉ ํ•จ์ˆ˜(cost function) ๋˜๋Š” ์†์‹ค ํ•จ์ˆ˜(loss function)์˜ ์ตœ์†Œ๊ฐ’์„ ์ฐพ๊ธฐ ์œ„ํ•ด ์‚ฌ์šฉ
    - ๋จธ์‹  ๋Ÿฌ๋‹๊ณผ ๋”ฅ๋Ÿฌ๋‹ ๋ชจ๋ธ์—์„œ ํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ ์กฐ์ •ํ•˜๋Š” ๋ฐ ์‚ฌ์šฉ

  2. ์›๋ฆฌ
    1) ํ•จ์ˆ˜์˜ ๊ธฐ์šธ๊ธฐ(gradient)๋ฅผ ๊ณ„์‚ฐ
    2) ๊ธฐ์šธ๊ธฐ๊ฐ€ ๊ฐ€๋ฆฌํ‚ค๋Š” ๋ฐฉํ–ฅ(ํ•จ์ˆ˜๊ฐ’์ด ๊ฐ€์žฅ ๋น ๋ฅด๊ฒŒ ์ฆ๊ฐ€ํ•˜๋Š” ๋ฐฉํ–ฅ์˜ ๋ฐ˜๋Œ€ ๋ฐฉํ–ฅ)์œผ๋กœ ์ผ์ • ๊ฑฐ๋ฆฌ๋งŒํผ ์ด๋™
    3) ์ด ๊ณผ์ •์„ ๋ฐ˜๋ณตํ•˜๋ฉด์„œ ์ ์ฐจ์ ์œผ๋กœ ํ•จ์ˆ˜์˜ ์ตœ์†Œ๊ฐ’์— ๋„๋‹ฌ
    
  3. ๊ณผ์ •
    1) ์ดˆ๊ธฐ ํŒŒ๋ผ๋ฏธํ„ฐ ์„ ํƒ
    2) ๊ธฐ์šธ๊ธฐ ๊ณ„์‚ฐ (ํ˜„์žฌ ํŒŒ๋ผ๋ฏธํ„ฐ์—์„œ ๋น„์šฉ ํ•จ์ˆ˜์˜ ๊ธฐ์šธ๊ธฐ(๋ฏธ๋ถ„๊ฐ’)๋ฅผ ๊ณ„์‚ฐ)
    3) ํŒŒ๋ผ๋ฏธํ„ฐ ์—…๋ฐ์ดํŠธ
        > ๊ณ„์‚ฐ๋œ ๊ธฐ์šธ๊ธฐ์˜ ๋ฐ˜๋Œ€ ๋ฐฉํ–ฅ์œผ๋กœ ํŒŒ๋ผ๋ฏธํ„ฐ๋ฅผ ์—…๋ฐ์ดํŠธ
        > ์—…๋ฐ์ดํŠธ์˜ ํฌ๊ธฐ๋ฅผ ๊ฒฐ์ •ํ•˜๋Š” ๊ฒƒ์ด ํ•™์Šต๋ฅ (learning rate)
    4) ๋ฐ˜๋ณต
        > ์œ„์˜ ๋‹จ๊ณ„๋ฅผ ์†์‹ค ํ•จ์ˆ˜์˜ ๊ฐ’์ด ์ถฉ๋ถ„ํžˆ ๋‚ฎ์•„์งˆ ๋•Œ๊นŒ์ง€, ๋˜๋Š” ๋‹ค๋ฅธ ์ข…๋ฃŒ ์กฐ๊ฑด์„ ๋งŒ์กฑํ•  ๋•Œ๊นŒ์ง€ ๋ฐ˜๋ณต

โœ”๏ธ ํผ์…‰ํŠธ๋ก (Perceptron)
  1. ๊ฐœ๋…
    - ์ธ๊ณต์‹ ๊ฒฝ๋ง์˜ ๊ฐ€์žฅ ๊ธฐ๋ณธ์ ์ธ ํ˜•ํƒœ ์ค‘ ํ•˜๋‚˜
    - ๊ฐ„๋‹จํ•œ ์ด์ง„ ๋ถ„๋ฅ˜ ๋ฌธ์ œ๋ฅผ ํ•ด๊ฒฐํ•  ์ˆ˜ ์žˆ๋Š” ์•Œ๊ณ ๋ฆฌ์ฆ˜
    - ์ž…๋ ฅ์— ๊ฐ€์ค‘์น˜๋ฅผ ๊ณฑํ•œ ํ›„, ๊ทธ ํ•ฉ์„ ํ™œ์„ฑํ™” ํ•จ์ˆ˜์— ํ†ต๊ณผ์‹œ์ผœ ์ถœ๋ ฅ์„ ์ƒ์„ฑ

  2. ์•Œ๊ณ ๋ฆฌ์ฆ˜
    1) ์ดˆ๊ธฐํ™”
    2) ์˜ˆ์ธก
    3) ๊ฐ€์ค‘์น˜ ์—…๋ฐ์ดํŠธ

  3. ์ œํ•œ ์‚ฌํ•ญ
    - XOR ๋ฌธ์ œ์™€ ๊ฐ™์ด ์„ ํ˜•์ ์œผ๋กœ ๋ถ„๋ฆฌํ•  ์ˆ˜ ์—†๋Š” ๋ฐ์ดํ„ฐ ์…‹ ์ฒ˜๋ฆฌ ๋ถˆ๊ฐ€

โœ”๏ธ ๋‹ค์ธต ํผ์…‰ํŠธ๋ก (Multilayer Perceptron, MLP)
  1. ๊ฐœ๋…
    - ํผ์…‰ํŠธ๋ก ์„ ํ™•์žฅํ•œ ๊ตฌ์กฐ๋กœ, ์—ฌ๋Ÿฌ ๊ฐœ์˜ ์ธต๊ณผ ๋…ธ๋“œ(๋‰ด๋Ÿฐ)๋กœ ๊ตฌ์„ฑ๋œ ์ธ๊ณต ์‹ ๊ฒฝ๋ง
    - ๊ฐ ์ธต๋งˆ๋‹ค ์—ฌ๋Ÿฌ ๋‰ด๋Ÿฐ์ด ์žˆ์œผ๋ฉฐ, ๋‰ด๋Ÿฐ๋“ค์€ ์ „์ธต์˜ ์ถœ๋ ฅ์—์„œ ์ž…๋ ฅ์„ ๋ฐ›์•„ ์ฒ˜๋ฆฌ
    - ๋น„์„ ํ˜• ๋ฌธ์ œ๋ฅผ ํ•ด๊ฒฐํ•  ์ˆ˜ ์žˆ๊ฒŒ ํ•˜๋ฉฐ, ๋ณต์žกํ•œ ํŒจํ„ด ์ธ์‹๊ณผ ๋ถ„๋ฅ˜ ์ž‘์—…์— ํšจ๊ณผ์ 

  2. ๊ตฌ์กฐ
    - ์ž…๋ ฅ์ธต(Input Layer)
      > ์‹ค์ œ ์ž…๋ ฅ ๋ฐ์ดํ„ฐ๋ฅผ ๋ฐ›๋Š” ์ธต
    - ์€๋‹‰์ธต(Hidden Layers)
      > ์ž…๋ ฅ์ธต๊ณผ ์ถœ๋ ฅ์ธต ์‚ฌ์ด์— ์œ„์น˜ํ•˜๋ฉฐ, ํ•˜๋‚˜ ์ด์ƒ ์กด์žฌํ•  ์ˆ˜ ์žˆ์Œ
      > ์€๋‹‰์ธต์€ ๋ฐ์ดํ„ฐ์˜ ์ถ”์ƒ์ ์ธ ํŠน์ง•์„ ํ•™์Šต
      > ๊ฐ ๋…ธ๋“œ๋Š” ๊ฐ€์ค‘์น˜์™€ ๋ฐ”์ด์–ด์Šค๋ฅผ ํ†ตํ•ด ์ž…๋ ฅ์„ ์ฒ˜๋ฆฌ
    - ์ถœ๋ ฅ์ธต(Output Layer)
      > ์ตœ์ข… ์˜ˆ์ธก ๊ฒฐ๊ณผ๋ฅผ ์ƒ์„ฑํ•˜๋Š” ์ธต
      > ๋ถ„๋ฅ˜๋‚˜ ํšŒ๊ท€ ์ž‘์—…์˜ ๋ชฉ์ ์— ๋งž๊ฒŒ ์„ค์ •

  3. ํ•™์Šต ๊ณผ์ • (์ฃผ๋กœ ์—ญ์ „ํŒŒ ์•Œ๊ณ ๋ฆฌ์ฆ˜์„ ์‚ฌ์šฉํ•˜์—ฌ ์ง„ํ–‰)
    1) ์ „๋ฐฉํ–ฅ ์ „ํŒŒ(Forward Propagation)
      > ์ž…๋ ฅ ๋ฐ์ดํ„ฐ๊ฐ€ ๋„คํŠธ์›Œํฌ๋ฅผ ํ†ตํ•ด ์ „๋ฐฉํ–ฅ์œผ๋กœ ํ๋ฅด๋ฉฐ, ๊ฐ ์ธต์˜ ์ถœ๋ ฅ์„ ๊ณ„์‚ฐ
    2) ์†์‹ค ๊ณ„์‚ฐ(Loss Calculation)
      > ๋„คํŠธ์›Œํฌ์˜ ์ถœ๋ ฅ๊ณผ ์‹ค์ œ ๋ ˆ์ด๋ธ” ๊ฐ„์˜ ์˜ค์ฐจ(์†์‹ค)๋ฅผ ๊ณ„์‚ฐ
    3) ์—ญ์ „ํŒŒ(Backpropagation)
      > ์†์‹ค ํ•จ์ˆ˜์˜ ๊ทธ๋ž˜๋””์–ธํŠธ๋ฅผ ๊ณ„์‚ฐ
      > ์ด๋ฅผ ์‚ฌ์šฉํ•˜์—ฌ ๋„คํŠธ์›Œํฌ์˜ ๊ฐ€์ค‘์น˜์™€ ๋ฐ”์ด์–ด์Šค๋ฅผ ์—…๋ฐ์ดํŠธ
      > ์ด ๊ณผ์ •์€ ์ถœ๋ ฅ์ธต์—์„œ๋ถ€ํ„ฐ ์‹œ์ž‘ํ•˜์—ฌ ์ž…๋ ฅ์ธต ๋ฐฉํ–ฅ์œผ๋กœ ์ง„ํ–‰
    4) ๊ฐ€์ค‘์น˜ ์—…๋ฐ์ดํŠธ(Weight Update)
      > ๊ณ„์‚ฐ๋œ ๊ทธ๋ž˜๋””์–ธํŠธ๋ฅผ ์‚ฌ์šฉํ•˜์—ฌ ๊ฐ ๋…ธ๋“œ์˜ ๊ฐ€์ค‘์น˜์™€ ๋ฐ”์ด์–ด์Šค๋ฅผ ์กฐ์ •

  4. ์‘์šฉ
    - ์Œ์„ฑ ์ธ์‹, ์ด๋ฏธ์ง€ ์ธ์‹, ๊ธˆ์œต ์˜ˆ์ธก ๋“ฑ ๋‹ค์–‘ํ•œ ๋ถ„์•ผ์—์„œ ํ™œ์šฉ
    - ํŒจํ„ด์„ ์ธ์‹ํ•˜๊ณ  ๋ถ„๋ฅ˜ํ•˜๋Š” ๋ฐ ๊ฐ•๋ ฅ
    - ๋ณต์žกํ•œ ๋น„์„ ํ˜• ๊ด€๊ณ„ ๋ชจ๋ธ๋ง ๊ฐ€๋Šฅ

 

 

๐Ÿถ ๋А๋‚€์ 

1. ๋‚œ ๊ธ€๋ €๋‹ค..