automa c genera on control using ar ficial neural networks
play

Automa'c Genera'on Control Using Ar'ficial Neural Networks - PowerPoint PPT Presentation

Automa'c Genera'on Control Using Ar'ficial Neural Networks By- Harkirat Singh Choong Introduc'on What is Automa'c Genera'on Control (AGC)? There is


  1. Automa'c ¡Genera'on ¡Control ¡ Using ¡Ar'ficial ¡Neural ¡Networks ¡ By-­‑ ¡Harkirat ¡Singh ¡Choong ¡

  2. Introduc'on ¡

  3. What ¡is ¡Automa'c ¡Genera'on ¡Control ¡ (AGC)? ¡ • There ¡is ¡mismatch ¡between ¡generated ¡power ¡and ¡load ¡demand. ¡ • Imbalance ¡in ¡Real ¡power ¡ à ¡frequency ¡devia'ons ¡ ¡and ¡Reac've ¡power à ¡voltage ¡devia'ons ¡ • Load ¡frequency ¡and ¡excita'on ¡voltage ¡control ¡are ¡non ¡ ¡interac've ¡ and ¡can ¡be ¡modeled ¡independently. ¡ • Excita'on ¡voltage ¡control ¡is ¡fast ¡ac'ng ¡('me ¡constant ¡is ¡of ¡ generator ¡field ¡only) ¡while ¡frequency ¡control ¡is ¡slow ¡ac'ng ¡('me ¡ constant ¡is ¡of ¡turbine ¡and ¡generator ¡moment ¡of ¡iner'a). ¡

  4. • AGC ¡operates ¡to ¡balance ¡the ¡genera'on ¡and ¡ load ¡in ¡power ¡systems ¡at ¡minimum ¡cost. ¡ • Performance ¡of ¡AGC ¡depends ¡on ¡how ¡quickly ¡ and ¡effec'vely ¡genera'ng ¡units ¡respond ¡to ¡its ¡ commands. ¡ • Since ¡frequency ¡ ∝ ¡speed ¡of ¡generator, ¡ problem ¡of ¡frequency ¡control ¡can ¡be ¡ converted ¡to ¡speed ¡control ¡problem ¡of ¡the ¡ generator. ¡(governing ¡mechanism ¡in ¡fig.) ¡

  5. Block ¡diagram ¡

  6. Propor'onal ¡plus ¡Integral ¡Control ¡ ¡ ¡

  7. Func'onal ¡diagram ¡of ¡a ¡typical ¡AGC ¡ system ¡

  8. Neural ¡Networks ¡ ● Ar'ficial ¡ neural ¡ network ¡ (ANN) ¡ is ¡ a ¡ machine ¡ learning ¡ approach ¡that ¡models ¡human ¡brain ¡and ¡consists ¡of ¡a ¡number ¡ of ¡ar'ficial ¡neurons. ¡ ● Neuron ¡ in ¡ ANNs ¡ tend ¡ to ¡ have ¡ fewer ¡ connec'ons ¡ than ¡ biological ¡neurons. ¡ ● Each ¡neuron ¡in ¡ANN ¡receives ¡a ¡number ¡of ¡inputs. ¡ ¡ ● An ¡ac'va'on ¡func'on ¡is ¡applied ¡to ¡these ¡inputs ¡which ¡results ¡ in ¡ac'va'on ¡level ¡of ¡neuron ¡(output ¡value ¡of ¡the ¡neuron). ¡ ● Knowledge ¡ about ¡ the ¡ learning ¡ task ¡ is ¡ given ¡ in ¡ the ¡ form ¡ of ¡ examples ¡called ¡training ¡examples. ¡

  9. ● An ¡Ar'ficial ¡Neural ¡Network ¡is ¡specified ¡by: ¡ − neuron ¡model: ¡the ¡informa'on ¡processing ¡unit ¡of ¡the ¡NN, ¡ − an ¡ architecture: ¡ a ¡ set ¡ of ¡ neurons ¡ and ¡ links ¡ connec'ng ¡ neurons. ¡Each ¡link ¡has ¡a ¡weight, ¡ − a ¡ learning ¡ algorithm: ¡ used ¡ for ¡ training ¡ the ¡ NN ¡ by ¡ modifying ¡ the ¡ weights ¡ in ¡ order ¡ to ¡ model ¡ a ¡ par'cular ¡ learning ¡task ¡correctly ¡on ¡the ¡training ¡examples. ¡ ● The ¡aim ¡is ¡to ¡obtain ¡a ¡NN ¡that ¡is ¡trained ¡and ¡generalizes ¡well. ¡ ● It ¡should ¡behaves ¡correctly ¡on ¡new ¡instances ¡of ¡the ¡learning ¡ task. ¡

  10. Neuron ¡ ● The ¡neuron ¡is ¡the ¡basic ¡informa'on ¡processing ¡unit ¡of ¡a ¡ NN. ¡It ¡consists ¡of: ¡ 1 A ¡set ¡of ¡links, ¡describing ¡the ¡neuron ¡inputs, ¡with ¡ weights ¡ ¡W 1 , ¡W 2 , ¡…, ¡W m ¡ 2 An ¡adder ¡func'on ¡(linear ¡combiner) ¡for ¡compu'ng ¡the ¡ weighted ¡sum ¡of ¡the ¡inputs: ¡ ¡u ¡= ¡ ∑ ¡ ¡w j ¡x j ¡ 3 Ac'va'on ¡func'on ¡ φ for ¡limi'ng ¡the ¡amplitude ¡of ¡the ¡ neuron ¡output. ¡ ¡ ¡ ¡ ¡y= ¡ φ ( u+b) ¡, ¡‘b’ ¡is ¡the ¡bias. ¡

  11. The ¡Neuron ¡Diagram ¡ Bias b x 1 w 1 Activation Induced function Field Output ( − ) v ϕ ∑ y x 2 w 2 Input values   Summing function x m w m weights

  12. Bias ¡of ¡a ¡Neuron ¡ ¡ ● The ¡bias ¡ b ¡has ¡the ¡effect ¡of ¡applying ¡a ¡transforma'on ¡to ¡ the ¡weighted ¡sum ¡ u ¡ v ¡= ¡u ¡+ ¡b ¡ ● The ¡bias ¡is ¡an ¡external ¡parameter ¡of ¡the ¡neuron. ¡It ¡can ¡be ¡ modeled ¡by ¡adding ¡an ¡extra ¡input. ¡ ● v ¡is ¡called ¡ induced ¡field ¡of ¡the ¡neuron ¡ ¡ v= ∑ ¡ ¡w j ¡x j, ¡ ¡, ¡J à ¡0 ¡…. ¡M ¡ ¡ ¡w o ¡ ¡= ¡b ¡

  13. Neuron ¡Models ¡ ● The ¡choice ¡of ¡ac'va'on ¡func'on ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡determines ¡the ¡ ϕ neuron ¡model. ¡ ¡ Examples: ¡ a if v c < ⎧ ( v ) ● step ¡func'on: ¡ ϕ = ⎨ b if v c > ⎩ a if v c < ⎧ ● ramp ¡func'on: ¡ ⎪ ( v ) b if v d ϕ = > ⎨ ⎪ a (( v c )( b a ) /( d c )) otherwise + − − − ⎩ ● sigmoid ¡func'on ¡with ¡z,x,y ¡parameters ¡ ¡ 1 ( v ) z ϕ = + ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ 1 exp( xv y ) + − +

  14. Step ¡Func'on ¡ b a c

  15. Ramp ¡Func'on ¡ b a c d

  16. Sigmoid ¡func'on ¡

  17. Network ¡Architectures ¡ ¡ ● Three ¡different ¡classes ¡of ¡network ¡architectures: ¡ − single-­‑layer ¡feed-­‑forward ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ − mul'-­‑layer ¡ ¡ ¡feed-­‑forward ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ ¡ − recurrent ¡ ● The ¡architecture ¡of ¡a ¡neural ¡network ¡is ¡linked ¡with ¡the ¡ learning ¡algorithm ¡used ¡to ¡train ¡

  18. Single ¡Layer ¡Feed-­‑forward ¡ ¡ Input ¡layer ¡ Output ¡layer ¡ of ¡ of ¡ source ¡nodes ¡ neurons ¡

  19. Perceptron: ¡Neuron ¡Model ¡ ¡ (Special ¡form ¡of ¡single ¡layer ¡feed ¡forward) ¡ − The ¡perceptron ¡was ¡first ¡proposed ¡by ¡Rosenblad ¡(1958) ¡is ¡a ¡simple ¡ neuron ¡that ¡is ¡used ¡to ¡classify ¡its ¡input ¡into ¡one ¡of ¡two ¡categories. ¡ ¡ − A ¡perceptron ¡ ¡uses ¡a ¡step ¡func'on ¡that ¡returns ¡+1 ¡if ¡weighted ¡sum ¡ of ¡its ¡input ¡ ≥ ¡0 ¡and ¡-­‑1 ¡otherwise ¡ 1 if v 0 + ≥ ⎧ ( v ) ϕ = ⎨ 1 if v 0 − < ⎩

  20. Perceptron ¡for ¡Classifica'on ¡ ¡ ● The ¡perceptron ¡is ¡used ¡for ¡binary ¡classifica'on. ¡ ● First ¡train ¡a ¡perceptron ¡for ¡a ¡classifica'on ¡task. ¡ − Find ¡suitable ¡weights ¡in ¡such ¡a ¡way ¡that ¡the ¡training ¡examples ¡are ¡ correctly ¡classified. ¡ − Geometrically ¡try ¡to ¡find ¡a ¡hyper-­‑plane ¡that ¡separates ¡the ¡examples ¡ of ¡the ¡two ¡classes. ¡ ● The ¡perceptron ¡can ¡only ¡model ¡linearly ¡separable ¡classes. ¡ ¡ ¡ ● Given ¡training ¡examples ¡of ¡classes ¡C 1 , ¡C 2 ¡ ¡ train ¡the ¡perceptron ¡in ¡such ¡a ¡ way ¡that ¡: ¡ − If ¡the ¡output ¡of ¡the ¡perceptron ¡is ¡+1 ¡then ¡the ¡input ¡is ¡assigned ¡to ¡ class ¡C 1 ¡ − If ¡the ¡output ¡ ¡is ¡-­‑1 ¡then ¡the ¡input ¡is ¡assigned ¡to ¡C 22 ¡

  21. Boolean ¡func'on ¡OR ¡– ¡Linearly ¡separable ¡ X 1 1 true true false true 0 1 X 2

  22. Learning ¡Process ¡for ¡Perceptron ¡ ● Ini'ally ¡assign ¡random ¡weights ¡to ¡inputs ¡between ¡-­‑0.5 ¡and ¡+0.5 ¡ ● Training ¡data ¡is ¡presented ¡to ¡perceptron ¡and ¡its ¡output ¡is ¡observed. ¡ ● If ¡ output ¡ is ¡ incorrect, ¡ the ¡ weights ¡ are ¡ adjusted ¡ accordingly ¡ using ¡ following ¡formula. ¡ ¡ ¡ ¡ w i ¡ ¡ ← ¡ w i ¡ + ¡ (a* ¡ x i ¡ *e), ¡ where ¡ ‘e’ ¡ is ¡ error ¡ produced ¡ ¡and ¡‘a’ ¡(-­‑1 ¡ < ¡a ¡ < ¡1) ¡is ¡learning ¡rate ¡ − ‘a’ ¡is ¡defined ¡as ¡0 ¡if ¡output ¡is ¡correct, ¡it ¡is ¡+ve, ¡if ¡output ¡is ¡too ¡low ¡ and ¡–ve, ¡if ¡output ¡is ¡too ¡high. ¡ − Once ¡the ¡modifica'on ¡to ¡weights ¡has ¡taken ¡place, ¡the ¡next ¡piece ¡ of ¡training ¡data ¡is ¡used ¡in ¡the ¡same ¡way. ¡ − Once ¡all ¡the ¡training ¡data ¡have ¡been ¡applied, ¡the ¡process ¡starts ¡ again ¡un'l ¡all ¡the ¡weights ¡are ¡correct ¡and ¡all ¡errors ¡are ¡zero. ¡ − Each ¡itera'on ¡of ¡this ¡process ¡is ¡known ¡as ¡an ¡epoch. ¡

Download Presentation
Download Policy: The content available on the website is offered to you 'AS IS' for your personal information and use only. It cannot be commercialized, licensed, or distributed on other websites without prior consent from the author. To download a presentation, simply click this link. If you encounter any difficulties during the download process, it's possible that the publisher has removed the file from their server.

Recommend


More recommend