Seminar za računarstvo i primenjenu matematiku, 12. decembar 2023.

Naredni sastanak Seminara biće održan u utorak, 12. decembra 2023, u ogranku MI SANU u Nišu (ul. Pariske komune bb) sa početkom u 14.15. U pitanju je  zajednički sastanak sa Seminarom Odlučivanje - teorija, tehnologije i praksa.

 
Predavač: Predrag Stanimirović, Prirodno-matematički fakultet, Univerzitet u Nišu
 
Naslov predavanja: REKURENTNE NEURONSKE MREŽE U NUMERIČKOJ LINEARNOJ ALGEBRI
 
Apstrakt: Rekurentne neuronske mreže (RNN) dozvoljavaju da izlaz iz nekih
čvorova utiče na naknadne vrednosti ulaza istih čvorova. U predavanju se razmatraju RNN posvećene pronalaženju nula nekih matričnih jednačina ili minimiziranju nelinearnih funkcija. Ovakvi RNN modeli predstavljaju dinamičke sisteme bazirane na nelinearnoj optimizaciji. Mreže za optimizaciju se mogu podeliti u dve klase:

  • Gradijentne neuronske mreže (GNN) i
  • Zhang neuronske mreže (ZNN).

ZNN dizajn je predložen 2001. godine i intenzivno se koristi u rešavanju različitih vremenski promenljivih problema. Dinamika ZNN modela proizilazi iz izbora odgovarajuće funkcije praćenja grešaka (error function), koja je poznata kao Zhang funkcija (Zf). Prikazane su neke specifične ZF koje su rezultat primene nelinearnih metoda optimizacije. Istražuje se konvergencija ZNN dinamičkih sistema namenjenih rešavanju vremenski promenljivih matričnih i vektorskih jednačina i izračunavanju uopštenih inverza. Predstavljeni su i analizirani GNN dinamički sistemi namenjeni rešavanju nekih matričnih jednačina i izračunavanju uopštenih inverza konstantnih matrica. Analizira se povezanost GNN i ZNN dinamičkih sistema sa metodama nelinearne optimizacije.

Napomena: Registraciona forma za učešće na Seminaru je dostupna na linku:
https://miteam.mi.sanu.ac.rs/call/wnz6oyxsQsy29LfJA/MjQ__eH607WeAL9X7IFtUI98xdQQgVkp-ljiEKPPfXr

Ukoliko želite samo da pratite predavanje bez mogućnosti aktivnog učešća, prenos je dostupan na linku:
https://miteam.mi.sanu.ac.rs/asset/YoqHWKALRkRTbK9So



Nažalost nije moguće ostaviti komentar.