Nevroni in renormalizacija

Aktualno-politična novica
4. 4. 2018 - 7.05

Nevronske mreže so popularen algoritem za izdelavo programov za prepoznavanje vzorcev, pa naj gre za zvok, slike, podatke v bolj neobdelani naravi ali kaj drugega. Moč algoritma je v tem, da se lahko program nauči izvajati nove načine reševanja problemov, ki si jih ni zamislil njegov avtor. Tako smo bili v zadnjih letih priča uspehu računalniških programov, ki znajo bolje od ljudi igrati zahtevno igro go. Ali pa nove generacije šahovskih programov, ki so v le nekaj urah strojnega učenja iz nič uspeli reproducirati velik del šahovske teorije.

Omenjene aplikacije se nanašajo na prepoznavanje vzorcev - slik, optimalne poteze oziroma strategije - in zaradi tega so nevronske mreže primerne tudi za rabo v znanosti. Na primer: podatke ob spremljanju trka protonov v Cernu se da razumeti kot sliko, na podlagi mnogih slik pa lahko program naučimo ločevanja različnih procesov in iskanja anomalij. Nova raziskava pa se namesto na vzorce osredotoča na iskanje relevantnih fizikalnih količin v modelih.

Skupina raziskovalk in raziskovalcev iz Anglije in Švice si je za izziv zastavila uporabiti nevronsko mrežo neposredno pri fizikalnem procesu razumevanja nekega sistema. To je ločevanje sistema na relevantne in nerelevantne količine, pri čemer se moramo navadno zanašati na intuicijo in kakšen posrečen uvid. V preprostih sistemih to dvoje zadostuje za rešitev, v bolj kompliciranih pa hitro naletimo na težave. Brez identifikacije relevantnih količin se ne moremo zanašati na mnoga močna teoretična orodja za nadaljnjo obravnavo sistema, kot je renormalizacijska grupa.

Identifikacija relevantnih količin z nevronsko mrežo poteka v dveh korakih. Sistem program razdeli na partikularen podsistem in njegovo okolico. Nato algoritem poskusi oceniti vzajemno informacijo med podsistemom in okolico. To je pogojna verjetnost, da sistem najdemo v določenem stanju, če je v določenem stanju njegova okolica. S tem predpostavimo, da se relevantne količine kažejo kot pomembne na velikih skalah.

Algoritem se na znanem sistemu tako nauči maksimizirati vzajemno informacijo, nato pa lahko s tem “znanjem”, rečeno v narekovajih, poskusi obravnavati drug, še ne viden sistem. Proces učenja so preverili na dveh znanih, a ne povsem trivialnih fizikalnih modelih: Isingovem modelu in modelu dimerov. V obeh primerih je s tem algoritmom učena nevronska mreža uspešno reproducirala relevantne količine.

Raziskovalcem je uspelo tudi pokazati, da povsem generična nevronska mreža istega ni zmožna, torej je postopek maksimizacije vzajemne informacije pomemben za fizikalno smiselnost rezultatov. Kljub temu, da gre v neki meri za black box metodo, pristopa ne gre takoj odpisati, zaključujejo avtorji.

Spisal Martin.

Članek je bil objevljen v reviji Nature Physics (doi:10.1038/s41567-018-0081-4), na voljo pa je na spletnem arhivu preprintov arXiv (arXiv:1704.06279).

Aktualno-politične oznake: 

facebook twitter rss

Prazen radio ne stoji pokonci! Podpri RŠ in omogoči produkcijo alternativnih, kritičnih in neodvisnih vsebin.

Prikaži Komentarje

Komentiraj

Plain text

  • No HTML tags allowed.
  • [[nid:123]] - Insert a node content
  • Samodejen prelom odstavkov in vrstic.
  • Spletni in e-mail naslovi bodo samodejno pretvorjeni v povezavo.

Z objavo komentarja potrjujete, da se strinjate s pravili komentiranja.

randomness