Riječ informacija često se slobodno uzima u značenju podataka. Pretpostavljamo da datoteka veličine 1 MB sadrži 1 MB podataka. Međutim, iz perspektive teorije informacija, podaci nisu jednaki informacijama. U teoriji informacija informacije se matematički definiraju kao količina nesigurnosti ili entropije. Bacanje kocke ima više nesigurnosti od bacanja novčića, te stoga ima više informacija za prenijeti.
Nekomprimirana bitmapska slika ima puno prostorne redundancije u vrijednostima piksela. Drugim riječima, vrijednost piksela može se koristiti za predviđanje vrijednosti susjednih piksela. Tehnike kompresije slike koriste ovu suvišnost. Stoga je komprimirana slika bliža matematičkoj definiciji informacije. Ali MP3 pjesma može sadržavati ponavljanja refrena. Takođe, nakon što smo pjesmu čuli i dobro je zapamtili, ona pruža manje informacija kada je sljedeći put čujemo.
Stoga bi frazu “jedinice podataka” trebalo tumačiti kao “jedinice podataka / pohrane / memorije”.
Američko ministarstvo energetike objavilo je da će se superkompjuter Summit koristiti za pokušaj pronalaska lijeka za bolest Covid-19. Da pojasnimo: Naziv korona virusa koji uzrokuje Covid-19 je SARS-CoV-2.
Summit je mašina od 10 MW izgrađena sa 4.608 čvorova za obradu. Svaki čvor sadrži 2x Power9 CPU na 3.07GHz i šest Nvidia Volta V100 GPU-a. To je najbrži superračunalo na Zemlji, sa demonstriranim performansama od 148,6 petaFLOPS u Linpacku i vrhunskim performansama od preko 200 petaFLOPS.
Razlog zbog kojeg DOE prisvaja najbrže svjetske superračunalo za projekat je taj što je pokušaj pronalaženja metoda inhibiranja ili napada virusa računski prezahtjevan problem. IBM piše:
Kada pokušavaju razumjeti nove biološke spojeve, poput virusa, istraživači u mokrim laboratorijima razvijaju mikroorganizam i vide kako reagira u stvarnom životu na uvođenje novih spojeva, ali ovo može biti spor proces bez računala koji mogu izvoditi digitalne simulacije da suzi raspon potencijalnih varijabli, ali čak i tada postoje izazovi. Kompjuterske simulacije mogu ispitati kako različite varijable reagiraju s različitim virusima, ali kada se svaka od tih pojedinačnih varijabli može sastojati od milijuna ili čak milijardi jedinstvenih podataka i složenih s potrebom da se pokrene više simulacija, to može brzo postati kompjutaciono jako zahtjevno.
Zahvaljujući superkompjuteru, istraživači su u nekoliko dana pregledali 8000 spojeva i identificirali 77 potencijalno korisnih spojeva malih molekula koji pokazuju dokaze inhibiranja SARS-CoV-2.
Samit je bio potreban kako bismo brzo dobili rezultate simulacije koji su nam potrebni. Trebalo nam je dan ili dva, dok bi na normalnom računaru trebalo nekoliko mjeseci, “rekao je Jeremy Smith, predsjedavajući na Univerzitetu u Tennesseeju, direktor UT / ORNL Centra za molekularnu biofiziku i glavni istraživač u studiji. „Naši rezultati ne znače da smo pronašli lijek ili tretman za COVID-19. Mi se, međutim, nadamo da će naši računski nalazi istovremeno obaviti buduće studije i pružiti okvir koji će eksperimentalisti koristiti za daljnje istraživanje ovih spojeva. “
Ako ste pročitali da je Covid-19 u nekim aspektima sličan SARS-u, rana istraga virusa dovela je do tog zaključka. SARS i koronavirus dijele neke uobičajene strategije infekcije, što je dovelo do neke nade da se može pronaći inhibitorni agens. Koristeći Summit, Micholas Smith (nije pogreška pri tisku) testirao je kako se jedinjenja vezuju za „špic“ proteina S kako bi otkrili što može umanjiti šansu za uspešnu infekciju.
Otkad je obavljen prvi rad, pušten je tačniji model S-proteina kod koronavirusa. Tim koji koristi Summit planira ponovo pokrenuti svoju početnu analizu korištenjem detaljnijeg modela, koji može neke spojeve skinuti s liste ili tretirati na vrh.
Naučnici su naglasili da se svi njihovi radovi moraju testirati eksperimentalno, ali sad smo vidjeli neke dokaze da računari mogu biti korisni za ovakve proračune. Iako je veoma rano, naučnici su počeli da otkrivaju nove tretmane lijekovima pomoću mašinskog učenja.
Broj koronavirusa u svijetu raste ubrzano otkako je virus pobjegao iz Kine. Najbolji dan za virus od početka praćenja bio je 19. 2. kada je zabilježeno 516 novih slučajeva. Do 28. februara imali smo do 1.503 nova slučaja. 10. marta zabilježeno je 4.390 novih slučajeva koronavirusa. Broj osoba zaraženih Covid-19 na dan porastao je za 2,92 puta u samo 11 dana. To je puno manje loše od apokaliptičnih scenarija koji se obično predviđaju u filmovima o medicinskim katastrofama, ali to je ipak visoka stopa rasta. Ako se nastavi, gledaćemo 12.822 novih slučajeva dnevno do 22. marta i 37.441 novi slučajeva dnevno do 2. aprila.
Dobra vijest je, međutim, da se ukupni broj teških / ozbiljnih slučajeva i dalje smanjuje u apsolutnom iznosu. Prema Worldometers.info, za koji se čini da održava ažurirano svakodnevno praćenje, ukupan broj teških / ozbiljnih slučajeva smanjio se sa 11.553 22. februara na 5.771 10. marta, između ostalog je samo jedan dan od ozbiljnih slučajeva označeno je prema gore i to je bio mali skok, sa 6.272 na 6.401. Brojka je nastavila da opada.
Na pitanje hoće li Covid-19 imati značajan utjecaj na svjetsku ekonomiju već je odgovoreno: da. Otkazane su brojne glavne konferencije, što je lokalnim zajednicama oduzelo prihod. Aviokompanije izvještavaju o visokim padovima letenja uporedivim sa hitom koji su izveli nakon 11. rujna. Budući da su kineske tvornice zatvorene tjednima, cijela talijanska zemlja pod karantenom, a deseci milijuna ljudi koji sada praktikuju socijalno distanciranje (dobrovoljno ili na neki drugi način), pitanje hoćemo li osjetiti utjecaj u Sjedinjenim Državama je jasno: Da. Možda će trebati vremena da se stigne – ekonomski utjecaj događaja na udaljenim obalama može putovati različitim brzinama – ali usporavanja i otkazivanja već pogađaju kompanije.
Znači li to da trebate potrošiti i kupiti dvije tone proizvoda od papira za jednokratnu upotrebu? Ne. Ali to znači da će, na jedan ili drugi način, Covid-19 utjecati na naše živote.
Naftni rat koji je započeo između Rusije i Saudijske Arabije ove sedmice odličan je primjer kako SARS-CoV-2 može potaknuti globalnu recesiju, čak i ako se ispostavi da je medicinski rizik manji nego što se mislilo. Budući da Rusi i Saudijci doprinose da se vidi tko može naplaćivati manje nafte, američka proizvodnja nafte iz škriljaca možda će morati prestati ako cijene padnu predaleko. To bi imalo vlastiti utjecaj i na američku ekonomiju.
Još niko ne zna kuda se ovaj voz kreće, ali svi smo zajedno u njemu.
Najnoviji AI algoritmi istražuju evoluciju galaksija, izračunavaju funkcije kvantnih valova, otkrivaju nova hemijska jedinjenja i još mnogo toga. Postoji li nešto što naučnici rade, a da ne može biti automatizovano?
Ni jedan čovjek ili tim ljudi ne bi mogao pratiti lavinu informacija koje su proizveli mnogi današnji fizički i astronomski eksperimenti. Neki od njih svakodnevno snimaju terabajtove podataka – a bujica se samo povećava. Square Kilometar Array, radio-teleskop koji treba da se uključi sredinom 2020-ih, generisaće svake godine skoro isti promet podataka kao i cijeli internet.
Zato se mnogi naučnici okreću umjetnoj inteligenciji za pomoć. Sa minimalnim ljudskim unosom, AI sistemi kao što su vještačke neuronske mreže – kompjuterski simulirane mreže neurona koji oponašaju funkciju mozga – mogu da ore kroz planine podataka, naglašavajući anomalije i detektujući obrasce koje ljudi nikada nisu mogli da primjete.
Naravno, upotreba kompjutera za pomoć u naučnim istraživanjima seže unazad oko 75 godina, a metoda ručnog prenošenja podataka u potrazi za smislenim obrascima nastala je prije više od milenijuma. Ali neki naučnici tvrde da najnovije tehnike u mašinskom učenju i AI predstavljaju fundamentalno novi način rada u nauci. Jedan takav pristup, poznat kao generativno modeliranje, može pomoći u identifikaciji najvjerodostojnije teorije među konkurentskim objašnjenjima za podatke opservacije, zasnovane isključivo na podacima, i što je važno, bez ikakvog unaprijed programiranog znanja o tome koji fizički procesi mogu biti u radu u sistemu koji se istražuje. Zagovornici generativnog modelovanja vide ga kao dovoljno roman da bi ga se moglo smatrati potencijalnim „trećim putem“ učenja o univerzumu.
Izbrišimo sve što znamo o astrofizici. U kojoj mjeri bismo mogli ponovo otkriti to znanje, samo koristeći same podatke?
Kevin Schawinski
Tradicionalno, učili smo o prirodi kroz posmatranje. Razmislite o Johannesu Kepleru koji prelazi preko Tycho Braheovih stolova planetarnih pozicija i pokušava da razabere osnovni obrazac. (Na kraju je zaključio da se planete kreću u eliptičnim orbitama.) Nauka je takođe napredovala kroz simulaciju. Astronom bi mogao modelirati kretanje Mliječnog puta i njegove susjedne galaksije, Andromeda, i predvidjeti da će se sudariti za nekoliko milijardi godina. I posmatranje i simulacija pomažu naučnicima da stvaraju hipoteze koje se zatim mogu testirati sa daljim zapažanjima. Generativno modeliranje se razlikuje od oba ova pristupa.
“To je u osnovi treći pristup, između posmatranja i simulacije”, kaže Kevin Šavinski, astrofizičar i jedan od najinovantnijih zagovornika generativnog modeliranja, koji je do nedavno radio na Švajcarskom federalnom institutu za tehnologiju u Cirihu (ETH Zurich). “To je drugačiji način za napad na problem.”
Neki naučnici vide generativno modeliranje i druge nove tehnike jednostavno kao električni halat za obavljanje tradicionalne nauke. Ali većina se slaže da AI ima ogroman uticaj i da će njena uloga u nauci samo rasti. Brian Nord, astrofizičar iz Fermijeve nacionalne akceleratorske laboratorije, koji koristi umjetne neuronske mreže za proučavanje kosmosa, je među onima koji se boje da ne postoji ništa što ljudski naučnik ne može učiniti da ne može da bude automatizirano. “To je pomalo zastrašujuća misao”, reče on.
Otkriće generacije
Otkako je diplomirao, Schawinski je postao poznat po svojoj nauci. Dok je radio na svom doktoratu, suočio se sa zadatkom da klasifikuje hiljade galaksija na osnovu njihovog izgleda. Budući da za taj posao nije postojao lako dostupan softver, on je odlučio da ga iskoristi – i tako je rođen projekt za naučnike Galaxy Zoo. Počevši od 2007. godine, obični korisnici računara pomogli su astronomima tako što su prijavili svoje najbolje pretpostavke o tome koja galaksija pripada kategoriji u kojoj je većinsko pravilo obično vodilo do ispravnih klasifikacija. Projekat je bio uspješan, ali, kao što Schawinski napominje, AI je to sve zasjenio: “Danas, talentovani naučnik sa iskustvom u mašinskom učenju i pristupu računarstvu u oblaku mogao bi da uradi cijelu stvar za jedno popodne.”
Schawinski se 2016. godine okrenuo snažnom novom halatu generativnog modeliranja. U suštini, generativno modeliranje pita se koliko je vjerovatno, pod uvjetom X, da ćete primijetiti ishod Y. Pristup se pokazao nevjerojatno moćan i svestran. Na primjer, pretpostavimo da generativni model hranite skupom slika ljudskih lica, pri čemu je svako lice označeno s dobi osobe.
Dok se kompjuterski program češlja kroz ove “podatke o obuci”, počinje da crta vezu između starijih lica i povećanu vjerovatnoću bora. Na kraju, on može da “ostari” svako lice koje je dano – to jest, može predvideti koje fizičke promjene će određeno lice bilo koje starosti proći.
Nijedno od ovih lica nije stvarno. Lica u gornjem redu (A) i lijeva kolona (B) su konstruisana generativnom kontradiktornom mrežom (GAN) koristeći građevinske elemente pravih lica. GAN je zatim kombinovao osnovne karakteristike lica u A, uključujući njihov spol, starost i oblik lica, sa finijim osobinama lica u B, kao što su boja kose i boja očiju, da bi stvorili sva lica u ostatku rešetke.
Najpoznatiji generativni sistemi za modeliranje su „generativne kontradiktorne mreže“ (GAN). Nakon adekvatnog izlaganja podacima obuke, GAN može popraviti slike koje imaju oštećene ili nestale piksele, ili mogu učiniti oštre fotografije mutnim. Oni uče da izvuku informacije koje nedostaju putem takmičenja (otuda termin “kontradiktorni”): Jedan dio mreže, poznat kao generator, generiše lažne podatke, dok drugi dio, diskriminator, pokušava da razlikuje lažne podatke od stvarnih podataka. Kako program teče, obje polovice postaju sve bolje. Možda ste vidjeli neke od hiper-realističnih, “GAN-proizvedenih” lica koja su nedavno kružila – slike “čudno realističnih ljudi koji zapravo ne postoje”, kako je to rekao jedan naslov.
Šire gledano, generativno modeliranje uzima skupove podataka (tipično slike, ali ne uvijek) i razbija svaki od njih u skup osnovnih, apstraktnih gradivnih blokova – naučnici to nazivaju “latentnim prostorom podataka”. Algoritam manipulira elementima latentni prostor kako bi se vidjelo kako to utječe na izvorne podatke, a to pomaže u otkrivanju fizičkih procesa koji djeluju u sistemu.
Ideja o latentnom prostoru je apstraktna i teška za vizualizaciju, ali kao gruba analogija, zamislite šta bi vaš mozak mogao da uradi kada pokušate da odredite pol ljudskog lica. Možda primjetite frizuru, oblik nosa, i tako dalje, kao i obrasce koje ne možete lako staviti u riječi. Kompjuterski program na sličan način traži istaknute karakteristike među podacima: Iako nema pojma šta je brk ili kakav spol, ako je obučen u skupovima podataka u kojima su neke slike označene kao “muškarac” ili “žena”, i neki imaju oznaku “brkovi”, brzo će zaključiti vezu.
Kevin Šavinski, astrofizičar koji vodi AI kompaniju pod nazivom Modulos, tvrdi da tehnika nazvana generativno modeliranje nudi treći način učenja o univerzumu.
U radu objavljenom u decembru u astronomiji i astrofizici, Schawinski i njegovi kolege iz ETH Zuricha Dennis Turp i Ce Zhang koristili su generativno modeliranje kako bi istražili fizičke promjene koje galaksije prolaze kroz evoluciju. (Softver koji koriste, tretira latentni prostor donekle drugačije od načina na koji ga tretira generativna kontra-mreža, tako da nije tehnički GAN, iako sličan.) Njihov model je stvorio umjetne skupove podataka kao način ispitivanja hipoteza o fizičkim procesima. Oni su, na primer, pitali kako je “gašenje” formiranja zvjezda – naglo smanjenje formacije – povezano sa povećanjem gustine okoline galaksije.
Za Šawinija, ključno pitanje je koliko informacija o zvjezdanim i galaktičkim procesima može biti zadirkivano samo iz podataka. “Izbrišimo sve što znamo o astrofizici”, rekao je on. “U kojoj mjeri bismo mogli ponovno otkriti to znanje, samo koristeći same podatke?”
Prvo, slike galaksija su redukovane na njihov latentni prostor; zatim, Šawinski je mogao da podesi jedan element tog prostora na način koji je odgovarao određenoj promjeni u okolini galaksije – na primjer, gustina okoline. Tada je mogao ponovo da generiše galaksiju i vidi koje razlike su se pojavile. “Sada imam mašinu za generiranje hipoteza”, objasnio je on.
“Mogu da uzmem cijelu gomilu galaksija koje su prvobitno u okruženju niske gustine i čine ih da izgledaju kao da su u okruženju visoke gustine, ovim procesom.” Okruženja niske do visoke gustoće, postaju crvenija, a njihove zvijezde postaju centralnije koncentrirane. To odgovara postojećim opažanjima o galaksijama, rekao je Schawinski. Pitanje je zašto je to tako.
Sljedeći korak, kaže Schawinski, još nije bio automatizovan: „Moram da dođem kao čovjek i kažem:„ U redu, kakva fizika bi mogla objasniti ovaj efekat? ”„ Za proces u pitanju, postoje dva prihvatljiva objašnjenja: Možda galaksije postaju crvenije u okruženjima velike gustine jer sadrže više prašine, ili možda postaju crvenije zbog pada formacije zvjezda (drugim riječima, njihove zvijezde imaju tendenciju da budu starije). Sa generativnim modelom, obe se ideje mogu testirati: Elementi u latentnom prostoru koji se odnose na prašnjavost i stope formiranja zvjezda su promenjeni da bi se vidjelo kako to utiče na boju galaksija. “A odgovor je jasan”, rekao je Schawinski. Crvenije galaksije su “gde je formacija zvjezda pala, a ne one gde se prašina promjenila. Zato bismo trebali dati prednost tom objašnjenju.”
Pristup se odnosi na tradicionalnu simulaciju, ali s kritičkim razlikama. Simulacija je “suštinski zasnovana na pretpostavkama”, rekao je Schawinski. “Pristup je reći:” Mislim da znam koji su osnovni fizički zakoni koji dovode do svega što vidim u sistemu. “Tako da imam recept za formiranje zvjezda, imam recept za to kako se ponaša tamna materija, i tako dalje. Stavio sam sve svoje hipoteze tamo, i pustio sam da se simulacija pokrene. I onda pitam: Da li to izgleda kao stvarnost? ”Ono što je on učinio sa generativnim modeliranjem, rekao je on,“ u nekom smislu, upravo je suprotno od simulacije. Mi ne znamo ništa; ne želimo da pretpostavimo ništa. Mi želimo da nam podaci kažu šta se dešava. ”
Očigledan uspjeh generativnog modeliranja u ovakvoj studiji očigledno ne znači da su astronomi i postdiplomci postali suvišni – ali čini se da predstavlja promjenu u stepenu u kojem se učenje o astrofizičkim objektima i procesima može postići umjetnim vještinama sistema koji ima malo više u svojim elektronskim prstima od ogromnog skupa podataka. “To nije potpuno automatizovana znanost – ali ona pokazuje da smo u stanju barem djelomično izgraditi alate koji čine proces nauke automatskim”, rekao je Schawinski.
Generativno modeliranje je očigledno moćno, ali da li je to uistinu novi pristup nauci, otvoreno je za raspravu. Za Davida Hogga, kosmologa sa Univerziteta u Njujorku i Flatiron Instituta (koji, kao i Quanta, finansira Simons fondacija), tehnika je impresivna, ali u konačnici samo vrlo sofisticiran način izdvajanja uzoraka iz podataka – što su astronomi radili vjekovima. Drugim riječima, to je napredni oblik promatranja plus analiza. Hoggov sopstveni rad, kao i Schawinski, u velikoj mjeri se oslanja na AI; on koristi neuronske mreže da klasifikuje zvjezde prema njihovom spektru i da zaključi druge fizičke atribute zvjezda koristeći modele vođene podacima. Ali on vidi svoj rad, kao i Schawinski, kao istinitu nauku. “Ne mislim da je to treći put”, rekao je nedavno. „Samo mislim da mi kao zajednica postajemo mnogo sofisticiraniji o tome kako koristimo podatke. Konkretno, postajemo mnogo bolji u poređenju podataka sa podacima.
Barem tako kaže Oscar Boykin. Diplomirao je fiziku na Tehnološkom institutu Georgia, a 2002. godine završio je doktorat fizike na UCLA. Ali prije četiri godine, fizičari sa Velikog hadronskog sudarača u Švicarskoj otkrili su Higgsov bozon, subatomsku česticu koju je prvi put predvidio šezdesetih godina. Kao što Boykin ističe, svi su to očekivali. Higs se nije upetljao u teorijske modele univerzuma. Ništa nije promijenilo niti je fizičarima dalo nešto novo čemu bi se mogli boriti. “Fizičari su uzbuđeni kada nešto nije u redu sa fizikom, a sada smo u situaciji u kojoj nema puno toga što nije u redu”, kaže on. “To je mjesto koje je obeshrabrujuće za fizičara.” Plus, plata nije previše dobra.
Boykin više nije fizičar. On je softverski inženjer u Silikonskoj dolini. I dobro je vrijeme da budete jedan od njih.
Boykin radi u Stripeu, startupu vrijednom 9 milijardi dolara koji pomaže tvrtkama da prihvate plaćanje na internetu. On pomaže u izgradnji i upravljanju softverskim sistemima koji prikupljaju podatke iz svih usluga kompanije, i radi na predviđanju budućnosti tih usluga, uključujući kada, gdje i kako će doći do lažnih transakcija. Kao fizičar, on je idealan za posao, koji zahtijeva i ekstremnu matematiku i apstraktnu misao. Pa ipak, za razliku od fizičara, on radi u polju koje sada nudi beskrajne izazove i mogućnosti. Plus, plata je velika.
Ako su fizika i softversko inženjerstvo subatomske čestice, Silicijska dolina se pretvorila u mjesto gdje se polja sudaraju. Boykin radi sa još tri fizičara u Stripeu. U decembru, kada je General Electric nabavio startup za mašinsko učenje Wise.io, CEO Jeff Immelt hvalio se da je upravo uhvatio kompaniju prepunu fizičara, a posebno astrofizičara UC Berkeleya Joshua Blooma. Softver za učenje mašinskog učenja H20, koji koristi 70.000 naučnika iz cijelog svijeta, izgrađen je uz pomoć švicarskog fizičara Arna Candela, koji je nekada radio u Nacionalnoj akceleratorskoj laboratoriji SLAC-a. Vijay Narayanan, Microsoft-ov šef nauke o podacima, je astrofizičar, a nekoliko drugih fizičara radi sa njim.
Nije namjerno, tačno. “Nismo otišli u dječji vrtić fizike i ukrali košaru djece”, kaže Stripe predsjednik i suosnivač John Collison. “Upravo se dogodilo.” I to se dešava u Silicijumskoj dolini. Jer strukturno i tehnološki, stvari koje gotovo svaka internet kompanija treba da radi su sve više prilagođene skupu vještina fizičara.
Prirodnjaci
Naravno, fizičari su igrali ulogu u kompjuterskoj tehnologiji još od najranijih dana, baš kao što su igrali ulogu u mnogim drugim oblastima. John Mauchly, koji je pomogao u dizajniranju ENIAC-a, jednog od najranijih kompjutera, bio je fizičar. Dennis Ritchie, otac programskog jezika C, je takođe bio.
Ali ovo je posebno zreo trenutak za fizičare u kompjuterskim tehnologijama, zahvaljujući usponu mašinskog učenja, gde mašine uče zadatke analizirajući ogromne količine podataka. Ovaj novi talas nauke o podacima i AI je nešto što fizičarima odgovara.
Između ostalog, industrija je prihvatila neuronske mreže, softver koji ima za cilj da oponaša strukturu ljudskog mozga. Ali ove neuronske mreže su zapravo samo matematika na ogromnoj skali, uglavnom linearnoj algebri i teoriji vjerovatnoće. Računari nisu nužno obučeni u ovim oblastima, ali fizičari jesu. “Jedina stvar koja je stvarno nova za fizičare jeste učenje kako optimizirati ove neuronske mreže, obučavajući ih, ali to je relativno jednostavno”, kaže Boykin. “Jedna tehnika se zove” Njutnov metod. “Njutn fizičar, a ne neki drugi Njutn.”
Chris Bishop, koji je na čelu Microsoftove istraživačke laboratorije u Kembridžu, osjećao se na isti način prije trideset godina, kada su duboke neuronske mreže počele pokazivati obećanja u akademskom svijetu. To ga je dovelo od fizike u strojno učenje. “Postoji nešto vrlo prirodno da fizičar ulazi u strojno učenje”, kaže on, “prirodnije od računarskog naučnika.”
Izazovni prostor
Prije deset godina, kaže Bojkin, mnogi njegovi stari fizičari prijatelji su se uselili u finansijski svijet. Isti okus matematike je takođe bio izuzetno koristan na Vol Stritu kao način predviđanja kuda će tržišta ići. Jedna od ključnih metoda je Black-Scholes Equation, sredstvo za određivanje vrijednosti finansijskog derivata. Ali, Black-Scholes je pomogao u podsticanju velikog sloma 2008. godine, a sada, Boykin i drugi fizičari kažu da se mnogo više njihovih kolega kreće u znanost o podacima i druge vrste računalnih tehnologija.
Ranije ove decenije, fizičari su došli u vrhunske tehnološke kompanije kako bi pomogli u izgradnji takozvanog Big Data softvera, sistema koji žongliraju podacima preko stotina ili čak hiljada strojeva. Na Twitteru, Boykin je pomogao da se izgradi onaj koji se zove Summingbird, a tri momka koji su se upoznali u odjelu fizike na MIT-u su izgradili sličan softver na startupu zvanom Cloudant. Fizičari znaju kako da obrađuju podatke – na MIT-u, Cloudantovi osnivači obrađivali su masivne skupove podataka iz od Velikog Hadronskog Kolajdera – i izgradnja ovih izuzetno kompleksnih sistema zahtjeva sopstvenu vrstu apstraktne misli. Onda, kada su ti sistemi izgrađeni, mnogi fizičari su pomogli da se upotrebe podaci koje su iskoristili.
U ranim danima Google-a, jedan od ključnih ljudi koji su izgradili masivno distribuirane sisteme u kompanijskoj strojarnici bio je Yonatan Zunger, koji je doktorirao teoriju struna iz Stanforda. A kada se Kevin Scott pridružio Googleovom oglasnom timu, zadužen za prikupljanje podataka iz čitavog Googlea i njegovo korištenje da predvidi koji su oglasi najvjerovatnije dobili najviše klikova, angažirao je nebrojene fizičare. Za razliku od mnogih kompjuterskih naučnika, oni su odgovarali vrlo eksperimentalnoj prirodi mašinskog učenja. “To je bilo gotovo kao laboratorijska znanost”, kaže Scott, sada glavni tehnološki direktor u LinkedInu.
Sad kad je Big Data softver uobičajen – Stripe koristi open source verziju onoga što je Boykin pomogao u izgradnji na Twitteru – to pomaže modelima strojnog učenja da pogone predviđanja unutar mnogih drugih kompanija. To fizičarima pruža čak i širi put u Silicijsku dolinu. U Stripeu, Boykin radi zajedno sa Robanom Kramer (doktor fizike, Columbia), Christian Anderson (magistar fizike, Harvard) i vođa tima Kelley Rivoire (prvostupnik fizike, MIT). Oni dolaze zato što su prilagođeni poslu. I dolaze zbog novca. Kao što Boykin kaže: “Plaće u tehnologiji su nesumnjivo apsurdne.” Ali oni dolaze i zato što ima toliko teških problema koje treba riješiti.
Anderson je napustio Harvard prije nego što je doktorirao jer je došao da vidi polje onako kako Boykin radi – kao intelektualnu potragu za opadajućim prinosima. Ali to nije slučaj na internetu. “Implicitno u” internetu “je opseg, pokrivenost,” kaže Anderson. “To čini prilike mnogo većim, ali i obogaćuje prostor za izazove, problemski prostor. Postoji intelektualni napredak.”
Budućnost Danas fizičari prelaze u kompanije iz Silikonske doline. Ali u godinama koje dolaze, sličan fenomen će se proširiti mnogo dalje. Mašinsko učenje će promjeniti ne samo kako svijet analizira podatke, već i kako gradi softver. Neuronske mreže već otkrivaju prepoznavanje slika, prepoznavanje govora, mašinsko prevođenje i samu prirodu softverskih interfejsa. Kao što kaže Kris Bišop (Microsoft), softversko inženjerstvo prelazi iz ručno izrađenog koda zasnovanog na logici na mode mašinskog učenja na osnovu vjerovatnoće i neizvesnosti. Kompanije kao što su Google i Facebook počinju da obučavaju svoje inženjere u ovom novom načinu razmišljanja. Na kraju, ostatak kompjuterskog svijeta će ga slijediti.
Drugim rečima, svi fizičari koji ulaze u oblast inženjera Silicijumske doline je znak mnogo veće promjene koja dolazi. Uskoro će svi inženjeri iz Silikonske doline se gurnuti u carstvo fizičara.
Ako niste upoznati sa računom, ∂f (x)/∂x će vjerovatno izgledati prilično strano. Ovaj izraz možete interpretirati kao “kako se mijenja f (x) ako mijenjam x?” Ovo će biti korisno jer možemo postaviti pitanja poput “Kako se funkcija troška mijenja kada promijenim ovaj parametar? Da li povećava ili smanjuje funkciju troškova?” u potrazi za optimalnim parametrima.
Početak je jednostavan
Da bismo shvatili kako koristiti gradijentno spuštanje u treningu neuronske mreže, počnimo sa najjednostavnijom neuronskom mrežom: jednim ulaznim neuronom, jednim neuronom skrivenog sloja i jednim izlaznim neuronom.
Da bih pokazao potpuniju sliku onoga što se dešava, proširio sam svaki neuron da pokaže 1) linearnu kombinaciju ulaza i težina i 2) aktivaciju ove linearne kombinacije. Lako je uočiti da je korak prosljeđivanja naprosto niz funkcija gdje se izlaz jednog od njih unosi kao ulaz u sljedeći.
Definisanje “dobrih” performansi u neuronskoj mreži
Hajde da definišemo našu funkciju troškova samo kao kvadrat greške.
J (θ) = 1/2 (y − a (3)) 2 J (θ) = 1/2 (y − a (3)) 2
Postoji mnoštvo funkcija troškova koje možemo koristiti, ali za ovu neuralnu mrežu kvadratna greška će funkcionisati sasvim dobro.
Zapamtite, želimo da procjenimo rezultate našeg modela u odnosu na ciljani izlaz u pokušaju da minimiziramo razliku između ova dva modela.
Odnos težine na funkciju troškova
Da bi se smanjila razlika između izlaza naše neuronske mreže i ciljnog izlaza, moramo znati kako se performanse modela mijenjaju u odnosu na svaki parametar u našem modelu. Drugim riječima, moramo definirati odnos (čitaj: djelomični derivat) između naše funkcije troška i svake težine. Zatim možemo te težine ažurirati u iterativnom procesu koristeći gradijentno silazak.
Pogledajmo prvo (J (θ) ∂θ2∂J (θ) ∂θ2. Imajte na umu sledeću cifru dok napredujemo.
Uzmimo trenutak da ispitamo kako možemo izraziti odnos između J (θ) J (θ) i θ2θ2. Zapazite kako je θ2θ2 ulaz za z (3) z (3), koji je ulaz u (3) a (3), koji je ulaz za J (θ) J (θ). Kada pokušavamo da izračunamo derivat ove vrste, možemo koristiti rješenje lanca.
Podsjećamo, pravilo lanca navodi:
Radi jasnoće, ažurirao sam naš neuronski mrežni dijagram kako bih vizuelizovao ove lance. Uvjerite se da ste zadovoljni ovim procesom prije nego što nastavite.
Dodavanje složenosti
Pokušajmo ovaj isti pristup na malo složenijem primjeru. Sada ćemo pogledati neuralnu mrežu sa dva neurona u našem ulaznom sloju, dva neurona u jednom skrivenom sloju i dva neurona u našem izlaznom sloju. Za sada ćemo zanemariti neurone prednapona koji nedostaju iz ulaznih i skrivenih slojeva.
Uzmimo trenutak da pređemo preko oznake koju ću koristiti tako da možete pratiti zajedno sa ovim dijagramima. Superskript (1) označava sloj u kojem je objekat i indeks označava na koji neuron se pozivamo u datom sloju. Na primjer a (2) 1a1 (2) je aktivacija prvog neurona u drugom sloju. Za vrijednosti parametara θθ volim ih čitati kao naljepnicu – prva vrijednost označava na koji se neuron unosi u sljedećem sloju, a druga vrijednost označava od kojeg se neurona šalje informacija. Na primjer, θ (2) 21θ21 (2) se koristi za slanje ulaza u 2. neuron, od prvog neurona u sloju 2. Gornji sloj koji označava sloj odgovara mjestu odakle dolazi ulaz. Ova notacija je konzistentna sa matričnom reprezentacijom o kojoj smo govorili u mojoj poruci o predstavljanju neuronskih mreža.
Proširimo ovu mrežu da bismo otkrili svu matematiku koja se dešava.
Ovako izgleda matematika ovog:
Možemo sljedeći parametar iskoristiti da bi ovo jednostavnije zapisali:
Odavdje dobijemo:
Ovo se sve može i unazad uraditi, a za više detalja pogledajte:
Ako niste upoznati sa računom, ∂f (x)/∂x će vjerovatno izgledati prilično strano. Ovaj izraz možete interpretirati kao “kako se mijenja f (x) ako mijenjam x?” Ovo će biti korisno jer možemo postaviti pitanja poput “Kako se funkcija troška mijenja kada promijenim ovaj parametar? Da li povećava ili smanjuje funkciju troškova?” u potrazi za optimalnim parametrima.
Početak je jednostavan
Da bismo shvatili kako koristiti gradijentno spuštanje u treningu neuronske mreže, počnimo sa najjednostavnijom neuronskom mrežom: jednim ulaznim neuronom, jednim neuronom skrivenog sloja i jednim izlaznim neuronom.
Da bih pokazao potpuniju sliku onoga što se dešava, proširio sam svaki neuron da pokaže 1) linearnu kombinaciju ulaza i težina i 2) aktivaciju ove linearne kombinacije. Lako je uočiti da je korak prosljeđivanja naprosto niz funkcija gdje se izlaz jednog od njih unosi kao ulaz u sljedeći.
Definisanje “dobrih” performansi u neuronskoj mreži
Hajde da definišemo našu funkciju troškova samo kao kvadrat greške.
J (θ) = 1/2 (y − a (3)) 2 J (θ) = 1/2 (y − a (3)) 2
Postoji mnoštvo funkcija troškova koje možemo koristiti, ali za ovu neuralnu mrežu kvadratna greška će funkcionisati sasvim dobro.
Zapamtite, želimo da procjenimo rezultate našeg modela u odnosu na ciljani izlaz u pokušaju da minimiziramo razliku između ova dva modela.
Odnos težine na funkciju troškova
Da bi se smanjila razlika između izlaza naše neuronske mreže i ciljnog izlaza, moramo znati kako se performanse modela mijenjaju u odnosu na svaki parametar u našem modelu. Drugim riječima, moramo definirati odnos (čitaj: djelomični derivat) između naše funkcije troška i svake težine. Zatim možemo te težine ažurirati u iterativnom procesu koristeći gradijentno silazak.
Pogledajmo prvo (J (θ) ∂θ2∂J (θ) ∂θ2. Imajte na umu sledeću cifru dok napredujemo.
Uzmimo trenutak da ispitamo kako možemo izraziti odnos između J (θ) J (θ) i θ2θ2. Zapazite kako je θ2θ2 ulaz za z (3) z (3), koji je ulaz u (3) a (3), koji je ulaz za J (θ) J (θ). Kada pokušavamo da izračunamo derivat ove vrste, možemo koristiti rješenje lanca.
Podsjećamo, pravilo lanca navodi:
Radi jasnoće, ažurirao sam naš neuronski mrežni dijagram kako bih vizuelizovao ove lance. Uvjerite se da ste zadovoljni ovim procesom prije nego što nastavite.
Dodavanje složenosti
Pokušajmo ovaj isti pristup na malo složenijem primjeru. Sada ćemo pogledati neuralnu mrežu sa dva neurona u našem ulaznom sloju, dva neurona u jednom skrivenom sloju i dva neurona u našem izlaznom sloju. Za sada ćemo zanemariti neurone prednapona koji nedostaju iz ulaznih i skrivenih slojeva.
Uzmimo trenutak da pređemo preko oznake koju ću koristiti tako da možete pratiti zajedno sa ovim dijagramima. Superskript (1) označava sloj u kojem je objekat i indeks označava na koji neuron se pozivamo u datom sloju. Na primjer a (2) 1a1 (2) je aktivacija prvog neurona u drugom sloju. Za vrijednosti parametara θθ volim ih čitati kao naljepnicu – prva vrijednost označava na koji se neuron unosi u sljedećem sloju, a druga vrijednost označava od kojeg se neurona šalje informacija. Na primjer, θ (2) 21θ21 (2) se koristi za slanje ulaza u 2. neuron, od prvog neurona u sloju 2. Gornji sloj koji označava sloj odgovara mjestu odakle dolazi ulaz. Ova notacija je konzistentna sa matričnom reprezentacijom o kojoj smo govorili u mojoj poruci o predstavljanju neuronskih mreža.
Proširimo ovu mrežu da bismo otkrili svu matematiku koja se dešava.
Ovako izgleda matematika ovog:
Možemo sljedeći parametar iskoristiti da bi ovo jednostavnije zapisali:
Odavdje dobijemo:
Ovo se sve može i unazad uraditi, a za više detalja pogledajte:
Najuspešniji ljudi nisu najtalentovaniji, samo najsrećniji, potvrđuje novi kompjuterski model stvaranja bogatstva. Uzimajući to u obzir, može se povećati povrat na mnoge vrste ulaganja.
Distribucija bogatstva slijedi dobro poznati obrazac koji se ponekad zove pravilo 80:20: 80% bogatstva je u vlasništvu 20% ljudi. Zaista, izvještaj od prošle godine zaključio je da je samo osam ljudi imalo ukupno bogatstvo koje je ekvivalentno onom od najsiromašnijih 3,8 milijardi ljudi na svjetu.
Čini se da se to dešava u svim društvima na svim nivoima. To je dobro proučavan obrazac koji se zove zakon o snazi koji se javlja u širokom spektru društvenih fenomena. Međutim, raspodjela bogatstva je među najkontroverznijim zbog pitanja koja se postavljaju o pravičnosti i zaslugama. Zašto tako malo ljudi ima toliko puno bogatstva?
Konvencionalni odgovor je da živimo u meritokratiji u kojoj su ljudi nagrađeni za svoj talenat, inteligenciju, napore i tako dalje. Vremenom, mnogi misle, ovo se odnosi na distribuciju bogatstva koju posmatramo, iako može imati ulogu i zdrava doza sreće.
Ali postoji problem sa ovom idejom: dok distribucija bogatstva prati zakon o snazi, raspodjela ljudskih vještina uglavnom slijedi normalnu distribuciju koja je simetrična u odnosu na prosječnu vrijednost. Na primer, inteligencija, mjerena IQ testovima, prati ovaj obrazac. Prosječan IQ je 100, ali niko nema IQ od 1.000 ili 10.000.
Isto važi i za napor, mjeren radnim satima. Neki ljudi rade više sati od prosjeka, a neki manje rade, ali niko ne radi milijardu puta više sati od bilo koga drugog.
Ipak, kada su u pitanju nagrade za ovaj posao, neki ljudi imaju milion puta više bogatstva nego drugi ljudi. Štaviše, brojne studije su pokazale da najbogatiji ljudi uglavnom nisu najtalentovaniji.
Koji faktori, onda, određuju kako pojedinci postaju bogati? Može li biti da šansa igra veću ulogu nego što bi neko mogao očekivati? I kako se ti faktori, bez obzira na to, eksploatišu kako bi svijet učinili boljim i pravednijim mjestom?
Danas imamo odgovor zahvaljujući radu Alessandra Pluchina na Univerzitetu Katanija u Italiji i nekoliko kolega. Ovi momci su stvorili računarski model ljudskog talenta i način na koji ga ljudi koriste da iskoriste mogućnosti u životu. Model omogućava timu da prouči ulogu šanse u ovom procesu.
Rezultati su nešto što otvara oči. Njihove simulacije tačno reprodukuju distribuciju bogatstva u stvarnom svijetu. Ali najbogatije osobe nisu najtalentovaniji (iako moraju imati određeni talenat). Oni su najsretniji. A ovo ima značajne implikacije na način na koji društva mogu optimizirati povratak koji dobijaju za ulaganja u sve od poslova do nauke.
Model Pluchina i Co je jednostavan. Sastoji se od N ljudi, svaki sa određenim nivoom talenta (vještina, inteligencija, sposobnost i tako dalje). Ovaj talenat je normalno raspoređen oko nekog prosječnog nivoa, sa nekim standardnim odstupanjem. Dakle, neki ljudi su više talentovani od prosjeka, a neki su manje, ali niko nije enormno talentiraniji nego bilo ko drugi.
Ovo je ista vrsta distribucije koja se vidi za različite ljudske veštine, ili čak karakteristike kao što su visina ili težina. Neki ljudi su viši ili manji od prosjeka, ali niko nije veličine mrava ili nebodera. Zaista, svi smo sasvim slični.
Računarski model prikazuje svakog pojedinca kroz radni vijek od 40 godina. Tokom ovog perioda, pojedinci doživljavaju srećne događaje koje mogu iskoristiti da povećaju svoje bogatstvo ako su dovoljno talentovani.
Međutim, oni takođe dožive nesrećne događaje koji smanjuju njihovo bogatstvo. Ovi događaji se degađaju nasumično.
Na kraju 40 godina, Pluchino i saradnici su pojedince rangirali bogatstvom i proučavali karakteristike najuspešnijih. Takođe su izračunali raspodjelu bogatstva. Oni su više puta ponavili simulaciju kako bi provjerili robustnost ishoda.
Kada je tim pojedince rangirao po bogatstvu, distribucija je upravo ono što se vidi u stvarnim društvima. “Pravilo 80 -20” se poštuje, pošto 80% stanovništva posjeduje samo 20% ukupnog kapitala, dok preostalih 20% posjeduje 80% istog kapitala “, izvještava Pluchino i co.
To možda neće biti iznenađujuće ili nepravedno ako bi najbogatijih 20 posto bili najtalentovaniji. Ali to nije ono što se događa. Najbogatije osobe nisu tipično najtalentovanije ili bilo gdje u blizini. “Maksimalni uspjeh nikada se ne poklapa sa maksimalnim talentom, i obrnuto”, kažu istraživači.
Dakle, ako ne talent, koji drugi faktor uzrokuje ovo poremećeno bogatstvo? “Naša simulacija jasno pokazuje da je takav faktor samo čista sreća”, kažu Pluchino i co.
Tim to pokazuju rangiranjem pojedinaca prema broju srećnih i nesretnih događaja koje doživljavaju tokom svojih 40 godina karijere. “Očigledno je da su najuspješniji ljudi najsrećniji”, kažu. “I manje uspešne osobe su takođe s namjanje sreće.”
To ima značajne implikacije za društvo. Koja je najefikasnija strategija za iskorišćavanje uloge sreće u uspjehu?
Pluchino i ovo istražuju sa stanovišta finansiranja naučnih istraživanja, što je pitanje jasno blizu njihovog srca. Finansijske agencije širom svijeta su zainteresirane za maksimiziranje njihovog povratka na ulaganja u naučni svijet. Zaista, Evropski savjet za istraživanje je nedavno uložio 1,7 miliona dolara u program za proučavanje serendipity-uloga sreće u naučnom otkriću – i kako se može eksploatisati kako bi se poboljšali ishodi finansiranja.
Ispostavilo se da su Pluchino i Co dobro postavljeni da odgovore na ovo pitanje. Oni koriste svoj model da istražuju različite vrste modela finansiranja kako bi vidjeli koji su najbolji prihodi kada se uzme u obzir sreća.
Tim je proučavao tri modela, u kojima se istraživanje finansira jednako svim naučnicima; distribuira nasumično u podskup naučnika; ili ako se dadne prednost onima koji su bili najuspešniji u prošlosti. Koja od njih je najbolja strategija?
Izgleda da strategija koja donosi najbolje prihode je podjednako podijeliti sredstva među svim istraživačima. A druga i treća najbolja strategija uključuje slučajno distribuiranje na 10 do 20 posto naučnika.
U ovim slučajevima, istraživači su u najboljem slučaju sposobni da iskoriste prednosti sjajnih otkrića koje sarađuju s vremena na vrijeme. Gledajući unazad, očigledno je da činjenica da je naučnik napravio važno otkriće u prošlosti ne znači da će on ili ona verovatnije napraviti isto u budućnosti.
Sličan pristup bi se mogao primeniti i na investiranje u druge vrste preduzeća, kao što su mala ili velika preduzeća, tehnološki pokretanje, obrazovanje koje povećava talenat, ili čak stvaranje slučajnih srećnih događaja.
Jasno je da je ovdje potrebno više posla. Šta čekamo?
Da li je moguće da živimo u kompjuterskoj simulaciji?
Kako prenosi portal znanost.hr čini se da ne. Naime, fizičari s Oxforda Ringel i Kovrizhi pokazali su da će pokušaji uporabe kvantnog Monte Carla za modeliranje sustava s anomalijama, poput kvantnog Hallovog efekta, uvijek biti neizdvodljivi.
Kompleksnost simulacije se eksponencijalno uvećava s brojem čestica koje su simulirane.
Da kompleksnost rate linearno s brojem simuliranih čestica, udvostručenje broja čestica značilo bi i udvostručenje potrebne računalne snage. Ako kompleksnost, pak, raste na eksponencijalnoj skali – a količina računalne snage mora se udvostručiti svaki put kad se doda jedna čestica – zadatak vrlo brzo postaje nemoguć.
Naučnici su izračunali da bi samo pohrana informacija o nekoliko stotina elektrona zahtijevala računalnu memoriju koja bi fizički zahtijevala više atoma nego što postoji u svemiru.
“Skladištenje računarskih podataka je složen predmet, ali se može razvrstati na tri osnovna procesa. Prvo, podaci se pretvaraju u jednostavne brojeve koji su lak za računar za čuvanje. Drugo, brojevi se snimaju hardverom unutar računara. Treće, brojevi su organizovani, premešteni u privremeno skladištenje i manipulisani programima ili softverom.
Hard diskovi koriste magnetizam za čuvanje brojeva.
Binarni brojevi Svaki podatak na računaru se čuva kao broj. Na primjer, slova se pretvaraju u brojeve, a fotografije se pretvaraju u veliki skup brojeva koji ukazuju na boju i svjetlinu svakog piksela. Brojevi se zatim pretvaraju u binarne brojeve. Konvencionalni brojevi koriste deset cifara, od 0-9, da predstavljaju sve moguće vrijednosti. Binarni brojevi koriste dvije cifre, 0 i 1, da predstavljaju sve moguće vrijednosti. Brojevi od 0 do 8 izgledaju kao binarni brojevi: 0, 1, 10, 11, 100, 101, 110, 111, 1000. Binarni brojevi su veoma dugački, ali sa binarnim brojevima svaka vrijednost može biti sačuvana kao niz stavki koje su istinite (1) ili lažno (0), kao što su Sjever / Jug, ili Svetlo / Tamno.
Primarno skladištenje podataka
Glavno skladište podataka na većini računara je hard disk. To je disk koji se vrti ili diskovi sa magnetskim premazima i glavama koji mogu čitati ili pisati magnetne informacije, slično kao i rad kaseta. U stvari, rani kućni računari su koristili kasete za skladištenje podataka. Binarni brojevi se snimaju kao niz sitnih područja na disku koji su magnetizovani bilo na sjeveru ili na jugu. Flopi diskovi, ZIP diskovi i trake sve koriste magnetizam za snimanje binarnih brojeva. Podaci o trakama i diskovima mogu se uništiti ako su suviše blizu magnetima.
Ostatak podataka
Neki novi laptop računari koriste SSD uređaje za primarno skladištenje podataka. Oni imaju memorijske čipove, slične memorijskim čipovima u USB ključevima, SD karticama, MP3 plejerima, mobilnim telefonima i tako dalje. Binarni brojevi se snimaju punjenjem ili bez punjenja serije malih kondenzatora u čipu. Elektronsko skladištenje podataka je mnogo robusnije od magnetnog skladištenja podataka, ali nakon nekoliko godina kondenzatori izgube svoju sposobnost štednje električne energije.
CD-ovi i DVD-ovi koriste optiku za čuvanje binarnih brojeva. Kako se disk okreće, laser se reflektuje ili ne reflektuje serija sitnih reflektujućih sekcija na disku. Pisati diskovi imaju reflektivni sloj koji laser može promeniti u računaru. Diskovi su dugotrajni, ali su krhki; ogrebotine na plastičnom sloju sprečavaju ispravno očitavanje refleksa iz aluminijumskog sloja.
Privremeno skladištenje podataka
Pogoni, diskovi i USB ključevi se koriste za dugotrajno čuvanje podataka. U okviru računara postoje mnoga područja za kratkoročno elektronsko skladištenje podataka. Mala količina podataka privremeno se čuva na tastaturi, štampaču i dijelovima matične ploče i procesora. Veća količina podataka privremeno se čuva na memorijskim čipovima i video kartici. Privremeni prostor za skladištenje podataka je dizajniran da bude manji ali brži od dugotrajnog skladištenja i ne zadržava podatke kada je računar isključen . Organizovanje skladištenja podataka
Podaci se čuvaju kao mnogo binarnih brojeva, magnetizmom, elektronikom ili optikom. Dok računar radi, podaci se takođe čuvaju na mnogim privremenim lokacijama. Softver je odgovoran za organizovanje, premeštanje i obradu svih tih brojeva. BIOS računara sadrži jednostavna uputstva, koja se čuvaju kao podaci u elektronskoj memoriji, za premještanje podataka na i iz različitih lokacija za skladištenje i oko računara za obradu. Operativni sistem računara, na primer, sadrži upute za organizovanje podataka u datoteke i fascikle, upravljanje privremenim podacima i slanje podataka u aplikacije i uređaje kao što su štampači. Na kraju, aplikativni programi obrađuju podatke.”, (1)