DARPA je jedna od najzanimljivijih američkih agencija. Posvećena je financiranju “ludih” projekata – ideja koje su potpuno izvan prihvaćenih normi i paradigmi. Ne treba čuditi što je DARPA pridonijela uspostavi ranog interneta i globalnog sustava pozicioniranja (GPS), kao i drugih bizarnih koncepata poput legiranih robota, tržišta predviđanja, pa čak i samoupravnih radnih alata. Otkako je DARPA prvi put osnovana, fokusirana je na mjesečeve snimke i inovativne napore, pa ne treba čuditi da se trenutno fokusira i na AI.
Nedavno je DARPA-ov Ured za informacijske inovacije objavio novu obabijest gdje je objasnio najsuvremeniju tehničku praksu, istaknuvši svoje mogućnosti u sadašnjosti – i razmotrio što bi to moglo učiniti u budućnosti. Online časopis Matična ploča opisao je članak kao AI hype.
Tri vala AI
DARPA razlikuje tri različita vala AI, svaki s vlastitim mogućnostima i ograničenjima. Od tri, treća je očigledno najuzbudljivija, no kako bi ju ispravno razumjeli morat ćemo proći kroz prve dvije.
Prvi AI val: Ručno znanje
U prvom valu AI, stručnjaci su razvili algoritme i softver prema spoznaji koju su oni sami posjedovali i pokušali pružiti te programe s logičkim pravilima koja su bila dešifrirana i konsolidirana tijekom ljudske povijesti. Ovaj pristup je doveo do stvaranja računala za igranje šaha i softvera za optimizaciju isporuke. Većina softvera koje koristimo danas temelje se na AI takve vrste: našem operacijskom sustavu Windows, našim aplikacijama za pametne telefone, pa čak i semafori koji omogućuju ljudima da prelaze ulicu kada pritisnu gumb.
Modria je dobar primjer za način na koji ovaj AI radi. Nizozemska vlada je posljednjih godina unajmila Modriju kako bi razvila automatizirani alat koji će pomoći parovima da se razvode uz minimalno sudjelovanje odvjetnika. Modria, specijalizirana za stvaranje pametnih pravosudnih sustava, preuzela je posao i razvila automatizirani sustav koji se oslanja na poznavanju odvjetnika i stručnjaka za razvod braka.
Na modrijskoj platformi, parovima koji žele razvod braka postavljaju se niz pitanja. To bi moglo uključivati pitanja o sklonostima svakog roditelja u pogledu skrbništva nad djecom, distribucije imovine i drugih uobičajenih problema. Nakon što par odgovori na pitanja, sustavi automatski identificiraju teme o kojima se slažu ili se ne slažu i pokušavaju usmjeriti rasprave i pregovore kako bi postigli optimalni ishod za oboje.
Sustavi AI prvog vala obično se temelje na jasnim i logičkim pravilima. Sustavi ispituju najvažnije parametre u svakoj situaciji koju trebaju riješiti i donose zaključak o najprikladnijoj akciji koju treba poduzeti u svakom slučaju. Parametri za svaku vrstu situacije prepoznaju unaprijed od strane ljudskih stručnjaka. Kao rezultat toga, sustavi prvog vala teško se mogu uhvatiti u koštac s novim vrstama situacija. Oni također imaju teška vremena apstrahiranja – uzimanje znanja i uvida koji proizlaze iz određenih situacija i njihovo primjenjivanje na nove probleme.
Ukratko, sustavi prvog vala AI sposobni su implementirati jednostavna logička pravila za dobro definirane probleme, ali su nesposobni za učenje i teško se bave nesigurnostima.
Sada, neki od vas čitatelja mogu u ovom trenutku slegnuti ramenima i reći da to nije umjetna inteligencija kao što većina ljudi misli. Stvar je, naše definicije AI su evoluirale tijekom godina. Ako bih pitati osobu na ulici, prije trideset godina, je li Google Maps softver AI, ne bi oklijevao u svom odgovoru: naravno, to je AI! Google karte mogu planirati optimalni tečaj kako bi vas odveli do vašeg odredišta. Pa ipak, mnogi danas vide mogućnosti Google Karata kao elementarne i zahtijevaju od AI-a da izvede mnogo više od toga: AI bi također trebala preuzeti kontrolu nad automobilom na putu, razviti savjesnu filozofiju koja će uzeti u obzir želje putnika i dati im kafa u isto vrijeme.
Pa, ispostavilo se da čak i “primitivni” softver poput Modrijevog pravosudnog sustava i Google karata predstavljaju dobre primjere za AI. I doista, sustavi prvog vala AI se danas upotrebljavaju posvuda.
Drugi val AI: Statističko učenje
Godine 2004. DARPA je otvorio svoj prvi Grand Challenge. Petnaest autonomnih vozila nastupilo je na popunjavanju tečaja od 150 milja u pustinji Mojave. Vozila su se oslanjala na AI prvog vala – tj. Pravilo utemeljeno na pravilima – i odmah je dokazalo koliko je to stvarno ograničeno. Svaka slika snimljena fotoaparatom vozila, nakon svega, je nova vrsta situacije koju AI mora riješiti!
Nisu mogli razlikovati različite tamne oblike na slikama i nisu mogli shvatiti je li to kamen, daleki objekt ili samo oblak koji zamagljuje sunce. Kao što je rekao zamjenik programskog direktora Grand Challengea, neka vozila – “bili su prestrašeni vlastite sjene, halucinirajući prepreke kad nisu bile tamo”.
Nijedna od skupina nije uspjela dovršiti cijeli tečaj, pa čak i najuspješnije vozilo imalo je samo 1,9 milja u utrku. Bio je to potpuni i krajnji neuspjeh – upravo onakvo istraživanje koje DARPA voli financirati, u nadi da će uvid i pouke iz tih ranih eksperimenata dovesti do stvaranja sofisticiranih sustava u budućnosti.
I to je točno kako su se stvari odigrale.
Godinu dana kasnije, kada je DARPA otvorio Grand Challenge 2005, pet vozila uspješno je došlo do kraja staze. Te su se skupine oslanjale na drugi val AI: statističko učenje. Google je voditelja jedne od pobjedničkih skupina postavio za razvoj Googleovog autonomnog automobila.
U sustavima sekundarnih AI sustava, inženjere i programere ne zanima učenje preciznih i točnih pravila za sustave koji slijede. Umjesto toga, razvijaju statističke modele za određene vrste problema, a zatim “obućuju” ove modele na mnogim različitim uzorcima kako bi ih preciznije i učinkovitije istrenirali.
Statistički sustavi učenja vrlo su uspješni u razumijevanju svijeta oko njih: mogu razlikovati ljude ili različite vokale. Mogu naučiti i prilagoditi se različitim situacijama ako su ispravno osposobljeni. Međutim, za razliku od sustava prvog vala, oni su ograničeni u njihovu logičkom kapacitetu: oni se ne oslanjaju na precizna pravila, već umjesto toga idu za rješenja koja “rade dovoljno dobro, obično”.
Primjer drugog vala je koncept umjetnih neuronskih mreža. U umjetnim neuronskim mrežama, podaci prolaze kroz računalne slojeve, od kojih svaki obrađuje podatke na drugačiji način i prenosi ih na sljedeću razinu. Obučavanjem svakog od tih slojeva, kao i cjelokupne mreže, oni se mogu oblikovati u proizvodnju najtočnijih rezultata. Često, trening zahtijeva da mreža analizira desetke tisuća izvora podataka kako bi postigla i mala poboljšanja. Ali općenito govoreći, ova metoda daje bolje rezultate od onih postignutih sustavima prvog vala u određenim područjima.
Do sada su sustavi drugog vala uspjeli preplaviti ljude pri prepoznavanju lica, prepisivanju govora i identifikacijom životinja i objekata na slikama. Izrađuju velike skokove u prijevodu, a ako to nije dovoljno – počinju kontrolirati autonomne automobile i zračne dronove. Uspjeh tih sustava u takvim složenim AI stručnjacima smeta, i iz vrlo dobrog razloga: još uvijek nismo sigurni zašto oni zapravo rade.
Ahilova peta sustava drugog vala je da nitko nije siguran zašto tako dobro rade. Vidimo kako umjetne neuronske mreže uspijevaju obavljati zadatke koji im se daju, ali ne razumijemo kako to rade. Nadalje, nije jasno da postoji zapravo metodologija – neka vrsta oslanjanja na osnovna pravila – iza umjetnih neuronskih mreža. U nekim aspektima oni su doista slični našem mozgu: možemo baciti loptu u zrak i predvidjeti gdje će pasti, čak i bez izračuna Newtonove jednadžbe gibanja.
Ovo ne izgleda kao velik problem na prvi pogled. Uostalom, umjetne neuronske mreže čini se da rade “dovoljno dobro”. Microsoft se možda ne slaže s tom procjenom. Tvrtka je prošle godine objavila bot društvenim medijima, pokušavajući oponašati ljudsko pisanje i razgovarati lagano s mladima. Bot, nazvan “Tai”, trebao je replicirati govorne obrasce 19-godišnje američke ženske mladosti i razgovarati s tinejdžerima u svom jedinstvenom slangu. Microsoft je shvatio da bi mladi voljeli to – i doista jesu. Mnogi od njih počeli su se prestrašiti Tai: rekli su joj o Hitleru i njegovom velikom uspjehu, otkrivajući joj da je teroristički napad 11. rujna bio unutarnji posao i objasnio u neizvjesnim uvjetima da su imigranti zabrana velike američke nacije. I tako, nekoliko sati kasnije, Tai je počeo primjenjivati svoje novo znanje, tvrdeći uživo na Twitteru da je Hitler bio u redu i zapravo nije ništa krivo učinio.
To je bio slučaj kada su Microsoftovi inženjeri ugasili Tai. Posljednji tweet je bio da odlazi da razmišlja. Koliko znamo, još uvijek razmišlja.
Ova je epizoda izložila izazov uzročnosti koji su inženjeri AI-a trenutno suočeni. Mogli bismo predvidjeti prilično dobro kako će prvi valovi funkcionirati pod određenim uvjetima. Ali s sustavima drugog vala više ne možemo lako prepoznati kauzalnost sustava – točan način na koji se ulaz prevede u izlaz, a podaci se koriste za donošenje odluke.
Sve to ne govori da su umjetne neuronske mreže i drugi sustavi drugog vala AI beskorisni. Daleko od toga. No, jasno je da ako ne želimo da naši sustavi unutarnjih poslova budu svi uzbuđeni zbog nacističkog diktatora, neka poboljšanja su u redu. Moramo se preseliti na sljedeći i treći val AI sustava.
Treći AI val: Kontekstualna prilagodba
U trećem valu, AI sustavi će sami izgraditi modele koji će objasniti kako svijet funkcionira. Drugim riječima, oni će sami otkriti logična pravila koja oblikuju njihov proces donošenja odluka.
Evo primjera. Pretpostavimo da sustav AI drugog vala analizira donju sliku i odluči da je to krava. Kako objašnjava svoj zaključak? Vrlo jednostavno – to ne čini.
Drugi valni AI sustavi zapravo ne mogu objasniti svoje odluke – baš kao što dijete nije moglo zapisati Newtonove jednadžbe kretanja samo gledanjem kretanja lopte kroz zrak. Najviše, sustavi drugog vala mogli bi nam reći da postoji “87% šanse da ovo bude slika krave”.
Treći val AI sustavi bi trebali biti u mogućnosti dodati neke tvari do konačnog zaključka. Kada će sustav trećeg vala utvrditi istu sliku, vjerojatno će reći da tamo gdje postoji četveronožac, postoji veća vjerojatnost da je to životinja. A budući da je njezina površina bijela, s crnom, još je veća vjerojatnost da je ovo krava (ili dalmatinski pas). Budući da životinja ima i vate i kopita, to je gotovo sigurno krava. To je, pretpostavlja se , ono što bi rekao sustav trećeg vala.
Sustavi trećeg vala moći će se osloniti na nekoliko različitih statističkih modela, kako bi se postiglo potpunije razumijevanje svijeta. Oni će se moći trenirati – baš kao Alpha-Go, kada je igrala milijune igara protiv sebe, kako bi se utvrdila pravila koja bi trebala koristiti. Sustavi trećeg vala bi također mogli preuzeti podatke iz nekoliko različitih izvora kako bi došli do finog i dobro objašnjenog zaključka. Ti sustavi mogu, na primjer, izvući podatke s nekoliko naših nosivih uređaja, iz pametne kuće, iz našeg automobila i grada u kojem živimo i utvrditi naše zdravstveno stanje. Čak će se moći programirati i potencijalno razvijati apstraktno razmišljanje.
Jedini problem je što, kako kaže direktor ureda za informacijske inovacije DARPA-e, “puno je posla kako bismo mogli izgraditi te sustave”.
A to su, što se tiče DARPA, najsuvremeniji AI sustavi u prošlosti, sadašnjosti i budućnosti.
Što to sve znači
DARPA-ov doista objašnjava razlike između različitih AI sustava, ali malo za ublažavanje strahova onih koji nas potiču na oprez u razvoju AI. DARPA jasno kaže da nismo ni blizu razvijanju ‘Terminator’ AI, ali to nikada nije bilo pitanje. Nitko ne pokušava tvrditi da je AI danas dovoljno sofisticiran da čini sve stvari koje bi trebalo učiniti u nekoliko desetljeća: imati vlastitu motivaciju, donositi moralne odluke i čak razviti sljedeću generaciju AI.
Ali ispunjenje trećeg vala svakako je veliki korak u tom smjeru.
Sustavi trećeg vala AI moći će dešifrirati nove modele koji će poboljšati njihovu funkciju, svi oni sami mogu biti u mogućnosti programirati nove generacije softvera. Kada shvate kontekst i posljedice svojih postupaka, moći će zamijeniti većinu radnika, a možda i sve njih. I ako im je dopušteno preoblikovanje modela kroz koje ocjenjuju svijet, onda će zapravo moći reprogramirati svoju motivaciju.
Sve gore navedeno neće se dogoditi u idućih nekoliko godina, i zasigurno se neće postići u potpunosti u narednih dvadeset godina. Kao što sam objasnio, nijedan ozbiljan AI istraživač ne tvrdi drugačije. Temeljna poruka istraživača i vizionara koji su zabrinuti za budućnost AI-a – ljudi poput Stevena Hawkinga, Nick Bostroma, Elona Muska i drugih – jest da moramo početi odmah pitati kako kontrolirati ove treće valne sustave, takve vrste koji će postati sveprisutni dvadeset godina od sada. Kada razmotrimo sposobnosti tih sustava upravljanja zračnim prostorom, ova poruka ne izgleda pretjerana.
Posljednji val
Najzanimljivija stvar za mene, koju DARPA ne objašnjava, jest ono kako će izgledati četvrti val AI sustava. Hoće li se oslanjati na točnu emulaciju ljudskog mozga? Ili možda sustavi četvrtog vala pokazuju mehanizme donošenja odluka koje još nismo u stanju razumjeti – a koji će ih razviti sustavi trećeg vala?
Ta su pitanja otvorena da razmotrimo, ispitamo i istražimo.
To je naša zadaća kao ljudskih bića, barem dok sustavi trećeg vala i to ne preuzmu.
Izvor: www.futurism.com