Vještačka inteligencija ne prati logiku naučnog napretka
tehnologije

Vještačka inteligencija ne prati logiku naučnog napretka

U MT smo mnogo puta pisali o istraživačima i profesionalcima koji proglašavaju sisteme mašinskog učenja „crnim kutijama“ (1) čak i za one koji ih grade. To otežava evaluaciju rezultata i ponovno korištenje algoritama u nastajanju.

Neuronske mreže - tehnika koja nam daje inteligentne botove za pretvaranje i genijalne generatore teksta koji čak mogu stvarati poeziju - ostaje neshvatljiva misterija za vanjske posmatrače.

Oni postaju sve veći i složeniji, rukuju ogromnim skupovima podataka i koriste masivne računarske nizove. To čini replikaciju i analizu dobijenih modela skupim i ponekad nemogućim za druge istraživače, osim za velike centre sa ogromnim budžetima.

Mnogi naučnici su dobro upoznati sa ovim problemom. Među njima je i Joel Pino (2), predsjednik NeurIPS-a, prve konferencije o reproduktivnosti. Stručnjaci pod njenim vodstvom žele da naprave "kontrolnu listu reproduktivnosti".

Ideja je, rekao je Pino, ohrabriti istraživače da drugima ponude mapu puta kako bi mogli ponovo kreirati i koristiti već obavljeni posao. Možete se diviti elokvenciji novog generatora teksta ili nadljudskoj spretnosti robota za video igre, ali čak ni najbolji stručnjaci nemaju pojma kako ova čuda funkcioniraju. Stoga je reprodukcija AI modela važna ne samo za identifikaciju novih ciljeva i pravaca istraživanja, već i kao čisto praktičan vodič za korištenje.

Drugi pokušavaju riješiti ovaj problem. Google istraživači su ponudili "kartice modela" kako bi detaljno opisali kako su sistemi testirani, uključujući rezultate koji ukazuju na potencijalne greške. Istraživači sa Allen instituta za umjetnu inteligenciju (AI2) objavili su rad koji ima za cilj proširiti kontrolnu listu za ponovljivost pinota na druge korake u eksperimentalnom procesu. “Pokažite svoj rad”, pozivaju.

Ponekad nedostaju osnovne informacije jer je istraživački projekat u vlasništvu, posebno laboratorija koje rade za kompaniju. Međutim, češće je to znak nesposobnosti da se opiše promjenjive i sve složenije metode istraživanja. Neuronske mreže su veoma složena oblast. Da bi se postigli najbolji rezultati, često je potrebno fino podešavanje hiljada "dugmića i dugmadi", što neki nazivaju "crna magija". Izbor optimalnog modela često je povezan s velikim brojem eksperimenata. Magija postaje veoma skupa.

Na primjer, kada je Facebook pokušao da replicira rad AlphaGo, sistema koji je razvio DeepMind Alphabet, zadatak se pokazao izuzetno teškim. Ogromni računski zahtjevi, milioni eksperimenata na hiljadama uređaja tokom mnogo dana, u kombinaciji s nedostatkom koda, učinili su sistem "veoma teškim, ako ne i nemogućim, ponovo kreirati, testirati, poboljšati i proširiti", kažu zaposlenici Facebooka.

Čini se da je problem specijalizovan. Međutim, ako razmislimo dalje, fenomen problema sa ponovljivošću rezultata i funkcija između jednog istraživačkog tima i drugog potkopava svu logiku funkcionisanja nauke i istraživačkih procesa koja nam je poznata. Rezultati prethodnih istraživanja po pravilu se mogu koristiti kao osnova za dalja istraživanja koja podstiču razvoj znanja, tehnologije i opšti napredak.

Dodajte komentar