ITM
Umjetna inteligencija će donositi odluke na bojišnicama
Američka znanstvena vojna agencija pokrenula je program čiji je cilj uvesti AI u sustav zapovijedanja u ratnim operacijama.
Umjetna inteligencija koja upravlja ratom djeluje kao nešto iz scenarija SF filmova poput Terminatora, no američka vojna znanstvena agencija DARPA vjeruje da upravo AI može koristiti u donošenju teških odluka u dinamičnim situacijama na bojišnicama kada ljudi teško mogu dati najbolje i najsvrsishodnije odgovore.
Iz tog razloga DARPA je pokrenula ITM (In the Moment) program koji nastoji kvantificirati usklađenost algoritama s pouzdanim ljudskim donositeljima odluka u teškim situacijama gdje nema pravog odgovora. ITM ima za cilj procijeniti i izgraditi pouzdane algoritamske donositelje odluka za kritične operacije američkog Ministarstva obrane (DoD).
"ITM se razlikuje od tipičnih pristupa razvoju umjetne inteligencije koji zahtijevaju ljudski dogovor o pravim ishodima”, rekao je Matt Turek, voditelj programa ITM. "Nedostatak pravog odgovora u teškim scenarijima sprječava nas da koristimo konvencionalne tehnike procjene umjetne inteligencije, što implicitno zahtijeva ljudski pristanak za stvaranje temeljnih podataka."
Za ilustraciju, algoritmi samovozećih automobila mogu se temeljiti na temeljnoj istini za ispravne i pogrešne reakcije na vožnju na temelju prometnih znakova i pravila ceste koja se ne mijenjaju. Jedan izvediv pristup u tim scenarijima je "tvrdo kodiranje" vrijednosti rizika u simulacijsko okruženje koje se koristi za obuku algoritama samovozećih automobila.
"To neće funkcionirati iz perspektive Ministarstva odbrane jer se borbene situacije brzo razvijaju, a uloga zapovjednika mijenja se od scenarija do scenarija", rekao je Turek. "DoD treba rigorozne, mjerljive i skalabilne pristupe evaluaciji i izgradnji algoritamskih sustava za teško donošenje odluka tamo gdje je objektivna temeljna istina nedostupna. Teške odluke su one u kojima se donositelji odluka od povjerenja ne slažu, ne postoji pravi odgovor, a neizvjesnost, vremenski pritisak i sukobljene vrijednosti stvaraju značajne izazove u donošenju odluka."
TM uzima inspiraciju iz područja analize medicinskih vizualnih prikaza poput rendgenskih slika, gdje su razvijene tehnike za ocjenjivanje sustava čak i kada se vješti stručnjaci mogu ne slagati oko temeljne istine. Na primjer, granice organa ili patologije mogu biti nejasne ili sporne među radiolozima. Kako bi se prevladao nedostatak prave granice, algoritamski nacrtana granica uspoređuje se s distribucijom granica koje su nacrtali ljudski stručnjaci. Ako granica algoritma leži unutar distribucije granica koje su povukli ljudski stručnjaci tijekom mnogih ispitivanja, kaže se da je algoritam usporediv s ljudskom izvedbom.
"Na temelju uvida u medicinsko snimanje, ITM će razviti kvantitativni okvir za procjenu donošenja odluka pomoću algoritama u vrlo teškim domenama", rekao je Turek. "Stvorit ćemo realistične, izazovne scenarije donošenja odluka koji će izazvati odgovore ljudi od povjerenja kako bi omogućili distribuciju ključnih atributa donositelja odluka. Zatim ćemo algoritam za donošenje odluka podvrgnuti istim izazovnim scenarijima i mapirati njegove odgovore u referentnu distribuciju kako bismo ga usporedili s ljudskim donositeljima odluka od povjerenja."
Program ima četiri tehnička područja. Prvi je razvoj tehnika karakterizacije donositelja odluka koje identificiraju i kvantificiraju ključne atribute donositelja odluka u teškim domenama. Drugo tehničko područje je stvaranje kvantitativne ocjene usklađenosti između čovjeka koji donosi odluke i algoritma na načine koji predviđaju povjerenje krajnjih korisnika. Treće tehničko područje odgovorno je za osmišljavanje i izvođenje evaluacije programa. Završno tehničko područje odgovorno je za integraciju politike i prakse, pružanje pravne, moralne i etičke ekspertize za program, potpora razvoju buduće politike Ministarstva obrane i koncepata operacija (CONOPS) te nadgledanje razvoja procesa etičkog djelovanja (DevEthOps).
Kako bi se procijenio cijeli ITM proces, višestrukim ljudskim i algoritamskim donositeljima odluka bit će predstavljeni scenariji iz domena medicinske trijaže (faza 1) ili masovnih nesreća (faza 2). Donositelji algoritamskih odluka uključivat će usklađene algoritamske donositelje odluka sa poznavanjem ključnih ljudskih atributa donošenja odluka i osnovnog algoritamskog donositelja odluka bez znanja o tim ključnim ljudskim atributima. Stručnjak za trijažu ljudi također će biti uključen kao eksperimentalna kontrola.
"Prikupiti ćemo odluke, odgovore od svakog od onih koji donose odluke, i prezentirati ih profesionalcima za trijažu", rekao je Turek. "Ti stručnjaci za trijažu neće znati dolazi li odgovor od usklađenog algoritma, osnovnog algoritma ili od čovjeka".
Konačan cilj ovog programa je uvesti AI algoritme u sustave zapovijedanja na bojišnicama, jer će oni znatno brže donositi najbolje odluke koje mogu značiti razliku između života i smrti.
Mada DARPA vjeruje da će AI voditi puno računa oko etici i moralu ratovanja, malo nas je strah i samo pomisliti da AI odlučuje o životima ljudi.
Kada bi međusobno ratovali samo roboti ne bismo imali ništa protiv, no u ratovima stradavaju ljudi, a najviše civilne žrtve.
Učitavam komentare ...