MIT
AI objašnjava predviđanja jednostavnim jezikom
Korištenje LLM-a za pretvaranje objašnjenja strojnog učenja u čitljive priče moglo bi pomoći korisnicima da donesu bolje odluke o tome kada vjerovati modelu.
Modeli strojnog učenja mogu pogriješiti i biti teški za korištenje, pa su znanstvenici razvili metode objašnjenja kako bi pomogli korisnicima da razumiju kada i kako trebaju vjerovati predviđanjima modela.
Ta su objašnjenja često složena, međutim, možda sadrže informacije o stotinama značajki modela. Ponekad se predstavljaju kao višestruke vizualizacije koje korisnicima koji nemaju stručnost u strojnom učenju može biti teško u potpunosti razumjeti.
Kako bi pomogli ljudima da shvate objašnjenja umjetne inteligencije, istraživači američkog Instituta za tehnologiju u Massachusettsu, MIT-a, upotrijebili su velike jezične modele (LLM-ove) za transformaciju objašnjenja u jednostavan jezik.
Razvili su dvodijelni sustav koji pretvara objašnjenje strojnog učenja u odlomak čitljivog teksta i zatim automatski procjenjuje kvalitetu naracije, tako da krajnji korisnik zna treba li mu vjerovati.
Upućujući sustav s nekoliko primjera objašnjenja, istraživači mogu prilagoditi njegove narativne opise kako bi zadovoljili preferencije korisnika ili zahtjeve specifičnih aplikacija.
Dugoročno gledano, istraživači se nadaju da će nadogradnjom ove tehnike omogućavati korisnicima da postavljaju dodatna pitanja modelu o tome kako je došao do predviđanja u stvarnom okruženju.
Istraživači su se usredotočili na popularnu vrstu objašnjenja strojnog učenja pod nazivom SHAP. U SHAP objašnjenju, vrijednost se dodjeljuje svakoj značajki koju model koristi za predviđanje. Na primjer, ako model predviđa cijene kuća, jedna značajka može biti lokacija kuće. Lokaciji bi se dodijelila pozitivna ili negativna vrijednost koja predstavlja koliko je ta značajka promijenila cjelokupno predviđanje modela.
Često su SHAP objašnjenja predstavljena kao dijagrami koji pokazuju koje su značajke najvažnije ili najmanje važne. Ali za model s više od 100 značajki, ta crta brzo postaje nezgrapna.
Međutim, umjesto da koriste veliki jezični model za generiranje objašnjenja na prirodnom jeziku, istraživači koriste LLM kako bi transformirali postojeće SHAP objašnjenje u čitljiv narativ.
Time što LLM obrađuje samo dio procesa koji se odnosi na prirodni jezik, ograničava mogućnost unošenja netočnosti u objašnjenje.
Njihov sustav, nazvan EXPLINGO, podijeljen je u dva dijela koji rade zajedno. Prva komponenta, nazvana NARRATOR, koristi LLM za stvaranje narativnih opisa SHAP objašnjenja koja zadovoljavaju preferencije korisnika. Početnim unosom NARATORU tri do pet pisanih primjera narativnih objašnjenja, LLM će oponašati taj stil pri generiranju teksta.
Nakon što NARRATOR stvori objašnjenje jednostavnim jezikom, druga komponenta, GRADER, koristi LLM za ocjenjivanje naracije prema četiri metrike, sažetosti, točnosti, potpunosti i tečnosti. GRADER automatski traži LLM s tekstom iz NARRATORA i SHAP objašnjenjem koje opisuje.
Kako bi testirali svoj sustav, istraživači su uzeli devet skupova podataka strojnog učenja s objašnjenjima i zamolili različite korisnike da napišu narative za svaki skup podataka. To im je omogućilo da procijene sposobnost NARRATORA da oponaša jedinstvene stilove. Koristili su GRADER za ocjenu svakog narativnog objašnjenja na sve četiri metrike.
Na kraju su istraživači otkrili da njihov sustav može generirati visokokvalitetna narativna objašnjenja i učinkovito oponašati različite stilove pisanja.
Njihovi rezultati pokazuju da pružanje nekoliko primjera objašnjenja uvelike poboljšava stil pripovijedanja.
Nadovezujući se na te rezultate, istraživači žele istražiti tehnike koje bi mogle pomoći njihovom sustavu da bolje barata usporednim riječima. Također žele proširiti EXPLINGO dodavanjem racionalizacije objašnjenjima.
Dugoročno se nadaju da će ovaj rad iskoristiti kao odskočnu dasku prema interaktivnom sustavu u kojem korisnik može postavljati modelu dodatna pitanja o objašnjenju.
Studiju možete pronaći na ovoj poveznici.
Učitavam komentare ...