1 UVOD Proces avtomatske zaznave sprememb med dvema ali več magnetnoresonančnimi (MR) slikami glave vključuje primerjanje lastnosti soležnih struktur v teh slikah. Te lastnosti opišemo z značilnicami struktur, pri čemer je najosnovnejša značilnica sivinska vrednost. Značilnice so lahko tudi bolj kompleksne, kot na primer oddaljenost opazovanega slikovnega elementa od ventri- klov, histogram sivinskih vrednosti v okolici opazova- nega slikovnega elementa, na podlagi prostorsko porav- nanega atlasa določena a priori verjetnost, da opazovani slikovni element pripada določeni možganski strukturi, itn. Izbira primernega nabora značilnic je vselej pogo- jena s konkretnim problemom, ki ga želimo rešiti. Pri načrtovanju postopkov za analizo in razgradnjo medicinskih slik se pogosto srečamo s tehničnimi vprašanji, povezanimi s predobdelavo in pripravo značilnic, kot na primer: Kakšen tip glajenja slik naj uporabim? Katere MR-sekvence naj uporabim? Ali naj slike predhodno preslikam v skupni prostor? V kakšnem vrstnem redu naj izvedem te postopke? Tudi s stališča klinične uporabe tehnologij analize slik se porajajo pomembna vprašanja: Kateri protokoli zajema slik so najustreznejši za poznejšo avtomatsko obdelavo? Kakšna naj bo prostorska ločljivost zajema slik? Pri majhnem začetnem naboru značilnic lahko optimalen nabor značilnic poiščemo na preprost način, in sicer s poizkušanjem vseh mogočih kombinacij značilnic. Z večanjem začetnega nabora značilnic pa tak pristop kaj hitro postane nepraktičen in računsko prezahteven, 86 LESJAK, LIKAR, PERNUŠ, ŠPICLIN saj se prostor iskanja optimalnih značilnic z večanjem začetnega nabora povečuje eksponentno. Iz teh razlogov se pri večjem začetnem naboru značilnic poslužujemo naprednejših postopkov za iskanje optimalnih značilnic. Najpogosteje uporabljeni postopki za zaznavo spre- memb v beli možganovini so tisti, ki temeljijo na analizi sivinskih vrednosti soležnih slikovnih elementov. Osnovi princip zaznave sprememb s temi postopki je vrednotenje podobnosti vrednosti ene ali več značilnic soležnih slikovnih elementov. V okviru tega dela bomo na primerih lezij bele možganovine (LBM) pri bolnikih, obolelih za multiplo sklerozo (MS), raziskali različne načine za ocenjevanje pomembnosti značilnic za za- znavanje sprememb bele možganovine. Kot osnovno orodje za določitev pomembnosti značilnic in izbor optimalnih značilnic bomo uporabili razvrščevalnik z naključnimi gozdovi (ang. random forests). Nato bomo z uporabo drugih razvrščevalnikov preverili zaneslji- vost z naključnimi gozdovi ugotovljene pomembnosti značilnic. Tako bomo ugotovili, ali dobljene zanesljivosti lahko pripišemo posameznim značilnicam in ali izbrani optimalni nabor značilnic na splošno lahko učinkovito uporabimo z drugimi razvrščevalniki. 1.1 Izbiranje značilnic Izbiranje značilnic (ang. feature selection) je proces izbire optimalne podmnožice značilnic za čim boljše razvrščanje. Iz (začetnega) nabora z izbiranjem značilnic zmanjšamo dimenzijo prostora značilnic, ne da bi spre- menili pomen značilnic. Ti postopki se razlikujejo od po- stopkov za znižanje dimenzionalnosti prostora značilnic, ki temeljijo na projekcijah (npr. metoda osnovnih kom- ponent - ang. principal component analysis) ali kom- presiji (npr. z uporabo teorije informacij). Izbiranje značilnic prinese številne prednosti, od katerih so naj- pomembnejše: 1. izognjenje prenasičenju (ang. over- fitting) pri učenju razvrščevalnika in s tem povezano izboljšanje razvrščanja, 2. pohitritev in poenostavitev razvrščevalnika in 3. poglobljeno razumevanje pomemb- nosti značilnic, uporabljenih za graditev razvrščevalnika. Iskanje optimalnih značilnic vnese v proces gradnje razvrščevalnika dodatno raven zahtevnosti. V naspro- tju z gradnjo razvrščevalnika brez izbora značilnic, kjer le naučimo oziroma poiščemo optimalne parametre razvrščevalnika, moramo pri gradnji razvrščevalnika z izborom značilnic razširiti dimenzijo prostora iskanja z dodatnim podprostorom optimalnih značilnic. Tako moramo pri učenju razvrščevalnika poiskati optimalne parametre razvrščevalnika pri trenutni optimalni pod- množici značilnic, pri tem pa se moramo zavedati, da na splošno optimalni parametri razvrščevalnika s pol- nim naborom značilnic niso nujno enaki optimalnemu naboru značilnic pri razvrščevalniku, ki je zgrajen z optimalno podmnožico značilnic [2]. Postopke izbora značilnic delimo glede na to, kako poteka proces iskanja optimalnega podprostora značilnic [11]. Glede na način delovanja lahko postopke izbiranja značilnic razdelimo na: 1. postopke s filtriranjem, 2. z ovojem (ang. wrapper methods) in 3. z vgrajenim iz- borom (ang. embedded methods). Postopki s filtriranjem ocenijo ustreznost posameznih značilnic z intrinzičnimi lastnostmi podatkov – najpogosteje z razvrščanjem značilnic glede na neko oceno pomembnosti, pri čemer so najmanj pomembne nato odstranjene iz začetnega nabora značilnic. Prednosti teh postopkov so preprosta implementacija, računska nezahtevnost in dobro skalira- nje za visokodimenzionalen začetni nabor značilnic. Taki postopki so neodvisni od razvrščevalnika, kar omogoča predhodno izbiranje optimalnih značilnic, s katerimi nato lahko preizkušamo različne razvrščevalnike. Tak pristop je hkrati tudi njihova največja pomanjkljivost, saj je izbor optimalnih značilnic na splošno vezan na uporabljeni razvrščevalnik. Dodatna slabost teh postop- kov je tudi to, da so v veliki večini univariatni, kar pomeni, da pri izbiri optimalnih značilnic upoštevajo le eno značilnico hkrati in zanemarijo njihove medsebojne odvisnosti. Pozneje so bili razviti številni multivaria- tni postopki, ki na račun višje računske zahtevnosti upoštevajo tudi odvisnost med različnimi značilnicami. Postopki za izbiro značilnic z ovojem delujejo tako, da problem iskanja parametrov razvrščevalnika “ovijejo” z dodatnim nivojem – iskanjem po prostoru vseh različnih mogočih podmnožic polnega nabora značilnic. Tako mo- ramo za vsako mogočo podmnožico značilnic ponovno naučiti razvrščevalnik. Ker pri tem računska zahtev- nost raste eksponentno s številom značilnic v začetnem naboru, se za iskanje optimalnega nabora značilnic v prostoru vseh podmnožic značilnic navadno uporablja hevristično iskanje. Glavni prednosti teh postopkov sta upoštevanje interakcije med podmnožicami značilnic in razvrščevalnikom ter upoštevanje medsebojnih odvisno- sti značilnic. V primerjavi s postopki s filtriranjem so ti postopki izpostavljeni prenasičenju in računsko zelo zahtevni. Tretji razred postopkov za izbiro značilnic so postopki z vgrajenim izborom, pri katerih je iskanje optimalnega nabora značilnic že vgrajeno v sam razvrščevalnik. Tako pri iskanju optimalnih parametrov razvrščevalnika hkrati iščemo tudi optimalno podmnožico značilnic. Prednost teh postopkov je v tem, da upoštevajo interakcijo med razvrščevalnikom in podmnožico značilnic, hkrati pa so računsko učinkovitejši kot postopki z ovojem. Pregled postopkov za izbiro značilnic skupaj z njihovimi pred- nostmi in slabostmi je prikazan v tabeli 1. 1.2 Izbor značilnic z uporabo naključnih gozdov Naključni gozdovi so v zadnjih letih postali eno glavnih orodij tako pri strojnem učenju na splošno, kot tudi za specifične naloge, kot je obdelava medicinskih slik [3], [5], [7]. V literaturi so se naključni gozdovi za namen razvrščanja značilnic odrezali zelo dobro že na številnih problemih, tudi pri razvrščanju nelinearnih podatkov s kompleksnimi medsebojnimi interakcijami. DOLOČITEV OPTIMALNIH ZNAČILNIC ZA ZAZNAVO SPREMEMB BELE MOŽGANOVINE 87 Tabela 1: Razvrstitev in pregled postopkov za izbiro značilnic ter njihove splošne prednosti in slabosti Razred Prednosti Slabosti Ime postopka Filtriranje (uni- variatno) Hitri, dobro skaliranje, ne- odvisni od razvrščevalnika Ne upoštevajo medsebojnih odvisnosti značilnic χ2, evklidska razdalja Filtriranje (mul- tivariatno) Upoštevajo medsebojno od- visnost značilnic, neodvisni od razvrščevalnika Računsko zahtevni, slabo skaliranje Korelacijska izbira značilnic, Markov blanket filter Postopki z ovo- jem Preprosti, upoštevajo razvr- ščevalnik, upoštevajo med- sebojne odvisnosti značilnic Računsko zahtevni, občut- ljivi na prenasičenje Sequential forward selection, Beam search, Simulated anne- aling, Genetic algorithms Postopki z vgra- jenim izborom Upoštevajo razvrščevalnik, upoštevajo medsebojne od- visnosti značilnic Izbor odvisen od izbranega razvrščevalnika Odločitvena drevesa, uteženi naiven Bayesov razvščevalnik, uteženi vektorski SVM Naključni gozdovi spadajo med skupinske metode (ang. ensamble methods), ki za vsak problem razvrščanja uporabijo več posameznih odločitvenih dreves. Posa- mezna odločitvena drevesa so zgrajena na podlagi na- ključne podmnožice učnih podatkov (ang. bootstraping). Tako je vsako drevo zgrajeno z različnim, naključno izbranim naborom značilnic. Razvrščanje oziroma na- povedno vrednost, ki pomeni verjetnost razvrstitve z na- ključnimi gozdovi, dobimo tako, da združimo razvrstitve posameznih dreves v gozdu. V primerjavi z uporabo posameznih odločitvenih dreves se naključni gozdovi izkažejo za natančnejše in bolj zanesljive. Žal pa se njihove strategije razvrščanja v nasprotju s posamičnimi odločitvenimi drevesi ne da tako preprosto interpretirati. Pri posameznih odločitvenih drevesih lahko pomemb- nost posamezne značilnice hitro razberemo že iz njenega hierarhičnega položaja v odločitvenem drevesu, pri na- ključnih gozdovih pa moramo za določitev pomembnosti značilnic uporabiti druge pristope. Najpreprostejši pristop za določitev pomembnosti značilnic v naključnem gozdu je preštevanje uporabe posamezne značilnice uporabljene prek vseh dreves v gozdu. Ta pristop na splošno ni najbolj primeren, saj moramo za zanesljivo oceno pomembnosti poleg pojav- nosti posameznih značilnic v gozdu odločitvenih dreves upoštevati še: 1. število vzorcev, ki jih razvrsti posa- mezna razvejitev v drevesu, in 2. kakovost razvrščanja posamezne razvejitve. Naprednejši pristop za določitev pomembnosti značilnic dobimo, če s številom vzorcev uteženo povprečimo sposobnost ločevanja posameznih značilnic za vse razvejitve vseh dreves v gozdu [6]. Pri tem lahko sposobnost ločevanja merimo z izboljšanjem koeficienta Gini oziroma z zmanjšanjem entropije, od koder izhaja tudi ime ocene pomembnosti: pomembnost Gini (ang. Gini Importance - GI). Najnaprednejša mera za izračun pomembnosti značilnic s pomočjo naključnih gozdov je tako imenovana pomembnost točnosti s permutacijo (ang. Permutation Accuracy Importance - PAI). Za oceno pomembnosti po tem postopku potrebujemo dodatno validacijsko zbirko podatkov X. Nato posamezen stolpec, ki pomeni eno značilnico v vhodnih podatkih Xj, naključno premešamo in tako izničimo njen vpliv na napovedno vrednost Y. Pomembnost posamezne permutirane značilnice nato določimo tako, da podatke s permutirano značilnico uporabimo na naključnem gozdu in opazujemo spremembo napovednih vrednosti Y. Pomembnost permutirane značilnice lahko tako definiramo kot relativno razliko v točnosti napovednih vrednosti Y pred permutacijo in po njej, pri čemer lahko za definicijo točnosti izberemo različne validacijske metrike. Ta postopek ponovimo za vsako posamezno značilnico, katere pomembnost želimo oceniti. Prednost postopka PAI je, da ni specifičen za naključne gozdove, in ga lahko zato uporabljamo za oceno pomembnosti značilnic različnih razvrščevalnikov. 2 MATERIALI IN METODE Za določitev pomembnosti značilnic za zaznavo spre- memb bele možganovine smo uporabili postopek z vgra- jenim izborom značilnic, ki temelji na razvrščanju vzor- cev z naključnimi gozdovi. Le-ta nam namreč že po svoji zasnovi omogoča določanje pomembnosti posameznih značilnic. 2.1 Validacijska zbirka slik Za učenje in validacijo naučenega naključnega gozda smo uporabili javno objavljeno longitudinalno zbirko MR-slik z referenčnimi obrisi sprememb LBM [8]. Zbirka vsebuje referenčne in kontrolne MR-preiskave 20 MS bolnikov. Slike so bile zajete na 1,5T Phi- lips MR-napravi v Univerzitetnem kliničnem centru v Ljubljani. Vsaka MR-preiskava vsebuje 2D T1w (spin echo sequence, TR=600 ms, TE=15 ms, FA=90◦, vzorčenje 0,9×0,9×3 mm brez razmika med rezinami), 2D T2w (spin echo sequence, TR=4500 ms, TE=100 ms, FA=90◦, vzorčenje 0,45×0,45×3 mm brez razmika med rezinami) in 2D FLAIR sliko (TR=11000, TE=140, TI=2800, FA=90, vzorčenje 0,9×0,9×3 mm brez raz- mika med rezinami). 88 LESJAK, LIKAR, PERNUŠ, ŠPICLIN V tabeli 2 so prikazani demografski podatki o bolni- kih, njihovo bolezensko stanje in trenutna terapija. Čas med zaporednimi MR-preiskavami bolnikov je bil od 81 do 723 dni (mediana: 311, IQR: 223). Vsi bolniki so podali pisno soglasje za uporabo slik za namen tega dela, njihove slike pa so bile pred računalniško obdelavo anonimizirane. Referenčni obrisi sprememb LBM so bili zgrajeni na podlagi slike razlik in so kot taki zaradi visoke občutljivosti dobro orodje za validacijo postopkov zaznave sprememb LBM [8]. Slike iz zbirke smo psevdonaključno ločili v dve skupini, pri čemer je testna skupina vsebovala 66 % vseh slik, validacijska skupina pa preostalih 33 % slik. Pri razporejanju slik bolnikov smo pazili, da sta bili obe skupini uravnoteženi v smislu enake porazdelitve skupnega volumna LBM pri posameznih bolnikih. 2.2 Začetni nabor značilnic Iz vsakega para dveh zaporednih MR-preiskav smo izločili naslednji nabor začetnih značilnic: a) šest eno- stavnih značilnic sivinskih vrednosti referenčnih in kon- trolnih T1w, T2w in FLAIR slik, b) dve značilnici odda- ljenosti opazovanega slikovnega elementa od stene ven- triklov oziroma možganske skorje in c) sedem značilnic, ki so pomenile vse možne kombinacije slike podobnosti STI različnih MR-sekvenc [8]: DMSTI (xi) = ‖FM (xi)− BM (xi)‖ , (1) pri čemer se BM in FM nanašata na predobdelano referenčno oziroma kontrolno MR-sliko sekvence M, xi je sivinska vrednost slikovnega elementa i, ‖·‖ pa L2 norma razlik istoležnih slikovnih elementov. Skupaj smo iz vsakega para zaporednih MR-preiskav izločili 15 značilnic. Začetni nabor preprostih in pomenljivih značilnic nam omogoča preprosto vrednotenje in interpretacijo rezul- tatov, zaradi njihovega relativno nizkega števila pa je obvladljiva tudi računska zahtevnost. 2.3 Učenje naključnega gozda Pri učenju naključnega gozda moramo izbrati številne parametre, kot so: število odločitvenih dreves v gozdu, največja globina odločitvenih dreves, število vzorcev, upoštevanih pri vsakem razcepu odločitvenega drevesa, itn. V našem primeru smo začetne parametre izbrali na podlagi relevantne literature, in sicer take, ki so se pri podobnih problemih izkazali za ustrezne [1], [9]. Parametre smo v poskusih prilagodili. Ustreznost izbranih parametrov smo kvalitativno preverili z opa- zovanjem Diceovega podobnostnega koeficienta (DSC – ang. Dice similarity coefficient) razvrščevalnika na učni in validacijski zbirki slik pri različnih vrednostih parametrov (število dreves, maksimalna globina dreves itd.), med učenjem in po njem. V poskusih uporabljeni parametri so prikazani v tabeli 3. Naključni gozd smo učili postopoma, in sicer tako, da smo za vsakega od n bolnikov naučili po k odločitvenih dreves. Celoten gozd je tako obsegal n×k odločitvenih dreves. Ker je lahko vseh dreves veliko in s tem učenje računsko zelo zahtevno, hkrati pa lahko pride do pre- nasičenja, smo po končanem učenju obdržali le t po kakovosti razvrščanja najboljših dreves, preostala pa smo zavrgli. Za določitev najboljših odločitvenih dreves smo uporabili vzorce iz slik istih bolnikov kot za učenje, le da vzorcev nismo decimirali, za kriterij zmožnosti oziroma kakovosti razvrščanja dreves pa smo uporabili metriko DSC. Ustreznost modela smo na koncu ovre- dnotili z izračunom občutljivosti (ang. true positive rate - TPR), nespecifičnosti (ang. false positive rate - FPR) in metriko DSC na validacijski zbirki slik. Pri učenju naključnih gozdov moramo biti pozorni na razpršenost vzorcev in razmerje med številom vzor- cev v posameznih razredih. Ker je prostornina spre- memb LBM v primerjavi s prostornino celotne bele možganovine izjemno majhna, smo morali posebno po- zornost nameniti tudi ustrezni izbiri učnih vzorcev pri posameznem bolniku. Izkaže se, da naključni gozdovi delujejo najbolje, če sta obe skupini vzorcev enako- merno zastopani. Zato smo pri učenju razvrščevalnika poleg celotnega nabora pozitivnih vzorcev (tj. LBM) za vsakega bolnika izbrali še enako število negativnih vzorcev (z območja zdrave bele možganovine). Da bi zajeli večji del variabilnosti negativnih vzorcev, smo za vsakega bolnika vzorce vzorčili večkratno, pri čemer smo pozitivne vzorce preprosto pomnogoterili, medtem ko so bili negativni vzorci vselej izbrani naključno. Ker so bili vzorci normalizirani že kot del postopka predobdelave pri pripravi zbirke slik [8], končnih iz- branih vzorcev za učenje izbora značilnic in učenje razvrščevalnika nismo dodatno normalizirali. 2.4 Analiza zanesljivosti in posplošljivosti S pomočjo naučenega in validiranega naključnega gozda smo nato opazovali pomembnost posameznih značilnic z dvema različnima postopkoma: GI in PAI. Zanimalo nas je, kako stabilne oziroma zanesljive so tako pridobljene ocene pomembnosti značilnic, zato smo naključni gozd naučili večkrat, pri čemer smo pri posameznem procesu učenja odstranili po eno značilnico iz celotnega začetnega nabora in s pomočjo korelacije opazovali, kako se kot posledica odstranitve značilnice spremeni ocena pomembnosti preostalih značilnic. Ker se v praksi pogosto uporabljajo različni razvrščevalniki, smo v nadaljevanju preverili, ali se ugo- tovljene pomembnosti značilnic z uporabo naključnih gozdov lahko posplošijo na druge razvrščevalnike. Vprašali smo se: “Ali so značilnice, ki so po- membne za razvrščanje z uporabo naključnih gozdov, enako pomembne tudi, če uporabimo druge postopke razvrščanja?”. Da bi odgovorili na to vprašanje, smo na enaki učni zbirki slik naučili nekatere od pogosto uporabljenih razvrščevalnikov: kvadratična diskriminan- tna analiza (ang. Quadratic Discriminant Analysis – QDA), Adaboost in naivni Bayes (ang. Naive Bayes). DOLOČITEV OPTIMALNIH ZNAČILNIC ZA ZAZNAVO SPREMEMB BELE MOŽGANOVINE 89 Tabela 2: Demografski podatki bolnikov in trenutna terapija Spol Starost Tip bolezni MS Terapija 14 žensk 6 moških od 19 do 50 let mediana: 34 let 1 sekundarno–progresivna 14 recidivno–remitentna 5 neznano 2 brez zdravil 6 Gilenya 2 Copaxon 2 Tysabri 1 Tecfidera 1 Aubagio 6 neznano Tabela 3: Parametri, uporabljeni pri graditvi naključnih gozdov Opis parametra Vrednost Omejitve št. odločitvenih dreves na bolnika (k) št. značilnic min 15, maks 40 št. značilnic, upoštevanih za razcep √ št. značilnic maksimalna globina odločitvenih dreves √ št. značilnic min 3 končno število odločitvenih dreves 150 min. št. vzorcev za razcep 300 min. št. vzorcev v listu 50 Tabela 4: Metrike kakovosti razgradnje slik z naključnim gozdom na učni in validacijski zbirki slik. Zbirka slik TPR† FPR‡ DSC Učna 0,834 0,055 0,882 Validacijska 0,823 0,080 0,863 †občutljivost, ‡specifičnost Zanimalo nas je tudi, kako sprememba parametrov razvrščevalnika vpliva na oceno pomembnosti značilnic, zato smo ponovno naučili nov naključni gozd, tokrat s spremenjenimi parametri glede na tabelo 3: maksimalna globina drevesa 5, minimalno število vzorcev za razcep 2, minimalno število vzorcev v listu 1 in 150 dreves v gozdu, pri čemer so bila drevesa izračunana na pod- lagi slik vseh bolnikov. Za vse naučene razvrščevalnike smo izračunali metriko pomembnosti značilnic PAI, pri čemer smo za kakovost razvrščanja uporabili metriko DSC. S korelacijo PAI novih razvrščevalnikov in ori- ginalnega naključnega gozda pa smo primerjali, ali so ocene pomembnosti, pridobljene z naključnim gozdom, prenosljive na druge razvrščevalnike. 3 REZULTATI Tabela 4 kaže metrike, ki jih naučeni naključni gozd dosega na validacijski zbirki slik. Vidimo, da se rezultati med učno in validacijsko zbirko slik le malo razlikujejo, kar kaže na to, da je naključni gozd dobro naučen in da ne prihaja do občutnega prenasičenja. V tabeli 5 in na sliki 1 so prikazane vrednosti metrik GI in PAI (mediana in IQR), ki vrednotita pomembnost posameznih značilnic. Mediana in IQR sta bili upora- bljeni namesto srednje vrednosti in standardne deviacije, ker je bilo mogoče že kvalitativno oceniti, da porazdeli- tve vrednosti GI in PAI niso normalne. Izračun mediane in IQR je bil narejen na posameznih razredih vzorcev iz validacijske zbirke. Oba postopka za določitev pomembnosti kot najboljšo značilnico izbereta STIFLAIR, kar se ujema z ugotovi- tvami v strokovni literaturi, kjer se STIFLAIR pogosto uporablja za zaznavanje sprememb LBM [4], [10]. Na- povedi GI in PAI se, kljub določenim odstopanjem dobro ujemata tudi za druge značilnice (korelacija Pearson r = 0, 82). Opazimo tudi, da pri določenih značilnicah PAI dosega negativne vrednosti. Pri teh značilnicah je kljub skrbni izbiri parametrov in validaciji prišlo do rahlega prenasičenja razvrščevalnika. Posledično se rezultati razgradnje sprememb LBM in s tem vrednost validacijske metrike izboljšajo, ko pri izračunu PAI “izklopimo” to značilnico. Stabilnost ocene pomembnosti značilnic GI in PAI, določena kot korelacija GI/PAI med naključnim gozdom, ki je bil naučen na polni učni zbirki, in naključnim gozdom, ki je bil naučen na učni zbirki, ki smo ji odstranili določeno značilnico, je prikazana v tabeli 6. Iz rezultatov vidimo, da je GI izjemno stabilna, saj znaša njena povprečna korelacija 0,991 in se ne glede na to, katero značilnico odstranimo iz nabora začetnih značilnic, le malo spremeni (minimalna vrednost kore- lacije rmin = 0, 978). Pomembnost z metriko PAI izka- zuje nižjo stabilnost (povprečna korelacija r̄ = 0, 822) in večjo variabilnost le-te, pri čemer je padec korelacije s PAI večji za značilnice, ki so pomembnejše. Med padcem korelacije s PAI in pomembnostjo značilnice 90 LESJAK, LIKAR, PERNUŠ, ŠPICLIN Tabela 5: Ocene pomembnosti značilnic glede na metriki GI in PAI. Značilnice so urejene glede na padajoče vrednosti mediane GI. Ime značilnice Mediana GI (×10−2) GI IQR (×10−2) Mediana PAI (×10−2) PAI IQR (×10−2) STIFLAIR 5,08 29,01 1,17 3,35 STIFLAIR+T2w 4,69 29,23 0,93 0,59 STIFLAIR+T1w 1,97 14,64 0,07 1,23 dVENT 0,99 5,80 0,84 0,85 FLAIR2 0,66 4,25 0,31 0,54 FLAIR1 0,38 3,27 0,45 0,53 STIT1w 0,00 0,00 0,00 0,02 STIFLAIR+T2w+T1w 0,00 0,04 -0,04 0,13 T1w1 0,00 0,13 0,01 0,08 T1w2 0,00 0,26 -0,02 0,10 STIT1w+T2w 0,00 0,63 -0,05 0,16 T2w1 0,00 0,80 0,14 0,23 T2w2 0,00 1,05 0,14 0,27 STIT2w 0,00 1,36 -0,07 0,35 dIC 0,00 1,46 0,34 0,19 dVENT – oddaljenost od ventriklov, dIC – oddaljenost od roba možganov Pomembnost Slika 1: Pomembnosti značilnic glede na metriki GI in PAI. Značilnice so urejene glede na padajoče vrednosti mediane GI. po GI lahko namreč opazimo relativno visoko negativno korelacijo r = −0, 798. Predno lahko analiziramo zmožnost prenosa pridobljenih ocen pomembnosti značilnic na druge razvrščevalnike, je le-te treba ustrezno naučiti. Uspešnost učenja razvrščevalnikov smo preverili na enak način kot pri učenju originalnega naključnega gozda. Relativne razlike naučenih razvrščevalnikov med učnim in validacijskim setom niso presegale 4 % glede na DSC. Za vsak posamezni razvrščevalnik smo s pomočjo validacijske zbirke izračunali tudi PAI, ki smo ga s pomočjo korelacije primerjali s PAI in GI iz naključnega gozda. Iz tabele 7 in slike 2 je razvidno, da se različni razvrščevalniki kljub temu, da dosegajo primerljive zmožnosti v smislu validacijskih metrik (npr. DSC), zanašajo na različne kombinacije značilnic. Tabela 6: Stabilnost ocene pomembnosti značilnic glede na metriki GI in PAI. Večja vrednost korelacije kaže na večjo stabilnost. Odstranjena Korelacija Korelacija značilnica z GI s PAI T1w1 0,983 0,819 T1w2 0,988 0,799 T2w1 0,988 0,826 T2w2 0,996 0,848 FLAIR1 0,995 0,867 FLAIR2 0,986 0,858 STIT1w 0,997 0,833 STIT2w 0,996 0,849 STIFLAIR 0,978 0,589 STIT1w+T2w 0,990 0,868 STIFLAIR+T1w 0,997 0,862 STIFLAIR+T2w 0,996 0,729 STIFLAIR+T2w+T1w 0,994 0,819 dVENT 0,995 0,890 dIC 0,991 0,876 Povprečje 0,991 0,822 dVENT – oddaljenost od ventriklov dIC – oddaljenost od roba možganov Tabela 7: Korelacija PAI različnih razvrščevalnikov s PAI in GI naključnega gozda. Razvrščevalnik Korelacija s GI Korelacija s PAI QDA 0,332 0,287 Adaboost -0,042 0,470 Naivni Bayes 0,550 0,543 Naključni gozd 0,096 0,535 DOLOČITEV OPTIMALNIH ZNAČILNIC ZA ZAZNAVO SPREMEMB BELE MOŽGANOVINE 91 dVENT dIC FLAIR1 STIFLAIR STIFLAIR+T1w STIFLAIR+T2w FLAIR2 Naključni gozd Adaboost QDA Naivni Bayes Slika 2: Tri najpomembnejše značilnice glede na metriko PAI za vsakega od štirih različnih razvrščevalnikov: naivni Bayes, Adaboost, QDA in naključni gozd. 4 RAZPRAVA V okviru tega poglavja smo proučili enega od računsko relativno nezahtevnih postopkov za določanje pomemb- nosti značilnic za zaznavo sprememb LBM iz longitu- dinalnih MR-preiskav glave. Pri tem smo se osredinili zlasti na stabilnost oziroma zanesljivost postopka izbora optimalnih značilnic ter prenosljivost teh značilnic na druge postopke razvrščanja. Splošen in zanesljiv po- stopek za določitev pomembnih značilnic za zaznavo sprememb LBM bi namreč pripomogel k boljšemu ra- zumevanju problema oziroma kritične informacije za za- znavo teh sprememb, kar bi lahko posledično privedlo do novih, izboljšanih postopkov zaznave sprememb LBM ter do bolj optimalnega izbora in nastavitev slikovnih sekvenc zajema MR-preiskave. Primerjali smo dve različni metriki (GI in PAI) za vre- dnotenje pomembnosti značilnic. S tem namenom smo naučili naključni gozd na naboru petnajstih značilnic, ki so bile v relevantni literaturi pogosto uporabljene v postopkih za zaznavo sprememb LBM, temelječih na primerjavi sivinske informacije: intenzitete referenčnih in kontrolnih T1w, T2w in FLAIR slikovnih sekvenc ter intenzitete različnih kombinacij STI (slika podobnosti sekvenc). Dodali pa smo tudi značilnice o anatomskem položaju na podlagi oddaljenosti opazovanega slikov- nega elementa od ventriklov in od roba možganske skorje. Analiza pomembnosti značilnic je kot najpomemb- nejšo značilnico za zaznavanje sprememb LBM poka- zala STIFLAIR, kot pomembni pa sta se izkazali tudi STIFLAIR+T2w in razdalja med opazovanim slikovnim ele- mentom in ventrikli. Te ugotovitve sovpadajo z doseda- njimi ugotovitvami nevroradiologov in drugih strokov- njakov, saj se razlike v lezijah najlepše opazijo na STI- sliki podobnosti sekvenc FLAIR ali T2w, najpogosteje pa se pojavljajo v neposredni okolici ventriklov [10]. Oceno pomembnosti z GI dobimo inherentno že iz naučenega naključnega gozda, medtem ko PAI izračunamo s pomočjo dodatne validacijske zbirke in je kot taka uporabna tudi za oceno pomembnosti značilnic drugih razvrščevalnikov. Pomembnost GI se izkaže kot izjemno robustna na rahle spremembe v naboru upora- bljenih značilnic, medtem ko PAI izkazuje rahlo nižjo robustnost, zlasti če iz nabora značilnic odstranimo pomembnejše značilnice. Kljub temu je korelacija med ocenami pomembnosti GI in PAI, pridobljenimi z origi- nalnim naključnim gozdom in naključnimi gozdovi, ki so jim bile odstranjene specifične značilnice, visoka in v povprečju dosega 0,991 za GI in 0,822 za PAI. Ugotovili smo, da neposredna posplošitev izbora op- timalnih značilnic z uporabo naključnih gozdov na druge razvrščevalnike ni mogoča. Primerjava z dru- gimi razvrščevalniki je pokazala, da se pomemb- nost posameznih značilnic spreminja od razvrščevalnika do razvrščevalnika (slika 2). Do razlik v oceni po- membnosti značilnic pa lahko pride že v posame- znih razvrščevalnikih, kot smo to pokazali na pri- meru naključnih gozdov. S spreminjanjem parametrov razvrščevalnika namreč hitro dobimo drugačno oceno pomembnosti značilnic, zato moramo biti pri učenju razvrščevalnika previdni ter ga vselej dobro validirati. Eden od ciljev določitve pomembnosti značilnic za longitudinalno zaznavo sprememb LBM je vsekakor tudi izboljšanje oziroma optimizacija zajema MR-slik v klinični praksi. V zadnjem času se namreč radiologi na klinikah vse pogosteje srečujejo s problemom izbire ustreznih MR-sekvenc in njihovih parametrov za čim bolj optimalen zajem slik bolnika. Katere in koliko različnih sekvenc je treba zajeti, kakšno naj bo vidno polje in kako tanke naj bodo rezine zajetih 3D MR- slik? Vsi ti parametri zajema so kompromis med časom zajema slik in njihovo kakovostjo. V klinični praksi še danes zajete MR-slike pogosto pregledujejo ročno, rezino za rezino. Za tak način pregledovanja se slike navadno zajemajo v debelejših rezinah (npr. 3 mm ali celo 5 mm), saj radiolog v praksi zaradi časovnih omejitev stežka pregleda slike z večjim številom rezin. Kljub temu pa zadnje klinične smernice za zaznavanje sprememb LBM iz MR-slik priporočajo zajem 3D izo- tropnih MR-slik s prostorsko ločljivostjo 1 mm [12]. V literaturi namreč poročajo, da izotropno zajete MR-slike s prostorsko ločljivostjo 1 mm ali manj občutno pripo- morejo k natančnosti avtomatske analize slik. Sklepamo lahko, da bi slike višje ločljivosti izboljšale tudi postopke zaznave sprememb LBM. Zanimivo bi bilo ovrednotiti vpliv ločljivosti slik na zaznavanje sprememb LBM, za kar bi potrebovali razširjeno zbirko slik, ki vsebuje slike, zajete pri različnih prostorskih ločljivostih. Če bi se izkazalo, da so za avtomatsko zaznavo sprememb LBM potrebne slike višje ločljivosti, ki za zajem potrebujejo dalj časa, bi bilo smiselno proučiti tudi, ali lahko ka- tero od MR-sekvenc opustimo. Za rutinsko spremljanje bolnikov z MS se namreč uporabljajo številne MR- 92 LESJAK, LIKAR, PERNUŠ, ŠPICLIN sekvence, kot so T1- in T2-utežene slike, T1-utežene slike s kontrastom, FLAIR, DWI itn. Rezultati analize pomembnosti posameznih slikovnih sekvenc kažejo, da je za avtomatsko zaznavanje sprememb LBM daleč najpomembnejša sekvenca FLAIR, posredno pa tudi T1- utežena sekvenca, saj se uporablja za razgradnjo zdravih možganskih struktur (npr. možganska skorja, ventrikli). Zajem preostalih sekvenc bi lahko opustili in s tem skrajšali čas, ki ga potrebujemo za kontrolno slikanje MS bolnika, kar bi lahko zmanjšalo tudi s tem povezane stroške obravnave teh bolnikov. Treba pa se je zavedati, da optimalni protokol zajema MR-slik za zaznavo sprememb LBM nikakor ni zadosten za rutinsko spremljanje tako kompleksne bolezni, kot je MS. LBM so namreč le eden izmed pomembnih slikovnih biomarkerjev bolezni MS. Za druge biomar- kerje, kot so na primer lezije ob možganski skorji ali pa meritve atrofije posameznih predelov možganov, bi bil optimalen izbor MR-sekvenc za avtomatsko analizo gotovo drugačen. Za optimalen nabor protokolov za MR-preiskavo bolnikov z MS bi tako morali oceniti vpliv različnih MR-sekvenc na postopke za zaznavo sprememb številnih različnih pomembnih slikovnih bi- omarkerjev ter pri tem upoštevati časovne in finančne omejitve, s katerimi se srečujemo v klinični praksi. ZAHVALA Raziskavo je omogočila Javna agencija za raziskovalno dejavnost Republike Slovenije v okviru projektov J7- 6781, J2-7211 in J2-7118.