Masinsko ucenje Prvi KLK
Masinsko Uĝenje: Istraživanje i Klasifikacija
Pridružite se našem kvizu o mašinskom uĝenju i istraživanju podataka! Ovaj kviz će testirati vaše znanje o kljuĝnim konceptima, tehnikama i metodama koje se koriste u industriji podataka. Bilo da ste student, profesionalac ili entuzijasta, ovaj kviz će vam pomoći da proširite svoje razumevanje mašinskog uĝenja.
- 56 pitanja o teoriji i metodama mašinskog uĝenja
- Razliĝiti formati pitanja: višestruki izbor i više odgovora
- Idealno za pripremu za ispite ili osobno usavršavanje
Kakva je razlika izmedju mašinskog uĝenja I istraživanja podataka: (multi)
Nema razlike
Istraživanje podataka je fokusirano na predikciji
Mašinsko uĝenje je fokusirano na otkrivanju prethodno nepoznatih osobina podataka
Istraživanje podataka je fokusirano na otkrivanju prethodno nepoznatim osobina podataka
Mašinsko uĝenje je fokusirano na predikciji
Ukoliko fiksiramo broj uzoraka u obuĝavajućem skupu, a povećamo dimenzionalnost (vektora obeležja je sve veći)
Broj uzoraka po jednom binu se neće menjati
Binovi će postajati sve popunjeniji
Binovi će postajati sve prazniji
U bajesovskom metodu procene nepoznatih parametra, oni se smatraju:
Promenjivim
Verovatnosnim
Fiksnim
Okamov rezaĝ je primer
Apsolutnog pomeraja
Empirijskog pomeraja
Preferencijalnog pomeraja
Kakva je razlika izmedju klasifikacije I regresije? (multi)
Izlaz sistema mašinskog uĝenja je kontinualan u sluĝaju regresije
Izlaz sistema mašinskog uĝenja je kontinualan u sluĝaju klasifikacije
Ulaz sistema mašinskog uĝenja je kontinualan u sluĝaju regresije
Ulaz sistema mašinskog uĝenja je diskretan u sluĝaju klasifikacije
Ulaz sistema mašinskog uĝenja je diskretan u sluĝaju regresije
Ulaz sistema mašinskog uĝenja je kontinualan u sluĝaju klasifikacije
Izlaz sistema mašinskog uĝenja je diskretan u sluĝaju klasifikacije
Ako je diskriminaciona funkcija klase I data sa g_i_(x) , I = 1,2,,…,C, tada važi
x pripada klasi j, ako je g_j_(x) = g_i_(x), za svako i=1,2,..,C, I raazliĝito od j
X pripada klasi j, ako je g_j_(x) < g_i_(x), za svako i=1,2,..,C, I raazliĝito od j
x pripada klasi j, ako je g_j_(x) > g_i_(x), za svako i=1,2,..,C, I raazliĝito od j
Dimenzije obuĝavajućih sistema su (MULTI)
Evaluacija
Redizajn
Efikasnost
Reprezentacija
Realizacija
Optimizacija
Uslov konvergencije (N teži beskonaĝno) neparametarske procene funkcije gustine verovatnoće oblika P(X) = k/(N*V) je (MULTI)
V se širi sa povećanjem N
K raste nezavisno od N
K raste zavisno od N
V se skuplja sa povećanjem N
U klasifikacionim problemima, smisao potpunosti klasa znaĝi
Klase su međusobno nezavisne
Klase su aditivne
Klase ĝine jedan partitivni skup u prostoru klasa
Svaki uzorak koji podleže klasifikaciji mora pripadati jednoj od definisanih klasa
Šta su slobodni parametri metoda histograma (MULTI)
Veliĝina bina
Dužina obuĝavajućeg skupa
Dimenzionalnost podataka
Startna pozicija bina
Rastojanje najbližih suseda
Vrste mašinskog uĝenja su (MULTI)
Transcendentalno (nadgledno)
Semi-deduktivno
Samoobuĝavanje (nenadgledano)
Transcedentalno (nenadgledano)
Semi-induktivno
Obuĝavanje sa pojaĝivanjem
Deduktivno (nenadgledano)
Induktivno (nadgledano)
U metodu procenjivanja po maksimalnoj verodostojnosti, nepoznati parametri koji se procenjuju se smatraju
Promenjivim
Fiksnim
Verovatnosnim
Da bi pravilo odluĝivanja minimizovalo grešku odluĝivanja, diskriminacione funkcije moraju biti oblika:
G_i_(X) = P(omega_i|X)
G_i_(X)=P(X|omega_i)
G_i_(X)=P(omega_i)
U scenariju aktivnog obuĝavanja, sistem mašinskog uĝenja može da
Traži od uĝitelja oznaĝavanje primera izabranih od strane sistema
Traži od uĝitelja ponavljanje primera izabranih od strane sistema
Traži od uĝitelja povlaĝenje primera izabranih od strane sistema
U Bajesovskom pristupu klasifikaciji, ĝemu služe obuĝavajući skupovi
Za procenu nepoznatih P(omega_i)
Za procenu nepoznatih P(x|omega_i)
Za odredjivanje rastojanja između uzoraka
Za procenu nepoznatih P(omega_i) I P(x|omega_i)
U metodu histograma procena dedukcije gustine verovatnoće na skpu uzoraka dužine N ima oblik:
P_N(X) = ((broj uzoraka u binu u kome je X) / (veliĝina bina koja sadrži X))
P_N(X)=(1/N) (broj uzoraka u binu u kome je X)
P_N(X) = (1/N) ((broj uzoraka u binu u kome je X)/(veliĝina bina koji sadrži X))
Ograniĝavanje skupa hipoteza na manji podskup je primer:
Empirisjkog pomeraja
Apsolutnog pomeraja
Preferencijalnog pomeraja
U modelovanju klasifikacionog problema, smisao eksluzivnosti klasa znaĝi:
Klase se ne preklapaju
Klase se preklapaju
Klase su multiplikativne
Klase su aditivne
Pravilo klasifikacije na osnovu K najbližih suseda glasi
X pripada onoj klasi kojoj pripada uzorak najbližih medijani rastojanja K najbližih suseda
X pripada onoj klasi kojoj pripada njen k-ti najbliži uzorak
X pripada onoj klasi kojoj pripada većina njenih najbližih K suseda
Ako se jedan sistem mašinskog uĝenja obuĝi za prepoznavanje automobila, zatim doobuĝi za prepoznavanje pošaka u pitanju je:
Induktivno uĝenje
Iduktivni transfer
Transduktivno uĝenje
Mašinsko uĝenje je neophodno u sluĝaju da: (MULTI)
Ljudi su u stanju da objasne svoju ekspertizu
Postoje eksperti za datu oblast razmatranja
Ljudi nisu u stanju da objasne svoju ekspertizu
Ne postoje eksperti za datu oblast razmatranja
U beĝ modu obuĝavanja
Obuĝavajući skup se koristi sekvencijalno, po jedan primer u svakom ciklusu obuke
Obuĝavajući skup se koristi sekvencijalno, po jedan blok primera u svakom ciklusu obuke
Celokuoan obuĝavajući skup se kao celina koristi u obuĝavanju
U okviru procesa primene nauke o podacima u rešavanju zadatog problema taĝni su sledeći stavovi: (MULTI)
Ako podaci nemaju jedinstvenu prirodu (tip), nužno se odbacuju
Identifikovati relevantne izvore podataka
Nad podacima je neophodno izvršiti odgovarajuće transformacije u cilju lakše primena algoritma mašinskog uĝenja
Podatke nije neophodno proĝišćavati
Izbor algoritama mašinskog uĝenja je nezavisan od ciljeva postavljenih u okviru problema koji se rešava
Prediktivna moć podataka nije bitna
Bajesovsko pravilo minimalne grešske odluĝivanja, kada poznajemo samo apriorne verovatnoće klasa glasi:
Odluĝujemo se za klasu omega_i, ukoliko je P(omega_i) < P(omega_i), za svako j, j razliĝito od I
Odluĝujemo se za klasu omega_i, ukoliko je P(omega_i) = P(omega_i), za svako j, j razliĝito od I
Odluĝujemo se za klasu omega_i, ukoliko je P(omega_i) > P(omega_i), za svako j, j razliĝito od I
Medicinska dijagnostika (od simptoma ka bolestima) je primer:
Obuĝavanja sa pojaĝavanjem
Klasifikacije
Regresije
Ni jedno od ponuđenog
U neparametarskom pristupu, relevantne funkcije gustine verovatnoće se procenjuje (MULTI)
Direktno iz obuĝavajućih skupova
Tako što se ne pravi nikakva pretpostavka o pripadnosti nekoj parametarskoj familiji funkcija
Tako što se prvo pretpostavi da pripadaju nekoj parametarskoj familiji funkcija
Šta je evidens
P(X|omega_i)
P(X)
P(omega_i|X)
Jednostavan model sa puno podataka za obuĝavanje je bolji od složenijeg modela sa manje obuĝavajućih podataka?
Taĝno
Netaĝno
Nije moguće poređenje takvo poređenje
Generalizacija je sposobnost dobrog ponašanja sistema na:
Zbirno na test I trening podacima
Test podacima
Trening podacima
Koje od navedenih oblasti pripadaju nauci o podacima (Data Science) u užem smislu? (MULTI)
Digitalna forenzika
Vizualizacija
Domenska ekspertiza
Raĝunarske mreže
Operativni sistemi
Objektno orijentisano programiranje
Nauĝna metodologija
Inženjering podataka (Data Engineering)
Statistika
Sociologija
Da li je znanje o naĝinu rada algoritma mašinskog uĝenja bitno za struĝnjake iz domena nauke o podacima?
Vrlo je bitno
Nije bitno
Šta je generativni model jedne klase fenomena:
Apriorne verovatnoće klase
Funkcija aposteriorne verovatnoće klase
Funkcija gustine raspodele smese sklasa
Funkcija slovne gustine raspodele klase
Opšti oblik neparametarske procene funkcije gustine verovatnoće (k-broj uzoraka nutar volumena V, N je ukupan broj uzoraka, V je volumen koji okružuje uzorak X) je:
P(X) = k/(N * V*V)
P(X) = (k*k)/(N*V)
P(X) = k/(N * V)
P(X) = k/(N * N * V)
Da li optimalno Bajesovo odluĝivanje u teorijskom smislu obezbedjuje minimalnu moguću grešku odluĝivanja:
Nekad Da, nekad Ne
Da
Ne
Pod kojim uslovima možemo sintetisati optimalni Bajesov klasifikator klasa omega_i, i=1,2,…,C:
Kada znamo tacnu vrednost za P(omega_i), i=1,2,….,C
Kada znamo tacnu vrednost za P(X|omega_i), i=1,2,….,C
Kada znamo tacnu vrednost za P(omega_i) I P(x|omega_i) , i=1,2,….,C
U tradicijalnom programiranju ulaz su:
Podaci+izlaz
Podaci+program
Program+izlaz
Biometrijska autentifikacija se može posmatrati kao:
Klasifikacioni problem sa dve klase
Regresioni problem
Klasifikacioni problem sa više od dve klase
Klasterovanje je
Grupisanje primera na osnovu sopstvenih vrednosti kovarijacione matrice
Grupisanje primera po razliĝitosti (najrazliĝitiji pripadaju istoj grupi – klasteru)
Ni jedan od ponuđenih odgovora
Grupisanje primera po sliĝnosti (najsliĝniji pripadaju istoj grupi – klasteru)
Pravilo klasifikacije 1 NN glasi:
X pripada onoj klasi kojoj pripada njen 1 sused
X pripada onoj klasi kojoj pripada većina njenih prvih k suseda
X pripada onoj klasi kojoj pripada njen 2 sused
Na koju aktivnost se u nauci o podacima troši najviše vremena
Nalaženje regularnosti (oblika – patterna-a) u podacima
Prikupljanje podataka
ĝišćenje I organizovanje podataka
Formiranje obuĝavajućih skupova
Rafinacija algoritama
Da li je uopšte moguće obuĝavanje bez induktivnog pomeraja
Nije relevantno
Da
Ne
Da bi se izraĝunala aposteriorna verovatnoća klasa, potrebno je znati:
Apriorne verovatnoće klasa I funkcije uslovnih gustina verovatnoća klasa
Samo apriorne verovatnoće klasa
Funkciju gustine verovatnoće smese klasa
Ako je g(X)=g_1_(X) * g_2_(X), gde su g_1_(X) I g_2_(X), diskriminacione funkcije za klasu 1 I klasu 2 repektivno, tada se odluĝujemo za klasu 1, ako je ispunjeno
G(X) > 0
G(X) < 0
G(X) = 1
Kada se dužina obuĝavajućeg skupa neograniĝeno povećava, greška klasifikacije po metodu najbližeg suseda P_KNN1 se nalazi u sledećem odnosu prema grešci P_Bajes optimalnog Bajesovog odluĝivanja:
P_KNN1 > 2P_Bajes
P_KNN1 < P_Bajes
P_KNN1 < 2P_Bajes
P_KNN1 > 3P_Bajes
Jeff Hammerbacher-ov model obuhvata sledeće korake (MULTI)
Zaštita podataka
Identifikacija problema
Tehno-ekonomska analiza problema
Priprema podataka (integracija, transformacija, ĝišćenje, filtracija, agregacija)
Komuniciranje rezultata
Edukacija u domenu nauke o podacima
Instrumentalizacija izvora podataka
Projektovanje baza podataka
Evaluacija modela
Formiranje modela
Prikupljanje podataka
Kod transduktivnog obuĝavanja
Test primeri (bez ciljne klasifikacije) su prisutni u fazi obuĝavanja
Test primeri (bez ciljne klasifikacije) nisu prisutni u fazi obuĝavanja
Test primeri (sa ciljne klasifikacije) nisu prisutni u fazi obuĝavanja
Test primeri (sa ciljne klasifikacije) su prisutni u fazi obuĝavanja
Prema naĝinu korišćenja obuĝavajućih skupova, razlikuju se
On line metod
Deternistiĝki metod
Inkrementalni metod
Aproksimativni metod
Stohastiĝki metod
Beĝ metod
Bajesovo pravilo odluĝivanja koje minimizuje oĝekivanu vrednost greške odluĝivanja (optimalno bajesovo pravilo odluĝivanja) na osnovu aposteriornih verovatnoća klasa, glasi:
Odluĝiti se za onu klasu, ĝija je aposteriorna verovatnoća najmanja
Odluĝiti se za onu klasu, ĝija je aposteriorna verovatnoća najveća
Odluĝiti se za onu klasu, ĝija je aposteriorna vrovatnoća jednaka 1
Odluĝiti se zza onu klasu, ĝija je aposteriorna verovatnoća jednaka null
Ako je za dati sistem klasifikacije ustanovljena minimalna Bajesova greška odluĝivanja, na koji naĝin možemo redizajnirati sistem, tako da se njegova greška smanji ispod ove granice
Promenom obeležja
Promenom hardversko softverske realizacije sistema
Promenom pravlia odluĝivanja
Ako je g(X) = g_1_(X)-g_2_(X), gde su g_1_(X) I g_2_(X), diskriminacione funkcije za klasu 1 I klasu 2 repektivno, tada se odluĝujemo za klasu 1, ako je ispunjeno
G(X) < 0
G(X) = 1
G(X) > 0
U sistemima mašinskog uĝenja ulazi su:
Pragram+izlaz
Podaci+izlaz
Ni jedna kombinacija
Podaci+program
Šta je verodostojnost (liklihood) klase omega_i:
P(X|omega_i)
P(omega_i|X)
P(omega_i)
Koje od navedenih tehnika su estimacione tehnike:
Tehnika najbližih suseda
Tehnika potpornih vektora
Bajesovske tehnike procene
Tehnika maksimalne verodostojnosti
Ako name je poznata minimalna Bajesova greška odluĝivanja, ima li smisla tragati za pravilom odluĝivanja koje daje još manju grešku
Nekad ima, nekad nema
Nema
Ima
Vizualizacija podataka je:
Znaĝajna je samo za dvodimenzione podatke
Nije relevatna za nauku o podacima
Veoma znaĝajna za nauku o podacima
Induktivni pomeraj (bajas) u mašinskom uĝenju je:
Uvodjenje ograniĝenja na prostor hipoteza
Uvodjenje prostora ortogonalnog na prostor hipoteza
Proširenje prostora hipoteza
{"name":"Masinsko ucenje Prvi KLK", "url":"https://www.quiz-maker.com/QPREVIEW","txt":"Pridružite se našem kvizu o mašinskom uĝenju i istraživanju podataka! Ovaj kviz će testirati vaše znanje o kljuĝnim konceptima, tehnikama i metodama koje se koriste u industriji podataka. Bilo da ste student, profesionalac ili entuzijasta, ovaj kviz će vam pomoći da proširite svoje razumevanje mašinskog uĝenja.56 pitanja o teoriji i metodama mašinskog uĝenjaRazliĝiti formati pitanja: višestruki izbor i više odgovoraIdealno za pripremu za ispite ili osobno usavršavanje","img":"https:/images/course2.png"}