Prvi put s drustvom na kodovanje <3

A visually striking image that represents coding, data compression, and information theory, featuring colorful binary code patterns and abstract technological elements.

Dive into Coding Concepts!

Test your knowledge of coding principles and information theory with this comprehensive quiz designed for enthusiasts and learners alike.

With 80 engaging questions, you can challenge yourself and:

  • Enhance your understanding of coding techniques.
  • Explore topics from data compression to Huffman coding.
  • Learn at your own pace and keep track of your progress.
80 Questions20 MinutesCreated by CodingWave27
Ako je Hemingovo rastojanje dve kodne reci d, a q broj otkrivenih gresaka. Oznaciti tacno tvrdjenje
Za otkrivanje svih jednostrukih gresaka, mora da bude d>=2, a da bi se otkrilo q gresaka u kodnoj reci mora da bude d>=q+1
Za otkrivanje svih jednostrukih gresaka, mora da bude d>=2, a da bi se otkrilo q gresaka u kodnoj reci da da bude d=<q+1
Za otkrivanje svih jednostrukih gresaka, mora da bude d>=1, a da bi se otkrilo q gresaka u kodnoj reci mora da bude d>=q+1
Kod Hafmanovog koda za dati izvor informacija U, u kodnom stablu koje odgovara optimalnom D-arnom preksnom kodu za U, postoji najvise:
D-3 neiskoriscenih listova I svi se oni nalaze na maksimalnoj dubini kodnog stabla
D-2 iskoriscenih listova I svi se oni nalaze na maksimalnoj dubini kodnog stabla
D-2 neiskoriscenih listova I svi se oni nalaze na maksimalnoj dubini kodnog stabla
Neodredjenost sistema nezavisnih izbora jednak je
Njihovoj uzajamnoj entropiji
Sumi neodredjenosti sistema kontinuiteta
Proizvodu neodredjenosti sistema konstituenata
Dopuniti sledeci izraz: 'Entropija unije dva nezavisna dogadjaja, mora biti...
Veca od zbira njihovih entropija'
Veca ili jednaka zbiru njihovih entropija'
Jednaka zbiru njihovih entropija'
Kada listovi stabla ne korespondiraju nijednoj kodnoj reci, takvi listovi se nazivaju:
Neiskorisceni listovi
Nejednoznacni listovi
Jednoznacni listovi
Poruka A ima verovatnocu 0.75, a poruka B 0.25
Kolicina informacije je veca u poruci A
Kolicina informacije je veca u poruci B
Kolicina informacije su jednake u obe poruke
Kolicina informacije ne zavisi od verovatnoce u ovom slucaju
Sa ukupno cetiri bita moguce je kodovati:
6 poruka
16 poruka
8 poruka
3!(faktorijal) poruka
Uzajmna entropija H(X,Y)
H(Y) - H(X|Y)
Suma po promenjivoj X I promenjihoj Y od izraza pX,Y(x,y)*log(pX,Y(x,y)
H(Y) + H(Y|X)
Potpuno n-arno stablo je:
N-arno stablo u kome svi listovi imaju istu dubinu
N-arno stablo u kome neki listovi imaju razlicitu dubinu
Nijedan od ponudjenih odgovora
Lokalna uzajamna informacija slucajne velicine Y I X govori o tome koliko jedna opservacija:
X=y daje informacije o drugoj slucajnoj velicini y
Y=y daje informacije o drugoj slucajnoj velicini x
Entropijsko kodovanje je metod:
Za odredjivanje jednoznacnog koda minimalne duzine
Za odredjivanje entropije svake poruke pojedinacno
H(X|y) oznacava:
Uslovna entropija varijable X u odnosu na dogadjaj ili observaciju X=x
Uslovna entropija varijable X u odnosu na dogadjaj ili observaciju Y=y
Da li je sledeci izraz tacan: 'Entropija je neprekidna funkcija svojih argumenata'
Da
Ne
Zavisi od argumenata
Kod Hafmanovog koda broj listova u D-arnom stablu je:
1+k (D-1), gde je k broj unutrasnjih cvorova, ne ukljucujuci koren
1+2 (D-2), gde je k broj unutrasnjih cvorova, ukljucujuci koren
1+k (D-1), gde je k broj unutrasnjih cvorova, ukljucujuci koren
Hafmanovo kodovanje je optimalno, sto znaci da ako je Z jedan Hafmanov kod informacionog izvora U, a X drugi jednoznacni kod istog izvora, tada je:
E[Lx] >= E[Lz]
E[Lx] <= E[Lz]
E[Lx] == E[Lz]
Neka je sistem mogucnosti dat sa S={1,2,3,4,5}. Kolicina neodredjenosti ovog skupa data je izrazom:
Log5
0.2*log5
5*0.2*log(0.2)
Prefiksni kod je:
Jednoznacno dekodiv
Jednoznacno nedekodiv
Nejednoznacan
Nejednoznacan ali dekodiv
Sta je razlog da uopste nesto kodujemo?
Kodovanje radi interneta
Kodovanje radi kompresije
Kodovanje u cilju kvalitetnog prenosa
Kodovanje u cilju odbacivanja informacije
Kodovanje radi tajnosti
Kodovanje radi otkrivanja kolicine informacije koje cure iz crne rupe I kao takve nose sa sobom vrednost zivota koji mi trosimo na individualne povrsne stvari radi sopstvenog ostvarenja cineci nas najsebicnijim bicima ikada
Primer prenosenja informacije kroz vreme je:
Komuniciranje izmedju dva mobilna telefona u jednoj mrezi
Memorisanje nekog sadrzaja na nekom memorijskom mediju
Koja funkcija u matlabu pretvara sliku iz RGB to grey promenljive 'slika'
Rgb2gray(slika)
Rgb2gray(slika,pow)
Grayshow(slika)
Neka je dat kod sa kodnim recima 00,01,10,10. Oznaciti tacno tvrdjenje:
Hemingovo rastojanje d=1 I nema zastitnog kodovanja
Hemingovo rastojanje d=2 I nema zastitnog kodovanja
Nema dovoljno informacija
Hafmanov kod pripada grupi:
Neoptimalnih kodova
Optimalnih kodova
Komprimovanje izvora informacije:
Povecava entropiju simbola
Smanjuje entropiju simbola
Nijedan od ponudjenih odgovora
Koja funckija u matlabu jebenom vraca frekvenciju pojavljivanja piksela promenljive 'slika'
Imhist('slika')
Imhist(slika)
Imshow('slika')
Najoptimalniji kod predstavlja kod:
Cija je ocekivana duzina kodnih reci veca od ocekivane duzine kodnih reci drugog reda
Cija je ocekivana duzina kodnih reci manja od ocekivane duzine kodnih reci drugog reda
Da li je sledeci izraz tacan: 'Entropija ne sme da se menja (invarijantna je) ako se promeni redosled simbola, vazno je da se njihove verovatnoce ne menjaju'
Tacno
Netacno
Vazi samo ako postoje samo dva simbola u skupu
Da li trenutno dekodivi kodovi zahtevaju memorisanje prispelih kodnih reci ili cekanje dospece novih da bi dekodovanje bilo obavljeno?
Ne zahtevaju memorisanje
Zahtevaju memorisanje zbog jednoznacnog kodovanja
Zahtevaju memorisanje po principu CRC
Neka je X slucajna velicina vezana za verovatnosni sistem mogucnosti (S,P) gde je S={1,2,3,4}, P={0.5, 0.24, 0.125, 0.125} I E={1,3} je jedan dogadjaj. Tada je uslovna entropija da je X=3, pod uslovom da se dogodio dogadjaj E jednaka:
0.625
0.3
0.2
Problem koji je moguce resavati Senonovim konceptom mere neodredjenosti jeste:
Efikasno kodovanje diskretnog izvora informacija u formi niza simbola
Tajno pisanje kodova diskretnog izvora informacija u formi niza simbola
Primer prenosenja informacije od jedne tacke do druge je:
Komuniciranje izmedju dva mobilna telefona u jednoj mrezi
Memorisanje nekog sadrzaja na nekom memorijskom mediju
Entropija je primenljiva kao mera neodredjenosti za:
Sisteme mogucnosti u kojima su nam poznate verovatnoce pojedinih ishoda
Sisteme mogucnosti u kojima nam nisu poznate verovatnoce pojedinih ishoda
Nijedan od ponudjenih odgovora
Komprimovanje izvora informacije:
Povecava entropiju simbola
Smanjuje entropiju simbola
Nijedan od ponudjenih odgovora
Krafotva nejednakost potvrdjuje postojanje:
Ocekivane duzine koda
Senon - Fanoovog prefiksnog koda
Prefiksnih kodova datog komunikacionog kanala
Za bilo koji diskretni izvor informacija bez memorije, cija je entropija H(U):
Postoji log D, D-arni prefiksni kod
Postoji barem jedan D-arni prefiks kod
Hafmanov algoritam kodovanja izvora informacija bez memorije, pomocu D-arnog prefiksnog koda, daje:
Optimalan kod maksimalne moguce ocekivane vrednosti kodnih reci
Optimalan kod minimalne moguce ocekivane vrednosti kodnih reci
Entropija binarnog izvora je maksimalna kada je verovatnoca poruka:
P{0.5, 0.5}
P{0.75, 0.25}
P{0.25, 0.25, 0.5}
Dimenzija alfabeta se naziva:
Arnost
Parnost
Ortogonalnost
Senon Fanov kod:
Bolji je sto je entropija izvora manja
Bolji je sto je entropija izvora veca
Ne zavisi od entropije
Ako je verovatnoca poruke veca:
Kolicina informacije je manja
Kolicina informacije je veca
Kolicina informacije ne zavisi od verovatnoce
Za jedan kod se kaze da je __________ ako u njemu nijedna kodna rec nije prefiks nekoj drugoj kodnoj reci.
Prefiksan.
Sufiksan.
Ukoliko prenosimo 8 poruka po 3 bita preko BSC dobijamo verovatnocu korektnog prenosa (1-p)^3 = 0.8^3, sto znaci da je BSC sa parametrom p:
0.02
0.01
0.1
0.2
Kolicina neodredjenosti seme izbora S, sa abs(S) mogucnosti, data je izrazom:
Log(S)
Log(p*S)
P*log(S)
Mudrost se oblikuje:
Kroz upotrebu informacija u pravom vremenu
Kroz upotrebu znanja u pravom vremenu
Kroz upotrebu podataka u pravom vremenu
Kroz upotrebu jedenja govana u pravom vremenu
Oznaciti tacan izraz za racunanje entropije H u matlabu/octave za dati vektor verovatnoca p:
H = -sum(p.*log2(p+(p == 0)))
H = -sum(p.*log2(p+(p = 0)))
H = -sum(p*log2(p+(p ==0)))
Ulazna sekvenca X1, X2,...(sekvenca koju treba preneti) u potpunosti:
Zavisi od dekodovanja informacionog izvora
Je odredjena informacionim izvorom
Uzajamna informacija uzima je mera medjuzavisnosti dve slucajne velicine koje uzimaju vrednosti:
Nad istim skupom
Nad razlicitim skupom
Nad dva skupa
Korenu verovatnostnog n-arnog stabla dodeljena je verovatnoca:
2
1
3
Ako je entropija izvora veca:
Senon Fanoov kod je bolji
Senon Fanoov kod je losiji
Koji je od sledecih izraza tacan:
Ln x =< x-1
Ln 1/x >= 1-x
Ln x >= x-1
Izraz za izracunavanje kolicine informacije je:
I(x)= -px log2 px
I(x) = -log2 px
I(x) = -log2 px(1-p)
Nijedan od izraza
Imamo dve poruke I njihove kodne reci dobijene entropijskim kodovanjem. Poruka A={101}, a poruka B={01}.
Poruka A ima vecu verovatnocu.
Poruka B ima vecu verovatnocu.
Kodno stablo I prefiksni kodovi su:
Neekvivalentni objekti
Ekvivalentni objekti
Uslovno ekvivalentni objekti
Ukoliko je verovatnoca prve poruke jednaka p:
Verovatnoca druge poruke jednaka je (1+p)
Verovatnoca druge poruke jednaja je (p-1)
Verovatnoca druge poruke jednaka je (1-p)
Nijedan od ponudjenih odgovora
Izraz za izracunavanje kolicine informacije je:
I(x)= -px log2 px
I(x) = -log2 px
I(x) = -log2 px(1-p)
Nijedan od izraza
Za svaki n-arni prefiksni kod postoji barem jedno n-arno stablo takvo da svaka kodna rec
Ne odgovara sekvenci oznaka na jedinstvenom putu od korena stabla do lista
Odgovara sekvenci oznaka na jedinstvenom putu od korena stabla do lista
Odgovara sekvenci oznaka na nejedinstvenom putu od korena stabla do lista
Ukoliko izvor generise 4 poruke sa verovatnocom 0.25, ukupna kolicina informacije je:
4 bita
8 bitova
16 bitova
2 bita
Osnovni cilj efikasnog kodovanja je:
Kodovanje datog izvora informacija tako da je srednja duzina koda minimalna
Kodovanje datog izvora informacija tako da je srednja duzina koda maksimalna
Kodovanje datog izvora informacija tako da je srednja duzina koda jednaka
Hafmanov algoritam konstruise:
Jedan optimalni kod
Vise optimalnih kodova
Kodne reci
Ukoliko izovr generise 4 poruke sa verovatnocom 0.25, ifnormacije po jednoj poruci iznosi:
4 bita
2 bita
8 bitova
1 bit
H(X|Y) oznacava
Ocekivanu vrednost uslovne entropije
Ocekivanu vrednost relativne entropije
Nijedan od ponudjenih odgovora
MaxH(P)=log m, maksimum se dostize:
Samo na raspodeli koja odgovara jednakim verovatnocama
Samo na raspodeli koja odgovara jednakim verovatnocama (vazi samo za m=2)
Samo za optimalan odnos broja promenljivih I njihovih verovatnoca
Generator poruka odnosno sekvence simbola je:
Predajnik
Komunikacioni kanal
Prijemnik
Osnovna sema kodovanja izvora (source coding) glasi:
Simbol izvora Ut u trenutku t se transformise u odgovarajucu kodnu rec Zt
Simbol izvora Zt se u trenutku t transformise u odgovarajucu kodnu rec Ut
Entropija izvora predstavlja fundamentalno ogranicenje:
Za jednoznacno dekodovanje poruke
Za kompresiju podataka
Kodovanje radi kompresije predstavlja:
Odbacivanje redudanse
Dodavanje redudanse
Ocekivana duzina kodnih reci E[L] Senon Fanoovog koda data je izrazom E[L] < (H(U)/logD) + 1
Tacno
Netacno
H(1/n,1/n,...,1/n) je:
Monotono opadajuca funkcija od n
Zavisi od broja promenljivih
Monotono rastuca funckija od n
Maksimalna vrednost entropije binarnog izvora je:
2 bita
1 bit
0.5 bitova
0.9998 bitova
Kod Hafmanovog koda broj neiskoriscenih listova u kodnom stablu koje odgovara optimalnom D-arnom prefiksnom kodu izvora U sa n simbola je jednak:
Negativnom ostatku deljenja n-1 sa D-1
Pozitivnom ostatku deljenja n-1 sa D-1
Razlika izmedju znanja I razumevanja je kao I izmedju ucenja I memorisanja:
Tvrdnja je tacna
Tvrdnja je netacna
Entropija izvora predstavlja:
Prosecnu kolicinu informacije po jednoj poruci
Maksimalnu kolicinu informacije
Predstavlja pojedinacnu kolicinu informacije
Izvor je bez memorije ukoliko:
Verovatnoca simbola Ui ne zavisi od proslih emitovanih vrednosti
Verovatnoca simbola Ui zavisi od proslih emitovanih vrednosti
Oznaciti tacno tvrdjenje:
Nijedan od ponudjenih odgovora
Ciklicni kodovi su podskup blok kodova, a blok kodovi su podskup linearnih blok kodova
Ciklicni kodovi su podskup linearnih blok kodova, a linearni blok kodovi su podskup blok kodova
Neka je X slucajna velicina verovatnosnog sistema mogucnosti (S,P), gde je S={1,2,3,4}, P={0.5, 0.24, 0.125, 0.125} I E={1,3} je jedan dogadjaj. Tada je uslovna entropija da je X=1, pod uslovom da se dogodio dogadjaj E jednaka:
0.2
0.625
0.8
Ako je Hemingovo rastojanje dve kodne redi d, a q broj detektovanih gresaka, oznaciti uslov koji mora da bude ispunjen:
D =< q+1
D >= q+1
D = q+1
Za bilo koja dva prefiksna koda nad istim informacionim izvorom, kod koji ima kracu ocekivanu duzinu ima manju entropiju simbola.
Netacno
Tacno
U verovatnosnom n-arnom stablu, prosecna (ocekivana) vrednost dubine listova jednaka je:
Sumi verovatnoca unutrasnjih cvorova
Sumi entropije unutrasnjih cvorova
Proseku entropije unutrasnjih cvorova
Da li je sledeci izraz tacan: 'Kada su svi simboli podjednako verovatni, entropija treba da ima maksimalnu vrednost'
Tacno
Netacno
Vazi samo ako imamo dva simbola
Kod verovatnosnog n-arnog stabla:
Moguce je sracunati verovatnoce unutrasnjih covora
Nije moguce sracunati verovatnoce unutrasnjih cvorova
Moguce je sracunati verovatnoce unutrasnjih cvorova samo ukoliko je izvor diskretan
Niejdan od ponudjenih odgovora nije tacan
Nezavisno pitanje iskljucivo cirilicnim slovima predstavlja:
Diskretan izvor informacija
Diskretan izvor informacija ukoliko poznajemo broj slova
Moze ako je konacan I ako nije konacan
{"name":"Prvi put s drustvom na kodovanje <3", "url":"https://www.quiz-maker.com/QPREVIEW","txt":"Test your knowledge of coding principles and information theory with this comprehensive quiz designed for enthusiasts and learners alike.With 80 engaging questions, you can challenge yourself and:Enhance your understanding of coding techniques.Explore topics from data compression to Huffman coding.Learn at your own pace and keep track of your progress.","img":"https:/images/course6.png"}
Powered by: Quiz Maker