PP
Efektívnosť E(n, p) je definovaná ako E(n, p) = S(n, p) / p
True
False
Pre expanzívny paralelizmus platí:
Používaná dekompozícia sa nazýva aj hierarchická dekompozícia
Pri expanzívnom paralelizme sa nepouživa rekurzívna dekompozícia
Tá istá funkcia je pri ňom používaná na rôznych úrovniach
Z funkčného hľadiska je dekompozícia problému triviálna
Program pre dataflow počítač je v podobe data flow grafu.
True
False
Program pre data flow počítač
je v podobe data flow grafu
pravidlo aktivácie (PA) hovorí, že inštrukcia je aktivované, keď je vykonateľná a k dispozícii sú zdroje na jej vykonanie
pravidlo vykonaternosti (PV) hovorí, že inštrukcia je vykonateľná, ak sú dostupné všetky jej operandy
vykonávanie inštrukcií data flow grafu je prijímanie, spracovávanie, vysielanie aktivačných značiek
Zvýšeniu efektívnosti výpočtu pri sekvenčnom počitani bráni často nielen nedostatok procesorov, ale aj nedostatok pamäti.
True
False
Pre masívny paralelizmus platí:
je využiteľný na architektúrach MIMD
je využiteľný na architektúrach SIMD
v typickom prípade ide o jemnozrnný paralelizmus
jednotlivé množiny spracovávaných údajov sa pri ňom môžu navzájom prekrývať
Expanzivny paralelizmus, kde n = 2 je špeciálnym expanzívneho paralelizmus, ktorý sa nazýva rozdeľ a panuj.
True
False
Rozoznávame časovú a pamäťovú zložitosť algoritmov a problémov.
True
False
Cieľom realizácie paralelných výpočtov je zníženie času výpočtu a/alebo spracovanie veľkého množstva údajov.
True
False
Pri expanzívnom paralelizme je problém rekurzívne delený na n toho istého typu, kde n je z rozsahu 0 do 1.
True
False
Pri jednoduchom paralelizme, keď rozdelíme problém na p úloh, záleží na tom, aby bol čas potrebný pre realizáciu jednotlivých úloh približne rovnaký, pretože tieto úlohy sa realizujú sekvenčne jedna po druhej.
True
False
Pre expanzívny paralelizmus platí:
ak veľkosť problému nie je známa, ľahko dochádza k preťaženiu paralelnej architektúry v dôsledku vyčerpania zdrojov
Ak je hrubozrnný, je realizovaný prostredníctvom architektúry MIMD
môže byť hrubozrnný a vtedy je realizovaný pomocou SIMD paralelnej architektúry
je výlučne jemnozrnný
Medzi nevýhody implicitného paralelizmu patrí:
možné zahltenie zdrojov
strata kontroly nad paralelným vykonávaním
nutné doplnenie ďalších kľúčových slov jazyka a jazykových konštrukcií
možné redukovanie výkonnosti paralelného vykonávania
Ak má byť problém riešený paralelným spôsobom, potom
nemusí preň existovať nevyhnutne optimálny paralelný algoritmus
nemusí preň existovať prinajmenšom efektívny paralelný algoritmus
musí preň existovať prinajmenšom efektívny paralelný algoritmus
musí preň existovať nevyhnutne optimálny paralelný algoritmus
Pre SIMD platí:
výhodou SIMD je, že sa skladá z velkého počtu jednoduchých procesných elementov a velkej spoločnej pamäti do ktorej pristupujú počas výpočtu
SIMD je architektúra vhodná pre spracovávanie obrazovej informácie
SIMD procesné elementy môžu byť usporiadané do 2D mriežok
Pod pojmom procesný element SIMD chápeme procesorové jadrá ako sú napríklad jadrá procesorov aktuálne dostupných stolných počítačov alebo notebookov
Pre architektúru MISD platí:
táto architektúra má obmedzený aplikačný rámec a preto sa používa zriedkavo
procesory v nej komunikujú prúdovým spôsobom
architektúra paralelných počítačov typu MISD sa skladá zo špecializovaných rýchlych procesorov
je vhodná pre riešenie hrubozrnných paralelných problémov
S(n,p) = T(n,1)/T(n,p)
S(n, p) je efektivita paralelného počítania
T(n, 1) je sekvenčný čas vykonávania na jednom procesore
T(n, p) je čas vykonávania na p procesoroch
neplatí
Pre prúdový paralelizmus platí, že problém P sa dekomponuje na množinu n podproblémov (úloh), ktoré sú riešené všetky naraz. v tom istom čase.
True
False
Pre dekompozíciu paralelných problémov platí:
Cieľom správnej dekompozície paralelného problému je aj minimalizácia komunikácie
Pri nesprávnej dekomkompozicii paralelného problému môže dôjsť k uviaznutiu výpočtu
Je potrebné zabrániť nechcenému presúvaniu dát medzi operačnou pamäťou počítača a sekundárnym úložným zariadenim z dôvodu zlej dekompozicie problému.
Môže byť aj triviálna,
Pre SM-MIMD platí:
Nevýhodou je hladovanie (starvation) - práca procesných jednotiek je brzdená čakaním na komunikáciu s pamäťou
Pre tuto architektúru paralelných počítačov je charakteristický menší počet procesných jednotiek
Procesné jednotky v tejto architektúre komunikujú posielaním správ
Táto skratka znamená Shared Memory Multiple Instructions Multiple Data
Ak je problém nedostatočne škálovaterný, zvýšenie počtu procesorov už nevedie k zvýšeniu zrýchlenia.
True
False
Pre masívny paralelizmus platí:
v typickom prípade ide o jemnozrnný paralelizmus
je využiteľný na architektúrach MIMD
jednotlivé množiny spracovávaných údajov sa pri ňom môžu navzájom prekrývať
je využiteľný na architektúrach SIMD
Pre architektúru MISD platí:
táto architektúra má obmedzený aplikačný rámec a preto sa používa zriedkavo
procesory v nej komunikujú prúdovým spôsobom
architektúra paralelných počítačov typu MISD sa skladá zo špecializovaných rýchlych procesorov
je vhodná pre riešenie hrubozrnných paralelných problémov
Pri programovaní systémov reálneho času platí:
Concurrent programming sa prekladá ako paralelné programovanie
Cieľom nie je zabezpečenie spoľahlivosti systému z hľadiska správnosti jeho funkcie
Cieľom je zabezpečenie požidaviek na čas vykonávania programu
V súvislosti s ním je používaný termín concurrent programming
Výkonné paralelné výpočty sa uplatňujú predovšetkým pri modelovaní, simulácii a analýze zložitých technických, fyzikálnych a biologických systémov, s cielom skúmania ich vlastností a predpovedania ich správania,
True
False
Pre architektúru MISD platí:
architektúra paralelných počítačov typu MISD sa skladá zo špecializovaných rýchlych procesorov
táto architektúra má obmedzený aplikačný rámec a preto sa používa zriedkavo
je pre riešenie hrubozrnných paralelných problémov
procesory v nej komunikujú prúdovým spôsobom
Pri programovaní systémov reálneho času platí:
Concurrent programming sa prekladá ako paralelné programovanie
Cieľom nie je zabezpečenie spoľahlivosti systému z hľadiska správnosti jeho funkcie
Cieľom je zabezpečenie požidaviek na čas vykonávania programu
V súvislosti s ním je používaný termín concurrent programming
Program pre data flow počítač
pravidlo vykonateľnosti (PV) hovorí, že inštrukcia je vykonateľná, ak sú dostupné všetky jej operandy
vykonávanie inštrukcií data flow grafu je prijímanie, spracovávanie, vysielanie aktivačných značiek
pravidlo aktivácie (PA) hovorí, že inštrukcia je aktivovaná, keď je vykonateľná a k dispozícii sú zdroje na jej vykonanie
je v podobe data flow grafu
Neohraničený paralelizmus znamená, že škálovanie paralelného počítača pridávaním ďalších procesorov neznižuje efektivitu paralelizácie.
True
False
Neohraničený paralelizmus algoritmu neberie do úvahy zdroje počítačového systému.
True
False
Pre škálovatelnosť v reálnom prpade plat. že S(n,p) < p E(n,p) < 100%
True
False
Pre pamäťovú zložitosť algoritmov platí:
Pamätovä zložitosť algoritmu sa určí ako maximálna veľkost spotreby pamäte počas vykonávania alagoritmu.
Pamätová zložitosť algoritu je určovaná tak, že sa spočítajú velkosti spotreby pamäte počas jednotlivých fáz výkonávania algoritmu.
Out-of-core algoritmus je taký algoritmus, že všetky spracovávané dáta sú počas realizácie algoritmu uložené v hlavnej pamäti počítača.
Out-ot-Core algroitmus je taký algoritmus, ktorý uchováva z celkového objemu spracovávanych dát v hlavnej pamäti počítača iba minimálne množstvo dát, potrebné pre realizáciu výpočtu.
MIMD architektúry zvyčajne obsahujú viac procesných jednotike ako architektúry SIMD
True
False
Pre priemerný stupeň paralelizmu platí:
môže sa rovnať hodnote 0
môže byť aj desatinné číslo
nemôže sa nikdy rovnat hodnote 1
jeho hodnota sa nemôže rovnat hodnote maximálneho stupňa paralelizmu
Pre expanzívny paralelizmus platí:
Používaná dekompozícia sa nazýva aj hierarchická dekompozícia
Z funkčného hľadiska je dekompozícia problému triviálna
Tá istá funkcia je pri ňom používaná na rôznych úrovniach
Pri expanzívnom paralelizme sa nepoužíva rekurzívna dekompozícia
Pri expanzívnom paralelizme, ak veľkosť problému nie je známa. ľahko dochádza k pretaženiu paralelnej architektúry v dôsledku vyčerpania zdrojov.
True
False
Embarrassingly parallel problems:
Medzi ulohami je iba malá závislost alebo nie je žiadna
Nazývajú sa aj trápne rekurzívne problémy
Musí pri nich absentovať komunikácia medzi podúlohami
je ľahké dekomponovať na podúlohy
Pre ohraničenost paralelizmu platí:
Nie je hrubozrnná
Je iba jemnozrnná
Je iba strednozrnná
Je jemnozrnná a hrubozrnná
Lineárna časová zložitosť algoritmu, formálne zapísaná ako 0(1), je na grafe reprezentovaná priamkou rovnobežnou s osou x, prechádzajúcou na ose y hodnotou 1, za predpokladu, že na ose y je uvedený počet operácii a na ose x je uvedené n.
Pravda
Nepravda
Pri Gustafsonovom zákone nie je zrýchlenie paralelného počítania zhora ohraničené.
Pravda
Nepravda
Gustafsonov zákon predpokladá, že veľkosť sekvenčnej časti výpočtu klesá so zväčšovaním sa rozmeru problému:
Pravda
Nepravda
Efektívnosť E(n, p) je definovaná ako E(n, p) = T(n,1) / T(n,p)
Pravda
Nepravda
Pre Flynnovu klasifikáciu platí, že
SM-MIMD predstavuje MIMD so zdieľanou pamäťou (Shared Memory MIMD)
SM-MIMD predstavuje MIMD so spoločnou pamäťou (Simple Memory MIMD)
DM-MIMD predstavuje MIMD s distribuovanou pamäťou (Distributed Memory MIMD)
DM-MIMD predstavuje MIMD s dynamicky alokovanou pamäťou (Dynamic Memory MIMD)
Implicitný paralelizmus umožňuje kompilátoru alebo interpreteru zdrojového kódu automaticky odhaľovať' inherentný paralelizmus vlastný určitým konštrukciám programu.
Pravda
Nepravda
Prúdový paralelizmus je zväčša hrubozrnný paralelizmus a preto sa pri ňom architektúry MISD používajú zriedkavo.
Pravda
Nepravda
Expanzívny paralelizmus môže byt'
realizovaný na architektúrach SIMD
realizovaný na architektúrach MIMD
Jemnozrnný
Hrubozrnný
Vykonaná práca wi v časovom intervale Δti je vyčísliteľná ako wi = SP(Δti) x Ati x r [ops] kde SP(Δti) je stupeň paralelizmu r je počet operácií vykonávaných na procesnom elemente za sekundu
Pravda
Nepravda
Čas vykonávania paralelného programu sa skladá z času počítania, času komunikovania a času čakania
Pravda
Nepravda
Explicitný paralelizmus umožňuje programátorovi pomocou špecializovaných direktív alebo volaní funkcií určených pre synchronizáciu, komunikáciu a dekompozíciu úloh realizovať paralelizáciu výpočtu.
Pravda
Nepravda
MIMD architektúry zvyčajne obsahujú viac procesných jednotiek ako architektúry SIMD.
Pravda
Nepravda
Pre jednoduchý paralelizmus platí:
V praxi pri ňom zvyčajne nemožno dosiahnuť vysoký stupeň paralelizácie.
Jednoduchý paralelizmus je hrubozrnný.
Zvyčajne sa pri ňom spracovávajú nezávislé množiny údajov.
Problém P sa dekomponuje na množinu n podproblémov (úloh), ktoré možno riešiť nezávisle na sebe.
Pre prúdový paralelizmus platí, že problém P sa dekomponuje na množinu n podproblémov (úloh), ktoré sú riešené jeden po druhom.
Pravda
Nepravda
Pre stupeň paralelizmu SP platí:
je maximálny počet procesných elementov, ktoré boli v určitom čase využívané na realizáciu paralelného výpočtu
je vyjadrený prirodzeným číslom a mení sa spojito
zostáva v určitých časových intervaloch realizácie paralelného výpočtu konštantný
je počet procesných elementov, ktoré sú v danom čase využívané na realizáciu paralelného výpočtu
Podlá Amdahlovho zákona zrýchlenie dosiahnuteľné na paralelnom počítači je závislé od počtu procesorov, ktoré sú k dispozícii pri paralelnom výpočte.
Pravda
Nepravda
Priemerný stupeň paralelizmu (PSP) je priemerný počet procesných elementov, ktorý bol v určitom čase využívaný na realizáciu paralelného výpočtu.
Pravda
Nepravda
Problém P sa dekomponuje na množinu n podproblémov (úloh), ktoré sú riešené všetky naraz, v tom istom čase.
Pravda
Nepravda
Prúdový paralelizmus je zväčša hrubozrnný paralelizmus a preto sa pri ňom architektúry MISD používajú zriedkavo.
Pravda
Nepravda
Cieľom realizácie paralelných výpočtov je zníženie času výpočtu a/alebo spracovanie veľkého množstva údajov.
Pravda
Nepravda
Embarrasingly parallel problems je termín preložiteľný ako trápne paralelne problémy.
Pravda
Nepravda
Podľa Amdahlovho zákona zrýchlenie dosiahnuteľné na paralelnom počítači môže byť značne ohraničené existenciou malej časti sekvenčného kódu, ktorý nemožno paralelizovať.
Pravda
Nepravda
Podľa Amdahlovho zákona zrýchlenie dosiahnuteľné na paralelnom počítači je závislé od počtu procesorov, ktoré sú k dispozícii pri paralelnom výpočte:
Pravda
Nepravda
Pre Single Instruction Single Data architektúru platí
Poradie vykonávania inštrukcií je deterministické.
Používa sa pre paralelne počítanie kvôli svojej jednoduchosti.
Je charakteristická architektúra pri hrubozrnnom paralelizme.
Môže byt využitá pri pseudoparalelnom vykonávaní výpočtov.
Jednoduchý paralelizmus možno niekedy využiť pri prúdovom paralelizme pre zlepšenie vyváženosti pri prúdovom spracovaní.
Pravda
Nepravda
Pre Gustafsonov zákon platí:
Nie je v rozpore s Amdahlovym zákonom
Platí, ak riešime dostatočne veľký problém.
Hovorí, že je možné dosiahnuť nelimitovane zrýchlenie paralelného výpočtu.
Platí, ak mame k dispozícii dostatočne veľký počet procesorov.
Pre masívny paralelizmus platí:
Údajová dekompozícia je z hľadiska funkcie triviálna.
Po dekomponovaní problému na podproblemy sa tieto riešia masívne jeden po druhom
Nazýva sa aj údajovým paralelizmom.
Možno pri ňom použiť SIMD, v tom prípade je hrubozrnný.
Pre zložitosť algoritmu:
Neplatí, že nižšia zložitosť algoritmu automaticky umožňuje jeho ľahšie pochopenie.
Platí, že čim je nižšia zložitosť algoritmu, tým je jednoduchšie pochopiteľný.
Neplatí, že nižšia zložitosť algoritmu automaticky umožňuje jeho ľahšie naprogramovanie.
Platí, že čim je nižšia zložitosť algoritmu, tým je jednoduchšie ho naprogramovať.
Pre inherentný paralelizmus platí:
Existuje inherentne paralelný algoritmus aj inherentne paralelný problém.
Inherentne paralelný problém je riešiteľný iba paralelným algoritmom.
Ak je inherentne paralelný problém riešiteľný viacerými algoritmami, všetky majú rovnaký stupeň inherentného paralelizmu.
Inherentne paralelný problém je riešiteľný iba sekvenčným algoritmom.
Ak veľkosť problému nie je známa, expanzívny paralelizmus treba riadiť počas vykonávania výpočtu.
Pravda
Nepravda
Efektívnosť E(n,p) je definovaná ako E(n,p) = T(n,1)/T(n,p)
Pravda
Nepravda
Pre škálovateľnosť v REALNOM prpade plat, že: S(n,p) < p E(n,p) < 100%
Pravda
Nepravda
Pre škálovateľnosť v REALNOM prípade platí, že: S(n,p) = p E(n,p) = 100%
Pravda
Nepravda
Pre škálovateľnosť v IDEALNOM prípade platí, že: S(n,p) = p E(n,p) = 100%
Pravda
Nepravda
Ak znížime časovú zložitosť algoritmu, môže sa stáť, že súčasne zvýšime jeho pamäťovú zložitosť.
Pravda
Nepravda
Ohraničený paralelizmus algoritmu berie do úvahy zdroje počítačového systému:
Pravda
Nepravda
Pre prúdový paralelizmus platí, že problém P sa dekomponuje na množinu n podproblémov (úloh),ktoré sú riešené jeden po druhom.
Pravda
Nepravda
Maximálny stupeň paralelizmu (MSP) je maximálny počet procesných elementov, ktorý bolv určitom čase využívaný na realizáciu paralelného výpočtu.
Pravda
Nepravda
Pre prúdový paralelizmus platí, že problém P sa dekomponuje na množinu n podproblémov (úloh), ktoré sú riešené všetky naraz v tom istom čase.
Pravda
Nepravda
Flynnova klasifikácia posudzuje množstvo súčasne spracovávaných inštrukcií a súčasne spracovávaných dát:
Pravda
Nepravda
Nie je možné súčasne znižovať pamäťovú aj časovú zložitosť riešenia problému:
Pravda
Nepravda
Pre komunikátory platí:
inter-komunikátory neumožňujú kolektívnu komunikáciu
intra-komunikátory neumožňujú kolektívnu komunikáciu
intra-komunikátory umožňujú kolektívnu komunikáciu
inter-komunikátory umožňujú kolektívnu komunikáciu
Medzi funkcie kolektívnej komunikácie v rámci MPI patria:
MPI_Scan
MPI_Exscan
MPI_Alltoall
MPI_Reduce_Scatter
Pre jednoduchý paralelizmus platí:
V praxi pri ňom zvyčajne nemožno dosiahnuť vysoký stupeň paralelizácie
Problém P sa dekomponuje na množinu n podproblémov (úloh), ktoré možno riešiť nezávisle na sebe.
Jednoduchý paralelizmus je hrubozrnný.
Zvyčajne sa pri ňom spracovávajú nezávislé množiny údajov
Pre SISD platí:
pri vykonávaní programu využíva jediný prúd dát
pri vykonávaní programu využíva jediný prúd inštrukcií
pri výkonných paralelných výpočtoch sa nepoužíva
je to sekvenčný, jednoprocesorový počítačový systém
Pre karteziánsky komunikátor platí (skontrolovat spravnost)
pri vzniku karteziánskeho komunikátora je možné použiť funkciu MPI_Dims_create, ktorá určí každému procesu jeho rank v novom komunikátore
predstavuje n-dimenzionálnu pravidelnú mriežku procesov
možno ho vytvoriť iba z komunikátora MPI_COMM_WORLD
pri vzniku karteziánskeho komunikátora je možné preusporiadať ranky jednotlivých procesov
Numerická efektívnosť je mierou kvality sekvenčného algoritmu berúc do úvahy spracovávané údaje
Pravda
Nepravda
Pre optimálny paralelný algoritmus platí:
p.T = Ts kde p znamená počet procesorov, T znamená paralelný čas výpočtu a TS je čas výpočtu pri použití najrýchlejšieho známeho sekvenčného algoritmu
optimálny paralelný algoritmus je vždy p násobne rýchlejší ako efektívny algoritmus na p procesoroch
optimálny paralelný algoritmus si vyžaduje nk procesorov, kde n je požadovaný čas výpočtu
optimálny paralelný algoritmus a efektívny paralelný algoritmus sú synonymá
Pre škálovateľnosť v reálnom prpade plat, že S(n, p) = p E(n, p) < 100%
Pravda
Nepravda
Pre súbežné programovanie platí:
ciele programovania systémov reálneho času a paralelného programovania sú totožné
pri súbežnom programovaní sa nevyžaduje aby výsledný program bežal na praralelnom počítačovom systéme
paralelizmus využívaný v systémoch reálneho času je zvyčajne hrubozrnejší ako pri paralelnom počítaní ako pri paralelných výpočtoch
parallel programming a concurrent programming sú synonymá
Pre programové modely založené na odovzdávaní správ platí:
pre každú aplikáciu modelu MPMD je možné použiť aplikáciu modelu SPMD
všeobecne akceptovaným štandardom pre model odovzdávania správ je MPI
SPMD znamená Single Program Multiple Data
MPMD znamená Multiple Program Multiple Data
Ťažko paralelizovatelné sekvenčne časti kódu patria medzi náklady paralelného výpočtu
Pravda
Nepravda
DM-MIMD podporuje škálovateľnosť horšie ako SM-MIMD
Pravda
Nepravda
Pre architektúry DM-MIMD platí:
Je pri nej dôležité minimalizovať komunikáciu medzi procesormi
Komunikácia medzi procesormi prebieha výlučne prostredníctvom správ
Pre hrubozrnne paralelné problémy škáluje omnoho lepšie ako SIMD
Podporuje škálovateľnosť omnoho viac ako architektúra MIMD so spoločnou pamäťou
Najlepší sekvenčný algoritmus môže byť predsa len rýchlejší ako algoritmus, ktorý je paralelizovaný
Pravda
Nepravda
Zníženie komunikačných nákladov pri realizácii paralelného výpočtu možno dosiahnuť
Návrhom vhodnej topológie procesov pri dekompozícii problému
Prekrytím komunikácie a výpočtu v čase vďaka neblokujúcej komunikácii
Minimalizáciou počtu prenášaných správ
Maximalizáciou dĺžky správy
Pre komunikáciu v rámci MPI platí:
Neblokujúca komunikácia – vykonávanie programu pokračuje okamžite, po zavolaní funkcie pre komunikáciu teda počas odosielania/prijmania správy
Blokujúca komunikácia – vykonávanie procesu sa pozastaví, kým sa správa neodošle/neprijme
Existuje kolektívna komunikácia(skupinová)- collective communication
Existuje adresná komunikácia(bod-bod)- point—to-point communication
Pre architektúry VSM-MIMD platí
Fyzicky je realizovaná ako architektúra so spoločnou pamäťou
Umožňuje procesom priamy prístup do vyhradenej časti pamäte iných procesov
Fyzicky je realizovaná ako architektúra s distribuovanou pamäťou
Rýchlosť komunikácie je nízka ale výhodou je, že so stúpajúcou vzdialenosťou procesrovo sa rýchlosť komunikácie neznižuje
Pri jednoduchom paralelizme, keď rozdelíme problém na p úloh, záleží na tom, aby bol čas potrebný pre realizáciu jednotlivých úloh približne rovnaký
Pravda
Nepravda
Pre grafový komunikátor platí:
Funkcia MPI_Graph_create umožní vytvoriť grafový komunikátor
Proces ma v grafovom komunikátore susedov, ktorých možno identifikovať pomocou funkcie MPI_Graph_neighbours
Proces má v grafovom komunikátore susedov, ktorých počet možno zistiť pomocou funkcie MPI_Graph_neighbor_count
Grafový komunikátor možno vytvoriť aj z komunikátora MPI_COMM_WORLD
Výkonná paralelná aplikácia nie je jednoducho vytvoriteľná s využitím jednoduchého paralelizmu.
Pravda
Nepravda
Vzhľadom na obmedzený aplikačný záber, architektúra MISD sa používa zriedkavo.
Pravda
Nepravda
Nech TN(n) je čas vykonávania najrýchlejšieho známeho sekvenčného algoritmu na jedno procesore, potom numerická efektívnosť = TN(n)/T(n,1)
Pravda
Nepravda
Paralelizmus využívaný v systémoch reálneho času je zvyčajne jemnozrnnejší ako pri paralelných výpočtoch.
Pravda
Nepravda
Amdahlovo pravidlo je metrika, ktorú možno považovať za metriku kvality programového kódu.
Pravda
Nepravda
Cieľom programovania systémov reálneho času je uspokojenie požiadaviek na čas vykonávania a zabezpečenie spoľahlivosti z hľadiska správnosti funkcie.
Pravda
Nepravda
Pre ohraničenosť paralelizmu platí:
efektívne paralelizovaterné algoritmy sú tie, ktorých paralelizmus je hraničný
Ohraničený paralelizmus algoritmu je vyjadrený paralelným časom výpočtu, berúc do úvahy (ohraničené) zdroje počítačového systému.
Neohraničený paralelizmus algoritmu je vyjadrený paralelným časom výpočtu, neberúc pritom do úvahy (ohraničené) zdroje počítačového systému.
inherentne paralelný problém je taký, na ktorý možno aplikovať pravidlo o neohraničenom paralelizme ale nie pravidlo o ohraničenom paralelizme.
Pri expanzívnom paralelizme je problém rekurzívne delený na n podproblémov toho istého typu.
Pravda
Nepravda
Dekompozícia expanzívne paralelného problému sa nazýva hierarchická dekompozícia.
Pravda
Nepravda
Pri programovaní výkonných paralelných výpočtov je základným cieľom dosiahnutie tých istých výsledkov ako na sekvenčnom počítači, avšak pomocou viacprocesorovej architektúry.
Pravda
Nepravda
Pri jednoduchom paralelizme, keď rozdelíme problém na p úloh, nezáleží na tom, či je čas potrebný pre realizáciu jednotlivých úloh približne rovnaký, pretože všetky sa začínajú v rovnakom čase.
Pravda
Nepravda
Jednoduchý paralelizmus je jemnozrnný.
Pravda
Nepravda
Pre expanzívny a masívny paralelizmus platí.
sú inherentné problémom nepravidelnej povahy
sú inherentné problémom pravidelnej povahy
sú pomocou nich zostaviteľné vysoko výkonné paralelné aplikácie
problémy pravidelnej povahy riešia primárne hrubozrnným spôsobom
Ak je problém inherentne paralelný, je možné zostaviť iba paralelný algoritmus.
Pravda
Nepravda
Jedným z kľúčových problémov, ktoré je potrebné v súvislosti s paralelnými výpočtami riešiť, je vyvažovanie paralelného výpočtu.
Pravda
Nepravda
Prúdový paralelizmus je zväčša hrubozrnný paralelizmus a preto sa pri ňom architektúry MIMD používajú zriedkavo
Pravda
Nepravda
Pre neblokujúcu komunikáciu v rámci MPI platí:
Funkcia MPI_Wait slúži na blokovanie vykonávania procesu do momentu, kým nie je dokončená konkrétna požiadavka
Funkcia MPI_Test sluzi na testovanie, ci bola dokončená konkrétna požiadavka, ale neblokuje pri tom vykonávanie procesu
Zrýchlenie S(n,p) je definovane ako S(n,p) = T(n,1) / T(n,p)
Pravda
Nepravda
Maximálny stupeň paralelizmu (MSP) sa nemôže nikdy rovnať hodnote 1
Pravda
Nepravda
Pre architektúru paralelného počítača SM-MIMD platí:
Prístup k spoločnej pamäti možno riadiť pomocou semaforov
Novy komunikátor možno vytvoriť prostredníctvom funkcie
MPl_Comm_split
MPl_Comm_create
MPI_Comm_dup
MPI_Comm_self
Efektívnosť E(n,p) je definovaná ako E(n,p) = S(n,p)/p
Pravda
Nepravda
Pri inicializácii MPI:
Inicializácia MPI je realizovateľná prostredníctvom funkcie MPI_Init
Pri inicializácii MPI vznikne komunikátor MPI_COMM_WORLD
Pri inicializácii MPI vznikne komunikátor MPI_COMM_SELF
Pri inicializácii MPI je každému procesu pridelený rank v komunikátore MPI_COMM_WORLD
Prúdový paralelizmus je zväčša hrubozrnný paralelizmus a preto sa pri ňom architektúry MIMD používajú zriedkavo
Pravda
Nepravda
Pre škálovateľnosť v IDEALNOM prpade plat, že: S(n,p) < p E(n,p) < 100%
Pravda
Nepravda
Algoritmus s najpriaznivejšou časovou zložitosťou, ktorý je možno použiť na riešenie problému, určuje súčasne aj časovú zložitosť problému.
Pravda
Nepravda
Výkonná paralelná aplikácia nie je jednoducho vytvoriteľná s využitím prúdového paralelizmu
Pravda
Nepravda
Funkcia MPI_Wait slúži na:
blokovanie vykonávania procesu do momentu, kým nie je dokončená konkrétna požiadavka
testovanie, ci bola dokončená konkrétna požiadavka, ale neblokuje pri tom vykonávanie procesu
rozdelenie dát z jedného zdrojového procesu (root procesu) a ich distribúciu medzi všetky ostatné procesy v MPI komunikátore
zhromažďovanie dát jedným procesom z viacerých procesov v tom istom komunikátore
zhromaždenie dát z každého procesu v komunikátore a distribúciu týchto dát všetkým procesom v tom istom komunikátore
Funkcia MPI_Test slúži na:
blokovanie vykonávania procesu do momentu, kým nie je dokončená konkrétna požiadavka
testovanie, ci bola dokončená konkrétna požiadavka, ale neblokuje pri tom vykonávanie procesu
rozdelenie dát z jedného zdrojového procesu (root procesu) a ich distribúciu medzi všetky ostatné procesy v MPI komunikátore
zhromažďovanie dát jedným procesom z viacerých procesov v tom istom komunikátore
zhromaždenie dát z každého procesu v komunikátore a distribúciu týchto dát všetkým procesom v tom istom komunikátore
Funkcia MPI_Allgather slúži na:
blokovanie vykonávania procesu do momentu, kým nie je dokončená konkrétna požiadavka
zhromažďovanie dát jedným procesom z viacerých procesov v tom istom komunikátore
zhromaždenie dát z každého procesu v komunikátore a distribúciu týchto dát všetkým procesom v tom istom komunikátore
testovanie, ci bola dokončená konkrétna požiadavka, ale neblokuje pri tom vykonávanie procesu
rozdelenie dát z jedného zdrojového procesu (root procesu) a ich distribúciu medzi všetky ostatné procesy v MPI komunikátore
Funkcia MPI_Gather slúži na:
blokovanie vykonávania procesu do momentu, kým nie je dokončená konkrétna požiadavka
rozdelenie dát z jedného zdrojového procesu (root procesu) a ich distribúciu medzi všetky ostatné procesy v MPI komunikátore
testovanie, ci bola dokončená konkrétna požiadavka, ale neblokuje pri tom vykonávanie procesu
zhromaždenie dát z každého procesu v komunikátore a distribúciu týchto dát všetkým procesom v tom istom komunikátore
zhromažďovanie dát jedným procesom z viacerých procesov v tom istom komunikátore
Funkcia MPI_Scatter slúži na:
zhromažďovanie dát jedným procesom z viacerých procesov v tom istom komunikátore
zhromaždenie dát z každého procesu v komunikátore a distribúciu týchto dát všetkým procesom v tom istom komunikátore
testovanie, ci bola dokončená konkrétna požiadavka, ale neblokuje pri tom vykonávanie procesu
rozdelenie dát z jedného zdrojového procesu (root procesu) a ich distribúciu medzi všetky ostatné procesy v MPI komunikátore
blokovanie vykonávania procesu do momentu, kým nie je dokončená konkrétna požiadavka
{"name":"PP", "url":"https://www.quiz-maker.com/QJ4G39JH3","txt":"Efektívnosť E(n, p) je definovaná ako E(n, p) = S(n, p) \/ p, Pre expanzívny paralelizmus platí:, Program pre dataflow počítač je v podobe data flow grafu.","img":"https://www.quiz-maker.com/3012/images/ogquiz.png"}