This HTML5 document contains 48 embedded RDF statements represented using HTML+Microdata notation.

The embedded RDF content will be recognized by any processor of HTML5 Microdata.

Namespace Prefixes

PrefixIRI
dctermshttp://purl.org/dc/terms/
dbohttp://dbpedia.org/ontology/
foafhttp://xmlns.com/foaf/0.1/
n4http://www.devx.com/cplus/Article/
n17https://global.dbpedia.org/id/
yagohttp://dbpedia.org/class/yago/
dbthttp://dbpedia.org/resource/Template:
rdfshttp://www.w3.org/2000/01/rdf-schema#
dbpedia-ukhttp://uk.dbpedia.org/resource/
freebasehttp://rdf.freebase.com/ns/
rdfhttp://www.w3.org/1999/02/22-rdf-syntax-ns#
owlhttp://www.w3.org/2002/07/owl#
wikipedia-enhttp://en.wikipedia.org/wiki/
dbchttp://dbpedia.org/resource/Category:
dbphttp://dbpedia.org/property/
provhttp://www.w3.org/ns/prov#
xsdhhttp://www.w3.org/2001/XMLSchema#
wikidatahttp://www.wikidata.org/entity/
dbrhttp://dbpedia.org/resource/

Statements

Subject Item
dbr:Scalable_parallelism
rdf:type
yago:Change100191142 yago:Act100030358 yago:Event100029378 yago:WikicatCompilerOptimizations yago:Abstraction100002137 yago:YagoPermanentlyLocatedEntity yago:PsychologicalFeature100023100 yago:Optimization100260051 yago:ChangeOfState100199130 yago:Action100037396 yago:Improvement100248977
rdfs:label
Масштабований паралелізм Scalable parallelism
rdfs:comment
Software is said to exhibit scalable parallelism if it can make use of additional processors to solve larger problems,i.e. this term refers to software for which Gustafson's law holds.Consider a program whose execution time is dominated by one or more loops,each of that updates every element of an array ---for example, the following finite difference heat equation stencil calculation: for t := 0 to T do for i := 1 to N-1 do new(i) := (A(i-1) + A(i) + A(i) + A(i+1)) * .25 // explicit forward-difference with R = 0.25 end for i := 1 to N-1 do A(i) := new(i) endend Масштабований паралелізм — це використовування додаткових процесів для вирішення великих проблем. Програмне забезпечення демонструє масштабований паралелізм, якщо воно може використовувати додаткові процесори для вирішення великих проблем, тобто цей термін відноситься до програмного забезпечення, для якого дійсний закон Густафсона. Розглянемо програму, в часі виконання якої домінує один або більше циклів, кожен з який оновлює кожен елемент масиву. Наприклад, наступний розрахунок методом скінченних різниць рівняння теплопровідності трафарету:
dcterms:subject
dbc:Analysis_of_parallel_algorithms dbc:Articles_with_example_pseudocode
dbo:wikiPageID
23048148
dbo:wikiPageRevisionID
939094044
dbo:wikiPageWikiLink
dbc:Analysis_of_parallel_algorithms dbr:Stencil_(numerical_analysis) dbr:SequenceL dbr:Heat_equation dbr:Loop_optimization dbr:Distributed_computing dbr:Gustafson's_law dbr:Non-uniform_memory_access dbr:BMDFM dbr:Data_parallelism dbc:Articles_with_example_pseudocode dbr:Parallel_computing dbr:Embarrassingly_parallel dbr:Automatic_parallelization dbr:Ateji_PX dbr:Finite_difference_method dbr:Scalable_locality
dbo:wikiPageExternalLink
n4:32935
owl:sameAs
dbpedia-uk:Масштабований_паралелізм freebase:m.064nn_5 n17:4ukXi wikidata:Q7429672
dbp:wikiPageUsesTemplate
dbt:Reflist dbt:Cite_web
dbo:abstract
Масштабований паралелізм — це використовування додаткових процесів для вирішення великих проблем. Програмне забезпечення демонструє масштабований паралелізм, якщо воно може використовувати додаткові процесори для вирішення великих проблем, тобто цей термін відноситься до програмного забезпечення, для якого дійсний закон Густафсона. Розглянемо програму, в часі виконання якої домінує один або більше циклів, кожен з який оновлює кожен елемент масиву. Наприклад, наступний розрахунок методом скінченних різниць рівняння теплопровідності трафарету: for t := 0 to T do for i := 1 to N-1 do new(i) := (A(i-1) + A(i) + A(i) + A(i+1)) * .25 // explicit forward-difference with R = 0.25 end for i := 1 to N-1 do A(i) := new(i) endend У наведеному вище коді, ми можемо виконати всі ітерації кожної «i» циклу одночасно, тобто перетворити в паралельний цикл. У таких випадках часто можна ефективно використовувати в два рази більше процесорів, як і для проблеми з розміром масиву 2N, так і для проблеми з розміром масиву N. В цьому прикладі, масштабований паралелізм зазвичай являє собою вид паралелізму даних. Ця форма паралельності часто є об'єктом автоматичного розпаралелювання циклів. Software is said to exhibit scalable parallelism if it can make use of additional processors to solve larger problems,i.e. this term refers to software for which Gustafson's law holds.Consider a program whose execution time is dominated by one or more loops,each of that updates every element of an array ---for example, the following finite difference heat equation stencil calculation: for t := 0 to T do for i := 1 to N-1 do new(i) := (A(i-1) + A(i) + A(i) + A(i+1)) * .25 // explicit forward-difference with R = 0.25 end for i := 1 to N-1 do A(i) := new(i) endend In the above code, we can execute all iterations of each "i" loop concurrently,i.e., turn each into a parallel loop.In such cases,it is often possible to make effective use of twice as many processors for a problem of array size 2Nas for a problem of array size N.As in this example, scalable parallelism is typically a form of data parallelism.This form of parallelism is often the target of automatic parallelization of loops. Distributed computing systems and non-uniform memory access architecturesare typically the most easily scaled to large numbers of processors,and thus would seem a natural target for software that exhibits scalable parallelism.However, applications with scalable parallelism may not have parallelism ofsufficiently coarse grainto run effectively on such systems (unless the software is embarrassingly parallel).In our example above, the second "i" loop is embarrassingly parallel,but in the first loop each iteration requires results produced in several prior iterations.Thus, for the first loop, parallelization may involve extensive communication or synchronization among processors,and thus only result in a net speedup if such interactions have very low overhead,or if the code can be transformed to resolve this issue (i.e., by combined scalable locality/scalable parallelism optimization).
prov:wasDerivedFrom
wikipedia-en:Scalable_parallelism?oldid=939094044&ns=0
dbo:wikiPageLength
3314
foaf:isPrimaryTopicOf
wikipedia-en:Scalable_parallelism