Cтраница 1
Техника параллельного вычисления наиболее эффективна для решения задач, удовлетворяющих условию локальности, когда изменение состояния данного малого элемента среды за малый промежуток времени определяется лишь мгновенным состоянием этого элемента и его ближайших соседей. Примитивный процессор знает лишь о состоянии своего малого элемента среды. Основываясь на этой информации и на полученных от соседних процессоров сведениях о состоянии ближайших элементов, каждый процессор вычисляет согласно инструкции, поступающей от центрального программного блока, состояние своего элемента в следующий момент времени. [1]
Организация параллельных вычислений существенно зависит от типа и характеристик потока сообщений-заявок на вызов определенных программ. Если состав и темп поступающих заявок не изменяются в процессе функционирования ВС, то перераспределение заявок не требуется и расписание сохраняется на все время регулярного потока пакетов сообщений. [2]
Управление параллельными вычислениями подразумевает работу одновременно с несколькими процессами, такими, как обработка прерываний и управление подчиненными ( пользовательскими) процессами. В Модуле-2 имеются все средства для этого. [3]
Работая над параллельными вычислениями, специалисты по информатике в основном заняты дальнейшим убыстрением алгоритмов, и так полиномиальных по времени. [4]
Тезис о параллельных вычислениях [6], гласящий, что время работы параллельной машины полиномиально связано с памятью эквивалентной детерминированной машины. В силу этого ATM оказываются с точностью до полиномов сильнейшими среди возможных машин параллельного действия. [5]
Огромное разнообразие моделей параллельных вычислений не всегда гарантирует их адекватность множеству практических задач, с которыми приходится сталкиваться при разработке распределенных приложений. Причина заключается в противоречивости требований к этим моделям и важности представления тех или иных особенностей функционирования вычислительных систем. [6]
Граф выполнения большой программы. [7] |
При автоматическом обнаружении параллельных вычислений мы различаем в последовательной программе явную и скрытую параллельную обработку. Хотя в обоих случаях требуется анализ программы, различие между этими видами обработки состоит в том, что скрытая параллельная обработка требует некоторой процедуры преобразования последовательной программы, чтобы сделать возможным ее параллельное выполнение. [8]
При выборе модели параллельных вычислений выделяются два подхода. [9]
Проблема глобальной конфлюэнтности асинхронных параллельных вычислений, аналога свойства Черча-Россера, изучается Р. М. Келлером в работе [116] на основе абстрактной модели - системы переходов. [10]
Это можно рассматривать как параллельное вычисление тг многочленов от тп пг переменных; каждый многочлен представляет собой скалярное произведение двух n - мерных векторов. [11]
К настоящему времени организация параллельных вычислений уже используется в наиболее совершенных ЭВМ, чтобы преодолеть ограничения, связанные с конечной скоростью распространения сигналов. Принцип проведения вычислений в несколько параллельных потоков реализован в мощных суперкомпьютерах, но в наиболее полной мере параллелизм выполнения операций используется в компьютерах с матричными процессорами. [12]
Сравнение линейной алгебры и параллельных вычислений, двух разделов математики, показывает следующее. В линейной алгебре базовая часть знаний установилась и является весьма обширной. Новые знания появляются в большом количестве, но они практически никак не затрагивают базовую часть. В параллельных вычислениях установившаяся базовая часть относительно невелика. Новые знания здесь появляются еще в большем количестве, что во многом определяется их зависимостью от уровня развития вычислительной техники. По мере осмысления перспектив использования техники какая-то часть новых знаний переходит в базовые. [13]
Мультипроцессорные системы с архитектурой танцевальный зал и. [14] |
Для описания способа организации параллельных вычислений используется также понятие одновременность, которое означает независимое, асинхронное функционирование параллельно работающих вычислительных устройств в противоположность их синхронному ( или жесткому) взаимодействию в составе мультипроцессорной системы. [15]