архитектура компьютера - это описание компонент компьютера и их взаимодействия.
Блокирующие функции MPI – функции, которые гарантируют полное окончание операции после выхода из процедуры, т.е. вызывающий процесс блокируется, пока операция не будет завершена.
векторные функциональные устройства - функциональные устройства, способные выполнять одну операцию одновременно с массивом однородных данных.
время подготовки данных - задержка, вызванная обменами, конфликтами памяти или синхронизацией и необходимая для того, чтобы разместить данные, требующиеся для продолжения вычислений, в соответствующих ячейках памяти.
вычислительная мощность – см. производительность
компьютерные кластеры – организация параллельных компьютеров MPP архитектуры, при которой в качестве вычислительных узлов используются серийные ПК, а в качестве среды межпроцессорного взаимодействия – вычислительная сеть, как правило локальная. В настоящее время наиболее распространены Linux-кластеры, в которых каждый вычислительный узел работает под управлением ОС Linux.
конвейерные функциональные устройства – функциональные устройства, состоящие из нескольких независимых, последовательно расположенных функциональных устройств. Каждое из таких независимых устройств называется ступенью конвейера. В конвейерных устройствах данные переходят со ступени на ступень, и каждая из ступеней выполняет свои преобразования данных.
Латентность - время, затрачиваемое программным обеспечением и устройствами сети на подготовку к передаче информации по данному каналу.
мета-компьютинг – способ организации компьютерного кластера, при котором узлы объединятся глобальными сетями передачи данных. Ввиду крайне медленного межпроцессорного обмена, на метакомпьютерах целесообразно решать лишь задачи, где степень параллелизма приближается к 100%. Например задачи перебора, поиска ключей и т.п.
Неблокирующие функции MPI - функции, которые допускают совмещение операций обмена с другими операциями, поэтому неблокирующие функции передачи и приема по сути дела являются функциями инициализации соответствующих операций. Для опроса завершенности операции (и завершения) вводятся дополнительные функции.
организация компьютера - это описание конкретной реализации архитектуры, ее воплощения "в железе".
производительность – под производительностью обычно понимается число вычислительных операций, которые может выполнить компьютер за единицу времени. Зная вычислительную сложность программы и производительность компьютера, можно спрогнозировать время выполнения данной программы на данном компьютере. Существуют различные методы измерения производительности, наиболее распространенным является измерение времени работы какого-либо из общепринятых тестов (см. LINPACK). Наиболее широко используемой единицей измерения производительности в настоящее время является MFLOPS.
пропускная способностью сети - количество информации, передаваемой между узлами сети в единицу времени (байт в секунду).
разделяемая память – организация оперативной памяти, при которой все процессоры имеют одинаковый доступ к данным и командам, хранящимся в памяти. Такая организация памяти характерна для SMP систем.
распределенная память - организация оперативной памяти, при которой каждый процессор имеет свою локальную память и не имеет доступа к памяти других процессоров. Такая организация памяти характерна для MPP систем.
средняя степень параллелизма -отношение общего числа операций численного алгоритма к числу его этапов.
степень параллелизма алгоритма – число операций численного алгоритма, которые можно выполнять одновременно, или отношение таких операций к общему числу операций.
схема компьютера - детальное описание его электронных компонент, их соединений, устройств питания, охлаждения и т.п.
топология – организация внутренних коммуникаций вычислительной системы.
ускорение - отношение времени выполнения программы на многопроцессорном компьютере к времени выполнения на однопроцессорном компьютере.
эффективность - отношение ускорения программы на многопроцессорном компьютере к числу процессоров.
LINPACK - это пакет фортран-программ для решения систем линейных алгебраических уравнений. В настоящие время наиболее распространенный тест для оценки производительности вычислительных систем.
MFLOPS - Million FLoating point Operation Per Second, миллионов операций с плавающей точкой за секунду (читается «мегафлопс»). Единица измерения производительности компьютеров, показывает число операций с плавающей точкойЮ выполняемых центральным компьютером за секунду. Измеряется, как правило, с помощью некоторого стандартного теста (напр. LINPACK). В настоящее время является наиболее широко употребляемой и общепринятой единицей измерения производительности. Существуют производные от мегафлопса: 1 GFLOPS = 10^3 MFLOPS = 10^9 FLOPS (гигафлопс), 1 TFLOPS = 10^6 MFLOPS = 10^12 FLOPS (терафлопс), 1 PFLOPS = 10^9 MFLOPS = 10^15 FLOPS (петафлопс).
MIMD - Multiple Instruction stream / Multiple Data stream, множественный поток команд и множественный поток данных. Одна из архитектур параллельных компьютеров, согласно классификации Флинна.
MIPS – Million Instruction Per Second, миллионов инструкций за секунду. Единица измерения производительности компьютеров, показывает число операций, выполняемых центральным процессором за секунду. В настоящее время мало употребляема.
MISD - Multiple Instruction stream / Single Data stream, множественный поток команд и одиночный поток данных. Одна из архитектур параллельных компьютеров, согласно классификации Флинна.
MPI - Message Passing Interface, интерфейс передачи сообщений. На сегодняшний день это один из наиболее распространенных интерфейсов для организации межпроцессорных коммуникаций в многопроцессорных вычислительных системах. MPI это и стандарт межпоцессорных взаимодействий, и набор библиотек, выполненных в соответствии с этим стандартом. Средствами MPI можно организовать пересылку данных между процессами. Существует много разновидностей и версий MPI для различных платформ. MPI работает как на MPP, так и на SMP системах.
MPP – Massively Parallel Processor, массивно параллельный процессор. Архитектура параллельных компьютеров, отличительной чертой которых является наличие локальной памяти у каждого процессора. Межпроцессорные взаимодействия в системах с такой архитектурой протекают медленнее, чем в SMP системах, но они обладают хорошей возможностью масштабирования.
NAT – Network Address Translation, перевод сетевых адресов. Способ организации сети, при котором один из сегментов сети работает через шлюз и при выходе пакетов данных из данного сегмента во внешнюю сеть, адрес отправителя пакета заменяется адресом шлюза (маскарадинг) или адресом из некоторого выделенного пула адресов (NAT).
NUMA – Non Unified Memory Access, неоднородный доступ к памяти. Архитектура параллельных компьютеров, в которых каждый процессор имеет локальную память, но имеет доступ к памяти других процессоров. Вся память в таких компьютерах имеет общую адресацию и общедоступна, но доступ к локальной памяти происходит быстрее, чем доступ к памяти других процессоров.
ScaLAPACK – версия теста LINPACK, ориентированная на использование на компьютерах с параллельной архитектурой.
SIMD - Single Instruction stream / Multiple Data stream, одиночный поток команд и множественный поток данных. Одна из архитектур параллельных компьютеров, согласно классификации Флинна.
SISD - Single Instruction stream / Single Data stream, одиночный поток команд и одиночный поток данных. Одна из архитектур параллельных компьютеров, согласно классификации Флинна.
SMP – Symmetic Multi Processor, симметричный мультипроцессор. Архитектура параллельных компьютеров, отличительной чертой которых является работа нескольких ЦП над одним массивом памяти, которая называется «разделяемой (общей) памятью». Межпроцессорные взаимодействия в компьютерах с такой архитектурой организуются через общую память и протекают быстрее, чем в компьютерах с другими архитектурами. Недостатком таких систем является ограниченное число процессоров, которое можно разместить над общей памятью, и, как следствие, невозможность масштабируемости таких систем.