Сертификат "Параллельное программирование с использованием технологии MPI"
  • Сертификат "Параллельное программирование с использованием технологии MPI"
  • Сертификат "Параллельное программирование с использованием технологии MPI"
Сертификат "Параллельное программирование с использованием технологии MPI"
  • Сертификат "Параллельное программирование с использованием технологии MPI"
  • Сертификат "Параллельное программирование с использованием технологии MPI"

Параллельное программирование с использованием технологии MPI

700,00 руб.
В течение часа!
Экзамен "Параллельное программирование с использованием технологии MPI" для пользователей и системных администраторов.
Количество
Есть в наличии!

Форма сдачи теста: Экстерн
Количество вопросов: 30
Проходной балл: 90% и выше
Срок действия сертификата: неограничен

Сертификат появляется в профиле ресурса INTUIT, и Вы можете заказать его бумажную версию на сайте INTUIT.
11442 шт.
Внимание !
Вопросы к тесту выложены исключительно в ознакомительных целях: количество вопросов может не совпадать с действительным, актуальность не поддерживается,- за решением теста Welcome to the cashier!

При компиляции программы на языке Фортран90 прилинковать библиотечные модули можно с помощью скрипта...

mpiCC
mpif90
mpicc


Наиболее распространенной технологией программирования для параллельных ПК с рапределенной памятью является...

MPI
MPT
HPI


Какие объекты, используемые в MPI, имеют префикс MPI_?

Константы
предопределенные типы данных
имена процедур


В каком файле собираются все описания интерфейса MPI?

mpif.h
mpicc.h
mpirun.h


При использовании какого языка являются существенным в названиях функций регистр символов?

Фортран
Паскаль
Си


Назовите основной способ взаимодействия параллельных процессов

распределение памяти на вычислительной платформе
передача сообщений друг другу
передача цифровых данных


Технология MPI - это...

интерфейс получения данных
интерфейс распределения сообщений
интерфейс передачи сообщений


Каким образом записывается название функций MPI на языке Си?

название полностью записывается в нижнем регистре
первая буква после префикса MPI_ пишется в верхнем регистре, последующие буквы - в нижнем регистре
название полностью записывается в верхнем регистре


Отметьте основной способ взаимодействия между процессами в MPI:

передача общих данных
регистрация общих переменных
явная посылка сообщений


Почему в начале MPI-программы должна стоять директива include 'mpif.h'?

будут устранены конфликты с объектами MPI
все описания интерфейса MPI собраны в файле mpif.h
названия констант MPI будут писаться в нижнем регистре


Интерфейс, зафиксированный стандартом MPI, должен соблюдаться...

параллельным процессом системы
системой программирования на каждой вычислительной платформе
пользователем при создании программ


Какая версия стандарта MPI получила широкое распространение?

версия 1.1
версия 1.0
версия 2.0


В какой версии стандарта MPI появилась возможность уничтожение существующих процессов?

версия 1.1
версия 1.0
версия 2.0


Что не допускается в ходе выполнения MPI-программы в версиях до MPI 2.0

уничтожение существующих процессов
порождение дополнительных процессов
параллельное взаимодействие процессов


Все процессы в MPI порождаются...

много раз, образуя резервную часть программы
один раз, образуя параллельную часть программы
один раз, образуя общую часть программы


Каждый процесс MPI-программы имеет...

общие данные
свое адресное пространство
общие переменные


В каком году появилась версия 2.0 стандарта MPI?

в 1993 - 1994 гг.
в 1997 - 1998 гг.
в 1995 - 1996 гг.


Отдельная среда для общения группы процессов называется...

коммуникатором
адресным пространством
процессорным модулем


Группы параллельных процессов программы могут...

полностью совпадать
частично пересекаться
не пересекаться


С какими языками поддерживает работу MPI?

Паскаль
Фортран
Си


Назовите тип коммуникатора в языке Фортран

INTEGER
MPI_Comm
SUCCESS


Какой коммуникатор служит для взаимодействия всех запущенных процессов MPI-программы

MPI_COMM_SELF
MPI_COMM_WORLD
MPI_COMM_NULL


какое значение возвращается в случае успешного выполнения процедур MPI?

MPI_SUCESS
MPI_NULL
MPI_Comm


В каком файле перечислены предопределенные значения, соответствующие различным ошибочным ситуациям?

mpicc.h
mpif.h
mpirun.h


В каком стиле поддерживает интерфейс MPI создание параллельных программ?

в стиле SPMD
как в том, так и в другом стиле
в стиле MIMD


В рамках какой модели для всех параллельных процессов используется один и тот же код?

MIMD
MPMD
SPMD


Какой коммуникатор содержит только один текущий процесс?

MPI_COMM_NULL
MPI_COMM_WORLD
MPI_COMM_SELF


Какая из предложенных моделей подразумевает объединение процессов с различными исходными данными?

SPMD
MIMD
MDMD


Каким образом при компиляции программы можно прилинковать соответствующие библиотечные модули?

с помощью командной строки
этого сделать нельзя
воспользоваться соответствующими командами или скриптами


При компиляции программы на языке Си++ прилинковать библиотечные модули можно с помощью скрипта...

mpif77/mpif90
mpi//cc
mpiCC


MPI является...

платформой
библиотекой
файловой структурой


Опция компилятора "-o name" позволяет задать...

имя получаемого библиотечного файла
имя прилинкованных библиотечных модулей
имя для получаемого выполнимого файла


В зависимости от системы результат выполнения программы всеми запущенными процессами может...

выдаваться на терминал
записываться в файл с предопределенным именем
записываться в соответствующий библиотечный модуль


Какая команда используется для запуска выполнимого файла на требуемом количестве процессоров?

mpirun
"-o name"
mpif


Инициализация параллельной части программы выполняется с помощью...

MPI_INITIALIZED(IERR)
INTEGER IERR

MPI_FINALIZE(IERR)
INTEGER IERR

MPI_INIT(IERR)
INTEGER IERR


Инициализация для параллельной части выполняется только один раз...

для каждого процесса
для каждой программы
для каждого приложения


Данный процесс служит для...

MPI_INIT(IERR)
INTEGER IERR

возвращения к параллельной части программы
инициализации параллельной части программ
завершения параллельной части приложения


Все, кроме одной процедуры MPI могут быть вызваны только после вызова...

MPI_FINALIZE
MPI_INITIALIZED
MPI_INIT


Данный процесс служит для...

MPI_FINALIZE(IERR)
INTEGER IERR

инициализации параллельной части программ
завершения параллельной части приложения
возвращения к параллельной части программы


Завершение параллельной части приложения выполняется с помощью...

MPI_INIT(IERR)
INTEGER IERR

MPI_FINALIZE(IERR)
INTEGER IERR

MPI_INITIALIZED(IERR)
INTEGER IERR


В каком языке функции MPI_Init передаются указатели на аргументы командной строки программы argv и argc?

Фортран
Си
Паскаль


Из каких аргументов командной строки программы система может извлекать и передавать в параллельные процессы параметры запуска программы?

Argc
args
argv


К моменту вызова какой процедуры каждым процессом программы все действия должны быть завершены?

MPI_WORLD
MPI_FINALIZE
MPI_REAL


Каков порядок вывода строк с разных процессов

произвольный
последовательный
параллельный


'Before MPI_INIT' может печатать...

все запущенные процессы приложения
один выделенный процесс
все процессы коммуникатора


На каком языке написана данная MPI-программа?

program example1
include 'mpif.h'
integer ierr
print *, 'Before MPI_INIT'
call MPI_INIT(ierr)
print *, 'Parallel section'
call MPI_FINALIZE(ierr)
print *, 'After MPI_FINALIZE'
end

Фортран
Си
Паскаль


Какая из перечисленных процедур может быть вызвана до вызова MPI_INIT

MPI_COMM_SIZE
MPI_INITIALIZED
MPI_COMM_RANK


В каком случае процедура MPI_INITIALIZED возвращает в аргументе FLAG .TRUE.?

если вызвана из параллельного коммуникатора
если вызвана из параллельной части приложения
если вызвана из параллельного процесса


Какое значение процедура MPI_INITIALIZED возвращает в аргументе FLAG, если вызвана из параллельной части?

.TRUE
.FALSE
.RANK


Сколько раз будет выводится строка, соответствующая вызову процедуры print в данном примере?

program example2
include 'mpif.h'
integer ierr, size, rank
call MPI_INIT(ierr)
call MPI_COMM_SIZE(MPI_COMM_WORLD, size, ierr)
call MPI_COMM_RANK(MPI_COMM_WORLD, rank, ierr)
print *, 'process ', rank, ‘, size ', size
call MPI_FINALIZE(ierr)
end

один раз
столько раз, сколько было порождено процессов при запуске программы
ни одного раза


Какая из предложенных процедур возвращает число параллельных процессов в коммуникаторе COMM

MPI_COMM_SIZE(COMM, SIZE, IERR)
INTEGER COMM, SIZE, IERR

MPI_INITIALIZED(FLAG, IERR)
LOGICAL FLAG
INTEGER IERR

MPI_FINALIZE(IERR)
INTEGER IERR


В каком аргументе процедура возвращает число параллельных процессов в коммуникаторе COMM?

RANK
FLAG
SIZE


В каком диапазоне находится значение, возвращаемое процедурой MPI_COMM_RANK через переменную RANK

от 0 до SIZE-1
от 0 до SIZE+1
от 0 до 1-SIZE


Какая из предложенных процедур возвращает номер процесса в коммуникаторе COMM

MPI_COMM_SIZE(COMM, RANK, IERR)
INTEGER COMM, RANK, IERR

MPI_COMM_RANK(COMM, RANK, IERR)
INTEGER COMM, RANK, IERR

MPI_INITIALIZED(FLAG, IERR)
LOGICAL FLAG
INTEGER IERR


какая функция возвращает результат своей работы через параметры?

MPI_COMM_RANK(COMM, RANK, IERR
INTEGER COMM, RANK, IERR

DOUBLE PRECISION MPI_WTICK(IERR)
INTEGER IERR

DOUBLE PRECISION MPI_WTIME(IERR)
INTEGER IERR


Какая из функций возвращает на вызвавшем процессе астрономическое время в секундах, прошедшее с некоторого момента в прошлом?

DOUBLE PRECISION MPI_WTICE(IERR)
INTEGER IERR

DOUBLE PRECISION MPI_WTICK(IERR)
INTEGER IERR

DOUBLE PRECISION MPI_WTIME(IERR)
INTEGER IERR


Какая функция возвращает результат своей работы явным образом?

DOUBLE PRECISION MPI_WTIME(IERR)
INTEGER IERR

DOUBLE PRECISION MPI_WTICE(IERR)
INTEGER IERR

DOUBLE PRECISION MPI_WTICK(IERR)
INTEGER IERR


По значению какого параметра можно определить синхронизированы или нет таймеры разных процессов

MPI_WTICK_IS_GLOBAL
MPI_WTICE_IS_GLOBAL
MPI_WTIME_IS_GLOBAL


В каком случае разность возвращаемых значений покажет время работы определенного участка?

если некоторый участок программы окружить функцией DOUBLE PRECISION MPI_WTICK
если некоторый участок программы окружить функцией MPI_GET_PROCESSOR_NAME
если некоторый участок программы окружить функцией DOUBLE PRECISION MPI_WTIME


Какая функция возвращает разрешение таймера на вызвавшем процессе в секундах?

DOUBLE PRECISION MPI_WTICE(IERR)
INTEGER IERR

DOUBLE PRECISION MPI_WTICK(IERR)
INTEGER IERR

DOUBLE PRECISION MPI_WTIME(IERR)
INTEGER IERR 


Какая функция возвращает на вызвавшем процессе астрономическое время в секундах, прошедшее с некоторого момента в прошлом

DOUBLE PRECISION MPI_WTICK(IERR)
INTEGER IERR

DOUBLE PRECISION MPI_WTIME(IERR)
INTEGER IERR

DOUBLE PRECISION MPI_WTICE(IERR)
INTEGER IERR


С помощью какой процедуры можно определить, на какие физические процессоры были спланированы процессы MPI-приложения

MPI_ALLGATHERV(SBUF, SCOUNT, STYPE, RBUF, RCOUNTS, DISPLS,
RTYPE, COMM, IERR)
<type> SBUF(*), RBUF(*)
INTEGER SCOUNT, STYPE, RCOUNTS(*), DISPLS(*), RTYPE, COMM, IERR

MPI_START (REQUEST, IERR)
INTEGER REQUEST, IERR

MPI_GET_PROCESSOR_NAME(NAME, LEN, IERR)
CHARACTER*(*) NAME
INTEGER LEN, IERR


Какое количество символов в имени возвращается в данной процедуре в переменной LEN

MPI_GET_PROCESSOR_NAME(NAME, LEN, IERR)
CHARACTER*(*) NAME
INTEGER LEN, IERR

не превышающее значения константы MPI_MAX_PROCESSOR_NAME
равное значению константы MPI_MAX_PROCESSOR_NAME
превышающее значения константы MPI_MAX_PROCESSOR_NAME


При работе с атрибутами сообщений массив (структура) дает доступ...

к идентификаторам сообщений
к коммуникатору сообщений
к значениям сообщений


Какие атрибуты можно отнести к сообщению?

Коммуникатор
тэг сообщения
номер процесса-отправителя


Какой атрибут является уникальным для каждого процесса MPI-программы в каждой группе, в которую он входит?

номер в коммуникаторе
коммуникатор
номер процесса


В каких пределах лежит номер любого процесса в определенной группе, если группа содержит n процессов?

от 0 до n+1
от 0 до n-1
от 0 до 1-n


Назовите основные атрибуты процесса

Коммуникатор
номер в коммуникаторе
номер процесса


С помощью чего осуществляется взаимодействие запущенных процессов между собой в MPI?

посредством явной посылки сообщений
посредством получения сообщений
посредством передачи цифровых данных


В каком случае блокировка может гарантировать корректность повторного использования всех параметров после возврата из процедуры?

при непосредственной передаче процессу DEST
при копировании в промежуточный буфер
при получении сообщения от процесса DEST


Какие средства должны содержать программы, написанные с использованием коммуникационной технологии MPI?

для взаимодействия запущенных процессов между собой
для завершения параллельных процессов
для порождения параллельных процессов


Какие процессы обязательно участвуют в операциях типа точка-точка?

процесс-отправитель
как тот, так и другой
процесс-получатель


Операции, предназначенные для взаимодействия всех процессов некоторого коммуникатора, называются...

коллективными
операциями типа точка-точка
индивидуальными


Коллективные операции предназначены...

для взаимодействия всех процессов некоторого коммуникатора
для взаимодействия одинаковых процессов
для взаимодействия двух процессов программы


Операции предназначенные для взаимодействия двух процессов программы называются...

коллективными
индивидуальными
операциями типа точка-точка


Операции типа точка-точка предназначены...

для взаимодействия двух процессов программы
для взаимодействия всех процессов
для взаимодействия одинаковых процессов


В каких операциях участвуют процессы отправления и получения сообщения?

как в тех, так и вдругих
коллективных
индивидуальных


Какой из процессов операции типа точка-точка должен вызвать одну из процедур и явно указать номер в некотором коммуникаторе

как тот, так и другой
процесс-отправитель
процесс-получатель


Какой из процессов операции типа точка-точка должен вызвать одну из процедур с указанием того же коммутатора

как тот, так и другой
процесс-отправитель
процесс-получатель


Использование каких процедур может привести к возникновению тупиковых ситуаций?

асинхронных процедур
процедур без блокировки
процедур с блокировкой


К каким операциям относятся процедуры с блокировкой и без блокировки?

индивидуальным
коллективным
к тем и другим


Процедуры с синхронизацией приостанавливают работу процесса...

во время проверки массивов данных
после инициализации соответствующей коммуникационной операции
до выполнения некоторого условия


Какое значение используется при пересылке сообщений для несуществующих процессов?

MPI_COMM_NULL
MPI_PROC_NULL
MPI_PROG_NULL


Каким образом должен указываться тип передаваемых элементов?

с помощью предопределенных констант типа
с помощь значения COUNT
с помощью посылаемого сообщения


В каком файле перечислен полный список предопределенных имен типов данных?

mpi.h
mpiff.h
mpif.h


С каким кодом завершения завершаются операции с несуществующим процессом?

MPI_REAL
MPI_WORLD
MPI_SUCCESS


Как называется модификация процедуры передачи сообщения с синхронизацией?

MPI_SSEND
MPI_RSEND
MPI_BSEND


Как называется модификация процедуры передачи сообщения по готовности?

MPI_RSEND
MPI_BSEND
MPI_SSEND


Какой процедурой можно пользоваться, если процесс-получатель уже инициировал прием сообщения?

MPI_BSEND
MPI_RSEND
MPI_SSEND


Выполнение какой процедуры не зависит от соответствующего вызова процедуры приема сообщения?

MPI_SSEND
MPI_BSEND
MPI_RSEND


При какой процедуре возможно повторное использование буфера посылки?

MPI_RSEND
MPI_BSEND
MPI_SSEND


Какой константой используется в определении размера массива, выделяемого для буферизации?

MPI_SSEND_OVERHEAD
MPI_RSEND_OVERHEAD
MPI_BSEND_OVERHEAD


Каким образом определяется размер необходимого буфера при передачи сообщения?

размер сообщения плюс значение константы MPI_RSEND_OVERHEAD
размер сообщения плюс значение константы MPI_BSEND_OVERHEAD
размер сообщения плюс значение константы MPI_SSEND_OVERHEAD


В каком аргументе указывается адрес освобождаемого массива?

SIZE
IERR
BUF


Какую предопределенную константу можно использовать при приеме сообщения с любым идентификатором?

MPI_ANY_TAG
MPI_ANY_SOURCE
MPI_ANY_STATUS


С помощью какой процедуры можно узнать точное число элементов в принимаемом сообщении?

MPI_RECV
MPI_GET_COUNT
MPI_PROBE


В каком случае может возникнуть ошибка переполнения в буфере BUF?

если количество элементов в принимаемом сообщении больше значения COUNT
если количество элементов в принимаемом сообщении равно значению COUNT
если количество элементов в принимаемом сообщении меньше значения COUNT


Какое будет принято сообщение при одновременном использовании констант MPI_ANY_SOURCE и MPI_ANY_TAG

сообщение от любого процесса
сообщение с любым идентификатором
сообщение с любым идентификатором от любого процесса


Какие константы являются индексом по массиву status?

MPI_ERROR
MPI_TAG
MPI_SOURCE


С помощью какой константы можно получить доступ к идентификатору сообщения?

MPI_TAG
MPI_ERROR
MPI_SOURCE


Возврат из процедур какой группы происходит сразу после вызова без какой-либо остановки работы процессов

синхронной
асинхронной
блокирующей


Для какой константы характерна несимметричность операций посылки и приема сообщений

MPI_ANY_SOURCE
MPI_ANY_ERROR
MPI_ANY_TAG


Какая процедура необходима для определения размера области памяти,выделяемой для хранения принимаемого сообщения?

MPI_PROBE(SOURCE, MSGTAG, COMM, STATUS, IERR)
INTEGER SOURCE, MSGTAG, COMM, IERR, STATUS(MPI_STATUS_SIZE)

MPI_GET (STATUS, DATATYPE, COUNT, IERR)
INTEGER COUNT, DATATYPE, IERR, STATUS

MPI_GET_COUNT(STATUS, DATATYPE, COUNT, IERR)
INTEGER COUNT, DATATYPE, IERR, STATUS(MPI_STATUS_SIZE)


С помощью какого варианта процедуры MPI_ISEND возможна неблокирующая передача с буферизацией

MPI_IBSEND
MPI_IRSEND
MPI_ISSEND


Какой параметр в данной процедуре используется для идентификации конкретной неблокирующей операции

MPI_ISEND(BUF, COUNT, DATATYPE, DEST, MSGTAG, COMM, REQUEST, IERR)
<type> BUF(*)
INTEGER COUNT, DATATYPE, DEST, MSGTAG, COMM, REQUEST, IERR

REQUEST
DEST
MSGTAG


С помощью каких процедур можно определить окончание процесса

MPI_IRECV(BUF, COUNT, DATATYPE, SOURCE, MSGTAG, COMM, REQUEST, IERR)
<type> BUF(*)
INTEGER COUNT, DATATYPE, SOURCE, MSGTAG, COMM, REQUEST, IERR

MPI_PROBE
MPI_TEST
MPI_WAIT


С помощью какой процедуры возможно ожидание завершения одной из COUNT асинхронных операций, ассоциированных с идентификаторами REQUESTS

MPI_WAITALL(COUNT, REQUESTS, STATUSES, IERR)
INTEGER COUNT, REQUESTS(*), STATUSES (MPI_STATUS_SIZE,*), IERR

MPI_WAIT(REQUEST, STATUS, IERR)
INTEGER REQUEST, IERR, STATUS(MPI_STATUS_SIZE)

MPI_WAITANY(COUNT, REQUESTS, INDEX, STATUS, IERR)
INTEGER COUNT, REQUESTS(*), INDEX, STATUS(MPI_STATUS_SIZE), IERR


С помощью какого процесса возможна проверка завершенности асинхронной операции MPI_ISEND ИЛИ MPI_IRECV, ассоциированной с идентификатором REQUEST

MPI_TEST(REQUEST, FLAG, STATUS, IERR)
LOGICAL FLAG
INTEGER REQUEST, IERR, STATUS(MPI_STATUS_SIZE)

MPI_TESTANY(COUNT, REQUESTS, INDEX, FLAG, STATUS, IERR)
LOGICAL FLAG
INTEGER COUNT, REQUESTS(*), INDEX, STATUS(MPI_STATUS_SIZE), IERR

MPI_TESTSOME(INCOUNT, REQUESTS, OUTCOUNT, INDEXES, STATUSES, IERR)
INTEGER INCOUNT, REQUESTS(*), OUTCOUNT, INDEXES(*), IERR,STATUSES(MPI_STATUS_SIZE,*)


В каком случае используется данная процедура
MPI_REQUEST_FREE(REQUEST, IERR)
INTEGER REQUEST, IERR

удаление структуры данных, связанной с параметром REQUEST
формирование отложенного запроса на прием сообщения
инициализация COUNT отложенных запросов на выполнение операций обмена


Назовите способы разрешения тупиковых ситуаций

использование процедуры MPI_SENDRECV
изменение порядка следования процедур посылки и приема сообщения
использование неблокирующих ситуаций


Какой функцией будет вычисляться создание пользовательской глобальной операции OP

LEN
COMMUTE
FUNC


Могут ли использоваться в коллективных операциях те же коммуникаторы, использовавшиеся для операций точка-точка?

нет
иногда
да


Каких коллективных операций в MPI не существует?

с блокировкой
без блокировки
как тех, так и других


В MPI сообщения, вызванные коллективными операциями, не могут...

пересекаться с сообщениями, появившимися в результате индивидуального взаимодействия процессов
повлиять на выполнение других операций
иметь доступ к буферу приема или посылки


Какой атрибут не используется в коллективных операциях?

номер процесса
тег
номер в коммутаторе


С помощью какой коллективной процедуры возможна синхронизация процессов

MPI_BARRIER
MPI_STARTAL
MPI_WAITALL


Возможна ли синхронизация процессов с помощью коллективных операций?

не всегда
нет
да


Какая из перечисленных процедур используется для барьерной синхронизации процессов?

DOUBLE PRECISION MPI_WTIME(IERR)
INTEGER IERR

MPI_START (REQUEST, IERR)
INTEGER REQUEST, IERR

MPI_BARRIER (COMM, IERR)
INTEGER COMM, IERR


Для чего используется процедура

MPI_BARRIER (COMM, IERR)
INTEGER COMM, IERR

для инициализации отложенных запросов
для совмещенного приема и передачи сообщений с блокировкой
для барьерной синхронизации процессов


Какая из предложенных процедур является коллективной?

DOUBLE PRECISION MPI_WTIME(IERR)
INTEGER IERR

MPI_BARRIER (COMM, IERR)
INTEGER COMM, IERR

MPI_START (REQUEST, IERR)
INTEGER REQUEST, IERR


С помощью какой процедуры можно проиллюстрировать действие процедуры MPI_BCAST?
 
 
С помощью какой процедуры можно проиллюстрировать действие процедуры MPI_GATHER?
 
 
Каким образом собирающий процесс сохраняет данные в буфере RBUF?

в порядке возрастания номеров процессов
в произвольном порядке
в порядке убывания номеров процессов


Какие значения в данной процедуре должны быть одинаковыми у всех процессов?

MPI_BCAST(BUF, COUNT, DATATYPE, ROOT, COMM, IERR)
<type>BUF(*)
INTEGER COUNT, DATATYPE, ROOT, COMM, IERR

COUNT
ROOT
COMM


С помощьюкакой процедуры использование отложенных запросов позволяет инициализировать посылку данных только один раз?

MPI_BARRIER
MPI_START
MPI_INIT


Какой массив содержит количество элементов, передаваемых от каждого процесса?

DISPLS
RTYPE
RCOUNTS


Каким массивом задается порядок расположения данных в результирующем буфере RBUF?

RCOUNTS
RTYPE
DISPLS


В каком массиве индекс равен рангу посылающего процесса, размер массива равен числу процессов в коммуникаторе COMM?

DISPLS
RTYPE
RCOUNTS


Значения каких параметров должны быть одинаковыми у всех процессов?

ROOT
COMM
STYPE


Какая из перечисленных схем иллюстрирует действие процедуры MPI_SCATTER?
 

Какому процессу соответствует данная схема
 
MPI_ALLTOALL(SBUF, SCOUNT, STYPE, RBUF, RCOUNT, RTYPE, COMM, IERR)
<type> SBUF(*), RBUF(*)
INTEGER SCOUNT, STYPE, RCOUNT, RTYPE, COMM, IERR

MPI_ALLTOALLV(SBUF, SCOUNTS, SDISPLS, STYPE, RBUF, RCOUNTS,
RDISPLS, RTYPE, COMM, IERR)
<type> SBUF(*), RBUF(*)
INTEGER SCOUNTS(*), SDISPLS(*), STYPE, RCOUNTS(*), RDISPLS(*),
RTYPE, COMM, IERR

MPI_ALLGATHERV(SBUF, SCOUNT, STYPE, RBUF, RCOUNTS, DISPLS,
RTYPE, COMM, IERR)
<type> SBUF(*), RBUF(*)
INTEGER SCOUNT, STYPE, RCOUNTS(*), DISPLS(*), RTYPE, COMM, IERR

Внимание !
Вопросы к тесту выложены исключительно в ознакомительных целях: количество вопросов может не совпадать с действительным, актуальность не поддерживается,- за решением теста Welcome to the cashier!

Какая из перечисленных процедур является обратной по своему действию MPI_SCATTER

MPI_BARRIER
MPI_GATHER
MPI_BCAST


С помощью какой процедуры возможна рассылка каждым процессом коммуникатора COMM различных порций данных всем другим процессам

MPI_BARRIER
MPI_ALLTOALL
MPI_ALLGATHER

какая схема моделирования операции глобального суммирования по эффективности сравнивается с коллективной операцией MPI_REDUCE

схема сдваивания с использованием асинхронных процедур
схема сдваивания с использованием пересылок данных типа точка-точка
схема сдваивания с использованием синхронных пересылок данных



С помощью какой процедуры можно задать свою функцию для выполнения глобальной операции

MPI_COMM_RANK
MPI_INIT
MPI_OP_CREATE


С помощью каких констант возможно определение максимального и минимального значения

MPI_BAND, MPI_BOR
MPI_MINLOC, MPI_MAXLOC
MPI_MAX, MPI_MIN


С помощью каких констант возможно вычисление глобальной суммы

MPI_SUM
MPI_PROD
MPI_BOR


С помощью каких констант можно задать логические "И", "ИЛИ", исключающее "ИЛИ"

MPI_LAND, MPI_LOR, MPI_LXOR
MPI_MINLOC, MPI_MAXLOC
MPI_BAND, MPI_BOR, MPI_BXOR


Какая процедура отвечает за уничтожение пользовательской глобальной операции

MPI_OP_FREE(OP, IERR)
INTEGER OP, IERR

MPI_ALLGATHERV(SBUF, SCOUNT, STYPE, RBUF, RCOUNTS, DISPLS,
RTYPE, COMM, IERR)
<type> SBUF(*), RBUF(*)
INTEGER SCOUNT, STYPE, RCOUNTS(*), DISPLS(*), RTYPE, COMM, IERR

FUNCTION FUNC(INVEC(*), INOUTVEC(*), LEN, TYPE)
<type> INVEC(LEN), INOUTVEC(LEN)
INTEGER LEN, TYPE


С помощью какого процесса возможно задать интерфейс пользовательской функции для создания глобальной операции

MPI_OP_CREATE(FUNC, COMMUTE, OP, IERR)
EXTERNAL FUNC
LOGICAL COMMUTE
INTEGER OP, IERR

MPI_SCAN(SBUF, RBUF, COUNT, DATATYPE, OP, COMM, IERR)
<type> SBUF(*), RBUF(*)
INTEGER COUNT, DATATYPE, OP, COMM, IERR

FUNCTION FUNC(INVEC(*), INOUTVEC(*), LEN, TYPE)
<type> INVEC(LEN), INOUTVEC(LEN)
INTEGER LEN, TYPE


Из какого параметра данной процедуры берется первый аргумент

FUNCTION FUNC(INVEC(*), INOUTVEC(*), LEN, TYPE)
<type> INVEC(LEN), INOUTVEC(LEN)
INTEGER LEN, TYPE

LEN
INVEC
INOUTVEC


Какой из параметров данной процедуры задает тип входных и выходных данных

FUNCTION FUNC(INVEC(*), INOUTVEC(*), LEN, TYPE)
<type> INVEC(LEN), INOUTVEC(LEN)
INTEGER LEN, TYPE

TYPE
INOUTVEC
LEN


Какой из параметров данной процедуры задает количество элементов входного и выходного массивов

FUNCTION FUNC(INVEC(*), INOUTVEC(*), LEN, TYPE)
<type> INVEC(LEN), INOUTVEC(LEN)
INTEGER LEN, TYPE

INOUTVEC
TYPE
LEN


Какая функция в данном процессе вычисляет поэлементную сумму по модулю 5 векторов целочисленных аргументов

MPI_OP_FREE.
program example15
include 'mpif.h'
integer ierr, rank, i, n
parameter (n = 1 000)
integer a(n), b(n)
integer op
external smod5
call MPI_INIT(ierr)
call MPI_COMM_RANK(MPI_COMM_WORLD, rank, ierr)
do i = 1, n
a(i) = i + rank end do
print *, 'process ', rank, ' a(1) =', a(1)
call MPI_OP_CREATE(smod5, .TRUE., op, ierr)
call MPI_REDUCE(a, b, n, MPI_INTEGER, op, 0,
&    MPI_COMM_WORLD, ierr)
call MPI_OP_FREE(op, ierr) if(rank .eq. 0) print *, ' b(1) =', b(1) call MPI_FINALIZE(ierr) end
integer function smod5(in, inout, l, type)
integer l, type
integer in(l), inout(l), i
do i = 1, l
inout(i) = mod(in(i)+inout(i), 5) end do return end


smod5
op
inout


В вызове какой процедуры функция smod5 объявляется в качестве глобальной процедуры op

MPI_OP_FREE.
program example15
include 'mpif.h'
integer ierr, rank, i, n
parameter (n = 1 000)
integer a(n), b(n)
integer op
external smod5
call MPI_INIT(ierr)
call MPI_COMM_RANK(MPI_COMM_WORLD, rank, ierr)
do i = 1, n
a(i) = i + rank end do
print *, 'process ', rank, ' a(1) =', a(1)
call MPI_OP_CREATE(smod5, .TRUE., op, ierr)
call MPI_REDUCE(a, b, n, MPI_INTEGER, op, 0,
&    MPI_COMM_WORLD, ierr)
call MPI_OP_FREE(op, ierr) if(rank .eq. 0) print *, ' b(1) =', b(1) call MPI_FINALIZE(ierr) end
integer function smod5(in, inout, l, type)
integer l, type
integer in(l), inout(l), i
do i = 1, l
inout(i) = mod(in(i)+inout(i), 5) end do return end


MPI_REDUCE
MPI_OP_CREATE
MPI_OP_FREE


С помощью вызова какой процедуры удаляется функция smod5

MPI_OP_FREE.
program example15
include 'mpif.h'
integer ierr, rank, i, n
parameter (n = 1 000)
integer a(n), b(n)
integer op
external smod5
call MPI_INIT(ierr)
call MPI_COMM_RANK(MPI_COMM_WORLD, rank, ierr)
do i = 1, n
a(i) = i + rank end do
print *, 'process ', rank, ' a(1) =', a(1)
call MPI_OP_CREATE(smod5, .TRUE., op, ierr)
call MPI_REDUCE(a, b, n, MPI_INTEGER, op, 0,
&    MPI_COMM_WORLD, ierr)
call MPI_OP_FREE(op, ierr) if(rank .eq. 0) print *, ' b(1) =', b(1) call MPI_FINALIZE(ierr) end
integer function smod5(in, inout, l, type)
integer l, type
integer in(l), inout(l), i
do i = 1, l
inout(i) = mod(in(i)+inout(i), 5) end do return end


MPI_OP_CREATE
MPI_OP_FREE
MPI_REDUCE


Как называется целое число, сопоставленное каждому процессу в группе

Идентификатор
Ранг
Номер


Упорядоченное множество процессов называется

группой
коммуникатором
рангом


Какие задачи можно решить при помощи создания независимого коммуникатора

работа над своей независимой подзадачей некоторой группе процессов
непересечение между пересылками данных в библиотечных модулях и пересылками в основной программе
обмен данными только для части процессов


С каким коммуникатором связана базовая группа, из которой создаются все остальные групы процессов

MPI_GROUP_EMPTY
MPI_COMM_WORLD
MPI_GROUP_NULL


Какой коммуникатор обозначает пустую группу, не содержащую ни одного процесса

MPI_GROUP_EMPTY
MPI_GROUP_WORLD
MPI_GROUP_NULL


Какой коммуникатор обозначает значение, используемое для ошибочной группы

MPI_GROUP_EMPTY
MPI_GROUP_NULL
MPI_GROUP_WORLD


Любой процесс может производить операции...

над любыми группами
над любыми группами, которые содержат данный процесс
над любыми группами, которые не содержат данный процесс


Какие новые группы могут использоваться в операциях обмена

созданные на основе существующих групп
созданные на основе процессов
созданные на основе коммуникаторов


Новые группы можно создавать на основе...

Коммуникаторов
существующих групп
процессов


При помощи какого вызова можно получить группу, соответствующую коммуникатору MPI_COMM_WORLD

call MPI_GROUP_EXCL(MPI_COMM_WORLD, group, ierr)
call MPI_GROUP_INCL(MPI_COMM_WORLD, group, ierr)
call MPI_COMM_GROUP(MPI_COMM_WORLD, group, ierr)


С помощью какой процедуры возможно получение группы GROUP, соответствующей коммуникатору COMM

MPI_GROUP_INCL(GROUP, N, RANKS, NEWGROUP, IERR)
INTEGER GROUP, N, RANKS(*), NEWGROUP, IERR

MPI_COMM_GROUP(COMM, GROUP, IERR)
INTEGER COMM, GROUP, IERR

MPI_GROUP_EXCL(GROUP, N, RANKS, NEWGROUP, IERR)
INTEGER GROUP, N, RANKS(*), NEWGROUP, IERR


Какие процедуры определяют операции над группами процессов, как над множествами

MPI_GROUP_DIFFERENCE(GROUP1, GROUP2, NEWGROUP, IERR)
INTEGER GROUP1, GROUP2, NEWGROUP, IERR

MPI_GROUP_UNION(GROUP1, GROUP2, NEWGROUP, IERR)
INTEGER GROUP1, GROUP2, NEWGROUP, IERR

MPI_GROUP_INTERSECTION(GROUP1, GROUP2, NEWGROUP, IERR)
INTEGER GROUP1, GROUP2, NEWGROUP, IERR


С помощью какой процедуры можно задать новый порядок процессов в группе

MPI_COMM_GROUP(COMM, GROUP, IERR)
INTEGER COMM, GROUP, IERR

MPI_GROUP_EXCL(GROUP, N, RANKS, NEWGROUP, IERR)
INTEGER GROUP, N, RANKS(*), NEWGROUP, IERR

MPI_GROUP_INCL(GROUP, N, RANKS, NEWGROUP, IERR)
INTEGER GROUP, N, RANKS(*), NEWGROUP, IERR


В каком случае в данном процессе будет создана пустая группа MPI_GROUP_EMPTY

MPI_GROUP_INCL(GROUP, N, RANKS, NEWGROUP, IERR)
INTEGER GROUP, N, RANKS(*), NEWGROUP, IERR

N=1
N=-1
N=0


С помощью данной процедуры возможно...

MPI_GROUP_EXCL(GROUP, N, RANKS, NEWGROUP, IERR)
INTEGER GROUP, N, RANKS(*), NEWGROUP, IERR

создание группы NEWGROUP ИЗ процессов группы GROUP, исключая процессы с рангами RANKS (1),...,RANKS (N)
получение группы GROUP, соответствующей коммуникатору COMM
создание группы NEWGROUP из N процессов прежней группы GROUP с рангами RANKS (l),...,RANKS (N)


В каком случае в данном процессе будет создана группа, идентичная старой группе

MPI_GROUP_EXCL(GROUP, N, RANKS, NEWGROUP, IERR)
INTEGER GROUP, N, RANKS(*), NEWGROUP, IERR

N=0
N=-1
N=1


Какая группа будет создана в данном процессе при N=0

MPI_GROUP_EXCL(GROUP, N, RANKS, NEWGROUP, IERR)
INTEGER GROUP, N, RANKS(*), NEWGROUP, IERR

пустая группа MPI_GROUP_EMPTY
группа,идентичная старой группе
новая группа


С помощью какой процедуры происходит создание группы NEWGROUP из пересечения групп GROUP 1 и GROUP 2

MPI_GROUP_DIFFERENCE(GROUP1, GROUP2, NEWGROUP, IERR)
INTEGER GROUP1, GROUP2, NEWGROUP, IERR

MPI_GROUP_UNION(GROUP1, GROUP2, NEWGROUP, IERR)
INTEGER GROUP1, GROUP2, NEWGROUP, IERR

MPI_GROUP_INTERSECTION(GROUP1, GROUP2, NEWGROUP, IERR)
INTEGER GROUP1, GROUP2, NEWGROUP, IERR


С помощью какой процедуры происходит создание группы NEWGROUP ИЗ разности групп GROUP 1 и GROUP 2

MPI_GROUP_INTERSECTION(GROUP1, GROUP2, NEWGROUP, IERR)
INTEGER GROUP1, GROUP2, NEWGROUP, IERR

MPI_GROUP_DIFFERENCE(GROUP1, GROUP2, NEWGROUP, IERR)
INTEGER GROUP1, GROUP2, NEWGROUP, IERR

MPI_GROUP_UNION(GROUP1, GROUP2, NEWGROUP, IERR)
INTEGER GROUP1, GROUP2, NEWGROUP, IERR


С помощью какой процедуры происходит создание группы NEWGROUP ИЗ объединения групп GROUP 1 и GROUP 2

MPI_GROUP_UNION(GROUP1, GROUP2, NEWGROUP, IERR)
INTEGER GROUP1, GROUP2, NEWGROUP, IERR

MPI_GROUP_DIFFERENCE(GROUP1, GROUP2, NEWGROUP, IERR)
INTEGER GROUP1, GROUP2, NEWGROUP, IERR

MPI_GROUP_INTERSECTION(GROUP1, GROUP2, NEWGROUP, IERR)
INTEGER GROUP1, GROUP2, NEWGROUP, IERR


В какой процедуре полученная группа содержит все элементы группы GROUP 1, не входящие в группу GROUP 2 и упорядоченные, как в первой группе

MPI_GROUP_DIFFERENCE(GROUP1, GROUP2, NEWGROUP, IERR)
INTEGER GROUP1, GROUP2, NEWGROUP, IERR

MPI_GROUP_UNION(GROUP1, GROUP2, NEWGROUP, IERR)
INTEGER GROUP1, GROUP2, NEWGROUP, IERR

MPI_GROUP_INTERSECTION(GROUP1, GROUP2, NEWGROUP, IERR)
INTEGER GROUP1, GROUP2, NEWGROUP, IERR


В какой процедуре полученная группа содержит все элементы группы GROUP 1, не входящие в группу GROUP 2 и упорядоченные, как в первой группе

MPI_GROUP_UNION(GROUP1, GROUP2, NEWGROUP, IERR)
INTEGER GROUP1, GROUP2, NEWGROUP, IERR

MPI_GROUP_DIFFERENCE(GROUP1, GROUP2, NEWGROUP, IERR)
INTEGER GROUP1, GROUP2, NEWGROUP, IERR

MPI_GROUP_INTERSECTION(GROUP1, GROUP2, NEWGROUP, IERR)
INTEGER GROUP1, GROUP2, NEWGROUP, IERR


В какой процедуре полученная группа содержит все процессы группы GROUP 1, входящие также в группу GROUP2 и упорядоченные, как в первой группе

MPI_GROUP_UNION(GROUP1, GROUP2, NEWGROUP, IERR)
INTEGER GROUP1, GROUP2, NEWGROUP, IERR

MPI_GROUP_DIFFERENCE(GROUP1, GROUP2, NEWGROUP, IERR)
INTEGER GROUP1, GROUP2, NEWGROUP, IERR

MPI_GROUP_INTERSECTION(GROUP1, GROUP2, NEWGROUP, IERR)
INTEGER GROUP1, GROUP2, NEWGROUP, IERR


С помощью какой процедуры можно сравнить группы GROUP1 и GROUP2

MPI_GROUP_RANK(GROUP, RANK, IERR)
INTEGER GROUP, RANK, IERR

МРI_GROUP_COMPARE(GROUP1, GROUP2, RESULT, IERR)
INTEGER GROUP1, GROUP2, RESULT, IERR

MPI_GROUP_SIZE(GROUP, SIZE, IERR)
INTEGER GROUP, SIZE, IERR


Если группы GROUP1 и GROUP2 полностью совпадают, то какое значение возвращается

МРI_GROUP_COMPARE(GROUP1, GROUP2, RESULT, IERR)
INTEGER GROUP1, GROUP2, RESULT, IERR

MPI_SIMILAR
MPI_IDENT
MPI_UNEQUAL


Если группы GROUP1 и GROUP2 отличаются рангами процессов, то какое значение возвращается

МРI_GROUP_COMPARE(GROUP1, GROUP2, RESULT, IERR)
INTEGER GROUP1, GROUP2, RESULT, IERR

MPI_SIMILAR
MPI_IDENT
MPI_UNEQUAL


Какие коммуникаторы создаются сразу после вызова процедуры MPI_INIT

MPI_COMM_WORLD
MPI_COMM_NULL
MPI_COMM_SELF


Создание коммуникатора является

коллективной операцией
индивидуальной операцией
смешанной операцией


После выполнения данной процедуры какое значение принимает переменная GROUP

МРI_GROUP_FREE(GROUP, IERR)
INTEGER GROUP, IERR

MPI_COMM_WORLD
MPI_GROUP_EMPTY
MPI_GROUP_NULL


Какое значение используется для ошибочного коммуникатора

MPI_COMM_SELF
MPI_COMM_NULL
MPI_COMM_WORLD


Какой коммуникатор включает только вызвавшие процессы

MPI_COMM_NULL
MPI_COMM_WORLD
MPI_COMM_SELF


Какой коммуникатор объединяет все процессы приложения

MPI_COMM_SELF
MPI_COMM_NULL
MPI_COMM_WORLD


С помощью какой процедуры возможно Создание нового коммуникатора NEWCOMM с той же группой процессов и атрибутами, что и у коммуникатора сомм

MPI_COMM_DUP(COMM, NEWCOMM, IERR)
INTEGER COMM, NEWCOMM, IERR

МРI_GROUP_FREE(GROUP, IERR)
INTEGER GROUP, IERR

MPI_COMM_CREATE(COMM, GROUP, NEWCOMM, IERR)
INTEGER COMM, GROUP, NEWCOMM, IERR


Какую процедуру можно использовать для перенумерации процессов

MPI_COMM_SPLIT
MPI_COMM_NULL
MPI_COMM_FREE


С помощью какой процедуры возможно создание нового коммуникатора NEWCOMM

МРI_GROUP_FREE(GROUP, NEWCOMM, IERR)
INTEGER GROUP, NEWCOMM, IERR

MPI_COMM_DUP(COMM, NEWCOMM, IERR)
INTEGER COMM, NEWCOMM, IERR

MPI_COMM_CREATE(COMM, GROUP, NEWCOMM, IERR)
INTEGER COMM, GROUP, NEWCOMM, IERR


Топология используется для...

для проверки эффективности выполнения программы вычисления чисел в определенном процессоре
для приближения параллельной программы к структуре математического алгоритма
для оптимизации распределения процессов по физическим процессорам используемого параллельного компьютера


В MPI топологии с физической топологией коммуникационной сети...

сопоставляются
не связаны
связаны


Топология - это...

механизм сопоставления процессам некоторого коммуникатора альтернативной схемы адресации
механизм упорядочивания коллективных процессов
механизм предоставления отдельного контекста обмена процессов некоторой группы


Какие типы топологии предусмотрены в MPI?

декартова топологи
топология графа
топология тега


Какая топология является прямоугольной решеткой произвольной размерности?

декартова топологи
топология тега
топология графа


С помощью чего топология используется системой для оптимизации распределения процессов по физическим процессорам используемого параллельного компьютера?

при помощи изменения самого коммуникатора
при помощи изменения порядка нумерации процессов внутри коммуникатора
при помощи удаления дублирующих процессов внутри коммуникатора


Какое значение параметра TYPE в данной процедуре будет для декартовой типологии

MPI_TOPO_TEST(COMM, TYPE, IERR)
INTEGER COMM, TYPE, IERR

MPI_GRAPH
MPI_UNDEFINED
MPI_CART


Какое значение параметра TYPE в данной процедуре будет, если с коммуникатором COMM не связана никакая типология

MPI_TOPO_TEST(COMM, TYPE, IERR)
INTEGER COMM, TYPE, IERR

MPI_CART
MPI_UNDEFINED
MPI_GRAPH


С помощью какой процедуры можно определитьтип топологии, связанной с коммуникатором COMM

MPI_TOPO_TEST(COMM, TYPE, IERR)
INTEGER COMM, TYPE, IERR

MPI_CART_COORDS(COMM, RANK, MAXDIMS, COORDS, IERR)
INTEGER COMM, RANK, MAXDIMS, COORDS(*), IERR

MPI_CART_CREATE(COMM, NDIMS, DIMS, PERIODS, REORDER, COMM_CART,IERR)
INTEGER COMM, NDIMS, DIMS(*), COMM_CART, IERR


С помощью какого логического параметра можно определить, что системе разрешено менять порядок нумерации процессов

MPI_CART_CREATE(COMM, NDIMS, DIMS, PERIODS, REORDER, COMM_CART,IERR)
INTEGER COMM, NDIMS, DIMS(*), COMM_CART, IERR
LOGICAL PERIODS(*), REORDER

REORDER
PERIODS
COMM_CART


С помощью какого параметра в данном процессе задается размерность получаемой декартовой решетки

MPI_CART_CREATE(COMM, NDIMS, DIMS, PERIODS, REORDER, COMM_CART,IERR)
INTEGER COMM, NDIMS, DIMS(*), COMM_CART, IERR
LOGICAL PERIODS(*), REORDER

COMM_CART
NDIMS
DIMS


С помощью какого логического массива можно определить, является ли решетка периодической вдоль каждого измерения

MPI_CART_CREATE(COMM, NDIMS, DIMS, PERIODS, REORDER, COMM_CART,IERR)
INTEGER COMM, NDIMS, DIMS(*), COMM_CART, IERR
LOGICAL PERIODS(*), REORDER

PERIODS
REORDE
COMM_CART


В каком случае в данном процессе вызов будет ошибочен

MPI_CART_CREATE(COMM, NDIMS, DIMS, PERIODS, REORDER, COMM_CART,IERR)
INTEGER COMM, NDIMS, DIMS(*), COMM_CART, IERR
LOGICAL PERIODS(*), REORDER

если количество процессов в задаваемой топологии больше числа процессов в исходном коммуникаторе
если количество процессов в задаваемой топологии равно числу процессов в исходном коммуникаторе
если количество процессов в задаваемой топологии меньше числа процессов в исходном коммуникаторе


В каком случае в данной процедуре некоторые процессы не будут принимать участие в создаваемой топологии

MPI_CART_CREATE(COMM, NDIMS, DIMS, PERIODS, REORDER, COMM_CART,IERR)
INTEGER COMM, NDIMS, DIMS(*), COMM_CART, IERR
LOGICAL PERIODS(*), REORDER

если количество процессов в задаваемой топологии COMM_CART равно числу процессов в исходном коммуникаторе сомм
если количество процессов в задаваемой топологии COMM_CART меньше числа процессов в исходном коммуникаторе сомм
если количество процессов в задаваемой топологии COMM_CART больше числа процессов в исходном коммуникаторе сомм


Какая из предложенных процедур не требует межпроцессорного взаимодействия

MPI_CART_CREATE(COMM, NDIMS, DIMS, PERIODS, REORDER, COMM_CART,IERR)
INTEGER COMM, NDIMS, DIMS(*), COMM_CART, IERR
LOGICAL PERIODS(*), REORDER

MPI_TOPO_TEST(COMM, TYPE, IERR)
INTEGER COMM, TYPE, IERR

MPI_DIMS_CREATE(NNODES, NDIMS, DIMS, IERR)
INTEGER NNODES, NDIMS, DIMS(*), IERR 


Каким образом будут упорядочены выходные значения DIMS, переопределенные данной процедурой

MPI_DIMS_CREATE(NNODES, NDIMS, DIMS, IERR)
INTEGER NNODES, NDIMS, DIMS(*), IERR

в порядке убывания
в порядке поступления
в порядке возрастания


В каком случае будет рассчитано значение DIMS(1) данной процедурой

MPI_DIMS_CREATE(NNODES, NDIMS, DIMS, IERR)
INTEGER NNODES, NDIMS, DIMS(*), IERR

если перед вызовом значение равно 0
если перед вызовом значение меньше 0
если перед вызовом значение больше 0


Какие значения элементов массива DIMS в данной процедуре будут ошибочны

MPI_DIMS_CREATE(NNODES, NDIMS, DIMS, IERR)
INTEGER NNODES, NDIMS, DIMS(*), IERR

нулевые
положительные
отрицательные


С помощью какой процедуры можно определить декартовые координаты процесса по его рангу

MPI_CART_SUB(COMM, DIMS, NEWCOMM, IERR)
INTEGER COMM, NEWCOMM, IERR LOGICAL DIMS(*)

MPI_CART_COORDS(COMM, RANK, MAXDIMS, COORDS, IERR)
INTEGER COMM, RANK, MAXDIMS, COORDS(*), IERR

MPI_CART_RANK(COMM, COORDS, RANK, IERR)
INTEGER COMM, COORDS(*), RANK, IERR


С помощью какой процедуры возможно расщепление коммуникатора на подгруппы, соответствующие декартовым подрешеткам меньшей размерности

MPI_CART_RANK(COMM, COORDS, RANK, IERR)
INTEGER COMM, COORDS(*), RANK, IERR

MPI_CART_COORDS(COMM, RANK, MAXDIMS, COORDS, IERR)
INTEGER COMM, RANK, MAXDIMS, COORDS(*), IERR

MPI_CART_SUB(COMM, DIMS, NEWCOMM, IERR)
INTEGER COMM, NEWCOMM, IERR LOGICAL DIMS(*)


С помощью какой процедуры можно определить ранг процесса по его декартовым координатам

MPI_CART_SUB(COMM, DIMS, NEWCOMM, IERR)
INTEGER COMM, NEWCOMM, IERR LOGICAL DIMS(*)

MPI_CART_COORDS(COMM, RANK, MAXDIMS, COORDS, IERR)
INTEGER COMM, RANK, MAXDIMS, COORDS(*), IERR

MPI_CART_RANK(COMM, COORDS, RANK, IERR)
INTEGER COMM, COORDS(*), RANK, IERR


В какой из процедур отсчет координат по каждому измерению начинается с нуля

MPI_CART_RANK(COMM, COORDS, RANK, IERR)
INTEGER COMM, COORDS(*), RANK, IERR

MPI_CART_COORDS(COMM, RANK, MAXDIMS, COORDS, IERR)
INTEGER COMM, RANK, MAXDIMS, COORDS(*), IERR

MPI_CART_SUB(COMM, DIMS, NEWCOMM, IERR)
INTEGER COMM, NEWCOMM, IERR LOGICAL DIMS(*)


В каком случае в данной процедуре координаты вне допустимых интервалов будут пересчитываться

MPI_CART_RANK(COMM, COORDS, RANK, IERR)
INTEGER COMM, COORDS(*), RANK, IERR

для периодических решеток
для постоянных решеток
для непериодических решеток


В каком случае процедура MPI_DIMS_CREATE будет ошибочна

(0,3,0) - dims перед вызовом, вызов процедуры - MPI_DIM_CREATE(7, 3, dims, ierr)
(0,3,0) - dims перед вызовом, вызов процедуры - MPI_DIM_CREATE(6, 3, dims, ierr)
(0,0,0) - dims перед вызовом, вызов процедуры - MPI_DIM_CREATE(7, 3, dims, ierr)


В каком случае полученное значение MPI_PROC_NULL означает выход за границы диапазона

в случае циклического сдвига
в обоих случаях
в случае линейного сдвига


В каком параметре данной процедуры возвращается количество процессов для каждого измерения

MPI_CART_GET(COMM, MAXDIMS, DIMS, PERIODS, COORDS, IERR)
INTEGER COMM, MAXDIMS, DIMS(*), COORDS(*), IERR
LOGICAL PERIODS(*)

DIMS
COORDS
PERIODS



В каком параметре отображаются номера принимающего процесса в декартовой топологии данного процесса

MPI_CART_SHIFT(COMM, DIRECTION, DISP, SOURCE, DEST, IERR)
INTEGER COMM, DIRECTION, DISP, SOURCE, DEST, IERR

SOURCE
DISP
DEST


С помощью какой процедуры можно определить число вершин и число ребер графовой топологии, связанной с коммутатором

MPI_GRAPHDIMS_GET(COMM, NNODES, NEDGES, IERR)
INTEGER COMM, NNODES, NEDGES, IERR

MPI_GRAPH_CREATE(COMM, NNODES, INDEX, EDGES, REORDER, COMM_GRAPH, IERR)
INTEGER COMM, NNODES, INDEX(*), EDGES(*), COMM_GRAPH, IERR LOGICAL REORDER

MPI_GRAPH_GET(COMM, MAXINDEX, MAXEDGES, INDEX, EDGES, IERR)
INTEGER COMM, MAXINDEX, MAXEDGES, INDEX(*), EDGES(*), IERR


Какой массив в данной процедуре содержит список номеров процессов-соседей всех вершин

MPI_GRAPH_CREATE(COMM, NNODES, INDEX, EDGES, REORDER, COMM_GRAPH, IERR)
INTEGER COMM, NNODES, INDEX(*), EDGES(*), COMM_GRAPH, IERR LOGICAL REORDER

EDGES
NNODES
REORDER


С помощью какого параметра задается число вершин графа

MPI_GRAPH_CREATE(COMM, NNODES, INDEX, EDGES, REORDER, COMM_GRAPH, IERR)
INTEGER COMM, NNODES, INDEX(*), EDGES(*), COMM_GRAPH, IERR LOGICAL REORDER

NNODES
EDGES
3REORDER


Данная процедура отвечает за...

MPI_GRAPH_NEIGHBORS_COUNT(COMM, RANK, NNEIGHBORS, IERR)
INTEGER COMM, RANK, NNEIGHBORS, IERR

определение количества непосредственных соседей процесса с рангом RANK в графовой топологии, связанной с коммуникатором сомм
определение числа вершин И числа ребер графовой топологии, связанной с коммуникатором сомм
определение рангов непосредственных соседей процесса с рангом RANK В графовой топологии, связанной с коммуникатором сомм


Какие параметры задают ограничения на размеры соответсвующих массивов

MAXINDEX
MAXNEDGES
MAXEDGES


С помощью какого процесса можно определить ранги непосредственных соседей процесса с рангом RANK в графовой топологии, связанной с коммуникатором сомм

MPI_GRAPH_NEIGHBORS(COMM, RANK, MAX, NEIGHBORS, IERR)
INTEGER COMM, RANK, MAX, NEIGHBORS(*), IERR

MPI_GRAPHDIMS_GET(COMM, NNODES, NEDGES, IERR)
INTEGER COMM, NNODES, NEDGES, IERR

MPI_GRAPH_NEIGHBORS_COUNT(COMM, RANK, NNEIGHBORS, IERR)
INTEGER COMM, RANK, NNEIGHBORS, IERR


С помощью какой процедуры в массивах INDEX и EDGES возвращается описание графовой топологии в том виде, как она задается при создании топологии

MPI_GRAPH_NEIGHBORS
MPI_GRAPH_NEIGHBORS_COUNT
MPI_GRAPH_CREATE


С помощью вызова какой процедуры можно определить ранги процессов-соседей

MPI_GRAPH_NEIGHBORS_COUNT
MPI_GRAPH_NEIGHBORS
MPI_GRAPH_CREATE


С помощью какой процедуры можно определить количество своих непосредственных соседей в рамках данной топологии

MPI_GRAPH_NEIGHBORS
MPI_GRAPH_CREATE
MPI_GRAPH_NEIGHBORS_COUNT


Пересылка каких данных возможна в MPI

данных, расположенных не в последовательных ячейках памяти
разнотипных данных
однотипных данных


Сообщение в MPI - это...

массив данных, расположенных в параллельных ячейках памяти
массив разнотипных данных, расположенных в последовательных ячейках памяти
массив однотипных данных, расположенных в последовательных ячейках памяти


Какие способы пересылки разнотипных данных в MPI существуют

упаковка данных
производственные типы данных
временная буферизация


В каких операциях можно использовать производный тип после регистрации?

в операциях пересылки
в коллективных операциях
в операциях типа точка-точка


Назовите основные этапы создания типа данных

передача типа
конструирование типа
регистрация типа


Какие типы данных создаются во время выполнения программы с помощью процедур-конструкторов на основе существующих к моменту вызова конструктора типов данных

производные
коллективные
предопределенные


При какой процедуре создаваемый тип данных представляет массив данных базового типа как отдельный объект

MPI_TYPE_VECTOR(COUNT, BLOCKLEN, STRIDE, TYPE, NEWTYPE, IERR)
INTEGER COUNT, BLOCKLEN, STRIDE, TYPE, NEWTYPE, IERR

MPI_GRAPH_NEIGHBORS_COUNT(COMM, RANK, NNEIGHBORS, IERR)
INTEGER COMM, RANK, NNEIGHBORS, IERR

MPI_TYPE_CONTIGUOUS(COUNT, TYPE, NEWTYPE, IERR)
INTEGER COUNT, TYPE, NEWTYPE, IERR


В производном типе данных смещения могут быть

Положительными
иррациональными
отрицательными


Назовите основные характеристики производственного типа данных

последовательность базовых типов данных
упаковка данных, расположенных не в последовательных ячейках памяти
набор целочисленных значений смещения элементов типа относительно начала буфера обмена


С помощью каких процедур возможно создание нового типа данных NEWTYPE

MPI_TYPE_VECTOR(COUNT, BLOCKLEN, STRIDE, TYPE, NEWTYPE, IERR)
INTEGER COUNT, BLOCKLEN, STRIDE, TYPE, NEWTYPE, IERR

MPI_TYPE_CONTIGUOUS(COUNT, TYPE, NEWTYPE, IERR)
INTEGER COUNT, TYPE, NEWTYPE, IERR

MPI_GRAPH_NEIGHBORS_COUNT(COMM, RANK, NNEIGHBORS, IERR)
INTEGER COMM, RANK, NNEIGHBORS, IERR


В какой процедуре полученный тип данных можно считать обобщением векторного типа

MPI_TYPE_INDEXED(COUNT, BLOCKLENS, DISPLS, TYPE, NEWTYPE, IERR)
INTEGER COUNT, BLOCKLENS(*), DISPLS(*), TYPE, NEWTYPE, IERR

MPI_TYPE_VECTOR(COUNT, BLOCKLEN, STRIDE, TYPE, NEWTYPE, IERR)
INTEGER COUNT, BLOCKLEN, STRIDE, TYPE, NEWTYPE, IERR

MPI_TYPE_HVECTOR(COUNT, BLOCKLEN, STRIDE, TYPE, NEWTYPE, IERR)
INTEGER COUNT,
BLOCKLEN, STRIDE, TYPE, NEWTYPE, IERR

 
Какой тип данных newtype задается в данном примере

do i = 1, n
blocklens (i) = n-i + 1
displs(i) = n*(i-1)+i-1 end do call MPI_TYPE_INDEXED(n, blocklens, displs,
MPI_DOUBLE_PRECISION, newtype, ierr)

который после регистрации может быть использован для пересылки как единого целого шести элементов данных
который в дальнейшем может использоваться для пересылки пяти расположенных подряд целых чисел
для описания нижнетреугольной матрицы типа double precision


В какой процедуре следующий блок начинается через STRIDE элементов базового типа данных после начала предыдущего блока

MPI_TYPE_CONTIGUOUS(COUNT, TYPE, NEWTYPE, IERR)
INTEGER COUNT, TYPE, NEWTYPE, IERR

MPI_TYPE_VECTOR(COUNT, BLOCKLEN, STRIDE, TYPE, NEWTYPE, IERR)
INTEGER COUNT, BLOCKLEN, STRIDE, TYPE, NEWTYPE, IERR

MPI_TYPE_HVECTOR(COUNT, BLOCKLEN, STRIDE, TYPE, NEWTYPE, IERR)
INTEGER COUNT,
 BLOCKLEN, STRIDE, TYPE, NEWTYPE, IERR


В какой процедуре следующий блок начинается через STRIDE байт после начала предыдущего блока

MPI_TYPE_VECTOR(COUNT, BLOCKLEN, STRIDE, TYPE, NEWTYPE, IERR)
INTEGER COUNT, BLOCKLEN, STRIDE, TYPE, NEWTYPE, IERR

MPI_TYPE_HVECTOR(COUNT, BLOCKLEN, STRIDE, TYPE, NEWTYPE, IERR)
INTEGER COUNT,
 BLOCKLEN, STRIDE, TYPE, NEWTYPE, IERR

MPI_TYPE_CONTIGUOUS(COUNT, TYPE, NEWTYPE, IERR)
INTEGER COUNT, TYPE, NEWTYPE, IERR


Какая процедура отвечает за создание нового типа данных NEWTYPE, состоящего из COUNT блоков по BLOCKLEN элементов базового типа данных TYPE

MPI_TYPE_CONTIGUOUS(COUNT, TYPE, NEWTYPE, IERR)
INTEGER COUNT, TYPE, NEWTYPE, IERR

MPI_TYPE_VECTOR(COUNT, BLOCKLEN, STRIDE, TYPE, NEWTYPE, IERR)
INTEGER COUNT, BLOCKLEN, STRIDE, TYPE, NEWTYPE, IERR

MPI_TYPE_HVECTOR(COUNT, BLOCKLEN, STRIDE, TYPE, NEWTYPE, IERR)
INTEGER COUNT,
BLOCKLEN, STRIDE, TYPE, NEWTYPE, IERR
 
 
Какие типы данных не могут быть аннулированы этой процедурой

MPI_TYPE_FREE(DATATYPE, IERR)
INTEGER DATATYPE, IERR

структурированные типы данных
производственные типы данных
предопределенные типы данных


В какой процедуре I-й блок начинается через DISPLS (I) байт с начала буфера посылки

MPI_TYPE_INDEXED(COUNT, BLOCKLENS, DISPLS, TYPE, NEWTYPE, IERR)
INTEGER COUNT, BLOCKLENS(*), DISPLS(*), TYPE, NEWTYPE, IERR

MPI_TYPE_STRUCT(COUNT, BLOCKLENS, DISPLS, TYPES, NEWTYPE, IERR)
INTEGER COUNT, BLOCKLENS(*), DISPLS(*), TYPES(*), NEWTYPE, IERR

MPI_TYPE_HINDEXED(COUNT, BLOCKLENS, DISPLS, TYPE, NEWTYPE, IERR)
INTEGER COUNT, BLOCKLENS(*), DISPLS(*), TYPE, NEWTYPE, IERR

Вы можете обратится к нам напрямую, через:

skype По Skype: molodoyberkut
telegram По Telegram: @MolodoyBerkut
icq По ICQ: 657089516

Или через форму обратной связи на нашем сайте
Пока сочиняется...
4.png