Помощничек
Главная | Обратная связь


Археология
Архитектура
Астрономия
Аудит
Биология
Ботаника
Бухгалтерский учёт
Войное дело
Генетика
География
Геология
Дизайн
Искусство
История
Кино
Кулинария
Культура
Литература
Математика
Медицина
Металлургия
Мифология
Музыка
Психология
Религия
Спорт
Строительство
Техника
Транспорт
Туризм
Усадьба
Физика
Фотография
Химия
Экология
Электричество
Электроника
Энергетика

Распределенные вычисления



 

128. Что такое канал?

1) Связь между процессорами

2) Участок локальной сети

3) Очередь для обмена сообщениями

4) механизм синхронизации процессов

 

129. Перечислите особенности удаленного вызова процедур

1) Вызов происходит всегда синхронно

2) При вызове создается новый процесс

3) В процедуре может быть несколько точек входа

4) Нельзя вызывать методы объектов

 

130. Перечислите особенности рандеву

1) В процедуре может быть несколько точек входа

2) Используются специальные операторы вызова и приема

3) Не создается новый процесс

4) Используется канал для передачи сообщений

 

MPI. Введение.

 

131. Укажите области параллельного программирования, для которых наиболее удобна технология MPI.

1) Программирование для систем с общей памятью

Программирование для кластеров

Научные вычисления

4) Программирование клиент-серверных приложений

 

132. Укажите элементарные операции, на которых основан обмен информацией в MPI.

Прием и передача сообщений

2) Удаленный вызов процедур

3) Обращение к области общей памятью

4) Чтение и запись семафоров.

 

133. По какой технологии создается программа при использовании MPI 1.0?

1) SPSD

SPMD

3) MPSD

4) MPMD

 

134. Что означает технология SPMD?

1) Все процессы имеют общую память.

2) Каждый из процессов выполняет свою задачу обработки информации.

3) Все процессы работают одновременно.

Все процессы выполняют одну и ту же программу.

 

135. Какие основные проблемы возникают при использовании MPI?

Необходимо распределить данные между процессами

2) Необходимо обеспечить синхронизацию при доступе к общим данным.

Необходимо избегать тупиков

4) Необходимо обеспечить рассылку процессов по вычислительным узлам.

 

136. Какая типичная роль у процесса с номером 0 при использовании MPI?

1) Запуск остальных процессов.

2) Обеспечение синхронизации процессов.

3) Поддержка общей памяти.

Распределение исходных данных и сбор результатов.

 

137. Что входит в реализацию MPI?

1) Язык программирования.

2) Набор управляющих комментариев.

Библиотека, содержащая функции MPI

Исполняющая система.

 

138. Как производится обмен данными между разными MPI-программами?

1) С помощью обмена сообщениями.

2) С помощью общей памяти.

3) С помощью средств синхронизации.

Обмен данными невозможен.

 


139. Как определяется количество процессов в MPI программе?

1) Определяется автоматически исходя из количества вычислительных узлов

2) Устанавливается программистом из самой программы.

Устанавливается в конфигурационных файлах при запуске программы

4) Определяется исходя из размера задачи.

 

MPI. Базовые функции.

140. Какую функцию необходимо вызвать в начале MPI-программы?

1) MPI_Create

2) MPI_Run

3) MPI_Start

MPI_Init

 

141. Что такое коммуникатор в MPI?

1) Идентификатор группы процессов.

2) Процесс, распределяющий данные другим процессам

Механизм синхронизации программ

4) Инфраструктура передачи сообщений.

 

142. Как называется уникальный номер процесса в MPI?

1) Порядок.

Ранг.

3) Идентификатор.

4) Степень.

 

143. Когда функция MPI_Send завершает свою работу?

Когда можно повторно использовать буфер отправки.

2) Когда сообщение поступило получателю.

3) Немедленно.

4) Когда сообщение попало в очередь на отправку.

 

144. Для отправки сообщения всем процессам нужно

1) Указать в качестве номера получателя MPI_ANY_SOURCE

2) Указать в качестве номера получателя 0

Использовать функцию MPI_Bcast

4) Подождать выхода новой версии MPI.

145. Какая функция осуществляет асинхронную отправку сообщения?

MPI_Isend

2) MPI_Send

3) MPI_Ssend

4) MPI_Bsend

 

146. Какая функция гарантирует отсутствие взаимоблокировок?

1) MPI_Isend

2) MPI_Ssend

MPI_Sendrecv

4) MPI_BSend

147. Что возвращают функции MPI?

1) Количество принятых или переданных данных.

2) Информацию о статусе пересылки.

3) Информацию о процессах

Код ошибки.

148. Какие величины идентифицируют процесс?

Номер процесса в группе

2) Уникальное имя процесса.

Имя коммуникатора.

4) Уникальное имя компьютера.

MPI. Коллективные операции

149. Какие коллективные операции используются для рассылки данных?

MPI_Bcast

MPI_Scatter

3) MPI_Gather

4) MPI_ Reduce

150. Какие коллективные операции используются для cбора данных?

1) MPI_Bcast

2) MPI_Scatter

MPI_Gather

MPI_ Reduce

151. Какая функция обеспечивает синхронизацию процессов?

1) MPI_Alltoall

MPI_Barrier

3) MPI_Test

4) MPI_Bcast

152. Какая функция позволяет разослать данные из каждого процесса на все остальные?

1) MPI_Bcast

2) MPI_Alltoall

3) MPI_Scatter

MPI_Allscatter

 

153. Какая операция не поддерживается функцией MPI_Reduce?

1) сложение

2) вычисление максимума

3) умножение

Деление

 

154. С какими процессами работают коллективные операции?

1) С процессами, номера которых указаны при вызове функций

2) Со всеми процессами в параллельной программе

 




Поиск по сайту:

©2015-2020 studopedya.ru Все права принадлежат авторам размещенных материалов.