Главная / Суперкомпьютерные технологии / Введение в программирование на кластерах

Введение в программирование на кластерах - ответы на тесты Интуит

Правильные ответы выделены зелёным цветом.
Все ответы: Курс посвящен средствам разработки параллельных программ для вычислительных систем с распределённой памятью, кластеров.
Смотрите также:
Применение технологий высокопроизводительных вычислений позволяет:
(1) решать новые, более сложные задачи
(2) решать старые задачи, но быстрее
(3) решать старые задачи, но с более высокой точностью
На каких узлах должен запускаться "демон" MPI?
(1) на всех, используемых для выполнения параллельной программы
(2) на одном произвольном узле
(3) на узле, где запускается мастер-программа
Какие виды двухточечных операций приема сообщений реализованы в MPI?
(1) блокирующие
(2) неблокирующие
(3) "по готовности"
(4) синхронные
Какая подпрограмма MPI реализует двухточечную стандартную блокирующую передачу данных?
(1) MPI_Send
(2) MPI_Ssend
(3) MPI_ISend
(4) MPI_BSend
Какая подпрограмма используется для приема сообщения, отправленного широковещательной рассылкой в MPI?
(1) MPI_Bcast
(2) Bcast
(3) MPI_Recv
(4) MPI_IRecv
Что такое "коммуникатор" в MPI?
(1) множество процессов, наделенных общим контекстом обмена
(2) среда передачи данных
(3) функция отправки сообщений
Какие типы обменов реализованы в MPI?
(1) двухточечные
(2) коллективные
(3) односторонние
(4) сверхбыстрые
(5) доверительные
OpenMP-программа состоит из:
(1) последовательности параллельных и последовательных секций
(2) точек порождения и продолжения
Что такое оптимизация программы?
(1) уменьшение избыточности программы по затратам процессорного времени и памяти
(2) распараллеливание программы
(3) трассировка программы
Функция ftok предназначена для:
(1) получения ключа для идентификации очереди сообщений в IPC
(2) создания очереди сообщений в IPC
(3) синхронизации потоков
(4) такой функции нет
Предусмотрена ли в MPI поддержка языка Eiffel?
(1) да
(2) нет
Отметьте разновидности двухточечных обменов в MPI:
(1) блокирующие
(2) неблокирующие
(3) широковещательная рассылка
(4) сбор данных
(5) распределение данных
Неблокирующая отправка сообщения выполняется при вызове функции:
(1) MPI_Isend
(2) MPI_Ssend
(3) MPI_Bsend
(4) MPI_NBsend
Какая подпрограмма используется для сбора данных в MPI?
(1) MPI_Gather
(2) MPI_Bcast
(3) MPI_Recv
(4) MPI_Scatter
(5) Bcast
Какая из нижеперечисленных предопределенных групп присутствует в MPI?
(1) MPI_GROUP_COMM
(2) MPI_GROUP_NULL
(3) MPI_GROUP_EMPTY
Имеются ли собственные средства поддержки многопоточности в MPI?
(1) да
(2) нет
Отметьте ключевое слово OpenMP, с помощью которого в операторе schedule задается неравномерное распределение итераций между потоками:
(1) dynamic
(2) static
(3) guided
В чем заключается оптимизирующее преобразование "алгебраическая редукция"?
(1) в векторизации арифметических операций
(2) в упрощении арифметических выражений
(3) в приведении типов операндов к общему
Вызов какой функции IPC приводит к удалению очереди сообщений?
(1) ftok
(2) msgrcv
(3) msgsnd
(4) msgctl
Средство отладки и анализа MPI-программ:
(1) Intel\circledR Trace Analyzer and Collector
(2) Intel\circledR VTune Performance Amplifier XE
(3) Intel\circledR Cluster OpenMP
(4) Intel\circledR Composer XE
(5) Intel\circledR MPI Debugger
Функция MPI_ISend реализует:
(1) стандартный блокирующий двухточечный обмен
(2) неблокирующий двухточечный обмен
(3) двухточечный обмен "по готовности"
(4) двухточечный обмен с буферизацией
(5) двухточечный синхронный обмен
Проверка завершения любого числа неблокирующих обменов выполняется функцией:
(1) MPI_Testall
(2) MPI_Testany
(3) MPI_Testglobal
(4) MPI_Anynonblockingsends
Можно ли сообщение, отправленное функцией коллективного обмена принять с помощью функции двухточечного обмена?
(1) да
(2) нет
Какие операции из нижеперечисленных используются для создания групп?
(1) объединение
(2) деление
(3) пересечение
(4) разность
Имеются ли в MPI параллельные операции с файлами?
(1) да
(2) нет
Отметьте оператор объявления глобальных переменных:
(1) private
(2) shared
Какая оптимизация из нижеперечисленных требует повторной компиляции?
(1) оптимизация под архитектуру
(2) автоматическое распараллеливание
(3) оптимизация с профилированием
Что такое OpenMP?
(1) это стандарт программного интерфейса приложений для параллельных систем с общей памятью
(2) среда разработки параллельных приложений
(3) компилятор C
Что описывает коммуникатор в MPI?
(1) совокупность процессов, которые могут обмениваться сообщениями
(2) топологию коммуникационной подсистемы кластера
Функция MPI_Recv реализует:
(1) стандартный блокирующий двухточечный прием
(2) неблокирующий двухточечный прием
(3) двухточечный прием с буферизацией
Какие из нижеперечисленных видов обмена являются коллективными?
(1) широковещательная рассылка
(2) сбор данных
(3) обмен с буферизацией
(4) обмен "по готовности"
Какая функция используется для создания коммуникатора?
(1) MPI_Comm_init
(2) MPI_Comm_create
(3) MPI_Comm
Отметьте способы задания числа потоков в OpenMP-программах:
(1) переменная окружения
(2) вызов функции
Что такое синтаксис?
(1) множество плавил, описывающих структуру предложений языка
(2) множество правил интерпретации смысла предложения
Что такое Intel® MKL?
(1) библиотека для разработки параллельных программ
(2) библиотека для трассировки параллельных программ
(3) библиотека численных методов
Как называется демон, используемый в MPI-2?
(1) mpd
(2) mp2d
(3) mpd2
(4) lpd
(5) daemonhill
Какая функция MPI используется для подключения буфера отправки?
(1) MPI_Buffer_attach
(2) MPI_Buffer_detach
Какая из нижеперечисленных функций MPI реализует широковещательную рассылку?
(1) MPI_Scatter
(2) MPI_Bcast
(3) MPI_Send
(4) MPI_Gather
Можно ли с помощью переменной окружения OMP_THREADS задать количество потоков?
(1) да
(2) нет
Что такое лексемы?
(1) символы алфавита языка программирования
(2) особая разновидность функций
(3) элементарные единицы, наделенные определенным "смыслом" и входящие в структуру предложения языка
Классическая фоннеймановская архитектура соответствует следующему классу архитектур Флинна:
(1) SISD
(2) MISD
(3) SIMD
(4) MIMD
(5) NUMA
Допускается ли одновременное использование технологий MPI и OpenMP?
(1) да
(2) нет
Сколько процессов участвуют в двухточечных обменах?
(1) 4
(2) 2
(3) таких обменов нет
Отметьте этапы выполнения неблокирующего обмена:
(1) инициализация
(2) проверка завершения
(3) деинициализация
Какая подпрограмма используется для передачи сообщения широковещательной рассылкой в MPI?
(1) MPI_Bcast
(2) MPI_Send
(3) MPI_Scatter
(4) Bcast
Может ли один и тот же процесс принадлежать нескольким группам одновременно?
(1) да
(2) нет
Какие виды виртуальных топологий реализованы в MPI?
(1) декартова
(2) графа
(3) четырёхмерного гиперкуба
(4) звезды
(5) пятимерного гиперкуба
Может ли меняться число потоков при выполнении OpenMP-программы?
(1) да
(2) нет
В каком случае развертка цикла увеличивает производительность программы?
(1) если цикл содержит небольшое количество итераций
(2) если трудоемкость каждой итерации цикла велика
(3) если цикл содержит небольшое количество итераций и трудоемкость каждой итерации мала
В классификации Флинна представлены следующие типы архитектур вычислительных систем:
(1) SIMD
(2) MISD
(3) SISD
(4) MIMD
(5) CISD
(6) RISC
(7) CISC
Предусмотрена ли в MPI поддержка языка Java?
(1) да
(2) нет
Ранг процесса:
(1) всегда положительное целое значение
(2) всегда неотрицательное целое значение
(3) отрицательное или положительное целое значение
Проверка завершения всех неблокирующих обменов выполняется функцией:
(1) MPI_Testall
(2) MPI_Testany
(3) MPI_Testglobal
(4) MPI_Allnonblockingsends
Какая подпрограмма MPI используется для барьерной синхронизации процессов?
(1) MPI_Barrier
(2) Barrier
(3) Barrier_sync
Какие виды коммуникаторов есть в MPI?
(1) полукоммуникаторы
(2) интракоммуникаторы
(3) интеркоммуникаторы
Какие ограничения действуют для передаваемых данных в MPI?
(1) должны быть расположены непрерывно в памяти
(2) должны быть одного типа
(3) ограничений нет
(4) объём передаваемых данных не должен превышать 100 Кб
Отметьте ключевое слово OpenMP, с помощью которого в операторе schedule задается равномерное распределение итераций между потоками:
(1) dynamic
(2) static
(3) guided
В чем заключается оптимизирующее преобразование "логическая редукция"?
(1) в векторизации логических операций
(2) в понижении сложности арифметических выражений
Что такое POSIX?
(1) семейство стандартов для открытых систем
(2) операционная система семейства UNIX
(3) библиотека для разработки многопоточных приложений
Что из перечисленного является реализацией MPI?
(1) MPICH
(2) OpenMPI
(3) ClusterMPI
(4) shmemMPI
Функция MPI_BSend реализует:
(1) стандартный блокирующий двухточечный обмен
(2) неблокирующий двухточечный обмен
(3) двухточечный обмен "по готовности"
(4) двухточечный обмен с буферизацией
(5) двухточечный синхронный обмен
Проверка завершения одного из общего числа неблокирующих обменов выполняется функцией:
(1) MPI_Testsome
(2) MPI_Testany
(3) MPI_Testone
Является ли операция барьерной синхронизации коллективной?
(1) да
(2) нет
Какое действие выполняет вызов функции MPI_Group_free?
(1) удаление группы
(2) создание пустой группы
(3) создание группы, состоящей из одного процесса
Имеются ли в MPI буферизованные коллективные обмены?
(1) да
(2) нет
Отметьте оператор объявления локальных переменных:
(1) private
(2) shared
Что из нижеперечисленного является компилятором (семейством компиляторов)?
(1) GCC
(2) PGI Workstation
(3) CISC
(4) RISC
Что такое MPI?
(1) это спецификация интерфейса передачи сообщений
(2) основной инструмент разработки приложений для вычислительных систем с общей памятью
(3) язык программирования
Отметьте среди нижеперечисленных стандартные коммуникаторы MPI:
(1) MPI_COMM_WORLD
(2) MPI_COMM_UNIT
(3) MPI_COMM_NULL
(4) MPI_COMM_SELF
(5) MPI_COMM_DUB
Функция MPI_IRecv реализует:
(1) стандартный блокирующий двухточечный прием
(2) неблокирующий двухточечный прием
(3) двухточечный прием с буферизацией
Какие из нижеперечисленных видов обмена не являются коллективными?
(1) обмен с редукцией
(2) распределение данных
(3) обмен с буферизацией
(4) обмен "по готовности"
Какая функция играет роль деструктора коммуникатора?
(1) MPI_Comm_free
(2) MPI_Comm deinit
(3) MPI_Group_free
Отметьте функции-таймеры OpenMP:
(1) omp_get_wtime
(2) omp_get_time
(3) omp_wtime
(4) omp_time
Что такое семантика?
(1) множество плавил, описывающих структуру предложений языка
(2) множество правил интерпретации смысла предложения
Что такое Intel® IPP?
(1) библиотека для разработки параллельных программ
(2) библиотека для трассировки параллельных программ
(3) библиотека численных методов
Отметьте правильную последовательность команд управления кольцом демонов в MPI-2:
(1) mpdboot; mpdallexit
(2) mpdallexit; mpdboot
(3) mpdtrace; mpdboot
(4) mpdboot; mpdtrace
(5) не имеет значения
Какая функция MPI реализует совместные прием и передачу?
(1) MPI_Sendrecv
(2) MPI_Recvsend
(3) MPI_Sendrecv_replace
Какие из нижеперечисленных операций являются операциями приведения?
(1) вычисление суммы
(2) вычисление произведения
(3) вычитание
(4) деление
(5) определение минимального значения в массиве
Поддерживают ли компиляторы GCC версии 4.7.1 OpenMP?
(1) да
(2) нет
Что такое компилятор?
(1) программа, выполняет преобразование программы, написанной на языке программирования (как правило, высокого уровня) в программу на языке машинного уровня
(2) разновидность сетевого оборудования
(3) то же самое, что итератор
Отметьте компоненты IPC (InterProcess Communication):
(1) неименованные каналы
(2) именованные каналы
(3) брекеты
(4) сокеты
(5) семафоры
(6) сообщения
(7) средства работы с общей памятью
Какое наименьшее значение может иметь ранг процесса MPI-программы?
(1) -32767
(2) -32768
(3) 1
(4) 100
(5) ограничений нет
(6) 0
Двухточечные обмены это реализация:
(1) локальных коммуникаций
(2) глобальных коммуникаций
Какая подпрограмма используется для распределения данных в MPI?
(1) MPI_Bcast
(2) MPI_Send
(3) MPI_Scatter
(4) Bcast
Почему подстановка функций может дать выигрыш в производительности?
(1) уменьшаются накладные расходы на вызов функций
(2) код после подстановки становится непрерывным, что улучшает эффективность использования кэш-памяти
(3) объем кода уменьшается
Какая функция IPC предназначена для отправки сообщений:
(1) ftok
(2) msgsnd
(3) msgrcv
(4) MPI_Send
Предусмотрена ли в MPI поддержка языка Fortran?
(1) да
(2) нет
Функция MPI_Send реализует:
(1) стандартный блокирующий двухточечный обмен
(2) неблокирующий двухточечный обмен
(3) двухточечный обмен "по готовности"
(4) двухточечный обмен с буферизацией
(5) двухточечный синхронный обмен
Может ли во время выполнения параллельной MPI-программы изменяться количество процессов?
(1) да
(2) нет
Может ли измениться в результате оптимизации результат выполнения программы?
(1) да
(2) нет
POSIX Threads это:
(1) библиотека для разработки многопоточных приложений
(2) семейство стандартов для открытых систем
(3) одна из реализаций OpenMP
(4) одна из реализаций MPI
Чем ограничена масштабируемость параллельных MPI-программ?
(1) количеством узлов в вычислительной системе
(2) типом процессора
(3) количеством ядер процессора
Функция MPI_SSend реализует:
(1) стандартный блокирующий двухточечный обмен
(2) неблокирующий двухточечный обмен
(3) двухточечный обмен "по готовности"
(4) двухточечный обмен с буферизацией
(5) двухточечный синхронный обмен
Какую информацию можно получить с помощью вызова функции MPI_Get_count?
(1) количество полученных сообщений
(2) размер полученного сообщения
Теги сообщениям в коллективных обменах назначаются:
(1) программистом
(2) системой
Имеются ли в MPI буферизованные двухточечные обмены?
(1) да
(2) нет
Что из нижеперечисленного является оптимизирующим преобразованием?
(1) исключение указателей
(2) свертка и распространение указателей
(3) свертка и распространение констант
Что из нижеперечисленного является реализацией MPI?
(1) MPICH
(2) LAM
(3) SuperfastMPI
(4) R-MPI
(5) Intel® MPI
Что такое тег?
(1) числовой идентификатор сообщения
(2) числовой идентификатор процесса
(3) тип сообщения
(4) разновидность производного типа данных
Что из нижеперечисленного является джокером MPI?
(1) MPI_ANY_SOURCE
(2) MPI_ANY_TAG
(3) MPI_ANY_RANK
(4) MPI_ANY_COMM
Является ли операция сканирования коллективной?
(1) да
(2) нет
Перечислите компоненты Intel\circledR Parallel Building Blocks.
(1) Intel\circledR Threading Building Blocks
(2) Intel\circledR Array Building Blocks
(3) Intel\circledR CilkTM Plus
(4) Intel\circledR MPI
(5) Intel\circledR Math Kernel Library
(6) Intel\circledR Integrated Performance Primitives
Отметьте правильную последовательность вызова функций MPI:
(1) MPI_Finalize; MPI_Init
(2) MPI_Init; MPI_Finalize
(3) не имеет значения
Барьерная синхронизация в MPI:
(1) реализуется функцией MPI_Barrier
(2) выполняется неявно
(3) отсутствует