Помощничек
Главная | Обратная связь


Археология
Архитектура
Астрономия
Аудит
Биология
Ботаника
Бухгалтерский учёт
Войное дело
Генетика
География
Геология
Дизайн
Искусство
История
Кино
Кулинария
Культура
Литература
Математика
Медицина
Металлургия
Мифология
Музыка
Психология
Религия
Спорт
Строительство
Техника
Транспорт
Туризм
Усадьба
Физика
Фотография
Химия
Экология
Электричество
Электроника
Энергетика

Парадигмы пар. Программирования.



35. Параллельная программа – это…

1) программа, работающая одновременно на нескольких компьютерах

2) программа, обрабатывающая большой объем данных

3) программа, осуществляющая обмен сообщениями в сети

4) программа, содержащая несколько процессов, работающих совместно

 

36. Асинхронная модель параллельных вычислений имеет следующие особенности:

1) все процессы выполняют одни и те же действия с собственными данными

2) различные процессы решают разные задачи

3) все процессы используют общую память

4) все процессы выполняются в своих критических секциях

 

37. Синхронная модель параллельных вычислений имеет следующие особенности:

1) все процессы выполняют одни и те же действия с собственными данными

2) различные процессы решают разные задачи

3) все процессы используют общую память

4) все процессы выполняются в своих критических секциях

 

38. Две операции называются независимыми если

1) множество чтения одной не пересекается с множеством чтения другой

2) множество чтения одной не пересекается с множеством записи другой

3) множество чтения одной пересекается с множеством записи другой

4) множество чтения одной пересекается с множеством чтения другой

 

39. Какие операции могут выполняться параллельно?

1) независимые

2) зависимые

3) элементарные

4) неделимые

 

40. Какой процесс называется потребителем?

1) Процесс, передающий данные

2) Процесс, получающий данные

3) Процесс, вводящий данные

4) Процесс, выводящий данные

 

41. Какой процесс называется производителем?

1) Процесс, передающий данные

2) Процесс, получающий данные

3) Процесс, вводящий данные

4) Процесс, выводящий данные

 

42. Какие технологии повышения производительности применяются в современных процессорах?

1) Суперскалярность

2) Многопоточность

3) Конвейеризация

4) Векторная обработка данных

 

43. Что такое конвейеризация?

1) Исполнение нескольких команд одновременно

2) Параллельное выполнение различных частей команд

3) Сохранение данных в сверхбыстрой памяти

4) Обработка данных большого размера

 

44. Что такое суперскалярность?

1) Исполнение нескольких команд одновременно

2) Параллельное выполнение различных частей команд

3) Сохранение данных в сверхбыстрой памяти

4) Обработка данных большого размера

 

45. Какие виды оптимизации применяются при конвейеризации?

1) Предсказание переходов

2) Замена команд

3) Перестановка команд

4) Переименование регистров

 

46. Какие системы относятся к технологии SIMD?

1) Векторные процессоры

2) Матричные процессоры

3) Кластеры

4) SMP

 

47. Какие системы относятся к технологии MIMD?

1) Векторные процессоры

2) Матричные процессоры

3) Кластеры

4) Симметричные многопроцессорные

 

48. К какому классу относятся многоядерные системы?

1) Матричные процессоры

2) Распределенные системы

3) Кластеры

4) Системы с общей памятью

 

49. К какому классу относятся кластерные системы?

1) Матричные процессоры

2) Распределенные системы

3) Симметричные мультипроцессоры

4) Системы с общей памятью

 

50. Какие сущности имеют общую память?

1) Два процесса

2) Два потока

3) Поток и процесс

4) Вычислительные узлы кластера

 

51. Что имеет собственную память для данных?

1) Процесс

2) Поток

3) И процесс, и поток

 

52. Как организуется взаимодействие процессов?

1) Через общую память

2) Через обмен сообщениями

3) Через файловую систему

4) Через регистры процессора

 

53. Какие общие ресурсы есть у потоков?

1) Память для данных

2) Стек

3) Отображение виртуальной памяти на реальную

4) Все перечисленное

5) Ничего из перечисленного

 

54. Какие общие ресурсы есть у процессов?

1) Память

2) Стек

3) Отображение виртуальной памяти на реальную

4) Все перечисленное

5) Ничего из перечисленного

 

55. Чем характеризуется состояние параллельной программы?

1) адресами выполняемых команд

2) последовательностью состояний s0->s1->…->sn.

3) значениями переменных в некоторый момент времени

4) объемом занимаемой оперативной памяти

 

56. Чем характеризуется история параллельной программы?

1) значением переменных в некоторый момент времени

2) последовательностью состояний s0->s1->…->sn.

3) адресами выполняемых команд

4) объемом занимаемой оперативной памяти

 

57. Цель синхронизации процессов

1) исключить нежелательные истории

2) обеспечить одновременное выполнение

3) обеспечить исключительный доступ к данным

4) исключить зацикливание программы

 

58. Какими свойствами должна обладать параллельная программа?

1) Живучесть

2) Эффективность

3) Верифицируемость

4) Безопасность

 

59. Какие существуют виды синхронизации?

1) Исключительная ситуация

2) Взаимное исключение

3) Условная синхронизация

4) Абсолютная синхронизация

 

60. Взаимное исключение состоит в…

1) обеспечение совместного доступа к общей памяти

2) ожидании в одном процессе окончания выполнения другого

3) задержке процесса, пока не выполнится некоторое условие

4) выделении в процессах критических секций, которые не прерываются другими процессами, использующими те же переменные

 

61. Условная синхронизация заключается в …

1) обеспечение совместного доступа к общей памяти

2) ожидании в одном процессе окончания выполнения другого

3) задержке процесса, пока не выполнится некоторое условие

4) выделении в процессах критических секций, которые не прерываются другими процессами, использующими те же переменные

 

62. Приведите пример правильной эффективной параллельной программы поиска максимального элемента в массиве

1) int m=0;

parallel for (i=0; i<n; i++)

if (a[i] > m) m = a[i];

2) int m=0;

parallel for (i=0; i<n; i++)

< if (a[i] > m) m = a[i]; >

3) int m=0;

parallel for (i=0; i<n; i++)

if (a[i] > m) < m = a[i]; >

4) int m=0;

parallel for (i=0; i<n; i++)

if (a[i] > m)

< if (a[i] > m) m = a[i]; >

 

63. Приведите пример неэффективной правильной параллельной программы поиска максимального элемента в массиве

1) int m=0;

parallel for (i=0; i<n; i++)

if (a[i] > m) m = a[i];

2) int m=0;

parallel for (i=0; i<n; i++)

< if (a[i] > m) m = a[i]; >

3) int m=0;

parallel for (i=0; i<n; i++)

if (a[i] > m) < m = a[i]; >

4) int m=0;

parallel for (i=0; i<n; i++)

if (a[i] > m)

< if (a[i] > m) m = a[i]; >

 

 

64. Какие из приведенных условий относятся к свойствам безопасности?

1) Взаимное исключение. В любой момент только один процесс может выполнять свою критическую секцию.

2) Отсутствие взаимной блокировки. Если несколько процессов пытаются войти в свои критические секции, хотя бы один сделает это.

3) Если процесс пытается войти в критическую секцию, а другие выполняют некритические секции, то ему разрешается вход

4) Процесс, который пытается войти в критическую секцию когда-нибудь это сделает.

 

65. Какие из приведенных условий относятся к свойствам живучести?

1) Взаимное исключение. В любой момент только один процесс может выполнять свою критическую секцию.

2) Отсутствие взаимной блокировки. Если несколько процессов пытаются войти в свои критические секции, хотя бы один сделает это.

3) Если процесс пытается войти в критическую секцию, а другие выполняют некритические секции, то ему разрешается вход

4) Процесс, который пытается войти в критическую секцию когда-нибудь это сделает.

 

66. Перечислите алгоритмы критической секции со справедливой стратегией

1) алгоритм разрыва узла

2) алгоритм билета

3) алгоритм семафора

4) алгоритм поликлиники

 

67. Что представляет из себя справедливая стратегия?

1) дать возможность каждому процессу попасть в критическую секцию

2) дать возможность некоторым процессам попасть в критическую секцию

3) дать возможность процессам попасть в критическую секцию в порядке очереди

4) дать возможность каждому процессу выйти из критической секции

 

68. Недостатком алгоритма разрыва узла (Питерсона) является

1) сложно обобщается на случай более двух процессов

2) сложность, отсутствие грани между переменными синхронизации и другими переменными,

3) неэффективность (ожидающие процессы постоянно проверяют переменные, что занимает время процессора)

 

69. Алгоритм билета основан на том, что

1) обеспечивает поочередный вход двух процессов в критическую секцию

2) каждый процесс, который пытается войти в CS получает номер, который больше номера любого из ранее вошедших

3) каждый процесс запоминает номер выполняющегося процесса

 

70. В чем отличие мьютекса от критической секции?

1) Критическая секция может находиться только в двух состояниях, а мьютекс – в нескольких

2) Критическая секция должна быть описана в программе, а мьютекс – нет.

3) Критическая секция действует в пределах одного процесса, а мьютекс может использоваться для взаимодействия разных процессов

4) Мьютекс действует в пределах одного процесса, а критическая секция может использоваться для взаимодействия разных процессов

 

71. Выберите правильное утверждение

1) Критическая секция позволяет реализовать взаимное исключение

2) Критическая секция позволяет реализовать условную синхронизацию

3) Критическая секция позволяет реализовать и взаимное исключение, и условную синхронизацию

4) Критическая секция не позволяет реализовать ни взаимное исключение, ни условную синхронизацию

 

72. Что такое семафор ?

1) Процедура

2) Объект

3) Специальная системная переменная

4) Класс

 

73. Какие операции можно выполнить с семафором ?

1) Открыть

2) Увеличить

3) Уменьшить

4) Закрыть

 

74. Какая операция с семафором может привести к приостановке процесса?

1) Открыть

2) Увеличить

3) Уменьшить

4) Закрыть

 

75. Что такое барьерная синхронизация?

1) взаимное исключение нескольких процессов

2) синхронизация по времени окончания операций в разных процессах

3) обеспечение общего доступа к данным

4) исключение взаимоблокировок

 

76. Основное требование, предъявляемое к барьерной синхронизации?

1) ни один из процессов не должен перейти барьер, пока к нему не подошли все процессы

2) ни один процесс не должен войти в секцию, если в нее вошел другой процесс

3) ни один процесс не может получить доступ к общим данным

4) ни один процесс не должен блокировать другие процессы

 

77. Какую роль играют семафоры в задаче о производителе и потребителе

1) флага доступа к данным

2) нумеруют процессы в очереди обработки данных

3) обеспечивают взаимное исключение

4) счетчика ресурсов

 

78. В решении какой задачи используется метод передачи эстафеты?

1) Об обедающих философах

2) О производителе и потребителе

3) О писателях и читателях

4) О критической секции

 

79. Какая функция в Windows соответствует операции P для семафора

1) ReleaseSemaphore

2) WaitForSingleObject

3) CreateSemaphore

4) OpenSemaphore

 

80. Какая функция в Windows соответствует операции V для семафора

1) ReleaseSemaphore

2) WaitForSingleObject

3) CreateSemaphore

4) OpenSemaphore

 

81. Как моделируются вилки в задаче об обедающих философах?

1) Каждая вилка – это процесс

2) Каждая вилка – это поток

3) Каждая вилка – это семафор

4) Каждая вилка – это массив мьютексов

 

82. Какая функция в Unix клонирует текущий процесс?

1) fork

2) execl, execv

3) waitpid

4) kill

5) signal

 

83. Какая функция в Unix позволяют заменить текущий процесс новым?

1) fork

2) execl, execv

3) waitpid

4) kill

5) signal

 

84. Какая функция в Unix позволяет ожидать окончания порожденного процесса?

1) fork

2) execl, execv

3) waitpid

4) kill

5) signal

 

85. Какая функция в Unix посылает сигнал процессу?

1) fork

2) execl, execv

3) waitpid

4) kill

5) signal

 

86. Какая функция в Unix позволяет указать функцию, выполняющуюся при получении сигнала?

1) fork

2) execl, execv

3) waitpid

4) kill

5) signal

 

87. Какая библиотека в Unix используется для реализации многопоточности?

1) MPI

2) OPENMP

3) THREADING

4) PTHREAD

 

88. Какие объекты синхронизации не реализованы в библиотеке PTHREAD?

1) Семафоры

2) Критические секции

3) Мьютексы

4) Условные переменные

 

 

89. Как называется наиболее популярная модель параллельных вычислений

1) Граф «операции-операнды»

2) Граф «потоки-данные»

3) Граф «чтение – запись»

4) Граф «переменные – алгоритмы»

 

90. Какие операции в модели параллельных вычислений могут выполняться параллельно?

1) Смежные в графе «операции-операнды»

2) Связанные путем в графе «операции-операнды»

3) Не связанные путем в графе «операции-операнды»

4) Не смежные в графе «операции-операнды»

 

91. Пусть p – количество процессоров.

Расписание Hp для каждой вершины (операции) i указывает номер процессора Pi и время начала операции ti. Расписание реализуемо, если

1) Для любых i,j : ti = tj => Pi ≠ Pj т.е. один и тот же процессор не должен назначаться разным операциям в один и тот же момент.

2) Для любой дуги (i,j) tj ≥ ti+1 т.е. к началу операции все данные должны быть вычислены.

3) Для любых i,j : ti <> tj => Pi ≠ Pj т.е. один и тот же процессор не должен назначаться разным операциям в один и тот же момент.

4) Для любой дуги (i,j) tj < ti+1 т.е. к началу операции все данные должны быть вычислены.

 

92. T∞ = D(G) (D(G) – ___________________в графе G).

1) Длина максимального пути в графе

2) Максимальный поток

3) Максимальный поток минимальной стоимости

4) Длина максимального цикла

 

93. Что такое ускорение параллельной программы?

1) Отношение времени работы параллельной программы к времени работы последовательной программы

2) Отношение времени работы последовательной программы ко времени работы параллельной программы

3) Отношение времени работы самого медленного процесса к времени работы самого быстрого

4) Отношение времени работы самого быстрого процесса к времени работы самого медленного

94. Что такое эффективность параллельной программы?

1) Отношение времени работы параллельной программы к времени работы последовательной программы

2) Отношение времени работы последовательной программы ко времени работы параллельной программы

3) Отношение количества процессоров к ускорению программы

4) Отношение ускорения параллельной программы к количеству процессоров

 

95. Что такое стоимость вычислений по параллельной программе?

1) Наибольшее время выполнения параллельных процессов

2) Наименьшее время выполнения параллельных процессов

3) Полное время выполнения всех параллельных процессов

4) Эффективность, умноженная на количество процессоров

 

96. Что такое сверхлинейное ускорение?

1) Когда ускорение равно количеству процессоров

2) Когда ускорение меньше количества процессоров

3) Когда эффективность больше единицы

4) Когда эффективность меньше единицы

 

97. Когда возможно сверхлинейное ускорение?

1) При эффективной реализации параллельного алгоритма

2) При грамотном распределении данных

3) При нелинейной сложности алгоритма

4) При увеличении количества процессоров

 

98. Пусть f – доля последовательных вычислений в алгоритме. Сформулируйте закон Амдаля

1) Sp > 1/(f + (1-f)/p)

2) Sp ≤ 1/(f + (1-f)/p)

3) Sp ≤ 1/(f - (1+f)/p)

4) Sp > 1/(f + (1+f)/p)

99. Масштабируемость алгоритма определяет

1) степень сохранения эффективности при уменьшении количества процессоров.

2) степень сохранения эффективности при росте количества процессоров.

3) степень увеличения ускорения при росте количества процессоров.

4) степень увеличения стоимости при росте количества процессоров

 

100. Для сохранения эффективности обычно требуется

1) Увеличивать объем обрабатываемой информации.

2) Уменьшать объем обрабатываемой информации.

3) Увеличивать количество процессоров

4) Уменьшать количество процессоров

 

101. Виды декомпозиции при разработке параллельных программ

1) Итеративный параллелизм

2) Рекурсивный параллелизм

3) Функциональный параллелизм

4) Параллелизм по данным

 

102. Какие способы распределения данных используются при разработке матричных параллельных алгоритмов

1) Ленточное разбиение

2) Блочное разбиение

3) Диагональное разбиение

4) Циклическое разбиение

 

103. Какие алгоритмы сортировки могут быть распараллелены

1) сортировка пузырьком

2) сортировка слиянием

3) сортировка вставками

4) четно-нечетная сортировка

Open MP

 

 

104. Интерфейс OpenMP задуман как стандарт параллельного программирования для

1) многопроцессорных систем с общей памятью

2) многопроцессорных систем с разделенной памятью

3) кластерных систем

4) матричных систем

 

105. Основания для достижения эффекта при использовании OPEN MP

1) разделяемые для параллельных процессов данные располагаются в общей памяти

2) для организации взаимодействия не требуется операций передачи сообщений.

3) разделяемые для параллельных процессов данные располагаются в распределенной памяти

4) используется удаленный вызов процедур

 

106. Положительные стороны использования технологии OPEN MP

1) Можно распараллеливать последовательные программы поэтапно, не меняя их структуру

2) Нет необходимости поддерживать последовательный и параллельный вариант программы

3) Эффективно реализован обмен сообщениями

4) Поддержка в наиболее распространенных языках (C/C++, Fortran) и платформах (Windows, Unix)

 

107. Принципы организации параллелизма в Open MP

1) Использование потоков

2) Условная синхронизация

3) Использование семафоров

4) Пульсирующий параллелизм

 

108. При появлении директивы #parallel происходит

1) синхронизация, все потоки, кроме главного, уничтожаются

2) продолжается последовательное выполнение кода (до очередного появления директивы #parallel)

3) создание “команды” (team) потоков для параллельного выполнения вычислений

 

109. После выхода из области действия директивы #parallel происходит

1) синхронизация, все потоки, кроме master, уничтожаются

2) продолжается последовательное выполнение кода (до очередного появления директивы #parallel)

3) создание “команды” (team) потоков для параллельного выполнения вычислений

 

110. Перечислите типы директив Open MP

1) Определение параллельной области

2) Описание общих данных

3) Разделение работы

4) Синхронизация

 

111. Какой параметр не может использоваться в директиве parallel?

1) operator (list)

2) private (list)

3) shared (list)

4) reduction (operator: list)

 

112. Параметр shared определяет список переменных, которые

1) будут общими для всех потоков параллельной области: правильность использования таких переменных должна обеспечиваться программистом

2) будут локальными для каждого потока; переменные создаются в момент формирования потоков параллельной области; начальное значение переменных является неопределенным

3) перед использованием инициализируются значениями исходных переменных

4) запоминаются в исходных переменных после завершения параллельной области (используются значения потока, выполнившего последнюю итерацию цикла или последнюю секцию)

 

113. Параметр private определяет список переменных, которые

1) будут общими для всех потоков параллельной области правильность использования таких переменных должна обеспечиваться программистом

2) будут локальными для каждого потока; переменные создаются в момент формирования потоков параллельной области; начальное значение переменных является неопределенным

3) перед использованием инициализируются значениями исходных переменных

4) запоминаются в исходных переменных после завершения параллельной области (используются значения потока, выполнившего последнюю итерацию цикла или последнюю секцию)

 

114. Параметр firstprivate позволяет создать локальные переменные потоков, которые

1) будут общими для всех потоков параллельной области правильность использования таких переменных должна обеспечиваться программистом

2) будут локальными для каждого потока; переменные создаются в момент формирования потоков параллельной области; начальное значение переменных является неопределенным

3) перед использованием инициализируются значениями исходных переменных

4) запоминаются в исходных переменных после завершения параллельной области (используются значения потока, выполнившего последнюю итерацию цикла или последнюю секцию)

 

115. Параметр lastprivate позволяет создать локальные переменные потоков, значения которых

1) будут общими для всех потоков параллельной области правильность использования таких переменных должна обеспечиваться программистом

2) будут локальными для каждого потока; переменные создаются в момент формирования потоков параллельной области; начальное значение переменных является неопределенным

3) перед использованием инициализируются значениями исходных переменных

4) запоминаются в исходных переменных после завершения параллельной области (используются значения потока, выполнившего последнюю итерацию цикла или последнюю секцию)

 

116. Директива for для распределения вычислений в параллельной области обеспечивает

1) распараллеливание циклов

2) распараллеливание раздельных фрагментов кода (функциональное распараллеливание)

3) директива для указания последовательного выполнения кода

 

117. Директива sections для распределения вычислений в параллельной области

1) распараллеливание циклов

2) распараллеливание раздельных фрагментов кода (функциональное распараллеливание)

3) директива для указания последовательного выполнения кода

 

118. Директива single для распределения вычислений в параллельной области

1) распараллеливание циклов

2) распараллеливание раздельных фрагментов кода (функциональное распараллеливание)

3) директива для указания последовательного выполнения кода

 

119. Распределение итераций в директиве for регулируется параметром (clause) schedule static

1) итерации делятся на блоки по chunk итераций и статически разделяются между потоками; если параметр chunk не определен, итерации делятся между потоками равномерно и непрерывно

2) распределение итерационных блоков осуществляется динамически (по умолчанию chunk=1)

3) размер итерационного блока уменьшается экспоненциально при каждом распределении; chunk определяет минимальный размер блока (по умолчанию chunk=1)

4) правило распределения определяется переменной OMP_SCHEDULE (при использовании runtime параметр chunk задаваться не должен)

 

120. Распределение итераций в директиве for регулируется параметром (clause) schedule dynamic

1) итерации делятся на блоки по chunk итераций и статически разделяются между потоками; если параметр chunk не определен, итерации делятся между потоками равномерно и непрерывно

2) распределение итерационных блоков осуществляется динамически (по умолчанию chunk=1)

3) размер итерационного блока уменьшается экспоненциально при каждом распределении; chunk определяет минимальный размер блока (по умолчанию chunk=1)

4) правило распределения определяется переменной OMP_SCHEDULE (при использовании runtime параметр chunk задаваться не должен)

 

121. Распределение итераций в директиве for регулируется параметром (clause) schedule guided

1) итерации делятся на блоки по chunk итераций и статически разделяются между потоками; если параметр chunk не определен, итерации делятся между потоками равномерно и непрерывно

2) распределение итерационных блоков осуществляется динамически (по умолчанию chunk=1)

3) размер итерационного блока уменьшается экспоненциально при каждом распределении; chunk определяет минимальный размер блока (по умолчанию chunk=1)

4) правило распределения определяется переменной OMP_SCHEDULE (при использовании runtime параметр chunk задаваться не должен)

 

122. Распределение итераций в директиве for регулируется параметром (clause) schedule runtime

1) итерации делятся на блоки по chunk итераций и статически разделяются между потоками; если параметр chunk не определен, итерации делятся между потоками равномерно и непрерывно

2) распределение итерационных блоков осуществляется динамически (по умолчанию chunk=1)

3) размер итерационного блока уменьшается экспоненциально при каждом распределении; chunk определяет минимальный размер блока (по умолчанию chunk=1)

4) правило распределения определяется переменной OMP_SCHEDULE (при использовании runtime параметр chunk задаваться не должен)

 

123. Директива barrier – определяет

1) точку синхронизации, которую должны достигнуть все процессы для продолжения вычислений (директива должны быть вложена в блок)

2) переменную, доступ к которой (чтение/запись) должна быть выполнена как неделимая операция

3) точку синхронизации, в которой системой должно быть обеспечено единое для всех процессов состояние памяти (т.е. если потоком какое-либо значение извлекалось из памяти для модификации, измененное значение обязательно должно быть записано в общую память)

 

124. Директива atomic – определяет

1) точку синхронизации, которую должны достигнуть все процессы для продолжения вычислений (директива должны быть вложена в блок)

2) переменную, доступ к которой (чтение/запись) должна быть выполнена как неделимая операция

3) точку синхронизации, в которой системой должно быть обеспечено единое для всех процессов состояние памяти (т.е. если потоком какое-либо значение извлекалось из памяти для модификации, измененное значение обязательно должно быть записано в общую память)

 

125. Директива flush – определяет

1) точку синхронизации, в которой системой должно быть обеспечено единое для всех процессов состояние памяти (т.е. если потоком какое-либо значение извлекалось из памяти для модификации, измененное значение обязательно должно быть записано в общую память)

2) точку синхронизации, которую должны достигнуть все процессы для продолжения вычислений (директива должны быть вложена в блок)

3) переменную, доступ к которой (чтение/запись) должна быть выполнена как неделимая операция

126. Взаимное исключение в Open MP может осуществляться

1) С помощью директивы critical

2) С помощью директивы atomic

3) С помощью функций библиотеки

4) С помощью директивы barrier

 

127. Переменные окружения в Open MP используются для

1) Управления барьерами в программе

2) Установки количества потоков

3) Управления распределением итераций в цикле

4) Получения номера потока

 

 

 




Поиск по сайту:

©2015-2020 studopedya.ru Все права принадлежат авторам размещенных материалов.