Внимание ! Вопросы к тесту выложены исключительно в ознакомительных целях: количество вопросов может не совпадать с действительным, актуальность не поддерживается,- за решением теста Welcome to the cashier! Предметом исследования кибернетики являются:
строго материальные системы только системы автоматизированного производства системы, рассматриваемые абстрактно, вне зависимости от их материальной природы
Кибернетика - это наука:
об общих законах получения, хранения, передачи и переработки информации об общих законах управления системами о способах взаимодействиях различных абстрактных объектов
Основной категорией кибернетики является:
энергия распознавание взаимодействие управление
Сущность принципа управления заключается в том, что:
движение и действие больших масс или передача и преобразование больших количеств энергии направляется и контролируется при помощи небольших количеств энергии, несущих информацию движение и действие больших масс или передача и преобразование больших количеств энергии направляется и контролируется при помощи еще больших количеств энергии движение и действие малых масс или передача и преобразование малых количеств энергии направляется и контролируется при помощи больших количеств энергии
Теория информации представляет собой:
математическую теорию, посвященную измерению информации, ее потока, "размеров" канала связи и т.п. абстрактную категорию, необходимую для изучения кибернетики в целом, определяющую аспекты использования информации концепцию, согласно которой осуществляется доступ к информации
измерение информации, ее потока, "размеров" канала связи и т.п. аспекты использования данных абстрактные категории различных математических объектов
Специальные таблицы для перевода неформальных данных в цифровой вид называются:
символьные преобразователями таблицами кодировки таблицами взаимодействия таблицами шифрования
При формальном представлении информации:
каждому описываемому объекту или понятию ставится в соответствие некоторый числовой код ряду однородных объектов ставится в соответствие некий код, позволяющий индентифицировать любой объект из данных однородных объектов по этому коду совокупности объектов ставится в соответствие формальный код
В таблице кодировки ASCII+ печатные и управляющие символы занимают:
первые 128 позиций таблицы все 256 символов таблицы первые 127 позиций таблицы последние 128 позиций таблицы последние 127 позиций таблицы
период между измерениями непрерывной величины, колеблющихся разных разных фазах время, в течении которого затухают колебания исследуемой величины период между измерениями значений непрерывной величины
Чем ниже частота дискретизации, тем:
точнее происходит перевод непрерывной информации в дискретную менее точно происходит перевод непрерывной информации в дискретную эффективнее и быстрее происходит перевод непрерывной информации в дискретную
Чем выше частота дискретизации, тем:
эффективнее и быстрее происходит перевод непрерывной информации в дискретную менее точно происходит перевод непрерывной информации в дискретную точнее происходит перевод непрерывной информации в дискретную
Суть теоремы о выборках заключается в том, что:
частота дискретизации должна быть 44.1КГц для точной дискретизации ее частота должна быть не менее чем в два раза выше наибольшей частоты гармоники, входящей в дискретизируемую величину для точной дискретизации ее частота должна быть не менее чем в три раза выше наибольшей частоты гармоники, входящей в дискретизируемую величину
Бит определяет информацию:
которая может быть представлена любым целым числом в ответе на вопрос "да" или "нет" содержащуюся в 8 байтах
Устройства для преобразования непрерывной информации в дискретную называются:
универсальный преобразователь ЦАП АЦП
Устройства для преобразования дискретной информации в аналоговую называются:
ЦАП АЦП универсальный преобразователь
ЦВМ служит для:
обработки непрерывной информации определения повторных величин обработки дискретной информации
Программа для АВМ представляет собой:
программу, написанную на языках высокого уровня электрическую схему из заданного набора электронных компонент, которую нужно физически собрать
АВМ служит для:
определения повторных величин обработки дискретной информации обработки непрерывной информации
Противоположность информации:
неопределенность сущность определенность
Кодирование представляет собой:
преобразование аналоговой информации преобразование дискретной информации искусственное создание помех в канале связи при передаче информации
Информация - это:
объект, несущий в себе определенное значение материальная сущность, при помощи которой с любой точностью можно описывать любые сущности нематериальная сущность, при помощи которой с любой точностью можно описывать реальные, виртуальные и понятийные сущности
Общая схема передачи информации имеет вид:
исходная информация - шифровка - сжатие - канал связи - распаковка - дешифровка - полученная информация исходная информация - шифровка - сжатие - шумозащитное кодирование - канал связи(проявляется действие шумов) - декодирование шумозащитных кодов - распаковка - дешифровка - полученная информация исходная информация - сжатие - шумозащитное кодирование - канал связи - декодирование шумозащитных кодов - дешифровка - полученная информация исходная информация - шифровка - сжатие - шумозащитное кодирование - канал связи - декодирование шумозащитных кодов - дешифровка - распаковка - полученная информация исходная информация - сжатие - шифрование - шумозащитное кодирование - канал связи(проявляется действие шумов) - декодирование шумозащитных кодов - распаковка - дешифровка - полученная информация
Определить характер зависимости между X1 и Z, если задана дискретная случайная величина Z=(X1+1)2-X2, где независимые дискретные случайные величины X1, X2 могут с равной вероятностью принимать значение либо 0, либо 1:
Z полностью определяет X_1 и, следовательно, X_1 - это функция от Z невозможно определить характер зависимости, т.к. Z - функция от X_1 X_1 и Z - не зависимы
Определить HZ, если задана дискретная случайная величина Z=(X1+1)2-X2, где независимые дискретные случайные величины X1, X2 могут с равной вероятностью принимать значение либо 0, либо 1:
HZ = 1 бит/сим HZ = 2 бит/сим HZ = 2.5 бит/сим
Если непрерывные случайные величины X, Y заданы плотностями распределения вероятностей pX(t1), pY(t2) и pXY(t1,t2), то количество информации, содержащейся в X относительно Y равно: Если дискретные случайные величины X и Y заданы законами распределения P(X=Xi)=pi, P(Y=Yj)=qj и совместным распределением P(X=Xi,Y=Yj)=pij, то количество информации, содержащейся в X относительно Y равно:
Клод Шеннон предложил способ изменения количества информации:
средствами визуального определения путем непосредственного использования символов содержащейся в одной случайной величине, относительно другой случайной величины
Укажите свойства меры информации и энтропии:
если X константа, то HX = 0 I(X,Y) = I(Y,X) если X, Y независимы, то I(X,Y) = 0 I(X,Y) = HX + HY - H(X,Y), где I(X,Y) = 0 только если
Известно что . Для каждого i pij равно либо qj, либо 0 при условии:
Найти энтропию дискретной случайной величины X, заданной распределением
Определить HX1, если задана дискретная случайная величина Z=(X1+1)2-X_2, где независимые дискретные случайные величины X1, X_2 могут с равной вероятностью принимать значение либо 0, либо 1:
Значения дискретной случайной величины X1 и X2 определяются подбрасыванием двух идеальных монет, а дискретная случайная величина Y равна сумме количества "гербов", выпавших при подбрасывании этих монет. В Y содержится:
I(Y, X1) = 1.5 бит/сим информации об X1 I(Y, X1) = 0.5 бит/сим информации об X1 I(Y, X1) = 5.0 бит/сим информации об X1
Дискретные случайные величины X1 и X2 определяются подбрасыванием двух идеальных тетраэдров, грани которых помечены числами от 1 до 4. Дискретная случайная величина Y равна сумме чисел, выпавших при подбрасывании этих тетраэдров, т.е. Y=X1+X2. Вычислить I(X1,Y): Дискретные случайные величины X1 и X2 определяются подбрасыванием двух идеальных тетраэдров, грани которых помечены числами от 1 до 4. Дискретная случайная величина Y равна сумме чисел, выпавших при подбрасывании этих тетраэдров, т.е. Y=X1+X2. Вычислить HY:
Дискретные случайные величины X1 и X2 определяются подбрасыванием двух идеальных тетраэдров, грани которых помечены числами от 1 до 4. Вычислить HX1.
раздел кибернетики способ кодирования информации теорию информации меру уравновешенности системы
Энтропия дискретной случайной величины представляет собой:
максимум среднего количества бит, которое нужно передавать по каналу связи о текущем значении данной дискретной случайной величины минимум среднего количества бит, которое нужно передавать по каналу связи о текущем значении данной дискретной случайной величины среднее количество бит, которое нужно передавать по каналу связи о текущем значении данной дискретной случайной величины, чтобы полностью описать ее
Префиксным называется кодирование:
при котором каждый код является префиксом другого кода при котором каждый код не является префиксом другого кода при котором каждому коду соответствует определенный префикс из таблицы значений
Вычислить предложения, про которое известно, что оно достоверно на 50%, и предложения , достоверность которого 25%:
Вычислить предложения s1, про которое известно, что оно достоверно на 50%, и предложения s2, достоверность которого 25%:
Перед испытуемым человеком зажигается одна из N лампочек, которую он должен указать. Проводится большая серия испытаний, в которых каждая лампочка зажигается с определенной вероятностью pi, где i - это номер лампочки. Среднее время, необходимое для правильного ответа испытуемого, пропорционально:
Если задана функция, где s-это предложение, смысловое содержание которого измеряется, p(s) - вероятность истинности s, то:
Если задана функция, где s-это предложение, смысловое содержание которого измеряется, p(s) - вероятность истинности s, то эта функция обладает свойствами:
если - истинно, то если - истинно, то если s-истинно, то
Если задана функция, где s-это предложение, смысловое содержание которого измеряется, p(s) - вероятность истинности s, то если
Найти среднюю длину code1 для дискретной случайной величины X:
Про дискретную случайную величину X известно, что ее значениями являются буквы кириллицы. Произведен ряд последовательных измерений X, результат которых - "ТЕОРИЯИНФОРМАЦИИ". Составить на основании этого результата приблизительный закон распределения вероятностей этой дискретной случайной величины и оценить минимальную среднюю длину кодов для X:
Дискретная случайная величина X задана распределением P(X=2n)=1/2n, n=1,2,..., Найти энтропию X:
HX = 2 бит/сим HX = 1 бит/сим HX = 2.2 бит/сим
По теории Шеннона:
нельзя дать точный ответ насчет зависимости между смыслом сообщений и теории информации смысл сообщений НЕ имеет никакого отношения к теории информации смысл сообщений имеет прямое отношения к теории информации
Выбрать верные утверждения:
Цель сжатия состоит в:
увеличении количества байт, необходимых для хранения или передачи информации изменении(как в увеличении, так и в сжатии) количества бит, необходимых для хранения или передачи информации уменьшении количества бит, необходимых для хранения или передачи заданной информации
Среднее количество бит, приходящихся на одно кодируемое значение дискретной случайной величины:
не может быть меньшим, чем энтропия этой дискретной случайной величины строго равна энтропии этой дискретной случайной величины не может быть большей, чем энтропия этой дискретной случайной величины
Кодирование, основанное на основной теореме о кодировании при отсутствии помех:
практически не реализуемо легко реализуемо невозможно
Недостатками кодирования, основанного на основной теореме о кодировании при отсутствии помех, являются:
такое кодирование делает невозможным отправку сообщения по частям отправка сообщения по частям происходит очень медленно исходная длина кода не должна передаваться вместе с сообщением необходимость отправки или хранения собственно полученного кода вместе с его исходной длиной
Суть основной теоремы о кодировании при отсутствии помех заключается в том, что:
с ростом длины n сообщения, при кодировании методом Шеннона-Фэно всего сообщения целиком среднее количество бит на единицу сообщения будет очень удалено от энтропии единицы сообщения при очень малой длине n сообщения, при кодировании методом Шеннона-Фэно всего сообщения целиком среднее количество бит на единицу сообщения будет сколь угодно мало отличаться от энтропии единицы сообщения. Данное правило действует только на короткие сообщения с ростом длины n сообщения, при кодировании методом Шеннона-Фэно всего сообщения целиком среднее количество бит на единицу сообщения будет сколь угодно мало отличаться от энтропии единицы сообщения
Максимально плотно сжимает метод:
Винера Хаффмена Шеннона-Фэно
По методу Хаффмена код строится:
на основе реляционной теории посредством линейной структуры при помощи двоичного дерева
Метод Шеннона-Фэно состоит в том, что:
значения дискретной случайной величины располагают в порядке убывания их вероятностей, а затем последовательно делят на две части с приблизительно равными вероятностями, к коду первой части добавляют 0, а к коду второй - 1 значения дискретной случайной величины располагают в порядке убывания их вероятностей, а затем последовательно делят на две части с приблизительно равными вероятностями, к коду первой части добавляют 1, а к коду второй - 0 значения дискретной случайной величины располагают в порядке возрастания их вероятностей, а затем последовательно умножают на две части с приблизительно равными вероятностями, к коду первой части добавляют 0, а к коду второй – 1
Вместе с собственно сообщением нужно передавать таблицу кодов для метода:
Берга Шеннона-Фэно Винера Хаффмена
Вычислить ML(X) для кода Хаффмена для X. Дискретная случайная величина X задается следующим распределением вероятностей
Вычислить ML(X) для кода Шеннона-Фэно для X. Дискретная случайная величина X задается следующим распределением вероятностей
Вычислить ML1(X) для блочного кода Хаффмена для X. Длина блока - 2 бита:
1.7 бит/сим 1.56 бит/сим 1.3 бит/сим
Вычислить HX для кодов Хаффмена и Шеннона-Фэно для X. Дискретная случайная величина X задается следующим распределением вероятностей Преимущество арифметического кодирования позволяет:
кодировать некоторые символы менее чем одним битом кодировать некоторые символы только несколькими битами кодировать символы одним байтом
Система прерываний и исключений IA-32. Что из перечисленного является типами исключений (особых случаев)?
вентиль авария капкан ловушка нарушение (отказ) шлюз
При кодировании методом Хаффмена и на 0 и на 1 придется тратить:
максимум один бит не менее одного байта не менее одного бита
Бинарное дерево называется упорядоченным, если:
его узлы находятся на разных ярусах его узлы НЕ могут быть перечислены в порядке убывания веса его узлы могут быть перечислены в порядке неубывания веса и в этом перечне узлы, имеющие общего родителя, должны находиться рядом, на одном ярусе
Составить арифметический код для сообщения BAABC, полученного от дискретной случайной величины X со следующим распределением вероятностей P(X=A)=1/3, P(X=B)=7/15, P(X=C)=1/5:
01011111 01100001 01100111
Составить арифметический код для сообщения BAABC, полученного от дискретной случайной величины X со следующим распределением вероятностей P(X=A)=1/4, P(X=B)=1/2, P(X=C)=1/4:
010001001 010001101 010001011
Обработка исключений IA-32. Что произойдет, если страница, на которой находится IDT, в процессе подкачки будет выгружена из физической памяти?
исключение "двойное нарушение" (#8) отключение процессора при необходимости процессор сам найдет страницу с IDT в файле подкачки исключение "страничное нарушение" (#14) исключение "нарушение общей защиты" (#13)
Вычислить длины кодов Хаффмена и арифметического для сообщения AAB, полученного от дискретной случайной величины X со следующим распределением вероятностей P(X=A)=1/3, P(X=B)=2/3:
Дискретная случайная величина X может принимать три различных значения. При построении блочного кода с длиной блока 4 для X необходимо будет рассмотреть дискретную случайную величину X - выборку четырех значений X. X может иметь:
75 различных значений 27 различных значений 81 различное значение
Вычислить длины в битах сообщения "AABCDAACCCCDBB" в коде ASCII+ и его полученного кода
L(AABCDAACCCCDBB) = 62 бит, длина исходного сообщения = 112 бит L(AABCDAACCCCDBB) = 52 бит, длина исходного сообщения = 94 бит L(AABCDAACCCCDBB) = 76 бит, длина исходного сообщения = 137 бит
прерывание от блока SSE прерывание от блока мониторинга производительности IPI-прерывание от другого процессора в системе прерывание от блока FPU/MMX прерывание от блока температурного контроля
Дискретная случайная величина X может принимать три различных значения. Если считать сложность построения кода пропорциональной количеству различных значений кодируемой дискретной случайной величины, то блочный код для X по сравнению с неблочным сложнее строить в:
в 81 раз в 25 раз в 27 раз
Считая, что код генерируется дискретной случайной величиной X с распределением P(X=A)=2/3, P(X=B)=1/3 вычислить длины кодов Хаффмена, блочного Хаффмена (для блоков длины 2 и 3) для сообщения ABAAAB:
Обработка прерываний контроллером 8259А. С какой целью прерывания разделяются по приоритетам?
для удобства разработки программ обработки прерываний разработчики микропроцессоров х86 любили порядок во всем для сортировки устройств по производительности: более быстрое устройство генерирует более приоритетные прерывания для определения порядка их обработки в случае одновременного возникновения более одного прерывания приоритеты прерываний - анахронизм, полученный из архитектуры 8080
Считая, что код генерируется дискретной случайной величиной X с распределением P(X=A)=2/3, P(X=B)=1/3 вычислить длину арифметического кода для сообщения ABAAAB:
Вычислить длины в битах сообщения "СИНЯЯ СИНЕВА СИНИ" в коде ASCII+ и его полученного кода
L(СИНЯЯ СИНЕВА СИНИ) = 104 бит, длина исходного сообщения = 124 бит L(СИНЯЯ СИНЕВА СИНИ) = 114 бит, длина исходного сообщения = 136 бит L(СИНЯЯ СИНЕВА СИНИ) = 124 бит, длина исходного сообщения = 148 бит
Режимы работы подсистемы DMA и структура контроллера DMA Intel 8237A. Где хранятся младшие 16 бит адреса при реализации DMA?
в регистре текущего адреса соответствующего канала контроллера DMA в регистре команд в регистре масок в регистре базового счетчика соответствующего канала контроллера DMA в регистре базового адреса соответствующего канала контроллера DMA
Вычислить длины в битах сообщения "КИБЕРНЕТИКИ" в коде ASCII+ и его полученного кода
L(КИБЕРНЕТИКИ) = 98 бит, длина исходного сообщения = 102 бита L(КИБЕРНЕТИКИ) = 85 бит, длина исходного сообщения = 88 бит L(КИБЕРНЕТИКИ) = 72 бита, длина исходного сообщения = 75 бит
Сообщение, полученное путем сжатия адаптивным алгоритмом Хаффмена с упорядоченным деревом имеет вид: 'A'0'F'00'X'0111110101011011110100101. Определить длину несжатого сообщения в битах:
120 бит 125 бит 117 бит
Распаковать сообщение 'A'0'F'00'X'0111110101011011110100101, полученное по адаптивному алгоритму Хаффмена с упорядоченным деревом
AFXFFAXFXAXAAAF FFXAAAXFXAXFFAA AFXAFFXFXAXAFFA
Cообщение, полученное путем сжатия адаптивным алгоритмом Хаффмена с упорядоченным деревом имеет вид: 'A'0'F'00'X'0111110101011011110100101. Определить длину сжатого кода в битах:
58 бит 52 бит 62 бит
Закодировать сообщение "СИНЯЯ СИНЕВА СИНИ", используя адаптивный алгоритм Хаффмена с упорядоченным деревом:
Словарные алгоритмы преимущественно отличаются от статистических тем, что:
позволяют кодировать последовательности символов разной длины позволяют кодировать последовательности символов одинаковой длины позволяют быстрее кодировать символы
Популярность алгоритмов LZ обусловлена:
простотой при высокой эффективности сжатия сложностью в работе, но гибкими настройками неэффективным сжатием, но высокая скорость работы
Статистическими методами называют:
метод Хаффмена словарные алгоритмы алгоритм Ферма арифметическое кодирование метод Шеннона-Фэно
Алгоритм LZ77 использует "скользящее" по сообщению окно, разделенное на две части, выполняющие определенные функции:
первая, большая по размеру, включает уже просмотренную часть сообщения. Вторая, намного меньшая, является буфером, содержащим еще незакодированные символы входного потока первая включает уже просмотренную часть сообщения. Вторая является буфером, содержащим еще незакодированные символы входного потока. Первая и вторая части равны первая, большая по размеру, включает уже просмотренную часть сообщения. Вторая, намного меньшая, является буфером, содержащим уже закодированные, но еще не просмотренные символы входного потока
Алгоритм LZ77 выдает коды, состоящие из элементов:
смещение в словаре относительно его начала подстроки, совпадающей с началом содержимого буфера длина этой подстроки первый символ буфера, следующий за подстрокой
Основная идея LZ77 состоит в том, что:
второе и последующие вхождения некоторой строки символов в сообщении заменяются ссылками на ее первое вхождение первое и последующие вхождения некоторой строки символов в сообщении заменяются ссылками на примитив заменяются только четные вхождения некоторой строки символов в сообщении
Алгоритм LZSS отличается от LZ77 следующим:
производимыми кодами возможность кодирования подстрок, отстоящих друг от друга на расстоянии, большем длины словаря длина подстроки, которую можно закодировать, НЕ ограничена размером буфера скоростью работы
К недостаткам алгоритма LZ77 следует отнести:
невозможность применять алгоритм для больших объемов информации кодирование одиночных символов очень неэффективно неэффективность алгоритма в целом с ростом размеров словаря скорость работы алгоритма-кодера пропорционально замедляется
Алгоритм LZ77 выдает коды, состоящие из:
трех элементов двух элементов пяти элементов
Собственно код, выдаваемый LZSS, состоит из:
примитив символ смещение длина
Код, выдаваемый LZSS, начинается с:
однобитного префикса двубитного префикса собственно кода, без префикса
LZ77 и LZSS обладают следующими очевидными недостатками:
длина подстроки, которую можно закодировать, ограничена размером буфера длина подстроки, которую можно закодировать, ограничена размером оперативной памяти компьютера невозможность кодирования подстрок, отстоящих друг от друга на расстоянии, большем длины словаря
Закодировать сообщения "СИНЯЯ СИНЕВА СИНИ", вычислить длины в битах полученных кодов, используя алгоритм LZW (словарь - ASCII+ и 16 фраз):
длина 12 * 9 = 108 бит длина 13 * 9 = 117 бит длина 14 * 9 = 126 бит
При чрезмерном увеличении размера словаря и буфера для алгоритмов LZ77 и LZSS, то это приведет:
к увеличению эффективности кодирования к снижению эффективности кодирования к снижению стойкости кода
"Скользящее" окно НЕ использует алгоритм:
LZ77 LZ78 LZSS
Закодировать сообщения "AABCDAACCCCDBB", вычислить длины в битах полученных кодов, используя алгоритм LZ78 (словарь - 16 фраз):
длина 9 * 14 = 126 бит длина 9 * 12 = 108 бит длина 9 * 10 = 90 бит
Закодировать сообщения "AABCDAACCCCDBB", вычислить длины в битах полученных кодов, используя алгоритм LZ77 (словарь - 12 байт, буфер - 4 байта):
длина 8 * 13 = 104 бита длина 8 * 10 = 80 бит длина 8 * 15 = 120 бит
Запатентованным является алгоритм:
LZW ZSS LZ78
Закодировать сообщения "КИБЕРНЕТИКИ", вычислить длины в битах полученных кодов, используя алгоритм LZW (словарь - ASCII+ и 16 фраз):
длина 10 * 9 = 90 бит длина 3 * 7 + 7 * 9 = 84 бит длина 10 * 9 = 90 бит
Внимание ! Вопросы к тесту выложены исключительно в ознакомительных целях: количество вопросов может не совпадать с действительным, актуальность не поддерживается,- за решением теста Welcome to the cashier! Закодировать сообщения "СИНЯЯ СИНЕВА СИНИ", вычислить длины в битах полученных кодов, используя алгоритм LZ77 (словарь - 12 байт, буфер - 4 байта):
длина 9 * 13 = 117 бит длина 9 * 10 = 90 бит длина 9 * 15 = 135 бит
Закодировать сообщения "КИБЕРНЕТИКИ", вычислить длины в битах полученных кодов, используя алгоритм LZSS (словарь - 12 байт, буфер - 4 байта):
длина 3 * 7 + 7 * 9 = 84 бит длина 10 * 9 = 90 бит длина 3 * 7 + 7 * 9 = 84 бит
Сжатие с потерями используется в основном для видов данных:
полноцветная графика видеоинформация текстовая информация звук
Cжатие с потерями позволяет:
предоставить более эффективные методы сжатия данных без удаления информации добавлять некоторую часть к исходной информации отбрасывать часть исходной информации
Сжатие с потерями обычно проходит в:
два этапа три этапа четыре этапа
Основная идея сжатия графической информации с потерями заключается в том, что:
каждая точка в картинке характеризуется двумя равноважными атрибутами: яркостью и цветом каждая точка в картинке характеризуется тремя равноважными атрибутами: яркостью, цветом и насыщенностью каждая точка в картинке характеризуется одним атрибутом: цветом
Для сжатия графической информации с потерями в конце 80-х установлен стандарт:
GIF BMP JPEG WMF ICO
Сжатие видеоинформации основано на том, что:
при переходе от одного кадра фильма к другому на экране меняется значительная часть информации. Таким образом, сжатая видеоинформация представляет собой запись всех кадров при переходе от участка фильма к другому на экране обычно ничего не меняется. Таким образом, сжатая видеоинформация представляет собой запись нескольких параметров видеофайла при переходе от одного кадра фильма к другому на экране обычно почти ничего не меняется. Таким образом, сжатая видеоинформация представляет собой запись некоторых базовых кадров и последовательности изменений в них
Канал информационный представляет собой:
устройство, определяющее интервал времени от отправки сигнала передатчиком до его приема приемником устройства, просто передающие усиленным принятый сигнал совокупность устройств, объединенных линиями связи, предназначенных для передачи информации от источника информации до ее приемника
Видеоинформацию можно сжать:
очень слабо - она практически не сжимаема очень плотно, до 100 и более раз очень неплотно, всего на несколько процентов до 10000 и более раз
Стандарт LPC используется для:
распаковки графических файлов сжатия речи сжатия видеоинформации сжатия текстовой информации
Эффективность канала характеризуется:
скоростью передачи информации достоверность передачи информации надежность работы задержка сигнала во времени
Устройства канала связи представляют собой:
совокупность устройств, объединенных линиями связи, предназначенных для передачи информации от источника информации до ее приемника устройство, определяющее интервал времени от отправки сигнала передатчиком до его приема приемником устройства, просто передающие усиленным принятый сигнал
Задержка сигнала во времени представляет собой:
интервал времени от создания сигнала до его прочтения приемником и удаления интервал времени от отправки сигнала передатчиком до его приема приемником и обратной отправки к передатчику интервал времени от отправки сигнала передатчиком до его приема приемником
Простейший код для борьбы с шумом представляет собой:
условное повторение кода в целом контроль четности тройное повторение каждого бита
Простейший код, исправляющий ошибки представляет собой:
контроль четности условное повторение кода в целом тройное повторение каждого бита
По каналу связи без шума могут передаваться четыре сигнала длительностью 1 мс каждый. Вычислить емкость такого канала:
1000 бод 2000 бод 2500 бод
Передатчик задается случайной величиной со следующими законами распределениями вероятностей: P(X2=-1)=1/3, P(X2=0)=1/3, P(X_2=1)=1/3. Емкость канала связи с шумом равна 4000 бод. Вычислить максимальную скорость передачи данных по этому каналу передатчиком, обеспечивающую сколь угодно высокую надежность передачи:
≈ 2400 сим/сек ≈ 2690 сим/сек ≈ 2523 сим/сек
Передатчик задается случайной величиной со следующими законами распределениями вероятностей: P(X1=-1)=1/4, P(X1=0)=1/2, P(X1=1)=1/4. Емкость канала связи с шумом равна 4000 бод. Вычислить максимальную скорость передачи данных по этому каналу передатчиком, обеспечивающую сколь угодно высокую надежность передачи:
Передатчик задается случайной величиной со следующими законами распределениями вероятностей: P(X3=n)=2-n,\, n=1,2,... . Емкость канала связи с шумом равна 4000 бод. Вычислить максимальную скорость передачи данных по этому каналу передатчиком, обеспечивающую сколь угодно высокую надежность передачи:
≈ 2256.78 сим/сек ≈ 2000 сим/сек ≈ 1900 сим/сек
Коды с исправлением ошибок предназначены для:
выявления вероятности, близкой к единице, наличие ошибок управления ошибками в ходе отправки и получения сообщения восстановления с вероятностью, близкой к единице, посланного сообщения
Коды с обнаружением ошибок предназначены для:
восстановления с вероятностью, близкой к единице, посланного сообщения управления ошибками в ходе отправки и получения сообщения выявления вероятности, близкой к единице, наличие ошибок
Коды делятся на классы:
коды с изъятием ошибок коды с обнаружением ошибок коды с исправлением ошибок коды с управлением ошибками коды с корректированием ошибок
булевом методе проверки схеме проверки четности взаимодействии с другим кодом
Блочный код заменяет:
каждый блок из m символов более коротким блоком из n символов каждый блок из m символов более длинным блоком из n символов четный блок из m символов более длинным блоком из n символов
Расстоянием (Хэмминга) между двоичными словами длины n называется:
количество позиций, в которых эти слова различаются количество четных позиций, в которых эти слова не встречаются количество позиций, в которых эти слова совпадают
Последовательные коды характеризуются тем, что:
значение очередного контрольного символа зависит от всего предшествующего фрагмента сообщения значение очередного контрольного символа НЕ зависит от всего предшествующего фрагмента сообщения значение каждого символа зависит от части предшествующего фрагмента сообщения
Весом двоичного слова a=a1 ... a_n называется:
количество нулей в нем количество единиц в нем общее количество цифр в нем
Имеется (8,9)-код с проверкой четности. Вычислить вероятность того, что в случае ошибки этот код ее не обнаружит, если вероятность ошибки при передаче каждого бита равна 1%: Неравенством Варшамова - Гильберта называют выражение: Следующее утверждение верно:
Имеется (8,9)-код с проверкой четности. Вычислить вероятность ошибочной передачи без использования кода, если вероятность ошибки при передаче каждого бита равна 1%: Имеется (8,9)-код с проверкой четности. Вычислить вероятность того, что в случае ошибки этот код ее не обнаружит, если вероятность ошибки при передаче каждого бита равна 0.1%:
Имеется (8,9)-код с проверкой четности. Вычислить вероятность ошибочной передачи без использования кода, если вероятность ошибки при передаче каждого бита равна 0.1%:
Преимущество матричного кодирования заключается в:
определении объема полученных данных еще до начала кодирования использовании большего объема памяти по сравнению с другими методами кодирования использовании гораздо меньшего объема памяти по сравнению с другими методами кодирования
Вычислить минимальную оценку по Плоткину количества дополнительных разрядов r для кодовых слов матричного кода, если требуется, чтобы минимальное расстояние между ними было d. Рассмотреть случаи n = 32, d = 3 и n = 23, d = 7:
Вычислить минимальную и максимальную оценки количества дополнительных разрядов r для кодовых слов длины n, если требуется, чтобы минимальное расстояние между ними было d. Рассмотреть случаи n = 32, d = 3 и n = 23, d = 7:
Блочный код называется групповым, если:
он образует группу вместе с другими кодами его кодовые слова образуют группу сообщение кодируется несколькими методами последовательно
Если код является групповым, то:
наименьшее расстояние между двумя кодовыми словами равно наименьшему весу ненулевого слова наибольшее расстояние между двумя кодовыми словами меньше либо равно наибольшему весу нулевого слова наибольшее расстояние между двумя кодовыми словами равно наименьшему весу ненулевого слова
Совершенным является:
групповой (m,n)-код, исправляющий все ошибки веса групповой (m,n)-код, исправляющий все ошибки веса, не большего k, и никаких других (m,n)-код, исправляющий все ошибки веса, не меньшего k, и никаких других
Двоичный блочный (m,n)-код называется оптимальным, если:
он минимизирует вероятность ошибочного декодирования он управляет вероятностью кодирования он не изменяет вероятность ошибочного декодирования
Код Хэмминга:
не групповой код натуральный код групповой код
Свойства совершенного кода могут быть представлены в виде:
совершенный код, исправляющий все ошибки веса, не большего k, в столбцах таблицы декодирования содержит все слова, отстоящие от кодовых на расстоянии, не большем k. Верно и обратное утверждение таблица декодирования совершенного кода, исправляющего все ошибки в не более чем k позициях, имеет в качестве лидеров все строки, содержащие не более k единиц. Верно и обратное утверждение для совершенного (m,n)-кода, исправляющего все ошибки веса, не большего k, выполняется соотношение . Верно и обратное утверждение
Для кодирующей матрицы найти минимальное расстояние между словами кода:
mind = 3 mind = 4 mind = 2
Для кодирующей построить (3,4)-код:
Для кодирующей матрицы построить (2,5)-код:
Для кодирующей матрицы найти минимальное расстояние между словами кода:
mind = 1 mind = 2 mind = 3
Для кодирующей матрицы найти вероятность необнаружения ошибки:
Для кодирующей матрицы найти вероятность правильной передачи:
Pправильной передачи = p5 + 5p4q + 2p3q2 Pправильной передачи = p3 + 4p4q + 3p3q2 Pправильной передачи = p4 + 4p4q + 2p2q2
Для кодирующей матрицы найти вероятность правильной передачи:
Pправильной передачи = p2+p2q Pправильной передачи = p3+p2q Pправильной передачи = p4+p3q
Для кодирующей матрицы найти вероятность правильной передачи:
Pправильной передачи = p2+p2q Pправильной передачи = p4+p3q Pправильной передачи = p3+p2q
При полиномиальном кодировании каждое сообщение:
отождествляется с множеством представляется в виде числа отождествляется с многочленом
Принадлежат ли коду Голея кодовое слово 11000111011110010011111:
да невозможно дать точного ответа не
Принадлежат ли коду Голея кодовое слово 10000101011111010011111:
да нет невозможно дать точного ответа
Построить кодовые слова квазисовершенного (9,n)-кода, исправляющего однократные ошибки, для тех сообщений, которые соответствуют числам 55, 200 и декодировать слова 1000001000001, 1100010111100, полученные по каналу связи, использующему этот код:
Полиномиальный код с кодирующим многочленом g(x) кодирует слово сообщения a(x) многочленом:
Способ построения полиномиальных кодов, минимальное расстояние между кодовыми словами которых равно заданному числу, был открыт:
Хоккенгемом Чоудхури Боузом
Коды Рида-Соломона являются:
двоичными коды недвоичными кодами полиномными кодами
Наиболее широкое распространение получил:
(231,255)-код (102,250)-код (92,127)-код
Первый БЧХ-код, примененный на практике, был:
(92,127)-код (231,255)-код (102,250)-код
Многочлен g(x) степени k называется примитивным, если:
x2+1 делится на g(x) без остатка для j=3k-1 и не делится ни для какого меньшего значения j xj+1 делится на g(x) без остатка для j=2k-1 и не делится ни для какого меньшего значения j xj+1 НЕ делится на g(x) и делится без остатка на j
Код Голея - это:
код БЧХ не код БЧХ невозможно определить принадлежность кода Голея к коду БЧХ
Найти кодирующий многочлен БЧХ-кода g(x) с длиной кодовых слов 15 и минимальным расстоянием между кодовыми словами 7. Использовать примитивный многочлен m1(x)=1+x+x4 с корнем . Проверить, будут ли и корнями соответственно многочленов m3(x)=1+x+x2+x3+x4 и m5(x)=1+x+x2:
невозможно определить принадлежность кода Хэмминга к коду БЧХ не код БЧХ код БЧХ
Циклический избыточный код имеет:
переменную длину фиксированную длину временную длину
Для кода CRC-16 полином-генератор имеет степень:
16 32 64
Для кода CRC-32 полином-генератор имеет степень:
64 16 32
При реальной передаче или хранении информации ошибки:
распределяются равномерно по всей длине данных обычно группируются на некотором участке группируются в нескольких участках, распределенных неравномерно
Вычисление значения кода CRC происходит посредством:
деления фиксированного многочлена на многочлен, соответствующего исходному сообщению. Остаток от такого деления и есть код CRC деления многочлена, соответствующего исходному сообщению, на фиксированный многочлен. Остаток от такого деления и есть код CRC деления многочлена, соответствующего исходному сообщению, на фиксированный многочлен. Целая часть от такого деления и есть код CRC
CRC-коды способны обнаруживать:
одиночную ошибку в любой позиции и, кроме того, многочисленные комбинации кратных ошибок, расположенных близко друг от друга одиночную ошибку в любой позиции, кроме многочисленных комбинаций кратных ошибок, расположенных близко друг от друга только смежные ошибки
Построить CRC-4 код для сообщения 101111001, используя полином-генератор x4+1:
1100 1001 1111
Построить CRC-4 код для сообщения 10000000, используя полином-генератор x4+1:
1000 1011 1111
Построить CRC-4 код для сообщения 10000000, используя полином-генератор x4+1:
1101 1001 1000
Байт состоит из:
двух 4-битных полубайт или тетрад трех 2-битных полубайт двух 3-битных полубайт или триад
Шифры простой замены:
не поддаются расшифровке легко поддаются расшифровке очень сложны для расшифровки
Криптография определяет:
раздел кибернетики, в котором изучаются и разрабатываются системы изменения письма с целью сделать его более понятным раздел математики, в котором изучаются и разрабатываются системы изменения письма с целью сделать его непонятным для непосвященных лиц раздел теории информации, в котором изучаются и разрабатываются системы кодирования информации
Простейшая система шифрования основана на том, что:
происходит замена каждого знака письма на другой знак по выбранному правилу выбирается сложный алгоритм кодирования данных происходит замена целого письма одним символом
Нераскрываемый шифр характеризуется тем, что:
в качестве ключа используется строго определенная последовательность в качестве ключа используется случайная последовательность в качестве ключа используется любой файл системы
Особенностью системы с ключевым словом является:
три уровня секретности два уровня секретности один уровень секретности
Системы с ключевым словом характеризуются тем, что:
вышли из применения широко применяются до сих пор в настоящее время очень редко применяются
Зашифровать сообщение "КИБЕРНЕТИКА" ключом "ДИСК":
ПТКРХЗЩЮНФЫ ПТУРХЧЧЮНФЫ ПТУВЛЧДЮНФЯ
Проблема нераскрываемого шифра является:
стойкость шифра способ передачи ключа скорость шифрования
Между абонентами A и B установлен секретный канал связи без передачи ключей при заданных p=167 и их первых ключах 15 и 21. Описать процесс передачи сообщения 22 (от A к B):
A отправляет B 62, B возвращает 75, A окончательно отправляет 123 A отправляет B 58, B возвращает 94, A окончательно отправляет 115 A отправляет B 58, B возвращает 85, A окончательно отправляет 105
Основными достоинствами DES являются:
относительная простота алгоритма обеспечивает высокую скорость работы (как минимум, на порядок выше скорости работы алгоритма для криптосистемы с открытым ключом) используется только один ключ фиксированной длины 56 бит (в системах с открытым ключом длина ключа должна быть более 300 бит) зашифровав сообщение с помощью одной программы, для расшифровки можно использовать другую сложность алгоритма, но большая гибкость достаточно высокая стойкость алгоритма (стойкость конкретного зашифрованного сообщения зависит от выбора ключа)
Первая и наиболее известная система с открытым ключом называется:
RSA DES PGP
Между абонентами A и B установлен секретный канал связи без передачи ключей при заданных p=167 и их первых ключах 15 и 21. Описать процесс передачи сообщения 17 (от B к A):
B отправляет A 135, A возвращает 15, B окончательно отправляет 143 A отправляет B 115, B возвращает 63, A окончательно отправляет 140 A отправляет B 58, B возвращает 94, A окончательно отправляет 115
Пользователь системы RSA выбрал p1=11 и p2=47. Некоторые числа из 12, 33, 125, 513 он может выбрать для открытого ключа. Вычислить для них закрытый ключ:
Нужно послать секретные сообщения 25 и 2 для JB и 14 для CIA, используя следующие записи открытой книги паролей криптосистемы RSA - JB: 77,7; CIA: 667,15
43, 41; 256 53, 31; 295 53, 51; 247
Пользователь системы RSA, выбравший p1=17, p2=11 и a = 61, получил шифрованное сообщение m1=3. Дешифровать m1:
Алгоритм DES предназначен для шифровки:
ровно 32 бит исходных данных ровно 64 бит исходных данных более 64 бит исходных данных менее 64 бит исходных данных
Самым распространенным типом данных в компьютерном мире является:
текстовые файлы динамические библиотеки графические файлы
Компьютерный шрифт представляет собой:
обычный текст набор видеофайлов набор именованных кодами рисунков знаков
Разметка текста позволяет:
вносить в простой текст дополнительную информацию об его оформлении или структуре изменять язык текста распечатывать документ на принтере или другом устройстве вывода
При логической разметке указывается:
что нужно сделать с выбранным фрагментом текста: показать курсивным, приподнять, центрировать, сжать, подчеркнуть и т.п. структурный смысл выбранного фрагмента: примечание, начало раздела, конец подраздела, ссылка на другой фрагмент и т.п. управляющие элементы, необходимые для правильного определения документа
При физической разметке точно указывается:
управляющие элементы, необходимые для правильного определения документа что нужно сделать с выбранным фрагментом текста: показать курсивным, приподнять, центрировать, сжать, подчеркнуть и т.п. структурный смысл выбранного фрагмента: примечание, начало раздела, конец подраздела, ссылка на другой фрагмент и т.п.
Для печати документа на принтере или показе на экране используется:
язык программирования управляющий язык определения документа язык логической разметки
Большинство тегов языка HTML:
самодостаточные нуждаются в двойном закрытии парные
К самодостаточным тегам языка HTML относятся:
BR EM IMG BODY U
К парным тегам языка HTML относятся:
BR CODE I BODY IMG
Специальные символы можно ввести в документ, используя их имена, заключенные между:
@ и ; & и ! # и ; & и ; % и %
Тег IMG позволяет:
вставить графическую картинку в документ создать нижний индекс текста создать верхний индекс текста выделить текст жирным шрифтом
Атрибут ALT тега IMG используется для:
указания альтернативного текста, показываемого вместо картинки, в случае, когда файл с графикой недоступен или его тип неизвестен браузеру указания способа выравнивания картинки определения рамки картинки указания URI файла с графикой
TeX представляет собой:
редактор формул особый язык программирования текстовый процессор язык управляющей разметки
PostScript представляет собой:
программа для просмотра файлов PDF текстовый процессор управляющий язык разметки универсальный язык программирования, предоставляющий большой набор команд для работы с графикой и шрифтами
Элементы SGML делятся на категории:
описательные конструкции компонент документа в их структурной взаимосвязи - они не входят в HTML, но определяют его ссылки на данные - им соответствуют элементы разметки HTML типа & описательные маркеры - определяют структуру документа - им соответствуют элементы разметки HTML типа H1, P, A, IMG и т.п. инструкции по обработке текста
TeX популярен:
среди программистов среди обычных пользователей в среде мультимедиа в академических кругах
Преимущество формата PostScript заключается в том, что:
он независим от физических устройств воспроизведения он зависим от физических устройств воспроизведения благодаря его универсальности, он может заменять собой табличный и текстовый процессоры он легко редактируется вручную
Причины, по которым документы PostScript сравнительно редко используются в WEB-страницах:
они обладают правами доступа они весьма велики по размерам они сложны для отображения браузерами они могут содержать в себе шрифты, защищенные авторскими правами
Вы можете обратится к нам напрямую, через:
По Skype: molodoyberkut По Telegram: @MolodoyBerkut По ICQ: 657089516