Сертификат "Основы теории информации и криптографии"
  • Сертификат "Основы теории информации и криптографии"
  • Сертификат "Основы теории информации и криптографии"
Сертификат "Основы теории информации и криптографии"
  • Сертификат "Основы теории информации и криптографии"
  • Сертификат "Основы теории информации и криптографии"

Основы теории информации и криптографии

700,00 руб.
В течение часа!
Экзамен "Основы теории информации и криптографии" для пользователей и системных администраторов.
Количество
Есть в наличии!

Форма сдачи теста: Экстерн
Количество вопросов: 30
Проходной балл: 90% и выше
Срок действия сертификата: неограничен

Сертификат появляется в профиле ресурса INTUIT, и Вы можете заказать его бумажную версию на сайте INTUIT.
12462 шт.
Внимание !
Вопросы к тесту выложены исключительно в ознакомительных целях: количество вопросов может не совпадать с действительным, актуальность не поддерживается,- за решением теста Welcome to the cashier!

Предметом исследования кибернетики являются:

строго материальные системы
только системы автоматизированного производства
системы, рассматриваемые абстрактно, вне зависимости от их материальной природы


Кибернетика - это наука:

об общих законах получения, хранения, передачи и переработки информации
об общих законах управления системами
о способах взаимодействиях различных абстрактных объектов


Основной категорией кибернетики является:

энергия
распознавание
взаимодействие
управление


Сущность принципа управления заключается в том, что:

движение и действие больших масс или передача и преобразование больших количеств энергии направляется и контролируется при помощи небольших количеств энергии, несущих информацию
движение и действие больших масс или передача и преобразование больших количеств энергии направляется и контролируется при помощи еще больших количеств энергии
движение и действие малых масс или передача и преобразование малых количеств энергии направляется и контролируется при помощи больших количеств энергии


Теория информации представляет собой:

математическую теорию, посвященную измерению информации, ее потока, "размеров" канала связи и т.п.
абстрактную категорию, необходимую для изучения кибернетики в целом, определяющую аспекты использования информации
концепцию, согласно которой осуществляется доступ к информации


Аналоговая информация характеризуется:

повторными процессами распределения случайной величины
непрерывным процессом изменения некоторой величины
последовательными точными значениями некоторой величины


Теория информации изучает:

измерение информации, ее потока, "размеров" канала связи и т.п.
аспекты использования данных
абстрактные категории различных математических объектов


Специальные таблицы для перевода неформальных данных в цифровой вид называются:

символьные преобразователями
таблицами кодировки
таблицами взаимодействия
таблицами шифрования


При формальном представлении информации:

каждому описываемому объекту или понятию ставится в соответствие некоторый числовой код
ряду однородных объектов ставится в соответствие некий код, позволяющий индентифицировать любой объект из данных однородных объектов по этому коду
совокупности объектов ставится в соответствие формальный код


В таблице кодировки ASCII+ печатные и управляющие символы занимают:

первые 128 позиций таблицы
все 256 символов таблицы
первые 127 позиций таблицы
последние 128 позиций таблицы
последние 127 позиций таблицы


Информация может быть нескольких типов:

дискретная
частотная
устойчивая
повторная
непрерывная


Частота дискретизации определяет:

период между измерениями непрерывной величины, колеблющихся разных разных фазах
время, в течении которого затухают колебания исследуемой величины
период между измерениями значений непрерывной величины


Чем ниже частота дискретизации, тем:

точнее происходит перевод непрерывной информации в дискретную
менее точно происходит перевод непрерывной информации в дискретную
эффективнее и быстрее происходит перевод непрерывной информации в дискретную


Чем выше частота дискретизации, тем:

эффективнее и быстрее происходит перевод непрерывной информации в дискретную
менее точно происходит перевод непрерывной информации в дискретную
точнее происходит перевод непрерывной информации в дискретную


Суть теоремы о выборках заключается в том, что:

частота дискретизации должна быть 44.1КГц
для точной дискретизации ее частота должна быть не менее чем в два раза выше наибольшей частоты гармоники, входящей в дискретизируемую величину
для точной дискретизации ее частота должна быть не менее чем в три раза выше наибольшей частоты гармоники, входящей в дискретизируемую величину


Бит определяет информацию:

которая может быть представлена любым целым числом
в ответе на вопрос "да" или "нет"
содержащуюся в 8 байтах


Устройства для преобразования непрерывной информации в дискретную называются:

универсальный преобразователь
ЦАП
АЦП


Устройства для преобразования дискретной информации в аналоговую называются:

ЦАП
АЦП
универсальный преобразователь


ЦВМ служит для:

обработки непрерывной информации
определения повторных величин
обработки дискретной информации


Программа для АВМ представляет собой:

программу, написанную на языках высокого уровня
электрическую схему из заданного набора электронных компонент, которую нужно физически собрать


АВМ служит для:

определения повторных величин
обработки дискретной информации
обработки непрерывной информации


Противоположность информации:

неопределенность
сущность
определенность


Кодирование представляет собой:

преобразование аналоговой информации
преобразование дискретной информации
искусственное создание помех в канале связи при передаче информации


Информация - это:

объект, несущий в себе определенное значение
материальная сущность, при помощи которой с любой точностью можно описывать любые сущности
нематериальная сущность, при помощи которой с любой точностью можно описывать реальные, виртуальные и понятийные сущности


Общая схема передачи информации имеет вид:

исходная информация - шифровка - сжатие - канал связи - распаковка - дешифровка - полученная информация
исходная информация - шифровка - сжатие - шумозащитное кодирование - канал связи(проявляется действие шумов) - декодирование шумозащитных кодов - распаковка - дешифровка - полученная информация
исходная информация - сжатие - шумозащитное кодирование - канал связи - декодирование шумозащитных кодов - дешифровка - полученная информация
исходная информация - шифровка - сжатие - шумозащитное кодирование - канал связи - декодирование шумозащитных кодов - дешифровка - распаковка - полученная информация
исходная информация - сжатие - шифрование - шумозащитное кодирование - канал связи(проявляется действие шумов) - декодирование шумозащитных кодов - распаковка - дешифровка - полученная информация


Определить характер зависимости между X1 и Z, если задана дискретная случайная величина Z=(X1+1)2-X2, где независимые дискретные случайные величины X1, X2 могут с равной вероятностью принимать значение либо 0, либо 1:

Z полностью определяет X_1 и, следовательно, X_1 - это функция от Z
невозможно определить характер зависимости, т.к. Z - функция от X_1
X_1 и Z - не зависимы


Определить HZ, если задана дискретная случайная величина Z=(X1+1)2-X2, где независимые дискретные случайные величины X1, X2 могут с равной вероятностью принимать значение либо 0, либо 1:

HZ = 1 бит/сим
HZ = 2 бит/сим
HZ = 2.5 бит/сим


Если непрерывные случайные величины X, Y заданы плотностями распределения вероятностей pX(t1), pY(t2) и pXY(t1,t2), то количество информации, содержащейся в X относительно Y равно:
 
 
Если дискретные случайные величины X и Y заданы законами распределения P(X=Xi)=pi, P(Y=Yj)=qj и совместным распределением P(X=Xi,Y=Yj)=pij, то количество информации, содержащейся в X относительно Y равно:
 
 

Клод Шеннон предложил способ изменения количества информации:

средствами визуального определения
путем непосредственного использования символов
содержащейся в одной случайной величине, относительно другой случайной величины



Укажите свойства меры информации и энтропии:

если X константа, то HX = 0
I(X,Y) = I(Y,X)
если X, Y независимы, то I(X,Y) = 0
I(X,Y) = HX + HY - H(X,Y), где 
I(X,Y) = 0 только если 


Известно что    . Для каждого i pij равно либо qj, либо 0 при условии:
 

Найти энтропию дискретной случайной величины X, заданной распределением
 

Определить HX1, если задана дискретная случайная величина Z=(X1+1)2-X_2, где независимые дискретные случайные величины X1, X_2 могут с равной вероятностью принимать значение либо 0, либо 1:

I(Z,X1) = I(X1,X1) = HX1 = 1 бит/сим
I(Z,X1) = I(X1,X1) = HX1 = 1.5 бит/сим
HX1 = 2 бит/сим


Значения дискретной случайной величины X1 и X2 определяются подбрасыванием двух идеальных монет, а дискретная случайная величина Y равна сумме количества "гербов", выпавших при подбрасывании этих монет. В Y содержится:

I(Y, X1) = 1.5 бит/сим информации об X1
I(Y, X1) = 0.5 бит/сим информации об X1
I(Y, X1) = 5.0 бит/сим информации об X1


Дискретные случайные величины X1 и X2 определяются подбрасыванием двух идеальных тетраэдров, грани которых помечены числами от 1 до 4. Дискретная случайная величина Y равна сумме чисел, выпавших при подбрасывании этих тетраэдров, т.е. Y=X1+X2. Вычислить I(X1,Y):
 
 
 
Дискретные случайные величины X1 и X2 определяются подбрасыванием двух идеальных тетраэдров, грани которых помечены числами от 1 до 4. Дискретная случайная величина Y равна сумме чисел, выпавших при подбрасывании этих тетраэдров, т.е. Y=X1+X2. Вычислить HY:
 

Дискретные случайные величины X1 и X2 определяются подбрасыванием двух идеальных тетраэдров, грани которых помечены числами от 1 до 4. Вычислить HX1.

HX1 = 1.51 \ бит/сим
HX1 = 2 \ бит/сим
HX1 = 2.5 \ бит/сим


Энтропия определяет:

раздел кибернетики
способ кодирования информации
теорию информации
меру уравновешенности системы


Энтропия дискретной случайной величины представляет собой:

максимум среднего количества бит, которое нужно передавать по каналу связи о текущем значении данной дискретной случайной величины
минимум среднего количества бит, которое нужно передавать по каналу связи о текущем значении данной дискретной случайной величины
среднее количество бит, которое нужно передавать по каналу связи о текущем значении данной дискретной случайной величины, чтобы полностью описать ее


Префиксным называется кодирование:

при котором каждый код является префиксом другого кода
при котором каждый код не является префиксом другого кода
при котором каждому коду соответствует определенный префикс из таблицы значений


Вычислить предложения, про которое известно, что оно достоверно на 50%, и предложения   , достоверность которого 25%:
 

Вычислить предложения s1, про которое известно, что оно достоверно на 50%, и предложения s2, достоверность которого 25%:
 
 
Перед испытуемым человеком зажигается одна из N лампочек, которую он должен указать. Проводится большая серия испытаний, в которых каждая лампочка зажигается с определенной вероятностью pi, где i - это номер лампочки. Среднее время, необходимое для правильного ответа испытуемого, пропорционально:


Если задана функция, где s-это предложение, смысловое содержание которого измеряется, p(s) - вероятность истинности s, то:


Если задана функция, где s-это предложение, смысловое содержание которого измеряется, p(s) - вероятность истинности s, то эта функция обладает свойствами:

если   - истинно, то 
если   - истинно, то 
если s-истинно, то 


Если задана функция, где s-это предложение, смысловое содержание которого измеряется, p(s) - вероятность истинности s, то если 
 

Найти среднюю длину code1 для дискретной случайной величины X:

ML1(X)=3 бит/сим
ML1(X)=3.5 бит/сим
ML1(X)=2.2 бит/сим

 
Найти среднюю длину code2 для дискретной случайной величины X:

ML2(X)=3 бит/сим
ML2(X)=2.2 бит/сим
ML2(X)=3.2 бит/сим

 
Найти среднюю длину code3 для дискретной случайной величины X:

ML3(X)=2.8 бит/сим
ML3(X)=3 бит/сим
ML3(X)=2.2 бит/сим


Дискретная случайная величина X равна количеству "гербов", выпавших на двух идеальных монетках. Найти энтропию X:

HX=1.8 бит/сим
HX=1.5 бит/сим
HX=2.5 бит/сим


Найти среднюю длину code4 для дискретной случайной величины X:

ML3(X)=3 бит/сим
ML4(X)=2.2 бит/сим
ML3(X)=2.8 бит/сим


Найти энтропию дискретной случайной величины X:
 
Про дискретную случайную величину X известно, что ее значениями являются буквы кириллицы. Произведен ряд последовательных измерений X, результат которых - "ТЕОРИЯИНФОРМАЦИИ". Составить на основании этого результата приблизительный закон распределения вероятностей этой дискретной случайной величины и оценить минимальную среднюю длину кодов для X:
 
 
Дискретная случайная величина X задана распределением P(X=2n)=1/2n, n=1,2,..., Найти энтропию X:

HX = 2 бит/сим
HX = 1 бит/сим
HX = 2.2 бит/сим


По теории Шеннона:

нельзя дать точный ответ насчет зависимости между смыслом сообщений и теории информации
смысл сообщений НЕ имеет никакого отношения к теории информации
смысл сообщений имеет прямое отношения к теории информации


Выбрать верные утверждения:


Цель сжатия состоит в:

увеличении количества байт, необходимых для хранения или передачи информации
изменении(как в увеличении, так и в сжатии) количества бит, необходимых для хранения или передачи информации
уменьшении количества бит, необходимых для хранения или передачи заданной информации


Среднее количество бит, приходящихся на одно кодируемое значение дискретной случайной величины:

не может быть меньшим, чем энтропия этой дискретной случайной величины
строго равна энтропии этой дискретной случайной величины
не может быть большей, чем энтропия этой дискретной случайной величины


Кодирование, основанное на основной теореме о кодировании при отсутствии помех:

практически не реализуемо
легко реализуемо
невозможно


Недостатками кодирования, основанного на основной теореме о кодировании при отсутствии помех, являются:

такое кодирование делает невозможным отправку сообщения по частям
отправка сообщения по частям происходит очень медленно
исходная длина кода не должна передаваться вместе с сообщением
необходимость отправки или хранения собственно полученного кода вместе с его исходной длиной


Суть основной теоремы о кодировании при отсутствии помех заключается в том, что:

с ростом длины n сообщения, при кодировании методом Шеннона-Фэно всего сообщения целиком среднее количество бит на единицу сообщения будет очень удалено от энтропии единицы сообщения
при очень малой длине n сообщения, при кодировании методом Шеннона-Фэно всего сообщения целиком среднее количество бит на единицу сообщения будет сколь угодно мало отличаться от энтропии единицы сообщения. Данное правило действует только на короткие сообщения
с ростом длины n сообщения, при кодировании методом Шеннона-Фэно всего сообщения целиком среднее количество бит на единицу сообщения будет сколь угодно мало отличаться от энтропии единицы сообщения


Максимально плотно сжимает метод:

Винера
Хаффмена
Шеннона-Фэно


По методу Хаффмена код строится:

на основе реляционной теории
посредством линейной структуры
при помощи двоичного дерева


Метод Шеннона-Фэно состоит в том, что:

значения дискретной случайной величины располагают в порядке убывания их вероятностей, а затем последовательно делят на две части с приблизительно равными вероятностями, к коду первой части добавляют 0, а к коду второй - 1
значения дискретной случайной величины располагают в порядке убывания их вероятностей, а затем последовательно делят на две части с приблизительно равными вероятностями, к коду первой части добавляют 1, а к коду второй - 0
значения дискретной случайной величины располагают в порядке возрастания их вероятностей, а затем последовательно умножают на две части с приблизительно равными вероятностями, к коду первой части добавляют 0, а к коду второй – 1


Вместе с собственно сообщением нужно передавать таблицу кодов для метода:

Берга
Шеннона-Фэно
Винера
Хаффмена


Вычислить ML(X) для кода Хаффмена для X. Дискретная случайная величина X задается следующим распределением вероятностей 


Вычислить ML(X) для кода Шеннона-Фэно для X. Дискретная случайная величина X задается следующим распределением вероятностей 
 

Вычислить ML1(X) для блочного кода Хаффмена для X. Длина блока - 2 бита:

1.7 бит/сим
1.56 бит/сим
1.3 бит/сим


Вычислить HX для кодов Хаффмена и Шеннона-Фэно для X. Дискретная случайная величина X задается следующим распределением вероятностей 
 
 
Преимущество арифметического кодирования позволяет:

кодировать некоторые символы менее чем одним битом
кодировать некоторые символы только несколькими битами
кодировать символы одним байтом


Система прерываний и исключений IA-32. Что из перечисленного является типами исключений (особых случаев)?

вентиль
авария
капкан
ловушка
нарушение (отказ)
шлюз


При кодировании методом Хаффмена и на 0 и на 1 придется тратить:

максимум один бит
не менее одного байта
не менее одного бита


Бинарное дерево называется упорядоченным, если:

его узлы находятся на разных ярусах
его узлы НЕ могут быть перечислены в порядке убывания веса
его узлы могут быть перечислены в порядке неубывания веса и в этом перечне узлы, имеющие общего родителя, должны находиться рядом, на одном ярусе


Составить арифметический код для сообщения BAABC, полученного от дискретной случайной величины X со следующим распределением вероятностей P(X=A)=1/3, P(X=B)=7/15, P(X=C)=1/5:

01011111
01100001
01100111


Составить арифметический код для сообщения BAABC, полученного от дискретной случайной величины X со следующим распределением вероятностей P(X=A)=1/4, P(X=B)=1/2, P(X=C)=1/4:

010001001
010001101
010001011


Обработка исключений IA-32. Что произойдет, если страница, на которой находится IDT, в процессе подкачки будет выгружена из физической памяти?

исключение "двойное нарушение" (#8)
отключение процессора
при необходимости процессор сам найдет страницу с IDT в файле подкачки
исключение "страничное нарушение" (#14)
исключение "нарушение общей защиты" (#13)


Вычислить длины кодов Хаффмена и арифметического для сообщения AAB, полученного от дискретной случайной величины X со следующим распределением вероятностей P(X=A)=1/3, P(X=B)=2/3:

LХаффмена = 3.5 бита, Lарифметический = 4.4 бита
LХаффмена = 3 бита, Lарифметический = 4 бита
LХаффмена = 4 бита, Lарифметический = 3 бита


Дискретная случайная величина X может принимать три различных значения. При построении блочного кода с длиной блока 4 для X необходимо будет рассмотреть дискретную случайную величину X - выборку четырех значений X. X может иметь:

75 различных значений
27 различных значений
81 различное значение


Вычислить длины в битах сообщения "AABCDAACCCCDBB" в коде ASCII+ и его полученного кода

L(AABCDAACCCCDBB) = 62 бит, длина исходного сообщения = 112 бит
L(AABCDAACCCCDBB) = 52 бит, длина исходного сообщения = 94 бит
L(AABCDAACCCCDBB) = 76 бит, длина исходного сообщения = 137 бит


Встроенный APIC. Какие прерывания обрабатываются встроенным APIC по схеме локальных прерываний (через LVT)?

прерывание от блока SSE
прерывание от блока мониторинга производительности
IPI-прерывание от другого процессора в системе
прерывание от блока FPU/MMX
прерывание от блока температурного контроля


Дискретная случайная величина X может принимать три различных значения. Если считать сложность построения кода пропорциональной количеству различных значений кодируемой дискретной случайной величины, то блочный код для X по сравнению с неблочным сложнее строить в:

в 81 раз
в 25 раз
в 27 раз


Считая, что код генерируется дискретной случайной величиной X с распределением P(X=A)=2/3, P(X=B)=1/3 вычислить длины кодов Хаффмена, блочного Хаффмена (для блоков длины 2 и 3) для сообщения ABAAAB:

LХаффмена-1(ABAAAB) = 6 бит, LХаффмена-2(ABAAAB) = 5 бит, LХаффмена-3(ABAAAB) = 5 бит
LХаффмена-1(ABAAAB) = 5 бит, LХаффмена-2(ABAAAB) = 6 бит, LХаффмена-3(ABAAAB) = 4 бита
LХаффмена-1(ABAAAB) = 5 бит, LХаффмена-2(ABAAAB) = 5 бит, LХаффмена-3(ABAAAB) = 6 бит


Обработка прерываний контроллером 8259А. С какой целью прерывания разделяются по приоритетам?

для удобства разработки программ обработки прерываний
разработчики микропроцессоров х86 любили порядок во всем
для сортировки устройств по производительности: более быстрое устройство генерирует более приоритетные прерывания
для определения порядка их обработки в случае одновременного возникновения более одного прерывания
приоритеты прерываний - анахронизм, полученный из архитектуры 8080


Считая, что код генерируется дискретной случайной величиной X с распределением P(X=A)=2/3, P(X=B)=1/3 вычислить длину арифметического кода для сообщения ABAAAB:

Lарифметический(ABAAAB) = 1.5 бит
Lарифметический(ABAAAB) = 2 бита
Lарифметический(ABAAAB) = 1 бит


Закодировать сообщение BBCBBC, используя адаптивный алгоритм Хаффмена с упорядоченным деревом:

'B'11'C'1001
'C'01'B'0100
'B'10'C'1101


Какое максимальное количество каналов прямого доступа к памяти (DMA) предоставляется одним контроллером DMA 8237A?

2
16
4
8
1


Закодировать сообщение "AABCDAACCCCDBB", используя адаптивный алгоритм Хаффмена с упорядоченным деревом:

код(AABCDAACCCCDBB) = 'A'10'B'00'C'011'D'00011001111100110011110
код(AABCDAACCCCDBB) = 'A'10'B'00'C'000'D'00011001111100110011001
код(AABCDAACCCCDBB) = 'A'11'B'11'C'010'D'00011001111100110000101


Закодировать сообщение "КИБЕРНЕТИКИ", используя адаптивный алгоритм Хаффмена с упорядоченным деревом:

код(КИБЕРНЕТИКИ) = 'К'0'И'00'Б'101'Е'010'Р'1 100'Н'1100001'Т'100110001
код(КИБЕРНЕТИКИ) = 'К'0'И'00'Б'100'Е'000'Р'1 100'Н'1111000'Т'100110111
код(КИБЕРНЕТИКИ) = 'К'0'И'00'Б'100'Е'000'Р'1 100'Н'1111000'Т'101010001


Вычислить длины в битах сообщения "СИНЯЯ СИНЕВА СИНИ" в коде ASCII+ и его полученного кода

L(СИНЯЯ СИНЕВА СИНИ) = 104 бит, длина исходного сообщения = 124 бит
L(СИНЯЯ СИНЕВА СИНИ) = 114 бит, длина исходного сообщения = 136 бит
L(СИНЯЯ СИНЕВА СИНИ) = 124 бит, длина исходного сообщения = 148 бит


Режимы работы подсистемы DMA и структура контроллера DMA Intel 8237A. Где хранятся младшие 16 бит адреса при реализации DMA?

в регистре текущего адреса соответствующего канала контроллера DMA
в регистре команд
в регистре масок
в регистре базового счетчика соответствующего канала контроллера DMA
в регистре базового адреса соответствующего канала контроллера DMA


Вычислить длины в битах сообщения "КИБЕРНЕТИКИ" в коде ASCII+ и его полученного кода

L(КИБЕРНЕТИКИ) = 98 бит, длина исходного сообщения = 102 бита
L(КИБЕРНЕТИКИ) = 85 бит, длина исходного сообщения = 88 бит
L(КИБЕРНЕТИКИ) = 72 бита, длина исходного сообщения = 75 бит



Сообщение, полученное путем сжатия адаптивным алгоритмом Хаффмена с упорядоченным деревом имеет вид: 'A'0'F'00'X'0111110101011011110100101. Определить длину несжатого сообщения в битах:

120 бит
125 бит
117 бит


Распаковать сообщение 'A'0'F'00'X'0111110101011011110100101, полученное по адаптивному алгоритму Хаффмена с упорядоченным деревом

AFXFFAXFXAXAAAF
FFXAAAXFXAXFFAA
AFXAFFXFXAXAFFA


Cообщение, полученное путем сжатия адаптивным алгоритмом Хаффмена с упорядоченным деревом имеет вид: 'A'0'F'00'X'0111110101011011110100101. Определить длину сжатого кода в битах:

58 бит
52 бит
62 бит


Закодировать сообщение "СИНЯЯ СИНЕВА СИНИ", используя адаптивный алгоритм Хаффмена с упорядоченным деревом:

код(СИНЯЯ СИНЕВА СИНИ) = 'С'0'И' 01'Я'100'Я'111100' '101001011100'Е'11010'В'11100'А'1010111100101010
код(СИНЯЯ СИНЕВА СИНИ) = 'С'0'И' 00'Н'100'Я'001100' '101001011100'Е'11000'В'10100'А'1010101101101111
код(СИНЯЯ СИНЕВА СИНИ) = 'С'0'И' 00'Я'101'Я'001101' '101001011100'С'11110'И'10100'И'1010111101101011


Словарные алгоритмы преимущественно отличаются от статистических тем, что:

позволяют кодировать последовательности символов разной длины
позволяют кодировать последовательности символов одинаковой длины
позволяют быстрее кодировать символы


Популярность алгоритмов LZ обусловлена:

простотой при высокой эффективности сжатия
сложностью в работе, но гибкими настройками
неэффективным сжатием, но высокая скорость работы


Статистическими методами называют:

метод Хаффмена
словарные алгоритмы
алгоритм Ферма
арифметическое кодирование
метод Шеннона-Фэно


Алгоритм LZ77 использует "скользящее" по сообщению окно, разделенное на две части, выполняющие определенные функции:

первая, большая по размеру, включает уже просмотренную часть сообщения. Вторая, намного меньшая, является буфером, содержащим еще незакодированные символы входного потока
первая включает уже просмотренную часть сообщения. Вторая является буфером, содержащим еще незакодированные символы входного потока. Первая и вторая части равны
первая, большая по размеру, включает уже просмотренную часть сообщения. Вторая, намного меньшая, является буфером, содержащим уже закодированные, но еще не просмотренные символы входного потока


Алгоритм LZ77 выдает коды, состоящие из элементов:

смещение в словаре относительно его начала подстроки, совпадающей с началом содержимого буфера
длина этой подстроки
первый символ буфера, следующий за подстрокой


Основная идея LZ77 состоит в том, что:

второе и последующие вхождения некоторой строки символов в сообщении заменяются ссылками на ее первое вхождение
первое и последующие вхождения некоторой строки символов в сообщении заменяются ссылками на примитив
заменяются только четные вхождения некоторой строки символов в сообщении


Алгоритм LZSS отличается от LZ77 следующим:

производимыми кодами
возможность кодирования подстрок, отстоящих друг от друга на расстоянии, большем длины словаря
длина подстроки, которую можно закодировать, НЕ ограничена размером буфера
скоростью работы


К недостаткам алгоритма LZ77 следует отнести:

невозможность применять алгоритм для больших объемов информации
кодирование одиночных символов очень неэффективно
неэффективность алгоритма в целом
с ростом размеров словаря скорость работы алгоритма-кодера пропорционально замедляется


Алгоритм LZ77 выдает коды, состоящие из:

трех элементов
двух элементов
пяти элементов


Собственно код, выдаваемый LZSS, состоит из:

примитив
символ
смещение
длина


Код, выдаваемый LZSS, начинается с:

однобитного префикса
двубитного префикса
собственно кода, без префикса


LZ77 и LZSS обладают следующими очевидными недостатками:

длина подстроки, которую можно закодировать, ограничена размером буфера
длина подстроки, которую можно закодировать, ограничена размером оперативной памяти компьютера
невозможность кодирования подстрок, отстоящих друг от друга на расстоянии, большем длины словаря


Закодировать сообщения "СИНЯЯ СИНЕВА СИНИ", вычислить длины в битах полученных кодов, используя алгоритм LZW (словарь - ASCII+ и 16 фраз):

длина 12 * 9 = 108 бит
длина 13 * 9 = 117 бит
длина 14 * 9 = 126 бит


При чрезмерном увеличении размера словаря и буфера для алгоритмов LZ77 и LZSS, то это приведет:

к увеличению эффективности кодирования
к снижению эффективности кодирования
к снижению стойкости кода


"Скользящее" окно НЕ использует алгоритм:

LZ77
LZ78
LZSS


Закодировать сообщения "AABCDAACCCCDBB", вычислить длины в битах полученных кодов, используя алгоритм LZ78 (словарь - 16 фраз):
 
длина 9 * 14 = 126 бит
длина 9 * 12 = 108 бит
длина 9 * 10 = 90 бит


Закодировать сообщения "AABCDAACCCCDBB", вычислить длины в битах полученных кодов, используя алгоритм LZ77 (словарь - 12 байт, буфер - 4 байта):

длина 8 * 13 = 104 бита
длина 8 * 10 = 80 бит
длина 8 * 15 = 120 бит


Запатентованным является алгоритм:

LZW
ZSS
LZ78


Закодировать сообщения "КИБЕРНЕТИКИ", вычислить длины в битах полученных кодов, используя алгоритм LZW (словарь - ASCII+ и 16 фраз):
 
длина 10 * 9 = 90 бит
длина 3 * 7 + 7 * 9 = 84 бит
длина 10 * 9 = 90 бит

Внимание !
Вопросы к тесту выложены исключительно в ознакомительных целях: количество вопросов может не совпадать с действительным, актуальность не поддерживается,- за решением теста Welcome to the cashier!

Закодировать сообщения "СИНЯЯ СИНЕВА СИНИ", вычислить длины в битах полученных кодов, используя алгоритм LZ77 (словарь - 12 байт, буфер - 4 байта):
 
длина 9 * 13 = 117 бит
длина 9 * 10 = 90 бит
длина 9 * 15 = 135 бит


Закодировать сообщения "КИБЕРНЕТИКИ", вычислить длины в битах полученных кодов, используя алгоритм LZSS (словарь - 12 байт, буфер - 4 байта):

длина 3 * 7 + 7 * 9 = 84 бит
длина 10 * 9 = 90 бит
длина 3 * 7 + 7 * 9 = 84 бит
 
 
Сжатие с потерями используется в основном для видов данных:

полноцветная графика
видеоинформация
текстовая информация
звук


Cжатие с потерями позволяет:

предоставить более эффективные методы сжатия данных без удаления информации
добавлять некоторую часть к исходной информации
отбрасывать часть исходной информации


Сжатие с потерями обычно проходит в:

два этапа
три этапа
четыре этапа


Основная идея сжатия графической информации с потерями заключается в том, что:

каждая точка в картинке характеризуется двумя равноважными атрибутами: яркостью и цветом
каждая точка в картинке характеризуется тремя равноважными атрибутами: яркостью, цветом и насыщенностью
каждая точка в картинке характеризуется одним атрибутом: цветом


Для сжатия графической информации с потерями в конце 80-х установлен стандарт:

GIF
BMP
JPEG
WMF
ICO


Сжатие видеоинформации основано на том, что:

при переходе от одного кадра фильма к другому на экране меняется значительная часть информации. Таким образом, сжатая видеоинформация представляет собой запись всех кадров
при переходе от участка фильма к другому на экране обычно ничего не меняется. Таким образом, сжатая видеоинформация представляет собой запись нескольких параметров видеофайла
при переходе от одного кадра фильма к другому на экране обычно почти ничего не меняется. Таким образом, сжатая видеоинформация представляет собой запись некоторых базовых кадров и последовательности изменений в них


Канал информационный представляет собой:

устройство, определяющее интервал времени от отправки сигнала передатчиком до его приема приемником
устройства, просто передающие усиленным принятый сигнал
совокупность устройств, объединенных линиями связи, предназначенных для передачи информации от источника информации до ее приемника


Видеоинформацию можно сжать:

очень слабо - она практически не сжимаема
очень плотно, до 100 и более раз
очень неплотно, всего на несколько процентов
до 10000 и более раз


Стандарт LPC используется для:

распаковки графических файлов
сжатия речи
сжатия видеоинформации
сжатия текстовой информации


Эффективность канала характеризуется:

скоростью передачи информации
достоверность передачи информации
надежность работы
задержка сигнала во времени


Устройства канала связи представляют собой:

совокупность устройств, объединенных линиями связи, предназначенных для передачи информации от источника информации до ее приемника
устройство, определяющее интервал времени от отправки сигнала передатчиком до его приема приемником
устройства, просто передающие усиленным принятый сигнал


Задержка сигнала во времени представляет собой:

интервал времени от создания сигнала до его прочтения приемником и удаления
интервал времени от отправки сигнала передатчиком до его приема приемником и обратной отправки к передатчику
интервал времени от отправки сигнала передатчиком до его приема приемником


Простейший код для борьбы с шумом представляет собой:

условное повторение кода в целом
контроль четности
тройное повторение каждого бита


Простейший код, исправляющий ошибки представляет собой:

контроль четности
условное повторение кода в целом
тройное повторение каждого бита


По каналу связи без шума могут передаваться четыре сигнала длительностью 1 мс каждый. Вычислить емкость такого канала:

1000 бод
2000 бод
2500 бод


Передатчик задается случайной величиной со следующими законами распределениями вероятностей: P(X2=-1)=1/3, P(X2=0)=1/3, P(X_2=1)=1/3. Емкость канала связи с шумом равна 4000 бод. Вычислить максимальную скорость передачи данных по этому каналу передатчиком, обеспечивающую сколь угодно высокую надежность передачи:

≈ 2400 сим/сек
≈ 2690 сим/сек
≈ 2523 сим/сек


Передатчик задается случайной величиной со следующими законами распределениями вероятностей: P(X1=-1)=1/4, P(X1=0)=1/2, P(X1=1)=1/4. Емкость канала связи с шумом равна 4000 бод. Вычислить максимальную скорость передачи данных по этому каналу передатчиком, обеспечивающую сколь угодно высокую надежность передачи:

8000/2 ≈ 4000 сим/сек
8000/3 ≈ 2666.67 сим/сек
8000/3.5 ≈ 2285.71 сим/сек


Передатчик задается случайной величиной со следующими законами распределениями вероятностей: P(X3=n)=2-n,\, n=1,2,... . Емкость канала связи с шумом равна 4000 бод. Вычислить максимальную скорость передачи данных по этому каналу передатчиком, обеспечивающую сколь угодно высокую надежность передачи:

≈ 2256.78 сим/сек
≈ 2000 сим/сек
≈ 1900 сим/сек


Коды с исправлением ошибок предназначены для:

выявления вероятности, близкой к единице, наличие ошибок
управления ошибками в ходе отправки и получения сообщения
восстановления с вероятностью, близкой к единице, посланного сообщения


Коды с обнаружением ошибок предназначены для:

восстановления с вероятностью, близкой к единице, посланного сообщения
управления ошибками в ходе отправки и получения сообщения
выявления вероятности, близкой к единице, наличие ошибок


Коды делятся на классы:

коды с изъятием ошибок
коды с обнаружением ошибок
коды с исправлением ошибок
коды с управлением ошибками
коды с корректированием ошибок


Древовидные коды также называют:

последовательными кодами
управляющими кодами
параллельными кодами


Простой код с обнаружением ошибок основан на:

булевом методе проверки
схеме проверки четности
взаимодействии с другим кодом


Блочный код заменяет:

каждый блок из m символов более коротким блоком из n символов
каждый блок из m символов более длинным блоком из n символов
четный блок из m символов более длинным блоком из n символов


Расстоянием (Хэмминга) между двоичными словами длины n называется:

количество позиций, в которых эти слова различаются
количество четных позиций, в которых эти слова не встречаются
количество позиций, в которых эти слова совпадают


Последовательные коды характеризуются тем, что:

значение очередного контрольного символа зависит от всего предшествующего фрагмента сообщения
значение очередного контрольного символа НЕ зависит от всего предшествующего фрагмента сообщения
значение каждого символа зависит от части предшествующего фрагмента сообщения


Весом двоичного слова a=a1 ... a_n называется:

количество нулей в нем
количество единиц в нем
общее количество цифр в нем


Имеется (8,9)-код с проверкой четности. Вычислить вероятность того, что в случае ошибки этот код ее не обнаружит, если вероятность ошибки при передаче каждого бита равна 1%:
 
 
Неравенством Варшамова - Гильберта называют выражение:
 
 
Следующее утверждение верно:


Имеется (8,9)-код с проверкой четности. Вычислить вероятность ошибочной передачи без использования кода, если вероятность ошибки при передаче каждого бита равна 1%:
 
 
Имеется (8,9)-код с проверкой четности. Вычислить вероятность того, что в случае ошибки этот код ее не обнаружит, если вероятность ошибки при передаче каждого бита равна 0.1%:


Имеется (8,9)-код с проверкой четности. Вычислить вероятность ошибочной передачи без использования кода, если вероятность ошибки при передаче каждого бита равна 0.1%:
 

Преимущество матричного кодирования заключается в:

определении объема полученных данных еще до начала кодирования
использовании большего объема памяти по сравнению с другими методами кодирования
использовании гораздо меньшего объема памяти по сравнению с другими методами кодирования


Вычислить минимальную оценку по Плоткину количества дополнительных разрядов r для кодовых слов матричного кода, если требуется, чтобы минимальное расстояние между ними было d. Рассмотреть случаи n = 32, d = 3 и n = 23, d = 7:


Вычислить минимальную и максимальную оценки количества дополнительных разрядов r для кодовых слов длины n, если требуется, чтобы минимальное расстояние между ними было d. Рассмотреть случаи n = 32, d = 3 и n = 23, d = 7:
 
 
Блочный код называется групповым, если:

он образует группу вместе с другими кодами
его кодовые слова образуют группу
сообщение кодируется несколькими методами последовательно


Если код является групповым, то:

наименьшее расстояние между двумя кодовыми словами равно наименьшему весу ненулевого слова
наибольшее расстояние между двумя кодовыми словами меньше либо равно наибольшему весу нулевого слова
наибольшее расстояние между двумя кодовыми словами равно наименьшему весу ненулевого слова


Совершенным является:

групповой (m,n)-код, исправляющий все ошибки веса
групповой (m,n)-код, исправляющий все ошибки веса, не большего k, и никаких других
(m,n)-код, исправляющий все ошибки веса, не меньшего k, и никаких других


Двоичный блочный (m,n)-код называется оптимальным, если:

он минимизирует вероятность ошибочного декодирования
он управляет вероятностью кодирования
он не изменяет вероятность ошибочного декодирования


Код Хэмминга:

не групповой код
натуральный код
групповой код


Свойства совершенного кода могут быть представлены в виде:

совершенный код, исправляющий все ошибки веса, не большего k, в столбцах таблицы декодирования содержит все слова, отстоящие от кодовых на расстоянии, не большем k. Верно и обратное утверждение
таблица декодирования совершенного кода, исправляющего все ошибки в не более чем k позициях, имеет в качестве лидеров все строки, содержащие не более k единиц. Верно и обратное утверждение
для совершенного (m,n)-кода, исправляющего все ошибки веса, не большего k, выполняется соотношение   . Верно и обратное утверждение


Для кодирующей матрицы    найти минимальное расстояние между словами кода:

mind = 3
mind = 4
mind = 2


Для кодирующей    построить (3,4)-код:


Для кодирующей матрицы    построить (2,5)-код:
 

Для кодирующей матрицы    найти минимальное расстояние между словами кода:

mind = 1
mind = 2
mind = 3


Для кодирующей матрицы найти вероятность необнаружения ошибки:

Pнеобнаружения ошибки = 2p3q3 + pq3
Pнеобнаружения ошибки = 2p2q3 + pq4
Pнеобнаружения ошибки = 4p4q3 + pq4


Для кодирующей матрицы найти вероятность необнаружения ошибки:

Pнеобнаружения ошибки = p4q + 3p2q3 + 3pq3
Pнеобнаружения ошибки = p3q2 + 4p2q2 + 3pq3
Pнеобнаружения ошибки = p3q + 3p2q2 + 3pq3


Для кодирующей матрицы найти вероятность правильной передачи:

Pправильной передачи = p5 + 5p4q + 2p3q2
Pправильной передачи = p3 + 4p4q + 3p3q2
Pправильной передачи = p4 + 4p4q + 2p2q2


Для кодирующей матрицы найти вероятность правильной передачи:

Pправильной передачи = p2+p2q
Pправильной передачи = p3+p2q
Pправильной передачи = p4+p3q



Для кодирующей матрицы найти вероятность правильной передачи:

Pправильной передачи = p2+p2q
Pправильной передачи = p4+p3q
Pправильной передачи = p3+p2q


При полиномиальном кодировании каждое сообщение:

отождествляется с множеством
представляется в виде числа
отождествляется с многочленом


Принадлежат ли коду Голея кодовое слово 11000111011110010011111:

да
невозможно дать точного ответа
не


Принадлежат ли коду Голея кодовое слово 10000101011111010011111:

да
нет
невозможно дать точного ответа


Построить кодовые слова квазисовершенного (9,n)-кода, исправляющего однократные ошибки, для тех сообщений, которые соответствуют числам 55, 200 и декодировать слова 1000001000001, 1100010111100, полученные по каналу связи, использующему этот код:
 

Полиномиальный код с кодирующим многочленом g(x) кодирует слово сообщения a(x) многочленом:

b(x)=a(x)g(x)=b0+b1x+ ... +bnxn
b(x)=a(x)g(x)=b0+b1x+ ... +bn-1xn-1
b(x)=a(x)g(x)=b0+b1x+ ... +bn+1xn+1


Способ построения полиномиальных кодов, минимальное расстояние между кодовыми словами которых равно заданному числу, был открыт:

Хоккенгемом
Чоудхури
Боузом



Коды Рида-Соломона являются:

двоичными коды
недвоичными кодами
полиномными кодами


Наиболее широкое распространение получил:

(231,255)-код
(102,250)-код
(92,127)-код


Первый БЧХ-код, примененный на практике, был:

(92,127)-код
(231,255)-код
(102,250)-код


Многочлен g(x) степени k называется примитивным, если:

x2+1 делится на g(x) без остатка для j=3k-1 и не делится ни для какого меньшего значения j
xj+1 делится на g(x) без остатка для j=2k-1 и не делится ни для какого меньшего значения j
xj+1 НЕ делится на g(x) и делится без остатка на j


Код Голея - это:

код БЧХ
не код БЧХ
невозможно определить принадлежность кода Голея к коду БЧХ


Найти кодирующий многочлен БЧХ-кода g(x) с длиной кодовых слов 15 и минимальным расстоянием между кодовыми словами 7. Использовать примитивный многочлен m1(x)=1+x+x4 с корнем   . Проверить, будут ли    и    корнями соответственно многочленов m3(x)=1+x+x2+x3+x4 и m5(x)=1+x+x2:

g(x) = 1 + x + x2 + x4 + x5 + x8 + x10
g(x) = 1 + x + x3 + x4 + x6 + x9 + x10
g(x) = 1 + x + x3 + x5 + x7 + x9


Коды Хэмминга являются:

невозможно определить принадлежность кода Хэмминга к коду БЧХ
не код БЧХ
код БЧХ


Циклический избыточный код имеет:

переменную длину
фиксированную длину
временную длину


Для кода CRC-16 полином-генератор имеет степень:

16
32
64


Для кода CRC-32 полином-генератор имеет степень:

64
16
32


При реальной передаче или хранении информации ошибки:

распределяются равномерно по всей длине данных
обычно группируются на некотором участке
группируются в нескольких участках, распределенных неравномерно


Вычисление значения кода CRC происходит посредством:

деления фиксированного многочлена на многочлен, соответствующего исходному сообщению. Остаток от такого деления и есть код CRC
деления многочлена, соответствующего исходному сообщению, на фиксированный многочлен. Остаток от такого деления и есть код CRC
деления многочлена, соответствующего исходному сообщению, на фиксированный многочлен. Целая часть от такого деления и есть код CRC


CRC-коды способны обнаруживать:

одиночную ошибку в любой позиции и, кроме того, многочисленные комбинации кратных ошибок, расположенных близко друг от друга
одиночную ошибку в любой позиции, кроме многочисленных комбинаций кратных ошибок, расположенных близко друг от друга
только смежные ошибки


Построить CRC-4 код для сообщения 101111001, используя полином-генератор x4+1:

1100
1001
1111


Построить CRC-4 код для сообщения 10000000, используя полином-генератор x4+1:

1000
1011
1111


Построить CRC-4 код для сообщения 10000000, используя полином-генератор x4+1:

1101
1001
1000


Байт состоит из:

двух 4-битных полубайт или тетрад
трех 2-битных полубайт
двух 3-битных полубайт или триад


Шифры простой замены:

не поддаются расшифровке
легко поддаются расшифровке
очень сложны для расшифровки


Криптография определяет:

раздел кибернетики, в котором изучаются и разрабатываются системы изменения письма с целью сделать его более понятным
раздел математики, в котором изучаются и разрабатываются системы изменения письма с целью сделать его непонятным для непосвященных лиц
раздел теории информации, в котором изучаются и разрабатываются системы кодирования информации


Простейшая система шифрования основана на том, что:

происходит замена каждого знака письма на другой знак по выбранному правилу
выбирается сложный алгоритм кодирования данных
происходит замена целого письма одним символом


Нераскрываемый шифр характеризуется тем, что:

в качестве ключа используется строго определенная последовательность
в качестве ключа используется случайная последовательность
в качестве ключа используется любой файл системы


Особенностью системы с ключевым словом является:

три уровня секретности
два уровня секретности
один уровень секретности


Системы с ключевым словом характеризуются тем, что:

вышли из применения
широко применяются до сих пор
в настоящее время очень редко применяются


Зашифровать сообщение "КИБЕРНЕТИКА" ключом "ДИСК":

ПТКРХЗЩЮНФЫ
ПТУРХЧЧЮНФЫ
ПТУВЛЧДЮНФЯ


Проблема нераскрываемого шифра является:

стойкость шифра
способ передачи ключа
скорость шифрования


Между абонентами A и B установлен секретный канал связи без передачи ключей при заданных p=167 и их первых ключах 15 и 21. Описать процесс передачи сообщения 22 (от A к B):

A отправляет B 62, B возвращает 75, A окончательно отправляет 123
A отправляет B 58, B возвращает 94, A окончательно отправляет 115
A отправляет B 58, B возвращает 85, A окончательно отправляет 105


Основными достоинствами DES являются:

относительная простота алгоритма обеспечивает высокую скорость работы (как минимум, на порядок выше скорости работы алгоритма для криптосистемы с открытым ключом)
используется только один ключ фиксированной длины 56 бит (в системах с открытым ключом длина ключа должна быть более 300 бит)
зашифровав сообщение с помощью одной программы, для расшифровки можно использовать другую
сложность алгоритма, но большая гибкость
достаточно высокая стойкость алгоритма (стойкость конкретного зашифрованного сообщения зависит от выбора ключа)


Первая и наиболее известная система с открытым ключом называется:

RSA
DES
PGP


Между абонентами A и B установлен секретный канал связи без передачи ключей при заданных p=167 и их первых ключах 15 и 21. Описать процесс передачи сообщения 17 (от B к A):

B отправляет A 135, A возвращает 15, B окончательно отправляет 143
A отправляет B 115, B возвращает 63, A окончательно отправляет 140
A отправляет B 58, B возвращает 94, A окончательно отправляет 115


Пользователь системы RSA выбрал p1=11 и p2=47. Некоторые числа из 12, 33, 125, 513 он может выбрать для открытого ключа. Вычислить для них закрытый ключ:
 

Нужно послать секретные сообщения 25 и 2 для JB и 14 для CIA, используя следующие записи открытой книги паролей криптосистемы RSA - JB: 77,7; CIA: 667,15

43, 41; 256
53, 31; 295
53, 51; 247


Пользователь системы RSA, выбравший p1=17, p2=11 и a = 61, получил шифрованное сообщение m1=3. Дешифровать m1:
 

Алгоритм DES предназначен для шифровки:

ровно 32 бит исходных данных
ровно 64 бит исходных данных
более 64 бит исходных данных
менее 64 бит исходных данных


Самым распространенным типом данных в компьютерном мире является:

текстовые файлы
динамические библиотеки
графические файлы


Компьютерный шрифт представляет собой:

обычный текст
набор видеофайлов
набор именованных кодами рисунков знаков


Разметка текста позволяет:

вносить в простой текст дополнительную информацию об его оформлении или структуре
изменять язык текста
распечатывать документ на принтере или другом устройстве вывода


При логической разметке указывается:

что нужно сделать с выбранным фрагментом текста: показать курсивным, приподнять, центрировать, сжать, подчеркнуть и т.п.
структурный смысл выбранного фрагмента: примечание, начало раздела, конец подраздела, ссылка на другой фрагмент и т.п.
управляющие элементы, необходимые для правильного определения документа


При физической разметке точно указывается:

управляющие элементы, необходимые для правильного определения документа
что нужно сделать с выбранным фрагментом текста: показать курсивным, приподнять, центрировать, сжать, подчеркнуть и т.п.
структурный смысл выбранного фрагмента: примечание, начало раздела, конец подраздела, ссылка на другой фрагмент и т.п.


Для печати документа на принтере или показе на экране используется:

логическая разметка
физическая разметка
управляющая разметка


Различают виды разметок текста:

арифметическая
логическая
управляющая
физическая
внешняя


World Wide Web базируется на стандартах:

HTML
URI
HTTP
TeX
PDF


Основными форматами текста с разметкой являются:

HTML
TeX
XLS
PDF
DOC


HTML представляет собой:

язык программирования
управляющий язык определения документа
язык логической разметки


Большинство тегов языка HTML:

самодостаточные
нуждаются в двойном закрытии
парные


К самодостаточным тегам языка HTML относятся:

BR
EM
IMG
BODY
U


К парным тегам языка HTML относятся:

BR
CODE
I
BODY
IMG


Специальные символы можно ввести в документ, используя их имена, заключенные между:

@ и ;
& и !
# и ;
& и ;
% и %


Тег IMG позволяет:

вставить графическую картинку в документ
создать нижний индекс текста
создать верхний индекс текста
выделить текст жирным шрифтом


Атрибут ALT тега IMG используется для:

указания альтернативного текста, показываемого вместо картинки, в случае, когда файл с графикой недоступен или его тип неизвестен браузеру
указания способа выравнивания картинки
определения рамки картинки
указания URI файла с графикой


TeX представляет собой:

редактор формул
особый язык программирования
текстовый процессор
язык управляющей разметки


PostScript представляет собой:

программа для просмотра файлов PDF
текстовый процессор
управляющий язык разметки
универсальный язык программирования, предоставляющий большой набор команд для работы с графикой и шрифтами


Элементы SGML делятся на категории:

описательные конструкции компонент документа в их структурной взаимосвязи - они не входят в HTML, но определяют его
ссылки на данные - им соответствуют элементы разметки HTML типа &
описательные маркеры - определяют структуру документа - им соответствуют элементы разметки HTML типа H1, P, A, IMG и т.п.
инструкции по обработке текста


TeX популярен:

среди программистов
среди обычных пользователей
в среде мультимедиа
в академических кругах


Преимущество формата PostScript заключается в том, что:

он независим от физических устройств воспроизведения
он зависим от физических устройств воспроизведения
благодаря его универсальности, он может заменять собой табличный и текстовый процессоры
он легко редактируется вручную


Причины, по которым документы PostScript сравнительно редко используются в WEB-страницах:

они обладают правами доступа
они весьма велики по размерам
они сложны для отображения браузерами
они могут содержать в себе шрифты, защищенные авторскими правами

Вы можете обратится к нам напрямую, через:

skype По Skype: molodoyberkut
telegram По Telegram: @MolodoyBerkut
icq По ICQ: 657089516

Или через форму обратной связи на нашем сайте
Пока сочиняется...
4.png