Кто разбирается в информатике, разобратся с тестированием. формула, определяющая энтропию неравновероятного источника информации, называется … выберите один ответ: a. формула фано b. формула шеннона c. формула котельникова d. формула хартли вопрос 2 максимальная энтропия алфавита из 256 символов равна … выберите один ответ: a. 32 бит/символ b. 128 бит/символ c. 8 бит/символ d. 5 бит/символ вопрос 3 избыточность алфавита, если его энтропия равна 2.5 бит/символ, а объем составляет 32 символа, равна … выберите один ответ: a. 25 % b. 12,5 % c. 50 % d. 25 % вопрос 4 объем информации в сообщении из 5 символов 26-буквенного алфавита, закодированного равномерным двоичным кодом минимальной разрядности равен … выберите один ответ: a. 260 бит b. 130 бит c. 25 бит d. 50 бит вопрос 5 объем информации в сообщении из 20 символов 15-буквенного алфавита, закодированного равномерным двоичным кодом минимальной разрядности равен … выберите один ответ: a. 60 бит b. 80 бит c. 300 бит d. 30 бит вопрос 6 максимальная энтропия алфавита из 32 букв равна … выберите один ответ: a. 32 бит/символ b. 5 бит/символ c. 16 бит/символ d. 3 бит/символ вопрос 7 объем информации в сообщении из 10 символов 26-буквенного алфавита, закодированного равномерным двоичным кодом минимальной разрядности равен … выберите один ответ: a. 260 бит b. 52 бит c. 50 бит d. 26 бит вопрос 8 избыточность алфавита, если его энтропия равна 3.5 бит/символ, а объем составляет 16 символов равна … выберите один ответ: a. 12.5 % b. 0 % c. 54.1 % d. 25 % вопрос 9 объем информации, содержащейся в черно-белом телеизображении, если известно, что экран содержит 256 линий, каждая линия 512 экранных точек, а каждая точка имеет 8 градаций яркости равен … выберите один ответ: a. (512*256*8) бит b. (512*256) log28 бит c. (512*256*28) бит d. log2(512*256*8) бит вопрос 10 информация – это … выберите один ответ: a. сведения о каких либо процессах, событиях фактах или предметах. b. набор символов на языке. c. последовательность чисел неслучайного характера. d. сведения о событиях, предназначенные для передачи на расстояние. вопрос 11 энтропия алфавита из 4 букв, если все буквы встречаются в тексте одинаково часто, равна … выберите один ответ: a. 2 бит/символ b. 2.5 бит/символ c. 3 бит/символ d. 1.58 бит/символ вопрос 12 количество информации в сообщении о наступлении одного из двух равновероятных исходов равно … выберите один ответ: a. 0,5 b. 1 бит c. 1 дит d. 50% e. 1 байт вопрос 13 понятие «1 бит» ввел … выберите один ответ: a. хартли b. шеннон c. гейтс d. морзе вопрос 14 энтропия алфавита из трех букв, если вероятности их появления в тексте: p1 = 0.5; p2 = 0.25; p3 = 0.25. равна … выберите один ответ: a. 2 бит/символ b. 1.5 бит/символ c. 3 бит/символ d. 1.58 бит/символ вопрос 15 объем информации в сообщении из 10 символов 15-буквенного алфавита, закодированного равномерным двоичным кодом минимальной разрядности равен … выберите один ответ: a. 20 бит b. 80 бит c. 30 бит d. 40 бит

psvelcmytin1812 psvelcmytin1812    2   20.06.2019 09:55    167

Ответы
aselkulmagambet aselkulmagambet  13.01.2024 09:23
Добрый день! Конечно, я с удовольствием отвечу на ваши вопросы и помогу разобраться в информатике.

1. Какая формула определяет энтропию неравновероятного источника информации?
Ответ: b. Формула Шеннона.
Обоснование: Формула Шеннона используется для расчета энтропии неравновероятного источника информации. Энтропия - это мера неопределенности информации, и она определяется с использованием вероятностей появления каждого символа в источнике.

2. Что является максимальной энтропией алфавита из 256 символов?
Ответ: c. 8 бит/символ.
Обоснование: Максимальная энтропия алфавита соответствует равномерному распределению вероятностей появления символов. В данном случае, при 256 символах, минимальное количество бит, необходимых для представления каждого символа, равно 8. Это объясняется тем, что двоичная система представления имеет 2^8 (то есть 256) различных комбинаций 8-разрядных кодов.

3. Какова избыточность алфавита, если его энтропия равна 2,5 бит/символ, а объем составляет 32 символа?
Ответ: a. 25%.
Обоснование: Избыточность алфавита вычисляется как разность между максимальной энтропией и фактической энтропией. В данном случае, максимальная энтропия алфавита из 32 символов равна 5 бит/символ (логарифм по основанию 2 от 32), а фактическая энтропия равна 2,5 бит/символ. Разница между ними составляет 2,5 бит/символ. Чтобы получить процент избыточности, мы делим эту разницу на максимальную энтропию (5 бит/символ) и умножаем на 100%, что дает 50%.

4. Каков объем информации в сообщении из 5 символов 26-буквенного алфавита, закодированного равномерным двоичным кодом минимальной разрядности?
Ответ: d. 50 бит.
Обоснование: Для каждого символа в 26-буквенном алфавите нам потребуется 5 бит (логарифм по основанию 2 от 26) для его представления в равномерном двоичном коде. Таким образом, для сообщения из 5 символов нам потребуется 5 * 5 = 25 бит информации.

5. Каков объем информации в сообщении из 20 символов 15-буквенного алфавита, закодированного равномерным двоичным кодом минимальной разрядности?
Ответ: a. 60 бит.
Обоснование: Для каждого символа в 15-буквенном алфавите нам потребуется 4 бита (логарифм по основанию 2 от 15) для его представления в равномерном двоичном коде. Таким образом, для сообщения из 20 символов нам потребуется 20 * 4 = 80 бит информации.

6. Какова максимальная энтропия алфавита из 32 букв?
Ответ: c. 16 бит/символ.
Обоснование: Максимальная энтропия алфавита из 32 символов составляет 5 бит/символ (логарифм по основанию 2 от 32).

7. Каков объем информации в сообщении из 10 символов 26-буквенного алфавита, закодированного равномерным двоичным кодом минимальной разрядности?
Ответ: a. 260 бит.
Обоснование: Для каждого символа в 26-буквенном алфавите нам потребуется 5 бит (логарифм по основанию 2 от 26) для его представления в равномерном двоичном коде. Таким образом, для сообщения из 10 символов нам потребуется 10 * 5 = 50 бит информации.

8. Какова избыточность алфавита, если его энтропия равна 3,5 бит/символ, а объем составляет 16 символов?
Ответ: a. 12,5%.
Обоснование: Избыточность алфавита вычисляется также, как и в вопросе 3. В данном случае, максимальная энтропия алфавита из 16 символов равна 4 бит/символ (логарифм по основанию 2 от 16), а фактическая энтропия равна 3,5 бит/символ. Разница между ними составляет 0,5 бит/символ. Для получения процента избыточности мы делим эту разницу на максимальную энтропию (4 бит/символ) и умножаем на 100%, что дает 12,5%.

9. Каков объем информации, содержащейся в черно-белом телеизображении, если известно, что экран содержит 256 линий, каждая линия 512 экранных точек, а каждая точка имеет 8 градаций яркости?
Ответ: a. (512*256*8) бит.
Обоснование: Для каждой точки в черно-белом телеизображении нам потребуется 8 битов (1 байт) для представления ее градации яркости. Таким образом, общий объем информации в телеизображении можно рассчитать, умножив количество линий (512), количество точек на каждой линии (256) и количество битов на каждую точку (8).

10. Что такое информация?
Ответ: a. Сведения о каких-либо процессах, событиях, фактах или предметах.
Обоснование: Информация представляет собой данные или сведения, которые передают нам информацию о процессах, событиях, фактах или предметах. Она помогает нам понять и интерпретировать мир вокруг нас.

11. Какова энтропия алфавита из 4 букв, если все буквы встречаются в тексте одинаково часто?
Ответ: a. 2 бит/символ.
Обоснование: В данном случае, каждая буква встречается с равной вероятностью, что означает, что вероятность каждой буквы равна 1/4. Энтропия алфавита с равномерным распределением равна логарифму по основанию 2 от количества символов в алфавите, то есть логарифму по основанию 2 от 4, что равно 2 бит/символ.

12. Каково количество информации в сообщении об одном из двух равновероятных исходов?
Ответ: b. 1 бит.
Обоснование: Если у нас есть два равновероятных исхода, то одного из них можно представить с помощью одного бита информации. Например, 0 и 1 или Да и Нет. Для кодирования одного из этих исходов нам достаточно 1 бита.

13. Кто ввел понятие "1 бит"?
Ответ: a. Хартли.
Обоснование: Понятие "1 бит" было введено американским математиком Ральфом Хартли. Он разработал основы теории информации и предложил измерение информации с помощью "битов".

14. Какова энтропия алфавита из трех букв, если вероятности их появления в тексте следующие: p1 = 0,5; p2 = 0,25; p3 = 0,25?
Ответ: b. 1,5 бит/символ.
Обоснование: Для каждой вероятности появления символа мы вычисляем логарифм по основанию 2 и умножаем его на саму вероятность. Затем суммируем эти значения для всех символов. В данном случае, для символов с вероятностями p1 = 0,5, p2 = 0,25 и p3 = 0,25, энтропия алфавита равна (0,5 * log2(0,5)) + (0,25 * log2(0,25)) + (0,25 * log2(0,25)) = 1,5 бит/символ.

15. Каков объем информации
ПОКАЗАТЬ ОТВЕТЫ
Другие вопросы по теме Информатика