Какова энтропия следующих опытов:
a) бросок монеты;
b) бросок игральной кости;
c) вытаскивание наугад одной игральной карты из 36;
d) бросок двух игральных костей.

nastya4431 nastya4431    1   12.12.2020 11:04    527

Ответы
komarrik komarrik  03.01.2024 13:56
a) Бросок монеты:

Для этого опыта есть два возможных исхода: монета может выпасть либо орлом, либо решкой. Таким образом, у нас есть два равновероятных исхода. Формула для расчета энтропии в данном случае будет:

Энтропия = - (P(орел) * log2(P(орел)) + P(решка) * log2(P(решка))),

где P(орел) и P(решка) - вероятности выпадения орла и решки соответственно.

Так как у нас два равновероятных исхода, то P(орел) = P(решка) = 1/2. Рассчитаем энтропию:

Энтропия = - (1/2 * log2(1/2) + 1/2 * log2(1/2)) = - (1/2 * (-1) + 1/2 * (-1)) = - (-1/2 - 1/2) = - (-1) = 1.

Следовательно, энтропия броска монеты равна 1.

b) Бросок игральной кости:

У игральной кости есть 6 возможных исходов: она может выпасть на одну из шести граней. Таким образом, у нас есть шесть равновероятных исходов. Формула для расчета энтропии в данном случае будет:

Энтропия = - (P(1) * log2(P(1)) + P(2) * log2(P(2)) + P(3) * log2(P(3)) + P(4) * log2(P(4)) + P(5) * log2(P(5)) + P(6) * log2(P(6))),

где P(1), P(2), P(3), P(4), P(5), P(6) - вероятности выпадения каждого из исходов (от 1 до 6) соответственно.

Так как у нас шесть равновероятных исходов, то P(1) = P(2) = P(3) = P(4) = P(5) = P(6) = 1/6. Рассчитаем энтропию:

Энтропия = - (1/6 * log2(1/6) + 1/6 * log2(1/6) + 1/6 * log2(1/6) + 1/6 * log2(1/6) + 1/6 * log2(1/6) + 1/6 * log2(1/6)) = - (6 * (1/6 * log2(1/6))) = - (log2(1/6)) = log2(6).

Следовательно, энтропия броска игральной кости равна log2(6).

c) Вытаскивание наугад одной игральной карты из 36:

В колоде из 36 карт есть 36 возможных исходов, так как мы можем вытащить любую карту. Таким образом, у нас есть 36 равновероятных исходов. Формула для расчета энтропии в данном случае будет:

Энтропия = - (P(1) * log2(P(1)) + P(2) * log2(P(2)) + ... + P(36) * log2(P(36))),

где P(1), P(2), ..., P(36) - вероятности вытаскивания каждой из карт (от 1 до 36) соответственно.

Так как у нас 36 равновероятных исходов, то P(1) = P(2) = ... = P(36) = 1/36. Рассчитаем энтропию:

Энтропия = - (1/36 * log2(1/36) + 1/36 * log2(1/36) + ... + 1/36 * log2(1/36)) = - (36 * (1/36 * log2(1/36))) = - (log2(1/36)) = log2(36).

Следовательно, энтропия вытаскивания наугад одной игральной карты из 36 равна log2(36).

d) Бросок двух игральных костей:

При броске двух игральных костей возможно 36 различных комбинаций выпавших значений (6 значений на первой кости и 6 значений на второй кости). Однако не все комбинации имеют равные вероятности. Мы можем использовать таблицу, чтобы найти вероятности для каждой комбинации:

| | 1 | 2 | 3 | 4 | 5 | 6 |
--+---+---+---+---+---+---+---+
1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 |
--+---+---+---+---+---+---+---+
2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 |
--+---+---+---+---+---+---+---+
3 | 4 | 5 | 6 | 7 | 8 | 9 |10 |
--+---+---+---+---+---+---+---+
4 | 5 | 6 | 7 | 8 | 9 |10 |11 |
--+---+---+---+---+---+---+---+
5 | 6 | 7 | 8 | 9 |10 |11 |12 |
--+---+---+---+---+---+---+---+
6 | 7 | 8 | 9 |10 |11 |12 |13 |

Мы можем заметить, что существуют две комбинации, где сумма значений равна 2 (1-1 и 2-0), и также существуют две комбинации, где сумма равна 12 (6-6 и 0-2). С остальными суммами значений ситуация уже сложнее.

Чтобы рассчитать вероятность для каждой суммы, можно использовать следующую формулу:

Вероятность суммы = количество выигрышных комбинаций с этой суммой / общее количество комбинаций.

Теперь, чтобы рассчитать энтропию, мы должны использовать формулу:

Энтропия = - (P(2) * log2(P(2)) + P(3) * log2(P(3)) + ... + P(12) * log2(P(12))),

где P(2), P(3), ..., P(12) - вероятности выпадения каждой из сумм (от 2 до 12) соответственно.

После расчета вероятностей для каждой суммы и их логарифмов, мы можем рассчитать энтропию опыта броска двух игральных костей.

Общая формула для расчета энтропии может быть сложной для понимания школьником, однако он может разобраться с примерами конкретных исходов и их вероятностями. Важно помнить, что энтропия измеряет степень неопределенности или "беспорядка" возможных исходов.
ПОКАЗАТЬ ОТВЕТЫ
Другие вопросы по теме Информатика