<<
>>

Приложение 1 Концептуальная формализация базовых элементов информационных правоотношений в инфосфере

1.

2. Меры количества информации

Мера Хартли. Согласно апостериорному подходу[152] Р. Хартли (1928 г.) количество информации об объекте (ситуации S) равно разности априорной и апостериорной энтропий, характеризующих неопределенности ситуации до и после получения некоторых сведений D:

I Hapr Haps,

где Hapr = H(S) — значение априорной энтропии ситуации S;

Haps= H(S|D) — значение апостериорной условной энтропии ситуации S при условии получения некоторых сведений D;

H = Iog2N, N — количество возможных вариантов (исходов).

Пример 1. При бросании игральной кости — шестигранного кубика (N = 6) априорная безусловная энтропия Hapr = H(S) (неопределенность) ситуации S будет равна:

Hapr = H(S) = Iog2N = log26.

Апостериорная условная энтропия Haps= H(S|D) (неопределённость) ситуации S при условии получения сведения D о конкретной выпавшей грани кубика будет равна:

Haps= H(SID) = Iog2N = Iog2I = 0 (т.е.

апостериорная неопределённость отсутствует).

Тогда количество информации, полученное в результате эксперимента:

I = Hapr — Haps = log26 — log21 = 2,6 — 0 ~ 2,6 двед[153] или бит[154].

Пример 2. При представлении некоторых сведений D (из определённого источника) о местонахождении шахматной фигуры в верхней правой части (примерно 16 клеток) шахматной доски (всего 64 клетки) полученное количество информации можно рассчитать следующим образом:

I = Hapr — Haps = log264 — log216 = 6 — 4 = 2 двед или бит.

То есть исходная неопределенность ситуации S уменьшилась, но не до нуля.

В случае если сведения D содержат точное местоположение шахматной фигуры, например, в верхнем правом углу, то полученное количество информации будет равно:

I = Hapr - Haps = log264 - Iog2I = 6 - 0 = 6 двед или бит.

Мера Шеннона. Мера Р. Хартли является частным случаем (при наличии равновероятных исходов N, т.е. при p, = HN) широко используемой меры К. Шеннона (1948 г.), учитывающей вероятностиp,, i = 1, Nисходов N:

N

H = - S p,*log2pІ,

i=1

где E — знак суммы сомножителейp,xlog2p,, i = 1, ..., N.

Данная мера более показательна, так как учитывает различие между характером имеющихся исходов N с помощью использования понятия вероятности pi, имеющего чисто статистический характер.

Единица измерения количества информации Шеннона. Для введения единицы измерения «1 бит» (двед) К. Шеннон ввёл понятие «двоичного канала связи»: передаются значения 0 или 1, принимаются также 0 или 1, но из- за возможных канальных помех приём не однозначно соответствует передаче (см. рисунок).

0

1

«Двоичный канал связи» К. Шеннона

Тогда возможно дать следующее определение: 1 бит (двед) — это единица измерения количества информации, содержащейся в сообщении, выраженном одним из двух равновероятных взаимоисключающих (альтернативных) состояний. [155]

• симметричная криптография с закрытым (секретным) ключом (50-е гг.

XX в. — 70-е гг. XX в.);

• асимметричная криптография с открытыми (публичными) ключами (70-е

гг. XX в. — н/вр.).

Начало первого периода связано с применением так называемого «шифра Цезаря», суть которого состояла в том, что в зашифрованных сообщениях императора каждая буква X латинского алфавита (26 букв и пробел) заменялась на третью букву справа по формуле шифра (см. табл. П1.1):

Y = (X + 3)mod27,

где mod27 — операция нелинейного (циклического) вычитания по модулю 27 (чтобы буквы в зашифрованном сообщении тоже соответствовали латинскому алфавиту).

Таблица П1.1

Латинская алфавитно-ци(

іровая матрица

A B C D E F G H I J K L M N
1 2 3 4 5 6 7 8 9 10 11 12 13 14

O P Q R S T U V W X Y Z
15 16 17 18 19 20 21 22 23 24 25 26 27

Пример. Для передачи условного сообщения с текстом: ”Game is over” в уме выполняются следующие операции побуквенного сложения и вычитания по mod27 (см. табл. П1.2):

Таблица П1.2

Шифрование сообщения по методу Цезаря

G A M E _ I S _ O V E R
7+3 1+3 13+3 5+3 (27+3)mod27 9+3 19+3 (27+3)mod27 15+3 22+3 5+3 18+3
J D P H C L V C R Y H U

В результате получается зашифрованное сообщение, содержащее текст: ”Jdphclvcryhu”, которое расшифровывается в обратном порядке.

Поскольку все языки имеют ярко выраженное частное распределение (например, после пробела в латинском языке чаще всего используется буква E), то текст, зашифрованный таким образом, легко (при условии его достаточной «длины») расшифровать на основе его частотного анализа и замены букв (например, C на пробел, H на E и др.), как, например, это сделал герой рассказа

О’Генри «Золотой жук», заменяя в пиратской криптопиктограмме на буквы английского языка знаки в виде пляшущих человечков в зависимости от частоты их использования.

Все дальнейшие усовершенствования данного «шифра Цезаря» (путём введения в формулу шифра десятичных при X коэффициентов или замены коэффициента сдвига, равного 3, на другие значения[156]; замены буквы X не на одну, а на несколько букв для «выравнивания» частотного распределения и др.) не намного повысили криптостойкость данного типа шифров.

Второй исторический период криптографии связан с именем американского учёного К. Шеннона и характеризуется использованием так называемых «труднообратимых» функций, т.е. нелинейных. Например, функций возведения в m-ю степень численного номера каждой буквы сообщения (Y = XmodN). Не зная значения m (ключ), криптоаналитику приходилось путём последовательного трудоёмкого перебора извлекать корни различных степеней из чисел перехваченного зашифрованного сообщения (X = VkY modN, к = 2, 3, 4,...).

В этот период возникла организационно-правовая проблема тайного распределения множества M = n(n — 1) «симметричных» секретных ключей между n абонентами практически полносвязных (по принципу «каждый с каждым») развивающихся информационных сетей. Для решения этой проблемы американскими инженерами Диффи и Хеллманом была предложена современная система математически связанной пары «асимметричных» ключей абонента, один из которых K — открытый (объявляется всем абонентам и может передаваться по открытым информационным каналам), а другой K*- тайный, хранимый абонентом в секрете.

Третий современный этап — это, главным образом, этап асимметричной криптографии, при которой необходимое количество ключей абонентов полносвязной (или любой другой) сети равно 2n, что намного меньше n(n — 1).

При этом и на передающей, и на приёмной сторонах используется однотипная операция возведения в степень в модульной арифметике, причём на передающей стороне степень является значением открытого ключа K абонен- та-получателя, а на приёмной — значением его закрытого ключа K*:

Y = X K mod N, X= YK* mod N.

<< | >>
Источник: Ловцов Д.А.. Информационное право: Учеб. пособие. — М.: РАП,2011. — 228 с.. 2011

Еще по теме Приложение 1 Концептуальная формализация базовых элементов информационных правоотношений в инфосфере:

  1. Приложение 3 Концептуальные вопросы совершенствования изучения информационных правоотношений в инфосфере
  2. Продуктивная классификация информационных правоотношений в инфосфере и декомпозиция предмета информационного права
  3. Субъектно-объектный состав информационных правоотношений в инфосфере
  4. Глава 2. ОБЪЕКТЫ ИНФОРМАЦИОННЫХ ПРАВООТНОШЕНИЙ В ИНФОСФЕРЕ
  5. Глава 4. КОНЦЕПЦИИ И ПРОБЛЕМЫ СОВЕРШЕНСТВОВАНИЯ ИНФОРМАЦИОННЫХ ПРАВООТНОШЕНИЙ В ИНФОСФЕРЕ
  6. Логическая классификация информационных отношений в инфосфере и направления обеспечения информационной безопасности
  7. Архитектура инфосферы и классификация информационных технологий
  8. Глава 3. ПРАВОВОЕ РЕГУЛИРОВАНИЕ ИНФОРМАЦИОННЫХ ОТНОШЕНИЙ В ИНФОСФЕРЕ
  9. 1.3. Базовые элементы финансовой системы и их финансово-правовое регулирование
  10. Состав (элементы) правоотношения
  11. 8. Элементы структуры гражданского правоотношения
  12. § 5. Иностранный элемент в инвестиционных правоотношениях
  13. 11.1. ПОНЯТИЕ ПРАВООТНОШЕНИЯ, ЕГО ОСНОВНЫЕ ПРИЗНАКИ И ЭЛЕМЕНТЫ
  14. Глава 2 ИНВЕСТИЦИОННЫЕ ПРАВООТНОШЕНИЯ, ОСЛОЖНЁННЫЕ ИНОСТРАННЫМ ЭЛЕМЕНТОМ
  15. Систематизация информационных правоотношений в области средств массовой информации
  16. § 3. Преимущественные права как элементы содержания корпоративных правоотношений