1. Информация. Меры Хартли, Шеннона. 3 Знания и эв - davaiknam.ru o_O
Главная
Поиск по ключевым словам:
Похожие работы
Название работы Кол-во страниц Размер
Меры времени. Год 1 55.71kb.
Теория информации Шеннона. Вероятностный подход к определению количества... 1 52.44kb.
Информация о ходе реализации районной целевой программы 1 54.05kb.
Количество информации, которое вмещает один символ n-элементного... 1 88.66kb.
Оптимальная дискретизация двумерных радиоизображений Солнца на основе... 1 82.93kb.
Ядерный контроль: информация выпуск # 25, 2005 17 августа – 24 августа 2 594.98kb.
Современные симметричные криптосистемы 1 213.72kb.
Ответ по формуле Хартли N=2 1 26.66kb.
Задача Количество информации по Хартли рассчитывается по формуле... 2 275.35kb.
Инструкция по заземлению Помехи Важные меры безопасности Принципы... 1 90.81kb.
Новые знания о человеке. Открытие деятельности нервной системы. 1 101.66kb.
Хорошо это или плохо? 8 520.77kb.
Направления изучения представлений о справедливости 1 202.17kb.

1. Информация. Меры Хартли, Шеннона. 3 Знания и эв - страница №1/25


1.Информация. Меры Хартли, Шеннона. 3

2.Знания и ЭВМ. 4

3.Критерий, положенный в основу эволюционной классификации ЭВМ. 7

4.Основоположники отечественной вычислительной техники. 8

5.Принципы фон-Нейманновской архитектуры ЭВМ. 8

6.Конвейерная обработка данных. 9

7.Зацепление конвейеров. 9

8.Векторно-конвейерные вычислители. 9

9.CISC и RISC архитектуры ЭВМ. 10

10.Внеочередное и спекулятивное выполнения команд. 10

11.Механизмы предсказания переходов. 10

12.Управление виртуальной памятью. 11

13.Ассоциативная память. 11

14.Назначение и структура кэш-памяти. 12

15.Полностью ассоциативная кэш-память. 13

16.Кэш-память с прямым отображением. 13

17.Частично ассоциативная кэш-память. 14

18.Дисциплина обновления кэш-памяти. 14

19.Стратегии записи в кэш-память. 15

20.Расслоение памяти. 15

21.Принципы VLIW архитектуры. 15

22.Суперскалярные и мультитредовые архитектуры микропроцессоров. 16

23.Стандарт IA-64. 17

24.Оптимизация программ под архитектуру микропроцессора. 18

25.Гетерогенные распределенные вычислительные системы. 18

18


26.Метакомпъютинг. 18

27.Кластерные архитектуры. 19

28.Симметричные мультипроцессорные системы. 19

29.Матричные мультипроцессорные системы. 20

30.Классификации вычислителей по Флинну. 20

31.Масштабируемость мультипроцессорных вычислителей. 21

32.Управление памятью в мультипроцессорных системах. 21

33.Когерентность данных. 21

34.Типы внутренних связей. 21

35.Статические и динамические коммуникаторы. 23

36.Параметры статических коммутационных сетей. 23

37.Топологии линейки, решетки, пирамиды. 23

38.Топология гиперкуба. 23

39.Согласование сеточных топологий со структурой гиперкуба. 23

40.Перекрестный коммутатор. 23

41.Многокаскадные коммутационные сети. 23

42.Пиковая производительность. 24

43.Методы оценки производительности. 25

44.Закон Амдала. 25

45.Принципы потоковой обработки информации. 25

46.Схемы потоковых вычислителей. 25

47.Нейронные сети. 26

48.Области применения нейронных сетей. 27

49.Модели программирования для систем с разделяемой, распределенной памятью. 28

50.Разделение последовательных программ на параллельные нити. 28

51.Ограничения на распараллеливание циклов. 29

52.Синхронизация параллельных процессов. Барьеры. 29

53.Критические секции. Двоичные и общие семафоры. 30

54.Упорядоченные секции. Распараллелить цикл, используя упорядоченные секции и семафоры: 31

55.Статический и динамический способы образования параллельных процессов . 32

56.Требования к системам программирования методом передачи сообщений. 33

33


57.Система программирования MPI. 33

58.Средства описания и создания процессов в языке Фортран-GNS. 35

59.Средства передачи и приема сообщений в языке Фортран-GNS. 38

60.Протоколы передачи и приема сообщений в языке Фортран-GNS. 39

61.Идентификация абонентов при передачи сообщений в языке Фортран-GNS. 42

62.Автоматическое распараллеливание последовательных программ. 43

63.Семантика циклов, выполняемых параллельно на ОКМД системах. 43

64.Алгоритмы преобразования программ методом координат. 43

65.Схема преобразования программ методом гиперплоскостей. 46

66.Метод параллелепипедов. 46

67.Оценить возможность параллельного выполнения цикла: DO i = 2,N A(i) = (B(i) + (i))/A(i+CONST) ENDDO 47

68.Стандарты OpenMP. 47

69.Язык Фортран-DVM. 50

70.Язык Sisal. 51

71.Система программирования Норма. 53

72.Распараллеливание алгоритмов сложения методом редукции 54

73.Метод распараллеливания алгоритма общей рекурсии 1-го порядка. 55

74.Представление машинных чисел. 56

75.Арифметика машинных чисел. 57

76.Погрешности при вычислениях чисел на параллельных системах. Оценить полную ошибку суммирования положительных чисел. 57

58

77.Точность плавающей арифметики. Машинный эпсилон. 58



78.Перечислить алгоритмы оптимизации объектных программ, которые могут повлиять на точность вычислений. 58

§9. Средства автоматического распараллеливания программ 59


  1. Информация. Меры Хартли, Шеннона.

Различные формулировки понятия “информация”:



  • В законодательном плане: сведения о лицах, предметах, фактах, событиях, явлениях и процессах независимо от формы их представления (ФЕДЕРАЛЬНЫЙ ЗАКОН Об информации, информатизации и защите информации);

  • В концептуальном плане: универсальная субстанция, пронизывающая все сферы человеческой деятельности, служащая проводником знаний и мнений, инструментом общения, взаимопонимания и сотрудничества, утверждения стереотипов мышления и поведения (ЮНЕСКО); бесконечный законопроцесс триединства энергии, движения и массы в пространстве и во времени с различными плотностями кодовых структур бесконечно-беспредельной Вселенной. Информация внутри нас, информация вне нас. Есть законы существования этой информации внутри и вне нас (Международная Академия Информатизации)

  • В математике, системном анализе — любая сущность, которая вызывает изменения в некоторой информационно-логической (инфологической — состоящей из сообщений, данных, знаний. абстракций и т. д.) модели, представляющей систему

  • В термодинамике:

  1. отрицание энтропии, отражение меры хаоса в системе (Бриллюэн);

  2. передача разнообразия (Эшби);

  3. мера сложности структур (Моль);

  4. величина обратно пропорциональная беспорядку в системе;

  5. отраженное разнообразие, то есть нарушение однообразия;

  6. сообщение о чем-либо, уменьшаемая неопределенность, отражение разнообразия в любых объектах и процессах;

  • Некоторая совокупность сведений, знаний, которые актуализируемы (получаемы, передаваемы, преобразуемы, сжимаемы и/или регистрируемы) с помощью некоторых знаков (символьного, образного, жестового, звукового, сенсомоторного типа).

  • Сведения об окружающем мире и протекающих в нём процессах, воспринимаемые человеком или специальным устройством и передаваемые другим людям устным, письменным или другим способом

  • Содержание, полученное от внешнего мира в процессе приспособления к нему (Винер)

  • Абстрактное содержание какого-либо высказывания, описания, сообщения или известия

  • Сообщения, осведомляющие о положении дел, о состоянии чего-нибудь, обмен сведениями.

Существует одна из формулировок понятия знание, которая связывает знание с информацией: знание - информация, о которой кто-либо осведомлен. Знание противоположно незнанию - отсутствию достоверной информации о чем-либо.


Количество информации - числовая величина, адекватно характеризующая актуализируемую информацию по разнообразию, сложности, структурированности (упорядоченности), определенности, выбору состояний отображаемой системы.

Если рассматривается некоторая система, которая может принимать одно из n возможных состояний, то актуальной задачей является задача оценки этого выбора, исхода. Такой оценкой может стать мера информации (события).

Мера, как было сказано выше, - непрерывная действительная неотрицательная функция, определенная на множестве событий и являющаяся аддитивной (мера суммы равна сумме мер).

Меры могут быть статические и динамические, в зависимости от того, какую информацию они позволяют оценивать: статическую (не актуализированную; на самом деле оцениваются сообщения без учета ресурсов и формы актуализации) или динамическую (актуализированную т.е. оцениваются также и затраты ресурсов для актуализации информации).


Мера Р. Хартли. Пусть имеется N состояний системы S или N опытов с различными, равновозможными, последовательными состояниями системы. Если каждое состояние системы закодировать, например, двоичными кодами определенной длины d, то эту длину необходимо выбрать так, чтобы число всех различных комбинаций было бы не меньше, чем N. Наименьшее число, при котором это возможно, называется мерой разнообразия множества состояний системы и задается формулой Р. Хартли: H=klogаN, где k - коэффициент пропорциональности (масштабирования, в зависимости от выбранной единицы измерения меры), а - основание системы меры.

Если измерение ведется в экспоненциальной системе, то k=1, H=lnN (нат); если измерение было произведено в двоичной системе, то k=1/ln2, H=log2N (бит); если измерение было произведено в десятичной системе, то k=1/ln10, H=lgN (дит).

Пример. Чтобы узнать положение точки в системе из двух клеток т.е. получить некоторую информацию, необходимо задать 1 вопрос ("Левая или правая клетка?"). Узнав положение точки, мы увеличиваем суммарную информацию о системе на 1 бит (I=log2 2). Для системы из четырех клеток необходимо задать 2 аналогичных вопроса, а информация равна 2 битам (I=log24). Если же система имеет n различных состояний, то максимальное количество информации будет определяться по формуле: I=log2n.

Справедливо утверждение Хартли: если в некотором множестве X={x1, x2, ..., xn} необходимо выделить произвольный элемент xiX, то для того, чтобы выделить (найти) его, необходимо получить не менее logan (единиц) информации.

Если N - число возможных равновероятных исходов, то величина klnN представляет собой меру нашего незнания о системе.

По Хартли, для того, чтобы мера информации имела практическую ценность, она должна быть такова, чтобы отражать количество информации пропорционально числу выборов.


Мера К. Шеннона. Формула Шеннона дает оценку информации независимо, отвлеченно от ее смысла:

где n - число состояний системы; рi - вероятность (или относительная частота) перехода системы в i-е состояние, причем сумма всех pi равна 1.

Если все состояния равновероятны (т.е. рi=1/n), то I=log2n.

К. Шенноном доказана теорема о единственности меры количества информации. Для случая равномерного закона распределения плотности вероятности мера Шеннона совпадает с мерой Хартли. Справедливость и достаточная универсальность формул Хартли и Шеннона подтверждается и данными нейропсихологии.


Пример. Время t реакции испытуемого на выбор предмета из имеющихся N предметов линейно зависит от log2N: t=200+180log2N (мс). По аналогичному закону изменяется и время передачи информации в живом организме. Один из опытов по определению психофизиологических реакций человека состоял в том, что перед испытуемым большое количество раз зажигалась одна из n лампочек, на которую он должен был указать в ходе эксперимента. Оказалось, что среднее время, необходимое для правильного ответа испытуемого, пропорционально не числу n лампочек, а именно величине I, определяемой по формуле Шеннона, где pi - вероятность зажечь лампочку номер i

Легко видеть, что в общем случае



Если выбор i-го варианта предопределен заранее (выбора, собственно говоря, нет, pi=1), то I=0.

Сообщение о наступлении события с меньшей вероятностью несет в себе больше информации, чем сообщение о наступлении события с большей вероятностью. Сообщение о наступлении достоверно наступающего события несет в себе нулевую информацию (и это вполне ясно: событие всё равно произойдет когда-либо).
См. также вопрос 2.


  1. следующая страница >>



Лучшее лекарство от болезней демократии — больше демократии. Алфред Э. Смит
ещё >>