Реферат по информатике на тему измерение информации

Все символы одного алфавита имеют один и тот же вес, зависящий от мощности алфавита. Каков информационный вес символа этого алфавита? Ответ: 3 бита.

Как оценить, сколько информации вы получили? Другими словами, как измерить информацию? Можно ли сказать, что чем больше статья, тем больше информации она содержит? Предложенная им теория основывалась на фундаментальном понятии количественной меры неопределенности — энтропии и связанного с нею понятия количества информации. При энтропийном подходе под информацией понимается количественная величина исчезнувшей в ходе какого-либо процесса испытания, измерения и т. При этом в качестве меры неопределенности вводится энтропия.

Презентация на тему "Единицы измерения информации"

Отправить свою хорошую работу в базу знаний просто. Используйте форму, расположенную ниже Студенты, аспиранты, молодые ученые, использующие базу знаний в своей учебе и работе, будут вам очень благодарны. Наряду с такими понятиями, как вещество и энергия, пространство и время, оно составляет основу современной картины мира, ее относят к фундаментальным философским категориям.

Понятие информации многозначно и имеет множество определений, раскрывающих ту или иную грань этого понятия. В зависимости от области знания существуют различные подходы к определению понятия информации. В философском словаре говорится, что информация лат. В неживой природе понятие информации связывают с понятием отражения, отображения. В быту под информацией понимают сведения, которые нас интересуют, то есть сведения об окружающем мире и протекающем в нем процессах, воспринимаемые человеком или специальными устройствами субъективный подход.

В лингвистике под информацией понимают не любые сообщения, а только те из них, которые обладают новизной или полезностью, то есть учитывается смысл сообщения. Под информацией в технике понимают сообщения, передаваемые в форме знаков или сигналов. В теории связи под информацией принято понимать любую последовательность символов, не учитывая их смысл. В теории информации под информацией понимают не любые сведения, а лишь те, которые снимают полностью или уменьшают существующую до их получения неопределенность.

По определению К. Шеннона, информация -- это снятая неопределенность. Подходы к измерению информации При всем многообразии подходов к определению понятия информации, с позиций измерения информации нас интересуют два из них: определение К. Шеннона, применяемое в математической теории информации, и определение А. Колмогорова, применяемое в отраслях информатики, связанных с использованием компьютеров computer science.

В содержательном подходе возможна качественная оценка информации: новая, срочная, важная и т. Согласно Шеннону, информативность сообщения характеризуется содержащейся в нем полезной информацией - той частью сообщения, которая снимает полностью или уменьшает неопределенность какой-либо ситуации. Неопределенность некоторого события - это количество возможных исходов данного события.

Так, например, неопределенность погоды на завтра обычно заключается в диапазоне температуры воздуха и возможности выпадения осадков. Содержательный подход часто называют субъективным, так как разные люди субъекты информацию об одном и том же предмете оценивают по-разному.

Но если число исходов не зависит от суждений людей случай бросания кубика или монеты , то информация о наступлении одного из возможных исходов является объективной. Алфавитный подход основан на том, что всякое сообщение можно закодировать с помощью конечной последовательности символов некоторого алфавита.

С позиций computer science носителями информации являются любые последовательности символов, которые хранятся, передаются и обрабатываются с помощью компьютера. Согласно Колмогорову, информативность последовательности символов не зависит от содержания сообщения, а определяется минимально необходимым количеством символов для ее кодирования.

Алфавитный подход является объективным, то есть он не зависит от субъекта, воспринимающего сообщение. Смысл сообщения учитывается на этапе выбора алфавита кодирования либо не учитывается вообще.

На первый взгляд определения Шеннона и Колмогорова кажутся разными, тем не менее, они хорошо согласуются при выборе единиц измерения. Единицы измерения информации Решая различные задачи, человек вынужден использовать информацию об окружающем нас мире. И чем более полно и подробно человеком изучены те или иные явления, тем подчас проще найти ответ на поставленный вопрос.

Так, например, знание законов физики позволяет создавать сложные приборы, а для того, чтобы перевести текст на иностранный язык, нужно знать грамматические правила и помнить много слов. Часто приходится слышать, что сообщение или несет мало информации или, наоборот, содержит исчерпывающую информацию. При этом разные люди, получившие одно и то же сообщение например, прочитав статью в газете , по-разному оценивают количество информации, содержащейся в нем.

Это происходит оттого, что знания людей об этих событиях явлениях до получения сообщения были различными. Поэтому те, кто знал об этом мало, сочтут, что получили много информации, те же, кто знал больше, чем написано в статье, скажут, что информации не получили вовсе.

Количество информации в сообщении, таким образом, зависит от того, насколько ново это сообщение для получателя. Однако иногда возникает ситуация, когда людям сообщают много новых для них сведений например, на лекции , а информации при этом они практически не получают в этом нетрудно убедиться во время опроса или контрольной работы. Происходит это оттого, что сама тема в данный момент слушателям не представляется интересной.

Итак, количество информации зависит от новизны сведений об интересном для получателя информации явлении. Иными словами, неопределенность то есть неполнота знания по интересующему нас вопросу с получением информации уменьшается. Если в результате получения сообщения будет достигнута полная ясность в данном вопросе то есть неопределенность исчезнет , говорят, что была получена исчерпывающая информация.

Это означает, что необходимости в получении дополнительной информации на эту тему нет. Напротив, если после получения сообщения неопределенность осталась прежней сообщаемые сведения или уже были известны, или не относятся к делу , значит, информации получено не было нулевая информация. Если подбросить монету и проследить, какой стороной она упадет, то мы получим определенную информацию.

Обе стороны монеты "равноправны", поэтому одинаково вероятно, что выпадет как одна, так и другая сторона. В таких случаях говорят, что событие несет информацию в 1 бит.

Если положить в мешок два шарика разного цвета, то, вытащив вслепую один шар, мы также получим информацию о цвете шара в 1 бит. Единица измерения информации называется бит bit - сокращение от английских слов binary digit, что означает двоичная цифра. В компьютерной технике бит соответствует физическому состоянию носителя информации: намагничено - не намагничено, есть отверстие - нет отверстия.

При этом одно состояние принято обозначать цифрой 0, а другое - цифрой 1. Выбор одного из двух возможных вариантов позволяет также различать логические истину и ложь. Последовательностью битов можно закодировать текст, изображение, звук или какую-либо другую информацию. Такой метод представления информации называется двоичным кодированием binary encoding. В информатике часто используется величина, называемая байтом byte и равная 8 битам. И если бит позволяет выбрать один вариант из двух возможных, то байт, соответственно, 1 из В большинстве современных ЭВМ при кодировании каждому символу соответствует своя последовательность из восьми нулей и единиц, т.

Соответствие байтов и символов задается с помощью таблицы, в которой для каждого кода указывается свой символ. Так, например, в широко распространенной кодировке Koi8-R буква "М" имеет код , буква "И" - код , а пробел - код Рассмотрим, как можно подсчитать количество информации в сообщении, используя содержательный подход.

Пусть в некотором сообщении содержатся сведения о том, что произошло одно из N равновероятных событий. То есть именно такое количество информации необходимо для устранения неопределенности из N равнозначных вариантов. Эта формула носит название формулы Хартли.

Получена она в г. Процесс получения информации он формулировал примерно так: если в заданном множестве, содержащем N равнозначных элементов, выделен некоторый элемент x, о котором известно лишь, что он принадлежит этому множеству, то, чтобы найти x, необходимо получить количество информации, равное log2N.

Если N равно целой степени двойки 2, 4, 8, 16 и т. В противном случае количество информации становится нецелой величиной, и для решения задачи придется воспользоваться таблицей логарифмов либо определять значение логарифма приблизительно ближайшее целое число, большее.

ПОСМОТРИТЕ ВИДЕО ПО ТЕМЕ: Измерение информации - Информатика 7 класс #10 - Инфоурок

Главная > Реферат >Информатика Единицы измерения информации. Как уже было сказано, основная единица измерения информации — бит. Измерение информации - Информатика. Файлы: 1 файл. реферат по avtozvuk.cc ( Кб) — Открыть, Скачать. Введение.

Теория разнообразия Р. Заключенного должна навестить жена Сторож знает, что она хочет сообщить мужу, пойман ли его сообщник. Ей не разрешено делать никаких сообщений. Но сторож подозревает, что они договорились о каком-то условном знаке. Вот она просит послать мужу чашечку кофе. Как сторож может добиться, чтобы сообщение не было передано? Он рассуждает так: может быть, она условилась передать ему сладкий чай или несладкий кофе, тогда я могу помешать им, добавив в кофе сахару и сказав об этом заключенному. Может быть, она условилась послать или не послать ему ложку, тогда я могу изъять ложку и сказать ему, что передача ложек воспрещена. Она может послать ему не кофе, а чай, но все знают, что в это время выдается только кофе. И сторож, стремясь пресечь всякую возможность связи, сводит все возможности к одной — только кофе, только с сахаром, только без ложки. Если все возможности сведены к одной, связь прерывается, и посылаемый напиток лишен возможности передать информацию. Он считал, что информация есть там, где имеется дано или выявляется разнообразие, неоднородность. В данном случае единицей измерения информации может быть элементарное различие, то есть различие между двумя объектами в каком-либо одном фиксированном свойстве. Чем больше в некотором объекте отличных в строго определенном смысле друг от друга элементов, тем больше этот объект содержит информации. Информация есть там, где имеется различие хотя бы между двумя элементами. Информации нет, если элементы неразличимы. Эшби изложил концепцию разнообразия, согласно которой под разнообразием следует подразумевать характеристику элементов множества, заключающуюся в их несовпадении. Так, множество, в котором все элементы одинаковы допустим, это последовательность а, а, а, и т.

Отправить свою хорошую работу в базу знаний просто.

Аналоговая — это та информация которую воспринимаем мы посредством наших сенсоров видим, нюхаем, трогаем, пробуем на вкус, слышим , цифровая — это информация отраженная в зашифрованном виде. Компьютер работает с цифровой информацией. То есть для того чтобы передать нам рисунок он должен сначала его закодировать в набор чисел, а потом уже раскодировать обратно чтобы вывести на экран монитора.

Единицы измерения информации. Системы исчисления

Список литературы Введение Базовым понятием информатики является информация. Любая деятельность человека представляет собой процесс сбора и переработки информации, принятия на ее основе решений и их выполнения. С появлением современных средств вычислительной техники информация стала выступать в качестве одного из важнейших ресурсов научно-технического прогресса. Актуальность нашей работы заключается в рассмотрении значения информации в человеческом обществе, ее отличительных черт и влияния на эволюционные процессы. Цель работы состоит в изучении основных особенностей информации.

Измерение информации

Книга лежит на первой полке! Каждый ответ уменьшал неопределенность в два раза. Всего было задано три вопроса. Значит набрано 3 бита информации. И если бы сразу было сказано, что книга лежит на первой полке, то этим сообщением были бы переданы те же 3 бита информации. Алфавитный подход к измерению информации. А теперь познакомимся с другим способом измерения информации. Этот способ не связывает количество информации с содержанием сообщения, и называется он алфавитным подходом. При алфавитном подходе к определению количества информации отвлекаются от содержания информации и рассматривают информационное сообщение как последовательность знаков определенной знаковой системы.

Позиционные и непозиционные системы счисления, правила перевода чисел из одной системы счисления в другую. Двоичная, восьмеричная и шестнадцатиричная системы счисления.

.

Единицы измерения информации

.

Содержательный подход к оценке количества информации

.

Реферат: Единицы измерения количества информации

.

Понятие и измерение информации

.

.

.

ВИДЕО ПО ТЕМЕ: Алфавитный подход к определению количества информации
Похожие публикации