s
Sesiya.ru

Понятие информации, информационные процессы

Информация о работе

Тема
Понятие информации, информационные процессы
Тип Лабораторная работа
Предмет Информатика
Количество страниц 15
Язык работы Русский язык
Дата загрузки 2015-10-16 09:26:56
Размер файла 38.01 кб
Количество скачиваний 1
Узнать стоимость учебной работы online!
  • Тип работы
  • Часть диплома
  • Дипломная работа
  • Курсовая работа
  • Контрольная работа
  • Решение задач
  • Реферат
  • Научно - исследовательская работа
  • Отчет по практике
  • Ответы на билеты
  • Тест/экзамен online
  • Монография
  • Эссе
  • Доклад
  • Компьютерный набор текста
  • Компьютерный чертеж
  • Рецензия
  • Перевод
  • Репетитор
  • Бизнес-план
  • Конспекты
  • Проверка качества
  • Единоразовая консультация
  • Аспирантский реферат
  • Магистерская работа
  • Научная статья
  • Научный труд
  • Техническая редакция текста
  • Чертеж от руки
  • Диаграммы, таблицы
  • Презентация к защите
  • Тезисный план
  • Речь к диплому
  • Доработка заказа клиента
  • Отзыв на диплом
  • Публикация статьи в ВАК
  • Публикация статьи в Scopus
  • Дипломная работа MBA
  • Повышение оригинальности
  • Копирайтинг
  • Другое
Узнать стоимость

Скачать файл с работой

Помогла работа? Поделись ссылкой

Лабораторная работа №1

 

Понятие информации

В простейшем бытовом понимании с термином «информация» обычно ассоциируются некоторые сведения, данные, знания и т. п. Информация передается в виде сообщений, определяющих форму и представление передаваемой информации. Примерами сообщений являются музыкальное произведение; телепередача; команды регулировщика на перекрестке; текст, распечатанный на принтере; данные, полученные в результате работы составленной вами программы, и т. д. При этом предполагается, что имеются «источник информации» и «получатель информации».

Сообщение от источника к получателю передается посредством какой-нибудь среды, являющейся в таком случае «каналом связи». Так, при передаче речевого сообщения в качестве канала связи можно рассматривать воздух, в котором распространяются звуковые волны, а в случае передачи письменного сообщения (например, текста, распечатанного на принтере) каналом сообщения можно считать лист бумаги, на котором напечатан текст.

Человеку свойственно субъективное восприятие информации через некоторый набор ее свойств:

1. понятность (на понятном языке, понятными терминами)

2. полезность (информация должна иметь практическую ценность)

3. достоверность (информация должна быть правдивой)

4. актуальность (своевременность)

5. полнота (информация полна, если ее достаточно для принятия решений)

6. точность (определяется степенью близости к реальному состоянию объекта, процесса, явления)

Использование терминов «больше информации» или «меньше информации» подразумевает некую возможность ее измерения (или хотя бы количественного соотнесения). При субъективном восприятии измерение информации возможно лишь в виде установления некоторой субъективной порядковой шкалы для оценки «больше-меньше». При объективном измерении количества информации следует заведомо отрешиться от восприятия ее с точки зрения субъективных свойств, примеры которых перечислены выше. Более того, не исключено, что не всякая информация будет иметь объективно измеряемое количество.

При определении понятия «количества информации» существуют различные подходы: вероятностный, объемный, содержательный, алфавитный.

Вероятностный подход

Формулу для вычисления количества информации, учитывающую неодинаковую вероятность событий, предложил К. Шеннон в 1948 году. Количественная зависимость между вероятностью события р и количеством информации в сообщении о нем x выражается формулой: x=log2(1/p). Качественную связь между вероятностью события и количеством информации в сообщении об этом событии можно выразить следующим образом – чем меньше вероятность некоторого события, тем больше информации содержит сообщение об этом событии.

Рассмотрим некоторую ситуацию. В коробке имеется 50 шаров. Из них 40 белых и 10 черных. Очевидно, вероятность того, что при вытаскивании "не глядя" попадется белый шар больше, чем вероятность попадания черного. Можно сделать заключение о вероятности события, которые интуитивно понятны. Проведем количественную оценку вероятности для каждой ситуации. Обозначим pч – вероятность попадания при вытаскивании черного шара, рб – вероятность попадания белого шара. Тогда: рч=10/50=0,2; рб40/50=0,8. Заметим, что вероятность попадания белого шара в 4 раза больше, чем черного. Делаем вывод: если N – это общее число возможных исходов какого-то процесса (вытаскивание шара), и из них интересующее нас событие (вытаскивание белого шара) может произойти K раз, то вероятность этого события равна K/N. Вероятность выражается в долях единицы. Вероятность достоверного события равна 1 (из 50 белых шаров вытащен белый шар). Вероятность невозможного события равна нулю (из 50 белых шаров вытащен черный шар). Количественная зависимость между вероятностью события р и количеством информации в сообщении о нем x выражается формулой: x=log2(1/p). В задаче о шарах количество информации в сообщении о попадании белого шара и черного шара получится: xб=log2(1/0,8)=log2(1,25)=0,321928; xч=log2(1/0,2)=log2(5)=2,321928.

Рассмотрим некоторый алфавит из m символов: pi(i=1,2,K,m) и вероятность выбора из этого алфавита какой-то i-й буквы для описания (кодирования) некоторого состояния объекта. Каждый такой выбор уменьшит степень неопределенности в сведениях об объекте и, следовательно, увеличит количество информации о нем. Для определения среднего значения количества информации, приходящейся в данном случае на один символ алфавита, применяется формула . В случае равновероятных выборов p=1/m и формула Шеннона переходит в формулу Хартли.

В качестве примера определим количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем cчитать, что русский алфавит состоит из 33 букв и знака «пробел» для разделения слов. По формуле Хартли Н=log234=5,09 бит.

Рассмотрим алфавит, состоящий из двух знаков 0 и 1. Если считать, что со знаками 0 и 1 в двоичном алфавите связаны одинаковые вероятности их появления (Р(0)=Р(1)=0,5), то количество информации на один знак при двоичном кодировании будет равно Н=log22=1 бит.

Таким образом, количество информации (в битах), заключенное в двоичном слове, равно числу двоичных знаков в нем.

Объемный подход

В двоичной системе счисления знаки 0 и 1 называют битами (bit – от английского выражения Binary digiTs — двоичные цифры). В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации, подсчитывается просто по числу требуемых для такой записи двоичных символов. При этом, в частности, невозможно нецелое число битов (в отличие от вероятностного подхода).

Между вероятностным и объемным количеством информации соотношение неоднозначное. Далеко не всякий текст, записанный двоичными символами, допускает измерение объема информации в вероятностном (кибернетическом) смысле, но заведомо допускает его в объемном. Далее, если некоторое сообщение допускает измеримость количества информации в обоих смыслах, то это количество не обязательно совпадает, при этом кибернетическое количество информации не может быть больше объемного.

Алфавитный подход

Алфавитный подход к измерению информации не связывает количество информации с содержательным сообщением. Рассмотрим этот подход на примере текста, написанного на каком-нибудь языке, например, на русском. Все множество используемых в языке символов будем называть алфавитом. Полное количество символов алфавита будем называть мощность алфавита

Например, в алфавит мощностью N=256 символов можно поместить все необходимые символы: латинские и русские буквы, цифры, знаки арифметических операций, знаки препинания и т.д.  Представим себе, что текст, состоящий из 256 символов, поступает последовательно, и в каждый момент времени может появиться любой из них. Тогда по формуле:

2i= 256, →  i=8 (бит)

Таким образом, один символ алфавита мощностью 256 символов, “весит” 8 бит. Поскольку 8 бит – часто встречающаяся величина, ей присвоили свое название 1 байт:

Чтобы подсчитать количество информации на одной странице текста, необходимо: количество символов в строке умножить на количество строк на листе. Так, например, если взять страницу текста, содержащую 40 строк по 60 символов в каждой строке, то одна страница такого текста будет содержать

60*40=2400 (байт информации)

Для измерения больших объемов информации используются следующие производные от байта единицы:

1 Килобайт(Кбайт) = 210 байт= 1024 байт,

1 Мегабайт(Мбайт) = 210 Кбайт= 1024 Кбайт,

1 Гигабайт(Гбайт) = 210 Мбайт= 1024 Мбайт,

1 Терабайт(Тбайт) = 210 Гбайт= 1024 Гбайт,

1 Петабайт(Пбайт) = 210 Тбайт= 1024 Тбайт,

1 Экзабайт(Эбайт) = 210 Пбайт= 1024 Пбайт

Кодирование информации

Кодирование информации – это операция преобразования информации из одной знаковой системы в другую.

Средством кодирования служит таблица соответствия знаковых систем, которая устанавливает взаимно однозначное соответствие между знаками или группами знаков двух различных знаковых систем.

В процессе обмена информацией часто приходится производить операции кодирования и декодирования информации. Например, при вводе знака алфавита в компьютер путем нажатия соответствующей клавиши на компьютере, происходит кодирование знака, т.е. преобразование его в компьютерный код.  При выводе знака на экран монитора или принтер происходит обратный процесс – декодирование, когда из компьютерного кода знак преобразуется в его графическое изображение.

Для представления информации в компьютере используется двоичное кодирование, т.к. технические устройства компьютера могут сохранять и распознавать не более двух различных состояний (цифр): намагничен/размагничен (участок поверхности магнитного носителя информации), отражает/не отражает (участок поверхности лазерного диска); и т.д.

Информация на компьютере представлена в машинном коде, алфавит которого состоит из цифр (0 и 1). Каждая цифра машинного кода несет информацию в 1 бит.

 

Задания.

1.   Подсчитайте количество информации, приходящейся на один символ, в следующем тексте:

Варианты:

1) Мы, многонациональный народ Российской Федерации, соединенные общей судьбой на своей земле, утверждая права и свободы человека, гражданский мир и согласие, сохраняя исторически сложившееся государственное единство, исходя из общепризнанных принципов равноправия и самоопределения народов, чтя память предков, передавших нам любовь и уважение к Отечеству, веру в добро и справедливость, возрождая суверенную государственность России и утверждая незыблемость ее демократической основы, стремясь обеспечить благополучие и процветание России, исходя из ответственности за свою Родину перед нынешним и будущими поколениями, сознавая себя частью мирового сообщества, принимаем КОНСТИТУЦИЮ РОССИЙСКОЙ ФЕДЕРАЦИИ.

2) Целями настоящего Федерального закона являются: создание условий для оказания услуг связи на всей территории Российской Федерации; содействие внедрению перспективных технологий и стандартов; защита интересов пользователей услугами связи и осуществляющих деятельность в области связи хозяйствующих субъектов; обеспечение эффективной и добросовестной конкуренции на рынке услуг связи; создание условий для развития российской инфраструктуры связи, обеспечения ее интеграции с международными сетями связи; обеспечение централизованного управления российскими радиочастотным ресурсом, в том числе орбитально-частотным, и ресурсом нумерации.

3) Для целей настоящего Федерального закона используются следующие основные понятия: абонент - пользователь услугами связи, с которым заключен договор об оказании таких услуг при выделении для этих целей абонентского номера или уникального кода идентификации; выделение полосы радиочастот - разрешение в письменной форме на использование конкретной полосы радиочастот, в том числе для разработки, модернизации, производства в Российской Федерации и (или) ввоза на территорию Российской Федерации радиоэлектронных средств или высокочастотных устройств с определенными техническими характеристиками.

4) На территории Российской Федерации организации связи создаются и осуществляют свою деятельность на основе единства экономического пространства, в условиях конкуренции и многообразия форм собственности. Государство обеспечивает организациям связи независимо от форм собственности равные условия конкуренции. Сети связи и средства связи могут находиться в федеральной собственности, собственности субъектов Российской Федерации, муниципальной собственности, а также в собственности граждан и юридических лиц. Перечень сетей связи и средств связи, которые могут находиться только в федеральной собственности, определяется законодательством Российской Федерации.

5) При градостроительном планировании развития территорий и поселений, их застройке должны определяться состав и структура объектов связи - сооружений связи, в том числе линейно-кабельных сооружений, отдельных помещений для размещения средств связи, а также необходимые мощности в инженерных инфраструктурах для обеспечения функционирования средств связи. Органы государственной власти субъектов Российской Федерации и органы местного самоуправления муниципальных районов и городских округов содействуют организациям связи, оказывающим универсальные услуги связи, в получении и (или) строительстве сооружений связи и помещений, предназначенных для оказания универсальных услуг связи.

6) Информатика — это наука и сфера практической деятельности, связанная с различными аспектами получения, хранения, обработки, передачи и использования информации. «Понятие информатики охватывает области, связанные с разработкой, созданием, использованием и материально-техническим обслуживанием систем обработки информации, включая машины, оборудование, организационные аспекты, а также комплекс промышленного, коммерческого, административного и социального воздействия» — такая формулировка была дана в 1978 г. Международным конгрессом по информатике.

7) С современной точки зрения понятие «информатика» шире, чем используемое в англоязычных странах Computer Science, поскольку включает как прикладную часть («компьютерные науки»), так и теоретическую, связанную с отмеченными выше аспектами действий с информацией. Информатика включает в себя следующие основные разделы: теоретическую информатику, вычислительную технику, программирование, информационные системы, искусственный интеллект. Она является конгломератом наук, объединенных общим объектом исследования. Научное ядро информатики относят к фундаментальным наукам, поскольку ее основные понятия носят общенаучный характер, используются во многих других науках и видах деятельности.

8) Информатика имеет существенные социальные аспекты. Она «включает... комплекс промышленного, коммерческого, административного и социального воздействия ». Информатизация, т.е. процесс проникновения информационных технологий во все сферы жизни и деятельности общества, сильно влияет на социальную сферу. В настоящее время в общественном устройстве развитых стран появились черты информационного общества, во все сферы жизни и деятельности членов которого включены средства информатики в качестве орудий интеллектуального труда, переработки любой информации, моделирования реальных и прогнозируемых событий, управления производством, обучения и т.д.

9) Информатизация сильнейшим образом влияет на структуру экономики ведущих в экономическом отношении стран. В числе их лидирующих отраслей промышленности традиционные добывающие и обрабатывающие отрасли оттеснены максимально наукоемкими производствами электроники, средств связи и вычислительной техники — так называемой сферой высоких технологий. Темпы развития сферы высоких технологий и уровень прибылей в ней превышают в 5 —10 раз темпы развития традиционных отраслей производства. Существуют и отрицательные социальные последствия информатизации общества (по крайней мере при оценке с традиционных позиций).

10) Правовые аспекты информатики связаны с тем, что деятельность программистов и других специалистов, работающих в сфере информатики, все чаще выступает в качестве объекта правового регулирования. Некоторые действия при этом могут быть квалифицированы как правонарушения (преступления). Регулированию подлежат вопросы собственности на информацию, охрана авторских прав на компьютерные программы и базы данных, гарантии сохранения конфиденциальности и секретности определенных видов информации и многое другое. Информатизация социальной сферы, распространение информационных сетей породили как новые виды преступности, так и многочисленные правовые проблемы, правовое регулирование которых далеко от завершения.

11) В Российской Федерации (как и в других странах) действуют специальные правовые акты, регламентирующие отношения в сфере информации. К ним, в частности, относятся: Закон Российской Федерации «О правовой охране программ для электронных вычислительных машин и баз данных» (1992 г.); Указ Президента Российской Федерации «Об основах государственной политики в сфере информатизации» (1994 г., изменения и дополнения — 1995 г.); Закон Российской Федерации «Об информации, информатизации и защите информации» (1995 г.); Закон Российской Федерации «Об участии в международном информационном обмене» (1996 г.).

12) Этические аспекты информатики чрезвычайно важны. Далеко не все правила, регламентирующие деятельность в сфере информатики, можно свести к правовым нормам. Очень многое определяется соблюдением неписаных правил поведения для тех, кто причастен к миру компьютеров. Как и в любой другой большой и разветвленной сфере человеческой деятельности, в информатике к настоящему времени сложились определенные морально-этические нормы поведения и деятельности. Этика — система норм нравственного поведения человека. Всякий раз, собираясь совершить сомнительный поступок в сфере профессиональной деятельности, человек должен задуматься, соответствует ли он этическим нормам, сложившимся в профессиональном сообществе.

13) В случае, когда параметр сигнала принимает последовательное во времени конечное число значений (при этом все они могут быть пронумерованы), сигнал называется дискретным, а сообщение, передаваемое с помощью таких сигналов, – дискретным сообщением. Если же источник вырабатывает непрерывное сообщение (соответственно параметр сигнала — непрерывная функция от времени), то соответствующая информация называется непрерывной. Примеры дискретного сообщения — текст книги, непрерывного сообщения — человеческая речь, передаваемая модулированной звуковой волной; параметром сигнала в последнем случае является давление, создаваемое этой волной в точке нахождения приемника — человеческого уха.

14) Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором интервале. Непрерывное сообщение можно преобразовать в дискретное (такая процедура называется дискретизацией). Из бесконечного множества значений параметра сигнала выбирается их определенное число, которое приближенно может характеризовать остальные значения. Для этого область определения функции разбивается на отрезки равной длины и на каждом из этих отрезков значение функции принимается постоянным и равным, например, среднему значению на этом отрезке. В итоге получим конечное множество чисел. Таким образом, любое непрерывное сообщение может быть представлено как дискретное, иначе говоря, последовательностью знаков некоторого алфавита.

15) Понятие информации нельзя считать лишь техническим, междисциплинарным и даже наддисциплинарным термином. Информация — это фундаментальная философская категория. Дискуссии ученых о философских аспектах информации надежно показали несводимость информации ни к одной из этих категорий. Концепции и толкования, возникающие на пути догматических подходов, оказываются слишком частными, односторонними, не охватывающими всего объема этого понятия. Попытки рассмотреть категорию информации с позиций основного вопроса философии привели к возникновению двух противостоящих концепций — функциональной и атрибутивной. «Атрибутисты» квалифицируют информацию как свойство всех материальных объектов, т.е. как атрибут материи. «Функционалисты» связывают информацию лишь с функционированием сложных, самоорганизующихся систем.

16) Информацию следует считать особым видом ресурса, при этом имеется в виду толкование «ресурса» как запаса неких знаний материальных предметов или энергетических, структурных или каких-либо других характеристик предмета. В отличие от ресурсов, связанных с материальными предметами, информационные ресурсы являются неистощимыми и предполагают существенно иные методы воспроизведения и обновления, чем материальные ресурсы. В связи с таким взглядом центральными становятся следующие свойства информации: запоминаемость, передаваемость, преобразуемость, воспроизводимость, стираемостъ. Высшей формой информации, проявляющейся в управлении в социальных системах, являются знания.

17) Слово “информация” происходит от латинского слова  informatio, что в переводе означает сведение, разъяснение, ознакомление. Понятие “информация” в курсе информатики является базовым (основным), его нельзя дать через другие, более простые понятия. В геометрии, например, базовыми являются понятия: “точка”, “луч”, “плоскость”. Содержание базовых понятий в любой науке поясняется на примерах или выявляется путем сопоставления с содержанием других понятий. Информация – это сведения об окружающем мире, которые повышают уровень осведомленности человека. За единицу измерения информации принимается 1 бит - такое количество информации, которое содержит сообщение, уменьшающее неопределенность знаний в два раза.

18) В естественных языках грамматика и синтаксис языка формулируются с помощью большого числа правил, из которых есть исключения, т.к. правила складывались исторически. Наряду с естественными языками были разработаны формальные (иногда говорят, искусственные) языки (системы счисления, язык алгебры, языки программирования и т.д.). Основное отличие формальных от естественных языков состоит в наличии строгих правил грамматики и синтаксиса. Например, системы счисления можно рассматривать как формальные языки, имеющие алфавит (цифры) и позволяющие не только именовать и записывать объекты (числа), но и выполнять над ними арифметические операции по строго определенным правилам.

19) Средством кодирования служит таблица соответствия знаковых систем, которая устанавливает взаимно однозначное соответствие между знаками или группами знаков двух различных знаковых систем. В процессе обмена информацией часто приходится производить операции кодирования и декодирования информации. Например, при вводе знака алфавита в компьютер путем нажатия соответствующей клавиши на компьютере, происходит кодирование знака, т.е. преобразование его в компьютерный код.  При выводе знака на экран монитора или принтер происходит обратный процесс – декодирование, когда из компьютерного кода знак преобразуется в его графическое изображение.

20) На синтаксическом уровне для оценки количества информации используют вероятностные методы, которые принимают во внимание только вероятностные свойства информации и не учитывают другие (смысловое содержание, полезность, актуальность и т. д.). Разработанные в середине XX в. математические и, в частности, вероятностные методы позволили сформировать подход к оценке количества информации как к мере уменьшения неопределенности знаний. Такой подход, называемый также вероятностным, постулирует принцип: если некоторое сообщение приводит к уменьшению неопределенности наших знаний, то можно утверждать, что такое сообщение содержит информацию.

21) Для количественного определения (оценки) любой физической величины необходимо определить единицу измерения, которая в теории измерений носит название меры. Как уже отмечалось, информацию перед обработкой, передачей и хранением необходимо подвергнуть кодированию. Кодирование производится с помощью специальных алфавитов (знаковых систем). В информатике, изучающей процессы получения, обработки, передачи и хранения информации с помощью вычислительных (компьютерных) систем, в основном используется двоичное кодирование, при котором используется знаковая система, состоящая из двух символов 0 и 1. По этой причине в формулах (1.1) и (1.2) в качестве основания логарифма используется цифра 2.

22) Исходя из вероятностного подхода к определению количества информации эти два символа двоичной знаковой системы можно рассматривать как два различных возможных события, поэтому за единицу количества информации принято такое количество информации, которое содержит сообщение, уменьшающее неопределенность знания в два раза (до получения событий их вероятность равна 0,5, после получения – 1, неопределенность уменьшается соответственно: 1/0,5 = 2, т. е. в 2 раза). Такая единица измерения информации называется битом (от англ. слова binary digit – двоичная цифра). Таким образом, в качестве меры для оценки количества информации на синтаксическом уровне, при условии двоичного кодирования, принят один бит.

23) Вероятностный подход используется и при определении количества информации, представленной с помощью знаковых систем. Если рассматривать символы алфавита как множество возможных сообщений N, то количество информации, которое несет один знак алфавита, можно определить по формуле (1.1). При равновероятном появлении каждого знака алфавита в тексте сообщения для определения количества информации можно воспользоваться формулой (1.2). Количество информации, которое несет один знак алфавита, тем больше, чем больше знаков входит в этот алфавит. Количество знаков, входящих в алфавит, называется мощностью алфавита.

24) Содержательный подход к измерению информации. Сообщение – информативный поток, который в процессе передачи информации поступает к приемнику.  Сообщение несет информацию для человека, если содержащиеся в нем сведения являются для него новыми и понятными  Информация - знания человека ? сообщение должно быть информативно. Если сообщение не информативно, то количество информации с точки зрения человека = 0. (Пример: вузовский учебник по высшей математике содержит знания, но они не доступны 1-класснику). Алфавитный подход к измерению информации не связывает кол-во информации с содержанием сообщения. Алфавитный подход - объективный подход к измерению информации.

25) Алфавитный подход к измерению информации не связывает кол-во информации с содержанием сообщения. Алфавитный подход - объективный подход к измерению информации. Он  удобен при использовании технических средств работы с информацией, т.к. не зависит от содержания сообщения. Кол-во информации зависит от объема текста и мощности алфавита. Вероятностный подход к измерения информации. Все события происходят с различной вероятностью, но  зависимость между вероятностью событий и количеством информации, полученной при совершении того или иного события можно выразить формулой которую в 1948 году предложил  Шеннон.

26) Часто приходится слышать, что сообщение или несет мало информации или, наоборот, содержит исчерпывающую информацию. При этом разные люди, получившие одно и то же сообщение (например, прочитав статью в газете), по-разному оценивают количество информации, содержащейся в нем. Это происходит оттого, что знания людей об этих событиях (явлениях) до получения сообщения были различными. Поэтому те, кто знал об этом мало, сочтут, что получили много информации, те же, кто знал больше, чем написано в статье, скажут, что информации не получили вовсе. Количество информации в сообщении, таким образом, зависит от того, насколько ново это сообщение для получателя.

27) Итак, количество информации зависит от новизны сведений об интересном для получателя информации явлении. Иными словами, неопределенность (т.е. неполнота знания) по интересующему нас вопросу с получением информации уменьшается. Если в результате получения сообщения будет достигнута полная ясность в данном вопросе (т.е. неопределенность исчезнет), говорят, что была получена исчерпывающая информация. Это означает, что необходимости в получении дополнительной информации на эту тему нет. Напротив, если после получения сообщения неопределенность осталась прежней (сообщаемые сведения или уже были известны, или не относятся к делу), значит, информации получено не было (нулевая информация).

28) Если подбросить монету и проследить, какой стороной она упадет, то мы получим определенную информацию. Обе стороны монеты "равноправны", поэтому одинаково вероятно, что выпадет как одна, так и другая сторона. В таких случаях говорят, что событие несет информацию в 1 бит. Если положить в мешок два шарика разного цвета, то, вытащив вслепую один шар, мы также получим информацию о цвете шара в 1 бит. Единица измерения информации называется бит (bit) - сокращение от английских слов binary digit, что означает двоичная цифра. В компьютерной технике бит соответствует физическому состоянию носителя информации: намагничено - не намагничено, есть отверстие - нет отверстия.

29) В компьютерной технике бит соответствует физическому состоянию носителя информации: намагничено - не намагничено, есть отверстие - нет отверстия. При этом одно состояние принято обозначать цифрой 0, а другое - цифрой 1. Выбор одного из двух возможных вариантов позволяет также различать логические истину и ложь. Последовательностью битов можно закодировать текст, изображение, звук или какую-либо другую информацию. Такой метод представления информации называется двоичным кодированием (binary encoding). В информатике часто используется величина, называемая байтом (byte) и равная 8 битам. И если бит позволяет выбрать один вариант из двух возможных, то байт, соответственно, 1 из 256 (28).

30) При алфавитном подходе, если допустить, что все символы алфавита встречаются в тексте с одинаковой частотой (равновероятно), то количество информации, которое несет каждый символ (информационный вес одного символа), вычисляется по формуле: x=log2N, где N - мощность алфавита (полное количество символов, составляющих алфавит выбранного кодирования). В алфавите, который состоит из двух символов (двоичное кодирование), каждый символ несет 1 бит информации; из четырех символов - каждый символ несет 2 бита информации; из восьми символов - 3 бита и т.д. Один символ из алфавита мощностью 256 несет в тексте 8 битов информации. Как мы уже выяснили, такое количество информации называется байт.

 

2.      Считая, что каждый символ кодируется одним байтом, оцените информационный объём следующего текста (вариант см.выше).

 

3.      В зрительном зале две прямоугольные области зрительских кресел: одна aхb, а другая cхd. Какое минимальное количество бит потребуется для кодирования каждого места в автоматизированной системе?

 

Варианты

Вариант

a

b

c

d

1.    

14

31

18

17

2.    

2

34

27

24

3.    

34

19

13

21

4.    

32

20

29

28

5.    

49

32

2

30

6.    

27

41

28

5

7.    

20

18

35

44

8.    

9

21

48

37

9.    

31

29

37

39

10.                      

36

28

36

40

11.                      

18

35

21

33

12.                      

0

25

31

10

13.                      

20

38

40

13

14.                      

37

24

4

31

15.                      

39

9

47

26

16.                      

45

35

45

2

17.                      

42

49

30

4

18.                      

18

40

12

13

19.                      

31

35

43

20

20.                      

36

24

25

23

21.                      

9

5

36

45

22.                      

45

33

21

29

23.                      

28

18

48

16

24.                      

31

7

3

23

25.                      

11

28

27

29

26.                      

27

41

14

8

27.                      

46

33

42

41

28.                      

16

49

16

47

29.                      

32

48

34

29

30.                      

19

2

2

1

 

4.      В алфавите формального (искусственного) языка всего два знака-буквы («0» и «Х»). Каждое слово этого языка состоит всегда из bбукв. Какое максимальное число слов возможно в этом языке?

 

Варианты

вариант

1

2

3

4

5

6

7

8

9

10

b

4

5

6

7

8

9

10

11

12

13

вариант

11

12

13

14

15

16

17

18

19

20

b

14

15

16

17

18

19

20

21

22

23

вариант

21

22

23

24

25

26

27

28

29

30

b

24

25

26

27

28

29

30

31

32

33

 

5.      Имеется тест, объем которого 20 килобайт (на каждой странице теста aстрок по bсимвола в строке, 1 символ занимает cбит). Определить количество страниц в тесте.

 

Варианты

Вариант

c=8

Вариант

c=16

a

b

a

b

1

60

47

16

55

44

2

47

41

17

62

60

3

21

53

18

46

21

4

38

52

19

58

59

5

58

68

20

78

78

6

67

69

21

42

64

7

64

75

22

65

62

8

61

71

23

78

29

9

65

47

24

20

71

10

73

56

25

54

55

11

81

34

26

64

61

12

56

45

27

21

43

13

48

59

28

75

57

14

46

61

29

21

66

15

30

76

30

83

79

 

 

6.      Сколько байт, кбайт, Мбайт в XГбайт?

 

Варианты

Вариант

1

2

3

4

5

6

7

8

9

10

Х

32

40

46

52

60

64

70

74

78

82

Вариант

11

12

13

14

15

16

17

18

19

20

Х

24

28

30

44

50

68

72

80

84

90

Вариант

21

22

23

24

25

26

27

28

29

30

Х

14

16

18

20

22

33

41

19

65

71

 

7.      Оперативная память компьютера содержит aмашинных слов (наибольшую последовательность бит, которую процессор может обрабатывать как единое целое), что составляет bМбайт. Сколько бит содержит каждое машинное слово?

 

Варианты

Вариант

a

b

Вариант

a

b

1

121630

0,464

16

44433

0,339

2

96993

0,370

17

1,9290

1,139

3

190840

0,728

18

27656

0,211

4

553650

2,112

19

155980

1,190

5

355730

1,357

20

146280

1,116

6

267910

1,022

21

83231

0,635

7

271840

1,037

22

78774

0,601

8

101970

0,389

23

72221

0,551

9

362020

1,381

24

144050

1,099

10

82575

0,315

25

11141

0,085

11

407110

1,553

26

262670

2,004

12

185340

0,707

27

64618

0,493

13

513020

1,957

28

60555

0,462

14

132120

0,504

29

42074

0,321

15

488640

1,864

30

162000

1,236

 

8.      Объем оперативной памяти компьютера составляет aМбайта. Сколько машинных слов составляют оперативную память, если одно машинное слово содержит bбита?

 

Варианты

Вариант

a

b

Вариант

a

b

1

0,631

32

16

0,696

64

2

2,325

64

17

0,007

32

3

1,231

32

18

0,782

64

4

1,055

64

19

0,586

32

5

0,113

32

20

0,251

64

6

0,379

64

21

0,480

32

7

0,944

32

22

0,668

64

8

2,120

64

23

0,078

32

9

0,644

32

24

0,889

64

10

0,704

64

25

2,309

32

11

1,018

32

26

0,524

64

12

0,182

64

27

0,011

32

13

1,521

32

28

0,913

64

14

0,038

64

29

0,055

32

15

1,227

32

30

1,107

64

 

9.      Определить мощность алфавита, с помощью которого передано сообщение, содержащее aсимволов, если информационный объем сообщения составляет bКбайт.

 

Варианты

Вариант

a

b

Вариант

a

b

1

2944

1,0781

16

2597

1,2681

2

2066

1,261

17

3922

1,4363

3

4018

1,4714

18

1717

1,048

4

2728

1,332

19

2933

1,0741

5

1239

0,60498

20

1341

0,81848

6

1519

0,7417

21

3246

1,1887

7

4859

1,7794

22

7117

2,6063

8

5242

1,9197

23

4687

1,7164

9

3244

1,188

24

5800

2,124

10

3374

2,0593

25

2105

1,0278

11

5207

1,9069

26

1463

0,89294

12

5812

2,1284

27

5587

2,046

13

4905

1,7963

28

3320

1,2158

14

3768

2,2998

29

3683

1,3488

15

1641

1,0016

30

2010

1,2268

 

Контрольные вопросы.

1. Какая форма представления информации – непрерывная или дискретная – приемлема для компьютеров и почему?

2. В чем состоит процедура дискретизации непрерывной информации?

3. Какие определения понятия «информация» Вы знаете?

4. Назовите основные свойства информации.

5. Каким образом возникает, хранится, обрабатывается и передается информация?

6. Какая форма представления информации используется в информатике?

7. Какие виды информационных сигналов Вы знаете?

8. В чем преимущества дискретного представления информации?

9. Может ли человек передать информацию машине? Каким образом? А наоборот?

10. Что такое количество информации?

11. Какой принцип положен в основу измерения количества информации?

12. Каким образом определяется единица количества информации при кибернетическом подходе?

13. Каковы основные единицы измерения количества информации?

14. Как определяется понятие энтропии? Как она связана с информацией?