Полнота информации - это что означает? Понятия информации, даваемые различными науками. Отличие от сведений данных и знаний Основные свойства информации

Слово «информация» происходит от латинского слова informatio , что означает разъяснение, высказывания, осведомленность. Само слово информация лишь сравнительно недавно стало превращаться в точный термин. До этого информацию воспринимали как то, что присутствует в языке, письме или передается при общении. Сейчас смысл, который вкладывается в это понятие, очень изменился и расширился. Возникла особая математическая дисциплина — теория информации.

Хотя в теории информации и вводится несколько ее конкретных определений, все они не охватывают всего объема этого понятия. Рассмотрим некоторые определения.

Информация — это отражение реального (материального, предметного) мира, которое выражается в виде сигналов, знаков.

Информация — любая совокупность сигналов, сведений (данных), которые какая-либо система воспринимает из окружающей среды (входная информация), выдает в окружающую среду (исходящая информация) или сохраняется внутри определенной системы (внутренняя информация).

Информация существует в виде документов, рисунков, текстов, звуковых и световых сигналов, энергетических и нервных импульсов и т.п.

Под информацией понимают сведения об объектах окружающего мира, которые воспринимаются человеком, животным, растительным миром или специальными устройствами и повышают их уровень информированности.

Информация передается с помощью сообщений. Сообщение бывают устными, письменными, в виде рисунков, жестов, специальных знаков или организованными каким-то другим образом. Примерами сообщений являются: показания измерительного устройства, дорожные знаки, текст телеграммы, устный рассказ и тому подобное.

Виды информации

Информацию можно разделить на виды по нескольким признакам:

По способу восприятия

Для человека информация делится на виды в зависимости от типа рецепторов, воспринимающих ее:

  • Визуальная — воспринимается органами зрения.
  • Аудиальная — воспринимается органами слуха.
  • Тактильная — воспринимается тактильными рецепторами.
  • Обонятельная — воспринимается обонятельными рецепторами.
  • Вкусовая — воспринимается вкусовыми рецепторами.

По форме представления

По форме представления информация делится на следующие виды:

  • Текстовая — что передается в виде символов, предназначенных обозначать лексемы языка.
  • Числовая — в виде цифр и знаков, обозначающих математические действия.
  • Графическая — в виде изображений, событий, предметов, графиков.
  • Звуковая — устная или в виде записи передача лексем языка аудиальным путем.

По назначению

  • Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума.
  • Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация.
  • Личная — набор сведений о какой-либо личности, которые определяют социальное положение и типы социальных взаимодействий внутри популяции.

Свойства информации

Полезность. Полезность информации оценивается по тем задачам, которые можно решить с ее использованием. Сведения, важные и полезные для одного человека, оказываются бесполезными для другого, если он не может их использовать.

Актуальность. Информация актуальна (своевременна), если она важна в данный момент времени. Если вы собираетесь ехать поездом, то для вас важна информация о том, когда этот поезд отправляется. Однако эта информация теряет свою актуальность после того, как поезд тронулся.

Вероятность (правдивость) . Информация считается достоверной, если она не противоречит реальной действительности, правильно ее объясняет и подтверждается. Если вы узнали о наводнении из информационной телепрограммы, то эта информация, по всей вероятности, является достоверной. В то же время слухи о пришествии инопланетян, которое ожидается на следующей неделе, недостоверны.

Объективность. Информация может быть объективной или субъективной (зависеть или не зависеть от чьего суждения). Например, сообщение «вода в море холодная» является субъективным, одновременно сообщение «температура +17 градусов Цельсия» дает объективную информацию.

Полнота. Информация полная, если ее достаточно для правильных выводов и принятия правильных решений. Если человеку на основе какой-либо информации приходится что-то решать, то он сначала оценивает, достаточно этой информации для принятия правильного решения.

Понятность. Информация понятна, если при ее восприятии нет необходимости в дополнительных сообщениях (не возникает вопросов). Если человеку говорят что-то, к восприятию чего он еще не подготовлен, например обращаются английском раньше, чем человек выучил этот язык, то он из услышанной информации вынесет совсем другую информацию, чем это было бы тогда, когда человек выучил английский язык.

Носители информации

Среда, в которой зафиксировано сообщение, называют носителем сообщения. В «докомпьютерную» эру информацию хранили на бумаге, фотографиях, кинопленке, магнитной ленте и др. С появлением первых компьютеров нашли широкое применение перфокарты и перфоленты, магнитные диски, компакт-диски.

Перфокарта — это лист тонкого картона стандартных размеров. В определенных позициях перфокарты пробивают дырочки. Наличие дырочки в определенной позиции считают единицу, а ее отсутствие — ноль.

Перфолента — это лента плотной бумаги стандартной ширины, на которую заносится информация пробивкой дырочек в соответствующих позициях на 5-ти или 8-ми параллельных дорожках.

Конечно, за дырочками, нанесенными на перфокарты или перфоленты, стоит вполне определенная информация.

Магнитные ленты и магнитные диски для хранения информации начали использовать с развитием вычислительной техники. Для записи 1 (единицы) намагничивалась небольшая область. Размагниченная (или намагниченная противоположно) область означала 0 (ноль).

Гибкие магнитные диски, или ГМД (FDD), позволяли легко переносить информацию с одного компьютера на другой, а также сохранять информацию, которая не используется на компьютере постоянно. Выпускались дискеты, как правило, с диском диаметром 3,5 дюйма и имели емкость всего 1,44 Мбайта.

Жесткие магнитные диски, или винчестеры (HDD), и сегодня являются основным типом носителей для долговременного хранения информации. Накопитель включает собственно магнитный диск, систему позиционирования и комплект магнитных головок — все это размещено в герметично закрытом корпусе.

Магнитные карточки содержат закодированную информацию, эта технология используется в кредитных, телефонных и регистрационных карточках, а также пропусках и «ключах» для кодовых замков.

Компакт-диски (оптические диски или CD) — это диск из специальной пластмассы с зеркальным покрытием с той стороны, с которой записывается и считывается информация. Информация на диск записывается так: диск вращается, и на его поверхности лазером в определенных местах наносятся «повреждение» поверхности таким образом, чтобы от них не отражался луч лазера при считывании. Таким образом записывается 1, «неповрежденные» места означают логический 0.

Существуют CD-R, DVD-R — оптические диски, на которые можно осуществлять однократную запись, а также CD-RW, DVD-RW — оптические диски, на которые можно осуществлять многократную запись.

Формы и способы представления информации

Символьная форма представления информации является наиболее простой, в ней каждый символ имеет какое-то значение. Например: красный свет светофора, показатели поворота на транспортных средствах, различные жесты, сокращения и обозначения в формулах.

Текстовая форма представления информации является более сложной. Эта форма предусматривает, что содержание сообщения передается не через отдельные символы (цифры, буквы, знаки), а их сочетанием, порядком размещения. Последовательно расположены символы образуют слова, которые в свою очередь могут образовывать предложения. Текстовая информация используется в книгах, брошюрах, газетах, журналах и т.

Графическая форма представления информации, как правило, имеет наибольший объем. К этой форме относятся фотографии, картины, чертежи, графики и тому подобное. Графическая форма более информативна. Видимо, поэтому, когда берем в руки новую книгу, то первым делом ищем в ней рисунки, чтобы создать о ней наиболее полное впечатление.

Информацию можно подавать одним из способов: буквами и знаками, жестами, нотами музыки, рисунками, картинами, скульптурами, звукозаписью, видеозаписью, кинофильмами и тому подобное.

Информация может быть в виде непрерывных (аналоговых) и дискретных (цифровых) сигналов.

Информация в аналоговом виде меняет свое значение постепенно (показатели термометра, часов со стрелками, спидометра и т.д.).

Информация в дискретном виде меняет свое значение с определенным шагом (показатели электронных часов, весы с гирями, подсчет количества предметов и т.п.).

Информатика

Термин информатика происходит от двух слов: информация и автоматика. Значит информатика это «наука о преобразовании информации».

Этот термин впервые введен в обиход во Франции в середине 60-х годов XX в., когда началось широкое использование вычислительной техники. Тогда в англоязычных странах вошел в употребление термин «Computer Science» для обозначения науки о преобразовании информации, которая базируется на вычислительной технике. Теперь эти термины являются синонимами.

Основа информатики — информационные технологии — совокупность средств и методов, с помощью которых осуществляется во всех сферах жизни и деятельности человека.

Информационная система взаимосвязанная совокупность средств, методов и персонала, используемая для хранения, обработки и выдачи информации с целью достижения конкретной задачи.

Современное понимание информационной системы (ИС) предусматривает использование компьютера в качестве основного технического средства обработка информации. Как правило, это компьютеры, оснащенные специализированными программными средствами.

В работе ИС, в ее технологическом процессе можно выделить следующие этапы:

  1. Зарождение данных — формирование первичных сообщений фиксируют результаты определенных операций, свойства объектов и субъектов управления, параметры процессов, содержание нормативных и юридических актов и т.п.
  2. Накопление и систематизация данных — организация такого их размещения, которое обеспечивало бы быстрый поиск и отбор нужных сведений, защита их от искажений, потери, деформирование целостности и др.
  3. Обработка данных — процессы, в результате которых на основании ранее накопленных данных формируются новые виды данных: обобщающие, аналитические, рекомендательные, прогнозные. Производные данные также могут проходить дальнейшую обработку, давая сведения обобщенности и др.
  4. Отображение данных — представление их в форме, пригодной для восприятия человеком. Прежде всего — это вывод на печать, то есть изготовление документов, удобных для восприятия человеком. Широко используют построение графических иллюстративных материалов (графиков, диаграмм) и формирование звуковых сигналов.

Сообщения, которые формируются на первом этапе, могут быть обычным бумажным документом, сообщением «в электронном виде» или тем и другим одновременно. В современных информационных системах сообщение по большей части имеют «электронный вид». Основные составляющие информационных процессов:

  • сбор данных: накопление данных с целью достаточной полноты для принятия решений;
  • сохранения;
  • передача;
  • обработка.

Одним из важнейших условий применения электронно — вычислительных машин (ЭВМ) для решения тех или иных задач является построение соответствующего алгоритма (программы), содержащий информацию о правилах получения результирующей (итоговой) информации из заданной (входной) информации.

Программирование — дисциплина, исследующая методы формулировки и решения задач с помощью ЭВМ, и является основной составной частью информатики.

Итак, информация, ЭВМ, алгоритм — три фундаментальных понятия информатики.

Информатика — комплексная научная и инженерная дисциплина, изучающая все аспекты проектирования, создания, оценки, функционирования компьютерных систем обработки информации, ее применение и влияние на различные области социальной практики.

Родоначальниками информатики является науки: документалистика и кибернетика. Кибернетика — переводится, как «искусный в управлении».

В информатике выделяют три основных части:

  • алгоритмы обработки информации (algorithm )
  • вычислительную технику (hardware )
  • компьютерные программы (software ).

Предмет информатики составляют понятия:

  • аппаратное обеспечение средств вычислительной техники
  • программное обеспечение средств вычислительной техники;
  • средства взаимодействия аппаратного и программного обеспечения;
  • средства взаимодействия человека и аппаратного и программного обеспечения.

Методы и средства взаимодействия человека с аппаратными и программными средствами называется интерфейсом .

Двоичное кодирование информации

В разговорной речи часто встречаются такие выражения, как передача информации, сжатие информации, обработка информации. В таких случаях всегда идет об определенном сообщении, которое закодировано и передано тем или иным способом.

В вычислительной технике наиболее часто применяется двоичная форма представления информации , основанной на представленные данных последовательностью двух знаков: 0 и 1

Эти знаки называются двоичными цифрами, по — английски — binary digit , или, сокращенно bit (бит) .

Также используется восьмеричная форма представления информации (основана на представленные последовательности цифр 0, 1, …, 7) и шестнадцатеричная форма представления информации (основана на представленные последовательностью 0, 1, …, 9, A, B, C, …, F).

Информационным объемом сообщение называется количество битов в этом сообщении. Подсчет информационного объема сообщение является чисто техническим заданием, так как при таком подсчете содержание сообщения не играет никакой роли.

В современной вычислительной технике биты принято объединять в восьмерки, которые называются байтами: 1 байт = 8 бит. Наряду с битами и байтами используют и большие единицы измерения информации.

  • 1 bit binary digit {0,1};
  • 1 байт = 8 бит;
  • 1 Кбайт = 2 10 байт = 1024 байт;
  • 1 Мбайт = 2 10 Кбайт = 1024 Кбайт = 2 20 байт;
  • 1 Гбайт = 2 10 Мбайт = 1024 Мбайт = 2 30 байт;
  • 1 Тбайт = 2 10 Гбайт = 1024 Гбайт = 2 40 байт.
  • 1 Пбайт = 2 10 Тбайт = 1024 Тбайт = 2 50 байт.

С помощью двух бит кодируются четыре различных значения: 00, 01, 10, 11. Тремя битами можно закодировать 8 состояний:

  • 000 001 010 011 100 101 110 111

Вообще с помощью n бит можно закодировать 2 n состояний.

Скорость передачи информации измеряется количеством битов, передаваемых за одну секунду. Скорость передачи бит за одну секунду называется 1 Бодом. Производные единицы скорости передачи называются Кбод, Мбод и Гбод:

  • 1 Кбод (один килобод) = 2 10 бод = 1024 бит / с;
  • 1 Мбод (один мегабод) = 2 20 бод = 1024 Кбод;
  • 1 Гбод (один гигабод) = 2 30 бод = 1024 Мбод.

Пример . Пусть модем передает информацию со скоростью 2400 бод. Для передачи одного символа текста нужно передать около 10 битов. Таким образом, модем способен за 1 секунду передать около 2400/10 = 240 символов.

На ЭВМ можно обрабатывать не только числа, но и тексты. При этом нужно закодировать около 200 различных символов. В двоичном коде для этого нужно не менее 8 разрядов (2 8 = 256). Этого достаточно для кодирования всех символов английского и русского алфавитов (строчные и прописные), знаков препинания, символов арифметических действий некоторых общепринятых спецсимволов.

В настоящее время существует несколько систем кодирования.

Наиболее распространенными являются следующие системы кодирования: ASCII, Windows-1251, KOИ8, ISO.

ASCII (American Standard Code for Information Interchange — стандартный код информационного обмена)

В системе ASCII закреплены 2 таблицы кодирования: базовая и расширенная. Базовая таблица закрепляет значения кодов от 0 до 127, расширенная от 128 до 255.

В первых 32 кодах (0-31) размещаются так называемые управляющие коды, которым не соответствуют никакие символы языков, и, соответственно коды не выводятся ни на экран, ни на устройстве печати.

Начиная с кода 32 по код 127 размещены коды символов английского алфавита.

Символы национального алфавита размещены в кодах от 128 до 255.

Кодирования Windows-1251 стала стандартом в российском секторе Wold Wide Web .

KOИ8 (код обмена информацией) является стандартным кодированием в сообщениях электронной почты и телеконференций.

ISO (International Standard Organization ) — международный стандарт. Это кодирования используется редко.

Появление информатики обусловлено возникновением и распространением новой технологии сбора, обработки и передачи информации, связанной с фиксацией данных на машинных носителях. Основной инструмент информатики — компьютер.

Компьютер, получивший свое название от первоначального назначения — выполнения вычислений, имеет второе очень важное применение. Он стал незаменимым помощником человека в его интеллектуальной деятельности и основным техническим средством информационных технологий. А быстрое развитие в последние годы технических и программных возможностей персональных компьютеров, распространение новых видов информационных технологий создают реальные возможности их использования, открывая перед пользователем качественно новые пути дальнейшего развития и адаптации к потребностям общества.

Дезинформация

Дезинформация - заведомо неверная, ложная информация, предоставляемая оппоненту или противнику для более эффективного ведения военных действий, получения каких либо конкурентных преимуществ, для проверки на утечку информации и выявления источника утечки, определения потенциально ненадежных клиентов или партнеров. Также дезинформацией называется сам процесс манипулирования информацией, как то: введение кого-либо в заблуждение путём предоставления неполной информации или полной, но уже не актуальной информации, искажения контекста, искажения какой либо части информации.

Дезинформация, как мы видим, - это результат деятельности человека, желание создать ложное впечатление и, соответственно подтолкнуть к требуемым действиям и/или бездействию.

Одно из основных понятий в информатике - информация. На сегодняшний момент нет единого определения данного понятия. Но зато четко выделены основные свойства информации - достоверность, полнота, актуальность, полезность, объективность и другие. Именно они определяют качество информации и характеризуют ее. Все перечисленные нами свойства являются сугубо субъективными и зависят от требований человека к той или иной информации.

Что такое информация

Информация - довольно абстрактное понятие, не имеющее точного, фиксированного определения. Происходит термин от латинского informatio, что переводится на русский языка как сведения или разъяснения.

Понятие «информатика» имеет множество значений, которые проявляются в контексте. На сегодняшний день ученые не разработали единого определения для данного термина. Так, В. Шнейдеров отмечает, что известно более 400 определений, которые функционируют в различных сферах знаний.

Можно сузить, дав следующие определения - сведения или данные, представленные в любом виде - устном, письменном, электронном, знаковом; совокупность данных, зафиксированных на материальном носителе; сохраненные и распространенные данные.

Оперируют различные науки, такие как кибернетика, семиотика, теория массовой коммуникации, информатика, экономика. Каждая из них выбирает именно ту формулировку, которая наиболее точно описывает применение информации в данной области знаний.

Далее мы рассмотрим не только виды информации и операции над ней, но и ее основные качественные характеристики. Весьма подробно будут рассмотрены свойства информации, полнота. Примеры для каждой из характеристик будут весьма просты и понятны, что поможет вникнуть в суть каждого из них.

Виды информации

В зависимости от критериев, информацию можно классифицировать по способу восприятия, области возникновения и форме представления, назначению.

В зависимости от способа восприятия выделяют информацию визуальную, аудиальную, тактильную, обонятельную и вкусовую.

По области возникновения - элементарную, биологическую и социальную.

По форме представления и фиксации - текстовую, числовую, графическую, звуковую, машинную.

По предназначению - массовую, специальную, личную, социальную, статистическую.

Это далеко не полный перечень классификаций, на самом деле их куда больше. Мы привели лишь основные.

Операции над информацией

Над информацией, вне зависимости от ее вида, можно выполнять различные операции. Рассмотрим основные из них:

  1. Сбор или накопление информации с целью обеспечения ее полноты, достоверности и актуальности.
  2. Фильтрация - отсеивание лишней информации. К примеру, достоверность и полнота информации - это одни из основных ее свойств. Если полученная информация не соответствует им, она может считаться лишней и уничтожаться.
  3. Защита информации - предотвращение утраты, модификации, несанкционированного использования полученных данных.
  4. Преобразование - изменение способа К примеру, текст представляется в виде таблицы или схемы, озвучивается.

Основные свойства информации

Как и любой другой имеет свои особенности и свойства. Так, главные свойства - адекватность, объективность, доступность, точность, полнота информации. Именно они указывают на качество полученных данных, степень их соответствия потребностям той или иной группы людей.

Объективность

Объективность информации - независимость данных от чьего-либо мнения или сознания, методов получения. Чем она объективна, тем более достоверна.

К примеру, зафиксированная с помощью снимка, более объективна, чем нарисованная художником. Или же уточнение погоды на улице. Так, информация о том, что на улице тепло - субъективна, а вот данные о том, что градусник показывает 24 градуса тепла, уже объективны.

На данное свойство влияет тот факт, пропущены ли данные через субъективное восприятие человека или же нет, были ли это факты или допущения.

Полнота

Полнота информации - это показатель, который указывает на меру достаточности полученных данных для решения той или иной задачи. Он весьма относителен, так как оценивается по тому, насколько данная информация может помочь при решении той или иной проблемы. Если информации достаточно для принятия правильного решения - она полная. Если нет, то ее использование не принесет ожидаемого эффекта.

Чем полнее полученные данные, тем больше доступно человеку методов для решения проблемы, тем быстрее он сможет подобрать правильный и решить свою проблему. Неполная же информация может привести к ошибочным решениям, выводам.

Рассмотрим, в какой ситуации может быть важна полнота информации. Примеры могут быть следующими. По телевизору показали прогноз погоды, но сказали лишь то, что температура на улице днем будет +25. При этом диктор не сказала, будет ли солнечно или пасмурно, будет ли дождь. Такая информация недостоверна. На ее основании зритель может принять решение не брать с собой зонт и в итоге попасть под дождь.

Второй пример: студентам было сказано, что во вторник будет экзамен, но предмет не был назван. Таких данных также недостаточно для решения задачи.

В целях полноты информации нужно собрать как можно больше данных и, отфильтровав их, получить в итоге наиболее полные сведения, которые можно использовать для решения поставленных задач.

Достоверность

Достоверность информации - ее верность, соответствие действительности, фактам.

Достоверная информация строится на фактах, объективных сведениях. Полнота и достоверность информации взаимосвязаны между собой, так как неполная информация может быть недостоверной. К примеру, при умалчивании некоторых фактов информации не соответствует действительности. Связано это с критериями достоверности:

Отсутствие искаженных, ложных и неполных данных.

Разборчивость речи (способа фиксации).

Причины недостоверности информации, которые можно выделить как наиболее часто встречаемые: искажение, как преднамеренное (изначально неверное толкование, искажение из-за помех), так и намеренное - дезинформация, ошибки в фиксации данных, утаивание важных деталей.

Актуальность

Актуальность информации - степень соответствия полученной информации данному времени, вовремя полученная информация.

К примеру, возьмем все тот же прогноз погоды. На завтра или на будущую неделю он будет актуален для нас, так как поможет подобрать подходящую одежду, возможно, скорректировать свои планы. В то же время прогноз вчерашний или недельной давности для нас неактуален, так как не несет никакой ценности, так как эта информация получена несвоевременно, не соответствует интересующему нас времени.

Но следует помнить и о том, что, в зависимости от целей, неактуальная для одних людей информация может быть актуальна для других. Так, при раскрытии преступления в некоторых ситуациях состояние погоды в день кражи или убийства может иметь ключевое значение.

Так, свойства информации - полнота, актуальность и достоверность - важны при решении проблемы.

Новизна

Информация должна привносить что-то новое в понимание сущности или объекта. Считается, что под ней стоит подразумевать только те данные, которые могут принести пользу человеку, дать сведения о чем-то новом.

В целом далеко не все ученые признают данное свойство обязательным для информации. Свойство новизны информация приобретает в том случае, если это данные о каких-либо новых исследованиях, явлениях, событиях, произошедших в мире. К примеру, информация о результатах выборов обладает новизной, но лишь в течение короткого промежутка времени.

Полезность

Полезность, или ценность информации оценивается по отношению к нуждам тем или иным ее потребителей, задачам, которые можно решить с ее помощью. Полезная информация - самая ценная.

К примеру, для людей с аллергией ценны данные о составе того или иного продукта. Для брокера или банкира - состояние экономики в данный момент времени. Достоверность, актуальность, полнота информации - это залог ее полезности, гарантия того, что с ее помощью человек может решить поставленную перед ним задачу максимально быстро.

Адекватная

Адекватность - соответствие информации ожидаемому содержимому, соответствие отображаемому объекту или явлению. В целом адекватность - понятие, схожее с объективностью информации и ее достоверностью.

Можно привести следующий пример адекватности информации. На вопрос, какого цвета листья, человек отвечает - зеленого. Если ответ будет синего, черного, листья круглые и т. д., то полученная информация не может считаться адекватной. Таким образом, адекватность информации - ее правильный, достоверный ответ на поставленный вопрос.

Доступность

Доступность - возможность получать ту или иную информацию, совершать над ней ряд операций, к которым относится ее чтение, изменение и копирование ее, использование для решения задач, получения новых данных.

Основные примеры доступности информации при полноте ее содержимого - научные монографии, исследования, изложенные в книгах данные, информация о состоянии окружающей среды.

В какой-то мере можно говорить о доступности политической и экономической информации для общества в целом, но вот говорить о ее полноте при этом далеко не всегда разумно.

Еще одним ярким примером доступности информации может стать книга, написанная на родном для человека языке. А вот если она напечатана на иностранном языке, незнакомом человеку, то о доступности содержащейся в ней информации уже нельзя говорить.

Выводы

До сих пор нет единого определения для термина информация. Каждая область знаний, каждый ученый разрабатывает свое понятие для данного термина. Если говорить в общем, то информация - это какие-либо сведения, обладающие рядом определенных свойств.

А полнота информации - это одно из основных ее свойств. Наряду с ней также выделяют актуальность, достоверность, доступность, объективность, полезность. Данные свойства носят весьма субъективный, в некоторых случаях даже условный характер.

Понятие информации

В понятие «информация» (от лат. informatio – сведения, разъяснения, изложение) вкладывается различный смысл соответственно той отрасли, где это понятие рассматривается: в науке, технике, обычной жизни и т.д. Обычно под информацией подразумевают любые данные или сведения, которые кого-либо интересуют (сообщение о каких-либо событиях, о чьей-либо деятельности и т.п.).

В литературе можно найти большое число определений термина «информация» , которые отражают различные подходы к его толкованию:

Определение 1

  • Информация – сведения (сообщения, данные) независимо от формы их представления («Федеральный закон РФ от $27.07.2006$ г. № $149$-ФЗ Об информации, информационных технологиях и о защите информации»);
  • Информация – сведения об окружающем мире и протекающих в нем процессах, воспринимаемые человеком или специальным устройством (Толковый словарь русского языка Ожегова).

Говоря о компьютерной обработке данных под информацией понимают некоторую последовательность символов или знаков (букв, цифр, закодированных графических образов и звуков и т. п.), которая несет смысловую нагрузку и представлена в понятном для компьютера виде.

В информатике наиболее часто используется следующее определение этого термина:

Определение 2

Информация – это осознанные сведения (знания, выраженные в сигналах, сообщениях, известиях, уведомлениях и т.д.) об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования.

Одно и то же информационное сообщение (статья в журнале, объявление, рассказ, письмо, справка, фотография, телепередача и т. п.) может нести разное количество и содержание информации для различных людей в зависимости от накопленных ими знаниями, от уровня доступности этого сообщения и от уровня интереса к нему. Например, новость, составленная на китайском языке, не несет никакой информации человеку, который не знает этого языка, но может быть полезной для человека со знанием китайского. Никакой новой информации не будет содержать и новость, изложенная на знакомом языке, если ее содержание непонятно или уже известно.

Информацию рассматривают как характеристику не сообщения, а соотношения между сообщением и его получателем.

Виды информации

Информация может существовать в различных видах :

  • текст, рисунки, чертежи, фотографии;
  • световые или звуковые сигналы;
  • радиоволны;
  • электрические и нервные импульсы;
  • магнитные записи;
  • жесты и мимика;
  • запахи и вкусовые ощущения;
  • хромосомы, через которые передаются по наследству признаки и свойства организмов, и т. д.

Различают основные виды информации , которые классифицируют по ее форме представления, способам ее кодирования и хранения:

  • графическая – один из древнейших видов, с помощью которого хранили информацию об окружающем мире в виде наскальных рисунков, а затем в виде картин, фотографий, схем, чертежей на различных материалах (бумага, холст, мрамор и др.), которые изображают картины реального мира;
  • звуковая (акустическая) – для хранения звуковой информации в $1877$ г. было изобретено звукозаписывающее устройство, а для музыкальной информации – разработан способ кодирования с использованием специальных символов, который дает возможность хранить ее как графическую информацию;
  • текстовая – кодирует речь человека с помощью специальных символов – букв (для каждого народа свои); для хранения используется бумага (записи в тетради, книгопечатание и т.п.);
  • числовая – кодирует количественную меру объектов и их свойств в окружающем мире с помощью специальных символов – цифр (для каждой системы кодирования свои); особенно важной стала с развитием торговли, экономики и денежного обмена;
  • видеоинформация – способ хранения «живых» картин окружающего мира, который появился с изобретением кино.

Существуют также виды информации, для которых еще не изобретены способы кодирования и хранения – тактильная информация, органолептическая и др.

Первоначально информация передавалась на большие расстояния с помощью кодированных световых сигналов, после изобретения электричества – передачи закодированного определенным образом сигнала по проводам, позже – используя радиоволны.

Замечание 1

Основателем общей теории информации считают Клода Шеннона, который также положил основу цифровой связи, написав книгу «Математическая теория связи» в $1948$ г., в которой впервые обосновал возможность использования двоичного кода для передачи информации.

Первые компьютеры являлись средством для обработки числовой информации. С развитием компьютерной техники ПК стали использовать для хранения, обработки, передачи различного вида информации (текстовой, числовой, графической, звуковой и видеоинформации).

Хранить информацию с помощью ПК можно на магнитных дисках или лентах, на лазерных дисках (CD и DVD), специальных устройствах энергонезависимой памяти (флэш-память и пр.). Эти методы постоянно совершенствуются, изобретаются и носители информации. Все действия с информацией выполняет центральный процессор ПК.

Предметы, процессы, явления материального или нематериального мира, если их рассматривать с точки зрения их информационных свойств, называют информационными объектами.

Над информацией можно выполнять огромное количество различных информационных процессов, среди которых:

  • создание;
  • прием;
  • комбинирование;
  • хранение;
  • передача;
  • копирование;
  • обработка;
  • поиск;
  • воспринятие;
  • формализация;
  • деление на части;
  • измерение;
  • использование;
  • распространение;
  • упрощение;
  • разрушение;
  • запоминание;
  • преобразование;

Свойства информации

Информация, как и любой объект, обладает свойствами , наиболее важными среди которых, с точки зрения информатики, являются:

  • Объективность. Объективная информация – существующая независимо от человеческого сознания, методов ее фиксации, чьего-либо мнения или отношения.
  • Достоверность. Информация, отражающая истинное положение дел, является достоверной. Недостоверная информация чаще всего приводит к неправильному пониманию или принятию неправильных решений. Устаревание информации может из достоверной информации сделать недостоверную, т.к. она уже не будет отражением истинного положения дел.
  • Полнота. Информация является полной, если она достаточна для понимания и принятия решений. Неполная или избыточная информация может привести к задержке принятия решения или к ошибке.
  • Точность информации – степень ее близости к реальному состоянию объекта, процесса, явления и т. п.
  • Ценность информации зависит от ее важности для принятия решения, решения задачи и дальнейшей применимости в каких-либо видах деятельности человека.
  • Актуальность. Только своевременность получения информации может привести к ожидаемому результату.
  • Понятность. Если ценную и своевременную информацию выразить непонятно, то она, скорее всего, станет бесполезной. Информация будет понятной, когда она, как минимум, выражена понятным для получателя языком.
  • Доступность. Информация должна соответствовать уровню восприятия получателя. Например, одни и те же вопросы по-разному излагаются в учебниках для школы и вуза.
  • Краткость. Информация воспринимается гораздо лучше, если она представлена не подробно и многословно, а с допустимой степенью сжатости, без лишних деталей. Краткость информации незаменима в справочниках, энциклопедиях, инструкциях. Логичность, компактность, удобная форма представления облегчает понимание и усвоение информации.

Термин "информация " происходит от латинского "informatio ", что означает разъяснение, осведомление, изложение. С позиции материалистической философии информация есть отражение реального мира с помощью сведений (сообщений). Сообщение - это форма представления информации в виде речи, текста, изображения, цифровых данных, графиков, таблиц и т.п. В широком смысле информация - это общенаучное понятие, включающее в себя обмен сведениями между людьми, обмен сигналами между живой и неживой природой, людьми и устройствами.

Информатика рассматривает информацию как концептуально связанные между собой сведения, данные, понятия, изменяющие наши представления о явлении или объекте окружающего мира. Наряду с информацией в информатике часто употребляется понятие “данные ”. Покажем в чем их отличие.

Данные могут рассматриваться как признаки или записанные наблюдения, которые по каким-то причинам не используются, а только хранятся. В том случае, если их используют для уменьшения неопределенности (получения сведений) о каком-либо объекте, данные превращаются в информацию. Данные существуют объективно и не зависят от человека и объема его знаний. Одни и те же данные для одного человека могут превратиться в информацию, т.к. они способствовали уменьшению неопределенности знаний человека, а для другого человека так и останутся данными.

Пример 1

Напишите на листе 10 номеров телефонов в виде последовательности 10-ти чисел и покажите их вашему сокурснику. Он воспримет эти цифры как данные, т.к. они не предоставляют ему никаких сведений.

Затем напротив каждого номера укажите название фирмы и род деятельности. Непонятные ранее цифры для вашего сокурсника обретут определенность и превратятся из данных в информацию, которую он в дальнейшем мог бы использовать.

Данные можно разделить на факты, правила и текущие сведения. Факты отвечают на вопрос "я знаю, что…". Примеры фактов:

  • Москва - столица России;
  • Дважды два равно четыре;
  • Квадрат гипотенузы равен сумме квадратов катетов.

Правила отвечают на вопрос "я знаю, как…". Примеры правил:

  • Правила вычисления корней квадратного уравнения;
  • Инструкция пользования банкоматом;
  • Правила дорожного движения.

Факты и правила представляют достаточно данные длительного использования. Они достаточно статичны, т.е. не изменчивы во времени.

Текущие сведения представляют данные, употребляемые в относительно короткий промежуток времени - курс доллара, цена товара, новости.

Одной из важнейших разновидностей информации является информация экономическая. Ее отличительная черта - связь с процессами управления коллективами людей, организацией. Экономическая информация сопровождает процессы производства, распределения, обмена и потребления материальных благ и услуг. Значительная часть ее связана с общественным производством и может быть названа производственной информацией.

При работе с информацией всегда имеется ее источник и потребитель (получатель). Пути и процессы, обеспечивающие передачу сообщений от источника информации к ее потребителю называются информационными коммуникациями.

1.2.2. Формы адекватности информации

Для потребителя информации очень важной характеристикой является ее адекватность .

В реальной жизни вряд ли возможна ситуация, когда вы сможете ориентироваться на полную адекватность информации. Всегда присутствует некоторая степень неопределенности. От степени адекватности информации реальному состоянию объекта или процесса зависит правильность принятия решений потребителем.

Пример 2

Вы успешно окончили школу и хотите продолжить образование по экономическому направлению. Поговорив с друзьями, вы узнаете, что подобную подготовку можно получить в разных вузах. В результате таких бесед вы получаете весьма разноречивые сведения, которые не позволяют вам принять решение в пользу того или иного варианта, т.е. полученная информация неадекватна реальному состоянию дел.

Для того чтобы получить более достоверные сведения, вы покупаете справочник для поступающих в вузы, из которого получаете исчерпывающую информацию. В этом случае можно говорить, что информация, полученная вами из справочника, адекватно отражает направления обучения в вузах и помогает вам определиться в окончательном выборе.

Адекватность информации может выражаться в трех формах: семантической, синтаксической, прагматической.

Синтаксическая адекватность

Синтаксическая адекватность отображает формально-структурные характеристики информации и не затрагивает смыслового содержания. На синтаксическом уровне учитываются тип носителя и способ представления информации, скорость передачи и обработки, размеры кодов представления информации, надежность и точность преобразования этих кодов и т.п. Информацию, рассматриваемую только с синтаксических позиций, обычно называют данными, т.к. при этом не имеет значения смысловая сторона. Эта форма способствует восприятию внешних структурных характеристик, т.е. синтаксической стороны информации.

Семантическая (смысловая) адекватность

Семантическая адекватность определяет степень соответствия образа объекта и самого объекта. Семантический аспект имеет в виду учет смыслового содержания информации. На этом уровне анализируются те сведения, которые отражает информация, рассматриваются смысловые связи. В информатике устанавливаются смысловые связи между кодами представления информации. Эта форма служит для формирования понятий и представлений, выявления смысла, содержания информации и ее обобщения.

Прагматическая (потребительская) адекватность

Прагматическая адекватность отражает отношение информации и ее потребителя, соответствие информации цели управления, которое на ее основе реализуется. Проявляются прагматические свойства информации только при наличии единства информации (объекта), пользователя и цели управления. Прагматический аспект рассмотрения связан с ценностью, полезностью использования информации для выработки потребителем решения для достижения своей цели. С этой точки зрения анализируются потребительские свойства информации. Эта форма адекватности непосредственно связана с практическим использованием информации, с соответствием ее целевой функции деятельности системы.

1.2.3. Измерение информации

Для измерения информации вводятся два параметра:

Эти параметры имеют разные выражения и интерпретацию в зависимости от рассматриваемой формы адекватности. Каждой форме адекватности соответствует своя мера количества информации и объема данных (рис. 1).

Рис. 1. Меры информации

Синтаксические меры информации

Синтаксические меры количества информации имеют дело с обезличенной информацией, не выражающей смыслового отношения к объекту.

Объем данных в сообщении измеряется количеством символов (разрядов) в этом сообщении. В различных системах счисления один разряд имеет различный вес, и соответственно меняется единица измерения данных:

  • в двоичной системе счисления единица измерения - бит (binary digit - двоичный разряд). Наряду с этой единицей измерения широко используется укрупненная единица измерения “байт”, равная 8 бит.
  • в десятичной системе счисления единица измерения - дит (десятичный разряд).

Пример 3

Сообщение в двоичной системе в виде восьмиразрядного двоичного кода 10111011 имеет объем данных Сообщение в десятичной системе в виде шестиразрядного числа 275903имеетобъемданных

Определение количества информации I на синтаксическом уровне невозможно без рассмотрения понятия неопределенности состояния системы (энтропии системы). Действительно, получение информации о какой-либо системе всегда связано с изменением степени неосведомленности получателя о состоянии этой системы. Рассмотрим это понятие.

Пусть до получения информации потребитель имеет некоторые предварительные (априорные) сведения о системе a . Мерой его неосведомленности о системе является функция Н(a), которая в тоже время служит и мерой неопределенности состояния системы. Эта мера получила название энтропия . Если потребитель имеет полную информацию о системе, то энтропия равна 0. Если потребитель имеет полную неопределенность о какой-то системе, то энтропия является положительным числом. По мере получения новой информации энтропия уменьшается.

После получения некоторого сообщения b получатель приобрел некоторую дополнительную информацию , уменьшившую его априорную неосведомленность так, что апостериорная (после получения сообщения b ) неопределенность состояния системы стала .

Тогда количество информации о системе, полученное в сообщении b , определится как , т. е. количество информации измеряется изменением (уменьшением) неопределенности состояния системы.

Если конечная неопределенность обратится в нуль, то первоначальное неполное знание заменится полным знанием и количество информации . Иными словами, энтропия системы Н(a) может рассматриваться как мера недостающей информации.

Энтропия системы Н(a) , имеющая N возможных состояний, согласно формуле Шеннона, равна

(1)

где - вероятность того, что система находится в i -м состоянии.

Для случая, когда все состояния системы равновероятны, т.е. их вероятности равны , ее энтропия определяется соотношением

(2)

Энтропия системы в двоичной системе счисления измеряется в битах. Исходя из формулы (2) можно сказать, что в системе в равновероятными состояниями 1 бит равен количеству информации, которая уменьшает неопределенность знаний в два раза.

Пример 4

Система, которая описывает процесс бросания монеты, имеет два равновероятных состояния. Если вам нужно угадать, какая сторона выпала сверху, то вы сначала имеете полную неопределенность о состоянии системы. Что бы получить информацию о состоянии системы, вы задаете вопрос: "Это орел?". Этим вопросом вы пытаетесь отбросить половину неизвестных состояний, т.е. уменьшить неопределенность в 2 раза. Какой бы ответ ни последовал "Да" или "Нет", вы получите полную ясность о состоянии системы. Таким образом, ответ на вопрос содероат 1 бит информации. Поскольку после 1-го вопроса наступила полня ясность, то энтропия системы равна 1. Этот же ответ дает формула (2), т.к. log2 2=1.

Пример 5.

Игра "Отгадай число". Вам надо угадать задуманное число от 1 до 100. В начале отгадывания вы имеете полную неопределенность о состоянии системы. При отгадывании надо задавать вопросы не хаотично, а так, чтобы ответ уменьшал неопреденность знаний в 2 раза, получая таким образом примерно 1 бит информации после каждого вопроса. Например, сначала надо задать вопрос: "Число больше 50?". "Правильный" подход к отгадыванию дает возможность угадать число за 6-7 вопросов. Если применить формулу (2), то получится, что энтропия системы равна log2 100=6,64.

Пример 6.

Алфавит племени "тумбо-юмбо" содержит 32 различных символа. Какова энтропия системы? Другими словами надо определить, какое количество информации несет в себе каждый символ.
Если считать, что каждый символ встречается в словах с равной вероятностью, то энтропия log2 32=5.

Наиболее часто используются двоичные и десятичные логарифмы. Единицами измерения в этих случаях будут соответственно бит и дит.

Коэффициент (степень) информативности (лаконичность) сообщения определяется отношением количества информации к объему данных, т.е.

Чем больше коэффициент информативности Y, тем меньше объем работы по преобразованию информации (данных) в системе. Поэтому стремятся к повышению информативности, для чего разрабатываются специальные методы оптимального кодирования информации.

Семантическая мера информации

Для измерения смыслового содержания информации, т.е. ее количества на семантическом уровне наибольшее признание получила тезаурусная мера, предложенная Ю.И.Шнейдером. Он связывает семантические свойства информации прежде всего со способностью пользователя принимать поступившее сообщение. Для этого используется понятие "тезаурус пользователя ".

В зависимости от соотношений между смысловым содержанием информации S и тезаурусом пользователя Sp изменяется количество семантической информации , воспринимаемой пользователем и включаемой им в дальнейшем в свой тезаурус. Характер такой зависимости показан на рис. 2. Рассмотрим два предельных случая, когда количество семантической информации равно 0:

Максимальное количество семантической информации потребитель приобретает при согласовании ее смыслового содержания S со своим тезаурусом, когда поступающая информация понятна пользователю и несет ему ранее не известные (отсутствующие в его тезаурусе) сведения.

Следовательно, количество семантической информации в сообщении, количество новых знаний, получаемых пользователем, является величиной относительной. Одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным (семантический шум) для пользователя некомпетентного.

о.

Рис. 2. Зависимость количества семантической информации, воспринимаемой потребителем, от его тезауруса

При оценке семантического (содержательного) аспекта информации надо стремиться к согласованию величин S и Sp.

Относительной мерой количества семантической информации может служить коэффициент содержательности С , который определяется как отношение количества семантической информации к ее объему

Прагматическая мера информации

Прагматическая мера информации служит для определения ее полезности (ценности) для достижения пользователем поставленной цели. Эта мера также величина относительная, обусловленная особенностями использования этой информации в той или иной системе. Ценность информации целесообразно измерять в тех же самых единицах (или близких к ним), в которых измеряется целевая функция.

Пример 7

В экономической системе прагматические свойства (ценность) информации можно определить приростом экономического эффекта функционирования, достигнутым благодаря использованию этой информации для управления системой:

где - ценность информационного сообщения для системы управления ;

- априорный ожидаемый экономический эффект функционирования системы управления ;

Ожидаемый эффект функционирования системы при условии, что для управления будет использована информация, содержащаяся в сообщении .

Для сопоставления введенные меры информации представим в табл. 1.

Таблица 1. Единицы измерения информации и примеры

Меры информации

Единицы измерения

Примеры
(для компьютерной области)

Синтаксическая:

а)Шенноновский подход

б)компьютерный подход

а)степень уменьшения неопределенности

б)единицы представления информации

а) вероятность события

б) бит, байт, Кбайт и т.д.

Семантическая

а) тезаурус

б) экономические показатели

а)пакет прикладных программ, персональный компьютер, компьютерные сети и т.д.

б)рентабельность, производительность, коэффициент амортизации и т.д.

Прагматическая

Ценность использования

Емкость памяти, производительность компьютера, скорость передачи данных и т.д.

Денежное выражение

Время обработки информации и принятия решений

1.2.4. Свойства информации

Возможность и эффективность использования информации обуславливаются такими основными ее свойствами, как: репрезентативность, содержательность, достаточность, доступность, актуальность, своевременность, точность, достоверность, устойчивость.
Репрезентативность информации связана с правильностью ее отбора и формирования с целью адекватного отражения свойств объекта.

Важнейшее значение здесь имеют:

  • правильность концепции, на базе которой сформулировано исходное понятие;
  • обоснованность отбора существенных признаков и связей отображаемого явления.

Нарушение репрезентативности информации приводит нередко к существенным ее погрешностям.

Содержательность информации отражает семантическую емкость, равную отношению количества семантической информации в сообщении к объему обрабатываемых данных, т. е. . С увеличением содержательности информации растет семантическая пропускная способность информационной системы, так как для получения одних и тех же сведений требуется преобразовать меньший объем данных.

Наряду с коэффициентом содержательности C , отражающим семантический аспект, можно использовать и коэффициент информативности, характеризующийся отношением количества синтаксической информации (по Шеннону) к объему данных .

Достаточность (полнота) информации означает, что она содержит минимальный, но достаточный для принятия правильного решения состав (набор показателей). Понятие полноты информации связано с ее смысловым содержанием (семантикой) и прагматикой. Как неполная, т.е. недостаточная для принятия правильного решения, так и избыточная информация снижают эффективность принимаемых пользователем решений.

Доступность информации восприятию пользователя обеспечивается выполнением соответствующих процедур ее получения и преобразования. Например, в информационной системе информация преобразовывается к доступной и удобной для восприятия пользователя форме. Это достигается, в частности, и путем согласования ее семантической формы с тезаурусом пользователя.

Актуальность информации определяется степенью сохранения ценности информации для управления в момент ее использования и зависит от динамики изменения ее характеристик и от интервала времени, прошедшего с момента возникновения данной информации.

Своевременность информации означает ее поступление не позже заранее назначенного момента времени, согласованного с временем решения поставленной задачи.

Точность информации определяется степенью близости получаемой информации к реальному состоянию объекта, процесса, явления и т.п. Для информации, отображаемой цифровым кодом, известны четыре классификационных понятия точности:

  • формальная точность, измеряемая значением единицы младшего разряда числа;
  • реальная точность, определяемая значением единицы последнего разряда числа, верность которого гарантируется;
  • максимальная точность, которую можно получить в конкретных условиях функционирования системы;
  • необходимая точность, определяемая функциональным назначением показателя.

Достоверность информации определяется ее свойством отражать реально существующие объекты с необходимой точностью. Измеряется достоверность информации доверительной вероятностью необходимой точности, т.е. вероятностью того, что отображаемое информацией значение параметра отличается от истинного значения этого параметра в пределах необходимой точности.

Устойчивость информации отражает ее способность реагировать на изменения исходных данных без нарушения необходимой точности. Устойчивость информации, как и репрезентативность, обусловлены выбранной методикой ее отбора и формирования.

В заключение следует отметить, что такие параметры качества информации, как репрезентативность, содержательность, достаточность, доступность, устойчивость целиком определяются на методическом уровне разработки информационных систем. Параметры актуальности, своевременности, точности и достоверности обусловливаются в большей степени также на методическом уровне, однако, на их величину существенно влияет и характер функционирования системы, в первую очередь, ее надежность. При этом параметры актуальности и точности жестко связаны, соответственно, с параметрами своевременности и достоверности.

1.2.5. Общая характеристика информационных процессов

В природе и в обществе постоянно происходит взаимодействие объектов, связанные с изменением информации. Изменение информации происходит в результате разнообразных воздействий. Совокупность действий с информацией называют информационным процессом . Информационная деятельность состоит из разнообразных действий, которые выполняются с информацией. Среди них можно выделить действия, связанные с поиском, приемом, обработкой, передачей, хранением и защитой информации.

Обмен информацией между людьми, реакция человеческого организма на природные явления, взаимодействия человека и автоматизированной системы, - все это примеры информационных процессов.

Процесс сбора включает в себя:

  • измерение параметров;
  • регистрацию параметров в виде данных для последующей обработки;
  • преобразование данных в форму, используемую в системе (кодирование, приведение к нужному виду и ввод в систему обработки).

Для того, чтобы данные были измерены и зарегистрированы, необходимо наличие аппаратных средств, преобразующих сигналы в форму, воспринимаемую системой получателя (совместимую). Например, для регистрации температуры больного или влажности почвы для последующей их обработки нужны специальные датчики. Для записи этих данных на носитель или их передачи также нужны аппаратные средства.

Хранение информации необходимо для того, чтобы можно было многократно воспользоваться одними и теми же данными. Для обеспечения хранения информации необходимы апапратные средства записи данных на материальный носитель и чтения с носителя.

Процесс обмена информацией подразумевает наличие источника и потребителя (приемника) информации. Процесс выхода информации от источника называется передачей , а процесс получения информации потребителей называется приемом . Таким образом, процесс обмена подразумевает наличие двух взаимосвязанных процессов передачи-приема.

Процессы передачи и приема могут быть односторонними, двусторонними, а также поочередно двусторонними.

Пути и процессы, обеспечивающие передачу сообщений от источника информации к ее потребителю, называются информационными коммуникациями .

Рис. 3. Информационный процесс обмена информацией

Источниками и потребителями информации могут быть люди, животные, растения, автоматические устройства. От источника к потребителю информация передается в форме сообщений. Прием и передача сообщений осуществляется в виде сигналов. Сигнал - это изменение физической среды, отображающее сообщение. Сигнал может быть звуковой, световой, обонятельный (запах), электрический, электромагнитный и т.д.

Кодирующее устройство преобразует сообщение из вида, понятного источнику, в сигналы физической среды, по которой передается сообщение. Декодирующее устройство выполняет обратную операцию и преобразует сигналы среды к виду, понятному потребителю.

Материальными носителями передаваемых сообщений могут быть природные химические соединения (ощущаемые на запах и на вкус), механические колебания воздуха или мембраны телефона (при передаче звука), колебания электрического тока в проводах (телеграф, телефон), электромагнитные волны оптического диапазона (воспринимаемые человеческим глазом), электромагнитные волны радиодиапазона (для передачи звука и телеизображения).

В организме человека и животных информация передается по нервной системе в виде слабых электрических токов или с помощью особых химических соединений (гормонов), переносимых кровью.

Каналы связи характеризуются пропускной способностью - количеством данных, переданных в единицу времени. Она зависит от скорости преобразования информации в приемо-передающих устройствах, и от физических свойств самих каналов. Пропускная способность определяется возможностями физической природы канала.

В вычислительной технике информационные процессы автоматизированы и используют аппаратные и программные методы, приводящие сигналы в совместимую форму.

На всех этапах обработки и передачи необходимо передающее и принимающее устройства, имеющие соответствующие совместимые аппаратные средства. Данные после получения могут быть зафиксированы на носителях информации для хранения до следующего процесса.

Следовательно, информационный процесс может состоять из серии преобразований данных и их сохранения в новой форме.
Информационные процессы в современном мире имеют тенденцию автоматизации на компьютере. Появляется все большее количество информационных систем, которые реализуют информационные процессы, и удовлетворяют запросы потребителей информации.

Хранение данных в компьютерных каталогах позволяет быстро копировать информацию, размещать на разных носителях, выдавать пользователям в разной форме. Претерпевают изменения и процессы передачи информации на большие расстояния. Человечество постепенно переходит на связь через глобальные сети.

Обработка - это процесс преобразования информации из одного вида в другой.

Чтобы осуществить обработку, необходимы следующие условия:

  • исходные данные - сырье для обработки;
  • среда и инструменты обработки;
  • технология, которая определяет правила (способы) преобразования данных

Процесс обработки завершается получением новой информации (по форме, по содержанию, по смыслу), которую называют результирующей информацией.

Процесс обработки информации напоминает процесс материального производства. При производстве товаров необходимо сырье (исходные материалы), среда и инструменты производства (цех и станки), технология изготовления товара.
Все описанные выше отдельные стороны информационного процесса тесно взаимосвязаны.

При выполнении информационного процесса на компьютере выделяют четыре группы действий с данными - ввод, хранение, обработку и вывод.

Обработка предполагает преобразование данные в некоторой программной среде. Каждая программная среда обладает набором инструментов, с помощью которых можно опреровать данныи. Чтобы осуществить обработку надо знать технологию работы в среде, т.е. технологию работы с инструментами среды.

Чтобы обработка стала возможной надо данные ввести, т.е. передать от пользователя в компьютер. Для этого предназначены разнообразные устройства ввода.

Чтобы данные не пропали, и их можно было многократно использовать, осуществляется запись данных на разнообразные устройства хранения информациию.

Чтобы увидеть результаты обработки информации, ее надо вывести, т.е. передать из компьютера пользователю, с помощью разнообразных устройств вывода.

1.2.6. Кодирование числовой информации

Общие понятия

Система кодирования применяется для замены названия объекта на условное обозначение (код) с целью обеспечения удобной и более эффективной обработки информации.

Система кодирования - совокупность правил кодового обозначения объектов.

Код строится на базе алфавита, состоящего из букв, цифр и других символов. Код характеризуется:

  • длиной - число позиций в коде;
  • структурой - порядок расположения в коде символов, используемых для обозначения классификационного признака.

Процедура присвоения объекту кодового обозначения называется кодированием.

Представление о системах счисления

Числа могут быть представлены в различных системах счисления.

Для записи чисел могут использоваться не только цифры, но и буквы (например, запись римских цифр - XXI, MCMXCIX). В зависимости от способа изображения чисел системы счисления делятся на позиционные и непозиционные .

В позиционной системе счисления количественное значение каждой цифры числа зависит от того, в каком месте (позиции или разряде) записана та или иная цифра этого числа. Позиции числа нумеруют от 0 справа налево. Например, меняя позицию цифры 2 в десятичной системе счисления, можно записать разные по величине десятичные числа, например, 2 (цифра 2 стоит на 0-й позиции и означает две единицы); 20 (цифра 2 стоит на 1-й позиции и означает два десятка); 2000 (цифра 2 стоит на 3-й позиции и означает две тысячи); 0,02 и т.д. Перемещение положения цифры в соседний разряд увеличивает (уменьшает) ее значение в 10 раз.

В непозиционной системе счисления цифры не изменяют своего количественного значения при изменении их расположения (позиции) в числе. Примером непозиционной системы может служить римская система, в которой независимо от местоположения, одинаковый символ имеет неизменное значение (например, символ X в числе XVX означает десять, где бы он ни стоял).

Количество (p) различных символов, используемых для изображения числа в позиционной системе счисления, называется основанием системы счисления. Значения цифр лежат в пределах от 0 до p-1.

В десятичной системе счисления p=10 и для записи любого числа используется 10 цифр: 0, 1, 2, ... 9.

Для компьютера наиболее подходящей и надежной оказалась двоичная система счисления (p=2), в которой для представления чисел используются последовательности цифр - 0 и 1. Кроме того, для работы компьютера оказалось удобным использовать представление информации с помощью еще двух систем счисления:

  • восьмеричной (p=8, т.е. любое число представляется с помощью 8 цифр - 0,1, 2,...7);
  • шестнадцатеричной (p=16, используемые символы - цифры - 0, 1, 2, ..., 9 и буквы - A, B, C, D, E, F, заменяющие числа 10,11, 12, 13, 14, 15 соответственно).

Соответствие кодов десятичной, двоичной и шестнадцатеричной систем счисления представлено в таблице 2.

Таблица 2. Соответствие кодов десятичной, двоичной и шестнадцатеричной систем счисления

Десятичная

Двоичная

Шестнадцатеричная

В общем случае любое число N в позиционной системе счисления можно представить в виде:

где k - количество разрядов в целой частности числа N;

- (k –1)-ая цифра целой части числа N, записанного в системе счисления с основанием p;

N-ая цифра дробной части числа N, записанного в системе счисления с основанием p;

n - количество разрядов в дробной части числа N;

Максимальное число, которое может быть представлено в к разрядах .

Минимальное число, которое может быть представлено в n разрядах .

Имея в целой части числа к разрядов, а в дробной n разрядов, можно записать всего разных чисел.

С учетом этих обозначений запись числа N в любой позиционной системе счисления с основанием p имеет вид:

Пример 8

При p = 10 запись числа в десятичной системе счисления – 2466,675 10 , где k = 4, n = 3.

При p = 2 запись числа в двоичной системе – 1011,112 , где k = 4, n = 2.

Двоичная и шестнадцатеричная системы счисления обладают такими же свойствами, что и десятичная, только для представления чисел используется не 10 цифр, а всего две в первом случае и 10 цифр и 6 букв во втором случае. Соответственно и разряд числа называют не десятичным, а двоичным или шестнадцатеричным. Основные законы выполнения арифметических действий в двоичной и шестнадцатеричной системах счисления соблюдаются точно также как и в десятичной.

Для сравнения рассмотрим представление чисел в разных системах счисления, как сумму слагаемых, в которых учтен вес каждого разряда.

Пример 9

В десятичной системе счисления

В двоичной системе счисления

В шестнадцатеричной системе счисления

Существуют правила перевода чисел из одной системы счисления в другую.

Формы представления чисел в компьютере

В компьютерах применяются две формы представления двоичных чисел:

  • естественная форма или форма с фиксированной запятой (точкой);
  • нормальная форма или форма с плавающей запятой (точкой).

В естественной форме (с фиксированной запятой) все числа изображаются в виде последовательности цифр с постоянным для всех чисел положением запятой, отделяющей целую часть от дробной.

Пример 10

В десятичной системе счисления имеются 5 разрядов в целой части числа и 5 разрядов в дробной части числа. Числа, записанные в такую разрядную сетку, например, имеют вид: +00564,24891; -10304,00674 и т.д. Максимальное число, которое можно представить в такой разрядной сетке будет 99999,99999.

Форма представления чисел с фиксированной запятой наиболее проста, но имеет ограниченный диапазон представления чисел. Если в результате операции получится число, выходящее за допустимый диапазон, происходит переполнение разрядной сетки, и дальнейшие вычисления теряют смысл. Поэтому в современных компьютерах такая форма представления используется обычно только для целых чисел .

Если используется система счисления с основанием p при наличии k разрядов в целой части и n разрядов в дробной части числа, то диапазон значащих чисел N при их представлении в форме с фиксированной запятой, определяется соотношением:

Пример 11

При p =2, k =10, n =6 диапазон значащих чисел будет определяться следующим соотношением:

В нормальной форме (с плавающей запятой) каждое число изображается в виде двух групп цифр. Первая группа цифр называется мантиссой , вторая – порядком , причем абсолютная величина мантиссы должна быть меньше 1, а порядок – целым числом. В общем виде число в форме с плавающей запятой может быть представлено в виде:

где M – мантисса числа (| M | < 1);

r – порядок числа (r - целое число);

p – основание системы счисления.

Пример 12

Приведенные в примере 3 числа +00564,24891; -10304,00674 будут представлены в форме с плавающей запятой следующими выражениями:

Нормальная форма представления имеет огромный диапазон отображения чисел и является основной в современных компьютерах. Знак числа кодируется двоичной цифрой. При этом код 0 означает знак «+», код 1 - знак «-».

Если используется система счисления с основанием p при наличии m разрядов у мантиссы и s разрядов у порядка (без учета знаковых разрядов порядка и мантиссы), то диапазон значащих чисел N при их представлении в нормальной форме, определяется соотношением:

Пример 13

При p =2, m =10, s =6 диапазон значащих чисел будет определяться примерно от до

Форматы представления чисел в компьютере

Последовательность нескольких битов или байтов часто называют полем данных. Биты в числе (в слове, в поле и т.п.) нумеруются справа налево, начиная с 0-го разряда.

В компьютере могут обрабатываться поля постоянной и переменной длины.

Поля постоянной длины:

слово – 2 байта

полуслово – 1 байт

двойное слово – 4 байта

расширенное слово – 8 байт.

Поля переменной длины могут иметь размер от 0 до 256 байт, но обязательно равный целому числу байтов.

Числа с фиксированной запятой чаще всего имеют формат слова и полуслова. Числа с плавающей запятой – формат двойного и расширенного слова.

Пример 14

Числу –193 в десятичной системе соответствует в двоичной системе число –11000001. Представим это число в двух форматах.

Для естественной формы представления этого числа (с фиксированной запятой) потребуется слово емкостью 2 байта. (таблица 3).

Таблица 3

Знак числа

Абсолютная величина числа

№ разряда

В нормальной форме число -19310 в десятичной записи имеет вид -0,193х103, а в двоичной записи это же число имеет вид -0,11000001х21000. Мантисса, обозначающая число 193, записанная в двоичной форме имеет 8 позиций. Таким образом, порядок числа равен 8, поэтому степень числа 2 равна 8 (10002). Число 8 также записано в двоичной форме. Для нормальной формы представления этого числа (с плавающей запятой) потребуется двойное слово, т.е. 4 байта (таблица 4).

Таблица 4

Знак числа

Порядок Мантисса

№ разряда

Знак числа записывается в крайнем левом 31-м бите. На запись порядка числа отводится 7 бит (с 24-го по 30-й). В этих позициях записано число 8 в двоичной форме. Для записи мантиссы отводится 24 бита (с 0-го по 23-й). Мантисса записывается слева направо.

Перевод из любой позиционной системы в десятичную систему счисления

Перевод из любой позиционной системы счисления, например используемой в компьютере с основанием p = 2; 8; 16, в десятичную систему счисления производится по формуле (1).

Пример 15

Перевести в десятичную систему счисления двоичное число . Подставляя в формулу перевода (1) соответствующие двоичные разряды исходного числа, найдем:

Пример 16

Пример 17

Перевести число в десятичную систему счисления.

При переводе учтено, что в 16-ой системе счисления буква А заменяет значение 10.

Перевод целого числа из десятичной в другую позиционную систему счисления

Рассмотрим обратный перевод - из десятичной системы в другую систему счисления. Для простоты ограничимся переводом только целых чисел.

Общее правило перевода следующее: необходимо разделить число N на p. Полученный при этом остаток даст цифру, стоящую в 1-ом разряде p-ричной записи числа N. Затем полученное частное снова разделить на p и снова запомнить полученный остаток - это будет цифра второго разряда и т.д. Такое последовательное деление продолжается до тех пор, пока частное не окажется меньше, чем основание системы счисления - p. Это последнее частное и будет цифрой старшего разряда.

Пример 18

Перевести десятичное число N = 20 (p = 10) в двоичную систему счисления (p = 2).

Действуем по указанному выше правилу (рис. 4). Первое деление дает частное 10 и остаток, равный 0. Это цифра младшего разряда. Второе деление дает частное – 5 и остаток – 1. Третье деление дает частное – 2 и остаток – 0. Деление продолжается, пока частное не равно нулю. Пятое частное – 0. Остаток – 1. Этот остаток – старшая цифра полученного двоичного числа. На этом деление заканчивается. Теперь записываем результат, начиная с последнего частного, затем переписываем все остатки. В итоге получим:

Рис. 4. Перевод десятичного числа в двоичное методом деления

1.2.7. Кодирование текстовой данных

Текстовые данные представляют собой совокупность алфавитных, цифровых и специальных символов, зафиксированных на некотором физическом носителе (бумага, магнитный диск, изображение на экране дисплея).

Нажатие клавиши на клавиатуре приводит к тому, что сигнал посылается в компьютер в виде двоичного числа, которое хранится в кодовой таблице. Кодовая таблица – это внутреннее представление символов в компьютере. Во всем мире в качестве стандарта принята таблица ASCII (American Standard Code for Informational Interchange – Американский стандартный код информационного обмена).

Для хранения двоичного кода одного символа выделен 1байт=8 бит. Учитывая, что каждый бит принимает значение 1 или 0, количество возможный сочетаний единиц и нулей равно . Значит, с помощью 1 байта можно получить 256 разных двоичных кодовых комбинаций и отобразить с их помощью 256 различных символа. Эти коды и составляют таблицу ASCII. Для сокращения записей и удобства пользования этими кодами символов в таблице используют шестнадцатеричную систему счисления, состоящую из 16 символов – 10-ти цифр и 6-ти латинских букв: A, B, C, D, E, F. При кодировании символов сначала записывается цифра столбца, а затем строки, на пересечении которых находится данный символ.

Кодирование каждого символа 1-м байтом связано с расчетом энтропии системы символов (см. пример 6). При разработке системы кодирования символов учли, что необходимо закодировать 26 строчных букв латинского (английского) алфавита и 26 прописных букв, цифры от 0 до 9, знаки препинания, специальные символы, арифметические знаки. Это так называемые, международные, символы. Получается около 128 символов. Еще 128 кодов отводится для кодирования символов национального алфавита и некоторых дополнительных знаков. В русском языке это 33 строчных и 33 прописных буквы. Общее число символов, подлежащих кодированию больше и меньше . В предположении, что все символы встречаются с равной вероятностью, то энтропия системы будет 7 < H < 8. Поскольку для кодирования используется целое число бит, то 7 бит будет мало. Поэтому для кодирования каждого символа используется по 8 бит. Как было сказано выше, 8 бит позволяют закодировать символов. Это число дало название единице измерения объема данный «байт».

Пример 19

Латинская буква S в таблице ASCII представлена шестнадцатеричным кодом – 53. При нажатии на клавиатуре буквы S, в память компьютера записывается его эквивалент – двоичный код 01010011, который получается путем замены каждой шестнадцатеричной цифры на ее двоичный эквивалент.

В данном случае цифра 5 заменена кодом 0101, а цифра 3 – кодом 0011. При выводе буквы S на экран в компьютере происходит декодирование – по этому двоичному коду строится его изображение.

Обратите внимание! Любой символ в таблице ASCII кодируется с помощью 8-ми двоичных разрядов или 2-х шестнадцатеричных разрядов (1 разряд представлен 4-мя битами).

Таблица (рис. 5) отображает кодировку символов в шестнадцатеричной системе счисления. Первые 32 символа являются управляющими и предназначены, в основном, для передачи команд управления. Они могут меняться в зависимости от программных и аппаратных средств. Вторая половина кодовой таблицы (от 128 до 255) не определена американским стандартом и предназначена для национальных символов, псевдографических и некоторых математических символов. В разных странах могут использоваться различные варианты второй половины кодовой таблицы для кодирования букв своего алфавита.

Обратите внимание! Цифры кодируются по стандарту ASCII в двух случаях – при вводе-выводе и, если они встречаются в тексте.

Для сравнения рассмотрим число 45 для двух вариантов кодирования.

При использовании в тексте это число потребует для своего представления 2 байта, т.к. каждая цифра будет представлена своим кодом в соответствии с таблицей ASCII (рис. 4). В шестнадцатеричной системе код будет 34 35, в двоичной системе – 00110100 00110101, что потребует 2 байта.

Рис. 5. Таблица кодов ASCII (фрагмент)

1.2.8. Кодирование графической информации

Представление о цвете в компьютере

Графические данные – это различного рода графики, диаграммы, схемы, рисунки и т.д. Любое графическое изображение можно представить как некоторую композицию цветовых областей. Цвет определяет свойство видимых предметов, непосредственно воспринимаемое глазом.

В компьютерной промышленности в основе отображения любого цвета лежат три так называемых первичных цвета: синий, зеленый, красный. Для их обозначения используется аббревиатура RGB (Red - Green - Blue).

Все цвета, встречающиеся в природе, можно создавать, смешивая и варьируя интенсивность (яркость) этих трех цветов. Смесь, состоящая из 100% каждого цвета, дает белый цвет. Смесь 0% от каждого цвета дает черный цвет.

Искусство воспроизведения цвета в компьютере путем сложения в различных пропорциях трех первичных RGB цветов называется аддитивным смешением.

Человеческий глаз может воспринимать огромное количество цветов. Монитор и принтер в состоянии воспроизводить лишь ограниченную часть этого диапазона.

В связи с необходимостью описания различных физических процессов воспроизведения цвета в компьютере, были разработаны различные цветовые модели. Диапазон воспроизводимых цветов и способ их отображения для монитора и принтера различны и зависит от используемых цветовых моделей.

Цветовые модели описываются с помощью математического аппарата и позволяют представить различные цветовые оттенки путем смешивания нескольких основных цветов.

Цвета на экране монитора могут выглядеть иначе, чем при их выводе на печать. Это отличие обусловлено тем, что для вывода на печать применяются иные, нежели для монитора цветовые модели.

Среди цветовых моделей наиболее известны модели RGB, CMYK, HSB, LAB.

Модель RGB

Модель RGB называют аддитивной, поскольку по мере увеличения яркости составляющих цветов увеличивается яркость результирующего цвета.

Цветовая модель RGB обычно используется для описания цветов, отображаемых мониторами, получаемых сканерами и цветовыми фильтрами. Для отображения цветовой гаммы на печатающем устройстве она не используется.

Цвет в модели RGВ представляется как сумма трех базовых цветов – красного (Red), зеленого (Green) и синего (Blue) (рис. 6). RGB хорошо воспроизводит цвета в диапазоне от синего до зеленого и несколько хуже – желтые и оранжевые оттенки.

В модели RGB каждый базовый цвет характеризуется яркостью (интенсивностью), которая может принимать 256 дискретных значений от 0 до 255. Поэтому можно смешивать цвета в различных пропорциях, варьируя яркость каждой составляющей. Таким образом, можно получить

256x256x256 = 16 777 216 цветов.

Каждому цвету можно сопоставить код, который содержит значения яркости трех составляющих. Используются десятичное и шестнадцатеричное представления кода.

Рис. 6. Комбинации базовых цветов модели RGB

Десятичное представление – это три группы из трех десятичных чисел, разделенных запятыми, например, 245,155,212. Первое число соответствует яркости красной составляющей, второе – зеленой, а третье – синей.

Код цвета в шестнадцатеричном представлении имеет вид 0хХХХХХХ. Префикс 0х указывает на то, что мы имеем дело с шестнадцатеричным числом. За префиксом следуют шесть шестнадцатеричных цифр (0, 1, 2,...,9, А, В, С, D, E, F). Первые две цифры – шестнадцатеричное число, представляющее яркость красной составляющей, вторая и третья пары соответствуют яркости зеленой и синей составляющих.

Пример 20

Максимальная яркость базовых цветов позволяет отобразить белый цвет. Этому соответствует в десятичном представлении код 255,255,255, а в шестнадцатеричном представлении – код 0xFFFFFF.

Минимальная яркость (или) соответствует черному цвету. Этому соответствует в десятичном представлении код 0,0,0, а в шестнадцатеричном представлении код 0x000000.

Смешение красного, зеленого и синего цветов с различными, но одинаковыми яркостями дает шкалу из 256 оттенков (градаций) серого цвета – от черного до белого. Изображения в оттенках серого еще называют полутоновыми изображениями.

Поскольку яркость каждой из базовых составляющих цвета может принимать только 256 целочисленных значений, каждое значение можно представить 8-разрядным двоичным числом (последовательностью из 8 нулей и единиц, () т.е. одним байтом. Таким образом, в модели RGB информация о каждом цвете требует 3 байта (по одному байту на каждый базовый цвет) или 24 бита памяти для хранения. Поскольку все оттенки серого цвета образуются смешением трех составляющих одинаковой яркости, то для представления любого из 256 оттенков серого требуется лишь 1 байт.

Модель CMYK

Модель CMYK описывает смешение красок на печатающем устройстве. В этой модели используются три базовых цвета: голубой (Cyan), пурпурный (Magenta) и желтый (Yellow). Кроме того, применяется черный цвет (blacK) (рис. 7). Прописные буквы, выделенные в словах, составляют аббревиатуру палитры.

Рис. 7. Комбинации базовых цветов модели CMYK

Каждый из трех базовых цветов модели CMYK получается в результате вычитания из белого цвета одного из базовых цветов модели RGB. Так, например, голубой (cyan) получается вычитанием красного из белого, а желтый (yellow) – вычитанием синего. Напомним, что в модели RGB белый цвет представляется как смесь красного, зеленого и синего максимальной яркости. Тогда базовые цвета модели CMYK можно представить с помощью формул вычитания базовых цветов модели RGB следующим образом:

Cyan = RGB - R = GB = (0,255,255)

Yellow = RGB - В = RG = (255,255,0)

Magenta = RGB - G = RB = (255,0,255)

В связи с тем, что базовые цвета CMYK получаются путем вычитания из белого базовых цветов RGB, их называют субтрактивными.

Базовые цвета модели CMYK являются яркими цветами и не вполне годятся для воспроизведения темных цветов. Так, при их смешивании на практике получается не чисто черный, а грязно-коричневый цвет. Поэтому в цветовую модель CMYK включен еще и чистый черный цвет, который используется для создания темных оттенков, а также для печати черных элементов изображения.

Краски субтрактивной модели CMYK не являются столь чистыми, как цвета аддитивной модели RGB.

Не все цвета модели CMYK могут быть представлены в модели RGB и наоборот. В количественном отношении цветовой диапазон CMYK меньше цветового диапазона RGB. Это обстоятельство имеет принципиальное значение, а не обусловлено только физическими особенностями монитора или печатающего устройства.

Модель HSB

Модель HSB основана на трех параметрах: Н – оттенок или тон (Hue), S – насыщенность (Saturation) и В – яркость (Brightness). Она является вариантом модели RGB и также основана на использовании базовых цветов.

Из всех используемых в настоящее время моделей эта модель наиболее точно соответствует способу восприятия цвета человеческим глазом. Она позволяет описывать цвета интуитивно ясным способом. Часто используются художниками.

В модели HSB насыщенность характеризует чистоту цвета. Нулевая насыщенность соответствует серому цвету, а максимальная насыщенность – наиболее яркому варианту данного цвета. Яркость понимается как степень освещенности.

Графически модель HSB можно представить в виде кольца, вдоль которого располагаются оттенки цветов (рис. 8).

Рис. 8. Графическое представление модели HSB

Модель Lab

Модель Lab используется для печатающего устройства. Она более совершенна, чем модель CMYK, где не хватает очень многих оттенков. Графическое представление модели Lab представлено на рис. 9.

Рис. 9. Графическое представление модели Lab

Модель Lab основана на трех параметрах: L - яркость (Luminosity) и два цветовых параметра - а и b. Параметр а содержит цвета от темно-зеленого через серый до ярко-розового. Параметр b содержит цвета от светло-синего через серый до ярко-желтого.

Кодирование графической информации

Графические изображения хранятся в файлах графических форматов.

Изображения представляют собой совокупность графических элементов (picture element) или, сокращенно, пикселов (pixel). Для того, чтобы описать изображение, необходимо определить способ описания одного пиксела.

Описание цвета пиксела является, по существу, кодом цвета в соответствии с той или иной цветовой моделью. Цвет пиксела описывается несколькими числами. Эти числа еще называют каналами. В случае моделей RGB, CMYK и Lab эти каналы называют также цветовыми каналами.

В компьютере количество бит, отводимое на каждый пиксел для представления цветовой информации, называют цветовой глубиной (color depth) или битовой глубиной цвета (bit depth). Цветовая глубина определяет, как много цветов может быть представлено пикселом. Чем больше цветовая глубина, тем больше объем файла, содержащего описание изображения.

Пример 21

Если цветовая глубина равна 1 бит, то пиксел может представлять только один из двух возможных цветов – белый или черный. Если цветовая глубина равна 8 бит, то количество возможных цветов равно 2. При глубине цвета 24 бит количество цветов превышает 16 млн.

Изображения в системах RGB, CMYK, Lab и оттенках серого (gray scale) обычно содержат 8 бит на один цветовой канал. Поскольку в RGB и Lab три цветовых канала, глубина цвета в этих режимах равна 8?3 = 24. В CMYK четыре канала и поэтому цветовая глубина равна 8?4 = 32. В полутоновых изображениях только один канал, следовательно, его цветовая глубина равна 8.

Форматы графических файлов

Формат графического файла связан с методом кодирования графического изображения.

В настоящее время существует более двух десятков форматов графических файлов, например, BMP, GIF, TIFF, JPEG, PCX, WMF и др. Есть файлы, которые кроме статических изображений, могут содержать анимационные клипы и/или звук, например, GIF, PNG, AVI, SWF, MPEG, MOV и др. Важной характеристикой этих файлов является способность представлять содержащиеся в них данные в сжатом виде.

Формат ВМР (Bit Map Picture – Windows Device Independent Bitmap) – формат Windows, он поддерживается всеми графическими редакторами, работающими под ее управлением. Применяется для хранения растровых изображений, предназначенных для использования в Windows. Способен хранить как индексированный (до 256 цветов), так и RGB-цвет (16 млн. оттенков).

Формат GIF (Graphics Interchange Format) – формат графического обмена использует алгоритм сжатия информации без потерь LZW и предназначен для сохранения растровых изображений с количеством цветов не более 256.

Формат PNG (Portable Network Graphics) – формат переносимой графики для сети был разработан с целью заменить формат GIF. Формат PNG позволяет сохранять изображения с глубиной цвета 24 и даже 48 бит, он также позволяет включать каналы масок для управления градиентной прозрачностью, но не поддерживает слои. PNG не сжимает изображения с потерей качества подобно JPEG.

Формат JPEG (Joint Photographic Experts Group) – формат объединенной группы экспертов по фотографии предназначен для компактного хранения многоцветных изображений с фотографическим качеством. Файлы этого формата имеют расширение jpg, jpe или jpeg.

В отличие от GIF, в формате JPEG используется алгоритм сжатия с потерями информации, благодаря чему достигается очень большая степень сжатия (от единиц до сотен раз).

1.2.9. Кодирование звуковой информации

Представление о звуке

С начала 90-х годов персональные компьютеры получили возможность работать со звуковой информацией. Каждый компьютер, имеющий звуковую плату, микрофон и колонки, может записывать, сохранять и воспроизводить звуковую информацию.

Звук представляет собой звуковую волну с непрерывно меняющейся амплитудой и частотой (рис. 10).

Рис. 10. Звуковая волна

Чем больше амплитуда сигнала, тем он громче для человека, чем больше частота (Т) сигнала, тем выше тон. Частота звуковой волны выражается в Герцах (Гц, Hz) или числом колебаний в секунду. Человеческое ухо воспринимает звуки в диапазоне (примерно) от 20 Гц до 20 кГц, который так и называется – звуковой диапазон частот.

Характеристики качества звука

"Глубина" кодирования звука - количество бит на один звуковой сигнал.

Современные звуковые карты обеспечивают 16, 32 или 64-битную "глубину" кодирования звука. Количество уровней (градаций амплитуды) можно рассчитать по формуле

Уровней сигнала (градаций амплитуды)

Частота дискретизации – это количество измерений уровней сигнала за 1 секунду

Одно измерение в 1 секунду соответствует частоте 1 Гц

1000 измерений в 1 секунду - 1 кГц

Количество измерений может лежать в диапазоне от 8000 до 48 000 (8 кГц – 48 кГц)

8 кГц соответствует частоте радиотрансляции,

48 кГц – качеству звучания аудио- CD.

Методы кодирования звуковой информации

Для того чтобы компьютер мог обрабатывать непрерывный звуковой сигнал, он должен быть превращен в последовательность электрических импульсов (двоичных нулей и единиц). Однако в отличие от числовых, текстовых и графических данных, у звукозаписей не было столь же длительной и проверенной истории кодирования. В итоге методы кодирования звуковой информации двоичным кодом далеки от стандартизации. Множество отдельных компаний разработали свои корпоративные стандарты, но если говорить обобщенно, то можно выделить два основных направления.

Метод FM (Frequency Modulation) основан на том, что теоретически любой сложный звук можно разложить на последовательность простейших гармонических сигналов разных частот, каждый из которых представляет собой правильную синусоиду, а, следовательно, может быть описан числовыми параметрами, то есть кодом. В природе звуковые сигналы имеют непрерывный спектр, то есть являются аналоговыми. Их разложение в гармонические ряды и представление в виде дискретных цифровых сигналов выполняют специальные устройства – аналогово-цифровые преобразователи (АЦП). Обратное преобразование для воспроизведения звука, закодированного числовым кодом, выполняют цифро-аналоговые преобразователи (ЦАП). Процесс преобразования звука представлен на рисунке 11.

Рис. 11. Процесс преобразования звука

При таких преобразованиях неизбежны потери информации, связанные с методом кодирования, поэтому качество звукозаписи обычно получается не вполне удовлетворительным. В то же время данный метод кодирования обеспечивает компактный код, и потому он нашел применение еще в те годы, когда ресурсы средств вычислительной техники были явно недостаточны.

Метод таблично-волнового (Wave-Table) синтеза лучше соответствует современному уровню развития техники. Если говорить упрощенно, то можно сказать, что где-то в заранее подготовленных таблицах хранятся образцы звуков для множества различных музыкальных инструментов (хотя не только для них). В технике такие образцы называют сэмплами. Числовые коды выражают тип инструмента, номер его модели, высоту тона, продолжительность и интенсивность звука, динамику его изменения, некоторые параметры среды, в которой происходит звучание, а также прочие параметры, характеризующие особенности звука. Поскольку в качестве образцов используются "реальные" звуки, то качество звука, полученного в результате синтеза, получается очень высоким и приближается к качеству звучания реальных музыкальных инструментов.

Основные форматы звуковых файлов

Формат MIDI (Musical Instrument Digital Interface) – цифровой интерфейс музыкальных инструментов. Создан в 1982 году ведущими производителями электронных музыкальных инструментов – Yamaha, Roland, Korg, E-mu и др. Изначально был предназначен для замены принятого в то время управления музыкальными инструментами при помощи аналоговых сигналов управлением при помощи информационных сообщений, передаваемых по цифровому интерфейсу. Впоследствии стал стандартом де-факто в области электронных музыкальных инструментов и компьютерных модулей синтеза.

Формат аудио-файла WAV, представляющий произвольный звук как он есть – в виде цифрового представления исходного звукового колебания или звуковой волны (wave), отчего в ряде случаев технология создания таких файлов, именуется wave-технологией. Позволяет работать со звуками любого вида, любой формы и длительности.

Графическое представление WAV-файла очень удобно и часто используется в звуковых редакторах и программах-секвенсорах для работы с ними и последующего преобразования (об этом речь пойдет в следующей главе). Данный формат был разработан компанией Microsoft, и все стандартные звуки Windows имеют расширение WAV.

Формат MP3. Это один из цифровых форматов хранения аудио, разработанный Fraunhofer IIS и THOMPSON (1992г.), позднее утвержденный как часть стандартов сжатого видео и аудио MPEG1 и MPEG2. Данная схема является самой сложной из семейства MPEG Layer 1/2/3. Она требует больших затрат машинного времени для кодирования по сравнению с остальными и обеспечивает более высокое качество кодирования. Используется главным образом для передачи аудио в реальном времени по сетевым каналам и для кодирования CD Audio.

1.2.10. Кодирование видео информации

Принципы кодирования видео информации

Video в переводе с латыни означает «смотрю, вижу». Когда говорят о видео, прежде всего, имеют ввиду движущееся изображение на экране телевизора или компьютерного монитора.

Видеокамера преобразует оптическое изображение передаваемой сцены в последовательность электрических сигналов. Эти сигналы несут информацию о яркости и цветности отдельных участков изображения. С целью сохранения для последующего воспроизведения они могут быть записаны на магнитную ленту в аналоговой или цифровой форме.

При аналоговой записи изменения намагниченности видеоленты аналогичны форме световой или звуковой волны. Аналоговые сигналы, в отличие от цифровых, являются непрерывными во времени.

Цифровой сигнал представляет собой последовательность кодовых комбинаций электрических импульсов.

Информация, представленная в цифровом виде, измеряется в битах. Процесс превращения непрерывного сигнала в набор кодовых слов называется аналого-цифровым преобразованием.

Аналогово-цифровое преобразование сигнала проходит в три этапа. На этапе дискретизации (рис. 12) происходит представление непрерывного сигнала последовательностью отсчётов его мгновенных значений. Эти отсчёты берутся через равные промежутки времени.

Рис. 12. Дискретизация

Следующий этап – квантование (рис. 13). Весь диапазон значений сигнала делится на уровни. Величина каждого отсчёта заменяется округлённым значением ближайшего уровня квантования, его порядковым номером

Рис. 13. Уровневое квантование

Кодирование завершает процесс оцифровки аналогового сигнала (рис. 14), который теперь имеет конечное число значений. Каждое значение соответствует порядковому номеру уровня квантования. Этот номер выражается в двоичных единицах. В пределах одного интервала дискретизации передаётся одно кодовое слово.

Рис. 14. Цифровое кодирование

Таким образом, информация об изображении, представленная в цифровом виде, может быть передана на жёсткий диск компьютера для последующей обработки и монтажа без каких-либо дополнительных преобразований.

Компьютерное видео характеризуется следующими параметрами:

• количество кадров в секунду (15, 24, 25...);

• поток данных (килобайт/с);

• формат файла (avi, mov...);

• способ сжатия (Microsoft Video for Windows, MPEG, MPEG-I, MPEG-2, Moution JPEG).

Форматы видео информации

• формат AVI – формат несжатого видео, создаваемый при оцифровке изображения. Это наиболее ресурсоемкий формат, но при этом при оцифровке в него потеря данных минимальна. Поэтому он предоставляет больше возможностей для редактирования, накладки эффектов и любой другой обработки файлов. Однако следует учитывать, что в среднем одна секунда цифруемого изображения занимает 1,5–2 Mбайт на жестком диске.

• формат MPEG – сокращение названия экспертной группы ISO (Moving Picture Expert Group), которая занимается разработкой стандартов кодирования и сжатия видео- и аудиоданных. На сегодняшний день известно несколько разновидностей форматов MPEG.

• MPEG-1 – для записи синхронизированных видеоизображения и звукового сопровождения на CD-ROM с учетом максимальной скорости считывания около 1,5 Мбит/с. Качественные параметры видеоданных, обработанных MPEG-1, во многом аналогичны обычному VHS-видео, поэтому такой формат применяется, в первую очередь, там, где неудобно или непрактично использовать стандартные аналоговые видеоносители;

• MPEG-2 – для обработки видеоизображения, соизмеримого по качеству с телевизионным, при пропускной способности системы передачи данных в пределах от 3 до 15 Мбит/с. На технологиях, основанных на MPEG-2, работают многие телеканалы; сигнал, сжатый в соответствии с этим стандартом, транслируется через телевизионные спутники и используется для архивации больших объемов видеоматериала;

• MPEG-3 – для использования в системах телевидения высокой четкости (high-defenition television, HDTV) со скоростью потока данных 20–40 Мбит/с; но позже он стал частью стандарта MPEG-2 и отдельно теперь не используется;

• MPEG-4 – для работы с цифровым представлением медиаданных для трех областей: интерактивного мультимедиа (включая продукты, распространяемые на оптических дисках и через Сеть), графических приложений (синтетического контента) и цифрового телевидения

Справочные сведения о представлении чисел в компьютере приведены в таблице (таблица 5).

1.2.11. Таблица 5. Представление числовой, текстовой, графической информации в компьютере

Выводы

В данной теме рассмотрено понятие информации и различные способы ее кодирования в компьютере.

Показаны различия информации и данных. Введено понятие адекватности информации и представлены основные ее формы: синтаксическая, семантическая и прагматическая. Для этих форм приведены меры количественной и качественной оценки. Рассмотрены основные свойства информации: репрезентативность, содержательность, достаточность, актуальность, своевременность, точность, достоверность, устойчивость. Информационный процесс представлен как совокупность основных этапов преобразования информации.

Большое внимание в теме уделено вопросам кодирования разного вида информации в компьютере. Приведены основные форматы представления в компьютере числовой, текстовой, графической, звуковой и видео информации. Указаны особенности рассматриваемых форматов в зависимости от вида информации.

Вопросы для самопроверки

  1. В чем различие информации и данных?
  2. Что такое адекватность и в каких формах она проявляется?
  3. Какие существуют меры информации и когда ими надо пользоваться?
  4. Расскажите о синтаксической мере информации.
  5. Расскажите о семантической мере информации.
  6. Расскажите о прагматической мере информации.
  7. Какие существуют показатели качества информации?
  8. Что такое система кодирования информации?
  9. Как можно представить информационный процесс?
  10. Что такое система кодирования и чем она характеризуется?
  11. Какие известны системы счисления и в чем их отличие?
  12. Какие системы счисления применяются в компьютере?
  13. Каким соотношением можно представить число в позиционной системе счисления?
  14. Какие формы представления чисел применяются в компьютере и в чем их отличие?
  15. Приведите на примерах форматы представления чисел для форм с фиксированной и плавающей запятой.
  16. Как осуществляется перевод из любой позиционной системы счисления в десятичную систему счисления? Приведите примеры.
  17. Как осуществляется перевод целого числа из десятичной в другую позиционную систему счисления? Приведите примеры.
  18. Как кодируется текстовая информация? Приведите примеры.
  19. В чем суть кодирования графической информации?
  20. Расскажите о модели RGB кодирования графической информации.
  21. Когда применяется модель кодирования CMYK графической информации? В чем ее отличие от модели RGB?
  22. Какие вы знаете форматы представления в компьютере графической информации и их особенности?
  23. Название практикума Аннотация

    Презентации

    Название презентации Аннотация
    Презентация

Информация - это сведения о чем-либо

Понятие и виды информации, передача и обработка, поиск и хранение информации

Информация - это, определение

Информация - это любые сведения , принимаемые и передаваемые, сохраняемые различными источниками. - это вся совокупность сведений об окружающем нас мире, о всевозможных протекающих в нем процессах, которые могут быть восприняты живыми организмами, электронными машинами и другими информационными системами.

- это значимые сведения о чём-либо, когда форма их представления также является информацией, то есть имеет форматирующую функцию в соответствии с собственной природой.

Информация - это все то, чем могут быть дополнены наши знания и предположения.

Информация - это сведения о чём-либо, независимо от формы их представления.

Информация - это психический любого психофизического организма, производимый им при использовании какого-либо средства, называемого средством информации.

Информация - это сведения, воспринимаемые человеком и (или) спец. устройствами как отражение фактов материального или духовного мира в процессе коммуникации.

Информация - это данные, организованные таким образом, что имеют смысл для имеющего с ними дело человека.

Информация - это значение, вкладываемое человеком в данные на основании известных соглашений, используемых для их представления.

Информация - это сведения, разъяснения, изложение.

Информация - это любые данные или сведения, которые кого-либо интересуют.

Информация - это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.

Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей — в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.

В случаях, когда говорят об автоматизированной работе с информацией посредством каких-либо технических устройств, интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит.

Информация (Information) - это

Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.

В настоящее время не существует единого определения информации как научного термина. С точки зрения различных областей знания данное понятие описывается своим специфическим набором признаков. Например, понятие «информация» является базовым в курсе информатики, и невозможно дать его определение через другие, более «простые» понятия (так же, в геометрии, например, невозможно выразить содержание базовых понятий «точка», «прямая», «плоскость» через более простые понятия).

Содержание основных, базовых понятий в любой науке должно быть пояснено на примерах или выявлено путём их сопоставления с содержанием других понятий. В случае с понятием «информация» проблема его определения ещё более сложная, так как оно является общенаучным понятием. Данное понятие используется в различных науках (информатике, кибернетике, биологии, физике и др.), при этом в каждой науке понятие «информация» связано с различными системами понятий.

Понятие информации

В современной науке рассматриваются два вида информации:

Объективная (первичная) информация — свойство материальных объектов и явлений (процессов) порождать многообразие состояний, которые посредством взаимодействий (фундаментальные взаимодействия) передаются другим объектам и запечатлеваются в их структуре.

Субъективная (семантическая, смысловая, вторичная) информация - смысловое содержание объективной информации об объектах и процессах материального мира, сформированное сознанием человека с помощью смысловых образов (слов, образов и ощущений) и зафиксированное на каком-либо материальном носителе.

В бытовом смысле информация — сведения об окружающем мире и протекающих в нём процессах, воспринимаемые человеком или специальным устройством.

В настоящее время не существует единого определения информации как научного термина. С точки зрения различных областей знания, данное понятие описывается своим специфическим набором признаков. Согласно концепции К. Шеннона, информация — это снятая неопределенность, т.е. Сведения, которые должны снять в той или иной степени существующую у приобретателя до их получения неопределенность, расширить его понимание объекта полезными сведениями.

С точки зрения Грегори Бетона элементарная единица информации это "небезразличное различие" или действенное различие для какой-то большей воспринимающей системы. Те различия, которые не воспринимаются, он называет "потенциальными", а воспринимаемые - "действенными". "Информация состоит из небезразличных различий» (с) "Любое восприятие информации с необходимостью является получением сведений о различии». С точки зрения информатики, информация обладает рядом фундаментальных свойств: новизна, актуальность, достоверность, объективность, полнота, ценность и др. Анализом информации занимается, прежде всего, наука логика. Слово «информация» происходит от латинского слова informatio, что в переводе обозначает сведение, разъяснение, ознакомление. Понятие информации рассматривалось ещё античными философами.

Информация (Information) - это

До начала промышленной революции, определение сути информации оставалось прерогативой преимущественно философов. Далее рассматривать вопросы теории информации стала новая на то время наука кибернетика.

Иногда для того, чтобы постичь суть какого-то понятия, полезно подвергнуть анализу значение слова, которым это понятие обозначается. Прояснение внутренней формы слова и изучение истории его употребления может пролить неожиданный свет на его смысл, затмеваемый привычным "технологическим" использованием этого слова и современными коннотациями.

Слово информация вошло в русский язык в Петровскую эпоху. Впервые фиксируется в "Духовном регламенте" 1721 г. в значении "представление, понятие о чем-л.". (В европейских языках оно закрепилось раньше - около XIV в.)

Информация (Information) - это

Исходя из этой этимологии, информацией можно считать всякое значимое изменение формы или, другими словами, любые материально зафиксированные следы, образованные взаимодействием предметов или сил и поддающиеся пониманию. Информация, таким образом, это превращенная форма энергии. Носителем информации является знак, а способом ее существования - истолкование: выявление значения знака или последовательности знаков.

Значением может быть реконструируемое по знаку событие, послужившее причиной его возникновения (в случае "природных" и непроизвольных знаков, таких, как следы, улики и проч.), либо сообщение (в случае условных знаков, свойственных сфере языка). Именно вторая разновидность знаков составляет тело человеческой культуры, которая, согласно одному из определений, есть "совокупность не наследственно передающейся информации".

Информация (Information) - это

Сообщения могут содержать информацию о фактах или интерпретацию фактов (от лат. interpretatio, истолкование, перевод).

Живое существо получает информацию с помощью органов чувств, а также посредством размышления или интуиции. Обмен информацией между субъектами есть общение или коммуникация (от лат. communicatio, сообщение, передача, производное в свою очередь от лат. communico, делать общим, сообщать, беседовать, соединять).

С практической точки зрения информация всегда представляется в виде сообщения. Информационное сообщение связано с источником сообщения, получателем сообщения и каналом связи.

Возвращаясь к латинской этимологии слова информация, попробуем ответить на вопрос, чему именно придается здесь форма.

Очевидно, что, во-первых, некоторому смыслу, который, будучи изначально бесформенным и невыраженным, существует лишь потенциально и должен быть "построен", чтобы стать воспринимаемым и передаваемым.

Во-вторых, человеческому уму, который воспитывается мыслить структурно и ясно. В-третьих, обществу, которое именно благодаря тому, что его члены разделяют эти смыслы и совместно их используют, обретает единство и функциональность.

Информация (Information) - это

информация как выраженный разумный смысл есть знание, которое может храниться, передаваться и являться основой для порождения другого знания. Формы консервации знания (историческая память) многообразны: от мифов, летописей и пирамид до библиотек, музеев и компьютерных баз данных.

Информация - сведения об окружающем нас мире, о протекающих в нем процессах, которые воспринимают живые организмы, управляющие машины и другие информационные системы.

Слово «информация» латинское. За долгую жизнь его значение претерпевало эволюции, то расширяя, то предельно сужая свои границы. Вначале под словом «информация» подразумевали: «представление», «понятие», затем-«сведения», «передача сообщений».

В последние годы ученые решили, что обычное (всеми принятое) значение слова «информация» слишком эластично, расплывчато, и дали ему такое значение: «мера определенности в сообщении».

Информация (Information) - это

Теорию информации вызвали к жизни потребности практики. Ее возникновение связывают с работой Клода Шеннона «Математическая теория связи», изданной в 1946г. Основы теории информации опираются на результаты, полученные многими учеными. Ко второй половине XX века земной шар гудел от передающейся информации, бегущей по телефонным и телеграфным кабелям и радиоканалам. Позже появились электронные вычислительные машины - переработчики информации. А для того времени основной задачей теории информации являлось, прежде всего, повышение эффективности функционирования систем связи. Сложность при проектировании и эксплуатации средств, систем и каналов связи в том, что конструктору и инженеру недостаточно решить задачу с физических и энергетических позиций. С этих точек зрения система может быть самой совершенной и экономичной. Но важно еще при создании передающих систем обратить внимание на то, какое количество информации пройдет через эту передающую систему. Ведь информацию можно измерить количественно, подсчитать. И поступают при подобных вычислениях самым обычным путем: абстрагируются от смысла сообщения, как отрешаются от конкретности в привычных всем нам арифметических действиях (как от сложения двух яблок и трех яблок переходят к сложению чисел вообще: 2+3).

Ученые заявили, что они «полностью игнорировали человеческую оценку информации». Последовательному ряду из 100 букв, например, они приписывают определенное значение информации, не обращая внимания, имеет ли эта информация смысл и имеет ли, в свою очередь, смысл практическое применение. Количественный подход - наиболее разработанная ветвь теории информации. В соответствии с этим определением совокупность 100 букв - фраза из 100 букв из газеты, пьесы Шекспира или теоремы Эйнштейна - имеет в точности одинаковое количество информации.

Такое определение количества информации является в высшей степени полезным и практичным. Оно в точности соответствует задаче инженера связи, который должен передать всю информацию, содержащуюся в поданной телеграмме, вне зависимости от ценности этой информации для адресата. Канал связи бездушен. Передающей системе важно одно: передать нужное количество информации за определенное время. Как же вычислить количество информации в конкретном сообщении?

Информация (Information) - это

Оценка количества информации основывается на законах теории вероятностей, точнее, определяется через вероятности событий. Это и понятно. Сообщение имеет ценность, несет информацию только тогда, когда мы узнаем из него об исходе события, имеющего случайный характер, когда оно в какой-то мере неожиданно. Ведь сообщение об уже известном никакой информации не содержит. Т.е. если вам, допустим, кто-то позвонит по телефонному аппарату и скажет: «Днем бывает светло, а ночью темно», то такое сообщение вас удивит лишь нелепостью высказывания очевидного и всем известного, а не новостью, которую оно содержит. Иное дело, например, результат забега на скачках. Кто придет первым? Исход здесь трудно предсказать.Чем больше интересующее нас событие имеет случайных исходов, тем ценнее сообщение о его результате, тем больше информации. Сообщение о событии, у которого только два одинаково возможных исхода, содержит одну единицу информации, называемую битом. Выбор единицы информации не случаен. Он связан с наиболее распространенным двоичным способом ее кодирования при передаче и обработке. Попытаемся хотя бы в самом упрощенном виде представить себе тот общий принцип количественной оценки информации, который является краеугольным камнем всей теории информации.

Мы уже знаем, что количество информации зависит от вероятностей тех или иных исходов события. Если событие, как говорят ученые, имеет два равновероятных исхода, это означает, что каждого исхода равна 1/2. Такова вероятность выпадения «орла» или «решки» при бросании монеты. Если событие имеет три равновероятных исхода, то вероятность каждого равна 1/3. Заметьте, сумма вероятностей всех исходов всегда равна единице: ведь какой-нибудь из всех возможных исходов обязательно наступит. Событие, как вы сами понимаете, может иметь и неравновероятные исходы. Так, при футбольном матче между сильной и слабой командами вероятность победы сильной команды велика - например, 4/5. ничьей намного меньше, например 3/20. Вероятность же поражения совсем мала.

Выходит, что количество информации - это мера уменьшения неопределенности некоторой ситуации. Различные количества информации передаются по каналам связи, и количество проходящей через канал информации не может быть больше его пропускной способности. А ее определяют по тому, какое количество информации проходит здесь за единицу времени. Один из героев романа Жюля Верна «Таинственный остров», журналист Гедеон Спиллет, передавал по телефонному аппарату главу из Библии, чтобы его конкуренты не могли воспользоваться телефонной связью. В этом случае канал был загружен полностью, а количество информации было равно нулю, ибо абоненту передавались известные для него сведения. Значит, канал работал вхолостую, пропустив строго определенное количество импульсов, ничем их не нагрузив. А между тем, чем больше информации несет каждый из определенного числа импульсов, тем полнее используется пропускная способность канала. Поэтому нужно разумно кодировать информацию, найти экономный, скупой язык для передачи сообщений.

Информацию «просеивают» самым тщательным образом. В телеграфе часто встречающиеся буквы, сочетания букв, даже целые фразы изображают более коротким набором нулей и единиц, а те, что встречаются реже,- более длинным. В случае, когда уменьшают длину кодового слова для часто встречающихся символов и увеличивают для редко встречающихся, говорят об эффективном кодировании информации. Но на практике довольно часто случается, что код, возникший в результате самого тщательного «просеивания», код удобный и экономный, может исказить сообщение из-за помех, которые всегда, к сожалению, бывают в каналах связи: искажения звука в телефоне, атмосферные помехи в , искажение или затемнение изображения в телевидении, ошибки при передаче в телеграфе . Эти помехи, или, как их называют специалисты, шумы, обрушиваются на информацию. А от этого бывают самые невероятные и, естественно, неприятные неожиданности.

Поэтому для повышения надежности в передаче и обработке информации приходится вводить лишние символы - своеобразную защиту от искажений. Они - эти лишние символы - не несут действительного содержания в сообщении, они избыточны. С точки зрения теории информации все то, что делает язык красочным, гибким, богатым оттенками, многоплановым, многозначным, - избыточность. Как избыточно с таких позиций письмо Татьяны к Онегину! Сколько в нем информационных излишеств для краткого и всем понятного сообщения « Я вас люблю»! И как информационно точны рисованные обозначения, понятные всем и каждому, кто входит сегодня в метро, где вместо слов и фраз объявлений висят лаконичные символьные знаки, указывающие: «Вход», «Выход».

В этой связи полезно вспомнить анекдот, рассказанный в свое время знаменитым американским ученым Бенджаменом Франклином, о шляпочнике, пригласившем своих друзей для обсуждения проекта вывески.Предполагалось нарисовать на вывеске шляпу и написать: «Джон Томпсон, шляпочник, делает и продает шляпы за наличные ». Один из друзей заметил, что слова «за наличные деньги » являются излишними - такое напоминание будет оскорбительным для покупателя . Другой нашел также лишним слово «продает», так как само собой понятно, что шляпочник продает шляпы, а не раздает их даром. Третьему показалось, что слова «шляпочник» и «делает шляпы» представляют собой ненужную тавтологию, и последние слова были выкинуты. Четвертый предложил выкинуть и слово «шляпочник» - нарисованная шляпа ясно говорит, кто такой Джон Томпсон. Наконец, пятый уверял, что для покупателя совершенно безразлично, будет ли шляпочник называться Джоном Томпсоном или иначе, и предложил обойтись без этого указания.Таким образом, в конце концов на вывеске не осталось ничего, кроме шляпы. Конечно, если бы люди пользовались только такого рода кодами, без избыточности в сообщениях, то все «информационные формы» - книги, доклады, статьи - были бы предельно краткими. Но проиграли бы в доходчивости и красоте.

Информацию можно разделить на виды по разным критериям: по истинности: истинная и ложная;

по способу восприятия:

Визуальная — воспринимается органами зрения;

Аудиальная — воспринимается органами слуха;

Тактильная — воспринимается тактильными рецепторами;

Обонятельная — воспринимается обонятельными рецепторами;

Вкусовая — воспринимаемая вкусовыми рецепторами.

по форме представления:

Текстовая — передаваемая в виде символов, предназначенных обозначать лексемы языка;

Числовая — в виде цифр и знаков, обозначающих математические действия;

Графическая — в виде изображений, предметов, графиков;

Звуковая — устная или в виде записи передача лексем языка аудиальным путём.

по назначению:

Массовая — содержит тривиальные сведения и оперирует набором понятий, понятным большей части социума;

Специальная — содержит специфический набор понятий, при использовании происходит передача сведений, которые могут быть не понятны основной массе социума, но необходимы и понятны в рамках узкой социальной группы, где используется данная информация;

Секретная — передаваемая узкому кругу лиц и по закрытым (защищённым) каналам;

Личная (приватная) — набор сведений о какой-либо личности, определяющий социальное положение и типы социальных взаимодействий внутри популяции.

по значению:

Актуальная - информация ценная в данный момент времени;

Достоверная - информация, полученная без искажений;

Понятная - информация, выраженная на языке понятном тому, кому она предназначена;

Полная - информация, достаточная для принятия правильного решения или понимания;

Полезная - полезность информации определяется субъектом, получившим информацию в зависимости от объёма возможностей её использования.

Значение информации в различных областях знаний

В теории информации в наше время разрабатывают много систем, методов, подходов, идей. Однако ученые считают, что к современным направлениям в теории информации добавятся новые, появятся новые идеи. В качестве доказательства правильности своих предположений они приводят «живой», развивающийся характер науки, указывают на то, что теория информации удивительно быстро и прочно внедряется в самые различные области человеческого знания. Теория информации проникла в физику, химию, биологию, медицину, философию, лингвистику, педагогику, экономику, логику, технические науки, эстетику. По признанию самих специалистов, учение об информации, возникшее в силу потребностей теории связи и кибернетики, перешагнуло их рамки. И теперь, пожалуй, мы вправе говорить об информации как научном понятии, дающем в руки исследователей теоретико - информационный метод, с помощью которого можно проникнуть во многие науки о живой и неживой природе, об обществе, что позволит не только взглянуть на все проблемы с новой стороны, но и увидеть еще неувиденное. Вот почему термин «информация» получил в наше время широкое распространение, став частью таких понятий, как информационная система, информационная культура, даже информационная этика.

Многие научные дисциплины используют теорию информации, чтобы подчеркнуть новое направление в старых науках. Так возникли, например, информационная география, информационная экономика, информационное право. Но чрезвычайно большое значение приобрел термин «информация» в связи с развитием новейшей компьютерной техники, автоматизацией умственного труда, развитием новых средств связи и обработки информации и особенно с возникновением информатики. Одной из важнейших задач теории информации является изучение природы и свойств информации, создание методов ее обработки, в частности преобразования самой различной современной информации в программы для ЭВМ, с помощью которых происходит автоматизация умственной работы-своеобразное усиление интеллекта, а значит, развитие интеллектуальных ресурсов общества.

Слово «информация» происходит от латинского слова informatio,что в переводе означает сведение, разъяснение, ознакомление. Понятие «информация» является базовым в курсе информатики, однако невозможно дать его определение через другие, более «простые» понятия.Понятие «информация» используется в различных науках, при этом в каждой науке понятие «информация»связано с различными системами понятий. Информация в биологии: Биология изучает живую природу и понятие «информация» связывается с целесообразным поведением живых организмов. В живых организмах информация передается и храниться с помощью объектов различной физической природы (состояние ДНК), которые рассматриваются как знаки биологических алфавитов. Генетическая информация передается по наследству и хранится во всех клетках живых организмов. Филосовский подход: информация - это взаимодействие, отражение, познание. Кибернетический подход: информация - это характеристики управляющего сигнала, передаваемого по линии связи.

Роль информации в философии

Традиционализм субъективного постоянно доминировал в ранних определениях информации, как категории, понятия, свойства материального мира. Информация существует вне нашего сознания, и может иметь отражение в нашем восприятии только как результат взаимодействия: отражения, чтения, получения в виде сигнала, стимула. Информация не материальна, как и все свойства материи. Информация стоит в ряду: материя, пространство, время, системность, функция, и др. что есть основополагающие понятия формализованного отражения объективной реальности в её распространении и изменчивости, разнообразии и проявлений. Информация — свойство материи и отражает её свойства (состояние или способность взаимодействия) и количество (мера) путём взаимодействия.

С материальной точки зрения информация — это порядок следования объектов материального мира. Например, порядок следования букв на листе бумаги по определенным правилам является письменной информацией. Порядок следования разноцветных точек на листе бумаги по определенным правилам является графической информацией. Порядок следования музыкальных нот является музыкальной информацией. Порядок следования генов в ДНК является наследственной информацией. Порядок следования битов в ЭВМ является компьютерной информацией и т.д. и т.п. Для осуществления информационного обмена требуется наличие необходимых и достаточных условий.

Информация (Information) - это

Необходимые условия:

Наличие не менее двух различных объектов материального или нематериального мира;

Наличие у объектов общего свойства, позволяющего идентифицировать объекты в качестве носителя информации;

Наличие у объектов специфического свойства, позволяющего различать объекты друг от друга;

Наличие свойства пространства, позволяющее определить порядок следования объектов. Например, расположение письменной информации на бумаге — это специфическое свойство бумаги, позволяющее располагать буквы слева направо и сверху вниз.

Достаточное условие одно: наличие субъекта, способного распознавать информацию. Это человек и человеческое общество, общества животных, роботов и т.д. Информационное сообщение строится путем выбора из базиса копий объектов и расположение этих объектов в пространстве в определенном порядке. Длина информационного сообщения определяется как количество копий объектов базиса и всегда выражается целым числом. Необходимо различать длину информационного сообщения, которое всегда измеряется целым числом, и количество знаний, содержащегося в информационном сообщении, которое измеряется в неизвестной единице измерения. С математической точки зрения информация — это последовательность целых чисел, которые записаны в вектор. Числа — это номер объекта в базисе информации. Вектор называется инвариантом информации, так как он не зависит от физической природы объектов базиса. Одно и то же информационное сообщение может быть выражено буквами, словами, предложениями, файлами, картинками, нотами, песнями, видеоклипами, любой комбинацией всех ранее названных.

Информация (Information) - это

Роль информации в физике

информация - это сведения об окружающем мире (объекте, процессе, явлении, событии), которые являются объектом преобразования (включая хранение, передачу и т.д.) и используются для выработки поведения, для принятия решения, для управления или для обучения.

Характерными чертами информации являются следующие:

Это наиболее важный ресурс современного производства: он снижает потребность в земле, труде, капитале, уменьшает затрата сырья и энергии. Так, например, обладая умением архивировать свои файлы (т.е. имея такую информацию), можно не тратиться на покупку новых дискет;

Информация вызывает к жизни новые производства. Например, изобретение лазерного луча явилось причиной возникновения и развития производства лазерных (оптических) дисков;

Информация является товаром, причем информации ее не теряет после продажи. Так, если студент сообщит своему товарищу сведения о расписании занятий в течение семестра, он эти данные не потеряет для себя;

Информация придает дополнительную ценность другим ресурсам, в частности, трудовым. Действительно, работник с высшим образованием ценится больше, чем со средним.

Как следует из определения, с информацией всегда связывают три понятия:

Источник информации - тот элемент окружающего мира (объект, явление, событие), сведения о котором являются объектом преобразования. Так, источником информации, которую в данный момент получает читатель настоящего учебного пособия, является информатика как сфера человеческой деятельности;

Приобретатель информации - тот элемент окружающего мира, который использует информацию (для выработки поведения, для принятия решения, для управления или для обучения). Приобретатель настоящей информации - сам читатель;

Сигнал - материальный носитель, который фиксирует информацию для переноса ее от источника к приобретателю. В данном случае сигнал носит электронный характер. Если же студент возьмет данное пособие в библиотеке, то та же информация будет иметь бумажный носитель. Будучи прочитанной и запомненной студентом, информация приобретет еще один носитель - биологический, когда она “записывается” в память обучаемого.

Сигнал является важнейшим элементом в данной схеме. Формы его представления, а также количественные и качественные характеристики содержащейся в нем информации, важные для приобретателя информации, рассматриваются далее в данном разделе учебника. Основные характеристики компьютера как основного инструмента, выполняющего отображение источника информации в сигнал (связь 1 на рисунке) и “доведение” сигнала до приобретателя информации (связь 2 на рисунке), приводятся в части Компьютер. Структура процедур, реализующих связи 1 и 2 и составляющих информационный процесс, является предметом рассмотрения в части Информационный процесс.

Объекты материального мира находятся в состоянии непрерывного изменения, которое характеризуется обменом энергией объекта с окружающей средой. Изменение состояния одного объекта, всегда приводит к изменению состояния, некоторого другого объекта окружающей среды. Это явление, вне зависимости от того, как, какие именно состояния и каких именно объектов изменились, может рассматриваться, как передача сигнала от одного объекта, другому. Изменение состояния объекта при передаче ему сигнала, называется регистрацией сигнала.

Сигнал или последовательность сигналов образуют сообщение, которое может быть воспринято получателем в том или ином виде, а также в том или ином объёме. Информация в физике есть термин, качественно обобщающий понятия «сигнал» и «сообщение». Если сигналы и сообщения можно исчислять количественно, то можно сказать, что сигналы и сообщения являются единицами измерения объёма информации. Сообщение (сигнал) разными системами интерпретируется по-своему. Например, последовательно длинный и два коротких звуковых сигнала в терминологии азбуки Морзе — это буква де (или D), в терминологии БИОС от компании award — неисправность видеокарты.

Информация (Information) - это

Роль информации в математике

В математике теория информации (математическая теория связи) — раздел прикладной математики, определяющий понятие информации, её свойства и устанавливающий предельные соотношения для систем передачи данных. Основные разделы теории информации — кодирование источника (сжимающее кодирование) и канальное (помехоустойчивое) кодирование. Математика является больше чем научной дисциплиной. Она создает единый язык всей Науки.

Предметом исследований математики являются абстрактные объекты: число, функция, вектор, множество, и другие. При этом большинство из них вводится аксиоматически (аксиома), т.е. без всякой связи с другими понятиями и без какого-либо определения.

Информация (Information) - это

информация не входит в число предметов исследования математики. Тем не менее, слово «информация» употребляется в математических терминах - собственная информация и взаимная информация, относящихся к абстрактной (математической) части теории информации. Однако, в математической теории понятие «информация» связано с исключительно абстрактными объектами - случайными величинами, в то время как в современной теории информации это понятие рассматривается значительно шире - как свойство материальных объектов. Связь между этими двумя одинаковыми терминами несомненна. Именно математический аппарат случайных чисел использовал автор теории информации Клод Шеннон. Сам он подразумевает под термином «информация» нечто фундаментальное (нередуцируемое). В теории Шеннона интуитивно полагается, что информация имеет содержание. Информация уменьшает общую неопределённость и информационную энтропию. Количество информации доступно измерению. Однако он предостерегает исследователей от механического переноса понятий из его теории в другие области науки.

"Поиск путей применения теории информации в других областях науки не сводится к тривиальному переносу терминов из одной области науки в другую. Этот поиск осуществляется в длительном процессе выдвижения новых гипотез и их экспериментальной проверке." К. Шеннон.

Информация (Information) - это

Роль информации в кибернетике

Основоположник кибернетики Нор берт Винер говорил об информации так:

информация — это не материя и не энергия, информация — это информация". Но основное определение информации, которое он дал в нескольких своих книгах, следующее: информация — это обозначение содержания, полученное нами из внешнего мира, в процессе приспосабливания к нему нас и наших чувств.

Информация — это основное понятие кибернетики, точно так же экономическая И. — основное понятие экономической кибернетики.

Определений этого термина много, они сложны и противоречивы. Причина, очевидно, в том, что И. как явлением занимаются разные науки, и кибернетика лишь самая молодая из них. И. — предмет изучения таких наук, как наука об управлении, математическая , генетика, теория средств массовой И. (печать, радио , телевидение), информатика, занимающаяся проблемами научно-технической И., и т. д. Наконец, последнее время большой интерес к проблемам И. проявляют философы: они склонны рассматривать И. как одно из основных универсальных свойств материи, связанное с понятием отражения. При всех трактовках понятия И. она предполагает существование двух объектов: источника И. и приобретателя (получателя) И. Передача И. от одного к другому происходит с помощью сигналов, которые, вообще говоря, могут не иметь никакой физической связи с ее смыслом: эта связь определяется соглашением. Напр., удар в вечевой колокол означал, что надо собираться на площадь, но тем, кто не знал об этом порядке, он не сообщал никакой И.

В ситуации с вечевым колоколом человек, участвующий в соглашении о смысле сигнала, знает, что в данный момент могут быть две альтернативы: вечевое собрание состоится или не состоится. Или, выражаясь языком теории И., неопределенное событие (вече) имеет два исхода. Принятый сигнал приводит к уменьшению неопределенности: человек теперь знает, что событие (вече) имеет только один исход — оно состоится. Однако, если заранее было известно, что вече состоится в таком-то часу, колокол ничего нового не сообщил. Отсюда вытекает, что чем менее вероятно (т. е. более неожиданно) сообщение, тем больше И. оно содержит, и наоборот, чем больше вероятность исхода до совершения события, тем меньше И. содержит сигнал. Примерно такие рассуждения привели в 40-х гг. XX в. к возникновению статистической, или “классической”, теории И., которая определяет понятие И. через меру уменьшения неопределенности знания о свершении какого-либо события (такая мера была названа энтропией). У истоков этой науки стояли Н. Винер, К. Шеннон и советские ученые А. Н. Колмогоров, В. А. Котельников и др. Им удалось вывести математические закономерности измерения количества И., а отсюда и такие понятия, как пропускная способность канала И., емкость запоминающих И. устройств и т. п., что послужило мощным стимулом к развитию кибернетики как науки и электронно-вычислительной техники как практического применения достижений кибернетики.

Что касается определения ценности, полезности И. для получателя, то здесь еще много нерешенного, неясного. Если исходить из потребностей экономического управления и, следовательно, экономической кибернетики, то И. можно определить как все те сведения, знания, сообщения, которые помогают решить ту или иную задачу управления (т. е. уменьшить неопределенность ее исходов). Тогда открываются и некоторые возможности для оценки И.: она тем полезнее, ценнее, чем скорее или с меньшими издержками приводит к решению задачи. Понятие И. близко понятию данные. Однако между ними есть различие: данные — это сигналы, из которых еще надо извлечь И. Обработка данных есть процесс приведения их к пригодному для этого виду.

Процесс их передачи от источника к приобретателю и восприятия в качестве И. может рассматриваться как прохождение трех фильтров:

Физического, или статистического (чисто количественное ограничение по пропускной способности канала, независимо от содержания данных, т. е. с точки зрения синтактики);

Семантического (отбор тех данных, которые могут быть поняты получателем, т. е. соответствуют тезаурусу его знаний);

Прагматического (отбор среди понятых сведений тех, которые полезны для решения данной задачи).

Это хорошо показано на схеме, взятой из книги Е. Г. Ясина об экономической информации. Соответственно выделяются три аспекта изучения проблем И. — синтаксический, семантический и прагматический.

По содержанию И. подразделяется на общественно-политическую, социально-экономическую (в том числе экономическую И.), научно-техническую и т. д. Вообще же классификаций И. много, они строятся по различным основаниям. Как правило, из-за близости понятий точно так же строятся и классификации данных. Напр., И. подразделяется на статическую (постоянную) и динамическую (переменную), и данные при этом — на постоянные и переменные. Другое деление — первичная, производная, выходная И. (так же классифицируются данные). Третье деление — И. управляющая и осведомляющая. Четвертое — избыточная, полезная и ложная. Пятое — полная (сплошная) и выборочная. Эта мысль Винера дает прямое указание на объективность информации, т.е. её существование в природе независимо от сознания (восприятия) человека.

Информация (Information) - это

Объективную информацию современная кибернетика определяет как объективное свойство материальных объектов и явлений порождать многообразие состояний, которые посредством фундаментальных взаимодействий материи передаются от одного объекта (процесса) другому, и запечатлеваются в его структуре. Материальная система в кибернетике рассматривается как множество объектов, которые сами по себе могут находиться в различных состояниях, но состояние каждого из них определяется состояниями других объектов системы.

Информация (Information) - это

В природе множество состояний системы представляет собой информацию, сами состояния представляют собой первичный код, или код источника. Таким образом, каждая материальная система является источником информации. Субъективную (семантическую) информацию кибернетика определяет как смысл или содержание сообщения.

Роль информации в информатике

Предметом изучения науки являются именно данные: методы их создания, хранения, обработки и передачи. Контент (также: «наполнение» (в контексте), «наполнение сайта») — термин, означающий все виды информации (как текстовой, так и мультимедийной — изображения, аудио, видео), составляющей наполнение (визуализированное, для посетителя, содержимое) веб-сайта. Применяется для отделения понятия информации, составляющей внутреннюю структуру страницы/сайта (код), от той, что будет в итоге выведена на экран.

Слово «информация» происходит от латинского слова informatio,что в переводе означает сведение, разъяснение, ознакомление. Понятие «информация» является базовым в курсе информатики, однако невозможно дать его определение через другие, более «простые» понятия.

Можно выделить следующие подходы к определению информации:

Традиционный (обыденный) - используется в информатике: информация - это сведения, знания, сообщения о положении дел, которые человек воспринимает из окружающего мира с помощью органов чувств (зрения, слуха, вкуса, обоняния, осязания).

Вероятностный - используется в теории об информации: информация - это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся о них степень неопределённости и неполноты знаний.

Информация храниться, передается и обрабатывается в символьной (знаковой) форме. Одна и та же информация может быть представлена в различной форме:

Знаковой письменной, состоящей из различных знаков среди которых выделяют символьную в виде текста, чисел, спец. символов; графическую; табличную и тд.;

Виде жестов или сигналов;

Устной словесной форме (разговор).

Представление информации осуществляется с помощью языков, как знаковых систем, которые строятся на основе определенного алфавита и имеют правила для выполнения операций над знаками. Язык - определенная знаковая система представления информации. Существуют:

Естественные языки - разговорные языки в устной и письменной форме. В некоторых случаях разговорную речь могут заменить язык мимики и жестов, язык специальных знаков (например, дорожных);

Формальные языки - специальные языки для различных областей человеческой деятельности, которые характеризуются жестко зафиксированным алфавитом, более строгими правилами грамматики и синтаксиса. Это язык музыки (ноты), язык математики (цифры, математические знаки), системы счисления, языки программирования и т.д. В основе любого языка лежит алфавит - набор символов/знаков. Полное число символов алфавита принято называть мощностью алфавита.

Носители информации - среда или физическое тело для передачи, хранения и воспроизведения информации. (Это электрические, световые, тепловые, звуковые, радио сигналы, магнитные и лазерные диски, печатные издания, фотографии и тд.)

Информационные процессы - это процессы, связанные с получением, хранением, обработкой и передачей информации (т.е. действия, выполняемые с информацией). Т.е. это процессы, в ходе которых изменяется содержание информации или форма её представления.

Для обеспечения информационного процесса необходим источник информации, канал связи и приобретатель информации. Источник передает (отправляет) информацию, а приемник её получает (воспринимает). Передаваемая информация добивается от источника до приемника с помощью сигнала (кода). Изменение сигнала позволяет получить информацию.

Будучи объектом преобразования и использования, информация характеризуется следующими свойствами:

Синтаксис - свойство, определяющее способ представления информации на носителе (в сигнале). Так, данная информация представлена на электронном носителе с помощью определенного шрифта. Здесь же можно рассматривать такие параметры представления информации, как стиль и цвет шрифта, его размеры, междустрочный интервал и т.д. Выделение нужных параметров как синтаксических свойств, очевидно, определяется предполагаемым способом преобразования. Например, для плохо видящего человека существенным является размер и цвет шрифта. Если предполагается вводить данный текст в компьютер через сканер, важен формат бумаги;

Семантика - свойство, определяющее смысл информации как соответствие сигнала реальному миру. Так, семантика сигнала “информатика” заключается в данном ранее определении. Семантика может рассматриваться как некоторое соглашение, известное приобретателю информации, о том, что означает каждый сигнал (так называемое правило интерпретации). Например, именно семантику сигналов изучает начинающий автомобилист, штудирующий правила дорожного движения, познавая дорожные знаки (в этом случае сигналами выступают сами знаки). Семантику слов (сигналов) познаёт обучаемый какому-либо иностранному языку. Можно сказать, что смысл обучения информатике заключается в изучении семантики различных сигналов - суть ключевых понятий этой дисциплины;

Прагматика - свойство, определяющее влияние информации на поведение приобретателя. Так прагматика информации, получаемой читателем настоящего учебного пособия, заключается, по меньшей мере, в успешной сдаче экзамена по информатике. Хочется верить, что этим прагматика данного труда не ограничится, и он послужит для дальнейшего обучения и профессиональной деятельности читателя.

Информация (Information) - это

Следует отметить, что различные по синтаксису сигналы могут иметь одинаковую семантику. Например, сигналы “ЭВМ” и “компьютер” означают электронное устройство для преобразования информации. В этом случае обычно говорят о синонимии сигналов. С другой стороны, один сигнал (т.е., информация с одним синтаксическим свойством) может иметь разную прагматику для потребителей и разную семантику. Так, дорожный знак, известный под названием “кирпич” и имеющий вполне определенную семантику (“въезд запрещен”), означает для автомобилиста запрет на въезд, а на пешехода никак не влияет. В то же время, сигнал “ключ” может иметь разную семантику: скрипичный ключ, родниковый ключ, ключ для открытия замка, ключ, используемый в информатике для кодирования сигнала с целью его защиты от несанкционированного доступа (в этом случае говорят об омонимии сигнала). Есть сигналы - антонимы, имеющие противоположную семантику. Например, "холодный" и "горячий", "быстрый" и "медленный" и т.д.

Предметом изучения науки информатика являются именно данные: методы их создания, хранения, обработки и передачи. А сама информация, зафиксированная в данных, её содержательный смысл интересны пользователям информационных систем, являющимся специалистами различных наук и областей деятельности: медика интересует медицинская информация, геолога — геологическая, бизнесмена — коммерческая и т.п. (в том числе специалиста по информатике интересует информация по вопросам работы с данными).

Семиотика - наука о информации

Информацию нельзя себе представить без ее получения, обработки, передачи и т.д., то есть вне рамок обмена информацией. Все акты информационного обмена осуществляются посредством символов или знаков, с помощью которых одна система воздействует на другую. Поэтому основной нayкой, изучающей информацию, является семиотика - наука о знаках и знаковых системах в природе и обществе (теория знаков). В каждом акте информационного обмена можно обнаружить три его «участника», три элемента: знак, объект, который он обозначает, и получателя (использователя) знака.

В зависимости от того, отношения между какими элементами рассматриваются, семиотику разделяют на три раздела: синтактику, семантику и прагматику. Синтактика изучает знаки и отношения между ними. При этом она абстрагируется от содержания знака и от его практического значения для получателя. Семантика изучает отношения между знаками и обозначаемыми ими объектами, отвлекаясь при этом от получателя знаков и ценности последних: для него. Понятно, что изучение закономерностей смыслового отображения объектов в знаках невозможно без учета и использования общих закономерностей построения любых знаковых систем, изучаемых синтактикой. Прагматика изучает отношения между знаками и их использователями. В рамках прагматики изучаются все факторы, отличающие один акт информационного обмена от другого, все вопросы практических результатов использования информации и ценности ее для получателя.

При этом неизбежно затрагиваются многие аспекты отношений знаков между собой и с объектами, ими обозначаемыми. Таким образом, три раздела семиотики соответствуют трем уровням абстрагирования (отвлечения) от особенностей конкретных актов обмена информацией. Изучение информации во всем ее многообразии соответствует прагматическому уровню. Отвлекаясь от получателя информации, исключая его из рассмотрения, мы переходим к изучению ее на семантическом уровне. С отвлечением от содержания знаков анализ информации переводится на уровень синтактики. Такое взаимопроникновение основных разделов семиотики, связанное с различными уровнями абстрагирования, можно представить с помощью схемы «Три раздела семиотики и их взаимосвязь». Измерение информации осуществляется соответственно так же в трех аспектах: синтактическом, семантическом и прагматическом. Потребность в таком различном измерении информации, как будет показано ниже, диктуется практикой проектирования и фирмы работы информационных систем. Рассмотрим типичную производственную ситуацию.

В конце смены планировщик участка подготавливает данные о выполнении графика производства. Эта данные поступают в информационно-вычислительный центр (ИВЦ) предприятия, где обрабатываются, и в виде сводок о состоянии производства на текущий момент выдаются руководителям. Начальник цеха на основании полученных данных принимает решение об изменении плана производства на следующий плановый или принятии каких-либо других организационных мер. Очевидно, что для начальника, цеха количество информации, которое содержала сводка, зависит от величины экономического аффекта, полученного от ее использования при принятии решений, от того, насколько полезны были полученные сведения. Для планировщика участка количество информации в том же сообщении определяется точностью соответствия его фактическому положению дел на участке и степенью неожиданности сообщаемых фактов. Чем они неожиданней, тем быстрее нужно сообщить о них руководству, тем больше информации в данном сообщении. Для работников ИВЦ первостепенное значение будет иметь количество знаков, длина сообщения, несущего информацию, поскольку именно она определяет время загрузки вычислительной техники и каналов связи. При этом ни полезность информации, ни количественная мера смысловой ценности информации их практически не интересует.

Естественно, что организуя систему управления производством, строя модели выбора решения, мы в качестве меры информативности сообщений будем использовать полезность информации. При построении системы учета и отчетности, обеспечивающей руководство данными о ходе производственного процесса за меру количества информации следует принимать новизну полученных сведений. Компания же процедур механической переработки информации требует измерения объема сообщений в виде количества обрабатываемых знаков. Три таких существенно различных подхода к измерению информации не противоречат и не исключают друг друга. Наоборот, измеряя информацию в разных шкалах, они позволяют полнее и всестороннее оценить информативность каждого сообщения и эффективнее организовать систему управления производством. По меткому выражению проф. Н.Е. Кобринского, когда речь идет о рациональной компании потоков информации, количество, новизна, полезность информации оказываются между собой так же связанными, как количество, качество и стоимость продукции в производстве.

Информация в материальном мире

информация — одно из общих понятий, связанных с материей. Информация существует в любом материальном объекте в виде многообразия его состояний и передается от объекта к объекту в процессе их взаимодействия. Существование информации как объективного свойства материи логически вытекает из известных фундаментальных свойств материи — структурности, непрерывного изменения (движения) и взаимодействия материальных объектов.

Структурность материи проявляется как внутренняя расчленённость целостности, закономерный порядок связи элементов в составе целого. Иными словами, любой материальный объект, от субатомной частицы Мета вселенной (Большой взрыв) в целом, представляет собой систему взаимосвязанных подсистем. Вследствие непрерывного движения, понимаемого в широком смысле как перемещение в пространстве и развитие во времени, материальные объекты изменяют свои состояния. Состояния объектов изменяется и при взаимодействиях с другими объектами. Множество состояний материальной системы и всех её подсистем представляет информацию о системе.

Строго говоря, в силу неопределенности, бесконечности, свойства структурности, количество объективной информации в любом материальном объекте бесконечно. Эта информация называется полной. Однако можно выделять структурные уровни с конечными множествами состояний. Информация, существующая на структурном уровне с конечным числом состояний, называется частной. Для частной информации смысл понятие количества информации.

Из приведенного представления логично и просто вытекает выбор единицы измерения количества информации. Представим себе систему, которая может находиться всего в двух равновероятных состояниях. Присвоим одному из них код «1», а другому — «0». Это минимальное количество информации, которое может содержать система. Оно и является единицей измерения информации и называется бит. Существуют и другие, более сложно определяемые, способы и единицы измерения количества информации.

В зависимости от материальной формы носителя, информация бывает двух основных видов — аналоговая и дискретная. Аналоговая информация изменяется во времени непрерывно и принимает значения из континуума значений. Дискретная информация изменяется в некоторые моменты времени и принимает значения из некоторого множества значений. Любой материальный объект или процесс является первичным источником информации. Все возможные его состояния составляют код источника информации. Мгновенное значение состояний представляется как символ («буква») этого кода. Для того чтобы информация могла передаваться от одного объекта другому как к приемнику, необходимо, чтобы был какой-то промежуточный материальный носитель, взаимодействующий с источником. Такими переносчиками в природе, как правило, являются быстро распространяющиеся процессы волновой структуры - космические, гамма и рентгеновские излучения, электромагнитные и звуковые волны, потенциалы (а может быть и ещё не открытые волны) гравитационного поля. При взаимодействии электромагнитного излучения с объектом в результате поглощения или отражения изменяется его спектр, т.е. изменяются интенсивности некоторых длин волн. Изменяются при взаимодействиях с объектами и гармоники звуковых колебаний. Информация передаётся и при механическом взаимодействии, однако механическое взаимодействие, как правило, приводит к большим изменениям структуры объектов (вплоть до их разрушения), и информация сильно искажается. Искажение информации при её передаче называется дезинформация.

Перенос информации источника на структуру носителя называется кодированием. При этом происходит преобразование кода источника в код носителя. Носитель с перенесенным на него кодом источника в виде кода носителя называется сигналом. Приемник сигнала имеет свой набор возможных состояний, который называется кодом приемника. Сигнал, взаимодействуя с объектом-приемником, изменяет его состояния. Процесс преобразования кода сигнала в код приёмника называется декодированием.Передачу информации от источника приемнику можно рассматривать как информационное взаимодействие. Информационное взаимодействие кардинально отличается от других взаимодействий. При всех других взаимодействиях материальных объектов происходит обмен веществом и (или) энергией. При этом один из объектов теряет вещество или энергию, а другой получает их. Это свойство взаимодействий называется симметричностью. При информационном взаимодействии приемник получает информацию, а источник не теряет её. Информационное взаимодействие несимметрично.Объективная информация сама по себе не материальна, она является свойством материи, как, например, структурность, движение, и существует на материальных носителях в виде своих кодов.

Информация в живой природе

Живая природа сложна и разнообразна. Источниками и приемниками информации в ней являются живые организмы и их клетки. Организм обладает рядом свойств, отличающих его от неживых материальных объектов.

Основные:

Непрерывный обмен веществом, энергией и информацией с окружающей средой;

Раздражимость, способность организма воспринимать и перерабатывать информацию об изменениях окружающей среды и внутренней среды организма;

Возбудимость, способность реагировать на действие раздражителей;

Самоорганизация, проявляемая как изменения организма для адаптации к условиям внешней среды.

Организм, рассматриваемый как система, имеет иерархическую структуру. Эта структура относительно самого организма подразделяется на внутренние уровни: молекулярный, клеточный, уровень органов и, наконец, собственно организм. Однако организм взаимодействует и над организменными живыми системами, уровнями которых являются популяция, экосистема и вся живая природа в целом (биосфера). Между всеми этими уровнями циркулируют потоки не только вещества и энергии, но и информации.Информационные взаимодействия в живой природе происходят так же, как и в неживой. Вместе с тем, живая природа в процессе эволюции создала широкое разнообразие источников, носителей и приёмников информации.

Реакция на воздействия внешнего мира проявляется у всех организмов, поскольку она обусловлена раздражимостью. У высших организмов адаптация к внешней среде носит характер сложной деятельности, которая эффективна лишь при достаточно полной и своевременной информации об окружающей среде. Приёмниками информации из внешней среды у них являются органы чувств, к которым относят зрение, слух, обоняние, вкус, осязание и вестибулярный аппарат. Во внутренней структуре организмов имеются многочисленные внутренние рецепторы, связанные с нервной системой. Нервная система состоит из нейронов, отростки которых (аксоны и дендриты) представляют собой аналог каналов передачи информации. Главными органами, обеспечивающими хранение и обработку информации у позвоночных, являются спинной мозг и головной мозг. В соответствии с особенностями органов чувств информацию, воспринимаемую организмом, можно классифицировать как визуальную, слуховую, вкусовую, обонятельную и тактильную.

Попадая на сетчатку человеческого глаза, сигнал особым образом возбуждает составляющие её клетки. Нервные импульсы клеток через аксоны передаются в мозг. Мозг запоминает это ощущение в виде определенной комбинации состояний составляющих его нейронов. (Продолжение примера — в секции "информация в человеческом обществе"). Накапливая информацию, мозг создает на своей структуре связанную информационную модель окружающего мира. В живой природе для организма — приёмника информации важной характеристикой является её доступность. Количество информации, которое нервная система человека способна подать в мозг при чтении текстов, составляет примерно 1 бит за 1/16 с.

Информация (Information) - это

Исследование организмов затруднено их сложностью. Допустимая для неживых объектов абстракция структуры как математического множества вряд ли допустима для живого организма, потому что для создания более или менее адекватной абстрактной модели организма необходимо учесть все иерархические уровни его структуры. Поэтому сложно ввести меру количества информации. Очень сложно определяются связи между компонентами структуры. Если известно, какой орган является источником информации, то что является сигналом и что приемником?

До появления вычислительных машин биология, занимающаяся исследованиями живых организмов, применяла только качественные, т.е. описательные модели. В качественной модели учесть информационные связи между компонентами структуры практически невозможно. Электронно-вычислительная техника позволила применить в биологических исследованиях новые методы, в частности, метод машинного моделирования, предполагающий математическое описание известных явлений и процессов, происходящих в организме, добавление к ним гипотез о некоторых неизвестных процессах и расчет возможных вариантов поведения организма. Полученные варианты сравниваются с реальным поведением организма, что позволяет определить истинность или ложность выдвинутых гипотез. В таких моделях можно учесть и информационное взаимодействие. Чрезвычайно сложными являются информационные процессы, обеспечивающие существование самой жизни. И хотя интуитивно понятно, что это свойство прямо связано с формированием, хранением и передачей полной информации о структуре организма, абстрактное описание этого феномена представлялось до некоторых пор невозможным. Тем не менее, информационные процессы, обеспечивающие существование этого свойства, частично раскрыты благодаря расшифровке генетического кода и прочтению геномов различных организмов.

Информация в человеческом обществе

Развитие материи в процессе движения направлено в сторону усложнения структуры материальных объектов. Одна из самых сложных структур - человеческий мозг. Пока это единственная известная нам структура, обладающая свойством, которое сам человек называет сознанием. Говоря об информации мы, как мыслящие существа, априорно подразумеваем, что информация, кроме её наличия в виде принимаемых нами сигналов, имеет ещё и какой-то смысл. Формируя в своем сознании модель окружающего мира как взаимосвязанную совокупность моделей его объектов и процессов, человек использует именно смысловые понятия, а не информацию. Смысл — сущность любого феномена, которая не совпадает с ним самим и связывает его с более широким контекстом реальности. Само слово прямо указывает, что смысловое содержание информации могут формировать только мыслящие приемники информации. В человеческом обществе решающее значение приобретает не сама информация, а её смысловое содержание.

Пример (продолжение). Испытав такое ощущение, человек присваивает объекту понятие - «помидор», а его состоянию понятие — «красный цвет». Кроме того, его сознание фиксирует связь: «помидор» - « красного цвета». Это и есть смысл принятого сигнала. (Продолжение примера: ниже в этой секции). Способность мозга создавать смысловые понятия и связи между ними является основой сознания. Сознание можно рассматривать как саморазвивающуюся смысловую модель окружающего мира.Смысл это не информация. Информация существует только на материальном носителе. Сознание человека считается нематериальным. Смысл существует в сознании человека в виде слов, образов и ощущений. Человек может произносить слова не только вслух, но и «про себя». Он также «про себя» может создавать (или вспоминать) образы и ощущения. Однако, он может восстановить информацию, соответствующую этому смыслу, произнеся слова или написав их.

Информация (Information) - это

Пример (продолжение). Если слова «помидор» и «красный цвет» — смысл понятий, то где же тогда информация? информация содержится в мозге в виде определенных состояний его нейронов. Она содержится также в напечатанном тексте, состоящем из этих слов, и при кодировании букв трехразрядным двоичным кодом её количество равно 120 бит. Если произнести слова вслух, информации будет значительно больше, но смысл останется тем же. Наибольшее количество информации несёт зрительный образ. Это отражается даже в народном фольклоре — "лучше один раз увидеть, чем сто раз услышать".Восстановленная таким образом информация называется семантической информацией, поскольку она кодирует смысл некоторой первичной информации (семантика). Услышав (или увидев) фразу, произнесенную (или написанную) на языке, которого человек не знает, он получает информацию, но не может определить её смысл. Поэтому для передачи смыслового содержания информации необходимы некоторые договора между источником и приемником о смысловом содержании сигналов, т.е. слов. Такие договоренности могут быть достигнуты в процессе общения. Общение является одним из важнейших условий существования человеческого общества.

В современном мире информация представляет собой один из важнейших ресурсов и, в то же время, одну из движущих сил развития человеческого общества. Информационные процессы, происходящие в материальном мире, живой природе и человеческом обществе изучаются (или, по крайней мере, учитываются) всеми научными дисциплинами от философии до маркетинга. Возрастающая сложность задач научных исследований привела к необходимости привлечения к их решению больших коллективов ученых разных специальностей. Поэтому практически все рассматриваемые ниже теории являются междисциплинарными. Исторически сложилось так, что исследованием непосредственно информации занимаются две комплексных отрасли науки — кибернетика и информатика.

Современная кибернетика — это мульти дисциплинарная отрасль науки, исследующая сверхсложные системы, такие как:

Человеческое общество (социальная кибернетика);

Экономика (экономическая кибернетика);

Живой организм (биологическая кибернетика);

Человеческий мозг и его функция — сознание (искусственный интеллект).

Информатика, сформировавшаяся как наука в середине прошлого века, отделилась от кибернетики и занимается исследованиями в области способов получения, хранения, передачи и обработки семантической информации. Обе эти отрасли используют несколько основополагающих научных теорий. К ним относятся теория информации, и её разделы — теория кодирования, теория алгоритмов и теория автоматов. Исследования смыслового содержания информации основываются на комплексе научных теорий под общим названием семиотика.Теория информации — комплексная, в основном математическая теория, включающая в себя описание и оценки методов извлечения, передачи, хранения и классификации информации. Рассматривает носители информации как элементы абстрактного (математического) множества, а взаимодействия между носителями как способ расположения элементов в этом множестве. Такой подход дает возможность формально описать код информации, то есть определить абстрактный код и исследовать его математическими методами. Для этих исследований применяет методы теории вероятностей, математической статистики, линейной алгебры, теории игр и других математических теорий.

Основы этой теории заложил американский учёный Э. Хартли в 1928 г., который определил меру количества информации для некоторых задач связи. Позднее теория была существенно развита американским учёным К. Шенноном, российскими учёными А.Н. Колмогоровым, В.М Глушковым и др.Современная теория информации включает в себя как разделы теорию кодирования, теорию алгоритмов, теорию цифровых автоматов (см. ниже) и некоторые другие.Существуют и альтернативные теории информации, например "Качественная теория информации", предложенная польским учёным М. Мазуром.C понятием алгоритма знаком любой человек, даже не подозревая об этом. Вот пример неформального алгоритма:«Помидоры нарезать кружочками или дольками. Положить в них нашинкованный лук, полить растительным маслом, затем посыпать мелко нарезанным стручковым перцем, перемешать. Перед употреблением посыпать солью, уложить в салатник и украсить зеленью петрушки». (Салат из помидоров).

Первые в истории человечества правила решения арифметических задач были разработаны одним из известных учёных древности Аль - Хорезми в IX веке нашей эры. В его честь формализованные правила для достижения какой-либо цели называют алгоритмами.Предметом теории алгоритмов является нахождение методов построения и оценки эффективных (в том числе и универсальных) вычислительных и управляющих алгоритмов для обработки информации. Для обоснования таких методов теория алгоритмов использует математический аппарат теории информации.Современное научное понятие алгоритмов как способов обработки информации введено в работах Э. Поста и А. Тьюринга в 20-х годах ХХ века (Машина Тьюринга). Большой вклад в развитие теории алгоритмов внесли русские ученые А. Марков (Нормальный алгоритм Маркова) и А. Колмогоров.Теория автоматов — раздел теоретической кибернетики, в котором исследуются математические модели реально существующих или принципиально возможных устройств перерабатывающих дискретную информацию в дискретные моменты времени.

Понятие автомата возникло в теории алгоритмов. Если существуют некоторые универсальные алгоритмы решения вычислительных задач, то должны существовать и устройства (пусть и абстрактные) для реализации таких алгоритмов. Собственно, абстрактная машина Тьюринга, рассматриваемая в теории алгоритмов, является в то же время и неформально определённым автоматом. Теоретическое обоснование построения таких устройств является предметом теории автоматов.Теория автоматов использует аппарат математических теорий - алгебры, математической логики, комбинаторного анализа, теории графов, теории вероятностей и др.Теория автоматов вместе с теорией алгоритмов являются основной теоретической базой для создания электронных вычислительных машин и автоматизированных управляющих систем.Семиотика — комплекс научных теорий, изучающих свойства знаковых систем. Наиболее существенные результаты достигнуты в разделе семиотики — семантике. Предметом исследований семантики является смысловое содержание информации.

Знаковой системой считается система конкретных или абстрактных объектов (знаков, слов), с каждым из которых определенным образом сопоставлено некоторое значение. В теории доказано, что таких сопоставлений может быть два. Первый вид соответствия определяет непосредственно материальный объект, который обозначает это слово и называется денотат (или, в некоторых работах, - номинант). Второй вид соответствия определяет смысл знака (слова) и называется концепт. При этом исследуются такие свойства сопоставлений как «смысл», «истинность», «определимость», «следование», «интерпретация» и др. Для исследований используется аппарат математической логики и математической лингвистики.Идеи семантики, намеченные ещё Г. В. Лейбницем и Ф де Соссюром в XIX веке, сформулировали и развили Ч. Пирс (1839-1914), Ч. Моррис (р. 1901), Р. Карнап (1891-1970) и др.Основным достижением теории является создание аппарата семантического анализа, позволяющего представить смысл текста на естественном языке в виде записи на некотором формализованном семантическом (смысловом) языке.Семантический анализ является основой для создания устройств (программ) машинного перевода с одного естественного языка на другой.

Хранение информации осуществляется с помощью её переноса на некоторые материальные носители. Семантическая информация, зафиксированная на материальном носителе для хранения, называется документом. Хранить информацию человечество научилось очень давно. В наиболее древних формах хранения информации использовалось расположение предметов — раковин и камней на песке, узелков на верёвке. Существенным развитием этих способов явилась письменность — графическое изображение символов на камне, глине, папирусе, бумаге. Огромное значение в развитии этого направления имело изобретение книгопечатания. За свою историю человечество накопило огромный объём информации в библиотеках, архивах, периодических изданиях и других письменных документах.

В настоящее время особое значение получило хранение информации в виде последовательностей двоичных символов. Для реализации этих методов используются разнообразные запоминающие устройства. Они являются центральным звеном систем хранения информации. Кроме них в таких системах используются средства поиска информации (поисковая система), средства получения справок (информационно-справочные системы) и средства отображения информации (устройство вывода). Сформированные по назначению информации такие информационные системы образуют базы данных, банки данных и база знаний.

Передачей семантической информации называется процесс её пространственного переноса от источника к получателю (адресату). Передавать и получать информацию человек научился даже раньше, чем хранить её. Речь является способом передачи, который использовали наши далекие предки в непосредственном контакте (разговоре) — ею мы пользуемся и сейчас. Для передачи информации на большие расстояния необходимо использовать значительно более сложные информационные процессы.Для осуществления такого процесса информация должна быть некоторым образом оформлена (представлена). Для представления информации используются различные знаковые системы — наборы заранее оговоренных смысловых символов: предметов, картинок, написанных или напечатанных слов естественного языка. Представленная с их помощью семантическая информация о каком-либо объекте, явлении или процессе называется сообщением.

Очевидно, что для передачи сообщения на расстояние информация должна быть перенесена на какой-либо мобильный носитель. Носители могут перемещаться в пространстве с помощью транспортных средств, как это происходит с письмами, посылаемыми по почте. Такой способ обеспечивает полную достоверность передачи информации, поскольку адресат получает оригинал сообщения, однако требует значительного времени для передачи. С середины XIX века получили распространение способы передачи информации, использующие естественно распространяющийся носитель информации — электромагнитные колебания (электрические колебания, радиоволны, свет). Реализация этих способов требует:

Предварительного переноса информации, содержащейся в сообщении, на носитель — кодирования;

Обеспечения передачи полученного таким образом сигнала адресату по специальному каналу связи;

Обратного преобразования кода сигнала в код сообщения — декодирования.

Информация (Information) - это

Использование электромагнитных носителей делает доставку сообщения адресату почти мгновенной, однако требует дополнительных мер по обеспечению качества (достоверности и точности) передаваемой информации, поскольку реальные каналы связи подвержены воздействию естественных и искусственных помех. Устройства, реализующие процесс передачи данных, образуют системы связи. В зависимости от способа представления информации системы связи можно подразделять на знаковые ( , телефакс), звуковые (), видео и комбинированные системы (телевидение). Наиболее развитой системой связи в наше время является Интернет.

Обработка информации

Поскольку информация не материальна, её обработка заключается в различных преобразованиях. К процессам обработки можно отнести любые переносы информации с носителя на другой носитель. Информация, предназначенная для обработки, называется данными. Основным видом обработки первичной информации, полученной различными приборами, является преобразование в форму, обеспечивающую её восприятие органами чувств человека. Так, фотоснимки космоса, полученные в рентгеновских лучах, преобразуются в обычные цветные фотографии с использованием специальных преобразователей спектра и фотоматериалов. Приборы ночного видения преобразуют изображение, получаемое в инфракрасных (тепловых) лучах, в изображение в видимом диапазоне. Для некоторых задач связи и управления, необходимо преобразование аналоговой информации. Для этого используются аналого-цифровые и цифро-аналоговые преобразователи сигналов.

Важнейшим видом обработки семантической информации является определение смысла (содержания), заключающегося в некотором сообщении. В отличие от первичной семантическая информация не имеет статистических характеристик, то есть количественной меры — смысл либо есть, либо его нет. А сколько его, если он есть — установить невозможно. Содержащийся в сообщении смысл описывается на искусственном языке, отражающем смысловые связи между словами исходного текста. Словарь такого языка, называемый тезаурусом, находится в приемнике сообщения. Смысл слов и словосочетаний сообщения определяется путем их отнесения к определенным группам слов или словосочетаний, смысл которых уже установлен. Тезаурус, таким образом, позволяет установить смысл сообщения и, одновременно, пополняется новыми смысловыми понятиями. Описанный вид обработки информации применяется в информационно-поисковых системах и системах машинного перевода.

Одним из широко распространенных видов обработки информации является решение вычислительных задач и задач автоматического управления с помощью вычислительных машин. Обработка информации всегда производится с некоторой целью. Для её достижения должен быть известен порядок действий над информацией, приводящий к заданной цели. Такой порядок действий называется алгоритмом. Кроме самого алгоритма необходимо также некоторое устройство, реализующее этот алгоритм. В научных теориях такое устройство называется автоматом.Следует отметить как важнейшую особенность информации тот факт, что в силу несимметричности информационного взаимодействия при обработке информации возникает новая информация, а исходная информация не теряется.

Аналоговая и цифровая информация

Звук это волновые колебания в какой-либо среде, например в воздухе. Когда человек говорит, колебание связок горла преобразуются в волновые колебания воздуха. Если рассматривать звук не как волну, а как колебания в одной точке, то эти колебания можно представить, как изменяющееся во времени давление воздуха. С помощью микрофона можно уловить изменения давления и преобразовать их в электрическое напряжение. Произошло преобразование давления воздуха в колебания электрического напряжения.

Такое преобразование может происходить по различным законам, чаще всего преобразование происходит по линейному закону. Например, по такому:

U(t)=K(P(t)-P_0),

где U(t) - электрическое напряжение, P(t) - давление воздуха, P_0 - среднее давление воздуха, а K - коэффициент преобразования.

И электрическое напряжение, и давление воздуха являются непрерывными функциями во времени. Функции U(t) и P(t) являются информацией о колебаниях связок горла. Эти функции непрерывны и такая информация называется аналоговой.Музыка это частный случай звука и её тоже можно представить в виде какой-нибудь функции от времени. Это будет аналоговое представление музыки. Но музыку так же записывают в виде нот. Каждая нота имеет длительность кратную заранее заданной длительности, и высоту (до, ре, ми, фа, соль и т.д). Если эти данные преобразовать в цифры, то мы получим цифровое представление музыки.

Человеческая речь, так же является частным случаем звука. Её тоже можно представить в аналоговом виде. Но так же как музыку можно разбить на ноты, речь можно разбить на буквы. Если каждой букве дать свой набор цифр, то мы получим цифровое представление речи.Разница между аналоговой информацией и цифровой в том, что аналоговая информация непрерывна, а цифровая дискретна.Преобразование информации из одного вида в другой в зависимости от рода преобразования называют по-разному: просто «преобразование», например, цифро-аналоговое преобразование, или аналого-цифровое преобразование; сложные преобразования называют «кодированием», например, дельта-кодирование, энтропийное кодирование; преобразование между такими характеристиками, как амплитуда, частота или фаза называют «модуляцией», например амплитудно-частотная модуляция, широтно-импульсная модуляция.

Информация (Information) - это

Обычно, аналоговые преобразования достаточно просты и с ними легко справляются различные устройства изобретенные человеком. Магнитофон преобразует намагниченность на пленке в звук, диктофон преобразует звук в намагниченность на пленке, видеокамера преобразует свет в намагниченность на пленке, осцилограф преобразует электрическое напряжение или ток в изображение и т.д. Преобразование аналоговой информации в цифровую заметно сложнее. Некоторые преобразования машине совершить не удается или удается с большим трудом. Например, преобразование речи в текст, или преобразование записи концерта в ноты, и даже по природе своей цифровое представление: текст на бумаге очень тяжело машине преобразовать в тот же текст в памяти компьютера.

Информация (Information) - это

Зачем же тогда использовать цифровое представление информации, если оно так сложно? Основное приимущество цифровой информации перед аналоговой это помехозащищенность. То есть в процессе копирования информации цифровая информация копируется так как есть, её можно копировать практически бесконечное количество раз, аналоговая же информация в процессе копирования зашумляется, её качество ухудшается. Обычно аналоговую информацию можно копировать не более трех раз.Если у Вас есть двух-кассетный аудио-магнитофон, то можете произвести такой эксперимент, попробуйте переписать несколько раз с кассеты на кассету одну и ту же песню, уже через несколько таких перезаписей Вы заметите как сильно ухудшилось качество записи. Информация на кассете хранится в аналоговом виде. Музыку в формате mp3 Вы можете переписывать сколько угодно раз, и качество музыки от этого не ухудшается. Информация в файле mp3 хранится в цифровом виде.

Количество информации

Человек или какой нибудь другой приемник информации, получив порцию информации, разрешает некоторую неопределенность. Возьмем для примера все тоже дерево. Когда мы увидели дерево, то мы разрешили ряд неопределенностей. Мы узнали высоту дерева, вид дерева, плотность листвы, цвет листьев и, если это плодовое дерево, то мы увидели на нём плоды, насколько они созрели и т.п. До того как мы посмотрели на дерево, мы всего этого не знали, после того как мы посмотрели на дерево, мы разрешили неопределенность - получили информацию.

Если мы выйдем на луг и посмотрим на него, то мы получим информацию другого рода, насколько луг большой, как высока трава и какого цвета трава. Если на этот же самый луг выйдет биолог, то он помимо всего прочего сможет узнать: какие сорта трав растут на лугу, какого типа этот луг, он увидит какие цветы зацвели, какие только зацветут, пригоден ли луг для выпаса коров и т.п. То есть, он получит количество информации больше чем мы, так как у него, перед тем как он посмотрел на луг, было больше вопросов, биолог разрешит большее количество неопределенностей.

Информация (Information) - это

Чем большая неопределенность была разрешена в процессе получения информации, тем большее количество информации мы получили. Но это субъективная мера количества информации, а нам бы хотелось иметь объективную меру. Существует формула для расчета количества информации. Мы имеем некоторую неопределенность, и у нас существует N-ое количество случаев разрешения неопределенности, и каждый случай имеет некоторую вероятность разрешения, тогда количество полученной информации можно расчитать по следующей формуле, которую предложил нам Шеннон:

I = -(p_1 log_{2}p_1 + p_2 log_{2}p_2 +... +p_N log_{2}p_N), где

I - количество информации;

N - количество исходов;

p_1, p_2,..., p_N- вероятности исхода.

Информация (Information) - это

Количество информации измеряется в битах - сокращение от английских слов BInary digiT, что означает двоичная цифра.

Для равновероятных событий формулу можно упростить:

I = log_{2}N, где

I - количество информации;

N - количество исходов.

Возьмем, для примера, монету и бросим её на стол. Она упадет либо орлом, либо решкой. У нас есть 2 равновероятных события. После того, как мы бросили монетку, мы получили log_{2}2=1 бит информации.

Попробуем узнать сколько информации мы получим после того, как бросим кубик. У кубика шесть граней - шесть равновероятных событий. Получаем: log_{2}6 approx 2,6. После того, как мы бросили кубик на стол, мы получили приблизительно 2,6 бита информации.

Вероятность того, что мы увидим марсианского динозавра, когда выйдем из дома, равна одной десяти-миллиардной. Сколько информации мы получим о марсианском динозавре после того как выйдем из дома?

Left({{1 over {10^{10}}} log_2{1 over {10^{10}}} + left({ 1 - {1 over {10^{10}}}} ight) log_2 left({ 1 - {1 over {10^{10}}} } ight)} ight) approx 3,4 cdot 10^{-9} бита.

Предположим, что мы бросили 8 монет. У нас 2^8 вариантов падения монет. Значит после броска монет мы получим log_2{2^8}=8 бит информации.

Когда мы задаем вопрос и можем в равной вероятности получить ответ «да» или «нет», то после ответа на вопрос мы получаем один бит информации.

Удивительно, что если применить формулу Шеннона для аналоговой информации, то мы получим бесконечное количество информации. Например, напряжение в точке электрической цепи может принимать равновероятное значение от нуля до одного вольта. Количество исходов у нас равно бесконечности и, подставив это значение в формулу для равновероятных событий, мы получим бесконечность - бесконечное количество информации.

Сейчас я покажу, как закодировать «войну и мир» с помощью всего лишь одной риски на любом металлическом стержне. Закодируем все буквы и знаки, встречающиеся в «войне и мир», с помощью двухзначных цифр - их должно нам хватить. Например, букве «А» дадим код «00», букве «Б» - код «01» и так далее, закодируем знаки препинания, латинские буквы и цифры. Перекодируем «войну и мир» с помощью этого кода и получим длинное число, например, такое 70123856383901874..., пририсуем перед этим числом запятую и ноль (0,70123856383901874...). Получилось число от нуля до единицы. Поставим риску на металлическом стержне так, чтобы отношение левой части стержня к длине этого стержня равнялось как раз нашему числу. Таким образом, если вдруг нам захочется почитать «войну и мир», мы просто измерим левую часть стержня до риски и длину всего стержня, поделим одно число на другое, получим число и перекодируем его назад в буквы («00» в «А», «01» в «Б» и т.д.).

Информация (Information) - это

Реально такое проделать нам не удастся, так как мы не сможем определять длины с бесконечной точностью. Увеличивать точность измерения нам мешают некоторое инженерные проблемы, а квантовая физика нам показывает, что после определенного предела, нам уже будет мешать квантовые законы. Интуитивно нам понятно, что чем меньшая точность измерения, тем меньше информации мы получаем, и чем большая точность измерения, тем больше информации мы получаем. Формула Шеннона не подходит для измерения количества аналоговой информации, но для этого существуют другие методы, которые рассматриваются в «Теории информации». В компьютерной технике бит соответствует физическому состоянию носителя информации: намагничено - не намагничено, есть отверстие - нет отверстия, заряжено - не заряжено, отражает свет - не отражает свет, высокий электрический потенциал - низкий электрический потенциал. При этом одно состояние принято обозначать цифрой 0, а другое - цифрой 1. Последовательностью битов можно закодировать любую информацию: текст, изображение, звук и т.п.

Наравне с битом, часто используется величина называемая байтом, обычно она равна 8 битам. И если бит позволяет выбрать один равновероятный вариант из двух возможных, то байт - 1 из 256 (2^8). Для измерения количества информации также принято использовать более крупные единицы:

1 Кбайт (один килобайт) 210 байт = 1024 байта

1 Мбайт (один мегабайт) 210 Кбайт = 1024 Кбайта

1 Гбайт (один гигабайт) 210 Мбайт = 1024 Мбайта

Реально приставки СИ кило-, мега-, гига- должны использоваться для множителей 10^3, 10^6 и 10^9, соответственно, но исторически сложилась практика использования множителей со степенями двойки.

Бит по Шеннону и бит, который используется в компьютерной технике, совпадают, если вероятности появления нуля или единички в компьютерном бите равны. Если вероятности не равны, то количества информации по Шеннону становиться меньше, это мы увидели на примере марсианского динозавра. Компьютерное количество информации дает верхнюю оценку количества информации. Энергозависимая память после подачи на неё питания инициализируется обычно каким-то значением, например, все единички или все нули. Понятно, что после подачи питания на память, никакой информации там нет, так как значения в ячейках памяти строго определены, никакой неопределенности нет. Память может хранить в себе какое-то количество информации, но после подачи на неё питания никакой информации в ней нет.

Дезинформация — заведомо ложная информация, предоставляемая противнику или деловому партнёру для более эффективного ведения военных действий, сотрудничества, проверки на утечку информации и направление её утечки, выявление потенциальных клиентов чёрного рынка.Также дезинформацией (также дезинформированные) называется сам процесс манипулирования информацией, как то: введение кого-либо в заблуждение путём предоставления неполной информации или полной, но уже не нужной информации, искажения контекста, искажения части информации.

Цель такого воздействия всегда одна — оппонент должен поступить так, как это необходимо манипулятору. Поступок объекта, против которого направлена дезинформация, может заключаться в принятии нужного манипулятору решения или в отказе от принятия невыгодного для манипулятора решения. Но в любом случае конечная цель — это действие, которое будет предпринято оппонентом.

Дезинформация, таким образом, — это товар деятельности человека, попытка создать ложное впечатление и, соответственно подтолкнуть к желаемым действиям и/или бездействию.

Информация (Information) - это

Виды дезинформации:

Введение в заблуждение конкретного лица или группы лиц (в том числе и целой нации);

Манипулирование (поступками одного человека или группы лиц);

Создание общественного мнения относительно какой-то проблемы или объекта.

Информация (Information) - это

Введение в заблуждение — это не что иное, как прямой обман, предоставление ложной информации. Манипулирование — это способ воздействия, направленный непосредственно на изменение направления активности людей. Выделяют следующие уровни манипулирования:

Усиление существующих в сознании людей выгодных манипулятору ценностей (идей, установок);

Частичное изменение взглядов на то или иное событие или обстоятельство;

Кардинальное изменение жизненных установок.

Создание общественного мнения — это формирование в обществе определённого отношения к выбранной проблеме.

Источники и ссылки

ru.wikipedia.org - свободная энциклопедия Википедия

youtube.com - видеохостинг ютуб

images.yandex.ua - картинки яндекс

google.com.ua - картинки Гугл

ru.wikibooks.org - викиучебник

inf1.info - Планета Информатики

old.russ.ru - Русский Журнал

shkolo.ru - Информационный справочник

5byte.ru - Сайт информатики

ssti.ru - Информационные технологии

klgtu.ru - Информатика

informatika.sch880.ru - сайт учителя информатики О.В. Подвинцевой

Энциклопедия культурологии

Основное понятие кибернетики, точно так же экономическая И. основное понятие экономической кибернетики. Определений этого термина много, они сложны и противоречивы. Причина этого, очевидно, в том, что И. как явлением занимается… … Экономико-математический словарь


We are using cookies for the best presentation of our site. Continuing to use this site, you agree with this. OK