ИНФОРМАЦИЯ, ЕЁ СВОЙСТВА

На главную
 

 

Структура информатики

Информация, её свойства

Вопросы и задания

E-mail

Понятие "информация"

Слово "информация" относится к основополагающим терминам информатики и в переводе с латинского означает "сообщение", "разъяснение". До появления компьютерной техники это слово использовалось  редко,  в основном в специальной и технической литературе. Впервые понятие "информация" как термин приводится в книге Н.Винера "Кибернетика", однако лишь в узком смысле - как "количество информации". В настоящее время термин "информация" используется весьма широко как в быту и на производстве, так и в науке, образовании, технической литературе и др. При этом, смысл термина "информация" столь широк, что зачастую может придти  в противоречие с контекстным содержанием. Во многих публикациях делаются попытки дать фундаментальное, "универсальное" толкование этого термина,   отображающего его мировоззренческий, философский смысл наряду с такими философскими категориями как вещество и энергия.  И если два последних понятия отображают материальный мир, то в противовес этому термин "информация" связывается с идеальными, нематериальными субстанциями.  В книге В.Шнейдерова "Занимательная информатика" отмечено, что в настоящее время известно более четырёхсот определений термина "информация". Для примера приведём некоторые из них.

Информация - это содержание сообщения, сигнала, памяти, а также сведения, содержащиеся в сообщении, сигнале или памяти.[1].


Информация - сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые уменьшают имеющуюся  о них степень неопределённости , неполноты знаний.[2].


Информация - это понимание (смысл, представление, интерпретация), возникающее в аппарате мышления человека после получения им данных, взаимоувязанное с предшествующими знаниями и понятиями.[3].


Информация, первоначально - сведения, передаваемые людьми, устным, письменным или другим способом (с помощью условных сигналов, технических средств и т.д.); с середины 20 века общенаучное понятие, включающее обмен сведениями между людьми, человеком и автоматом, автоматом и автоматом; обмен сигналами в животном и растительном мире; передачу признаков от клетки к клетке, от организма к организму.[4]


Информация - содержание сообщения или сигнала, сведения, рассматриваемые в процессе их передачи или восприятия; одна из исходных общенаучных категорий, отражающая структуру материи и способы её познания, несводимая к другим, более простым понятиям. [5]


Вышеприведенные определения основного понятия информатики весьма сильно отличаются друг от друга, хотя почти везде постулируется, что информация - это сведения. В определении[4] информацией могут обмениваться не только люди, но и автоматы, в то время как в [3] информация возникает и существует лишь в мыслительном аппарате человека и нигде более. Как только эта информация отчуждается от человека, она превращается из сведений (смысла, знания) в данные, и только если данные попадают к человеку, который знает закон (правила) интерпретации (придания смысла) данным, только тогда у адресата данные преобразуются в смысл. Причём, смысл у источника и адресата в общем случае чаще всего не совпадает.

Подробно и обстоятельно понятие "информация" исследуется в работе[3]. Здесь приводятся лишь выводы:
1. Предлагается считать понятие "информация" субъективным понятием, в том смысле, что понимание происходит только в аппарате мышления человека.
2. Человек не может получить "информацию" непосредственно, а может лишь, на основании каких-либо данных, представленных в виде сигналов, документов и т.д., сформировать у себя в аппарате мышления информацию о чём-либо.
3. Формирование информации в аппарате мышления происходит на основании внешних данных и всего предшествующего опыта и знаний человека. Именно поэтому одно и тоже сообщение, полученное разными людьми, или одним человеком, но в разные времена, приводит к разным ответным реакциям.
4. Предлагается модель процесса получения информации человеком: внешние сигналы → данные  → неформальный смысл, выраженный в ощущениях, → полуформальный смысл, выраженный в словах, → формальный смысл, выраженный в терминах логики.
5. Предлагается модель передачи информации от человека: неформальный смысл → полуформальный смысл, выраженный в тексте, → формальный смысл, выраженный в алгоритме, → данные.

На основе вышесказанного становится ясным, что наука информатика имеет дело скорее не с информацией, а с данными, т.е. информация и данные там выступают как синонимы.  Более того, в официальных документах, печатных изданиях, на бытовом уровне и т.д. термин "информация" чаще всего также выступает в значении "данные". Мы также будем придерживаться этого правила, помня, что "информация" - это "данные" для нас, а просто "данные" - это данные "в себе".

Свойства информации

Одним из важнейших параметров информации является её адекватность, т.е. степень соответствия создаваемого с помощью полученной информации образа реальному объекту (процессу, явлению). Различаются три формы адекватности информации: синтаксическая, семантическая и прагматическая[2].
1.Синтаксическая адекватность отображает формально-структурные характеристики информации и не затрагивает её смыслового содержания.
2. Семантическая (смысловая) адекватность определяет степень соответствия информации об объекте самому объекту.
3. Прагматическая (потребительская) адекватность отражает отношение информации и её потребителя. Прагматический аспект связан с ценностью, полезностью использования информации потребителем для достижения поставленной цели.

Меры информации. Информация (в смысле данных) всегда связана с материальным носителем: это может быть сигнал в любой материальной форме, числовой, символьный код на печатной основе и т.д. Поскольку, любой материальный объект можно измерить, то это относится и к информации. Что же в ней можно измерить? Во-первых, количественно синтаксическую форму адекватности информации реальному объекту. Степень адекватности описываемого объекта зависит от количества слов (символов), затраченных на описание модели объекта. Поскольку, каждый символ естественного языка можно закодировать одним байтом (8 бит), то легко вычислить полный объём информации, связанный с описанием любого объекта, процесса, явления. Это так называемый алфавитный подход измерения количества информации.
Есть другой количественный подход - кибернетический, который учитывает ценность информации(прагматическая адекватность). Впервые он был предложен в работах К.Шеннона [6] и Н.Винера [7].  Изучая системы передачи информации, К.Шеннон пришёл к выводу, что каждое элементарное сообщение на выходе системы уменьшает неопределённость исходного множества сообщений, при этом смысловой аспект сообщения не имеет никакого значения. За единицу количества информации было предложено принять "количество информации, передаваемое при одном выборе между равновероятными альтернативами". Эта наименьшая единица информации называется бит. Информация в один бит уменьшает неопределённость информационной системы в 2 раза. Для вычисления средней величины количества информации, связанного с положительным исходом некоторого события  x из множества m событий К.Шеннон предложил формулу: Hx =−Σpi log pi,  где pi -вероятность i-го события. Эта формула характеризует энтропию (меру неопределённости) системы. Изначально это понятие появилось в физике и характеризует оно степень неупорядоченности, т.е. неопределённости микросостояния, в котором система (например, термодинамическая) может находиться в данный момент времени. Значение Hx достигает максимума для равновероятных событий, т.е. при pi = 1∕m формула К.Шеннона упрощается: Hmax = −log p = log m (формула Р.Хартли). Пример: Рассмотрим систему с 256 возможными состояниями, например  расширенную кодовую таблицу символов, тогда  Hmax будет равно 8 битам (log2256 = 8). Другими словами, восемь бит достаточно, чтобы точно описать исход любого события (например, выборку определённого символа из таблицы).
Содержательный (субъективный) подход. Содержание информации кроме количественного (объективного)  параметра имеет ещё и семантическую (смысловую) характеристику, которая определяется способностью пользователя понимать поступившее сообщение. Эта способность зависит от тезауруса пользователя, т.е. совокупности сведений и знаний, которыми располагает пользователь. Если тезаурус пользователя близок к нулю, то любая новая информация им не воспринимается (он её не понимает) и в этом случае  семантическая компонента информации для него равна нулю. Если поступившая информация  не даёт ему новые (полезные) знания, то и в этом случае семантическая информация также равна нулю. Максимальное значение семантической информации пользователь воспринимает в случае, когда поступившая информация понята пользователем и несёт ему новые сведения, знания. Таким образом, одно и то же сообщение может иметь смысловое содержание для компетентного пользователя и быть бессмысленным для пользователя некомпетентного.

Качество информации. Возможность и эффективность использования информации обуславливаются такими основными её потребительскими показателями качества, как содержательность, репрезентативность, достаточность, доступность, актуальность, своевременность, точность, достоверность, устойчивость. Многие из этих показателей очевидны и не требуют их интерпретации. Поэтому остановимся лишь на некоторых из них.
Содержательность информации отражает семантическую ёмкость, равную отношению величины семантической информации в сообщении к объёму обрабатываемых данных.
Репрезентативность информации связана с правильностью её отбора и формирования в целях адекватного отражения свойств объекта.
Достаточность (полнота) информации означает, что она содержит минимальный, но достаточный для принятия правильного решения набор показателей. Как неполная, так и избыточная информация снижает эффективность принимаемых пользователем решений.

---------------------------
1. Информатика: Энциклопедический словарь для начинающих./Сост. Д.А. Поспелов. - М.: Педагогика-Пресс, 1994.
2. Информатика. Учебник./Под ред. проф. Н.В.Макаровой. - М.: Финансы и статистика, 1999.
3. Фридланд А.Я. Информатика: процессы, системы, ресурсы. -М.: БИНОМ. Лаборатория знаний, 2003.
4. Большой энциклопедический словарь. - М.: Большая Российская энциклопедия, 1998.
5. Математический энциклопедический словарь. - М.: Советская энциклопедия, 1988.
6. Шеннон К. Работы по теории информации и кибернетике. - М.: Иностранная литература, 1963.
7. Винер Н. КИБЕРНЕТИКА, или управление и связь в животном и машине. - М.: Советское радио, 1958.

 

    Структура информации    Информация, её свойства    Вопросы и задания    E-mail

наверх