Вопрос № 2. Информация, информатика и информационные системы. Количество информации по Хартли. Алфавит ПК. Понятие бита и байта.
Информатика – от франц. “information” + “automatique”, т.е автоматизированная переработка информации с помощью вычислительной техники. Это наука, изучающая процессы сбора, передачи, хранения и переработки информации.
Информация – сведения об объектах и явлениях окружающей среды, их параметрах и свойствах. При решении задач этими сведениями являются данные. При решении задач, связанных с информационным поиском, редактированием, планированием, статистикой и т.д. хранится и обрабатывается нечисловая информация: тексты, графики, рисунки, списки, таблицы.
В информатике выделяется содержательная часть, организационная, техническая, программная.
Всю структуру информатики можно рассматривать:
- как отрасль н/х, занимающаяся процессами создания, хранения, переработки информации с помощью ЭВМ.
- как фундаментальная наука, изучающая процессы передачи и обработки информации.
- как научную дисциплину, изучающую закономерность и модели информационных коммуникаций в различных сферах (политики, социально-экономическая, научно-педагогическая, промышленная…)
Информационная инфраструктура – совокупность транспорта и транспортных систем и средств связей, систем материального и информационного обеспечения, отраслей н/х.
Информационные технологии рассматриваются как машинные технологии, т.е. передача и обработка информации.
В начале XX века появляются 1 коммуникации:
- передача информации по каналам связи.
- открытие информационных механизмов в биологии, например, биочип – сверхминиатюрное устройство обработки и хранения информации в биоорганических молекулярных системах.
Информатика осуществляет преобразование и обработку информации с помощью информационных систем.
Система – множество различных объектов, связанных между собой. Все объекты системы связаны и выполняют определённые функции.
Информационные системы:
1) АОС – автоматизированная обучающая система.
2) АСУТП – автоматизированная система управления технологическими процессами.
3) ГПС – гибкие производственные системы.
4) АИПС – автоматизированные информационные поисковые системы.
5) СУБД – система управления базами данных.
6) САПР – система автоматизированного проектирования.
База данных – совокупность набора данных в целях создания информационной модели, использующейся при переработке информации. (Библиографич. БД, САПР, АСУ)
База знаний – организованная совокупность знаний, которая допускает автоматизированное использование знаний с помощью ЭВМ. (Экспертные системы, САПР)
Банк данных – совокупность БД для решения задач по определённым направлениям науки и техники. (Банк сводов законов.)
В информатике есть понятие количества информации. Есть 3 подхода к измерению количества информации:
- комбинированный (Хартли)
- вероятностно-статистический (Шеннона)
- алгоритмический (Колмогорова)
Хартли рассматривал передачу информации по каналам связи как последовательный выбор знаков или слов из всего списка.
Рассмотрим длину слова из 2х знаков.
N = 2 – длина слова.
S = 3 – размер алфавита.
Возможные комбинации: aa, ab, ac, bb, ba, bc, cc, ca, cb.
М = 9 – количество комбинаций.
N – произвольная длина
M = S*S*S… = SN
В основе метода Хартли лежит понятие «энтропия множества», т.е. его неопределённость. Чем больше мощность множества, тем больше его неопределённость.
Обозначим энтропию через H.
H пропорционально M
H = logM
H = log1 = 0
Выберем 2 элемента.
I = log22 = 1
1 бит – минимальная единица пямяти.
1 байт = 8 бит
1кб = 1024 байт
1мб = 1024кб
1гб = 1024мб…
( 2I = N)
Если имеется произведение множества, то оно будет равно сумме энтропии отдельных множеств.
Н(x1, x2, x3) = H(x1) + H(x2) + H(x3)
Вывод: Хартли дал определение количеству информации и энтропии.
В качестве внутреннего алфавита ЭВМ выступает двоичный код. Каждый из двоичных символов несёт единицу информации – 1 бит
Вопрос № 2. Информация, информатика и информационные системы. Количест
Страница: 1
Сообщений 1 страница 1 из 1
Поделиться12009-11-19 13:03:31
Страница: 1