ИНФОРМАЦИЯ И ЕЕ КОДИРОВАНИЕ
Информация для человека – это знания, которые он получает из различных источников.
Получение информации – это получение сведений, фактов и данных о свойствах, структуре и взаимодействии объектов и явлений окружающего нас мира.
Основными социально значимыми свойствами информации являются:
- полезность;
- доступность (понятность);
- актуальность;
- полнота;
- достоверность;
- адекватность.
Количество информации как мера уменьшения неопределенности знаний
Информацию, которую получает человек, можно считать мерой уменьшения неопределенности знаний. Если некоторое сообщение приводит к уменьшению неопределенности наших знаний, то можно говорить, что такое сообщение содержит информацию.
Например, после сдачи экзамена по информатике вы мучаетесь неопределенностью, вы не знаете какую оценку получили. Наконец, экзаменационная комиссия объявляет результаты экзамена, и вы получаете сообщение, которое приносит полную определенность, теперь вы знаете свою оценку. Происходит переход от незнания к полному знанию, значит, сообщение экзаменационной комиссии содержит информацию.
Чем больше количество возможных событий, тем больше начальная неопределенность и соответственно тем большее количество информации будет содержать сообщение о результатах опыта.
Единицы измерения количества информации
За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность в два раза. Такая единица названа "бит". Минимальной единицей измерения количества информации является бит.
1 байт = 8 бит
1 Кбайт = 1024байт;
1 Мбайт = 1024 Кбайт;
1 Гбайт = 1024 Мбайт.
1 Тбайт = 1024 Гбайт.
Количество возможных событий и количество информации в сообщении
Существует формула, которая связывает между собой количество возможных событий N и количество информации I: N=2i, N – количество сообщений, i – информационный вес символа (бит, байт, кб…)
Пример: В русском алфавите 33 буквы, но чаще всего используют только 32. Посчитайте, какое количество информации несет каждый символ? Ответ: N=2i, 32=25, i=5 бит.
Количество информации в сообщении
Количество информации, которое содержит сообщение, закодированное с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на количество знаков.
- I=k*i, I – информационный объем сообщения; i – информационный вес 1-ого символа; k – количество символов в сообщении
- V=It, I – информационный объем сообщения; V – скорость передачи информации (бит/с); t – время (секунды)
Пример: Дано сообщение, состоящее из 5 страниц, на каждой странице по 40 символов. Определите информационный объем всего текста, если вес одного символа составляет 6 бит. Ответ: I=i*k, I=200*6=1200 бит, Ответ: 1200 бит
Кодирование информации
В процессе обмена информацией часто приходится производить операции кодирования и декодирования информации. При вводе знака алфавита в компьютер путем нажатия соответствующей клавиши на клавиатуре происходит кодирование знака, то есть преобразование его в компьютерный код. При выводе знака на экран монитора или принтер происходит обратный процесс - декодирование, когда из компьютерного кода знак преобразуется в его графическое изображение.
Кодирование - это операция преобразования знаков или групп знаков одной знаковой системы в знаки или группы знаков другой знаковой системы.
Двоичное кодирование информации в компьютере
Все виды информации (числовая, текстовая, графическая, звуковая, видео) в компьютере кодируются на машинном языке, в виде логических последовательностей нулей и единиц.
Информация в компьютере представлена в двоичном коде, алфавит которого состоит из двух цифр (0 и 1).
Важно, что каждая цифра машинного двоичного кода несет информацию в 1 бит. Таким образом, две цифры несут информацию в 2 бита, три цифры - в 3 бита и так далее. Количество информации в битах равно количеству цифр двоичного машинного кода.
Каждая цифра машинного двоичного кода несет количество информации, равное одному биту.
ИНФОРМАЦИЯ И ЕЕ КОДИРОВАНИЕ
Информация для человека – это знания, которые он получает из различных источников.
Получение информации – это получение сведений, фактов и данных о свойствах, структуре и взаимодействии объектов и явлений окружающего нас мира.
Основными социально значимыми свойствами информации являются:
- полезность;
- доступность (понятность);
- актуальность;
- полнота;
- достоверность;
- адекватность.
Количество информации как мера уменьшения неопределенности знаний
Информацию, которую получает человек, можно считать мерой уменьшения неопределенности знаний. Если некоторое сообщение приводит к уменьшению неопределенности наших знаний, то можно говорить, что такое сообщение содержит информацию.
Например, после сдачи экзамена по информатике вы мучаетесь неопределенностью, вы не знаете какую оценку получили. Наконец, экзаменационная комиссия объявляет результаты экзамена, и вы получаете сообщение, которое приносит полную определенность, теперь вы знаете свою оценку. Происходит переход от незнания к полному знанию, значит, сообщение экзаменационной комиссии содержит информацию.
Чем больше количество возможных событий, тем больше начальная неопределенность и соответственно тем большее количество информации будет содержать сообщение о результатах опыта.
Единицы измерения количества информации
За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределенность в два раза. Такая единица названа "бит". Минимальной единицей измерения количества информации является бит.
1 байт = 8 бит
1 Кбайт = 1024байт;
1 Мбайт = 1024 Кбайт;
1 Гбайт = 1024 Мбайт.
1 Тбайт = 1024 Гбайт.
Количество возможных событий и количество информации в сообщении
Существует формула, которая связывает между собой количество возможных событий N и количество информации I: N=2i, N – количество сообщений, i – информационный вес символа (бит, байт, кб…)
Пример: В русском алфавите 33 буквы, но чаще всего используют только 32. Посчитайте, какое количество информации несет каждый символ? Ответ: N=2i, 32=25, i=5 бит.
Количество информации в сообщении
Количество информации, которое содержит сообщение, закодированное с помощью знаковой системы, равно количеству информации, которое несет один знак, умноженному на количество знаков.
- I=k*i, I – информационный объем сообщения; i – информационный вес 1-ого символа; k – количество символов в сообщении
- V=It, I – информационный объем сообщения; V – скорость передачи информации (бит/с); t – время (секунды)
Пример: Дано сообщение, состоящее из 5 страниц, на каждой странице по 40 символов. Определите информационный объем всего текста, если вес одного символа составляет 6 бит. Ответ: I=i*k, I=200*6=1200 бит, Ответ: 1200 бит
Кодирование информации
В процессе обмена информацией часто приходится производить операции кодирования и декодирования информации. При вводе знака алфавита в компьютер путем нажатия соответствующей клавиши на клавиатуре происходит кодирование знака, то есть преобразование его в компьютерный код. При выводе знака на экран монитора или принтер происходит обратный процесс - декодирование, когда из компьютерного кода знак преобразуется в его графическое изображение.
Кодирование - это операция преобразования знаков или групп знаков одной знаковой системы в знаки или группы знаков другой знаковой системы.
Двоичное кодирование информации в компьютере
Все виды информации (числовая, текстовая, графическая, звуковая, видео) в компьютере кодируются на машинном языке, в виде логических последовательностей нулей и единиц.
Информация в компьютере представлена в двоичном коде, алфавит которого состоит из двух цифр (0 и 1).
Важно, что каждая цифра машинного двоичного кода несет информацию в 1 бит. Таким образом, две цифры несут информацию в 2 бита, три цифры - в 3 бита и так далее. Количество информации в битах равно количеству цифр двоичного машинного кода.
Каждая цифра машинного двоичного кода несет количество информации, равное одному биту.