Информатика основные определения компьютер информация программа данные единицы измерения информации

ОСНОВНЫЕ ОПРЕДЕЛЕНИЯ ИНФОРМАТИКИ
ПЕРСОНАЛЬНЫЙ КОМПЬЮТЕР (ПК или IBM PC) — это электронно-вычислительная машина (ЭВМ), предназначенная для работы в диалоге с человеком (пользователем).

ИНФОРМАТИКА — это наука, изучающая структуру и наиболее общие свойства информации, ее поиск, хранение, передачу и обработку с применением ЭВМ.

ИНФОРМАЦИЯ — это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии.

ФАЙЛ — это именованная область памяти на внешнем носителе. В файлах могут храниться тексты, документы, сами программы, рисунки и т.д.

КАТАЛОГ — это поименованное место на диске, в котором хранятся файлы.

ПРОГРАММИРОВАНИЕ — это подготовка задачи к решению ее на компьютере.

АЛГОРИТМ — это последовательность команд, ведущих к какой-либо цели.

ВЕТВЛЕНИЕ — это команда алгоритма, в которой делается выбор: выполнять или не выполнять какую-нибудь группу команд в зависимости от условия.

ЦИКЛ — это команды алгоритма, которые позволяют несколько раз повторить одну и ту же группу команд.

Представление информации в компьютере. Единицы измерения информации. Видеоурок по информатике 6

Свойства информации. Единицы измерения информации.
Важнейшие свойства информации: полнота, достоверность, ценность, актуальность и ясность. С информацией в компьютере производятся следующие операции: ввод, вывод, создание, запись, хранение, накопление, изменение, преобразование, анализ, обработка. Информация передается с помощью языков.

Основа любого языка — алфавит, т.е. конечный набор знаков (символов) любой природы, из которых конструируются сообщения на данном языке. Алфавит может быть латинский, русский, десятичных чисел, двоичный и т.д. Кодирование — это представление символов одного алфавита символами другого.

Простейшим алфавитом, достаточным для кодирования любого другого, является двоичный алфавит, состоящий всего из двух символов 0 и 1. Система счисления — это способ представления любого числа с помощью алфавита символов, называемых цифрами. Системы счисления делятся на позиционные и непозиционные. В позиционных системах любое число записывается в виде последовательности цифр, количественное значение которых зависит от места (позиции), занимаемой каждой из них в числе. Примеры: десятичная, восьмеричная, двоичная система и т.д. Схема перевода из двоичной системы в десятичную:

(100011)2 = 1*2 5 + 0*2 4 + 0*2 3 + 0*2 2 + 1*2 1 + 1*2 0 = (35)10

Пример непозиционной системы счисления — римская система. Информация в вычислительной машине представляется в двоичном коде (0 и 1), (да, нет), (вкл., выкл.). 0 и 1 — это 1 бит информации или 1 двоичный разряд. 1 байт — это 8 бит (8 двоичных разрядов). В компьютере 1 байт яв- ляется наименьшей единицей информации, что соответствует одному знаку в командной строке (цифре, букве, специальному символу или пробелу).

1 Кбит = 1024 бит = 2 10 бит =~ 1000 бит (1 килобит).
1 Мбит = 1048576 бит = 2 20 бит =~ 1 000 000 бит (1 мегабит).
1 Гбит = 2 30 бит =~ 10 9 бит = 1 000 000 000 (1 гигабит).

Информатика 7 класс (Урок№6 — Единицы измерения информации.)

В компьютерах IBM PC используются следующие единицы измерения ин- формации: 1 б (1 байт), 1 Кб (1 килобайт или часто просто 1 К), 1 Мб (1 мегабайт или часто просто 1 М), 1 Гб (1 гигабайт). Между ними существуют следующие соотношения:

1 Кб = 2 10 б = 1024 б =~ 1000 б.
1 Мб = 2 20 б = 1024 Кб = 1048576 б =~ 1 000 000 б.
1 Гб = 2 30 б = 1024 Мб =~ 10 9 б = 1 000 000 000 б.

Для примера можно указать, что в среднем 1 страница учебника =~ 3Кб.
Газета из 4-х страниц =~ 150 Кб.
Большая Советская Энциклопедия =~ 120 Мб.
Цветной телефильм продолжительностью 1.5 часа (25 кадр/с) =~ 135Гб.

Читайте также:
Программа пойнт или пайнт

Источник: www.examen.ru

1.1.Информатика и информация: определение информатики; понятия информации, сигнала, данных, сообщения; свойства информации и единицы измерения.

Информатика-это область человеческой деятельности, связанная с процессами преобразования информации с помощью компьютеров и их взаимодействие со средой применения.

Информация-это сведения об объектах или явлениях окружающей среды ,их параметров, св-вах и состояний, которые уменьшают имеющиеся у них степень неопределенности(неполнота знаний).

Сигнал-это любой процесс, несущий информацию

Сообщение-это информация, представленная в определенной форме и назначенная для передачи.

Данные-это информация, представленная в формализованном виде, предназначенная для обработки техническими устройствами.

1.Релевантность- способность инфо соответствовать нужным потребителям

2.Полнота-св-во информации исчерпывающи характеризовать рассматриваемый объект

3.Своевременность-способность инфо соответствовать нужным потребителям, в нужный момент времени

4.Достоверность — св-во информации не иметь скрытых ошибок

5.Доступность — св-во, характеризующее возможность и получения данным потребителя.

6.Защищенность-невозможность несанкционированного использования или его изменение

7.Эргономичность- св-во, характеризующее удобство формы и объема информацию с точки зрения конкретного потребителя.

Минимальной единицей кол-ва информации является БИТ-кол-во информации необходимое для однозначного определения одного из 2 равновероятных событий. Основной единицей измерения информации является БАЙТ.

1.2. Информационные процессы: определения информационных процессов; определения и характеристика процессов сбора, передачи, накопления, обработки информации.

Информационные процессы- это процессы, осуществляющие сбор, передачу, обработку и накопление информации.

Сбор информации- это деятельность субъекта в ходе которой, он получит сведения об интересующем объекте. Может производиться человеком или с помощью технических средств.

Накопление-это сбор информации, как правило сопровождается ее регистрацией, фиксированием на материальном носителе, процесс формирования исходного несистематизированного массива информации.

Передача(обмен) информации — это процесс в ходе которого источник информации ее передает ,а получатель принимает. Обмен информацией производиться с помощью сигналов, которые являются ее материальным носителем. Источниками информации могут быть любые объекты реального мира.

Обработка информации- это упорядоченный процесс преобразования информации в соответствии с алгоритмом решения задачи.

4.1. Архитектура эвм: определения компьютера, архитектуры и структуры эвм; основа и принцип действия компьютера, понятие программы и команды.

Компьютер-это программируемое электронное устройство, предназначенное для автоматизации информационных процессов.

Основу ПК образует аппаратура, построенная с использованием электронных и электрическо-механических элементов и устройств. Принцип действия ПК состоит в выполнении программ — заранее заданных четко определенных последовательностей, арифметических, математических, логических и других операций. Любая компьютерная программа представляет собой последовательность отдельных команд.

Команда — это описание операции, которую должен выполнять ПК, как правило у команды есть свой код(условное обозначение), исходные данные(операнды) и результаты(сложение). Совокупность команд, выполняемая данным ПК называется системой команд этого ПК.

Архитектура ЭВМ- это описание ПК на общем уровне ,включающее описание пользовательских возможностей программирования, системы команд, системы адресации, организация памяти и т.д.Общность архитектуры разных ПК обеспечивает их совместимость с точки зрения пользователя.

Структура ЭВМ- это совокупность его функциональных элементов и связей между ними. Элементами могут быть самые различные устройства, от основных логических узлов ПК до простейших схем.

4.2. Главные устройства компьютера и их функции. Принципы фон Неймана. Разнообразие современных ПК велико, но их структуры основаны на общих логических принципах, которые позволяют выделить в ПК главные устройства:

  • Процессор(включает в себя устройство управления и арифметико-логическое устройство)
  • Память(состоит из пронумерованных ячеек)
  • Устройство ввода и вывода

Ф-ии процессора: обработка данных по заданной программе ,путем выполнения математических и логических операций; программное управление работы всех устройств ПК.

Ф-ии памяти: прием информации от др. устройств, запоминание информации, выдача информации по запросу др. устройств.

В основу построения большинства ПК положены общие логические принципы, сформулированные в 1945 г. Американским ученым Джоном фон Неймоном.

1.Принцип программного управления. Программа состоит из набора команд, которые выполняются процессором автоматически друг за другом в определенной последовательности. Выборка программ из памяти осуществляется с помощью счетчика команд.

2.Принцип однородности памяти. Программы и данные хранятся в одной и той же памяти, ПК не различает, что хранится в конкретной области памяти -число, текст, команда. Над командами можно выполнять такие же действия ,как и над данными.

Читайте также:
Список книг на лето после 3 класса по программе перспектива

3.Принцип адресности. Структурно основная память состоит из пронумерованных ячеек. Процессор в произвольный момент времени доступна любая ячейка, из этого вытекает возможность давать имена областям памяти так, чтобы к заполненным в них значениям можно было обращаться или менять в процессе выполнения программы.

ПК построенные на этих принципах относятся к фон-неймоновским.

Источник: studfile.net

Информатика основные определения компьютер информация программа данные единицы измерения информации

У вас возник вопрос, почему все единицы из 1024 значений, а не, например, из 1000?

Ответ прост: из школьных уроков информатики, вы должны помнить, что компьютер понимает только два значения 0 — нет, 1 — да. Одно из этих значения хранится в бите. Но использовать бит как основную единицу измерения не совсем удобно и производительно. Поэтому, основной единицей был выбран байт. А используя байт, считать становится очень просто:

Алфавитный подход к определению количества информации

При алфавитном подходе к определению количества информации отвлекаются от содержания информации и рассматривают информационное сообщение как последовательность знаков определенной знаковой системы.

Информационная емкость знака. Представим себе, что необходимо передать информационное сообщение по каналу передачи информации от отправителя к получателю. Пусть сообщение кодируется с помощью знаковой системы, алфавит которой состоит из N знаков . В простейшем случае, когда длина кода сообщения составляет один знак, отправитель может послать одно из N возможных сообщений «1», «2», . «N», которое будет нести количество информации I (рис. 1.5).

Рис. 1.5. Передача информации

Формула (1.1) связывает между собой количество возможных информационных сообщений N и количество информации I, которое несет полученное сообщение. Тогда в рассматриваемой ситуации N — это количество знаков в алфавите знаковой системы, а I — количество информации, которое несет каждый знак:

С помощью этой формулы можно, например, определить количество информации, которое несет знак в двоичной знаковой системе:

Таким образом, в двоичной знаковой системе знак несет 1 бит информации. Интересно, что сама единица измерения количества информации «бит» (bit) получила свое название ОТ английского словосочетания «Binary digiT» — «двоичная цифра».

Информационная емкость знака двоичной знаковой системы составляет 1 бит.

Чем большее количество знаков содержит алфавит знаковой системы, тем большее количество информации несет один знак. В качестве примера определим количество информации, которое несет буква русского алфавита. В русский алфавит входят 33 буквы, однако на практике часто для передачи сообщений используются только 32 буквы (исключается буква «ё»).

С помощью формулы (1.1) определим количество информации, которое несет буква русского алфавита:

Таким образом, буква русского алфавита несет 5 битов информации (при алфавитном подходе к измерению количества информации).

Количество информации, которое несет знак, зависит от вероятности его получения. Если получатель заранее точно знает, какой знак придет, то полученное количество информации будет равно 0. Наоборот, чем менее вероятно получение знака, тем больше его информационная емкость.

В русской письменной речи частота использования букв в тексте различна, так в среднем на 1000 знаков осмысленного текста приходится 200 букв «а» и в сто раз меньшее количество буквы «ф» (всего 2). Таким образом, с точки зрения теории информации, информационная емкость знаков русского алфавита различна (у буквы «а» она наименьшая, а у буквы «ф» — наибольшая).

Количество информации в сообщении. Сообщение состоит из последовательности знаков, каждый из которых несет определенное количество информации.

Если знаки несут одинаковое количество информации, то количество информации Ic в сообщении можно подсчитать, умножив количество информации Iз, которое несет один знак, на длину кода (количество знаков в сообщении) К:

Так, каждая цифра двоичного компьютерного кода несет информацию в 1 бит. Следовательно, две цифры несут информацию в 2 бита, три цифры — в 3 бита и т. д. Количество информации в битах равно количеству цифр двоичного компьютерного кода (табл. 1.1).

Читайте также:
Лучшая программа восстановления cd

4.3. Информационный объём сообщения

Информационный объём сообщения (количество информации в сообщении), представленного символами естественного или формального языка, складывается из информационных весов составляющих его символов.

Задача 2. Сообщение, записанное буквами 32-символьного алфавита, содержит 140 символов. Какое количество информации оно несёт?

Ответ’: 700 битов.

Задача 3. Информационное сообщение объёмом 720 битов состоит из 180 символов. Какова мощность алфавита, с помощью которого записано это сообщение?

Ответ: 16 символов.

Бит — это минимальная единица измерения информации.

В одном бите содержится очень мало информации. Он может принимать только одно из двух значений (1 или 0, да или нет, истина или ложь). Измерять информацию в битах очень неудобно — числа получаются огромные. Ведь не измеряют же массу автомобиля в граммах.

Например, если представить объем флешки в 4Гб в битах мы получим 34 359 738 368 бит. Представьте, пришли вы в компьютерный магазин и просите продавца дать вам флешку объемом 34 359 738 368 бит. Вряд ли он вас поймет

Поэтому в информатике и в жизни используются производные от бита единицы измерения информации. Но у них у всех есть замечательное свойство — они являются степенями двойки с шагом 10.

Итак, возьмем число 2 и возведем его в нулевую степень. Получим 1 (любое число в нулевой степени равно 1). Это будет байт.

В одном байте 8 бит.

Теперь возведем 2 в 10-ю степень — получим 1024. Это килобайт (Кбайт).

В одном килобайте 1024 байт.

Если возвести 2 в 20 степень — получим мегабайт (Мбайт).

1Мбайт = 1024 Кбайт.

И так далее. Удобнее эти данные отобразить в виде таблицы:

Базовые понятия информатики.

Информатика: дисциплина, основанная на использование компьютерной техники, изучающая структуру, общие свойства информации и все информационные процессы (information automatique).

Базовыми понятиями информатики и информационных технологий являются:

  • Информация.
  • Информационные процессы.
  • Технология.
  • Информационные ресурсы.
  • Информационная система.

Информация — происходит от слова information, сведенья, данных. Информация в понимание компьютера, это последовательность символов, несущая смысловую нагрузку, и представленная в понятном компьютеру виде.

Информационные процессы — действия, осуществляемые с информацией:

  • Сбор.
  • Получение.
  • Хранение.
  • Обработка.
  • Передача.

Технология — происходит от латинского (techne): искусство, умение, мастерство. Технология, это определенная совокупность действий, направленная на достижение поставленной цели.

Информационные технологии — совокупность программных, технических, документальных средств, для выполнения информационных процессов.

Информационная система — упорядоченная совокупность документированной информации, отвечающая определенным принципам (достоверность, точность, структурированность). Типичным примером информационной системы является база данных. Также в состав информационной системы входят: локальные сети, базы данных, глобальные сети и т.д.

Информационный ресурс — совокупность данных, организованных для эффективного получения достоверной информации. Типичным примером информационного ресурса является веб-сайт.

Информатика – это наука, изучающая…

история информатики как науки

На данный момент различают несколько основных ее направлений, которые, в свою очередь, делятся на множество ответвлений. Рассмотрим самые основные:

  1. Теоретическая информатика. В ее задачи входит исследование как классической теории алгоритмов, так и ряда важных тем, что имеют связь с более абстрактными аспектами математических вычислений.
  2. Прикладнаяинформатика. Это наука, вернее, один из ее разделов, который направлен на то, чтобы выявить определенные понятия в области информатики, которые можно использовать в качестве методов решения каких-то стандартных задач, к примеру, построение алгоритмов, хранение и управление информацией с использованием структуры данных. Кроме этого, прикладную информатику применяют в ряде промышленных, повседневных или научных сфер: биоинформатике, электронной лингвистике и прочих.
  3. Естественная информатика. Это направление, которое занимается изучением процессов различной обработки информации в природе, будь то человеческий мозг или же человеческое общество. Ее основы строятся на классических теориях эволюции, морфогенеза и прочих. Помимо них, используются такие научные направления, как исследования ДНК, мозговой активности, теория группового поведения и т. п.

Как видим, информатика – это наука, изучающая ряд очень важных теоретических вопросов, к примеру, создание искусственного интеллекта или разработка решений для каких-то математических задач.

Источник: fobosworld.ru

Рейтинг
( Пока оценок нет )
Загрузка ...
EFT-Soft.ru