Кафедра «Информатика» В. М. Пестриков




НазваниеКафедра «Информатика» В. М. Пестриков
страница1/35
Дата публикации21.08.2013
Размер5.27 Mb.
ТипУчебное пособие
www.zadocs.ru > Информатика > Учебное пособие
  1   2   3   4   5   6   7   8   9   ...   35


МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РОССИЙСКОЙ ФЕДЕРАЦИИ



Санкт-Петербургский государственный университет сервиса и экономики

Кафедра «Информатика»

В.М. Пестриков

Г.А. Петров

В.С. Дудкин


Информатика
Учебное пособие
для студентов, обучающихся по направлению
080500.62 (521500) «Менеджмент»


Санкт-Петербург

2010

ББК
Одобрено на заседании кафедры «Информатика», протокол №4 от 4.02.2010 г.
Утверждено Учебно-методическим советом СПбГУСЭ, протокол №5 от 31.03.2010 г.

Пестриков В.М. Информатика. Уч. пособие для студентов, обучающихся по направлению 080500.62 (521500) «Менеджмент» / В.М. Пестриков,Г.А. Петров, В.С. Дудкин. – СПб.: Изд-во СПбГУСЭ, 2010. – 339 с.

В учебном пособии рассматриваются вопросы организации аппаратных и программных средств, принципы построения современных персональных компьютеров, периферийных устройств. Рассмотрены системное и прикладное программное обеспечение, табличные процессоры и их применение для решения типовых задач сферы сервиса, организация базы данных, локальные сети и интернет, основы программирования на языке Паскаль. Учебное пособие предназначено для студентов, изучающих дисциплину «Информатика».

Может быть также использовано преподавателями других кафедр университета, изучающих информатику самостоятельно, при руководстве курсовым и дипломным проектированием.

Рецензенты: Д-р тех. наук, проф. каф. «Вычислительная техника»
Санкт-Петербургского государственного электротехнического университета «ЛЭТИ» М.С. Куприянов;

канд. тех. наук, доц. каф. «Информатика» СПбГУСЭ С.В. Тихов

ISBN Ó Санкт-Петербургский государственный

университет сервиса и экономики, 2010.

ОГЛАВЛЕНИЕ


Глава 1. Понятие информатики, системы счисления,

кодирование информации
1.1. Предмет и задачи информатики, понятие информации
Вся жизнь и деятельность человека связана с получением, обработкой и накоплением информации. Фундаментальной чертой развития деятельности общества в различных областях науки, техники и других сферах является рост производства, потребления и накопления информации. Увеличение информации и растущий спрос на нее обусловили появление отрасли, связанной с автоматизацией обработки информации – информатики. Термин "информатика" (informatique) происходит от французских слов information (информация) и automatique (автоматика), он дословно означает "информационная автоматика" и определяется как "наука о преобразовании информации". На Международном конгрессе в Японии в 1978 году расширенное определение понятия информатики было сформулировано следующим образом: "Понятие информатики охватывает области, связанные с разработкой, созданием, использованием и материально-техническим обслуживанием систем обработки информации, включая машины, оборудование, математическое обеспечение, организационные аспекты, а также комплекс промышленного, коммерческого, административного, социального и политического воздействия".

В США и многих Европейских странах вместо термина “ информатика” используется термин “Computer Science” – компьютерная наука или наука об использовании компьютера. Инфоpматика - это дисциплина, основанная на использовании компьютерной техники и изучающая структуру, свойства информации, а также методы её создания, хранения, обработки, передачи и применения в различных областях деятельности человека. Чтобы использовать основные результаты исследований в области компьютерных наук, необходимо обладать навыками в таких основных направлениях, как: теория алгоритмов, представление информации, программирование и проектирование систем. Инфоpматика - комплексная научная дисциплина с широчайшими областями применения, основными приоритетными направлениями которой являются следующие:

  • pазpаботка вычислительных систем и пpогpаммного обеспечения;

  • теоpия инфоpмации, изучающая процессы передачи, приёма, преобразования и хранения информации;

  • разработка методов вычислительной математики, искусственного интеллекта ;

  • социальная информатика для изучения вопросов, связанных с развитием информатизации общества;

  • глобальные сети, системы телекоммуникаций, для объединения всех стран в единую информационную сеть;

  • использование средств вычислительной техники в образование, медицине, торговле и других сферах деятельности человека.

Исторически корни информатики лежат в науке «кибернетика», изучающей законы управления в живой природе и технических системах. Это понятие появилось ещё в 19 веке и ввел его французский физик А.Ампер, полагая, что должна существовать наука об искусстве управления. Эту науку он решил назвать кибернетикой, так как с греческого «кибернетикос» переводится как «искусный в управлении». Примерами кибернетических систем являются: автоматические регуляторы в технике, компьютерная система, мозг человека.

Кибернетика занимается разработкой принципов создания систем управления и автоматизации интеллектуальной деятельности человека. Возникновение кибернетики в 1948 как самостоятельной науки связано с созданием в 1940-х годах аналоговых и цифровых вычислительных машин, а развитие кибернетики в теоретических и практических аспектах - с прогрессом средств вычислительной техники. Основателем данного направления является американский математик Н. Винер.

Информатика отдельной наукой была признана лишь в 1970-х годах и с момента своего развития информатика разработала собственные методы и терминологию. В настоящее время бурное развитие средств вычислительной техники, развитие информационных технологий и систем обеспечивают прогресс во всех областях науки, техники, производственной деятельности и т.п. Сегодня факультеты и кафедры информатики имеются в большинстве университетов мира.
^ Понятие информации
Понятие информации является основополагающим понятием информатики, как науки. Несмотря на постоянное использование данного термина, понятие информации является одним из самых дискуссионных в науке.

В настоящее время понятие информации является в значительной степени интуитивным, например, в обычной жизни под информацией подразумевают различные данные, интересующие нас, в технике под информацией понимают сообщения, передаваемые в виде сигналов и т.п. В технике понятие информации включает сведения, которые представляют собой объект хранения, преобразования и передачи. Таким образом, можно сказать, что информация – это совокупность сведений, получаемых человеком или системой от окружающей среды посредством органов чувств (человек) или датчиков (система). Биолог, например пойдет еще дальше, он может отнести к информации и то, что человек не получал через органы чувств и не создавал сам посредством интеллектуальных действий, а хранит в себе с момента рождения – это генетический код. Американский учёный Клод Шеннон, заложивший основы теории информации, изучающей процессы передачи, приёма, преобразования и хранения информации, рассматривает информацию как снятую неопределенность о чем-либо в наших знаниях.

Люди обмениваются информацией в форме сообщений. Сообщение - это форма представления информации в виде речи, текстов, взглядов, изображений, цифровых данных, графиков и т.д. Одно и то же информационное сообщение для человека (книга, статья, картина и т.п.) содержит различное количество информации, что определяется уровнем подготовки. Что же касается компьютерной системы, то под информацией обычно подразумевают определенную последовательность закодированных символов, представленных на языке компьютера.

Основными свойствами информации являются достоверность, полнота, ясность, ценность и актуальность. С информацией связаны такие понятия, как: сигнал, сообщение и данные:

  • сигнал - представляет собой любой процесс, несущий информацию.

  • сообщение - это информация, представленная в определенной форме и предназначенная для передачи.

  • данные - это информация, представленная в формализованном виде и предназначенная для обработки ее техническими средствами, например, персональным компьютером.


^ 1.2. Информационные процессы и технологии
Информационные процессы (сбор, хранение, обработка и передача информации) всегда играли важную роль в науке, технике и жизни общества. В ходе эволюции человечества просматривается устойчивая тенденция к автоматизации этих процессов.

^ Сбор информации – это деятельность субъекта, в ходе которой он получает сведения об интересующем его объекте. Сбор информации может производиться или человеком, или с помощью технических средств и систем.

^ Обмен информацией – это процесс, в ходе которого источник информации ее передает, а приемник (получатель) – принимает. Если в передаваемых сообщениях обнаружены ошибки, то организуется повторная передача этой информации или возможно исправление ошибок при использовании специальных кодов, исправляющих одиночные ошибки или пакеты ошибок. Обмен информацией производится с помощью сигналов, являющихся ее физическим носителем.

Принятую информацию получатель должен зафиксировать на материальном носителе (бумажном, электронном или другом) для дальнейшего использования. Процесс формирования получаемого несистематизированного массива информации является накоплением информации.

^ Хранение информации - это процесс поддержания исходной информации в виде, обеспечивающем выдачу данных по запросам конечных пользователей в установленные сроки.

^ Обработка информации - это упорядоченный процесс ее преобразования в соответствии с алгоритмом решения задачи.

После решения задачи обработки информации результат должен быть выдан конечным пользователям в требуемом виде. Эта операция реализуется в ходе решения задачи выдачи информации. Выдача информации, как правило, производится с помощью внешних устройств компьютера в виде текстов, таблиц, графиков и других форм.

Информационная техника представляет собой материальную основу информационной технологии, с помощью которой осуществляется сбор, хранение, передача и обработка информации. В настоящее время часто используется термин информационные технологии, так как информатика очень близка по сути к технологии.

Древние греки считали, что технология techne (мастерство ) + logos ( учение) – это средство для создания конечного продукта. Более емкое определение это понятие приобрело в процессе индустриализации общества. Технология – это совокупность знаний о способах и средствах реализации производственных процессов, при которых происходит качественное и количественное изменение обрабатываемых объектов. Информационную технологию в данном контексте можно считать технологией использования программно-аппаратных средств вычислительной техники для решения задач в определенной области деятельности человека.

Под информационной технологией понимают методы, процессы, программы и множество технических средств, которые объединены в единую технологическую среду, обеспечивающую сбор, преобразование, хранение и передачу информации. Информационные технологии характеризуются следующими основными свойствами:

  • объектом процесса обработки являются данные;

  • целью процесса является получение искомого результата;

  • средствами осуществления процесса являются программно-аппаратные вычислительные комплексы;

  • процессы обработки данных разделяются на определенные действия (операции ) в соответствии с данной предметной областью;

  • критериями оптимизации процесса являются своевременность доставки информации пользователю, ее надежность, достоверность, полнота.


^ 1.2.1. Формы представления информации
Различают две формы представления информации - непрерывную (аналоговую) и дискретную (цифровую). Поскольку носителями информации являются сигналы, то в качестве них могут использоваться физические процессы различной природы. Например, процесс протекания электрического тока в цепи, процесс распространения света и т.п. Информация представляется значением одного или нескольких параметров физического процесса (сигнала), либо комбинацией нескольких параметров. Человек, например, через свои органы чувств привык к аналоговой информации, компьютер работает с цифровой информацией. Основная разница между аналоговой и цифровой информацией – это непрерывность и дискретность. Например, музыка при её восприятии является аналоговой информацией, но когда она записана нотами, то это цифровая информация. На формальном математическом примере это можно представить так. Пусть есть функция Y =X2, являющаяся непрерывной функцией, так как для любого значения Χ однозначно определено значение Υ. Когда мы эту функцию представляем в дискретной форме с выбранным шагом дискретизации аргумента Х, то мы выбираем ограниченный набор значений аргумента Χ:


Х

1

2

3

4

5

6

Y=X2

1

4

9

16

25

36


Погрешность, возникающая при дискретном представлении функции, называется погрешностью оцифровки аналого-цифрового преобразования, которое можно сделать точнее, если для значений аргумента Х уменьшить интервалы, то есть шаг дискретности. Таким образом, чем меньше дискретность, тем меньше погрешность и точнее представление информации.

Сигнал называется непрерывным, если его параметр в заданных пределах может принимать любые промежуточные значения. Дискретным называется сигнал, принимающий ограниченное число значений. В цифровой технике приходится иметь дело с сигналами, принимающими только два значения: есть импульс - нет импульса, высокий уровень потенциала - низкий уровень. Этим значениям сигнала приписывают два математических символа “1” и “0”, поэтому дискретные сигналы называют цифровыми. Информация, отображаемая с помощью дискретных (цифровых) сигналов, получила название дискретной (цифровой) информации.

По способу передачи и восприятия различают такие виды информации как: визуальную – передаваемую видимыми образами и символами, аудиальную – звуками, тактильную – ощущениями, машинную – выдаваемую и воспринимаемую средствами вычислительной техники и т. п.




^ 1.2.2. Понятие количества информации
Как измерять количество информации, полученной в результате прочтения книги, просмотра картины, фильма и т.п. В научном плане информация связывается с вероятностью выполнения того или иного события. Количеством информации называют числовую характеристику сигнала, отражающую ту степень неопределенности, которая исчезает после получения сообщения в виде определенного сигнала. Эту меру неопределенности в теории информации называют энтропией. Если в результате получения сообщения достигается полная ясность в каком-то вопросе, то говорят, что была получена полная или исчерпывающая информация и необходимости в получении дополнительной информации нет. И, наоборот, если неопределенность осталась прежней после получения сообщения, то это означает, что информация не получена (нулевая информация).

Приведенные рассуждения показывают, что между понятиями информация, неопределенность и возможность выбора существует тесная связь. Так, любая неопределенность предполагает возможность выбора, а любая информация, уменьшая неопределенность, уменьшает и возможность выбора. Частичная информация уменьшает число вариантов выбора, сокращая тем самым неопределенность. Например, человек бросает монету и наблюдает, какой стороной она упадет, одинаково вероятно, что выпадет одна или другая сторона. Такой ситуации приписывается начальная неопределенность, характеризуемая двумя возможностями. После того, как монета упадет, достигается полная однозначность и неопределенность исчезает (становится равной нулю).

Приведенный пример относится к группе событий, применительно к которым может быть поставлен вопрос типа «правда-ложь, да-нет». Количество информации, которое можно получить при ответе на вопрос типа «да-нет», называется битом ( Bit — сокращение от binary digit — двоичная единица). Бит- минимальная единица количества информации, так как получить информацию меньшую, чем 1 бит, невозможно.

В качестве других моделей получения такого же количества информации могут выступать устройства с двумя состояниями, например, двухпозиционный выключатель, триггер и другие. Включенное состояние этих объектов обычно обозначают (кодируют) цифрой 1, а выключенное - цифрой 0. Рассмотрим схему из двух выключателей, которые независимо могут быть включены или выключены и для такой схемы возможны следующие состояния:


Выключатель 1

0

0

0

1

Выключатель 2

0

1

1

1


Чтобы получить полную информацию о состоянии такой схемы, необходимо задать вопросы типа «да»-«нет» для выключателей 1 и 2 соответственно. В этом случае количество информации, содержащейся в данной схеме, определяется уже 2 битами, а число возможных состояний схемы – 4. Если взять три выключателя, то количество состояний такой схемы будет равно 8 и т. д. Посредством n двоичных цифр (разрядов) можно закодировать Р значений (комбинаций): Р=2n, например с помощью байта можно закодировать 256 комбинаций кодов : 28 = 256.

Связь между количеством информации и числом состояний системы устанавливается формулой Хартли: I = log2N, где I – количество информации в битах; N -. число возможных равновероятных событий.

Информация передается посредством канала связи между приемником и источником, основными характеристиками которого являются следующие:
  1   2   3   4   5   6   7   8   9   ...   35

Добавить документ в свой блог или на сайт

Похожие:

Кафедра «Информатика» В. М. Пестриков iconИнженерно-экономический факультет Кафедра «Прикладная информатика» силлабус
Абденова Фариза Литпинкызы. Научная работа Абденовой Ф. Л. находится в области экспериментальной физики. Абденова Ф. Л. занималась...

Кафедра «Информатика» В. М. Пестриков iconМ осковский автомобильно-дорожный институт (государственный технический университет) кафедра
Асу выполнить большую часть заданий по двум дисциплинам «Информатика» и «Программирование на языке высокого уровня» (языки программирования...

Кафедра «Информатика» В. М. Пестриков iconМ осковский автомобильно-дорожный институт (государственный технический университет) кафедра
Асу выполнить большую часть заданий по двум дисциплинам «Информатика» и «Программирование на языке высокого уровня» (языки программирования...

Кафедра «Информатика» В. М. Пестриков iconРыскулова Кафедра «Прикладная информатика»
Тұрар Рысқұлов атындағы Қазақ экономикалық университеті Казахский экономический университет им Т. Рыскулова

Кафедра «Информатика» В. М. Пестриков iconРабочая программа дисциплины Программирование и информатика Лекторы
Канд физ мат наук, доцент Антонюк Валерий Алексеевич, кафедра компьютерных методов физики, e-mail: ru, тел. 916-934-28-03

Кафедра «Информатика» В. М. Пестриков iconКафедра «экономическая информатика» Характеристика и назначение основных устройств пэвм
Основными элементами ЭВМ являются: процессор, память, системная шина, устройства ввода информации, устройства вывода информации

Кафедра «Информатика» В. М. Пестриков iconВопрос что такое информатика, экономическая информатика? Предмет экономической информатики

Кафедра «Информатика» В. М. Пестриков iconИнформатика ответы на вопросы
Информатика-наука об информации, способах её представления, обработки и преобразовании

Кафедра «Информатика» В. М. Пестриков iconИнформатика
Информатика. Учебное пособие для студентов всех специальностей — Караганда: кэу, 2012 г. 246 с

Кафедра «Информатика» В. М. Пестриков iconВопросы и задачи для экзамену по дисциплине «Информатика и икт»
Информатика: наука, технология, индустрия. Роль информатики в современном обществе

Вы можете разместить ссылку на наш сайт:
Школьные материалы


При копировании материала укажите ссылку © 2013
контакты
www.zadocs.ru
Главная страница

Разработка сайта — Веб студия Адаманов