Differences between revisions 10 and 11
Revision 10 as of 2008-10-04 09:39:15
Size: 33298
Comment:
Revision 11 as of 2008-10-05 21:19:12
Size: 36183
Comment:
Deletions are marked like this. Additions are marked like this.
Line 9: Line 9:
Одно из определений операционной системы говорит: операционная система --- это средство управления ресурсами компьютера.
Существует три уровня использова
ния ресурсов, на каждом из которых распределение и использование ресурсов компьютера происходит по-своему.
Одно из определений операционной системы гласит: операционная система --- это средство управления ресурсами компьютера. Можно выделить три уровня разделения ресурсов, на каждом из которых распределение и использование ресурсов компьютера происходит по-своему.
Line 13: Line 12:
Начальный уровень, на котором не нужны никакие дополнительные действия относительно доступности ресурсов компьютера --- когда у нас есть ровно одна программа, которая полностью распоряжается всеми ресурсами компьютера, пока не закончит свою работу. Такая система называется однозадачной, и то, насколько разумно она распоряжается этими ресурсами, может повлиять только на работу самой этой программы. Если программа написана плохо и пожирает память, то в конце концов она просто перестаёт работать, потому что оперативной памяти ей не хватит. Если хорошо, она распоряжается всей оперативной памятью и всеми внешними устройствами по своему усмотрению. Вопрос: много ли нужно программного обеспечения, чтобы позволить этой задаче эффективно использовать память и устройства? Нужно ли создавать какое-то отдельное программное обеспечение для поддержки этого процесса? Скорее всего нет, так как эта программа, как правило, содержит в себе все необходимое ПО. Типичный пример -- это старинная игровая консоль (SEGA, SNES), использующая картриджи. Каждый картридж --- отдельная программа, загружающаяся и работающая по принципу однозадачной системы.
Начальный уровень, на котором не нужны никакие дополнительные действия для обеспечения доступности ресурсов компьютера --- когда у нас есть ровно одна программа, которая полностью распоряжается всеми ресурсами компьютера, пока она не закончит свою работу. Такая система называется однозадачной, и то, насколько разумно она распоряжается этими ресурсами, может повлиять только на работу самой этой программы. Если программа написана плохо и пожирает память, то в конце концов она просто перестаёт работать, потому что оперативной памяти ей не хватит. Если хорошо, она распоряжается процессором, всей оперативной памятью и всеми внешними (по отношению к процессору) устройствами по своему усмотрению. Много ли нужно программного обеспечения, чтобы позволить этой задаче эффективно использовать память и устройства и нужно ли создавать какое-то отдельное программное обеспечение для поддержки этого процесса? Возможный ответ --- "нет", так как эта программа, как правило, содержит в себе все необходимое ПО. Типичный пример -- это старинная игровая консоль (SEGA, SNES), использующая картриджи. Каждый картридж --- отдельная программа, загружающаяся и работающая по принципу однозадачной системы.
Line 17: Line 17:
Однако даже при однозадачной системе обычно неразумно весь доступ к ресурсам возлагать на прикладную программу.
##На самом деле, это утверждение не вполне верно, так как мы как минимум можем захотеть
Как минимум хотелось бы унифицировать способ использования различных аппаратных ресурсов, например периферийных устройств. Таким образом, необходима некая прослойка между программой, которая пользуется всеми ресурсами, и самими ресурсами. Эта прослойка будет скрывать от программы подробности того, как именно этими ресурсами воспользоваться. Рассмотрим это на примере графической платы: мы поменяли видеокарту, вместе с ней поменяли прослойку, которая обеспечивает доступ по стандартному протоколу к ресурсам этой видеокарты, и вы, работая, скажем, с программой, занимающейся обработкой моделей, на заметите изменений, хотя реально по шине PCI передаются другие данные. Даже на уровне однозадачной системы встает вопрос унификации доступа к ресурсам. Идея в том, чтобы ПО не принимало во внимание особенности аппаратного обеспечения, чтобы за это отвечала указанная прослойка. Назовем ее драйвером.
Однако даже при однозадачной системе обычно неразумно всю задачу организации доступа к ресурсам возлагать на прикладную программу, поскольку это сильно затрудняет их разработку.

Как минимум, хотелось бы унифицировать способ использования различных аппаратных ресурсов, например внешних устройств. Для решения этой задачи необходима некая прослойка между программой, которая пользуется ресурсами компьютера, и самими ресурсами. Эта прослойка будет скрывать от программы подробности того, как именно этими ресурсами воспользоваться. Рассмотрим это на примере графической платы: мы поменяли видеокарту, вместе с ней поменяли прослойку, которая обеспечивает доступ по стандартному (и не зависящему от конкретной карты) протоколу к ресурсам этой видеокарты, и прикладные программы не "заметили" изменений, хотя в действительности по шине PCI передаются уже принципиально другие данные.

Таким образом, даже на уровне однозадачной системы встает вопрос унификации доступа к ресурсам. Идея в том, чтобы ПО не принимало во внимание особенности аппаратного обеспечения, чтобы за это отвечала указанная прослойка.
Зависящая от конкретной аппаратуры часть этой прослойки называется драйвером.
## Назовем такую прослойку драйвером.
Line 24: Line 28:
===== Многозадачный режим. Разделение доступа =====
Как только выясняется, что ресурсами компьютера пользуются несколько различных программ (назовём этот режим многозадачным), сразу возникает вопрос -- к каким ресурсам какие программы имеют доступ. Простейший вариант: пусть программы выполняются по одной друг за другом -- сначала отработает первая, затем вторая и т.д. Даже в этом случае, если они работают друг за другом и не знают о существовании друг друга, возникает вопрос организации дисциплины доступа к таким внешним ресурсам, которые существуют в течение их работы, например, к хранилищу данных. Разумеется, если они работают по очереди, нет необходимости защищать, скажем, оперативную память, но общее для всех хранилище данных неплохо бы организовать таким образом, чтобы одна программа знала о том, где хранит свои данные другая программа, для того, чтобы избегать коллизий. Если это файловая система, как в Linux, неплохо, если бы программа работала с именами файлов, и любая операция с некоторым файлом должна быть заложена в программу сознательно.
==== Многозадачный режим. Разделение доступа ====
Line 27: Line 30:
Еще более очевидна необходимость разделения ресурсов, когда мы имеем многозадачную систему с параллелизмом или псевдопараллелизмом (что вообще-то одно и то же). Параллелизм возможен при наличии нескольких процессоров, одновременно выполняющих разные программы; псевдопараллелизм -- это ситуация, когда эти программы в действительности работают последовательно, но для пользователя создается впечатление, что они работают параллельно, и происходит это так: один квант времени работает одна программа, потом она приостанавливается, следующий квант времени работает другая программа, следующая, потом снова начинает работать уже первая программа, и все снова. Псевдопараллелизм - наиболее распространенный вариант, его еще называют вытесняющей многозадачностью. Впрочем, программы не обязательно выполняются в строгой последовательности, возможно (как в случае, когда приложение ожидает операции ввода-вывода) изменение порядка их работы - алгоритм весьма сложный. Прошлый год прошёл под флагом революции в области планировщиков процессов в UNIX-системах (как в Linux, так в BSD-подобных), этой теме быд посвящен отдельный семинар. Как только выясняется, что ресурсами компьютера пользуются несколько различных программ (назовём этот режим многозадачным), сразу возникает вопрос -- к каким ресурсам какие программы имеют доступ? Простейший вариант: пусть программы выполняются по одной друг за другом -- сначала отработает первая, затем вторая и т.д. Даже в этом случае, если они работают друг за другом и не знают о существовании друг друга, возникает вопрос организации дисциплины доступа к таким внешним ресурсам, которые существуют в течение их работы, например, к накопителю данных.
Line 29: Line 32:
Выходит, что все ресурсы компьютера -- процессорное время, оперативная память, внешние устройства -- должны быть разделены между всеми работающими программами. Например, в случае псевдопараллелизма. нужно создать дисциплину -- как по времени будет распределен доступ к процессору (например, мы можем захотеть, чтобы "дележ" был "справедливым" - каждой программе поровну), с другой стороны, та же самая история с ОП -- нужно определить дисциплину раздачи этой ОП и организовать доступ к ОП таким образом, чтобы одна программа не могла случайно испортить содержимое участка памяти другой программы -- эти программы не обязаны знать о том, что они сосуществуют вместе на одном компьютере. Это значит, что те ресурсы, которые они используют, должны быть как-то обозначены и на уровне договоренности, чтобы ситуация, когда одна программа модифицирует какой-то ресурс, принадлежащий другой программе, была исключительно штатной и контролируемой. Совокупность этих правид называют механизмом разделения ресурсов. Разумеется, если программы работают по очереди, нет необходимости защищать, скажем, оперативную память, но общее для всех хранилище данных на диске хорошо бы организовать таким образом, чтобы одна программа знала о том, где хранит свои данные другая программа, для того, чтобы избегать коллизий. Если это файловая система, как в Linux, неплохо, если бы программа работала с именами файлов, и любая операция с некоторым файлом должна быть заложена в программу сознательно.
Line 31: Line 34:
====== Разделение центрального процессора ======
Не стоит забывать о том, что в персональных машинах чаще всего используется всего один центральный процессор. Ресурсы ЦП включают в себя не только время его работы, но и объекты, связанные с хранением данных (регистры). Это значит, что когда мы организуем этот псевдопараллелизма, мы должны предусмотреть не только ситуацию разбиения по времени (немножко работает одна, немножко другая задача), но и механизм сохранения тех элементов памяти, которые не дублируются, от одной программы где-то, на то время, пока работает другая программа, элементы памяти все, специфическое для работы программы, весь комплекс памяти, который программа использует для работы, достаточный для того, чтобы продолжить работу программы, называется контекст процесса. Это что значит, что в случае псевдо-параллелизм. Мы имеем один процесс, имеем набор оперативной памяти, в очереди сидят программы (программа1, программа2). С каждой ожидающей программой связан контекст процесса, сохранённый в той же ОП. Когда задача попадает на выполнения, контекст ее подгружается, программа некоторое время выполняется, контекст отгружается обратно, подгружается контекст следующей по очереди задачи, она выполняется, и так далее. Даже такая с виду простая штука, как разделение ресурсов под названием ЦП уже приводит к довольно сложным механизмам разделения доступа к этому ресурсу: квантование выполнения и сохранение контекста.
Еще более очевидна необходимость разделения ресурсов, когда мы имеем многозадачную систему с параллелизмом или псевдопараллелизмом (что вообще-то почти одно и то же с точки зрения разделения ресурсов). Параллелизм возможен при наличии нескольких процессоров, одновременно выполняющих разные программы; псевдопараллелизм -- это ситуация, когда эти программы в действительности работают последовательно, но для пользователя создается впечатление, что они работают параллельно, и происходит это так: один квант времени работает одна программа, потом она приостанавливается, следующий квант времени работает другая программа, следующая, потом снова начинает работать уже первая программа, и все снова. Выполняющуюся (загруженную в память) программу называют процессом.
Line 34: Line 36:
====== Разделение оперативной памяти ======
Тут ситуация чуть более простая, если в ней не разбираться, и чуть более сложная, если в ней разбираться. Никому не надо рассказывать слишком подробно, что в некоей абстрактной действительности ОП представляет собой последовательность ячеек с номерами от 0 до самого большого, сколько у нас воткнуто, столько и будет. Адреса. Системы, которые ведут свое происхождение от однозадачных систем и не обеспечивают надлежащее разделение памяти между задачами (типичная такая система -- DOS или Windows 3.11, отчасти Win95), они вкладывают: одна программа от 100 до 1000, другая от 2000 до 2020, эти программы там у себя работали, эти участки памяти выполняли роль контекста процесса, когда надо было, выполнялись команды из одного участка памяти, потом состояние сохранялось, выполнялись команды из другого участка, и т.д. Но если одной программе по причине ошибки приходило в голову исписать нулями не свою память (начав, к пример, в своей, а в результате ошибки убежав за границу), то тогда она убивала всю оперативную память, доступную ОС, и все умирало. Типичная ситуация в DOS'е: написал программу на Си с ошибкой, запустил, перегрузился. Между прочим, в младших версиях Windows то же самое. ОС, которые обеспечивают нормальное разделение памяти, пользуются аппаратным механизмом разделения, который спокон веку (лет 20 назад, а то и раньше), устроен так.
Псевдопараллелизм --- наиболее распространенный вариант, его еще называют вытесняющей многозадачностью. Программы не обязательно выполняются в строгой последовательности, возможно (как в случае, когда приложение ожидает завершения операции ввода-вывода) изменение порядка их работы. В целом задача планирования процессов достаточно сложна, например 2007-й год прошёл под флагом революции в области планировщиков процессов в UNIX-системах (как в Linux, так в BSD-подобных), этой теме был посвящен отдельный семинар.

Таким образом, в многозадачных системах все ресурсы компьютера --- процессорное время, оперативная память, внешние устройства -- должны быть разделены между всеми работающими программами. Например, в случае псевдопараллелизма нужно создать дисциплину распределения доступа к процессору (например, мы можем захотеть, чтобы "дележ" процессорного времени был "справедливым" --- каждой программе поровну). Другим примером будет разделение оперативной памяти: нужно определить дисциплину распределения памяти, а так же организовать доступ к ОП таким образом, чтобы одна программа не могла случайно испортить содержимое участка памяти другой программы, поскольку эти программы не обязаны знать о том, что они сосуществуют вместе на одном компьютере. Третьим примером будет разделение принтера или сканера --- пока принтер полностью не завершил обработку одной заявки на печать, он не может начать обработку следующей.

Таким образом, все ресурсы, которые используют прикладные программы, должны быть явно обозначены, и должны существовать договоренности об их использовании, чтобы ситуация, когда одна программа модифицирует какой-то ресурс, принадлежащий другой программе, была исключительно штатной и контролируемой. Совокупность этих правил называют механизмом разделения ресурсов.


=== Разделение доступа к ресурсам ===

Как следует из проблем создания систем с параллельным выполнением программ, задача управления ресурсами оказывается связанной с задачей разделения доступа к ресурсам. Поэтому второе определения операционной системы гласит: операционная система --- это средство разделения ресурсов компьютера между прикладными программами.

==== Разделение центрального процессора ====

В персональных машинах чаще всего используется всего лишь один центральный процессор. Ресурсы ЦП включают в себя не только время его работы, но и объекты, связанные с хранением данных (регистры процессора). Это значит, что когда мы организуем псевдопараллелизм, мы должны предусмотреть не только ситуацию разбиения по времени (некоторое время работает одна, а некоторое --- другая задача), но и механизм сохранения тех элементов памяти, которые не дублируются для каждой программы, от одной программы, на то время, пока работает другая программа.
К таким элементам относятся прежде всего регистры центрального процессора.

Всё состояние системы (в первую очередь --- центрального процессора), которое необходимо сохранить, чтобы в будущем продолжить выполнение процесса, называется контекстом процесса.
##элементы памяти все, специфическое для работы программы, весь комплекс памяти, который программа использует для работы, достаточный для того, чтобы продолжить работу программы, называется контекстом процесса.

Это что значит, что в случае псевдо-параллелизма мы имеем один процессор, набор оперативной памяти, а в очереди сидят процесса (процесс-1, процесс-2 и так далее). С каждым созданным процессом связан контекст процесса, сохранённый в той же оперативной памяти. Когда процесс дожидается своей длои процессорного времени, то перед его выполнением, контекст подгружается, в частности, восстанавливаются значения регистров процессора. Затем процесс некоторое время (обычно порядка милисекунд) выполняется, после чего останавливается и контекст на момент прекращения выполнения сохраняется обратно. Затем подгружается контекст следующего по очереди процесса, он выполняется, и так далее. Даже такая с виду простая штука, как разделение ресурса под названием "центральный процессор" уже приводит к довольно сложным механизмам разделения доступа к этому ресурсу: квантование выполнения и сохранение контекста.

==== Разделение оперативной памяти =====

Тут ситуация чуть более простая, если в ней не разбираться, и чуть более сложная, если в ней разбираться досконально. #Никому не надо рассказывать слишком подробно, что
На некотором уровне абстракции оперативная память представляет собой последовательность ячеек с номерами от 0 до самого большого значения, и сколько у нас воткнуто в плату памяти, столько и будет.

Адреса. Системы, которые ведут свое происхождение от однозадачных систем и не обеспечивают надлежащее разделение памяти между задачами (типичная такая система -- DOS или Windows 3.11, отчасти Win95), они вкладывают: одна программа от 100 до 1000, другая от 2000 до 2020, эти программы там у себя работали, эти участки памяти выполняли роль контекста процесса, когда надо было, выполнялись команды из одного участка памяти, потом состояние сохранялось, выполнялись команды из другого участка, и т.д. Но если одной программе по причине ошибки приходило в голову исписать нулями не свою память (начав, к пример, в своей, а в результате ошибки убежав за границу), то тогда она убивала всю оперативную память, доступную ОС, и все умирало. Типичная ситуация в DOS'е: написал программу на Си с ошибкой, запустил, перегрузился. Между прочим, в младших версиях Windows то же самое. ОС, которые обеспечивают нормальное разделение памяти, пользуются аппаратным механизмом разделения, который спокон веку (лет 20 назад, а то и раньше), устроен так.

Что такое операционная система

Управление ресурсами компьютера

Одно из определений операционной системы гласит: операционная система --- это средство управления ресурсами компьютера. Можно выделить три уровня разделения ресурсов, на каждом из которых распределение и использование ресурсов компьютера происходит по-своему.

Однозадачный режим

Начальный уровень, на котором не нужны никакие дополнительные действия для обеспечения доступности ресурсов компьютера --- когда у нас есть ровно одна программа, которая полностью распоряжается всеми ресурсами компьютера, пока она не закончит свою работу. Такая система называется однозадачной, и то, насколько разумно она распоряжается этими ресурсами, может повлиять только на работу самой этой программы. Если программа написана плохо и пожирает память, то в конце концов она просто перестаёт работать, потому что оперативной памяти ей не хватит. Если хорошо, она распоряжается процессором, всей оперативной памятью и всеми внешними (по отношению к процессору) устройствами по своему усмотрению. Много ли нужно программного обеспечения, чтобы позволить этой задаче эффективно использовать память и устройства и нужно ли создавать какое-то отдельное программное обеспечение для поддержки этого процесса? Возможный ответ --- "нет", так как эта программа, как правило, содержит в себе все необходимое ПО. Типичный пример -- это старинная игровая консоль (SEGA, SNES), использующая картриджи. Каждый картридж --- отдельная программа, загружающаяся и работающая по принципу однозадачной системы.

Унификация доступа

Однако даже при однозадачной системе обычно неразумно всю задачу организации доступа к ресурсам возлагать на прикладную программу, поскольку это сильно затрудняет их разработку.

Как минимум, хотелось бы унифицировать способ использования различных аппаратных ресурсов, например внешних устройств. Для решения этой задачи необходима некая прослойка между программой, которая пользуется ресурсами компьютера, и самими ресурсами. Эта прослойка будет скрывать от программы подробности того, как именно этими ресурсами воспользоваться. Рассмотрим это на примере графической платы: мы поменяли видеокарту, вместе с ней поменяли прослойку, которая обеспечивает доступ по стандартному (и не зависящему от конкретной карты) протоколу к ресурсам этой видеокарты, и прикладные программы не "заметили" изменений, хотя в действительности по шине PCI передаются уже принципиально другие данные.

Таким образом, даже на уровне однозадачной системы встает вопрос унификации доступа к ресурсам. Идея в том, чтобы ПО не принимало во внимание особенности аппаратного обеспечения, чтобы за это отвечала указанная прослойка. Зависящая от конкретной аппаратуры часть этой прослойки называется драйвером.

Многозадачный режим. Разделение доступа

Как только выясняется, что ресурсами компьютера пользуются несколько различных программ (назовём этот режим многозадачным), сразу возникает вопрос -- к каким ресурсам какие программы имеют доступ? Простейший вариант: пусть программы выполняются по одной друг за другом -- сначала отработает первая, затем вторая и т.д. Даже в этом случае, если они работают друг за другом и не знают о существовании друг друга, возникает вопрос организации дисциплины доступа к таким внешним ресурсам, которые существуют в течение их работы, например, к накопителю данных.

Разумеется, если программы работают по очереди, нет необходимости защищать, скажем, оперативную память, но общее для всех хранилище данных на диске хорошо бы организовать таким образом, чтобы одна программа знала о том, где хранит свои данные другая программа, для того, чтобы избегать коллизий. Если это файловая система, как в Linux, неплохо, если бы программа работала с именами файлов, и любая операция с некоторым файлом должна быть заложена в программу сознательно.

Еще более очевидна необходимость разделения ресурсов, когда мы имеем многозадачную систему с параллелизмом или псевдопараллелизмом (что вообще-то почти одно и то же с точки зрения разделения ресурсов). Параллелизм возможен при наличии нескольких процессоров, одновременно выполняющих разные программы; псевдопараллелизм -- это ситуация, когда эти программы в действительности работают последовательно, но для пользователя создается впечатление, что они работают параллельно, и происходит это так: один квант времени работает одна программа, потом она приостанавливается, следующий квант времени работает другая программа, следующая, потом снова начинает работать уже первая программа, и все снова. Выполняющуюся (загруженную в память) программу называют процессом.

Псевдопараллелизм --- наиболее распространенный вариант, его еще называют вытесняющей многозадачностью. Программы не обязательно выполняются в строгой последовательности, возможно (как в случае, когда приложение ожидает завершения операции ввода-вывода) изменение порядка их работы. В целом задача планирования процессов достаточно сложна, например 2007-й год прошёл под флагом революции в области планировщиков процессов в UNIX-системах (как в Linux, так в BSD-подобных), этой теме был посвящен отдельный семинар.

Таким образом, в многозадачных системах все ресурсы компьютера --- процессорное время, оперативная память, внешние устройства -- должны быть разделены между всеми работающими программами. Например, в случае псевдопараллелизма нужно создать дисциплину распределения доступа к процессору (например, мы можем захотеть, чтобы "дележ" процессорного времени был "справедливым" --- каждой программе поровну). Другим примером будет разделение оперативной памяти: нужно определить дисциплину распределения памяти, а так же организовать доступ к ОП таким образом, чтобы одна программа не могла случайно испортить содержимое участка памяти другой программы, поскольку эти программы не обязаны знать о том, что они сосуществуют вместе на одном компьютере. Третьим примером будет разделение принтера или сканера --- пока принтер полностью не завершил обработку одной заявки на печать, он не может начать обработку следующей.

Таким образом, все ресурсы, которые используют прикладные программы, должны быть явно обозначены, и должны существовать договоренности об их использовании, чтобы ситуация, когда одна программа модифицирует какой-то ресурс, принадлежащий другой программе, была исключительно штатной и контролируемой. Совокупность этих правил называют механизмом разделения ресурсов.

Разделение доступа к ресурсам

Как следует из проблем создания систем с параллельным выполнением программ, задача управления ресурсами оказывается связанной с задачей разделения доступа к ресурсам. Поэтому второе определения операционной системы гласит: операционная система --- это средство разделения ресурсов компьютера между прикладными программами.

Разделение центрального процессора

В персональных машинах чаще всего используется всего лишь один центральный процессор. Ресурсы ЦП включают в себя не только время его работы, но и объекты, связанные с хранением данных (регистры процессора). Это значит, что когда мы организуем псевдопараллелизм, мы должны предусмотреть не только ситуацию разбиения по времени (некоторое время работает одна, а некоторое --- другая задача), но и механизм сохранения тех элементов памяти, которые не дублируются для каждой программы, от одной программы, на то время, пока работает другая программа. К таким элементам относятся прежде всего регистры центрального процессора.

Всё состояние системы (в первую очередь --- центрального процессора), которое необходимо сохранить, чтобы в будущем продолжить выполнение процесса, называется контекстом процесса.

Это что значит, что в случае псевдо-параллелизма мы имеем один процессор, набор оперативной памяти, а в очереди сидят процесса (процесс-1, процесс-2 и так далее). С каждым созданным процессом связан контекст процесса, сохранённый в той же оперативной памяти. Когда процесс дожидается своей длои процессорного времени, то перед его выполнением, контекст подгружается, в частности, восстанавливаются значения регистров процессора. Затем процесс некоторое время (обычно порядка милисекунд) выполняется, после чего останавливается и контекст на момент прекращения выполнения сохраняется обратно. Затем подгружается контекст следующего по очереди процесса, он выполняется, и так далее. Даже такая с виду простая штука, как разделение ресурса под названием "центральный процессор" уже приводит к довольно сложным механизмам разделения доступа к этому ресурсу: квантование выполнения и сохранение контекста.

==== Разделение оперативной памяти =====

Тут ситуация чуть более простая, если в ней не разбираться, и чуть более сложная, если в ней разбираться досконально. #Никому не надо рассказывать слишком подробно, что На некотором уровне абстракции оперативная память представляет собой последовательность ячеек с номерами от 0 до самого большого значения, и сколько у нас воткнуто в плату памяти, столько и будет.

Адреса. Системы, которые ведут свое происхождение от однозадачных систем и не обеспечивают надлежащее разделение памяти между задачами (типичная такая система -- DOS или Windows 3.11, отчасти Win95), они вкладывают: одна программа от 100 до 1000, другая от 2000 до 2020, эти программы там у себя работали, эти участки памяти выполняли роль контекста процесса, когда надо было, выполнялись команды из одного участка памяти, потом состояние сохранялось, выполнялись команды из другого участка, и т.д. Но если одной программе по причине ошибки приходило в голову исписать нулями не свою память (начав, к пример, в своей, а в результате ошибки убежав за границу), то тогда она убивала всю оперативную память, доступную ОС, и все умирало. Типичная ситуация в DOS'е: написал программу на Си с ошибкой, запустил, перегрузился. Между прочим, в младших версиях Windows то же самое. ОС, которые обеспечивают нормальное разделение памяти, пользуются аппаратным механизмом разделения, который спокон веку (лет 20 назад, а то и раньше), устроен так.

Вся оперативная память делится на страницы некоторого размера. Пусть запускаются два процесса в псевдо-параллельном режиме, никто из них не ждет обмена, а жаждет выполняться на процессоре, для каждого создается контекст, набор регистров, который нужно хранить, и все остальное, потом каждая из них запрашивает себе память, ему выделяется память. Куски памяти, запрошенные разными процессами, перемешаны произвольно. Но реальных адресов с 0 до полного объема памяти ни один процесс не наблюдает. У него происходит аппаратно поддерживаемое со стороны процессора штука: два куска памяти, принадлежащей ему, складываются в некоторую т.н. виртуальную память (допустим, 1 Мб), которую, собственно, и видит этот процесс. В таких случаях в понятие контекста процесса включается указанное преобразование. Когда процесс обращается к памяти, он видит только ту память, которую ему выдали, причем он ее видит прям подряд, от 0 и так далее. Из скольки страниц она состоит -- его не волнует. У нас всего 1 Гб памяти, процесс заказал 1 Мб, он 1Мб получил, этот 1 Мб набран из двух страниц, но процесс этого не видит, специальная аппаратная структура, входящая в понятие контекст процесса, производит такое преобразование. То же самое происходит с второй программой (три странички, одно адресное пространство, от нуля до 2 Мб). Каждый процесс видит свою память, строго от нуля, чужую память он не видит в принципе. При использовании виртуальной памяти программа не может случайно испортить чужую память. По предварительной договорённости можно обратиться в вышестоящей организации и сказать: у меня есть две программы, которые используют общий сегмент памяти, разреши им пользоваться, потому что так проще данные передавать: одна запишет, другая возьмёт. Она (ОС) скажет: ну хорошо, тогда вот вам еще один сегмент, который будет подключен в адресное пространство обоих процессов (со своими адресами). Когда один процесс в него пишет, другой процесс сразу видит изменения. Но, в отличие от ситуации, когда программа расписала нулями всю чужую память, эта ситуация -- контролируемая. Вы написал программы так, что они заказали себе один и тот же сегмент, и по Вашей воле производят там изменения.

Разделение внешних устройств

Если система многозадачная, то разделения требуют вообще все ресурсы, не только процессор как время и как недублируемая память, и не только ОП как объект желаний программ. Разделения требует: звуковая карта, т.к. если несколько программ пытаются играть звук, это, во-первых, отвратительно слышно, во-вторых, если не организован процесс разделения, то первая программа может получить доступ к ресурсу, а все остальные могут обломаться. Если ОС предоставляет некоторый один интерфейс к звуковой карте, это значит, в каждый момент времени по отношению к звуковой карте она слегка однопроцессная, потому что первая по порядку запуска программа получает полный доступ, всем остальным не хватило.

С т.зрения. такой многозадачной системы как Линукс, это выглядит так. Вы настроили себе графическую оболочку так, что она при каждом движении что-нибудь делает, на открытие окна щелкает, на закрытии окна квакает, мышка топочет, бегая по экрану, и т.д. Потом вы запускаете программу, которая хочет играть музыку и тут выясняется, что одно из двух. Но может быть вы этого и хотели, чтобы когда играет музыка, мышка не топала. Но если вы хотите, чтобы было реализовано разделение, придется предоставить интерфейс не к одной звуковой карте, а интерфейс к некоторому множеству звуковых карт, каждая из которых по какому-то принципу будет обращаться к настоящей звуковой карте, фактически сливать эти звуковые запросы в единый поток, и его проигрывать. То же самое относится к графической карте, вообще к любому внешнему ресурсу, которым распоряжается компьютер.

Ограничение доступа

Еще одна задача. Процессы, которые вы запускаете, не знают о существовании друг друга и не просто не хотят, чтобы внезапно произошел доступ к их ресурсам, они вообще хотят, чтобы даже если другая программ знает, где какой ресурс находится, чтобы тем не менее доступ к этим ресурсам той другой программе был запрещен. Пример: я храню пароль в текстовом файле, и не хочу, чтобы его мог подсмотреть любой другой пользователь, любой процесс, которому я не доверяю. Приходим к тому, что система не просто многозадачная, а задачи бывают разные. Про одни задачи известно, что им можно иметь доступ к некоторому ресурсу, а про другие известно, что им нельзя. Фактически это означает, в простом случае, что задачи делятся на группы, принадлежащие разным пользователям. Одной группе задач пользователь разрешает иметь доступ к ресурсу, а другим задачам не разрешает. И мы переходим от системы многозадачной к системе многозадачной + многопользовательской.

Если в случае многозадачной системы все задачи была в равных правах и главной целью было обеспечить невозможность случайного доступа к чужим ресурсам, то в случае многопользовательской системы разные задачи могут иметь разные права, и основной целью будет недопущение не просто случайного, а вообще несанкционированного доступа к ресурсу. Если один пользователь не хочет, чтобы задачи другого пользователя имели доступ к ресурсам первого пользователя, то он это должен уметь запретить. Это называется ограничение доступа к ресурсам.

Что такое операционная система

Мы получаем три группы задач, которые должна решать ОС:

  • унификация доступа
  • разделение доступа
  • ограничение доступа

Фактически, это определение ОС -- это комплекс ПО, которое обеспечивает указанные три вещи касательно доступа к тому аппаратному обеспечению, на котором это все запущено.

Вообще говоря, нет стандартного определения ОС. Если уйти в историю, мы поймём, что пользуемся этим словом неправильно. operating system -- это не ПО, это систематическое (system) руководство по использованию (operating) компьютера, совокупность методов. Как правило, эти методы программируются и получается прграммное обеспечение, но смысл изначально был такой.

Примеры

Из этого определения выкинуты подробности отдельных вариантов использования. Я бы очень хотел избежать ситуации, когда под операционной системой понимается нечто, у чего в нижнем левом углу экрана находится кнопка "Пуск", по двум причинам: никакого экрана может не быть, мы говорим о ресурсах, мало ли, может нет графических ресурсов у данной аппаратной платформы, вообще нету, о каком экране речь? Во-вторых, может быть экран есть, но нету графической кнопки для нажатия на нее мышкой, т.к. может случиться, что эта аппаратная платформа управляется без помощи графических инструментов, а исключительно подачей ей команд, а всякая графика -- прикладная, а не интерфейсная. Не надо забывать о том, что наша задача -- повысить удобство работы с компьютером. Собственно, ради чего мы все это делаем? Ради того, чтобы человек, который программирует, или запускает программы, не занимался указанными тремя задачами сам.

Почему DOS -- это не ОС?.. Привожу пример DOS, вы явно с ним знакомы. DOS -- это дисковая операционная система, если кто помнит. Многозадачная, но однопользовательская. На этом уровне DOS не умеет обеспечивать защиту памяти, со стороны ОС не предоставляются возможности обеспечить даже защиту от случайного, непреднамеренного доступа. Не предоставляет нормальных способов разделения таких ресурсов как видео, аудио, ничего этого нет. Вы пишете специальную программу-драйвер, или еще хуже, вписываете в вашу программу работу непосредственно с регистрами видеокарты, после чего все начинает работать.

Единственные инструменты по унификации и разделению предоставляет DOS пользователю, это файловая система. Она в те времена вызывала очень много нареканий, т.к. в том же UNIX'е уже была вполне нормальная файловая система, а в DOS'е ее не было. Но тем не менее представление о DOS'е хорошо иллюстрирует, почему он не является ОС вообще. С точки зрения внешних ресурсов, например, графики, DOS вообще не операционная система, даже унификации никакой не предоставляет, т.е., там есть INT 13h для выдачи на экран, но это же смешно. Чтобы выискать в DOS'е следы операционной системы, его нужно изучать. Там есть INT 21h... Никаких средств обеспечения многозадачности тоже нет. Это притом, что все современные ОС, в том числе более новые версии Windows, начиная с Windows NT и далее, и, собственно и Linux, на этот вопрос отвечают полностью утвердительно по всем статьям, с некоторыми нюансами, о которых мы тоже поговорим.


Сведения о ресурсах

Готовность (%)

Продолжительность (ак. ч.)

Подготовка (календ. ч.)

Полный текст (раб. д.)

Предварительные знания

Level

Maintainer

Start date

End date

55

1

1

1

1

PavelSutyrin, GeorgeTarasov, VsevolodKrishchenko


PspoClasses/080717/01OsDefinition (last edited 2008-10-06 05:49:13 by VsevolodKrishchenko)