Цитата(hardcase @ 17.02.2008 15:29)
Ограничения архитектуры NT для 32 платформы. Для 32 битного процесса существует 4Гб ОЗУ (догадайся почему).
Вот этого я и не понимаю.
16-разрядная система вполне была способна отдавать одной задаче если и не 640 Кбайт, то немного поменьше. А если постараться, то и все 64 Мбайта. Не одним куском, разумеется.
Вот и странно, что раз уж система способна переварить более 4 Гбайт памяти, почему она не может отдать их все одному процессу.
Цитата
Еще как вероятное. Купил в Санрайзе ты 4 одинаковых жестака. 2 года они работали под RAID-5, и тут один из них посыпался. Где гарантии, что и 3 оставшихся тоже не посыпятся во время восстановления массива?
А с какой стати они должны посыпаться примерно в то же время?
Давай не будем путать процессы вероятностные и предопределенные. Если у нас 4 одинаковых рулона туалетной бумаги в 4 одинаковых кабинках, то вероятность того, что они кончатся примерно одновременно, довольно высока. Этот же подход применим к аэрозольному баллончику, бензобаку и тысяче других вещей, которые при изготовлении снабжаются определенным вполне конкретным запасом некоторого ресурса.
Ресурс на износ же к таковым не относится.
Всегда существует определенная вероятность отказа, и по теории вероятности, отказ не может наступить одновременно. ТОгда как при одинаковой скорости расхода туалетной бумаги "отказ" обязан произойти именно одновременно. Т.к. количество бумаги строго детерминировано при производстве, а время работы - нет.
Цитата
Я бы сказал не выше. Очень не выше. Принципиально не выше. Программа - это еще одно звено в системе, а надежность системы в таком случае будет складываться из надежности железа и надежности софта. Т.е. Веростяонсть сбоя системы = вероятности сбоя железа + вероятность сбоя софта.
Немножечко упрощенная трактовка.
Формула, кстати, тоже не точная, а результат разложения по Тейлору с отбрасыванием членов выше первого. Но не в этом суть. Если расписать твою формулу более подробно, то окажется:
вероятность сбоя = вероятность сбоя железки №1 + вероятность сбоя железки №2 + ... + вероятность сбоя железки № N.
Так вот, в случае программно-аппаратного решения количество N существенно меньше, а потому и вероятность сбоя по "железячным" причинам, естественно, так же меньше.
Теперь самое интересное.
Программа имеет дело с принципиально дискретными величинами, а потому результат ее работы полностью детерминирован. В частности, вероятность сбоя правильно написаннй программы равна 0.
С железками же принципиально иначе.
Железки работают с реальным миром, в котором, вне зависимости от того, рассматриваем мы его с точки зрения квантовой механики или с точки зрения классических механики и статфизики, детерминированноси нет. А, следовательно, вероятность сбоя всегда отлична от 0.
Естественно, правильная программа - это что-то вроде сферического кона в вакууме, но программы, по крайней мере, в отличие от аппаратной части, подлежат обновлению на более новые версии.
Цитата
А сбой софта в мультипрограммной среде с вытесняющим планировщиком (именно в такой приходится работать бедному драйверу) сравнительно велика. Большинство системных сбоев благодарны своему появлению именно драйверам.
Здесь также следует разделять сбои на фатальные (или приводящие к потере данных) и не фатальные (или не приводящие к такой потере).
Цитата
Дык а кто мешает хранить уникальные данные на RAID-1-секции диска?
Я лишь выразил удивление политикой использования диска по умолчанию.
Цитата
з.ы. а вычленять в тексте ключевые слова я умею, не нужно для этого их в верхнем регистре писать.
Извини.