Дефрагментация: кто чем?

MURaDER

Старожил
Кто какую программу использует для дефрагментации своего жесткого диска? Просто тсало интересно может поменять её?

Сам лично использую Perfect Disk, не жалуюсь, всем устраивает.

ЗЫ: если не делаете её - не постите, если стандартной виндовской - не постите.

ЗЗЫ тема создана, для лучшего выбора программы.
 

ALEXIX

Старожил
не дефргментировал год, а то и больше :)
Проще всю инфу перекинуть на другой диск, первый форматнуть, и вернуть инфу на местно
 

Quad_Damage

Старожил
Читал, что дефрагментировать забитые инфой разделы NTFS штатным дефрагмером Windows не рекомендуется. В двух словах: NTFS либо не нужно дефрагментировать вовсе, либо придется это делать постоянно, так как время прихода в фрагментированное состояние будет все меньше и меньше раз от раза.

Позволю себе процитировать следующую статью, с мнением автора которой я согласен: http://www.all-win.ru/modules.php?name= ... les_id=221
Итак, что мы имеем в результате? Автор может предложить лишь собственное субъективное мнение, которое ни в коем случае не претендует на звание истины. ... Подобные программы (дефрагментаторы. QuadDamage) существуют постольку, поскольку на них есть спрос. Спрос же частично объясняется тем, что пользователи привыкли к тому, что подобные приложения необходимы для нормальной работы компьютера. Кроме того, некоторым подсознательно нравится, когда умное (с их точки зрения) ПО сообщает, что с компьютером все в порядке. Уровень интеллекта и диапазон возможностей среднего современного дефрагментатора значительно ниже, чем у аналогичной разработки эпохи DOS (кто-то вспомнит старый добрый Norton SpeedDisk и будет прав). Сегодня подобные программы (отнюдь не только дефрагментаторы) существуют больше как антидот от болезней пользователя, нежели компьютера.
 

G00K

Старожил
Где-то читал, что любые дефрагментаторы основаны на движке стандартного дефрагметатора виндов, и отличаются только внешним видом и всякими шедулерами и др. ненужными опциями.
 

Miges

Старожил
MURaDER":328vejpq сказал(а):
Кто какую программу использует для дефрагментации своего жесткого диска?

Присмотрись к
1) Executive Diskeeper - отличный (IMHO), хорошо настраиваемый, "быстрый", есть Professional и Server (в сети полезняшка) версии дефрагментатор. Нет ограничения на размер свободного места перед дефрагментацией. Официально рекомендован Microsoft`ом, т.к. СТАНДАРНЫЙ дефрагментатор MS - это "Diskeeper Lite".
- из минусов - служба "Diskeeper" много памяти ест (от 3 до 7Мб) и на автозапуск по умолчанию встаёт.

2) OO Defrag - более "красивый" дефрагментатор (а оно надо?) ... ну тоже есть Server.
========
ИТОГО: Мой выбор Дома - Diskeeper - служба в ручном режиме нажодится - запуск из коммандного файла - раз в месяц запускаю в режиме ScreenSaver`а или Boot-Time (тогда дефрагментируются и файлы папок) когда гулять ухожу.

-=-=-=-
Общая рекомендация: Храните, всё.т.к.и Систему (в начале диска на небольшом разделе типа "Диск С" :D ) и проги/гамесы/идругоеГ отдельно, и тогда системные/виндовские файлы не будут размызываться по всему винту и, говоря проще, будут рядышком в самой быстрой части винтчестера. И дефрагментация 1 раз в месяц не помешает.

.. И ещё ... старайтесь не забивать раздел более чем на 90% - возможно падение производительности файловой системы.

Quad_Damage":328vejpq сказал(а):
Читал, что дефрагментировать забитые инфой разделы NTFS штатным дефрагмером Windows не рекомендуется. В двух словах: NTFS либо не нужно дефрагментировать вовсе, либо придется это делать постоянно, так как время прихода в фрагментированное состояние будет все меньше и меньше раз от раза.
Не читайте этот БРЕД!
ALEXIX":328vejpq сказал(а):
Проще всю инфу перекинуть на другой диск, первый форматнуть, и вернуть инфу на местно
Вот уж придумал??? Считаешь ЭТО проще??? :shock: :lol:
 

ALEXIX

Старожил
чем плох данный метод?
тем что файлы друг за другом в каждой папке, как положено :?:
 

Quad_Damage

Старожил
Miges":20vv21zg сказал(а):
Не читайте этот БРЕД!
Обоснуй.
Я-то свои слова обосную:
Сайт Московского центра восстановления данных Derstein [url=http://derstein.ru сказал(а):
http://derstein.ru[/url]":20vv21zg]Фрагментация NTFS Или факты, которые Diskeeper 'забывает' нам рассказать... В самом начале утверждалось, что NTFS не подвержена фрагментации файлов. Это оказалось не совсем так, и утверждение сменили - NTFS препятствует фрагментации. Оказалось, что и это не совсем так. То есть она, конечно, препятствует, но толк от этого близок к нулю... Сейчас уже понятно, что NTFS - система, которая как никакая другая предрасположена к фрагментации, что бы не утверждалось официально. Единственное что - логически она не очень от этого страдает. Все внутренние структуры построены таким образом, что фрагментация не мешает быстро находить фрагменты данных. Но от физического последствия фрагментации - лишних движений головок - она, конечно, не спасает. И поэтому - вперед и с песней... NTFS - очень экономная система. Размер кластеров в ней разумно минимален - обычно это 4 кб (на стандартных сейчас дисках в десяток-другой гигабайт). Как известно, система сильнее всего фрагментирует файлы когда свободное место кончается, когда приходится использовать мелкие дырки, оставшиеся от других файлов. Тут возникает первое свойство NTFS, которое прямо способствует серьезной фрагментации. Диск NTFS поделен на две зоны. В начала диска идет MFT зона - зона, куда растет MFT, Master File Table. Зона занимает минимум 12% диска, и запись данных в эту зону невозможна. Это сделано для того, чтобы не фрагментировался хотя бы MFT. Но когда весь остальной диск заполняется - зона сокращается ровно в два раза :). И так далее. Таким образом мы имеем не один заход окончания диска, а несколько. В результате если NTFS работает при диске, заполненном на около 90% - фрагментация растет как бешенная. * Попутное следствие - диск, заполненный более чем на 88%, дефрагментировать почти невозможно - даже API дефрагментации не может перемещать данные в MFT зону. Может оказаться так, что у нас не будет свободного места для маневра. Далее. NTFS работает себе и работает, и всё таки фрагментируется. Этому способствует странный алгоритм нахождения свободного места - второе серьезное упущение. Если файл пишется большими кусками - всё нормально. Но если файл медленно растет - алгоритм такой: берется какой-то определенный объем диска и заполняется файлом до упора. Причем по очень интересному алгоритму: сначала заполняются большие дырки, потом маленькие. Т.е. типичное распределение фрагментов файла по размеру на фрагментированной NTFS выглядит так (размеры фрагментов): 16 - 16 - 16 - 16 - 16 - [скачек назад] - 15 - 15 - 15 - [назад] - 14 - 14 - 14 .... 1 - 1 - 1 -1 - 1... Так процесс идет до самых мелких дырок в 1 кластер, несмотря на то, что на диске наверняка есть и гораздо более большие куски свободного места. Может быть я забыл написать что-то еще... Смысл в том, что никак нельзя сказать, что NTFS препятствует фрагментации файлов. Наоборот, она с радостью их фрагментирует. Фрагментация NTFS через пол года работы доведет до искреннего удивления любого человека, знакомого с работой файловой системой. Поэтому приходится запускать дефрагментатор. Но на этом все наши проблемы не заканчиваются, а, увы, только начинаются... В NT существует стандартное API дефрагментации. Обладающее интересным ограничением для перемещения блоков файлов: за один раз можно перемещать не менее 16 кластеров (!), причем начинаться эти кластеры должны с позиции, кратной 16 кластерам в файле. В общем, операция осуществляется исключительно по 16 кластеров. Следствия: * В дырку свободного места менее 16 кластеров нельзя ничего переместить (кроме сжатых файлов, но это тонкости). * Файл, будучи перемещенный в друге место, оставляет после себя (на новом месте) "временно занятое место", дополняющее его по размеру до кратности 16 кластерам. * При попытке как-то неправильно ("не кратно 16") переместить файл результат часто непредсказуем. Что-то округляется, что-то просто не перемещается.. Тем не менее, всё место действия щедро рассыпается "временно занятым местом". Наверное о нас заботятся, чтобы мы отстали от этого места - чтобы алгоритм дефрагментации не клинило. :) * "Временно занятое место" освобождается через некоторое время, обычно где-то пол минуты. Гы. Тем не менее, логично было бы использовать это API. Его и используют. Поэтому процесс стандартной дефрагментации, с поправками на ограниченность API, идет следующими фазами, не обязательно в этом порядке: * Вынимание файлов из MFT зоны. Не специально - просто обратно туда их положить не представляется возможным :) Безобидная фаза, и даже в чем то полезная. * Дефрагментация файлов. Безусловно полезный процесс, несколько правда осложняемый ограничениями кратности перемещений - файлы часто приходится перекладывать сильнее, чем это было бы логично сделать по уму. * Дефрагментация MFT, виртуалки (pagefile.sys) и каталогов. Возможна через API только в Windows2000, иначе - при перезагрузке, отдельным процессом, как в Diskeeper-е. * Складывание файлов ближе к началу - так называемая дефрагментация свободного места. Вот это - воистину страшный процесс... Допустим, мы хотим положить файлы подряд в начало диска. Кладем один файл. Он оставляет хвост занятости дополнения до кратности 16. Кладем следующий - после хвоста, естественно. Через некоторое время, по освобождению хвоста, имеем дырку <16 кластеров размером. Которую потом невозможно заполнить через API дефрагментации! В результате, до оптимизации картина свободного места выглядела так: много дырок примерно одинакового размера. После оптимизации - одна дыра в конце диска, и много маленьких <16 кластеров дырок в заполненном файлами участке. Какие места в первую очередь заполняются? Правильно, находящиеся ближе к началу диска мелкие дырки <16 кластеров... Любой файл, плавно созданный на прооптимизированном диске, будет состоять из дикого числа фрагментов. Да, диск потом можно оптимизировать снова. А потом еще раз.. и еще.. и так - желательно каждую неделю. Бред? Реальность. Таким образом, имеется два примерно равнозначных варианта. Первый - часто оптимизировать диск таким дефрагментатором, смиряясь при этом с дикой фрагментацией заново созданных файлов. Второй вариант - вообще ничего не трогать, и смириться с равномерной, но гораздо более слабой фрагментацией всех файлов на диске. Пока есть один дефрагментатор, который игнорирует API дефрагментации и работает как-то более напрямую - Norton Speeddisk 5.0 для NT. Когда его пытаются сравнить со всеми остальными - Diskeeper, O&O defrag, т.д. - не упоминают этого главного, самого принципиального, отличия. Просто потому, что эта проблема тщательно скрывается, по крайней мере уж точно не афишируется на каждом шагу. Speeddisk - единственная на сегодняшний день программа, которая может оптимизировать диск полностью, не создавая маленьких незаполненных фрагментов свободного места. Стоит добавить также, что стандартное API не может дефрагментировать тома NTFS с кластером более 4 Кбайт - а SpeedDisk, по прежнему, может. К сожалению, в Windows 2000 засунули дефрагментатор, который работает через API, и соответственно плодит дырки <16 кластеров. Так что как только появится (если уже не появился) - так сразу надо качать Speeddisk для W2k. Как некоторый вывод из всего этого - все остальные дефрагментаторы при одноразовом применении просто вредны. Если вы запускали его хоть раз - нужно запускать его потом хотя бы раз в месяц, чтобы избавится от фрагментации новоприбывающих файлов. В этом основная суть сложности дефрагментации NTFS теми средствами, которые сложились исторически.
От себя добавлю, что считаю это мнение достаточно компетентным, раз источник занимается восстановлением данных.
 

Night_Elf

Старожил
ALEXIX":1ytqkt4q сказал(а):
чем плох данный метод? тем что файлы друг за другом в каждой папке, как положено :?:
мда... это для любителей поиметь гемор на пустом месте?
 

ALEXIX

Старожил
встречный вопрос - за сколько ты проведёшь дефрагментацию 100гб винта забитого подзавязку :?:
 

CarQuizi

Старожил
в зависимости от фрагментированности данных, естественно.
у меня на 160Гб винте, забитом подзавязку, уходет около 1ч~ Perfect Disk.
 

ALEXIX

Старожил
ага это если не сильно фрагментирован
а если месяца 3 нетрогали его
 

Night_Elf

Старожил
ALEXIX":2x64tzsa сказал(а):
встречный вопрос - за сколько ты проведёшь дефрагментацию 100гб винта забитого подзавязку :?:
какая разница, сколько времени это займет? Главное, что процесс не требует твоего вмешательства. Запустил и ушел.
 

MURaDER

Старожил
ALEXIX":18d8ddqc сказал(а):
встречный вопрос - за сколько ты проведёшь дефрагментацию 100гб винта забитого подзавязку :?:
У меня 160 и 300 гигов, дефрагментирую раз в неделю, занимает в среднем 5 часов... самый первый раз было около суток

винты свободны на 20 процентов
 

ALEXIX

Старожил
во во 1й раз около суток :)
+ свободны :!: от 160 гб 20% это 30 гб
+ исход не даёт гарантии что файлы одной программы окажутся рядом друг с другом

А ты прикинь сколько времени он будет делать дефрагментацию если свободного места 200-300мб
если фильмы и VCD весят 600-1000мб
 

MURaDER

Старожил
ой, тогда не 20, на 160 свободно 60 гигов, на 300 50 гигов... зато теперь все быстро и нормально, ты же комп навярняка не вырубаешь на ночь... так поставить дефрагу и всё 8)
 

Harry

Старожил
Когда то дефрагментировал диск с 98 виндой и FAT32. Винда работала уже довольно долго, год наверное. Использовал нортоновский Speed Disk, причем включил не просто дефрагментацию, а "полную оптимизацию". До дефрагментации винда грузилась за 62 секунды, после оной стала грузиться аж за 60 секунд. С тех пор на дефрагментацию забил.

MURaDER":3q188gaq сказал(а):
У меня 160 и 300 гигов, дефрагментирую раз в неделю, занимает в среднем 5 часов...
Ну и какой получается результат? Лучше, чем у меня? Есть ли ради чего каждую неделю по 5 часов мучить диски?

ALEXIX":3q188gaq сказал(а):
чем плох данный метод?
Твой метод всем хорош, он действительно работает. У него только один недостаток - для манипуляций с файлами нужно иметь на дисках много свободного места.
 

SMile

Старожил
из за дефрагментации большой прирост производительности?
p.s если 1 раз дефрагментировать,затем ни че нового не ставить/качать и тд ,то нада буит делать повторную дефрагментацию через некоторое время?
 

Frankenshtain

Бывалый
У современных винтов:
время поиска случайного сектора - 0.01 с;
скорость чтения - 50 МБ/с

Т. е. перескок на другой фрагмент занимает время за которое могли бы считатся 0.5 МБ.

Такую формулу набросал:

ТЧВ=1-(0.5/((СРФ*(2^(1-(ЗППД/РР))))+0.5))

ТЧВ - теряемая часть времени
СФ - средний размер фрагмента, МБ
СРФ - средний размер файла, МБ (количество файлов в разделе делённое на их размер)
ЗППД - записано, после последней дефрагментации, ГБ
РР - размер раздела, ГБ

Преобразуем:

ЗППД/РР=1-log((((0.5/(1-ТЧВ))-0.5)/СРФ),2)

Предположим что мы готовы терять 25% времени, тогда

ЗППД/РР=1-log((1/(6*СРФ)),2)
ЗППД/РР=1+log((6*СРФ),2)

ЗППД/РР=3.6+log((СРФ),2)

Предположим, что на разделе iso, vcd, avi... и средний размер файла 500 МБ,
тогда потери времени достигнут 25% когда ЗППД/РР станет 12.5.
Т. е. если этот раздел 100 ГБ, дефрагментация понадобится после перезаписи 1250 ГБ.

Предположим, что на разделе только mp3, wav... и средний размер файла 5 МБ,
тогда потери времени достигнут 25% когда ЗППД/РР станет 6.
Т. е. если этот раздел 100 ГБ, дефрагментация понадобится после перезаписи 600 ГБ.

Формулы приблизительные и не учитывают упорядоченность чтения/записи, считая их хаотичными.


Из вышесказанного следуют советы: раскладывайте файлы на разные разделы по размеру, частоте перезаписи, активности использования.

Добавлено спустя 3 минуты 37 секунд:

SMile":16awz82o сказал(а):
из за дефрагментации большой прирост производительности? p.s если 1 раз дефрагментировать,затем ни че нового не ставить/качать и тд ,то нада буит делать повторную дефрагментацию через некоторое время?
Нет.
Если просто записывал файлы и ничего не стирал, дефрагментировать тоже необязательно.
 

MURaDER

Старожил
Harry":8lgslxa1 сказал(а):
Ну и какой получается результат? Лучше, чем у меня? Есть ли ради чего каждую неделю по 5 часов мучить диски?
5 часов это когда забиваю на это дело, а в последнее время все чаще и чаще, комп все равно ночью включен, какая разница, а если каждую неделю дефрагментировать, то меньше часа уходит...
 

Frankenshtain

Бывалый
MURaDER":3qkqm8yn сказал(а):
Harry":3qkqm8yn сказал(а):
Ну и какой получается результат? Лучше, чем у меня? Есть ли ради чего каждую неделю по 5 часов мучить диски?
5 часов это когда забиваю на это дело, а в последнее время все чаще и чаще
Это вы переборщили.
Думаю, что пока не сотрёшь треть объёма диска и запишешь чего-нибудь туда запишешь смысла дефрагментировать нет.

MURaDER":3qkqm8yn сказал(а):
комп все равно ночью включен, какая разница
Разница есть. Если просто включен (режим IDLE) потредбление 8 W, если используется 13 W.
 
Верх