Сбой на системном SSD накопителе

jim945
Все это бесполезно для ссд.
А вот интересно, что на ssd время чтения блока whdd не покажет...?
И еще у меня вопрос...... я несколько раз делал глубокий поиск в надежде найти инструмент, позволяющий определить время чтения конкретного блока..... но так ничего и не нашел.
Такого инструмента нет вообще или я просто не нашел или это может вшито в какую то другую утилиту?
PS..... пришла идея насчет времени чтения конкретного блока - взглянуть исходники seeker и посмотреть как можно их модифицировать
Ошибки не исчезают с опытом - они просто умнеют
vasek
А вот интересно, что на ssd время чтения блока whdd не покажет...?
пусть даже и покажет. Но скорости не сравнимы с hdd.
Но. Когда на жестком бьется блок, он читается с ошибками или вообще не читается.
На ссд же он читается, но записать в него не получается. Он автоматически прошивкой ссд заменяется хорошим блоком из резервной области (или неиспользуемыми блоками).
Т.е. все блоки, по идее, будут читаться.
Когда записывать уже некуда, ссд блокируется и переходит в ридонли.
Так я понимаю принцип работы.
Lupus pilum mutat, non mentem.
jim945
Хомяка на ссд лучше не держать.
Тогда в SSD смысла никакого нет. В /home куча конфигов, превьюшек и прочей мелкой лабуды, которую дольше искать, чем читать. А вот музычку и прочие тяжелые вещи лучше конечно же хранить отдельно.
lampslave
В /home куча конфигов, превьюшек и прочей мелкой лабуды, которую дольше искать, чем читать.
Которые еще и перезаписываются постоянно. Некоторый софт пишет на каждый чих. Бесит.
Тут или скорость + скорость, или скорость + долгая жизнь диска.
Выделил под /home небольшой раздел на жестком. Данные отдельно. Не вижу особой разницы в скорости.
Lupus pilum mutat, non mentem.
jim945, с твоей помощью пришлось пройти ликбез по SSD. Нашел хорошую статью, объясняющую все с точки зрения физики, многое уяснил для себя и многое стало понятно. За что тебе отдельное спасибо....
UPD.... и верно было сказано что в ssd ячейка умирает на запись......но не согласен в одном (но спорить не собираюсь) — все-таки сектора/блоки читаются не всегда и это так же как и в HDD сказывается на скорость чтения ….(просто при этом комп не зависает, как в случае с HDD). Кроме того уяснил для себя, что восстановление информации в SSD с таких нечитаемых блоков намного сложнее, чем в HDD, но возможно...
Ошибки не исчезают с опытом - они просто умнеют
jim945
Которые еще и перезаписываются постоянно. Некоторый софт пишет на каждый чих.
Правильно, вот для того, чтобы не ждать, пока оно запишет, и надо /home держать на ssd. Учитывая, сколько сейчас стоят небольшие ссдшки, ужиматься, чтобы дать им лишний месяц жизни, "немного неправильно".
Пробовали для эксперимента ссд-абсолютно бесполезная маркетинговая хрень.Никакого влияния на скорость работы системы не имеет,разве что загружается система быстрее да программы открываются на миллисикунды быстрее.Ещё систему можно установить не за 15 минут а за 5.
Да,ещё файлы с раздела на раздел быстрее копирует,очень "важное" преимущество.
Всё,больше преимуществ нету.
Ну а у кого компьютер постоянно раздаёт и скачивает торренты ссд накрываетя за пару месяцев,уже с несколькими потерпевшими лично знаком.
Linux Forever!
lampslave
jim945
Которые еще и перезаписываются постоянно. Некоторый софт пишет на каждый чих.
Правильно, вот для того, чтобы не ждать, пока оно запишет, и надо /home держать на ssd. Учитывая, сколько сейчас стоят небольшие ссдшки, ужиматься, чтобы дать им лишний месяц жизни, "немного неправильно".
И / тоже :)
Я сначала делал отдельно /home. Потом наступил...
Некоторые из проектов перевалили по объему базы данных за 100Gb, и как-то раз я сделал df -h и понял свою ошибку.
Пришлось базы переносить на раздел с хомяком. А еще бэкапы...
С учетом использования компьютера для работы, маленькие SSD диски просто не котируются. Нужно, только на ноутбуке, как минимум 500Gb.
Поэтому вместо нового SSD заказал я еще один десктоп с несколькими hdd по 1Tb каждый :)

Так что если для домашнего компьютера, и то тогда не имеет смысла ставить меньше 500Gb.
Ну а для работы ... 1 Tb стоит не меньше 1000$ (PCI 1500$)(Samsung и пр. не учитываем :) )
Если будет сбой на 2-м году жизни, то, по сути, SSD обойдется в 100$ в месяц за терабайт - 25% --> 750Gb. Не удобно, как-то.

Да, кстати о Xubuntu :)
Я везде использую Arch, а на серверах - Debian.
И недавно столкнулся с интересной вещью.
Написал программу на Javascript (NodeJS).
На Arch она отрабатывала меньше чем за 5 минут.
Я на радостях деплойнул ее на сервер и получил время выполнения 18 минут.
Программа использует максимум ресурсов (ядра и т.д).
Оказалось, проблема была в версии NodeJS. Поменял на свежую. Ускорилась.
Но все равно медленнее чем на ноутбуке :)
При этом на ноуте стоит i7, а на сервере Xeon 12 ядер. (Напомню, программа использует максимуму ядер, в данном случае 8 ядер для 8 потоков)
И все равно медленнее. Я так думаю из-за ядра и, наверное, остального.
Так что все дистры типа Debian (хотя альтернативы для сервера практически нет. Ну какой руководитель разрешит Arch на сервере :) ) - это надежность на уровне ископаемых пометов мамонта - ценность огромна, пользы никакой.
Еcли встает вопрос производительности, приходится накачивать свежим ПО (Это и MariaDB, и NGINX, и NodeJS etc.).
Так что в разработке только Arch :)
Vadim
Никакого влияния на скорость работы...
Видите ли, работа разная бывает. Если у кого-то круглые сутки открыт только браузер, то конечно же никакого профита ему ссд не принесёт. Вы вот попробуйте дождаться, пока у вас IDE стартанёт или проект переиндексирует. Или пока дамп базы развернётся.

Vadim
Ну а у кого компьютер постоянно раздаёт и скачивает торренты ссд накрываетя за пару месяцев,уже с несколькими потерпевшими лично знаком.
Они не потерпевшие, они как минимум ССЗБ. Хотя вообще-то это надо называть несколько грубее. Они бы ещё молотком диску постучали, чтобы он сразу сдох и не мучился.

corner
И / тоже :)
Это само собой, тут вообще никаких разговоров быть не может.

corner
С учетом использования компьютера для работы, маленькие SSD диски просто не котируются. Нужно, только на ноутбуке, как минимум 500Gb.
К счастью, не у всех такие базы огромные :) Ну а бэкапы и на hdd полежат.

corner
Я на радостях деплойнул ее на сервер и получил время выполнения 18 минут.
Вот, а если бы сидели на Xubuntu, то сразу было бы понятно, что нужна оптимизация :)
lampslave
Вот, а если бы сидели на Xubuntu, то сразу было бы понятно, что нужна оптимизация :)
Никакая оптимизация не поможет, если на Debian стоит Node, давно почивший в бозе (0.10.29):)
А была бы Xubuntu, я сказал бы, что Node отстой и переписал бы на Golang :)
А так сразу заметил, в чем проблема.
 
Зарегистрироваться или войдите чтобы оставить сообщение.