Nebulosa |
|
Темы:
10
Сообщения:
830
Участник с: 05 марта 2009
|
anodeУра! Помогло! Вернул все настройки в makepkg и mkinitcpio, прописал архиватор gzip - на виртуалке собралось. Теперь нужно проверить на самом VPS и заодно из спортивного интереса посмотреть какой из архиваторов будет максимально эффективный и влезет в лимит. Теперь, когда уже нужно вносить изменения уже в config приходится костылять в основной скрипт и PKGBUILD. http://termbin.com/blzf - тут скрипт autobuild, если кому интересно, пока так, но нужно будет прописать более универсально на будущее.. |
Nebulosa |
|
Темы:
10
Сообщения:
830
Участник с: 05 марта 2009
|
anodeСпасибо, уже кое-что. Попробую, отпишусь. Написал также о проблеме в англоязычный форум, где обсуждается ck-ядро, надеюсь автор сборки заметит проблему.. |
Nebulosa |
|
Темы:
10
Сообщения:
830
Участник с: 05 марта 2009
|
nafanjaПоставил PKGEXT='pkg.tar.xz' в /etc/makekpg.conf не помогло, ровно такая же ошибка слово в слово... видимо не в этом дело. vs220Nebulosadoc Я тут уже был, тут описание кода архиватора и их функций, не поможет. Посмотрел zstd --help и добавил в Makefile: zstd -1 - не помогло.. Может сборка ядра в принципе не идёт на 512Мб?.. |
Nebulosa |
|
Темы:
10
Сообщения:
830
Участник с: 05 марта 2009
|
Есть VPS c параметрами 1 CPU, 512МБ, 5ГБ, Archlinux. Хочу приспособить его для сборки ядра ck для другой машины, благо VPS работает круглосуточно. Поставил https://aur.archlinux.org/packages/linux-ck-autobuild с некоторыми оговорками запускается, компилирует, собирает пакет, но вываливается в ошибку:
Попробовал сделать отдельную виртуальную машину, параметры те же самые, ошибка повторяется до тех пор пока не будет 1Гб RAM. При этом сами исходники/компилированные модули занимают 2-2,1Гб поэтому 5Гб SSD итого вполне хватает. Какие есть варианты настройки zstd - я так понимаю, что это архиватор скомпилированного в пакет? Wiki смотрел, ничего полезного не смог найти.. |
Nebulosa |
|
Темы:
10
Сообщения:
830
Участник с: 05 марта 2009
|
https://www.linux.org.ru/forum/talks/16305853 Соответсвенно https://ubuntu.name |
Nebulosa |
|
Темы:
10
Сообщения:
830
Участник с: 05 марта 2009
|
Попробовал скрипт автоустановки на виртуалке, всё работает. Но нашёл нюанс.. Здесь написано https://wiki.archlinux.org/title/Installation_guide что минимально RAM должно быть 512мб. Но как показала практика минимум теперь 1 Гб, иначе никак не монтировалась корневая система. Раньше вроде размер образа был меньше. |
Nebulosa |
|
Темы:
10
Сообщения:
830
Участник с: 05 марта 2009
|
gardКак пример, конечно давайте, наверняка кому-то понадобится! А как именно организация хранения файлов - немного не то. |
Nebulosa |
|
Темы:
10
Сообщения:
830
Участник с: 05 марта 2009
|
AZJIOНе спорю, что задача простая, но написал тему, чтобы для себя понять вдруг какие есть технологии или готовые красивые программы, аля Time Machine в Mac, но даже и это не совсем то, что мне нужно. indeviralВнезапно! Стало быть, буду писать скрипт. Сейчас дочитаю статью по rsync - довольно просто и толково написано, может быть почерпну идеи для скрипта (Спасибо за ссылку!) indeviralСогласен, возможно метка будет лишняя, но как-то нужно это отделять.. посмотрим. Может сделаю папку lost+found %) anodeДа, тоже над этим думал, но не владею материалом никак, надо тоже погружаться. А самое главное как в папку сгружать копии старых файлов, не понимаю. Версионность точно будет, это понимаю, но боюсь слишком сложно будет для объяснения другим как этим пользоваться. |
Nebulosa |
|
Темы:
10
Сообщения:
830
Участник с: 05 марта 2009
|
nafanjaС удовольствием, только данный "живой" бекап будет выложен в облако, и там уже нет власти какая FS используется. С данными файлами работает 7-10 человек. vasekСамый простой вариант - берём и копируем всю папку, благо 10-12 ГБ всего. Проблема поиска нужного файла (и нужно версии файла) проявилась когда таких бекапов стало 50 %) vasekУ меня rsync недавно сообщил о 520 тыс. файлов в бекапе %) Проблема не получить бекап актуальной папки, а посмотреть как файл выглядел месяц или два назад. Или его восстановить, в случае если кто-то его удалил случайно. vasekНу вот эту проблему и хочу решить. Структура вложенных папок не меняется, скажем наступает новый месяц - создаётся подпапка 04_Апрель и уже её наполняем текущими файлами. Т.е. ты изначально знаешь где должен находиться файл, в какой из подпапок, но тебе иногда нужно посмотреть как он менялся в течении года, по срезу за месяц. kurychСпасибо, посмотрю обязательно! Но насколько я понимаю, инкрементальные бекапы, хранятся в своём внутреннем формате (и архивах) и если ты не знаешь когда именно файл был изменен ты не сможешь быстро получить доступ к файлу напрямую. indeviralДа, здесь смысл не в том, чтобы хранить базу пакетов программ/фильмов которые практически никогда не изменяются, а нужна версионность файлов, хотя бы помесячно. indeviralИменно! Никогда не делал эту задачу раньше, подскажите какой программой или командой это делать? Всё что раньше пользовал - если версии файлов различаются - две опции - перезаписать поверх и ничего не переносить. Нужна опция сохранить копию старого файла рядом с текущей версией. Удаленные файлы - это задача со звёздочкой, но точно поможет если кто-то в январе удалил папку, а узнал ты об этом только через полгода, поэтому в идеале такие файлы тоже перенести в мастер-копию, он же - бекап за Декабрь. |
Nebulosa |
|
Темы:
10
Сообщения:
830
Участник с: 05 марта 2009
|
Призываю в тред мастеров организации архивов! :) Дано: Есть папка с файлами, на 99% excel, ppt, docx, jpg. Внутри много папок, файлов (порядка 20-25 тыс). Всего 11-15 Гб. Файлы в основном добавляются, старые файлы почти не меняются. Каждый месяц создаётся полный бекап данной папки, сохраняется на отдельный диск. Получается 12 полных бэкапов за год, пару лет уже накопилось. Что нужно: сделать некую мастер-копию за год. Т.е. берём архив за декабрь и сливаем её с копиями за разные месяцы. Те файлы которые не менялись, не перезаписываются. Те файлы, которые различаются копируются в ту же папку но к имени файла добавляем дату файла. Удалённые файлы, которых нет в мастер-копии, также копируются, но с пометкой _deleted в названии файла. Затем данную мастер-копию закидываем в облако и открываем доступ на чтение. Важно чтобы файлы были не архивированные, сразу рабочие. 12 папок архивов неудобны тем, что когда ищешь когда именно изменился какой-либо файл, приходится в каждой месячной копии проходить по вложенным папкам весь путь с непонятным результатом. Собственно поэтому и появилась идея мастер-копии, хотя бы по году. Ну и плюс экономия места на диске - вместо 120 Гб, 13-14Гб на год. Вопрос: какие существуют программы, механики хранений архивов, для похожего результата? Также есть идея написать Bash-скрипт, не особо сложно должно быть, но наверняка есть какие-то готовые и более функциональные решения. Подскажите, пожалуйста, а как вы организуете архивы? Даже если у вас какая-то другая система, тоже будет интересно, может быть почерпну что-то новое! |