[Uneex] Средство " интеллегентного бэкапа "

Nikita V. Youshchenko yoush на cs.msu.su
Чт Окт 21 00:42:32 MSD 2004


> - ведение backup и логов;

Ну раз уж всплыла тема, спрошу :).
Не знает ли кто *готового решения* для такой задачи.

Есть сервер, на котором работают пользователи (через графические терминалы, 
удалённо по ssh и т.п.). Наш zigzag.
На сервере лежат домашние каталоги. Сейчас раздел на 200G, возможно вскоре 
будет увеличено в 2-3 раза.
У пользователей в домашних каталогах - помойка: не стёртая вовремя 
мультимудия, развёрнутые архивы исходников крупных проектов, да ещё с 
объектниками, и т.п.
Но среди этого встречаются и нужные вещи (текущая работа по проектам и 
т.п.). Т.е. нечто, что нужно бэкапить.

Бэкапить всё не представляется возможным из-за объёмов. Да и глупо это 
как-то, так как 90% объёма - помойка.
Заставить пользователей явно отметить, что надо бэкапить, тоже в общем 
случае проблематично, т.к. это пользователи :).

Требуется система, которая с (как-то организованной) минимальной помощью 
админа обеспечивала incremental backup ценной информации из домашних 
каталогов, и возможности восстановления некоторого количества прошлых 
версий (речь идёт не о полном хранении истории ala cvs, а что-то вроде 
вчерашний, недельной давности, месячной давности)
Я думал на эту тему, получается примерно следующее.
Нужна процедура, которая будет определять, что есть "ценное".
- некоторый разумный критерий по содержимому файлов (по magic естественно, 
не по имени)
- эти правила перекрываются на уровне отдельных каталогов продвинутыми 
пользователями
- чтобы в бэкап не попадал очередной развёрнутый пользователем архив 
исходников linux, система должна находить каталоги размера /с учётом 
exclude-ов/ больше критического, которых "вчера не было", и автоматически 
исключать их из обработки, с уведомлением админа, который сможет 
просмотреть, что это за каталог появился, и вручную задать, что с ним 
делать. Админ соответственно утром получает письмо с результатом ночного 
прогона, и заносит новые правила. Раз в день несколько минут - по-моему 
совсем не страшно.
- "растолстевшие за день" каталоги - аналогично
- ещё наверное что-то
На основании этих правил создаётся список для бэкапа, и осуществляется 
бэкап (на другой раздел, по сети, ...). К этому добавляются какие-то 
средства устаревания бэкапов, ну и естественно просмотра доступных бэкапов 
и восстановления на уровне отдельных каталогов и файлов.

Т.е. представление о том, что надо - есть. Ясное дело, что это эвристика, 
когда-то будет и лишнее бэкапить, и нужное не находить; но тем не менее 
мне кажется что в среднем должно работать неплохо.

Но писать всё это - целая история. Пытался в прошлом полугодии студента 
посадить, но как-то у нас с ним не наладилось взаимодействие, и ничего не 
вышло :(.

Готовое решение когда-то искал, неудачно. Создалось впечатления, что в 
такой постановке задачу никто никогда не решал.

Может, кто-нибудь меня во что-нибудь ткнёт?


Подробная информация о списке рассылки Uneex