Consolidar y centralizar las copias de seguridad

En muchas empresas de tamaño medio que he conocido no existe una estrategia de backups centralizado. Normalmente todos los servidores se adquieren con algún tipo de dispositivo de backup (habitualmente una unidad de cintas DAT, DLT o LTO) y los procedimientos de salvaguarda se gestionan de forma independiente en cada una de estas máquinas a veces gestionados por distintas personas e incluso con diferentes criterios.

Se trata de una práctica que es soportable cuando estamos hablando de dos o, a lo sumo, tres servidores, pero a medida que el número de estos va creciendo la situación se convierte en algo intratable, se multiplican los puntos de fallos, las tareas de comprobación… mientras que con una pequeña inversión (que, en realidad no es tal si contamos lo que nos ahorramos en dispositivos independientes de backup en cada servidor, licencias si procede, soportes, operación y mantenimiento, etc.) es realmente fácil centralizar los backups creando, además, un sistema mucho más robusto y con más niveles de seguridad. Ni que decir tiene, además, que centralizar las copias es también mucho más práctico de cara a desarrollar y cumplir una política de seguridad interna.

Lo primero que necesitamos es una unidad de almacenamiento NAS o SAN de la capacidad adecuada. Para que os hagais una idea de los costes, un dispositivo con 2 Teras de capacidad y RAID5 por hardware puede salir por entre 3.000 y 4.000 euros. Esta máquina será nuestro primer nivel de backups y sobre ella programaremos una copia diaria de toda la información que necesitamos salvaguardar. Para ello utilizaremos diferentes estrategias. Los archivos de datos los copiaremos con alguna utilidad desde línea de comandos y con ejecución programada a la hora que convengamos una vez que la actividad de la empresa haya finalizado si es posible o a las horas de menor actividad si no hay más remedio. En el mundo de microsoft tenemos robocopy o xxcopy y la programación la haremos mediante el scheduler. En GNU/Linux tenemos rsync o rdiff y cron. En realidad sirve cualquier herramienta con la que nos sintamos cómodos, que respete los atributos de origen de los archivos y que nos permita una copia incremental de los mismos.

Las copias de la información del registro de windows (si las necesitamos) las programaremos desde el ntbackup sobre un directorio local de la máquina que luego será replicado en nuestro NAS con el procedimiento anterior. Para las copias en caliente de las bases de datos seguiremos un procedimiento similar: una primera copia en local mediante la utilidad de que disponga nuestro gestor de bases de datos que luego será replicada.

Ni que decir tiene que lo más importante en todo este proceso es la sincronización: primero las copias a local de los archivos que necesitan un tratamiento especial (registros, bases de datos, etc.) y luego la copia de estos archivos y del resto de información que necesitemos a nuestro dispositivo NAS o SAN. No es tan complicado como parece: se trata de hacer un par de pruebas y ajustar los tiempos.

Yo suelo hacer esta copia sin compresión de ningún tipo. Por dos motivos: porque facilita y agiliza muchísimo la recuperación de las copias más frecuentes (los administradores sabemos que en un alto porcentaje de los casos en los que tenemos que recurrir a un backup es porque un usuario, por torpeza o descuido, necesita volver a la versión de ayer de algún documento) y porque, si así lo queremos, podemos darle a los usuarios acceso de lectura a este primer nivel para que sean ellos mismos los que se restauren las copias en caso de necesidad y así aligerar el proceso y descargar de trabajo a los técnicos.

Para nuestro segundo nivel necesitamos un ‘autoloader’ o robot de backups. Una unidad con capacidad para 16 cintas LTO-3 y unos 12 Teras comprimidos puede costarnos en torno a los 8.000 euros. Con ella estableceremos un programa de backups diario adecuado a nuestras necesidades con la ventaja de que sólo tendremos que hacer copias de un único dispositivo y si usamos software propietario para ello (Symantec Backup Exec, antes Veritas, por ejemplo) no necesitaremos más que una licencia. En cuanto al programa de backups, sobre gustos los colores. Yo suelo programar una copia completa todos los viernes que mantengo durante cuatro semanas y copias diferenciales de lunes a viernes que se sobreescriben cada semana. Habrá que sincronizar el arranque de este backup una vez que haya finalizado la copia de cada uno de los servidores independientes.

Para rizar el rizo podemos retirar la copia completa del último viernes de cada mes de forma que podamos mantener un histórico mensual de todo el activo de la empresa (no os podeis ni imaginar lo útil que es cuando el director de no-se-que proyecto se da cuenta de que le ha salido un champiñón igual al de hace dos años y que ha borrado toda la documentación del mismo) y, si queremos gastarnos un poco más de dinero, conservar estas copias en una caja ignífuga. Un armario ignífugo de seguridad de unos 100 litros de capacidad (no veais la cantidad de cintas que caben ahí ;-)) y que pase el test NT Fire 017-120D (2 horas a temperaturas de 1045 grados centígrados externos manteniendo menos de 54 internos) puede costarnos alrededor de 1.000 o 1.500 euros.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información

ACEPTAR
Aviso de cookies