GuilleSQL :: Microsoft SQL Server, SSIS, y más !!

Cluster NLB: Recomendaciones Cluster NLB

Volver a: [Instalar y Configurar Microsoft Cluster NLB (Network Load Balancing) en Windows Server 2003]


Este capítulo explica algunas recomendaciones que se deben de seguir para diseñar e implementar un Cluster NLB, como es es caso de elegir cuántas tarjetas de red se deben de utilizar, la relación entre el número de tarjetas de red a utilizar y la configuración Unicast/Multicast del Cluster NLB, la configuración propia de las tarjetas de red (configuración TCP/IP, principalmente), utilización de teaming de red, etc.

A continuación se muestran varias recomendaciones cara a la utilización de Clusters NLB.

  • Es recomendable utilizar dos o más tarjetas de Red en cada Cluster HOST, cada una con su propia dirección IP. Este tipo de configuraciones aporta dos tipos de ventajas:

    • Permitir la creación de múltiples Clusters NLB (ej: una tarjeta de red para la gestión del servidor, y cada una de las tarjetas de red adicionales para la creación de un Cluster NLB adicional).
    • Utilizar varias tarjetas en cada Nodo para manejar el tráfico del mismo Cluster NLB. Es decir, del mismo modo que es posible formar un Cluster NLB con dos Nodos, utilizando una tarjeta de red de cada uno de los nodos, evaluar la posibilidad de utilizar dos o más tarjetas de red en cada Nodo (Host) para forma el Cluster NLB, y así poder ofrecer un mejor tiempo de respuesta.

    Si decidimos utilizar múltiples tarjetas de Red, es muy recomendable utilizar una tarjeta de red dedicada para la gestión del servidor (muy recomendable, pero NO es un requisito). Este adaptador de red será utilizado para la comunicación con los equipos Host del Cluster NLB, como por ejemplo, conexión por Terminal Server, administración del Cluster NLB a través de la herramienta administrativa Network Load Balancing Manager (NLBMgr.exe), etc. Así, podemos utilizar el resto de tarjetas de red para formar uno o varios Clusters NLB, cada uno con la configuración más apropiada para su fin.

    La utilización de una tarjeta de red dedicada para la gestión del servidor es especialmente útil si se está utilizando el modo de operación del Cluster NLB en Unicast, ya que si los Host del Cluster sólo disponen de una única tarjeta NLB y ésta se configura en modo Unicast, éstos no se podrán ver entre ellos (no es posible la comunicación entre los miembros del Cluster NLB, debido a que ambos tendrán la misma dirección MAC) y adicionalmente, el tráfico dirigido a un Host particular del Cluster NLB genera una sobrecarga adicional de tráfico de red sobre todos los equipos miembros del Cluster NLB (por el mismo motivo, es decir, por compartir la misma MAC). Por ello, es muy recomendable disponer de múltiples tarjetas de red, aunque NO es un requisito.

    En caso de utilizar dos tarjetas de red (una dedicada para la gestión del servidor y otra para formar el Cluster NLB), se debe configurar en la tarjeta de red utilizada para formar el Cluster NLB, y sólo en ésta tarjeta (en las demás se debe dejar sin configurar):

    • El/los servidores DNS utilizado. No configurar servidores DNS en el resto de tarjetas de red.
    • Habilitar la opción de registro en DNS (Register this connection’s addresses in DNS). Mantener esta opción deshabilitada en el resto de tarjetas de red.
    • La puerta de enlace (Gateway). No configurar la puerta de enlace (Gateway) en el resto de tarjetas de red.

    Especialmente interesante, la configuración de la puerta de enlace, como se muestra en el Artículo de Soporte de Microsoft KB 193602. Adicionalmente, se recomienda que la tarjeta de red dedicada para la gestión, y la tarjeta de red utilizada para formar el Cluster NLB, deben pertenecer a distintos segmentos de red.

    En caso de utilizar una única tarjeta de red y configurar el Cluster NLB en modo de operación Unicast, es recomendable utilizar la herramienta administrativa NLB Manager desde un equipo independiente al Cluster NLB, para evitar así los problemas derivados de sobrescribir la MAC.

    Además, en caso de utilizar una única tarjeta de red en cada Nodo del Cluster NLB, utilizar afinidad Unicast, y necesitar que los Nodos del Cluster NLB se comuniquen entre sí (intra-host communication), es posible establecer la entrada del registro UnicastInterHostCommSupport a 1 para cada una de las tarjetas de red en cada Nodo del Cluster NLB, es decir, en las ramas HKLM\System\CurrentControlSet\Services\WLBS\Parameters\Interface\{GUID}.

  • La utilización de tarjetas de red en Team (teaming adapters) con NLB en modo de operación Unicast puede causar problemas de red. Aunque no tiene porqué ocurrir, si es una situación posible, como se describe en el artículo de soporte KB 278431, principalmente porque las soluciones de teaming son soluciones propietarias de cada fabricante (es decir, la implementación de teaming de un fabricante de red puede ofrecer un resultada muy diferente a la implementación de teaming de otro fabricante de red, tanto en rendimiento, como en posibilidades de configuración). El problema detectado consiste en que con algunas implementaciones de Teaming, no es posible sobrescribir la dirección MAC al enviar un paquete (con el fin de marcar el paquete con la MAC del Cluster NLB). Como consecuencia, si se desea utilizar el modo de operación Unicast, puede ser necesario establecer manualmente la propiedad de la tarjeta de red Locally Administered Address (LAA) con la dirección MAC del Cluster NLB (ojo, sólo en modo de operación Unicast, NO realizar con el modo de operación Multicast). En caso de realizar esta configuración manual, es muy importante recordar deshacer dicha configuración, si en un futuro se deshace el Cluster NLB, para evitar problemas con la MAC configurada manualmente. También es interesante recordar, que la posibilidad de realizar ésta configuración dependerá de los propios controladores (drivers) de la tarjeta de red.

  • No habilitar el Control Remoto del NLB (Network Load Balancing remote control). Esta opción de control remoto, presenta riesgos de seguridad, siendo muy recomendable mantener dicha opción deshabilitada.

  • Habilitar el Log del Cluster NLB, en cada Nodo (Host) del Cluster NLB. Esta es un recomendación de Microsoft. Con esto, se permite registrar cada evento del Cluster NLB sobre un fichero de texto, resultando de gran utilidad en la resolución de problemas. Esta opción de configuración está disponible abriendo la herramienta administrativa Network Load Balancing Manager (NLBMgr.exe), a través del menú Options -> Log Settings, como se muestra en el siguiente cuadro de diálogo (es necesario habilitar el logging – Enable logging - y especificar el nombre completo del fichero de log deseado):



    Bajo mi punto de vista (y me puedo equivocar), no es necesario, debido a que la información que aquí vamos encontrar también la podemos encontrar en el visor de eventos de Microsoft Windows (el Event Viewer de toda la vida ;-), en particular los registros de evento de origen WLBS (Source = WLBS).

  • Garantizar y comprobar que todos los Nodos (Host) del mismo Cluster NLB pertenecen a la misma subred (mismo segmento Ethernet) y que todos los clientes del Cluster NLB son capaces de acceder a dicha subred.

  • No habilitar un Cluster NLB en un equipo miembro de un Cluster MSCS. Esta configuración no está soportada por Microsoft. Es decir, en caso de utilizar dicha configuración, no será posible disfrutar del servicio de Soporte de Microsoft. Uno de los motivos, es que el uso de la red realizado por Microsoft NLB y Microsoft Cluster MSCS, puede producir interferencias entre ambos productos.

  • No habilitar DNS, DHCP ni WINS sobre un Cluster NLB.

Volver a: [Instalar y Configurar Microsoft Cluster NLB (Network Load Balancing) en Windows Server 2003]


Miembros de
Miembros de GITCA (Global IT Community Association)

Menu de Usuario
  Iniciar Sesión
  Registrarse
  Restablecer Contraseña
  Ventajas de Registrarse

Acerca de
  Contigo desde Oct 2007
  771 usuarios registrados
  86146 pageloads/mes
  Ranking Alexa 498160

Social Networks
Sigue a Portal GuilleSQL en Linkedin !!
Sigue a Portal GuilleSQL en Twitter !!



Archivo

Marzo de 2017 (3)
Enero de 2017 (4)
Junio de 2016 (1)
Mayo de 2016 (2)
Abril de 2016 (2)
Septiembre de 2015 (2)
Agosto de 2015 (2)
Junio de 2015 (10)
Mayo de 2015 (4)
Abril de 2015 (8)
Marzo de 2015 (11)
Octubre de 2014 (3)
Septiembre de 2014 (7)
Agosto de 2014 (5)
Julio de 2014 (2)
Mayo de 2014 (4)
Abril de 2014 (4)
Marzo de 2014 (4)
Febrero de 2014 (1)
Enero de 2014 (5)
Diciembre de 2013 (8)
Noviembre de 2013 (2)
Octubre de 2013 (7)
Septiembre de 2013 (6)
Agosto de 2013 (1)
Julio de 2013 (6)
Junio de 2013 (11)
Mayo de 2013 (7)
Abril de 2013 (6)
Febrero de 2013 (5)
Enero de 2013 (7)
Diciembre de 2012 (12)
Noviembre de 2012 (13)
Octubre de 2012 (5)
Septiembre de 2012 (3)
Agosto de 2012 (6)
Julio de 2012 (4)
Junio de 2012 (1)
Mayo de 2012 (2)
Abril de 2012 (7)
Marzo de 2012 (16)
Febrero de 2012 (9)
Enero de 2012 (5)
Diciembre de 2011 (10)
Noviembre de 2011 (10)
Octubre de 2011 (4)
Septiembre de 2011 (5)
Agosto de 2011 (2)
Julio de 2011 (2)
Junio de 2011 (4)
Mayo de 2011 (2)
Abril de 2011 (6)
Marzo de 2011 (4)
Febrero de 2011 (10)
Enero de 2011 (5)
Diciembre de 2010 (6)
Noviembre de 2010 (4)
Octubre de 2010 (8)
Septiembre de 2010 (4)
Agosto de 2010 (1)
Julio de 2010 (3)
Mayo de 2010 (5)
Abril de 2010 (6)
Marzo de 2010 (8)
Febrero de 2010 (3)
Enero de 2010 (1)
Diciembre de 2009 (9)
Noviembre de 2009 (14)
Octubre de 2009 (2)
Septiembre de 2009 (8)
Agosto de 2009 (2)
Julio de 2009 (10)
Junio de 2009 (9)
Mayo de 2009 (10)
Abril de 2009 (9)
Marzo de 2009 (3)
Febrero de 2009 (2)
Enero de 2009 (3)
Noviembre de 2008 (2)
Octubre de 2008 (2)
Septiembre de 2008 (2)
Agosto de 2008 (5)
Julio de 2008 (5)
Junio de 2008 (1)
Mayo de 2008 (3)
Abril de 2008 (2)
Marzo de 2008 (2)
Febrero de 2008 (2)
Enero de 2008 (5)
Noviembre de 2007 (2)
Octubre de 2007 (2)






Copyright © 2007 GuilleSQL, todos los derechos reservados.