sábado, 14 de octubre de 2017

Servidores Raiz DNS


Primero que todo, definamos lo que es un servidor raíz.



Los Root Servers o servidores raíz son los servidores DNS principales de todo el mundo, estos se encargan de resolver las peticiones DNS para los dominios de más alto nivel. Existen 13 Root Server distribuidos en varios puntos del planeta, principalmente en Estados Unidos. Estos servidores están bajo el dominio: root-servers.org 

Todos los Root Servers usan BIND (Berkeley Internet Name Domain) como servidor DNS, excepto los servidores H, L y K que utilizan NSD (Name Server Daemon). Los Root Servers Distribuidos utilizan anycast para mejorar y equilibrar la carga, dando un servicio descentralizado.




















Como funciona un Servidor Raiz?



Dada una consulta de cualquier dominio, el servidor raíz proporciona al menos el nombre y la dirección del servidor autorizado de la zona de más alto nivel para el dominio buscado. De manera que el servidor del dominio proporcionará una lista de los servidores autorizados para la zona de segundo nivel, hasta obtener una respuesta razonable.


¿Qué es un DNS?


Un Domain Name System o DNS es un sistema que se encarga de traducir los nombres de dominio a direcciones IP.

Donde estan?


Todos los servidores DNS de la red dependen de los servidores raíz y el resto del sistema para realizar su trabajo. Los trece servidores se denominan por las primeras trece letras del alfabeto, y están en manos de 9 organismos y corporaciones diferentes e independientes, principalmente universidades, empresas privadas y organismos relacionados con el ejercito de EEUU.

Aproximadamente la mitad depende de organizaciones públicas estadounidenses.

Servidor A: Network Solutions, Herndon, Virginia, USA.

Servidor B: Instituto de Ciencias de la Información de la Universidad del Sur de California, USA.

Servidor C: PSINet, Virginia, USA.

Servidor D: Universidad de Maryland, USA.

Servidor E: NASA, en Mountain View, California, USA.

Servidor F: Internet Software Consortium, Palo Alto, California, USA.

Servidor G: Agencia de Sistemas de Información de Defensa, California, USA.

Servidor H: Laboratorio de Investigación del Ejercito, Maryland, USA.

Servidor I: NORDUnet, Estocolmo, Suecia.

Servidor J: (TBD), Virginia, USA.

Servidor K: RIPE-NCC, Londres, Inglaterra.

Servidor L: (TBD), California, USA.

Servidor M: Wide Project, Universidad de Tokyo, Japón.


















INSTALACIÓN DE COPIA DEL SERVIDOR "L" EN VENEZUELA

1.- VeriSign es el root-server A (198.41.0.4). Está ubicado en Dulles (Virginia, EEUU). Es bastante 
conocida por el «escándalo» de Septiembre de 2003, que intentó establecer todas las peticiones erroneas de un dominio .com o .net a un servicio propio llamado SiteFinder. Se encuentra preparado ya para conexiones con IPv6.

2.- Instituto para la formación científica es el root-server B (192.228.79.201). Está situado en Marina del Rey (California). También está preparado para conexiones IPv6

3.- Cogent Communications es el root-server C (192.33.4.12). Es una multinacional fundada en 1999 situada en Washington.

4.- Universidad de Maryland es el root-server D (128.8.10.90) situado en la ciudad College Park.

5.- Centro de investigación Ames de la NASA es el root-server E (192.203.230.10). El centro de investigación está situado en Silicon Valley (California).

6.- Consorcio de Sistemas de Internet (ISC) es el root-server F (192.5.5.241), que en realidad no es un sólo servidor físico, sino un sistema distribuido de varios servidores DNS a lo largo de diferentes lugares como Ottawa, New York, Madrid, Roma, Paris, Barcelona, Buenos Aires,  hasta 43 ciudades. Fue el primero de los 7 servidores DNS distribuidos existentes.

7.- Departamento de Defensa de EEUU es el root-server G (192.112.36.4) y se encuentra ubicado en la capital de Ohio.

8.- Laboratorio de investigación de la Armada de EEUU es el root-server H (128.63.2.53). También está preparado para conexión vía IPv6

9.-Autonomica/NORDUnet es el root-server I (192.36.148.17). Es otro de los servidores distribuídos que abarca hasta 31 ciudades diferentes (Helsinki, Milán, Londrés, Chicago, Bruselas, entre otros.).

10.-VeriSign tiene un segundo servidor DNS, el root-server J (192.58.128.30). Este, a diferencia del primero, es un servidor distribuido a lo largo de 37 ciudades (Vienna, Miami, Atlanta, Seattle, Tokyo, Seúl, Praga, Madrid).

11.-Centro de coordinación de redes IP europeas es el root-server K (193.0.14.129). Como los anteriores servidores, dispone de una red de distribución (Londres, Amsterdam, Frankfurt, Budapest, Delhi).

12.- Corporación de Internet para la Asignación de Nombres y Números es el root-server L (199.7.83.42). Se basa en un servidor distribuído entre Los Angeles y Miami (Estados Unidos).

13.- WIDE Project es el root-server M (202.12.27.33). Sistema distribuido entre 6 lugares entre los que se encuentran varias ciudades de Tokyo, Seúl, Paris y San Francisco. Está también preparado para IPv6.


Servidor Raíz en México

El Servidor Raíz de Nombres de Dominio instalado en la ciudad de Monterrey, es del servidor “Root Server L”, que opera ICANN. En este proyecto, NIC México colaboro con infraestructura física y proveedor del enlace necesario. ICANN colabora con la administración de los servidores replica.

En México, ya existe una copia del root-server F, el cual fue colocado por NIC México en coordinación con ISC (Internet Systems Consortium) en 2004.


Con la copia del servidor raíz F y las nuevas copias del servidor raíz L, aproximadamente un sexto de las consultas originadas en Mexico destinadas a los servidores raíz se quedarán en Mexico.


Referencias


NIC Mexico (2012). Instalación de segundo servidor raíz en México. Recuperado el 1 de octubre de 2014 de http://www.nic.mx/es/NicMx.Comunicados?id=444

Root Servers(SF). Root servers. Recuperado el 1 de octubre de 2014 de http://root-servers.org/


Public Root(SF).Golbal root-server check. Recuperado el 1 de octubre de 2014 de http://public-root.com/root-server-check/index.htm


viernes, 8 de septiembre de 2017

Web 3.0 y Web Semantica


Desde su creación, Internet ha sufrido grandes cambios, tanto en su funcionamiento como en sus objetivos. Los primeros sitios web tenían un carácter puramente informativo y no permitían la interacción con los usuarios. El auge de las redes sociales y el nacimiento de páginas como Amazon y Wikipedia abrieron paso a una nueva etapa en la historia del Internet: La era de la Web 2.0.



Que es la Web 3.0 ?


En la actualidad, con el avance de nuevos tecnologías, estamos visualizando el nacimiento de un nuevo concepto: la Web 3.0. Esta nueva versión de Internet se encuentra estrechamente ligada con el concepto de 'Web Semántica', el cual, en líneas generales, busca introducir una serie de lenguajes y procedimientos que puedan interpretar ciertas características del usuario con el objetivo de ofrecer una interfaz más personalizada.

¿Qué nos ofrece esta nueva forma evolucionada de la red?

1. Búsquedas inteligentes:

La web 3.0 busca crear un nuevo sistema de clasificación de páginas web estrechamente ligado a las necesidades y características de los usuarios. De esta forma, al conectarse a Internet, los usuarios pueden disfrutar de una plataforma mucho más personalizada.

2. La evolución de las redes sociales:

Crecen las comunidades sociales en la red, tanto en número como en nivel de complejidad. Aumentan también las formas de conectarse a estas redes.

3. Más rapidez

Las nuevas funcionalidades de la Web 3.0 requieren de un Internet mucho más rápido. En respuesta a esto, las principales operadoras de telecomunicaciones han implementado conexiones de banda ancha para garantizar una experiencia de uso más satisfactoria para los usuarios.

4. Conectividad a través de más dispositivos

La Web 3.0 mejora las posibilidades de los usuarios de conectarse no sólo a través de las computadoras de escritorio y laptops, sino también a través de celulares, tablets, relojes y más dispositivos.

5. Contenido libre

Los programas libres y las licencias 'Creative Commons' son mucho más comunes en la Web 3.0

6. Espacios tridimensionales

Los usuarios pueden acceder a nuevas formas de visualizar la web, con espacios tridimensionales. Un claro ejemplo de esto es Google Earth.

7. Web Geoespacial

Los usuarios pueden acceder a información disponible en la red en base a su localización geográfica.

8. Facilidad en la navegación

Las nuevas tendencias de diseño buscan establecer ciertas estandarizaciones que hagan más sencilla la experiencia del usuario en la navegación, además de la creación de espacios que puedan ser modificados y personalizados por estos.

9.  Computación en la nube

Con la creación de nuevos espacios de almacenamiento, no sólo de datos sino de programas, la web se convierte en un espacio ejecutable a modo de computador universal.

10. Vinculación de datos

Cada vez existen más servicios de información que son capaces de añadir datos procedentes de otras fuentes con el fin de unificar las respuestas que ofrecen a los usuarios.


Web Semantica





La Web semántica es una de las tecnologías de información y comunicación que posiblemente agradará más a los internautas, por las bondades que promete, entre ellas:

  • Organizar la gran  cantidad de Información suelta, redundante y de calidad dudosa, existente en la Web actual.
  • Reducir los costos y los tiempos que invertimos en localizar información útil en la Web, porque actualmente debemos realizar el análisis semántico de la información.
  • Establecer las reglas para integrar información con diferentes formatos.
  • Resolver los problemas de interoperabilidad entre diversos dispositivos y plataformas con los que accedemos a la Web.


Los orígenes de la “Web semántica”, por su parte, se remontan al año 2001, cuando el científico británico Tim Berners Lee (Inventor de la World Wide Web)  y el investigador en inteligencia artificial James Hendler (del Departamento de Ciencias de la Computación de la Universidad de Maryland), presentaron un artículo en la revista Nature abordando por primera vez la posibilidad de generar este tipo de Web. En el artículo explican que la Web debería estar diseñada no sólo como espacio de información accesible para los seres humanos, sino también como espacio donde pudieran acceder las computadoras. El objetivo del acceso por parte de las computadoras sería ayudar a los seres humanos a buscar y conseguir la información que necesitan, con la mayor rapidez y garantía de éxito posibles.

Ante la imposibilidad de compartir la información entre computadoras con la Web actual, estos autores propusieron adaptar los documentos de Internet con una nueva tecnología, que permitiera procesar los datos también por computadora, es decir, encontrar la información en forma rápida y eficaz, basándose en el significado y no en los términos.


La Web semántica define un nuevo modelo de Web, con una capacidad muy superior a la que conocemos actualmente, regido por los principios de las búsquedas semánticas y la inteligencia artificial.



REFERENCIAS

  • Autor: Julián Pérez Porto. Publicado: 2015.
  • Definicion.de: Definición de web 3.0 (http://definicion.de/web-3-0/)
  • Lee todo en: Definición de web 3.0 - Qué es, Significado y Concepto http://definicion.de/web-3-0/#ixzz4JpTHsq3g
  • http://datateca.unad.edu.co/contenidos/MDL000/ContenidoTelematica/caractersticas_de_la_web_30.html
  • http://www.revista.unam.mx/vol.12/num11/art108/


domingo, 3 de septiembre de 2017

Que son Broadcast Storm Control Y Spanning Tree Protocol?

Broadcast Storm Control

Una tormenta de tráfico se produce cuando los paquetes inundan la red LAN, creando un exceso de tráfico y afectan el desempeño de la red. Cuando eso sucede podemos valernos de la función de control de tormentas de tráfico para evitar interrupciones en la Capa 2 puertos por un Broadcast, multicast o una tormenta tráfico unicast en las interfaces físicas.

 El control de tormentas se configura para el switch como un todo, pero opera por puerto. El control de tormentas se encuentra inhabilitado por defecto. La prevención de las tormentas de broadcast mediante el establecimiento de valores demasiado altos o bajos de umbral descarta el tráfico MAC excesivo de broadcast, multicast o unicast. Además, la configuración de valores para elevar umbrales en un switch puede desactivar el puerto.

Storm Control usa umbrales para bloquear y restaurar el reenvío de paquetes usa un método basado en ancho de banda. Los umbrales se expresan como un porcentaje del total de ancho de banda que puede ser empleado para cada tipo de tráfico.


En este ejemplo, el control de tormentas de tráfico se produce entre los tiempos T1 y T2 y entre T4 y T5. Durante estos intervalos, la cantidad de tráfico de difusión excede el umbral configurado.



Los números de umbral de control de tormentas de tráfico y el intervalo de tiempo permiten que el algoritmo de control de tormentas de tráfico a trabajar con diferentes niveles de granularidad. Un umbral más alto permite que más paquetes pasen a través.




Spanning Tree Protocol


El protocolo STP (Spanning Tree Protocol, protocolo del árbol de expansión) es un protocolo de Capa 2 que se ejecuta en bridges y switches. La especificación para STP se denomina IEEE 802.1D. El principal objetivo de STP es garantizar que se impida la creación de bucles en trayectos redundantes en la red.

Cuando se agregan enlaces adicionales a switches y routers de la red, se generan bucles en el tráfico que deben ser administrados de manera dinámica. Cuando se pierde la conexión con un switch, otro enlace debe reemplazarlo rápidamente sin introducir ningún bucle nuevo en el tráfico

El STP (Spanning Tree Protocol) es un estándar utilizado en la administración de redes, basado en el algoritmo de Árbol Abarcador, para describir como los puentes y conmutadores puedes comunicarse para evitar bucles en la red.

El protocolo STP automatiza la administración de la topología de la red con enlaces redundantes, la función principal del protocolo spanning-tree es permitir rutas conmutadas/puenteadas duplicadas sin considerar los efectos de latencia de los loops en la red.

Al crear redes tolerantes a las fallas, una ruta libre de loop debe existir entre todos los nodos de la red. El algoritmo de spanning tree se utiliza para calcular una ruta libre de loops. Las tramas del spanning tree, denominadas unidades de datos del protocolo puente (BPDU), son enviadas y recibidas por todos los switches de la red a intervalos regulares y se utilizan para determinar la topología del spanning tree.

La topologia que maneja este protocolo es la siguiente basada en la redundancía.





Referencias:


    STP Spanning Tree Protocol
http://ciscofacil.webs.com/apps/videos/videos/show/3900857
Fecha de consulta: 01/Sep/2017

·         Spanning Tree Protocol
http://www.slideshare.net/fpnetzone/stp-spanning-tree-protocol-1

Fecha de consulta: 01/Sep/2017

Introducción y configuración del Spanning Tree Protocol (STP) en los switches Catalyst
http://www.cisco.com/cisco/web/support/LA/7/73/73037_5.html
Fecha de consulta: 01/Sep/2017

Cisco Nexus 7000 Series NX-OS Security Configuration Guide, Release 4.1
http://www.cisco.com/c/en/us/td/docs/switches/datacenter/sw/4_1/nx-os/security/configuration/guide/sec_nx-os-cfg/sec_storm.html

Fecha de consulta: 01/Sep/2017

viernes, 25 de agosto de 2017

¿Que son las comunicaciones Unificadas?

Comunicaciones Unificadas


La comunicaciones unificadas (CU) pretenden facilitar y aumentar la eficiencia de las comunicaciones en organizaciones a través de soluciones y aplicaciones que integran voz, datos y vídeo. Su modo de operación consiste en unificar las aplicaciones de comunicación con las de los negocios a través de unas sola experiencia para el usuario.

Las organizaciones actualmente afrontan retos de comunicación mas complejos que anteriormente donde necesitan valerse de varios servicios que son necesarios para el desarrollo de sus actividades. Entre ellos destacan los enlaces telefónicos tradicionales y de IP, mensajería de voz, correo electrónico, fax, enlaces entre dispositivos móviles y aplicaciones de vídeo y audio conferencia.

En términos generales las CU pretenden facilitar y aumentar la eficiencia de trabajo dentro de una organización, En este escenario, ofrecen un nuevo conjunto de soluciones y aplicaciones para ayudar a las organizaciones a comunicarse de manera mas efectiva.

Concebidas como concepto que utiliza tecnologías avanzadas para deshacer  los actuales sistemas que se  basan en el uso de dispositivos  y estructuras de comunicaciones centradas en red, tales como correo electrónico, mensajería instantánea, telefonía y conferencias multimedia.

¿Pero cuales son los componentes de las comunicaciones unificadas?

La siguiente imagen nos muestra cuales son los servicios que buscamos integrar bajo esta tendencia
Ventajas que ofrece CU:

  • Mejorara sustancialmente los procesos de negocios de las empresas.
  • Integración de aplicaciones de negocio con aplicaciones de comunicaciones.
  • Una sola experiencia al usuario.
  • Interoperabilidad de diversos fabricantes.
  • Acceso dinámico a los recursos de la empresa y mejor atención a clientes.
  • Experiencia consistente a través de diferentes localidades.
  • Colaboración, movilidad, servicios de presencia, mensajería, etc.


Alejandro Bourg, Director de la Alianza Microsoft-Nortel Enterprise CALA, indica que, actualmente, en las grandes organizaciones existe una enorme necesidad de eliminar ambientes completamente distintos y disociados. "Hoy como usuario final quiero hacer telefonía por lP, tengo mi cliente y programa que corre a través de mi PC; por otro lado, tengo e-mails y una herramienta de  mensajería instantánea para chat en distintos ambientes, lo cual buscamos integrar". Para resolverlo cree que la mejor fórmula son los sistemas basados en tecnología lP , los cuales asegura que desplazarán los sistemas analógicos.

El directivo de la Alianza M icrosoft-Nortel consideró que otros elementos para el impulso de las CU son los avances en el desarrollo de hardware para teléfonos a demás de una nueva clase de teléfonos lP en proceso de producción que son más económicos que sus antecesores y permiten obtener mejores prestaciones, en comparación con los teléfonos de línea.

Consultado por RED, el directivo de Avaya expresa que la manera de hacerlo es a través de soluciones y arquitecturas abiertas SOA (Services Oriented A }rchitectures), que permiten una interoperabilidad de  diversos fabricantes y contar con aplicativos como colaboración, presencia, movilidad, mensajería, telefonía lP, click to call, entre otros, a través de un solo dispositivo de comunicaciones (software o hardware), garantizando unas ola experiencia al usuario.



Organizaciones mexicanas ya tienen CU

Pero, en los hechos, algunas importantes organzaciones mexicanas ya están trabajando bajo el concepto de CU. Algunas de ellas, como Grupo Bimbo y Cementos Mexicanos (Cemex), cuentan con una amplia infraestructura de comunicaciones unificadas donde figuran los datos, la voz y videoconferencia como los principales recursos.

Dichas empresas lo han estado usando principalmente para disminuir costos de operación en  sus comunicaciones, aunque para empresas más pequeñas, con menos recursos tecnológicos las CU son todavía  una tecnología que está en proceso de maduración. 

Respecto a los principales proveedores de  productos y soluciones de  CU, se destaca que, en el ámbito de proveedores Cisco Systems y Avaya están muy posicionados en México y no vemos a  más en el corto plazo.

Sin embargo, tarde o  temprano las empresas tendrán que implementar CU para ser más eficientes y poder competir en un mundo globalizado, argumenta SaúlO livera, de Avaya, aunque aclara que se tiene que dar en tres fases, por las cuales caada una de las empresas tienen que pasar:

  1. Comunicaciones Tradicionales.
  2. ComunicacioneCso nvergentes.
  3. Comunicacionelnst eligentes (Comunicaciones Unificadas).


La primera fase se refiere a contar con redes separadas de voz y datos y tal vez, contar con gafeways de VolP para conectarlos PBX tradicionales o multilíneas y pasar voz de un extremo de la red a otro.

La segunda fase se refiere a la integración de aplicaciones de voz vídeo y datos a  través de una misma infraestructura lP, en la cual comienza a  haber optimización de procesos de negocios.

Y finalmente la tercera fase, en donde las aplicaciones de  comunicaciones  se  integran  las  de negocios de  multimedia y la experiencia única al usuario entre otros, que es lo que Avaya denomina fase de Comunicaciones Inteligente.

De acuerdo con Sage Research, 86% de las empresas que utilizan CU logró incrementar su productividad y más del 60% logró ahorrar  es o más horas por semana por cada empleado móvil.


Fuente: "Comunicaciones Unificadas" por Jose Antonio Ramirez.

viernes, 18 de agosto de 2017

Windows Server 2016

Windows Server 2016
Versiones y características.



El mas reciente sistema operativo enfocado a Servidores que ha lanzado la compañía de Microsoft es Windows Server 2016. Como ya es costumbre desde el 2012 no había aparecido una nueva edición del sistema operativo hasta el pasado 2016. Esta edición sigue la línea de su antecesor con versiones Datacenter, Standard, Essentials, etc.

Y como aun tenemos que esperar unos años mas para que aparezca un nuevo Windows Server en el 2020, debemos analizar las ediciones del actual software; para así elegir el que mas se adecue a nuestras necesidades y nuestro presupuesto.



¿Pero cuáles son esas versiones?...


Bueno las versiones con las que cuenta Windows server 2016 son las siguientes:

VERSIONES

  • Windows Server 2016 Datacenter: Idóneo cuando se necesita dotar al centro de datos de altas capacidades de virtualización.
  • Windows Server 2016 Standard: Para entornos físicos o con menor índice de virtualización.
  • Windows Server 2016 Essentials: Para pequeñas empresas con hasta 25 usuarios y 50 dispositivos, pero con restricciones relevantes con respecto a las versiones completas.
  • Windows Server 2016 MultiPoint Premium Server: Permite el acceso de múltiples usuarios a un PC, sólo disponible con licencia académica.
  • Windows Storage Server 2016: Para soluciones OEM de almacenamiento dedicado. Disponible en Standard y WorkGroup solo a través de canal OEM.
  • Microsoft Hyper-V Server 2016: Descarga del Hypervisor.

Si comparamos algunas de las versiones de esta edicion 2016 encontramos lo siguiente:


Podemos ver las diferentes opciones con las que contamos en cada una de las versiones, algunas nos ofrecen mayor potencia de trabajo, mayor capacidad de virtualización y mayores funciones de red.

Del mismo modo como son distintas las capacidades de dichas versiones podemos encontrar en la siguiente imagen las diferencias en los precios de los distintas versiones del Sistema Operativo de Microsoft.














Los clientes pueden elegir entre tres ediciones principales de Windows Server, basadas en el tamaño de la organización, así como en los requisitos de virtualización y centro de datos.


  • Datacenter Edition es ideal para entornos de centro de datos altamente virtualizados y definidos por software.
  • Standard Edition es ideal para clientes con entornos de baja densidad o no virtualizados.
  • Essentials Edition es un primer servidor conectado a la nube, ideal para pequeñas empresas con hasta 25 usuarios y 50 dispositivos. Essentials es una buena opción para los clientes que utilizan actualmente Foundation Edition, que no está disponible con Windows Server 2016.


A grandes rasgos estos son los mas destacados aspectos y enfoques de las versiones de la mas reciente versión de Windows Server, depende de nosotros elegir cual es la que necesitamos para nuestra organizacion y buscar explotar de la mejor manera posible nuestra licencia de este potente software enfocado a los servidores y los servicios que estos nos pueden ofrecer.

jueves, 24 de noviembre de 2016

Herramientas de monitoreo de servidores y redes

Herramientas de monitoreo de servidores y redes

A la hora de dar servicio en una organización, sus redes suelen ser uno de los principales elementos a tener muy en cuenta para evitar que dejen de dar servicio. Si las redes dejan de funcionar y no se transmiten datos el servicio deja de darse a los clientes de la organización.
Por esta razón, es muy importante hacer un correcto monitoreo de red. El objetivo de todo administrador de sistemas es el de mantener las redes en pleno funcionamiento el 100% del tiempo. Las herramientas de monitoreo de red nos ayudarán a detectar posibles problemas que provocarán el colapso y/o la caída de las redes.

Cada instalación es un mundo diferente y no todas las herramientas de red valen para un entorno determinado.
Características a tener en cuenta en nuestro software de monitoreo de red
·         Comunicación de las alertas.
·         Integraciones con servidores externos.
·         Usabilidad y presentación de los datos en el panel.
·         Flexibilidad a la hora de adaptarse a herramientas o software particulares.
·         API de acceso desde sistemas externos.
·         Detección de dispositivos de forma automática.
·         Integraciones con Bases de Datos
·         Multidispositivo
·         Escalado
·         Soporte del mayor número de protocolos de adquisición de datos posible
·         Seguridad
·         Integración con máquinas virtuales
·         Integraciones hardware
·         Control remoto
·         Inventario de Hardware y Software
·         Gelocalización
·         Monitorización de la nube

Monitoreo de Red Básico

 El control básico del monitoreo de red es el del control de los mensajes syslog y el control del ancho de banda.

¿Qué son los mensajes syslog?

Los mensajes syslog son mensajes generados por los equipos de comunicación y enviados a un servidor central donde se almacenan todos. La monitorización de los mensajes syslog se basará en la recolección de estos mensajes en un mismo servidor para su análisis y configuración de alarmas.
Por ejemplo, con nuestro servidor syslog podremos recibir todos los intentos fallidos de acceso a la web y lanzar una alarma cuando haya más de 10 accesos fallidos en un minuto.
nuestro monitor de red debe generen mensajes legibles (formato HTML) y que puedan ser enviados a distintos dispositivos (mail, móvil u otras herramientas) mediante diferentes protocolos (Whatsup, SMTP, push, etc).

Integración con sistemas externos

Es muy importante que nuestro sistema de monitoreo de red nos permita no sólo medir el ancho de banda y el estado de los enlaces de conexión entre máquinas. También es muy importante que esta herramienta sea capaz de monitorizar diferentes servidores como servidores de email, servidores de aplicaciones web, servidores de aplicaciones CRM, etc.

Nagios

Probablemente la herramienta libre más conocida. Desde 1996 trabajando en USA para construir este software de monitorización. Su core es la parte más importante de la herramienta y sobre el core se pueden construir plugins para monitorizar elementos particulares.
Nagios XI proporciona una monitorización de todos los componentes de la infraestructura de misión crítica, incluyendo aplicaciones, servicios, sistemas operativos, protocolos de red, métricas de sistemas y la infraestructura de red
Es interesante ver como la tendencia de la demanda en Internet ha ido disminuyendo con el paso del tiempo. Lo que antes fue una de las más potentes y conocidas herramientas de red está perdiendo terreno.
Su gran uso es debido a que fue el primer jugador que desarrolló una herramienta que cubría características indispensables en una monitorización de red. Por esta razón, Nagios fue muy popular. Además, debido a su gran penetración de mercado inicial sigue siendo muy utilizada.
Ventajas
·         Se encuentran muchos perfiles con experiencia Nagios
·         Si se tiene gran conocimiento de la herramienta, la configuración manual puede darle mucha potencia a la hora de monitorizar casos aislados y particulares.
·         Ofrece muchos plugins para adaptar Nagios a las necesidades del usuario
·         Para la configuración básica es muy fácil.
Inconvenientes
·         Configuración y edición compleja debido a la necesidad de hacer modificaciones de forma manual para dejar lista la herramienta.
·         El interfaz gráfico carece de una buena usabilidad
·         Coste de aprendizaje elevado
·         Cada instalación al final resulta un “puzzle” en el que más que un producto estándar tenemos una implementación propia, con cientos de parches, código propio o de terceros y complicada de evolucionar o de mantener por terceros.
·         Informes sencillos
·         Muy pobre en su tratamiento de SNMP, tanto de polling como de gestion de traps.

En resumen, Nagios fue el origen de la monitorización y de hecho, muchas nuevas herramientas de monitoreo de redes han heredado el código de Nagios y lo han evolucionado. Aunque tienes muchos perfiles en el mercado, estos deben tener un conocimiento muy técnico y tu instalación dependerá de ellos al 100%. La futura migración podrá ser complicada.
MRTG
MRTG (Multi Router Traffic Grapher) es una herramienta, escrita en C y Perl por Tobias Oetiker y Dave Rand, que se utiliza para supervisar la carga de tráfico de interfaces de red. MRTG genera un informe en formato HTML con gráficas que proveen una representación visual de la evolución del tráfico a lo largo del tiempo.
Para recolectar la información del tráfico del dispositivo (habitualmente routers) la herramienta utiliza el protocolo SNMP (Simple Network Management Protocol). Este protocolo proporciona la información en crudo de la cantidad de bytes que han pasado por ellos distinguiendo entre entrada y salida. Esta cantidad bruta deberá ser tratada adecuadamente para la generación de informes

Funcionamiento


MRTG ejecuta como un demonio o invocado desde las tareas programadas del cron. Por defecto, cada cinco minutos recolecta la información de los dispositivos y ejecuta los scripts que se le indican en la configuración.

En un primer momento, MRTG consultaba la información, la procesaba y generaba el informe y las gráficas. En las últimas versiones, esta información es almacenada en una base de datos gestionada por RRDtool a partir de la cual, y de forma separada, se generan los informes y las gráficas.

MRTG consiste en un script en Perl que utiliza SNMP para leer los contadores de tráfico de sus routers y un programa rápido C que registra los datos de tráfico y crea bellos gráficos que representan el tráfico en la conexión de red monitorizada. Estos gráficos están incrustados en páginas web que se pueden ver desde cualquier navegador web moderno.
Ventajas de mrtg
·         Es un programa realmente popular, asi que es bastante sencillo encontrar ayuda o scripts ya creados y listos para recoger datos de los diferentes elementos que queramos tener bajo control.
·         Esta escrito en perl. aso que es un programa que funciona en multiples plataformas, incluyendo Windows NT/2000 (Los scripts de terceros suelen ser especificos para una plataforma concreta)
·         No es complicado de configurar, pudiendo tener una configuracion funcional en menos de 30 minutos
·         Permite establecer alarmas
·         Soporta IPv6
·         La recogida de datos es altamente configurable, puediendo usar SNMP o plugins

Desventajas de mrtg

·         En maquinas actuales quiza no sea algo que se note demasiado, pero el hecho de estar escrito en perl y que gran parte de los scripts de recoleccion de datos tambien esten en perl hace que en maquinas pequeñas el rendimiento se resienta.
·         Es un programa monolitico y secuencial. Incluso con las partes que hay escritas en C, el programa es lento. El codigo del programa principal son 1700 lineas, donde se mezcla el parser del archivo de configuracion, las rutinas de SNMP, la gestion del log clasico y de las bases de datos round-robib. Tras la recoleccion de los datos, se llama inmediatamente a rateup, programa encargado de actualizar los logs y generar las graficas. Este planteamiento hace que las graficas se generen siempre, vayan a ser vistas o no y que haya que procesa una parte del mrtg.pl que quiza ni siquiera vayamos a usar. Parte del problema de cargar cada X minutos el interprete de perl y partes del codigo que no se vayan a usar, puede amortiguarse usando el mrtg en modo daemon.
·         No es cliente/servidor. Bien, este problema se puede paliar de diferentes formas: teniendo un mrtg central y N daemons de snmp corriendo en el resto de maquinas, o bien teniendo varios mrtg locales a cada maquina y sincronizando los cambios en las graficas mediante rsync para poder verlos en la "consola de administracion"
·         Las graficas que hace estan "desaprovechadas", por decirlo de alguna manera. Rateup solo pinta dos variables en un grafico, tipicamente bytes/s de entrada y de salida debido al origen del programa, asi que si necesitamos poner mas variables (por ejemplo, controlar el tamaño de 3 particiones de un HDD), deberemos usar dos graficas.
·         Solo puede usarse con valores enteros, por lo que para usar valores en coma flotante, como la carga de una maquina tal y como la ofrece `uptime`, hay que pasarlo a coma fija.

Actualmente este sistema es utilizado en muchas empresas de nuestro país las cuales monitorean el tráfico de sus redes y subredes, además de que permite tener la información online y al momento del estado de la red.

NTOP
Ntop es una herramienta que permite monitorizar en tiempo real una red. Es útil para controlar los usuarios y aplicaciones que están consumiendo recursos de red en un instante concreto y para ayudarnos a detectar malas configuraciones de algún equipo, facilitando la tarea ya que. justo al nombre del equipo, aparece sale un banderín amarillo o rojo, dependiendo si es un error leve o grave, o a nivel de servicio.
Posee un microservidor web desde el que cualquier usuario con acceso puede ver las estadísticas del monitoreo. El software está desarrollado para plataformas Unix y Windows.
En modo web, actúa como un servidor de Web, volcando en HTML el estado de la red. Viene con un recolector/emisor NetFlow/sFlow, una interfaz de cliente basada en HTTP para crear aplicaciones de monitoreo centradas en top, y RRD para almacenar persistentemente estadísticas de tráfico.
Los protocolos que es capaz de monitorizar son: TCP/UDP/ICMP, (R)ARP, IPX, DLC, Decnet, AppleTalk, Netbios, y ya dentro de TCP/UDP es capaz de agruparlos por FTP, HTTP, DNS, Telnet, SMTP/POP/IMAP, SNMP, NFS, X11.

Solarwinds
Heramienta de monitoreo de redes que destaca por su automático mapeo de redes y nodos sin necesidad de acciones manuales. Interfaz gráfico bastante potente en el que se puede ver fácilmente la topología de red y el estado de la misma. Solarwinds permite integrar máquinas virtuales en su monitorización
Su tendencia demuestra que tras haber tenido un éxito aplastador en 2004 y 2005, desde entonces se ha producido un descenso el cual ahora se encuentra relativamente estancado.
Ventajas
·         Gran interfaz gráfico
·         Muy buena comunidad detrás de SolarWinds.
·         Acceso desde dispositivos móviles
Desventajas
·         Configuración de alertas manual y por fichero
·         Se debe mejorar el sistema de generación de informes
·         No se integra con aplicaciones en la nube como Amazon
·         No se pueden realizar todas las operaciones desde el mismo panel y hay que acceder a otras herramientas.
·         Su licencia hace que cada haya que estar mirando cada chequeo, ya que se licencia por cada uno de ellos.
Pros:
§  Excelente diseño de interfaz de usuario
§  , La cartografía de la red automatizado Personalizable
§  Gran apoyo de la comunidad proporcionado por Thwack
§  Acceso móvil
§  Soporte VMware nativo
Contras:
§  No se puede configurar alertas de la web de la consola;
§  Configuración Clumsy “Grupo de Dependencia”
§  Módulo de informes necesita mejores informes ad-hoc;
§  No hay soporte nativo para Microsoft Hyper-V. Características SNMP solamente.