Cisco usa virtualización en Linux y CPU de 40 núcleos en su siguiente generación de routers

En el blog de Colin McNamara, experto en diseño e implementación de redes que ostenta un CCIE, en un recinte post del lunes pasado (10 de marzo), se comenta la reciente presentación por parte de Cisco System de una nueva serie de routers llamado Aggregation Services Router, o de forma abreviada ASR. Esta serie de routers está principalmente dirigida al mercado de los proveedores de servicios, donde es identificado como una solución de chasis único, para lo que se llama la "triple play", servicios de integración de voz, vídeo y datos. Aunque con más precisión que se podría hablar de  "cuádruple play" pues permite la integración de voz, vídeo, datos y seguridad. El ASR1000 logra ésto por el apalancamiento de tecnologías claves. Se trata de un nuevo sistema operativo, el IOS-EX que utiliza el núcleo Linux como base, y el nuevo procesador de 40 núcleos Cisco QuantumFlow.

IOS-EX toma los mejores elementos del Internet Operating System (IOS), que tiene sus raíces en un armario en Stanford, y lo combina con los de mayor éxito del OpenSource Linux. Cisco esta apalancando las tecnologías de virtualización de Linux como es la Kernel Based Virtual Machine para proteger al sistema operativo contra fallos, así como para permitir el In Service Software Upgrades (ISSU).

Para apreciar realmente esto, primero tenemos que sumerjirnos debajo del conjunto de los cambios arquitectónico del ASR1000. El mayor cambio que Cisco ha hecho ha sido separar los planos de transmisión y control. En el pasado, los routers Cisco eran responsable de los procesos de transmisión del tráfico, y de los procesos de la configuración del router todo esto ejecutandose en el mismo sistema operativo raíz. El efecto secundario de esto es que, si se desea actualizar la raíz del sistema operativo de tu router, te van a tener interrumpir el tráfico que fluye a través de él, o con un procesador de ruta separadas físicamente para asumir la vez que reinicie. Este es un gran dolor de cabeza operacional, y efectivamente ha obligado a los ingenieros ha diseñar un chasis separando fisicamente para satisfacer las necesidades de alta disponibilidad actuales.

Lo que Cisco ha hecho para solucionar este problema, ha sido crear copias espejos de los cambios hechos en el almacenamiento y arrastrar los portafolios de ruteo. Ambas líneas de productos utilizan el sistema operativo para empujar los comandos dentro de un avanzado procesador que existe en la línea de tarjetas en sí misma. Las tarjetas de la línea ASICS estan diseñadas para trabajar de una manera distribuida, así el tráfico mientras está en producción nunca va a el procesador del router. Esto en efecto asegura que el plano de control y el plano de tráfico de datos pueden existir como elementos independientes.

Al separar los planos de transmisión y el control, lo que permite a Cisco básicamente ejecutar una estación de gestión en el ruter, que programa el conjunto de chips en la línea de tarjetas al vuelo. Aquí es donde reside el verdadero poder de esta arquitectura. Al separar estas dos funciones, los ingenieros de software están en libertad de poder utilizar poderosas tecnologías OpenSource como la Kernel-based Virtual Machines, y el kernel Linux, mientras que permite a los ingenieros que diseñan los circuitos acelerar el tráfico a través de las líneas.

Google File System

Buscando en los papers de Google Labs, encontré este interesante PDF titulado "The Google File System", aunque el documento data del 2003, tiene muy importante información sobre cómo Google ha diseñado un sistema de archivos a medida (GFS) basado en un clusters de máquinas de bajo costo, que garantice un alta disponibilidad y confiabilidad. Para ello han tomado ciertos criterios de diseño que pueden no ser generalmente aplicables a todo tipo datos, pero que sin duda son parte de su éxito como buscador los servicios que ofrece cómo Gmail, Google Docs, etc.

El documento esta en inglés, pero me ha parecido tan interesante que planeo traducirlo, son 15 páginas, asumo que la traducción completa me tomará como un mes, pues no dispongo de todo el día para dedicarlo a ello, pero si alguien se anima a darme una mano, pues es bienvenida, así a lo mejor esta listo antes.

Por lo pronto aquí la traducción del resumen ("abstract") del documento:

Nosotros hemos diseñado e implementado el Google File System, un sistema de archivos distribuido y escalable para aplicaciones distribuidas que accesen intensivamente a los datos. Éste provee tolerancia a fallos mientras mientras corre sobre computadoras de bajo costo, y es capaz de generar un alto rendimiento a un gran número de clientes.

Mientras compartimos muchos de los objetivos de otros sistemas de archivos distribuidos, nuestro diseño se basa en criterios obtenidos de la observación del flujo de datos de nuestras aplicaciones y el entorno tecnológico, tanto el actual como el futuro, que refleja un marcado alejamiento de algunas suposiciones iniciales de sistemas de archivos.  Esto nos ha llevado a reexaminar las opciones tradicionales para el diseño de sistemas de archivos y explorar nuevos puntos de vista radicalmente diferentes.

El sistema de archivos ha cumplido exitosamente nuestras necesidades de almacenamiento. Y es ampliamente usado en Google como la plataforma de almacenamiento para la generación y procesamiento de datos, usados por nuestros servicios así cómo también en nuestros trabajo de investigación y desarrollo que requiere grandes conjuntos de datos. El cluster más grande a la fecha provee cientos de terabytes de almacenamiento a través de miles de discos en un número equivalente de computadoras, y es accesado simultáneamente por cientos de cliente.

En este documento presentaremos los alcances del diseño del sistema de archivos para soportar aplicaciones distribuidas, discutiendo muchos de los aspectos de nuestro diseño y mostraremos reportes de nuestras mediciones tanto de micro-benchmark (pruebas de laboratorio) como su uso en el mundo real.

Si Wikipedia vendiera publicidad haría millones

En un interesante artículo publicado el día de ayer en Los Angeles Times, se da cuenta de una interesante paradoja. Mientras Wikipedia está dentro de las páginas más visitadas de Internet, con más de 300 millones de visitas diarias, ocupa la novena posición en el ranking de Alexa, sin embargo sufre mucho para recaudar fondos para mantener el proyecto funcionando. De acuerdo a LA Times, el presupuesto anual de Wikipedia es U.S.$ 4.5 millones, sin embargo anualmente sólo puede conseguir 45,000 personas que colaboren con el proyecto, y la cantidad promedio que aporta cada uno es de $33.  El resto del dinero es aportado por donaciones de grandes colaboradores cómo Stephen J. Luczo de Seagate Technology y el vocalista de la popular banda de rock U2 Bono.

Sin embargo si Wikipedia pusiera publicidad en sus páginas, se estima que podría hacer varios millones de dólares anualmente. Lo que no queda claro es por qué no lo hace. Sin embargo lo que si esta claro son las tremendas estrecheces económicas por las que atraviesa éste proyecto de enciclopedia on-line. Por ejemplo en el artículo se mencionan que internamente hay mucha ansiedad en la compañía sobre los fondos y las donaciones, e incluso se habla puntualmente del caso de una serie de e-mails que discutían las implicacias tributarias de aceptar donaciones individuales de más de $200.

En lo personal creo que la publicidad es una buena forma de monetizar websites, después de todo si el contenido es bueno, la publicidad no auyentará ni las visitas ni a los colaboradores que escriben artículos, después de todo el mantener el data center que necesita Wikipedia para servir esos 300 millones de páginas diarias, no es gratis y el usuario promedio lo sabe.

Un engaño tipo Phishing devela graves debilidades en la seguridad de Gmail

El día de ayer en un artículo aparecido en  TechCrunsh, se da cuenta de que una popular aplicación para almacenar passwords y hacer copias de seguridad de las cuentas gmail en el disco duro llamado GArchiver, resulto ser una estafa de tipo fishing, que robaba las cuentas y contraseñas y las enviaba al autor del programa. Que de esa manera tenía acceso a miles de cuentas gmail, y a través de ellas a todos los servicios que las usaban como credenciales válidas, dentro de ellos estan AdWords, AdSense, Google Analytics, Google Docs, Blogger, etc. Pues una vez conocido el usuario y password de gmail, se podía accesar a todos esos servicios de Google y gracias a la tremenda popularidad que esta ganando OpenID, con las mismas credenciales se puede accesar a miles de otros servicios que cofían en la validación de gmail.

Así que si Ud. es un usuario de gmail y usaba GArchiver cómo respositorio de claves, dado a que tenía múltiples cuentas, pues la recomendación es que desinstale inmediatamente GArchiver y posteriormente le cambie la clave a su cuenta de gmail.

Esta falla revela la débil seguridad detrás de los servicios en línea que ofrece Google, ya que toda la protección recae sobre el password, que una vez que es obtenido, ya sea por un sistema de engaño como el caso de GArchiver, o uno de fuerza bruta, se puede accesar información importante, que puede compremter no solamente a usuarios individuales, sino también a empresas que usen Google Docs, cómo su plataforma de oficina, por sus vajos costos y su tremenda capacidad de compartir información y trabajar colaborativamente.

Muchos expertos han criticado esta debilidad y aseguran que Microsoft Exchange y Sharepoint, suelen ser una plataforma más segura para las empresas, aunque definitivamente más costosa. Aunque hay que recordar que Exchange y su programa cliente Outlook, han sufrido multitud de ataques a largo de los años, y no son tampoco 100% seguros.

Esperemos que pronto Google encuentre una solución a este grave fallo de seguridad, conservando la facilidad de uso actual, y la capacidad sin par de trabajar de forma colaborativa con Google Docs.

Google opina que los ataques virales a través del spam se volveran más inteligentes

En un artículo publicado el día de hoy en eWeek, la conocida división anti-spam de Google, Postini, ha declarado que el spam está mutando a formas más sofisticadas y apalancandose en eventos de gran resonancia cómo el super bowl o las olimpiadas, aprovecha el interes general por estas noticias colar en las grande corporaciones a través del spam, virus inteligentes que buscan como sus objetivo las cuentas de correo de los ejecutivos más encumbrados de las organizaciones para poder robar información valiosa que tenga un alto precio en el mercado negro.

Una hecho que refuerza esta idea, es que en un informe hecho público por Postini el 6 de marzo, de una encuesta a 575 profesionales que administan data centers, se encontró que el spam había aumentado en un 57% durante el 2007. El tamaño de los e-mails de spam también aumentó considerablemente, así como las fuentes de spam incluyen tambien ahora imágenes, archivos. Pdf, documentos word, hojas de cálculo, e incluso archivos multimedia para engañar a los filtros anti-spam, según los autores de dicho informe, Swidler Adam, director de marketing de soluciones de alto nivel para Postini.

Las técnicas de ingeniería social tratan de burlar la seguridad de la red de computadoras y mediante la manipulación de usuarios llevar a cabo acciones que les permitan accesar a datos confidenciales. El robo de identidad sería realizado en grandes cantidades a través de ataques generados por los usuarios de los sitios Web, tales como las redes sociales, los blogs y sitios de subasta.

El panorama que pinta Postini para este 2008 ciertamente es inquietante, y bien vale la pena hacerle caso y usar un OS más seguro que Windows, y de no ser esto posible contar con un buen programa anti-virus/anti-spam, ciertamente actualizado.