Mapa de los datacenter de Google

Google es sin duda una de las empresas que más infraestructura web ha desplegado, hasta tal punto que cuando dejo de anunciar sus webservers como "Apache", pues en realidad es una versión modificada del mismo y comezó ha usar como identificación de los mismos "gws" (abreviatura para Google Web Server), la diferencia entre Apache e IIS bajo drásticamente.

Google es sin duda una de las compañías con más peso específico en Internet, quizá para darnos una idea de su tamaño podríamos mencionar que de acuerdo a los balances presentados por Google, en el año 2006 el gasto en datacenters fue de 1,900 millones de dólares y en el 2007 fue de 2,400 millones de dólares. Y el año pasado presentó el proyecto de 4 nuevos datacenter cada uno con un costo estimado de construcción (edificios + servidores) de $600 millones.

Sin embargo a pesar de su tamaño y notoriedad no está claro cuántos y cuáles son los datacenters de Google, pues además de la infraestructura propia, usualmente despliega servidores en datacenters comerciales. Pero en un artículo publicado ayer en el blog de Royal Pingdom, se informa de la existencia de 19 datacenters en USA, 12 en Europa, 1 en Rusia, 1 en Brasil y 3 en Asia. Ésto segun la investigación realizada por dicho blog, pues Google oficialmente no anuncia la ubicación de sus datacenter y usualmente esconde su ubicación geográfica, pues todos los registros de WHOIS de las IP’s asignadas a Google están apuntando a su oficina principal en Mountain View, California, aunque de hecho ésto no sea correcto.

Aquí les dejo un mapa de los 36 datacenter de Google identificados por el autor del blog que les comentaba anteriormente y que mantiene su nombre en el anonimato.

GoogleDatacenters

Nuevo tipo de memoria permitiría almacenar 500,000 canciones en un iPod

En un artículo que he leído en CrunchGear, se informa de un nuevo tipo de memoria desarrollado por IBM que puede almacenar más de 100 veces lo que contienen actualmente las memorias Flash, y con una fracción de su consumo de energía. Para poder entender el alcance de ésta tecnología se ha hecho la comparación con el iPod, así un iPod Classic puede almacenar actualmente 40,000 canciones, con éste nuevo tipo de memorias, podría almacenar casi medio millón de canciones (500,000).

IBM llama a éste nuevo tipo de memorias "racetrack", y basa sus altas prestaciones en el hecho de que la información es almacenada en una propiedad física de los electrones que se llama spin. Y a diferencia de la actual tecnología Flash que puede ser leída múltiples veces, pero sólo escrita un número limitado, la tecnología racetrack, permitiría lecturas/escrituras ilimitadas, y con una fracción de consumo de energía, los investigadores de IBM opinan que las baterías convencionales podrían ser usadas por semanas con éstas memorias.

Definitivamente éste tecnología podría significar no solamente una mayor capacidad de almacenamiento en los dispositivos móviles que conocemos, sino que podría representar el final de los discos duros, al menos en las laptops, puesto que los discos duros tienen partes móviles y son bastante sensibles a golpes y vibraciones.

Motin en Flickr

En la revista Wired, se da cuenta de cómo desde el mismo día de su introducción al mercado de la nueva característica de Flickr, el pasado marte 8 de abril,que permite subir videos de hasta 90 segundos de duración, ha generado malestar entre varios miles de usuarios del popular servicio de compartir fotos de Yahoo!, y se han formado al menos dos grupos de usuarios que están en contra de la nueva característica de Flickr, uno es llamado "Nosotros decimos NO al Video en Flickr", que ya ha logrado reunir a 22,000 usuarios de Flickr, y el otro grupo es "No Videos en Flickr", que ya cuenta con 9000 miembros.

Jason Bouwmeester, el system administrator del grupo "No Videos en Flickr", expreso la razón de su oposición con éstas palabras: "El mayor problema es la forma cómo se ha implementado, No hubo un beta público anterior al lanzamiento… y sencillamente resetearon las preferencias de todos los usuarios". Además otros usuarios expresan que desde la introducción de los videos, el site se he vuelto lento, además de que ésta acción desvirtúa el propósito inicial del site que fue estar dedicado a la fotografía.

Los usuarios de Flickr que protestan contra la nueva característica han creado además un formulario en 5 idiomas para solicitar la remoción de la nueva característica, que puede ser visto en el grupo de discusión "NO VIDEO ON FLICKR". Habiendo ya firmado la solicitud más de 5000 usuarios. Además de que existen varios logos para incluir en las páginas web de los usuarios que se han unido a la campaña, para expresar el descontento y que pueden ser descargados desde el taggin "novideo".

Hay que recordar sin embargo que los usuarios más puristas de Flickr, se caracterizan por éste tipo de reacciones, no está de mas recordar que en el 2005 cuando Yahoo! compra Flickr, muchos usuarios del servicio amenazaron un un "suicidio masivo". Y luego en Febrero de éste año cuando Microsoft y Yahoo! estaban en negociaciones para la adquisión del portal por parte de Microsoft, hasta organizaron manifestaciones en las calles para protestar por la venta a Microsoft, e incluso hicieron campaña sacando logos alusivos al acontecimiento.

En lo personal no uso el servicio de Flickr, así que no forma parte de la discusión, pero si no desean esa característica, pues que sencillamente no la usen, o en el mejor de los casos que se separen de Flickr y creen su propio portal de fotos, total Internet es libre, y cada quién puede formar la comunidad que se le antoje, éste tipo de protestas además de ser inútiles, muchas veces distraen la atención de problemas más relevantes como el posible monopolio de Google de todo el negocio de la publicidad en Internet, o la pretenciones de Microsoft de querer monopolizar la red también.

Windows está colapsando

Ese es el título con el que ha aparecido el día de hoy un artículo en ComputerWorld, que cubre la presentación hecha por dos analistas de Gartner Group, Michael Silver y Neil MacDonald, en su ponencia titulada "Windows está colapsando: Cómo y qué vendra en la siguiente mejora", realizada en Las Vegas.

En el artículo se señala claramente el hecho de que Windows necesita hacer cambios radicales que lo vuelvan más competitivo o se enfrentara al hecho de "haber sido". Silver y MacDonald son claros al señalar que 20 años de código heredado son el peso más grande al que se enfrenta Microsoft, y cómo el hecho de querer hacer una mejora resulta prácticamente imposible de realizar dado el tamaño del sistema operativo. Se cita como ejemplo el hecho de que luego de 5 años de desarrollo para Vista, sencillamente se decidió rehacer todo desde la última versión de kernel estable del Windows 2003. Y aún así Vista ha resultado ser muy pesado para las máquinas antiguas.

Otro hecho señalado por los analistas es que Windows no puede correr fuera de la plataforma PC, y se hace énfasis en que el futuro está en los dispositivos móviles como el iPhone, donde Windows no domina el mercado y su producto Windows Mobile intenta hacer todo, pero sin mucho éxito.

Silver y MacDonald, son claros al señalar que el fracaso en la adopción de Windows Vista por las empresas, se debe a que Microsoft no ha sabido comunicar las mejoras introducidas en Vista, o que sencillamente Vista no tiene mejoras significativas para las empresas, que andan buscando sistemas operativos ligeros, que permitan correr aplicaciones basadas en web, sobre PC baratas. Un dato importante señalado por los analistas es que básicamente el crecimiento de Windows Vista en las empresas se ha dado reemplazando a Windows 2000, Windows XP no ha visto caer su cuota de mercado significativamente. Para sustentar ello indican que de acuerdo a una encuesta llevada a cabo en 50,000 empresas en USA, a finales del 2007, preparada por Forrester Research Inc., apenas el 6.3% de las computadoras usaban Windows Vista.

Los dos especialistas proponen a Microsoft el reemplazo total de Windows, por una plataforma virtualizada, que permita correr las viejas apliaciones del API Win32, pero que añada las nuevas características que los sistemas operativos más avanzados de la actualidad. En realidad Windows debería de convertirse en una especie de hypervisor ligero, que supervise las otras instancias del OS.

Bueno las sugerencias están dadas, pero no creo que la gente de Redmond le presten mucha atención a lo que dicen los analistas, ellos confían más que en sus ingenieros en sus marketeros, total en Windows un error, no es un error, es tan sólo una característica no documentada del sistema .

Error en Google

Google tiene la fama de ser una de las empresas que más talento trata de reunir, se habla de que para seleccionar a su personal, proponen problemas matemáticos en las universidades, y sólo aquellos que logran resolverlos son considerados para ser admitidos como practicantes en la multimillonaria empresa, por eso no dejo de sorprenderme cuando encontré en el la revista Wired, un artículo donde se comentaba que un usuario de Debian había recibido un mensaje de que su PC estaba probablemente infectada por un bot, porque sus búsquedas en Google parecían ser generadas por uno.

El usuario verificó que ni su PC, ni la otra que tenía en su red estaban infectadas, y posteó la interesante situación. Y puesto que la red permite un intercambio rápido de ideas se dieron cuenta del tremendo error en el algoritmo de Inteligencia Artificial que usaba Google para identificar posibles bots, toda búsqueda que contenga las palabras "forum" y "topic" a la vez generará el error que muestro a continuación:

Google Error

Yo lo obtuve el mensaje de error anterior en mi Ubuntu 7.10, sencillamente poniendo ésto en el cambo de búsqueda: "forum hacking topic windows", y luego tratando de ir a la página 19 como se indicaba en el artículo de la revista Wired. Aquellos que quieran ver el error en su browser y no tener que pasar por los pasos anteriores sólo deben de hacer un click en aquí.

Lo más gracioso de todo es que tanto el programa propuesto para chequear virus o spyware son para Windows, cuando también es posible encontrar troyanos en plataformas tipo Unix como Mac OS X y por supuesto Linux. Por lo visto no hubo inteligencia ni para escribir el algoritmo que detecte bots, ni para escribir y recomendar las contra medidas, me pregunto así habran desarrollado App Engine , quien sabe en unos cuantos años más estaremos hablando del monopolio Google y la baja calidad de sus productos.