Supervelocidad para ver TV en la PC

Los servicios de streaming de video como YouTube o Vimeo, les enseñaron a millones de personas que era posible acceder a videos sin necesidad de usar el TV, esto creo una avalancha de usuarios que demandaban más velocidad de acceso, incluso hubo profetas que al ver la creciente popularidad de YouTube pronosticaban el día del juicio final para la web debido al aumento exponencial del tráfico en Internet. Como sabemos, eso no ocurrió y probablemente no ocurra ya que por diseño Internet es bastante modular y resistente. Pero el tráfico de videos en Internet ha seguido aumentando y ahora tenemos no sólo servicios de streaming de videos almacenados en algún servidor, sino que tenemos también servicios de streaming en vivo como UStream, LiveStream y Justin.tv, que permiten a cualquiera hacer un broadcasting desde su hogar u oficina a una audiencia potencialmente de varios millones de seres humanos.
La aparición de los servicios de streaming en vivo ha traído también la aparición de la piratería de canales de señal abierta, que son ahora retransmitidos por estos servicios y que en teoría podrían reducir la audiencia de las cadenas de televisión regionales o locales, pero eso es otro tema que no tocaré aquí.

El panorama es claro, una mayor demanda por parte de los consumidores de video a través de internet, la demanda ha sido oida también por los carriers de telefonía móvil, que rápidamente han pasado de EDGE a 3G y de 3G a 4G en apenas 5 años, ofreciendo ahora velocidades de conexión en el celular de 7 Mbps. Algo que hace poco hubiera sido considera una conexión de banda ancha para un hogar, es por ello que han aparecido usos interesantes para smartphones, como por ejemplo hacer streaming en vivo, usando uno de los servicios mencionados líneas arriba desde el celular, dando una cobertura al streaming en vivo nunca antes vista. Además dado que es posible conectar ya sea a través del puerto USB o por medio del wifi, nuestro PC al celular, muchas personas han comenzado a dejar las líneas terrestres en favor de esta nueva tecnología celular de banda ancha. Esto está motivando a los ISP tradicionales a ponerle turbo a sus viejas conexiones ADSL o Cable.

En el campo de la tecnología ADSL, hace apenas un par de semanas leí en Gigaom de la aparición de una tecnología llamada NodeScale Vectoring, que permite alcanzar velocidades de hasta 100 Mbps con el par de cobre actual. Pero hay indicios de que esta tecnología podría permitir llegar hasta los 825 Mbps en un segmento de cable de par trensado de hasta 400 metros y 750 Mbps en cable de par trensado en distancias de hasta 500 metros, según un reciente reporte de Nokia Siemens Network.

Por otro lado la tecnología de cable ha decidido dar otro salto cuantitativo y un ISP en Holanda llamado CAI Harderwijk está desplegando a modo de prueba entre sus 16,000 subcristores una nueva tecnología basada en DOCSIS 3.0 que permite ancho de banda simétrico de 100 Mbps, esto es una reacción a la tecnología que ofrecen algunos ISP llamada FTTH (Fiber To The Home) o fibra óptica directo a casa, que ofrecen velocidades potencialmente del orden de Gigabits. En New York la tecnología FTTH es ofrecida por Verizon en un producto llamado Verizon FiOS y que ofrece conexiones de hasta 50 Mbps por $139.95 al mes.

Todo este despliegue de nuevas tecnologías para ofrecer acceso de banda ancha mucho más barato y a velocidades cada vez más altas cada vez sólo refleja el hecho de que los contenidos ahora se distribuyen mejor en formato digital, es por ello que Netflix Instant Streaming está revolucionando el mundo del entretenimiento en U.S.A., pero eso sólo es posible si esta infraestructuta de banda ancha sigue desarrollandose.

Lo increíble es que recuerdo como si fuera ayer cuando en 1997 batallaba con mi línea dedicada de 128 Kbps para atender tanto a los usuarios que usaban el servicio de cabinas públicas, como los servidores web y correo que mantenía, todo conectado a través de está línea. En aquellos días soñaba con un futuro en el cual pudiera tener una conexión 10Base2 (10 Mbps) directo a casa, y me imaginaba lo mucho que se podría hacer con dicho ancho de banda, ahora que tenemos todas estas nuevas tecnologías y el prospecto de seguir incrementando la velocidad de acceso de manera casi ilimitada, veo que la gran mayoría de usuarios sólo lo usa para reemplazar a la TV de siempre, no para buscar nuevos usos u aplicaciones. Lo cual no me parece mal, cada quien es libre de decidir que desea hacer en Internet, pero en cierta forma me parece un desperdicio ya que el desarrollo y despliegue de todas estas tecnologías cuesta miles de millone de dólares, por lo tanto el costo/beneficio de toda esa inversión es realmente muy bajo.

Se acuerdan que para promover la investigación en el desarrollo de tecnologías que permitan un mayor ancho de banda, y convencer a los inversionistas a poner cientos de millones de dólares para financiar estos proyectos de investigación se invocaban aplicaciones tan necesarias como "Telemedicina", que revolucionarían la forma y la calidad del cuidado médico a la vez que lo harían más barato. También recuerdo la "Teleeducación", que decía permitiría acortar distancias y acercaría la cultura y la tecnología a las masas.  Ahora que ya existe esta tecnología y está disponible de manera tan ubicua y barata, ¿por qué ya nadie habla de las aplicaciones revolucionarias?, creo que al final hemos quedado satisfechos con todos esos Mbps en casa, sólo para ver TV, eso sí en HD y con pantallas de 52 pulgadas.

Bajos salarios en TIC

La crisis por la que atravesamos ha dejado una marca en los profesionales TIC, que para mantener su trabajo han tenido que aceptar más horas durante sus jornadas y salarios congelados desde que el problema comenzó. Un reciente artículo de ComputerWorld titulado "Salarios estancados empujan a trabajadores TIC a buscar empleos", comenta el resultado de una encuenta realizada por ellos a 343 profesionales TIC, que revela el hecho de que el 36% está actualmente en busca de un nuevo empleo en los próximos seis meses y el 69% reporta que no ha recibido un aumento en los últimos seis meses. El mensaje no puede ser más claro para los empleadores, con las noticias de que "lo peor ha quedado atras", los profesionales más telentosos están buscando mejores oportunidades laborales.

Otro dato interesante de esta encuesta es que el 54% de admite que su salario es ahora superior al que percibian en el 2008, el 26% dice que su salario ha estado estanacado y el 20% (es decir 1 de cada 5) dice que ahora gana menos que en el 2008. Esto es debido en parte a que sencillamente las empresas no están invirtiendo o lo hacen en tecnologías que permiten aumentar la productividad con lo que se requiere menos personal y por lo tanto es el empleador quien tiene la sarten por el mango.

Los resultados de esta última encuenta están en línea con otra realizada también por ComputerWorld en agosto del presente año, donde informaba que el 61% de los trabajadores TIC con un salario entre U.S.$ 35,000 y U.S.$50,000 al año estaban pensando cambiar de trabajo en los próximos 12 meses como resultado de que percibian que la situación económica había mejorado, pero sus salarios no.

Como dicen la mayoría de analistas, este es un jobless recovery, es decir una recuperación que no está creando trabajos y es así en parte porque la recuperación es sólo en papel, para la foto. Para que los publicistas puedan decir que la recesión ha terminado, claro diciendo que es la más larga que hemos tenido desde la segunda guerra mundial, pero terminó y por lo tanto cualquier otra caída sería una "nueva recesión". De esa forma estadísticasmente podemos decir que no estamos en depresión, algo que es materialmente cierto aunque no estadísticamente demostrable.

Ya lo dicen muchos analistas, cada vez se necesitaran menos trabajadores en todos los sectores productivos, con salarios a la baja en promedio, trabajando las horas que sean necesarias, cuando sea necesario, es decir la temporalidad será la constante y no la norma en los años por venir. Y específicamente en el sector TIC todo estará basado en proyectos, con fechas límites y presupuestos super ajustados. Sumado a lo anterior, las nuevas herramientas que hacen mucho más fácil abordar tareas como programación de aplicaciones (algo que ya comenté en el post "El ascenso del Programador Ciudadano") pondrá a más aprendices de brujo a la caza de las cada vez más escasas oportunidades laborales en las TIC. Como es lógico una mayor oferta de mano obra TIC hará que los precios tiendan a la baja en el futuro previsible.

Vampiros vs. Hombres Lobo

El presente título copia el de un post del blog Coding Horror, en el cuál Jeff Atwood nos cuenta como muchas veces los programadores (que el asocia con los vampiros) entran en conflicto con los system administrators (que son representados como hombres lobo). La pregunta que origino el post de Jeff, fue formulada por su sysadmin Kyle Brandt en el blog de Server Fault, que tanto control se le debe dar a los programadores sobre servidores en producción.

Aunque como dice tanto Jeff, no hay una respuesta simple y por el contrario en lugar de buscar este conflicto entre sysadmin y programadores, lo que dbe haber es una autoridad superior que defina objetivos claros para la empresa y los haga trabajar juntos en busca de un objetivo común, en lugar de que inicien discusiones unos contra otros. Jeff dice claramente que en muchos lugares donde esto ocurre es simplemente porque la división del trabajo no ha sido hecha adecuadamente y hay demasiado tiempo libre para perderlo en disputas sin sentido.

Por otro lado algo que no se discute en el post es que suscede en la empresas pequeñas, en donde los roles se vuelven más difusos debido a las limitaciones de presupuesto. Es en las pequeñas empresas donde por lo general el programador hace las veces de sysadmin o puede suceder que un sysadmin termina convertido en un programador por acceidente.

Yo, soy por definición un sysadmin, ya que tanto por vocación, como por formación soy un ingeniero (mecánico electricista para más señas). Es decir carezco del sentido estético del que muchos programadores se enorgullecen. Por el contrario yo estoy más enfocado en eficacia y eficiencia, es decir terminar el proyecto dentro del presupuesto, en el tiempo estimado aunque haya que aplicar ciertos ajustes (muchas veces recortes) en el camino, ya que una solución parcial es infinitas veces mejor que una solución perfecta en un futuro distante.

Por el contrario muchos de los programadores con los que me he topado, suelen por lo general querer inventar la rueda, no desean usar código de otros programadores y sienten un profundo rechazo a documentar su código, algunos dicen que eso les reduce su productividad y hay que casi amenazarlos de muerte para que lo hagan.

En fin, este es un debate abierto ya que cada lado puede señalar los defectos del otro, sin embargo hay que sobre todo ser tolerantes y aprender a convivir en una empresa que necesita que ambos roles trabajen juntos, en lugar de estar tratando de demostrar quien tiene la razón.

Convirtiendo un router de $60 en uno de $600

Tal vez la mejor de todas las convinaciones posibles en el mundo TIC es cuando se usa un commodity hardware con un Open Source software, ese es el secreto tras la mayoría de exitosas empresas de nuestros días como Yahoo!, Google, Facebook o Twitter. Por otro lado así como los PC se convirtieron en un commodity, los routers de nuestros días también se han convertido en un commodity, todavía recuerdo cuando pagamos $5000 por un Cisco 2501 en 1997 cuando Red del Norte se convirtió en el primer CPI (el nombre que tenían los ISP en InfoVía) de Chiclayo.

WRT54GHay una gran variedad de routers, desde los super baratos como los TRENDnet hasta los más sofisticados Pepwave, pero el común denominador de estos equipos es que cada uno trata de ofrecer una solución integral basada en un sofware propietario, pero muchas veces usando un hardware bastante estándar (procesadores MIPS). Uno de los primeros fabricantes que integró Linux como el sistema operativo de sus routers fue Linksys (una subsidiaria de Cisco) en su modelo WRT54G, aunque luego lo cambiara por VxWorks, alegando ahorro de costes.

Sin embargo muchos entusiastas han creado frimware alternativos basados en Linux para estos routers basados en los procesadores Broadcom, aunque luego han ido incorporando soporte para otros routers también. Hay varias distribuciones Linux (frimeware) especializadas en routers, entre ellas DD-WRT, OpenWRT y Tomato, tan sólo por mencionar las más famosas.

Pero en particular quiero comentar sobre DD-WRT, una distribución Linux bastante poderosa que puede convertir un barato router WRT54GL de $60, en un poderoso y flexible router de $600, lo anterior no es exageración.

En adición a características interesantes como soporte a IPv6, la posibilidad de hacer overclocking del procesador del router, de aumentar la potencia de transmisión del equipo hasta 251 mW o habilitar un acceso ssh al dispositivo, una de las características más apreciadas puede ser el hecho de que el router puede ser usado como un load balancer de dos líneas WAN, según he encontrado en esté post. Pero por si todo eso fuera poco, en la versión estándar (std) del frimware DD-WRT en la opción de QoS podemos asignar ancho de banda basado en el MAC address, algo que era posible hasta no hace mucho sólo con caros routers Cisco.

Al ser el proyecto DD-WRT Open Source, es posible personalizarlo a nuestro gusto, pero si odiamos hacer todo otra vez, he encontrado esta práctica herramienta llamada Firmware Modification Kit (Open Source también), que permite agregar/remover paquetes del firmware o incluso cambiar themes y logos de la interface web para controlar el router, con lo cual los amigos de presumir sus "conocimientos" en tecnología podrían tener frimwares con sus nombres en ellos.

Lo dicho, si desean convertir su router de $60 en uno de $600 usen el firmware del proyecto DD-WRT, ojo no es la única opción pero es de la que puedo comentarles por el momento con confianza porque la he probado y definitivamente me siento muy satisfecho de haber actualizado a este firmware. Voy a continuar probando otras opciones como la OpenWRT y Tomato, sobre las que ya les comentaré luego.

Cortex-A15 MPCore: Un RISC en su webserver

El día de hoy ARM Holdings ha presentado el Cortex-A15 MPCore, el nuevo miembro de la familia de chips Cortex, que se ha hecho popular como el corazón de los smartphones más populares de nuestros días ya que está presente en Androids y iPhones/iPads; este chip ofrece uno, dos o cuatro núcleos con velocidades de hasta 2.5GHz, un cache de segundo nivel L2 fuertemente unido y con baja latencia de hasta 4 MB, un coprocesador matemático de punto flotante y la tecnología NEON para acelerar la multimedia. Adicionalmente a todas estas mejoras que podrían ser consideradas una evolución del presente ARM_Cortex-A9_MPCore, el A15 incorpora capacidades de virtualización por hardware y una tecnlogía llamada LPAE (Large Physical Address Extensions), que le permite direccionar hasta 1TB de memoria RAM, con lo cual queda demostrado más alla de toda duda que ARM tiene planeado entrar al negocio de los chips para servidores, además hay que recordar que VMWare ya ha anunciado el soporte del ARM7 40bits, para su popular entorno de virtualización.

Aquí un diagrama que resume la arquitectura Cortex-A15:

Cortex-A15

Pero ARM quiere dejar claro, que estos chips a pesar de todas estas mejoras siguen siendo igualmente económico en cuanto a consumo de enegía y ha dividido la familia Cortex-A15, en cuatro clases enfocadas a nichos específicos:

Smartphone y computación móvil: En configuraciones de simple y doble núcleo con velocidades entre 1 GHz y 1.5 GHz, hay que recordar que más frecuencia de reloj significa un mayor consumo de energía y por lo tanto más calor. El A15 traería como novedad debido a su coprocesador de coma flotante incorporado y la tecnología NEON una experiencia de usuario en los juegos similar al de las consolas de hoy en día, además de que la navegación en Internet se vería acelerada.

Digital Home Entertainment:En configuraciones de dos a cuatro núcleos con velocidades entre 1 GHz y 2GHz, está pensado para el desarrollo de dispositivos que integren la web y la TV, pensado para operar sin ventiladores y ser power efficient, permite sin embargo manejar memorias mayores a 4GB.

Home y Web 2.0 Servers: En configuraciones de cuatro núcleos con velocidades entre 2 GHz y 2.5 GHz, está pensado para ser usado dentro de servidores en ambientes virtualizados, que requieran acceso a memorias mayores a 4GB, con una alta eficiencia en el consumo de energía una relación entre poder de cálculo y consumo de energía muy alta.

Infraestructura Wireless: En configuraciones de cuatro, ocho o más núcleos, con velocidades entre 2 GHz y 2.5 GHz, está clase esta pensada para ser usada en equipos de oficinas centrales de operadores móviles ya que ofrece un alto nivel de integración, un bajo costo de propiedad, soporte de hasta 1TB de memoria, virtualización por hardware, corrección de errores y monitoreo de la integridad de los componentes hardware incorporada.

Definitivamente Intel tendrá que presentar algo que pueda competir contra esto, sino terminará perdiendo su posición de liderazgo actual.