China y los clones.

En China la falsificación de productos de marcas conocidas es un negocio ilegal pero muy rentable y que da trabajo a buena parte de la población. Pero también China es famosa por clonar tecnologías que son exitosas en occidente, y tratar de venderlas bajo su propia marca para su consumo interno mayormente, es así por ejemplo que existen clones de iPhones como el i9 que puede ser comprado por tan poco como $60, lógicamente aunque han copiado la forma y ciertas funcionalidades carece del API y iStore, además de ser incompatible con las aplicaciones existentes para el iPhone, lo cual hace que dicho producto no sea una competencia real para el iPhone.

Pero esa no es la única tecnología que han copiado los chinos, también tienen su propio Google llamado Baidu, aunque es el líder en China, no ofrece los APIs que ofrece Google y no produce los mismos resultados que Google debido a la sensura del gobierno chino que es su principal accionista, todo esto conspira contra su éxito fuera del mercado que controla por ley.

La cosa no queda alli, han aparecido clones de Youtube como por ejemplo 56.com, tudou.com, youku.com, todos controlados por el gobierno chino que es su principal accionista y en donde no hay videos que cuestionen las políticas del estado, pero donde pueden aparecer películas completas de reciente estreno.

Las redes sociales no han sido la excepción, hay clones de Facebook como son por ejemplo renren.com, kaixin001.com o 51.com, al igual que pasa con los otros clones sólo algunas funcionalidades están disponibles. Incluso Twitter demuestra que es una tecnología exitosa debido a que acaba de ser copiado también, los clones chinos de Tweeter son taotao.com y zuosa.com.

Pero a que vienen todos estos datos, pues la reflexión es la siguiente. Se comenta en ciertos circulos que China pronto será la potencia hegemónica y dominante a nivel mundial desplazando a Estados Unidos, para ello se pone como evidencia su espectacular crecimiento económico. Sin embargo si comparamos el USA de principios del siglo XX con la China de principios del siglo XXI notaremos muchas grandes diferencias. Mientras en USA de principios del siglo XX se construía el primer tren subterráneo del planeta antes que las potencias dominantes de la época como Inglaterra y Francia, se inventaba la bombilla incandescente, el avion, la máquina de escribir, los tubos de vacío, etc. China por el contrario sólo copia todo aquello que ya es exitoso en otro lado y muchas veces mutilando las mejores partes para poder seguir manteniendo el control absoluto de todo por parte del omniprescente estado.

Finalmente, una de las razones principales por la que USA emergió como la superpotencia que acutalmente es, fue que políticamente hizo todo lo contrario a lo que está haciendo China hoy. Sirviendo como refugió de todo aquel que se sentía amenazado por estados todopoderosos que querían controlar absoluto. La inventiva no se planea o se dicta por decreto, es el resultado de la libertad, quien no es libre no puede crear y es justamente por eso que China está condenada a seguir viviendo la sucesión de dinastías que su historia muestra, en la cual el Partido Comunista Chino no es más que la última de las dinastías del milenario Déjà vu chino.

¿Qué tan únicos son los "visitantes únicos"?

El día de hoy (18 de febrero) Fred Wilson, el popular capitalista de riesgo de New York City, se pregunta en su blos "How Unique Is A Unique Visitor?", frase que he tomado prestada para titular esta entrada de mi blog, pero que encierra una pregunta que hasta ahora muy pocos han formulado en público, ¿qué tan confiables son nuestras estadísticas de visitantes únicos?. Como, Wilson expone en su blog el accesa la web desde 7 diferentes browsers/computadoras a lo largo del día y con ello es registrado como siete visitantes diferentes por los sites a los que visita regularmente. Ya que para poder hacer el conteo de visitantes únicos usamos cookies, que son tokens intercambiados entre nuestro navegador y el servidor web que visitamos de forma que si estando en la misma máquina usamos otro navegador y visitamos la misma página, seremos contados dos veces.

Wilson comenta en el post que una startup llamada Scout Analytics, ha tratado de responder a dicha pregunta usando un método poco ortodoxo, utilizar "behavioral analytics" (o un "análisis del comportamiento"), para determinar si un usuario es realmente único, utilizando tanto un dispositivo de hardware como un método biométrico que permite identificar inequívocamente a un visitante por su forma de tipear. Ya que la técnica usada por Scout Analytics es muestral y por lo tanto no se puede extrapolar a toda la web, pero revela que a los sitios que fueron analizados con su herramienta mostraban un tráfico de visitantes únicos contados en base a cookies de 2 a 4 veces superior al registrado por el método del "behavioral analytics".

Wilson también señala que esta no es la primera vez que ocurren este tipo de críticas al método de contar los visitantes únicos en base a cookies, ya en el 2007 el popular website de estadísticas de la web ComScore, mostraba que debido a que 3 de cada 10 usuarios de USA borran sus cookies, las estadísticas obtenidas analizando las cookies reportaban un tráfico 2.5 veces mayor al real. Si a eso le añadimos ahora que navegadores como Firefox y Chrome tienen la funcionalidad de navegación anónima y borran todas las cookies tan pronto cerramos el navegador, queda claro que el problema de un conteo efectivo de la audiencia de websites es un tema pendiente.

Me preguntaba si acaso las redes sociales podrían ayudar a resolver el problema de un conteo efectivo de los visitantes únicos, pues eso tampoco queda claro si consideramos que muchos usuarios tienen perfiles en varias redes sociales y que algunas veces un sólo usuario puede tener varios perfiles en la misma red social. Al parecer no hay una solución sencilla a este problema.

La moraleja para mi ha sido que en realidad no tengo 300 visitantes únicos diaros en promedio, sino como mucho 120.  Lo cual en cierta forma me parece correcto, ya que debido a lo oscuro de los temas que toco y lo muy especializados y aburridos que suelen ser algunas veces, los 300 visitantes únicos en promedio al día no parecía una cifra realista.

La guerra por la supremacía en la web

En las últimas semanas nos han querido vender la idea de una guerra entre Apple y Google, que el blog Gigaom resume en una infografía bastante interesante o la rivalidad entre Microsoft y Google por dominar el mercado de los buscadores, que también ha llenado las líneas de innumerables posts. Son las batallas que la gran mayoría piensa definirán al nuevo rey del sector TIC. Es sin embargo la furiosa rivalidad entre Google y Facebook, la que durante los próximos años, según mi criterio, cambiará el panorama de las TIC de manera irreversible.

Microsoft, Apple, Intel, Nokia o Motorola, son todas corporaciones preparadas para luchar en un entorno industrial, donde la idea es producir en grandes volúmenes. Sin embargo grandes volúmenes de producción requieren grandes volúmenes de consumo, de no ser así el dinero invertido en la producción no puede ser recuperado. Un fenómeno externo al sector TIC como lo ha sido el credit crunch de finales del 2008, ha transformado la mentalidad y ahora menos significa más. El éxito en ventas de las netbooks y de las laptops de menos de $500 son una expresión de que el mercado se ha vuelto bastante sensible al precio. Es esa la razón por la cual el Nexus One, no se ha vendido tan bien como el iPhone o el Droid, básicamente porque a $530 cada unidad sin contrato, está muy lejos del bolsillo del consumidor promedio americano en estos momentos.

En este nuevo mundo de escaso crédito, donde la maximización del poder de compra de cada dólar es la regla para sobrevivir, computadoras con múltiples núcleos o inmensas pantallas, son el equivalente a los SUV. Representan una elevada inversión incial y un alto costo de operación, para satisfacer una elemental necesidad de transporte. Pero cuando se trata de reducir costos, los CIO están ahora también evaluando no sólo el costo de los PCs en los escritorios, sino también los software que estos utilizan. Ya se cuestiona la necesidad de procesadores de texto, debido al hecho de que la mayor cantidad de veces se utilizan para producir documentos que son atachados a correos electrónicos, esto debido a las políticas de ahorro en suministros como papel y tinta para impresora.

El que viene será un mundo diferente al que conocemos, un lugar donde la busqueda de la eficiencia en cada eslabón de la cadena será un requisito para sobrevir, por lo tanto y como consecuencia de lo anterior, la tercerización de servicios jugará un rol central en las estrategias de reducción de costos. ¿Por qué Google y Facebook iniciaran una batalla para determinar quien se quedará con un mercado así?

En los últimos días una serie de noticias han removido las bases de lo que pensábamos eran las redes sociales, primero fue Facebook que anunció que crearía un servicio de correo eletrónico, luego Google presentó Buzz, que añadía capacidades sociales a Gmail, a costa se crear mucha ansieadad en sus usuarios respecto a la privacidad. Casi inmediatamente Google activó Webfinger para sus cuentas de gmail, que también son las cuentas que tienen Buzz. Webfinger es un protocolo que permite usar direcciones de correo para acceder a nuestros perfiles y servir de identidades digitales.

¿Por qué todo lo anterior es importante?, la respuesta es sencilla, aquel que controle las identidades digitales en la web será el nuevo rey del sector. Es por ello que Facebook ha firmado un acuerdo con AOL para permitir que los usuarios de Facebook y del mensajero instantáneo de AOL puedan chatear juntos. Es por ello que que Google está decididamente apoyando oAuth. En un mundo en donde todo servicio relacionado a las TIC se accederá a través de la web y de forma pay-as-you-go (pre-pago), la importancia de una identidad única e interoperatividad entre servicios será el factor clave. Es decir el proceso de login en todo servicio ofrecido en la web se volverá un commodity.

Permitanme explicarles el problema con un ejemplo, supongan que Uds. que son el CIO de una gran empresa con miles de PCs, ¿por qué sería complicado una migración a Google Docs?, pues si se consigue o se programa la herramienta para mover toda la "legacy data" de manera automática al nuevo servicio o se contrata a alguien para que haga eso, no debería revestir mayores inconvenientes. Sin embargo el gran problema de ese tipo de migraciones es la administración de contraseñas (identidades) a dicha escala. El otro problema es que una vez dentro de la red de Google, sería también otra inversión millonaria moverse hacia otra alternativa, digamos Zoho, y el costo estaría también en la administración de las contraseñas (identidades). Por el contrario, si los sysadmin no tienen que lidiar con la administración de las contraseñas y sólo necesitaran saber los "usernames", que se convertirian en las identidades digitales de los usuarios, el trabajo se simplificaría enormemente.

Es por ello que tanto Facebook y Google, desean ser su única solución para su identidad en línea, ya que cotrolando el punto de validación en la web, pueden controlar todo el mercado de SaaS (Software as a Service). Sólo el servir de intermediario de micro-pago reportaría miles de millones de dólares anuales sin tener que asumir casi ningún riesgo. El premio es muy jugoso como para no tomarlo en serio y las únicas dos empresas, por el momento, que están tratando de conseguir el control de ese estratégico punto son Facebook y Google.

Usando el API de bit.ly con CodeIgniter

Como habrán notado soy un fanático de CodeIgniter, un framework ligero, fácil de aprender, seguro y flexible que permite el desarrollo rápido de aplicacione web usando PHP. Esa es la razón por la cual lo uso para implementar muchas de las ideas que expono a lo largo del presente blog.

Pero, la razón de éste mini-tutorial de cómo usar el API de bit.ly, que es un servicio de redución de URL, es justamente por que he visto que Mashable, ahora muestra un numerito sobre el botón para hacer buzz de sus posts. Estuve leyendo la documentación del API de Google Buzz, con la clara intención de duplicar dicha funcionalidad en mi blog y lamentablemente encontré que no es posible encontrar el número de "buzzeadas" que un determinado website ha recibido. Al menos por el momento esa información no es accesible a través del API de Buzz. Entonces, ¿cómo han resuelto el problema la gente de Mashable?, acaso tienen un trato secreto con Google para usar funciones no documentadas que sólo han sido reveladas a ellos, a cambio de buena prensa. Pues la respuesta es menos paranoica. y ciertamente más propensa a errores. Mashable no está contando el número de veces que un artículo ha sido compartido en buzz, sino el número de clicks sobre un link de bit.ly. Una solución simple, aunque de cuestionable eficacia.

Bueno, ahora que ya sabemos el por qué, veamos el cómo.

Para poder usar el API de bit.ly dentro de CodeIgniter debemos de descargar la librería bitly-api-library-codeigniter, que está alojada dentro de los repositorios de proyectos Open Source de Google. Adicionalmente debemos crear una cuenta en bit.ly ya que con ella podremos obtener un API Key, necesaria para usar el API.

Luego de que descompacte el archivo zip que contiene la librería Bitly.php, la debemos colocar en system/application/libraries/,  luego editamos el archivo system/application/config/autoload.php y denemos agregar esta línea:

$autoload[‘libraries’] = array(‘Bitly’);

Ahora ya podemos usar la librería en nuestra aplicación. Supongamos que el nombre de usuario que registró en bit.ly es "usuarioprueba"  y que la clave (key) del API que  obtiene de bit.ly es "R_0da49e0a9118ff35f52f629d2d71bf07", entonces un ejemplo muy sencillo para obtener la estadística de cuantos clicks ha recibido un terminado enlace sería el siguiente:

<?php

class Stat extends Controller {

        function Stat()
        {
                parent::Controller();
        }

        function index()
        {
                $this->bitly->setKey(‘usuarioprueba’,
                                     ‘R_0da49e0a9118ff35f52f629d2d71bf07’);
                $URL = "http://bit.ly/14H1OB";
                list($protocol, $empty, $bitly, $hash)=split("/", $URL);
                $result   = $this->bitly->stats($hash);
                echo "<PRE>";
                print_r($result);
                echo "</PRE>";
        }
}

?>

Observer que estoy usando la función split de PHP para poder obtener sólo la última parte del URL, que es la que necesita el API para retornarnos la estadística del número de clicks que ha recibido el enlace. El resultado de la ejecución exitosa del código anterior sería este:

Array
(
    [clicks] => 6
    [hash] => 3VpSVv
    [referrers] => Array
        (
            [] => Array
                (
                    [direct] => 6
                )

        )

    [userClicks] => 2
    [userHash] => 14H1OB
    [userReferrers] => Array
        (
            [] => Array
                (
                    [direct] => 1
                )

        )

)

Como podrán observar, el valor que nos interesaría para implementar el contador de buzz es "clicks". Sumando esto a lo que ya he comentado en el post  "Si Mashable puede, ¿por qué yo no?" y un poco de JavaScript sería posible hacer un widget como el que está usando actualmente Mashable.

Microsoft se ha vuelto irrelevante

Hace pocos días (4 de febrero) fue publicado en el The New York Times, un artíuclo de Dick Brass, en donde señalaba a la cultura de la destrucción de la creatividad al interior de Microsoft como la responsable de la lenta pero incuestionable caída del coloso de Redmond. Dicho artículo desató bastante ruido en la socialósfera (blogósfera, twitósfera, facebookosfera, etc.). Muchos bits han fluido a lo largo de estos últimos días, pero creo que la razón de la actual y notoria irrelavancia de Microsoft en el sector TIC, tiene su explicación en la aparición de un nuevo modelo de hacer negocios con las TIC y esto ha generado la emergencia de dos nuevas fuerzas dominantes en el sector Google y Facebook.

El mérito de Microsoft fue el de convertir lo intangible (el software) en un commodity, antes de Microsoft el software era producido bastante artesanalmente, los estándares eran una declaración de intención que muy pocos respetaban. Una prueba irrefutable de ello eran los Unix, que a pesar de en teoría todos provenir del mismo código fuente y seguían los mismos estándares algunos software eran específicamente programados para arquitecturas específicas.

En aquellos primeros años de la computación se hablaba de "arquitectura", pero en realidad era un eufemismo para hacer referencia a quien era el propietario de los derechos del hardware y el software, de aquel paradigma los dos únicos fósiles vivientes que existen actualmente son IBM con sus mainframes y Apple con su Mac. Con la introducción del IBM PC y su estándar abierto de hardware, la commoditización del hardware y el software comenzó.

Microsoft supo adaptarse a los tiempos, su mérito más importante fue permanecer como una empresa de software y no seguir el camino que siguió Apple. La idea de software como un commodity se extendió y fue abrazada por muchos, empresas como MicroPro, Borland, Corel, WordPerfect Corp., etc., florecieron en esos primeros años gracias a la aparición de un gran mercado para sus productos. Todas ellas son irrelevantes ahora, ¿por qué?

El gran cambio vino de la mano no del Open Source, sino de Internet. El tener acceso al código fuente es irrelevante sin la forma de compartirlo y mejorarlo en una comunidad bastante grande. Aquellos que usaron aquellas primeras versión de TurboPascal a principios de los ochentas, podrán recordar que el software venía con el código fuente de una rudimentaria hoja de cálculo. Sin embargo eso no generó un clon Open Source que amenazara la existencia de Lotus 123 o Quatro Pro.

Todos hablamos de las ventajas del paradigma Open Source ahora y hasta lunáticos como Richard Stallman quien convertir el Free Software en religión. Pero había una muy activa comunidad de lo que ahora llamamos Open Source a principios de los ochenta. La revista Byte como muchas otras también, incluía código fuente en BASIC o incluso Assambler para las primeras microcomputadoras de los ochenta.

Hay un mantra del Budismo Zen que dice: "¿Si un árbol cae en el bosque y nadie está lo suficientemente cerca para poder oirlo? ¿HACE RUIDO AL CAER?", es usado mucha veces para explicar fenómenos cuánticos, pero esta vez permitanme usarlo para explicar mi punto sobre el hecho de que es más importante la red de usuarios (networking) que el código. Pongamos el mantra en estos términos: Si alguien cambia el código de un programa, pero nadie más lo usa, es esa mejora buena o sólo es otra manera diferente de hacer las cosas. Sin los "usuarios" el paradigma Open Source no tendría viabilidad, pero ¿qué tantos usuarios?.

La famosa regla del 90-9-1 de Jakob Nielsen, nos dice que en toda comunidad de donde los usuarios generan el contenido existe una desigualdad implícita, ya que sólo 1% produce nuevo contenido, 9% proporciona un feedback o es participante activo y el 90% sólo consume de forma pasiva. Si llevamos esa regla al software veremos que se necesitan comunidades realmente grandes para que el paradigma Open Source pueda funcional, ya que no es lo mismo 1% de un salón de clases de Computer Science a 1% de los usuarios de Internet de todo el planeta. En conclusión, sin Internet no hubieramos tenido Linux, Apache, MySQL o PHP.

El factor Internet cambió las reglas de juego del antiguo paradigma del software como commodity, el primer cambio y más obvio fue el abaratamiento del software. Cuando algo se comoditiza, lo primero que ocurre es que la barrera de entrada de reduce y una gran cantidad de personas interesadas en hacer dinero entran al mercado. El incremento de la oferta inevitablemente lleva a la reducción del precio. El Open Source y las soluciones SaaS (Software as a Service) encajan en el reacomodo del modelo, pero no destruyen el modelo, sólo hacen que todos ganen menos, es decir lo degrada a través de una sobreexplotación de la demanda. En términos económicos es fácil ententer lo anterior, el número de nuevos usuarios crece más lentamente que la cantidad de oferta de nuevos productos, por lo tanto la única forma de atraer nuevos usuarios es reducir el precio, ya que no hay oferta más atractiva que gratis muchas nuevas compañías entran en la trampa del famoso freemium (servicio gratis a niver básico, y pagado para las características avanzadas).

Lamentablemente los ejecutivos de Microsoft no han entendido la naturaleza del cambio, por eso sólo siguen aquello que saben es el futuro, pero no entienden como funciona. Es por ello que produjeron XBox, Zune, CodePlex, Bing y ahora desean agregar fundionalidades de social networking a Outlook.

El problema con Microsoft no es que adentro de ella exista una cultura que promueva la destrucción de la creatividad y en consecuencia la innovación, es que todo el ecosistema ha cambiado, y en consecuencia su modelo de copiar al líder, ofrecer gratis o a muy bajo precio un producto equivalente para luego extender algunas funcionalidades haciendose incompatible y luego cerrar el mercado, ya no funciona más. Ese modelo parecido al de asimilación de los borgs alcanzó su cúspide con IE6 que llegó a dominar el 95% del marketshare.

Es como si un gran meteorito llamado social networking ha caído y alterado de manera irreversible el ecosistema en el cual gran Tiranosauro Microsoft goberno sin oposición por los últimos 10 años. El problema es que las redes sociales han cambiado el modelo por completo y es por eso que ahora las dos grandes fuerzas emergente son Facebook y Google. Cómo se desarrollará esta batalla y que implicaciones tendrá para nosotros los simples mortales lo dejaré para un próximo post.