Mañana empiezo Ingenieria Informática :)

Después de tantos años por aquí dando guerra, uno ya tenía ganas de empezar la carrera. Mañana, 1 de octubre, empiezo Ingeniería Informática en la Facultad de Informática de A Coruña.

Así que probablemente el tema del blog cambie un poquillo, aún no lo se, en principio seguiré viendo como evoluciona la Web y las interfaces de usuario, por ejemplo las NUI (Nature User Interface), en las que estoy muy interesado.

Ya os iré posteando…

¿Por qué se ha hecho popular la Web 2.0?

Tras leer los artículos de Rodrigo y Jorge la verdad me ha hecho reflexionar sobre lo que ha hecho llegar a la Web al punto actual. La Web fue creada como un método de comunicación militar. Con la llegada de los PCs personales y la liberación de Internet la web se abrió pero por un único motivo, la publicación de contenidos/documentos.

Por otro lado teníamos Internet como un medio de comunicación como puede ser el email y los primeros servicios de mensajería. Pero lo que ha hecho que la Web se haya convertido en la Web 2.0 no es una nueva tecnología, ni una nueva metodología, ni nada por el estilo. Porque sino le deberíamos atribuir a Microsoft la creación de la Web 2.0 desde la creación del Outlook Web Access. Pero no es así. La Web 2.0 es un nuevo concepto.

Este nuevo concepto viene de la cantidad de sistemas operativos que tenemos actualmente, unos con más cuota de mercado y otros con menos. Pero está claro que a partir de ahora si queremos desarrollar para las masas no podemos quedarnos con un único sistema operativo. Junto a este afán multiplataforma se ha unido la idea de la Web colaborativa. Empezó con proyecos como los espacios de MSN, foros, etc. Donde cada persona es ella misma dentro de la página. Y poco a poco ha ido evolucionando a proyectos más grandes como Wikipedia, donde el usuario ya no es nadie, todos los usuarios hacen el conjunto de la Wikipedia. Se llego al dinamismo de Internet, ya no solo los WebMasters crean contenidos, los usuarios también pueden.

Por otro lado lo que ha hecho realmente popular AJAX y la web 2.0, es que no era popular el hecho de hacer una aplicación que no refrescase todo el tiempo, el hecho de hacerlo con JavaScript y XMLHttpRequest era una novedad a los ojos de los usaurios. Cosa que antes se hacía con Frames. Y el boom del AJAX nos inundó desde el 2005 con Gmail. Yo soy el primero interesado en esta técnica pero con limitaciones.

Con esta situación se empezaron a crear estándares, a hacer las páginas multinavegador, páginas más potentes, etc. Se llego a la idea de llevar aplicaciones empresariales a la Web. Un intento ha sido Google Docs, realmente… ¿hay alguien que lo use de verdad para documentos grandes e importantes? Yo uso Google Docs, pero le doy un uso personal a documentos de no más de 2 páginas que considero necesario poder ver ahí donde esté.

Con la salida de Google Chrome han salido opiniones de todo tipo, desde gente que piensa que Chrome puede ser el sistema operativo de Google, que facilmente con un linux ligero con conexión a internet podría hacer sin problema ninguno. Se ha comentado que puede ser el navegador de Android, sinceramente dudo que sea el camino a seguir debido a las librerías que usa muy unidas al mundo Microsoft/Windows. Hay también quien ha dicho que Chrome ha sido fruto de un error y que no se debía haber publicado la beta 0.2 sino una más madura.

Realmente, como indica Rodrigo la web tiende parcialmente a ser binaria. Aclaro lo de parcialmente porque la Web DEBE seguir siendo HTML, ya sea HTML 1, 2, 3, 4, o 200. Debe seguir siendo texto plano con el fin de seguir siendo igual de abierta que ahora. Podemos crear diferentes explorados para diferentes contenidos pero eso ya no será la Web y dejaría de ser multiplataforma. Por lo tanto la Web debe ser HTML, con sus correspondientes extensiones como he dicho en artículos anteriores. Mozilla Labs y AdaptivePath nos contaban hace poco sus ideas de la navegación Web del futuro, pero para ello es necesario que aumente la metadata que existe en internet. Además debemos construir a la Web como un medio seguro y fiable. Por ejemplo me parecía muy curioso por parte de la UE, el tema de hacer algún tipo de carnet de blogger para identificar quien escribe los contenidos de tal forma dándole credivilidad.

El problema principal que tenemos es que tenemos diferentes sistemas en los pcs del mundo, el liderazgo de Windows está disminuyendo hacia un poco más de diversidad. Y los usuarios de otros sistemas piden las mismas aplicaciones que hay para Windows, a Microsoft se le tacha por monopolio, pero realmente los desarrolladores han optado por hacer software para ésta. Igual que Firefox tiene su encanto en los 10.000 plugins, para mi inútiles solamente uso el de Google Reader para comprobar si tengo algun contenido por leer, y ese es el mismo atractivo que tiene Windows.

Yo personalmente con el tema Flash/Silverlight, creo que Flash ahora mismo es una bola que a medida que va avanzando va aumentando de tamaño sin ningún límite. Silverlight ténicamente me gusta bastante. Pero en la práctica no creo en las RIAs como aplicaciones hechas 100% con estas tecnologías. La versión 1.0 (no compilada) si que me gustaba ya que suponía que esta aplicación era algo intermedio entre Flash y HTML, pero ahora que la 2.0 es compilada me gusta técnicamente pero no la veo posible para una aplicación completa. Me gusta  para pequeños objetos dentro de las aplicaciones: reproductores de música/vídeo, etc.

Y terminando con el tema, para 2010 tenemos anunciados 12 núcleos en los procesadores personales, ¿vamos a convertir nuestras máquinas en máquinas tontas?

http://eugenioestrada.es/blog

Windows 7, ¿sistema operativo modular?

Microsoft patentó, en diciembre de 2006 tras la salida de Windows Vista, la idea de sistema operativo modular. Pero, ¿qué es un sistema operativo modular? Un sistema operativo modular, a mi entender, es un sistema operativo basado en un núcleo que sobre él se van montando diferentes partes del sistema operativo, módulos, cómo puede ser la interfaz gráfica, el sistema de archivos, etc. Sin que el núcleo dependa de un módulo concreto. De esta forma ningún módulo depende de otro y si uno falla podemos cambiarlo.

La gente de Linux está muy familiarizada con este concepto. Nosotros podemos tener un sistema linux con diferentes interfaces gráficas como Gnome, KDE, Flux, etc.

Algunas fuentes especulan sobre Windows 7 como un sistema modular. Pero si vemos en Microsoft Technet las Principales razones para actualizar a Microsoft Windows Vista vemos:

“Diseño modular. Windows Vista se ha creado con componentes dependientes entre sí, lo que facilita en cierta medida su personalización para adecuarlo a necesidades específicas. El diseño modular también simplifica la adición de controladores de dispositivos, la comprobación e instalación de actualizaciones y la incorporación de idiomas.”

Por lo tanto la patente que hablabamos al principio seguramente se trate de/para/por Windows Vista. Además en Vista, podemos ver cierta modularidad en el hecho de tener varías versiones que se diferencian de sus características/módulos: Home Basic, Home Premium, Business, Enterprisa y Ultimate.

Que es diferente a XP, en el que se diferenciaban algunos programas y características. Pero estas no afectaban ni a la interfaz gráfia (la home basic no incluye Aero), ni al Media Center, etc.

¿Por lo tanto? ¿Windows 7 será más modular? No lo se, pronto tendremos una beta 1 en nuestras manos para comprobarlo. Para empezar solo tenemos anunciadas mejoras de rendimiento (pretender reducir a 15 segundos el encendido, a base de no iniciar servicios inútiles y bloquear aquellos de terceros que relenticen el sistema) y la mejora de la experiencia con pantallas táctiles.

Pronto tendremos el PDC 2008 (26 de octubre) y el TechEd IT y Developers (del 3 al 14 de noviembre) donde podremos saber algo.

http://eugenioestrada.es

¿Microsoft recomienda Firefox y Safari?

Continuando el tema de septiembre, Google Chrome. Tras ver ese título mucho se puede sorprender, pero es la realidad, Microsoft empieza a hacer campaña anti-chrome. Esto se debe al pésimo navegador que ha liberado Google. Tras abanderarlo como un navegador hecho desde cero para la nueva generación de aplicaciones web, nos encontramos la primera gran mentira ya que incluye código de Apple (WebKit), Mozilla (Gecko) y Microsoft (C++, WTL). Pero no era la única bandera que traía este navegador consigo, sino que la seguridad ha sido otra bandera que ha sido necesario quitar, los primeros agujeros permitían la descarga (aún sin resolver) automática de archivos sin petición al usuario, ejecución de código malicioso, etc. Por no fijarse en las actualizaciones del WebKit.

Ante esta situación, en la que este navegador supone un gran agujero negro para el sistema. Recuerden que Google solo lo ha liberado para Windows. Esto, creo, que se debe a que llevar a otras plataformas la excelente librería WTL de Microsoft puede ser un poco complicado para los ingenieros de Google. Por ello, Microsoft ha decidido que la entrada a Windows Live Mail con Chrome tenga un paso más. Si entras con Chrome, te encuentras con el siguiente mensaje:

image

¿Cómo?¿Qué?¿Microsoft recomendando Firefox y Safari? ¡Pues sí! A pesar de que Google haya sido probado por la mayoría de los geeks, y la mayoría lo hemos dejado de usar decepcionados, Google ha incluído la recomendación en su página principal. ¿Estamos locos? Me apuesto algo a que muchos usuarios con algo de curiosidad lo han instalado y lo han usado. Usuarios potencialmente de Internet Explorer. Y Microsoft prefiere sacríficar estos usuarios en beneficio de la seguridad.

Y no es solo Microsoft quien no recomienda usar Chrome, Alemania contra ‘Google Chrome’ (elmundo.es).

http://eugenioestrada.es/blog

la información de internet: consecuencias

Aún el otro día hablaba sobre la dificultad de organizar los contenidos en internet y horas después se vio una evidencia de mis palabras.

Google News, el servicio de sindicación y búsqueda de noticias de Google, ponía como noticia de última hora que United Airlines estaba en suspensión de pagos. Como es lógico los inversores empezaron a vender sus acciones con el resultado de que de 12$ que valía la acción pasarón a valer 3$.

Esto sería normal si la noticia no fuese una noticia de 2002 que por error Google la sindicó como noticia de última hora.

Ahora vosotros sumar y encontrar las consecuencias.

Fuente: Error en ‘Google News’ hace que las acciones de ‘United Airlines’ caigan un 75%

http://eugenioestrada.es/blog

la información de internet

A pesar de la cantidad de información que podemos encontrar en Internet, esta no está estructurada lo suficientemente bien como para analizarla informáticamente.

Esto se debe a que realmente la información la estamos presentando igual que se presentaría en papel. Nos hemos olvidado que la información digital tiene, si se lo damos, valor añadido. Si en Internet aumentasemos el número de datos que estamos mostrando, daríamos ese valor que ahora mismo carece. Cuando hablamos de la Web 3.0, la Web semántica, y del intento de organizar la Web, nos encontramos con ese preciso problema.

¿Cómo pretendemos catalogar la Web simplemente a través de un texto?

De momento dejo la respuesta en el aire. La llegada del RSS está suponiendo un cambio en los hábitos de navegación. ¿Para que me voy a tragar toda una página con su publicidad, comentarios, etc.? Si solamente quiero leer el contenido. Pero igual que pasó con la web la publicidad se está empezando a incluir en los rss, como n,o el dueño de Internet y la publicidad online, Google, tenía que estar detrás.

¿Porque está suponiendo este cambio? Bien, si nos vamos al rey de las busquedas en su versión de blogs lo podemos comprobar, http://blogsearch.google.com. Un blog, mediante el rss u otros metodos de sindicación como atom, expone una serie de cambios en la web. Si vemos la especificación de rss, http://cyber.law.harvard.edu/rss/rss.html, podemos ver como a una página le damos un título, un link, una descripción. No solo eso, también podemos especificar el autor de la página, el webmaster, el idioma, fecha de publicación, administrador, generador del documento, etc. Ya estmaos dando más información a la web.

Y BlogSearch de Google lo explota, nos permite (http://blogsearch.google.com/blogsearch/advanced_blog_search) busar por titulo, por autor, por rango de fechas de publicación. Estamos llevando la tercera dimensión a Internet. Lo mismo hace con su servicio de noticias, http://news.google.com/, donde además organiza por categoría, relevancia, noticias similares, etc.

Ahora bien, cuando se crearon los primeros estandares en internet la situación de la Web no era la actual. Ahora mismo podemos identificar principalmente dos tipos: páginas web y aplicaciones web. En estas segundas podemos separarlas por html classic, aplicaciones ajax y ria (Rich Internet Application). Por lo tanto no todas tienen contenidos. Pero por ejemplo páginas como Wikipedia, contienen la suficiente información como para que fuese bueno que se estructurase. Cosa que hace muchas veces mediante enlaces a otros temas, personas, etc.

El problema también lo encontramos cuando aparecen páginas ajax y RIP (Rich Internet Pages), ya que no son applicaciones, son páginas de contenido pero técnicamente usan metodologías ajax y tecnologías de RIAs (como Youtube).

HTML 5, se mueve hacia incluir un poco más de información. Si en vez de usar un player Flash o Silverlight, usamos un tag video, quien analice esa página sabrá que ahí hay un video, luego ya podrá analizar ese video para ver su contenido y como catalogarlo. Por lo tanto a donde quiero llegar, es que si en una web tenemos un tag <person></person>, <phone></phone>, <address></address>, etc. Podríamos darle valor añadido y, no solo eso, damos la opción al navegador a que ese <phone></plone> lo coja para un servicio de llamada, <person></person> que lo busque en tus contactos o <addrees></address> lo use word para escribir una carta.

Hacía ese sentido, o eso me ha parecido a mi, se mueve el proyecto de minería de datos, de Microsoft Live Labs, Entity Extraction. Que no se sabe mucho al respecto, pero tiene muy buena pinta.

 

http://eugenioestrada.es/blog

Googlermano!

¿Cuál es el motivo de la existencia de Google? La contestación de muchos es por y para internet, vive en internet. Sin internet Google no existiría.

Pero mis preguntas van más allá: ¿qué es ? y ¿de que se nutre?. Bien Google, además de uno de los mejores sitios para trabajar según Fortune, es un cluster de 20.000 servidores. Estos se encuentran repartidos entre 7 data centers como Washington D.C. (USA), Herndon (Virginia, USA), Santa Clara (California, USA) o Zurich (Suiza). Cada uno de estos servidores bajo una instalación de Red Hat, tiene una memoria que ronda entre 256 MB y 1 GB de RAM. Y cada uno de estos servidores tienen uno o dos discos duros de 40 GB o 75 GB (lo que, si cada pc solo tuviera un disco de 40, serían 781,25 TB de almacenamientos, pero es más). Además tienen un único procesador Intel.

Siguiendo con los datos anecdóticos tiene más de 5,000 millones de búsquedas cada mes (dos mil por segundo aprox.) y tiene más de 3,000 millones de documentos.

Ahí es donde quería llegar yo, bajo esa carcasa de software libre, servidores de bajo costo, etc. Están alojados más de 3.000 millones de documentos. ¿Qué hay en esos documentos? Pues desde un googlesatélite orbitando hasta páginas web, videos (www.youtube.es), emails (www.gmail.com, junto a las conversaciones de chat de GTalk), historiales de búsqueda (www.google.es/history), blogs (blogsearch.google.com), noticias (news.google.com), artículos (knol.google.com), imagines (picassa.google.com), mapas (maps.google.com) y podría seguir con la infinidad de servicios que tienen.

Ahora ha decidido que va a convertirse en la hemeroteca mundial. Google podrá convencernos, o no, y vendernos un navegador, pero si dice que va a digitalizar más de 100 periódicos, va a recopilar y guardar esa información, Google lo hace. tiene los medios. Luego sabrá vendernoslo (ya se encargarán de hacerlo con la ayuda de esos periódicos), pero primero recopila la información.

Google no es internet, Google es información. Sobre esta afirmación, hoy salía otra noticia cuyo título es parecido a el de este post, pero el trasfondo es diferente. Google en sus logs guarda la información del usuario durante 9 meses (antes 18) donde relaciona la IP con las palabras buscadas con el fin de mejorar servicios. El problema se lo encuenta cuando productoras consiguen que Google les de esos datos. Por lo tanto, la única forma de no dar esos datos sería no almacenándolos.

¿Qué sabe Google de nosotros?

http://eugenioestrada.es/blog

Sistemas operativos del futuro

Muchos han visto a Google Chrome como un enemigo directo de Windows, hablan de cómo Google se puede convertir en el futuro de la única aplicación instalada en el PC. Obteniendo acceso a todas las aplicaciones Web 2.0 actuales o las nuevas por aparecer. Entre estos artículos podemos encontrar a Chrome mirando más allá (del famoso Enrique Dans), JavaScript será el lenguaje del futuro… o Google Chrome: el sistema operativo de la web.

Recomiendo el artículo, de Miguel Llopis, Mucho ruído y pocas nueces. Donde no es tan extremista como los anteiores artículos, pero si deja claras cuales pueden ser las intenciones de Google con esta aportación a la “Browser War”.

Actualmente tenemos un panorama muy variopinto. Por un lado tenemos los pequeños netbooks, pensados exclusivamente para la navegación por internet y pequeñas funciones de ofimática; ordenadores con 19 horas de autonomía, con un linux precargado en la bios para la misma función que los netbooks: intenet; y al parecer Google quiere irrumpir en este mercado.

¿Realmente estamos preparados para una informática conectada? ¿Tenemos la infrastructura necesaria para ello? ¿Debemos fiarnos de la cloud-computing? A pesar de que técnicamente es un tema fascinante. Yo creo que no. Mientras en todos los hogares, en todas las partes del mundo, no podamos conectarnos a internet con una velocidad razonable, no podremos de hablar de una cloud-computing real.

No solo eso, ¿debemos confiar nuestros datos a terceros? Yo creo que debemos tener un mundo parecido a lo que Mesh nos propone. ¿Windows Home Server hará backups integrados en Mesh? Esto ya es otra cosa. O MobileMe de la mano de Apple. Donde la cloud-computing solo tiene un papel semi-secundario (aun que técnicamente tenga el papel principal) para que nuestros datos estén disponibles allí donde estemos.

Quizás el camino debe ser hacia la completa estandarización y la sincronización. Que allí donde esté pueda tener mis archivos y los pueda leer y editar. Pero para ello es necesaria la infrastructura necesaria y aquí en España, vamos muy atrasados en lo que a comunicaciones se refiere.

Por lo tanto, como reflexión final Google Chrome es un complemento para los netbooks o las linux-bios (como las de Dell). Pero teniendo en cuenta que Google Chrome consume más memoria que IE8 Beta 2 e IE8 consume más memoria que XP. No solo eso, la autoridad alemana de seguridad en materia de tecnología de la información recomiendo no usar Chrome. Además, si estamos ante una guerra de núcleos, nos han prometido para 2010 procesadores AMD de 12 núcleos. ¿Pretendemos derrochar las innovaciones en cuanto a hardware?

¿A dónde pretende ir Google así?

http://eugenioestrada.es/blog