Windows Azure AppFabric SDK V1.5

En estos días que corren, no todo va a ser Windows 8.

Se ha publicado la versión 1.5 del SDK de Windows Azure AppFabric que trae novedades principalmente en la parte de Service Bus, incluyendo mensajería brokered como topics, colas y subscripciones.

Junto a la descarga del SDK, tenéis ejemplos de las nuevas funcionalidades en Visual C# y Visual Basic.NET

Próximamente se incluirán más detalles sobre este nuevo sdk en su sección correspondiente de la MSDN.

Un saludo.

EDITO:

Hoy también se anuncia Windows Azure SDK 1.5 y hay más detalles sobre las nuevas features en el Service Bus:

Service Bus September Release

This new release introduces enhancements to the Service Bus that improve pub/sub messaging by introducing features such as Queues, Topics and Subscriptions, and Rules. It also enables new scenarios on the Windows Azure platform, such as:

  • Asynchronous Cloud Eventing – Distribute event notifications to occasionally connected clients (for example, phones, remote workers, kiosks, and so on)
  • Event-driven Service Oriented Architecture (SOA) – Building loosely coupled systems that can easily evolve over time
  • Advanced Intra-App Messaging – Load leveling and load balancing for building highly scalable and resilient applications

Raona

Ha llegado la hora del cambio y ahora trabajo en Raona. Después de casi tres años en Plain Concepts puedo decir que no conservo a ningún compañero, lo que conservo son amigos 🙂

En Septiembre del 2010 he comenzado una nueva andadura, con interesantes retos para este 2011 como consultor para Raona. Andadura que ha comenzado con muy buen pie 🙂

Un saludo 🙂

Streaming de libros Parte 2 – Indexación con Full Text Search

Full Text Search nos da la capacidad de indexar campos basados en caracteres (aunque su almacenamiento sea en binario) y hacer búsquedas complejas sobre esos textos.

Esta capacidad viene dada por los siguientes elementos:

  • SQL Full-text Filter Daemon Launcher: Se encarga de mantener actualizados los índices Full Text Search de cada tabla, asociado a cada instancia de Sql Server, pero corriendo en un proceso separado. Si no lo necesitamos, podremos poner su estado a Stop.
  • Full-text index : Índice full-text que indexa el contenido de la tabla. Solo puede haber uno por tabla y lenguaje. Por lo que, si nuestra aplicación maneja documentos en distintos idiomas, será necesario separarlos en tablas distintas.
  • iFilters: El motor de indexado debe de reconocer el tipo de fichero que contiene el campo varbinary(max), de ahí que la extensión de ese fichero se almacene en la columnda DocumentType. Para ver los tipos de ficheros que el motor es capaz de indexar, ejecutaremos la siguiente sentencia:
    •  
      •  
        •  
          •  

Si alguna extensión no aparece, es necesario instalar su iFilter específico. Por ejemplo, es el caso de los ficheros PDF de Adobe. En máquinas de 32 bit, el iFilter para ficheros PDF se instala con el propio Adobe Acrobat Reader, pero para máquinas de 64 bit es necesario instalar el componente Adobe PDF iFilter 9 for 64-bit platforms y seguir las instrucciones.

  • Consultas específicas para consultar campos indexados con Full-text Search, como CONTAINS o FREETEXT.

Comenzaremos con la creación del índice Full-Text search en nuestra tabla Book. Para ello, utilizaremos el Sql Management Studio.

  • Haciendo click con el botón derecho sobre nuestra tabla, desplegaremos el siguiente menú:

image

  • Seleccionar el índice único sobre la columna que anteriormente hemos creado:

image

  • Seleccionar la columna que contiene los datos varbinary a indexar, la columna que contiene el DocumentType y el lenguaje en que los libros están escritos:

image

  • Seleccionar el modo en que los cambios sobre el campo Data van a ser registrados.Salvo escenarios excepcionales, el modo más común y recomendando es Automatically:

image

  •  
    •  
      • Automático: Los cambios sobre el campo Data se registrarán en una tabla y el índice será actualizado automáticamente.
      • Manual: Los cambios sobre el campo Data se registrarán en una tabla, pero la actualización del índice conforme a esas modificaciones tendrá que ser explícito (llamado a mano).
      • No registrar cambios: Los cambios sobre el campo Data no se registrarán, por lo que el índice tendrá que ser rehecho para mantenerlo actualizado.
  • Seleccionar el catalog en el que se creará el índice ful-text y más opciones de búsqueda:

image

  •  
    • Es necesario seleccionar un catalog de tipo full-text para crear el índice. También en esa sección podemos establecer si se consideran las tildes para las búsquedas.
    • En la opción “Select full-text stoplist” se elige la lista de palabras stop (palabras que son, por ejemplo, nexos entre otras palabras, etc). Si se selecciona “system” se utilizarán las palabras stop del lenguaje del sistema. Otros valores son “off”, para que también sean indexadas, o la selección de una lista personalizada de este tipo de palabras especiales, ya sea porque queremos elegir una lista en un lenguaje distinto al del sistema o una específica. Con esta opción se pretende no crear confusión en la búsquedas y aliviar la carga del índice al no tener que indexar este tipo de palabras, que suelen ser numerosas.
  • En esta pantalla se seleccióna la planificación de la populación de la tabla y del full-text catalog.
  • Finalizando este wizard, se comenzará a popular el índice, ya que el tipo de registro de cambios se ha establecido en automático.

Ahora ya está indexado el campo Data con un índice full-text que, según está configurado, se actualizará automáticamente ante modificaciones en la tabla.

Podemos ver cómo queda el menú Full-text index de nuestra tabla:

image

 

 

 

 

 

La única opción que cabe comentar es Start Incremental Population, que realiza la populación del índice de manere incremental, con la restricción de que la tabla tiene que tener un campo timestamp para controlar ese proceso incremental.

Para posteriores post, utilizaremos las consultas CONTAINS y FREETEXT para consultar el campo indexado.

Streaming de libros Parte 1 – Almacenamiento en FileStream

Voy a intentar ilustrar a lo largo de una serie de post la gestión de un almacén de libros. Para ello, vamos a utilizar la tecnología File Stream para su almacenamiento en nuestra base de datos Sql Server 2008 R2 Express, la tecnología Full-Text Search para su posterior indexación y consulta de contenidos y WCF + MTOM para hacer posible el streaming (tanto upload como downdload) de nuestros libros.

File Stream es una manera de guardar información no estructurada, como videos, imágenes, etc, fuera de nuestro almacenaje estructurado, por lo que esa información estarán directamente almacenada en el sistema de ficheros, eliminando las penalizaciones, tanto de rendimiento como de tamaño, que supondría tenerla directamente albergada en nuestras tablas. Otra ventaja de File Stream es que nos permite aprovechar mejor los límites de tamaño que las versiones Express nos ofrecen, ya que esta información almacenada en File Stream no se tiene en cuenta para esas restricciones 🙂

El primer paso que daremos es activar el soporte para File Stream en nuestro motor de base de datos, para ello abriremos el Sql Server Configuration Manager para acceder a las propiedades de nuestra instancia y ahí activar el soporter para File Stream:

image

image

Otra forma de activar el File Stream es en la instalación de nuestro Sql Server.

El siguiente paso es crear una base de datos con un filegroup File Stream para almacenar nuestros libros, después le indicaremos a la base de datos que ese va a ser el lugar seleccionado para tal propósito. Esta tarea podemos llevarla a cabo bien con el Sql Management Studio o bien a través de la ejecución de un script.

Utilizando el Sql Management Studio seguiríamos los siguientes pasos:

  • Creación de FileGroup de tipo File Stream, lo llamaremos BooksFileStream.

image

  • En la sección General, indicamos a la base de datos en qué File Group de tipo File Stream va a almacenar los libros y cuál va a ser su ruta física en el sistema de ficheros en la propiedad Path. La llamaremos Books_Data.

image

 

Si hubieramos optado por la ejecución de un script para la creación de nuestra base de datos, tendríamos que haber generado algo parecido a lo siguiente:

CREATE DATABASE [Books] ON  PRIMARY
( NAME = N’Books’, FILENAME = N’C:Program FilesMicrosoft SQL ServerMSSQL10_50.SQLR2EXPRESS64MSSQLDATABooks.mdf’ , SIZE = 3072KB , MAXSIZE = UNLIMITED, FILEGROWTH = 1024KB ),
FILEGROUP [BooksFileStream] CONTAINS FILESTREAM  DEFAULT
( NAME = N’Books_data’, FILENAME = N’C:Program FilesMicrosoft SQL ServerMSSQL10_50.SQLR2EXPRESS64MSSQLDATABooks_data’ )
LOG ON
( NAME = N’Books_log’, FILENAME = N’C:Program FilesMicrosoft SQL ServerMSSQL10_50.SQLR2EXPRESS64MSSQLDATABooks_log.ldf’ , SIZE = 1024KB , MAXSIZE = 2048GB , FILEGROWTH = 10%)
GO

ALTER DATABASE [Books] SET COMPATIBILITY_LEVEL = 100
GO

IF (1 = FULLTEXTSERVICEPROPERTY(‘IsFullTextInstalled’))
begin
EXEC [Books].[dbo].[sp_fulltext_database] @action = ‘enable’
end
GO

En el que, además de las tareas típicas de la creación de la base de datos, se crea el File Group de tipo File Stream y se indica la ruta para el almacenamiento. También se comprueba si la base de datos tiene soporte para Full Text Search activado, y en caso negativo, lo activa.

Y ya hemos creado nuestra base de datos con soporte de File Stream. Ahora crearemos la tabla Book, en la que almacenaremos nuestros libros, con su título, el tipo de fichero y su fichero propiamente dicho.

En esta tarea no tendremos opción de elegir entre realizarla con el Sql Server Management Studio o ejecutar un script, ya que no hay manera de indicar, a través del Sql Server Management Studio, que un campo de una base de datos es File Stream. El script sería el siguiente:

CREATE TABLE [dbo].[Book] (
    [IdBook]       UNIQUEIDENTIFIER           ROWGUIDCOL NOT NULL,
    [Title]        NVARCHAR (MAX)             NULL,
    [DocumentType] NVARCHAR (10)              NULL,
    [Data]         VARBINARY (MAX) FILESTREAM NULL DEFAULT(0x),
    UNIQUE NONCLUSTERED ([IdBook] ASC) WITH (ALLOW_PAGE_LOCKS = ON, ALLOW_ROW_LOCKS = ON, PAD_INDEX = OFF, IGNORE_DUP_KEY = OFF, STATISTICS_NORECOMPUTE = OFF) ON [PRIMARY]
);

Me gustaría aclarar que File Stream en sí no es un tipo, si no la manera en que ese campo de la base de datos va a almacenarse. El tipo en sí es varbinary(max).

Adelantandonos a capítulos posteriores, hay que decir que, para la posterior creación de un índice Full Text Search es necesario contar en la tabla con un campo único no nulo decorado con la propiedad ROWGUIDCOL, que indica que la nueva columna es una columna de GUID de filas. Además, será necesario la creación de una columna NVARCHAR o tipo similar que almacenará la extensión del fichero en que hayamos guardado el libro (.docx, .pdf, etc), esta última columna es necesaria porque los datos indexados están en una columna de tipo varbinary y el motor de indexación Full Text Search necesita conocer el tipo de fichero sobre el que va a operar.

En el siguiente post hablaremos de la generación del índice Full Text Search y cómo útilizarlo para nuestras consultas.

Psscor2 : Extensión de debug de .Net en WinDbg

Las personas que estén acostumbradas a utilizar el debugger WinDbg para depurar sus aplicaciónes .Net conocerán de sobra la extensión SOS.

Pues bien, quería hablaros de la liberación de la nueva versión de Psscor2, con más funcionalidades añadidas que la extensión SOS, sobre todo para aplicaciónes ASP.Net.

Para más información, dos blogs esenciales:

ASP.NET Debugging

If broken it is, fix it you should

Espero que las disfrutéis.

Novedades Entity Framework 4.0 : Generación de la base de datos

En la nueva versión de Entity Framework 4.0 adelantada con el .Net Framework 4.0 RC se han implementado métodos que nuestro contexto hereda de ObjectContext para manejar la base de datos con la que se mapeará nuestro modelo. 

Podemos partir de un modelo vacio en el wizard de la creación del modelo, eligiendo “Empty model”:

image

 Y crear un modelo añadiendo, por ejemplo, dos entidades:

image

Y una relación entre ellas:

image

image

 Ahora, podríamos generar con un asistente nuestra base de datos:

image

 Pero vamos a utilizar el método CreateDatabase. Para ello, tenemos que crear una instancia de nuestro contexto, en este caso, PlainConceptsContext:

Utilizando el constructor por defecto, se hará uso de la cadena de conexión configurada en nuestro App.config:

<?xml version=»1.0″ encoding=»utf-8″?>
<configuration>
  <connectionStrings>
    <add name=»PlainConceptsContext» connectionString=»metadata=res://*/PlainConceptsModel.csdl|res://*/PlainConceptsModel.ssdl|res://*/PlainConceptsModel.msl;provider=System.Data.SqlClient;provider connection string=&quot;Data Source=.sqlexpress;Initial Catalog=PlainConceptsExample;Integrated Security=True;MultipleActiveResultSets=True&quot;» providerName=»System.Data.EntityClient» />
  </connectionStrings>
</configuration>

 Y, ahora:

PlainConceptsContext context = new PlainConceptsContext();
context.CreateDatabase();

 Aunque también se puede hacer uso del resto de sobrecargas que nuestro contexto nos provee.

 Para completar esta funcionalidad, disponemos de los siguientes métodos:

– context.DatabaseExists() :

Para evitar el lanzamiento de una SqlException por intentar crear una base de datos con un nombre ya existente, podemos tener un código como el siguiente:

            PlainConceptsContext context = new PlainConceptsContext();
            if (!context.DatabaseExists())
            {
                context.CreateDatabase();
            } 

– context.CreateDatabaseScript() :

Este método nos devolverá un string que contiene el script de creación de nuestra base de datos:

create table [dbo].[People] (
    [IdPerson] [int] not null identity,
    [Name] [nvarchar](max) not null,
    [Age] [int] not null,
    primary key ([IdPerson])
);
create table [dbo].[Pets] (
    [IdPet] [int] not null identity,
    [Name] [nvarchar](max) not null,
    [Age] [int] not null,
    [IdPerson] [int] not null,
    [PersonIdPerson] [int] not null,
    primary key ([IdPet])
);
alter table [dbo].[Pets] add constraint [PersonPet] foreign key ([PersonIdPerson]) references [dbo].[People]([IdPerson]);

– context.DeleteDatabase() :

Este método borrará la base de datos a la que ataca nuestro modelo.

Entity Framework : Documentación de código generado

Documentar nuestro código es una buena práctica reconocida que ayuda a la legibilidad y mantenimiento en nuestros desarrollos. De todos es conocido la tag Summary para documentar las cabeceras de nuestras clases, métodos, etc.

 Bien, si modelamos una clase con en Entity Framework, el código generado posee una tag con un comentario como el siguiente:

image

 Pero esto tiene fácil arreglo, si nos vamos al diseñador de nuestro modelo, en la pestaña de Propiedades, seleccionando la propiedad Age del ejemplo anterior, tendremos el siguiente apartado:

image

 Que podremos rellenar con el texto que deseamos que aparezca en la cabecera de esta propiedad y, por tanto, en nuesto IntelliSense o nuestro proyecto de documentación generado, por ejemplo, con la herramienta Sandcastle

 Una vez recompilado nuestro proyecto, el código generado será el siguiente:

image

 

 Y ya en tiempo de codificación:

image

 Espero que este pequeño consejo os ayude a la documentación en tiempo de desarrollo de vuestro código cuando utilicéis Entity Framework 🙂

Propuestas de Plain Concepts para el Mix 2010 !

Desde Plain Concepts hemos hecho las siguientes propuestas de charlas para el Mix 2010:

BECOMING SOCIAL. How to power up your website using social networks

PLAIN CONCEPTS’ SILVERLIGHT LIVE MESSENGER TOOLKIT

SILVERLIGHT IN THE AUDIOVISUAL WORLD

EXTENDING THE WINDOWS LIVE MESSENGER WEB TOOLKIT WITH SCRIPT# AND SILVERLIGHT

WHAT YOU SEE IS NOT WHAT IS THERE. Users mind as a resource in Expression Blend

Solo pediros que, si os parece interesantes y son de vuestro agrado, votéis por ellas para que salgan elegidas, prometemos no defraudar 🙂

 

Muchas gracias a todos por vuestro interes y colaboración 🙂

Bug descubierto en ADO.NET Data Services (a.k.a. WCF Data Services)

En el proyecto en el que actualmente trabajo estamos utilizando ADO.NET Data Services desde su primera versión y, debido al exhaustivo uso que estoy haciendo de esta tecnología, descubrí algun comportamiento errático que pasé a reportar al Equipo de producto, concretamente a Peter Qian, en una solución de Visual Studio que reproducía el comportamiento. Y, en efecto, una de las consultas a un Service Operation que devuelve tipos primitivos o colección de tipos primitivos provocaba una excepción cuando debía de funcionar perfectamente.

 

Al parecer, no se pueden dar más detalles del bug porque aun no han decidido cómo solucionarlo. Es agradable ver lo cercano que son los miembros de los equipos de producto y lo receptivos que están ante el feedback que se les provee 🙂

 

Thanks Peter 🙂

ADO.NET Data Services : Paginación

En este post voy a hacer un ejemplo de cómo paginar resultados de una consulta realizada a través de ADO.NET Data Services y aprovechando la funcionalidad que se provee a partir de la versión v1.5CTP1.  La paginación en la consumición de servicios es una buena práctica, ya que traemos en segmentos los datos que vamos a traernos y, así, tanto cliente como servidor, pueden ir procesando al mismo tiempo tanto lo que va a servir como lo que se va a consumir.

En este ejemplo contamos con dos entidades Master y Slave, Master tiene una propiedad de navegación hacia Slave de uno a muchos.

Bien, la paginación en ADO.NET Data Services se hace a nivel de Entidad de nuestro modelo, por lo que en el método InitializeService de nuestro servicio utilizaremos el método SetEntitySetPageSize para especificar el tamaño máximo de página para un EntitySet dado o, lo que es lo mismo, el número máximo de entidades de ese tipo que viajarán en un lote por el servicio. El código sería el siguiente:

config.SetEntitySetPageSize(«Master», 10);

Será diez el tamaño máximo de página. Tampoco tenemos que olvidar que la versión de protocolo de Data Services tiene que ser la V2, cosa que también especificaremos en el método InitializeService de nuestro servicio la siguiente manera:

config.DataServiceBehavior.MaxProtocolVersion = System.Data.Services.Common.DataServiceProtocolVersion.V2;

Siendo config un objeto de tipo DataServiceConfiguration que el método InitializeService recibe por parámetro y que ya todos conocemos.

Ahora vamos a crear el código de la llamada en cliente, en el que vamos a rellenar una lista de entidades Master de manera paginada con sus entidades Slave relacionadas:

List<Master> masterList = new List<Master>();

DataServiceQueryContinuation<Master> token = null;

QueryOperationResponse<Master> response = context.Master

                                  .Expand(«Slave»)

                                  .Execute() as QueryOperationResponse<Master>;

          do

            {

         if (token != null)

                {

                    response = context.Execute<Master>(token) as QueryOperationResponse<Master>;

                }

                masterList.AddRange(response);

            } while ((token = response.GetContinuation())  != null);

 

Explicado un poco el código, utilizaremos un objeto de la nueva clase DataServiceQueryContinuation para paginar nuestra petición, casteando la ejecución de la query al tipo QueryOperationResponse y materializando la consulta con response.ToList(). Posteriormente, recuperaremos el siguiente DataServiceQueryContinuation con diez entidades Master más. Cuando el objeto response no pueda suministrar más DataServiceQueryContinutation en las que viajan cada una de las páginas de nuestra consulta, devolverá null y significará que nuestra consulta se ha materializado por completo, por lo que la lista masterList quedará rellena con todas las entidades Master de nuestro almacen relacional. En cada iteración del while podríamos observar como su número de elementos aumenta de diez en diez.

Con este tipo de paginación se consigue que el cliente procese una cantidad estipulada de entidades mientras el servicio le suministra las siguientes, manteniendo un nivel de consumo de recursos del sistema adecuado, tanto en cliente como en servidor. También es una buena técnica para evitar límites de tamaño de mensaje servido por el servicio o Time outs.

Pero también se puede utilizar para paginación visual, con la que conseguiremos sólo consumir lo que va a ser mostrado y no materializar toda la consulta, con entidades que no van a ser utilizadas. Para lo que utilizaríamos los típicos controles de navegación de páginas.

Algo a tener en cuenta es que, así configurado el servicio, cualquier consulta sobre ese EntitySet recuperará solo diez entidades, ya sea esa consulta paginada o no.