Error de Entity Framework con SQL Server 2000

ErrorHoy toca una de cal con Entity Framework 4. Y es que trabajar con un entorno de desarrollo distinto del que luego te puedes encontrar en producción tiene su riesgo (que levante la mano cuántos tienen instalado Visual Studio sobre Windows Server). Una solución es trabajar con máquinas virtuales que simulen al máximo el entorno que te vas a encontrar en producción, pero muchas veces es inviable por los recursos y el tiempo necesario para gestionar todas las combinaciones que tenemos en nuestros clientes.

El error: al pasar del entorno de desarrollo a producción, nos encontramos con un error de EF4 al resolver una consulta. Un ejemplo de excepción es:

Exception Details: System.Data.SqlClient.SqlException: Incorrect syntax near ‘(‘.

Al usar IntelliTrace para ver dónde estaba el error, vemos la sentencia SQL que está montando EF para resolver una llamada “FirstOrDefault”:

Error Top 1

Al intentar ejecutar esta sentencia en nuestro entorno de desarrollo sobre SQL Server 2008, no da ningún problema. Sin embargo, al ejecutarla sobre SQL Server 2000, da un error de sintaxis en “SELECT TOP(1)”.

Esto ocurre porque el mapping del modelo se ha realizado usando SQL Server 2008 en vez de 2000, con lo que el motor de EF usa T-SQL que no es soportado por la versión en producción.

Para solucionarlo rápidamente, simplemente abrimos el modelo .edmx con el visor XML y editamos el atributo “ProviderManifestToken” cambiando el valor “2008” por “2000”.

Cambiar valor 2008 a 2000

Compilamos y listo!!!!

Espero que sirva de ayuda. Un saludo.

DotNetNuke Azure Accelerator SMB

Lo prometido es deuda. Ya está disponible la versión del acelerador de DotNetNuke para Azure con soporte para múltiples webroles en CodePlex.

Esta nueva versión pone al día el trabajo de DotNetNuke con la plataforma con una serie de nuevas características, la mayoría de ellas gracias a la adaptación del acelerador a la última versión del SDK (recordemos que la anterior usaba HWC para servir el contenido).

Recordad que el acelerador y toda la información relacionada está disponible en:

http://dnnazureaccelerator.codeplex.com/

Nuevas características

  • Soporte para múltiples instancias de webroles sirviendo el contenido de lectura/escritura
  • Nuevo asistente de instalación y despliegue sobre Windows Azure basado en WinForms
  • Soporte para Windows Azure SDK 1.4 (April refresh)
  • Soporte para .NET Framework 4.0 (ya se soporta el módulo Razor)
  • Acceso a escritorio remoto a las instancias
  • Soporte Full IIS
  • Posibilidad de usar Azure Connect
  • Soportada modificación de Web.config (los ficheros están en una unidad compartidad de lectura/escritura)
  • Soporte para múltiples alias de portal (bindings)
  • Incluida imagen DNN Community 5.6.2 y preconfigurada como WebFarm (se usa fileCachingProvider para la versión CE)

Arquitectura del DNN Azure Accelerator

Un captura de pantalla vale más que mil palabras

Os dejo con una serie de capturas de pantalla para que os hagáis una idea. También podéis ver el post anterior con algunas otras mostrando la conexión “por dentro”.

Asistente de despliegue - Paso 1

Asistente de despliegue - Paso 2

Asistente de despliegue - Paso 3

Asistente de despliegue - Paso 4

Roles desplegados en Windows Azure

Un saludo

Error y solución al restaurar una colección de sitios en Sharepoint Online

Sharepoint_Online_logoCon el permiso de los gurús de Sharepoint, voy a documentar una incidencia y su resolución que me ha surgido hoy, más que nada para ahorrar tiempo de “upload” a la nube en casos de error y reintento.

Para migrar un portal Sharepoint onpremise a Sharepoint Online, en el mercado hay un amplio abanico de soluciones para acometer esta tarea, muy completas, pero nada baratas.

Si lo que estás intentando subir es un sitio basado en WSS 2.0 o WSS 3.0, se puede usar Sharepoint Designer 2007 (para la versión actual de BPOS, con la de Office 365 hay que usar Sharepoint Designer 2010) para realizar el proceso de restauración.

NOTA: Para el que aún no lo sepa, SharePoint Designer 2007 es gratuito. Se puede descargar desde el enlace siguiente:

Los pasos para realizar el proceso de importación en Sharepoint Online están muy bien explicados en este post de Loryan Stant por lo que no voy a repetirme aquí. Pero sí voy a apuntar algunas consideraciones, ya que si no te puedes encontrar que después de 7 horas de upload, al restaurar los archivos te encuentras con el mensaje de error Error ocurred while importing the web XXX. The file cannot be imported because its parent web XXX does not exist

ErrorSP

Algunos bri-consejos

  1. Asegúrate de que la exportación del sitio la realizas con un usuario que sea “Administrador de la colección de sitios”, para que pueda exportar todo el contenido
  2. Una vez realizada la exportación, revisa el archivo de log generado. Lo primero, ve al final y comprueba que las dos últimas líneas rezan algo como “Completado con 0 advertencias, Completada con 0 errores”. Si no es así, busca por la palabra “Error” en el archivo y te dará la pista que te ahorrará realizar un upload de varias horas
    Bueno
    En mi caso, la exportación la realicé con un usuario que no era administrador de la colección de sitios y tenía estos mensajes:
    Malo
  3. Asegúrate de que en Sharepoint Online, la colección de sitios la creas con la plantilla “Sitio en blanco”. La predeterminada es “Sitio de grupo” y la restauración no es posible si no es sobre una en blanco.
    Blanco
  4. Asegúrate que el proceso de importación, al iniciarlo desde Sharepoint Designer lo haces con un usuario “Administrador de la colección de sitios” de Sharepoint Online

Espero que estos cuatro consejos os evite unas cuantas horas de upload.

Un saludo.

Redgate’s SQL Azure Backup Beta

Repasando tareas pendientes, acabo de meterle mano al correo que me llegó anunciando esta interesante herramienta de la mano de RedGate, ahora mismo en Beta.

Se trata de una utilidad para realizar copias de seguridad de nuestras bases de datos de SQL Azure a un SQL Server local, cosa harto útil en gran variedad de escenarios que requieran sincronizar nuestro esquema y datos a local mediante un interfaz realmente simple.

Para comenzar, os podéis descargar la beta gratuitamente desde este enlace (la beta caducará el 1 de septiembre de 2011):

Descargar RedGate’s Azure Backup Beta

Realizando un Backup de la nube a mi servidor local

Una vez descargada la herramienta, simplemente iniciamos el asistente en el que se solicitan los datos del servidor en la nube y los datos de acceso a nuestro servidor local:

SQL Azure Backup

Lo primero que podemos observar, es que la base de datos local será una base de datos nueva que creará el asistente. No se han complicado mucho la vida con esto, pero de eso se trata. Si quieres algo muchíiiisimo más potente, échale un vistazo a sus hermanos SQL Compare 9 y SQL Data Compare 9.

Al pulsar siguiente, estamos justo en el paso previo de comenzar el backup. Se ve que han metido en plantilla a algún diseñador de UI o por lo menos lo parece Sonrisa.

SQL Azure Backup2

Mientras se ejecuta el proceso de backup y restore, podemos gozar de publicidad gratuita en la parte inferior de las barras de progreso –nota para el futuro, poner publicidad en todos las progressbars de mis aplicaciones, nunca se sabe hasta donde puede llegar un mensaje subliminal.

SQL Azure Backup3

Una vez que el asistente realiza su trabajo (aquí obviamente dependerá del tamaño del esquema y del volumen de datos sobre la línea de datos que utilicemos) ya podemos acceder a nuestra base de datos local.

SQL Azure Backup 5

Conclusión

He comprobado que sobre una base de datos DotNetNuke con todos los módulos instalados (190 tablas, 1114 procedimientos almacenados, etc.) no ha dado ni un sólo problema y la base de datos es 100% funcional. Parece ser una solución ideal si queremos trabajar en local sobre la última copia de los datos que tenemos publicados en Azure…con sólo 2 clicks!!!!!

Un saludo.

DotNetNuke Azure Accelerator con soporte Multi-instance

Esta semana voy a estar trabajando en la documentación del nuevo paquete de instalación del DNN Azure Accelerator que está recién salido del horno. Hace un ratillo eliminé el despliegue que había hecho, sin darme cuenta que el anuncio de la nueva solución estaba en el mismo foro del despliegue (en http://dnnaccelerator.cloudapp.net).

Voy a poner el contenido del post aquí que ya actualizaré cuando tenga la documentación completa, para que las instancias desplegadas no consuman recursos de mi VISA.

Un saludo.

DNN Azure Accelerator with multi-instance support

This week I’ll prepare a new package with the DNN Azure Accelrator with new important updates. This new idea is inspired on the post of Dinesh Haridas using a SMB server and a SMB client.

Summary of changes:

  • Support for SDK 1.4 (April refresh)
  • Support for .NET Framework 4.0 (Razor will also be supported)
  • Remote Desktop to the instances
  • Possibility to use Azure Connect
  • Web.config modification supported (the files are in a shared read/write cloud drive)
  • Multiple portal alias are also supported
  • DNN configured as a WebFarm (see DotNetNuke white papers for more info)
  • DNN 5.6.2 preconfigured

The new accelerator is using a SMB Server worker role instance, that mounts a cloud drive and share it across the internal network. Then the webrole instances maps the network drive and use it for the creation of a new site that is created dynamically on the role Start() event.

I need to sleep something 🙂 Meanwhile, some captures. Below the menu, you can see which computer is actually serving you this page (there are 2 webroles instances).

Accelerator Roles

AcceleratorRoles

SMBServer worker role

SMBServer

DNN WebRoles

DNNAzureWebRole

Mejorar el Ping con un “pincho” 3G

Sport_PingPongEste tema es un poco off-topic con todo lo relacionado con la nube (Mmm…quizás al final no tanto). Ahora que tengo todo empaquetado y listo para el evento de la semana que viene, me dio por echar un “vicio” a mi distracción favorita: una raid con los coleguitas de la guild en el WoW (por cierto, acabo de ver un Twit de David Salgado que estaba pensando hacer lo mismo, ya hablamos Lengua fuera).

Pues como empaqueté hasta el router ADSL, no tuve otra opción que usar el Mobile WiFi de Vodafone –que por cierto, va muy bien- para conectarme.

No entendía que si la velocidad de subida y bajada estaban muy bien –mejor que con mi línea ADSL fija-, cuando estaba dentro del juego alcanzaba valores de latencia entre 6000ms y 15000ms, hasta que finalmente me tiraba del juego.

Indagando un poco por los foros, encontré la solución y que detallo aquí porque supongo que se aplica en numerosas situaciones, no expresamente en juegos online. Seguro que alguna aplicación en la nube va a requerir del mismo modo una latencia “decente” y no esos horribles valores.

La solución

La solución es muy sencilla: reducir el tamaño máximo de los paquetes TCP/IP para la conexión que usa el pincho (o sus siglas en inglés, MTU). ¿Cómo se hace esto? Muy fácil siguiendo estos pasos –ojo, sólo Windows 7 y Windows Vista:

  1. Abrir una consola de comandos en modo administrador: Inicio>Todos los programas>Accesorios>Símbolo del sistema (pulsar botón derecho y Ejecutar como administrador)
  2. Ejecutar el comando siguiente:

    netsh interface ipv4 show subinterfaces

  3. El resultado es la lista de interfaces de red con la MTU de cada conexión. Por defecto la MTU de cada conexión es de 1500 excepto la de Loopback.
  4. Ahora, para reducir el tamaño de los paquetes a través de la conexión del pincho, escribir el comando siguiente, donde “Conexión de banda ancha móvil” es el nombre de la conexión asociada al pincho y 750 es el el nuevo tamaño de la MTU que queremos usar:

    netsh interface ipv4 set subinterface «Conexión de banda ancha móvil» mtu=750 store=persistent
    ModificarMTU

El resultado, espectacular. 138ms de ping. Con esto puedo desconectar hasta con el Call of Duty Sonrisa

Espero que os sea útil.

Evento TenerifeDev: Office 365 – Súbete a la nube

Microsoft-Office-365_thumb_16C90961¡Por fin! Por fin se ha liberado públicamente la Beta de Office 365 con lo que ya puedes inscribirte para solicitar el acceso al mismo y ver por ti mismo las novedades que trae.

Si estás en Tenerife la segunda semana de Mayo estás de suerte, porque el viernes 13 de mayo vas a poder ver todas estas novedades y con lo que vamos a poder trastear desde el punto de vista del desarrollador nada menos que de manos de Alberto Díaz –MVP de Sharepoint.

Los datos del evento son los siguientes:

  • Fecha: 13 de Mayo de 2011
  • Hora comienzo/fin: 17:00 – 18:30 (GMT+0)
  • Lugar: Salón de Grados, Escuela Técnica Superior de Ingeniería Informática
    Universidad de La Laguna, Camino San Francisco de Paula s/n
    38271, La Laguna, Tenerife, SPAIN
  • Descripción: La computación en la nube abarca desde los servidores hasta el escritorio, y por supuesto, las soluciones de productividad que hacen el día a día del trabajo de usuarios empresariales. Office 365 es parte de una plataforma unificada de productividad en la nube de Microsoft. Es adecuado para empresas de todos los tamaños, porque ofrece versiones en la nube de las soluciones más confiables de colaboración, comunicación y correo electrónico, en combinación con la conocida suite Office Professional Plus.
    Se acaba de publicar la versión Beta pública y tenemos algunas preguntas que responder:
    ¿Cuáles son los productos que incluye?
    ¿Cómo podemos desarrollar en esta plataforma?
    Vente con el grupo de usuarios TenerifeDev y descubre las novedades que nos trae esta plataforma de la mano de Alberto Díaz Martín, MVP en SharePoint Server.

Para registrarte en el evento, sigue este enlace. ¡El aforo es limitado!

Registrarse

¡MIX11: el DNN Accelerator se paseó por Las Vegas!

El lunes pasado creé una entrada en este blog comentando la agenda de las sesiones sobre gestores de contenidos en Windows Azure en el evento del MIX11 que esta semana ha tenido lugar en Las Vegas.

En ella comentaba al final que estaba muy intrigado por el contenido de la sesión de Shaun Walker acerca de DotNetNuke y Azure.

El martes ocurrieron cosas muy interesantes, como la publicación del nuevo Windows Azure Accelerator para Umbraco, en el que se resolvía el lanzar múltiples instancias con sincronización bi-direccional con el blob-storage de los contenidos. Personalmente había estado haciendo algo similar con MS Sync Services, pero al verlo terminado en Codeplex fue muy emocionante. Felicidades por el trabajo.

Si había comentado que estaba emocionado por ver el contenido de la sesión, lo que vino después me dejó petrificado.

Ayer transcurrió la sesión de Shaun que tanto llevaba esperando. Antes de meterse de lleno con DNN y Azure, Shaun resumió muy bien los términos SaaS, PaaS e IaaS, sentando las bases de cómo se ofrecen los servicios de computación en la nube. Siguió mostrando el SQL Azure Migration Wizard que tantos hemos usado (olé por ese proyecto!) y…cuando vi la Slide mostrando el Accelerator me quedé estupefacto.

El DNN Accelerator en WideScreen

Pues sí, al final la presentación se centró, con demo online y todo en http://dnnmixdemo.cloudapp.net, en la presentación de DNN en Azure con el Accelerator que había subido a CodePlex en febrero (ver entrada de blog).

¡Gracias desde el otro lado del charco! De verdad es un placer poder contribuir con un granito de arena en poder usar DNN sobre Azure.

Lo bueno es que ahí no quedó la cosa. Después de una conversación con Joe Brinkman, vamos a seguir mejorando el Accelerator para actualizarlo y usar las últimas características que ofrece Windows Azure (SDK 1.4, con su refresh la semana que viene) y solucionar la limitación de múltiples instancias que nombré al principio y que a la vez también reconoció Shaun en la sesión. Hay trabajo por delante, pero un trabajo muy emocionante a la vez que gratificante.

Os dejo con el vídeo de la sesión. No creo que lo disfrutéis tanto como yo, pero por lo menos os pondréis al día en algunos conceptos Sonrisa

Si no ves el vídeo o quieres descargarlo en otros formatos, puedes hacerlo desde http://channel9.msdn.com/events/MIX/MIX11/EXT12

Recuerda que puedes usar el DotNetNuke Azure Accelerator desde:

http://dnnazureaccelerator.codeplex.com/

La fiesta de los CMS sobre Windows Azure: MIX11

header_ballsplusComo muchos ya sabrán, desde mañana martes 12 hasta el 14 de Abril se celebra en Las Vegas el MIX11, una reunión de desarrolladores, diseñadores, expertos en interfaz de usuario y profesionales para la creación de los sitios más innovadores y rentables de la web. Las sesiones abarcan temas técnicos, consejos de expertos para estrategia en contenidos, usabilidad y diseño. En estas sesiones se hablará del futuro de de los estándares basados en la web.

Dentro del gran abanico de sesiones –que por suerte, para los que no podemos asistir en vivo, serán grabadas y compartidas en Channel 9– hay unas que tratan específicamente sobre la gestión de contenidos sobre Windows Azure.

Os dejo a continuación una agenda de las sesiones sobre este tema:

Martes 12 de Abril de 2011

Miércoles 13 de Abril de 2011

Las grabaciones estarán disponibles unas 24 horas después de ser grabadas. En directo se retransmitirán las keynotes del 12 y 13 de Abril. También os recomiendo seguir en Twitter el evento a través de @MIXEvent y el hash-tag #MIX11.

Intrigadísimo estoy…

La cita del miércoles 13 con Shaun Walker sobre DotNetNuke y Azure, reza así:

“Over the past couple of years, no technology has been hyped as much as the cloud, but even with so much hype, it is amazing how little is understood about its practical application in the enterprise. In this session, we will discuss the top 10 reasons why a business of any size should seriously consider moving to the cloud. We will also demonstrate how you can leverage DotNetNuke, the leading open source web content management system for ASP.Net to design and deploy feature-rich business websites on Windows Azure.”

Con ese anuncio, estoy más emocionado que cuando salí del cine la primera vez que fui a ver Matrix.

Happy Coding!

Primer vistazo a SQL Azure Reporting CTP

Después de algún tiempo sin pasar por el blog por motivos varios –largo número de eventos, carnavales, nevada y consecuente gripazo- estoy de vuelta con las pilas recargadas para acercaros las novedades que he podido saborear en la plataforma Azure.

El fin de semana pasado me llegó por fin la invitación para acceder a la CTP de SQL Azure Reporting (Customer Technology Preview, todavía ni es Beta), fase en la que se ofrece acceso limitado a la plataforma como primera toma de contacto a fin de obtener feedback sobre el producto antes de lanzarlo al mercado.

¿Qué es SQL Azure Reporting?

Es la tecnología capaz de generar informes ricos sin tener que mantener una infraestructura, permitiendo usar las mismas herramientas de desarrollo que estás acostumbrado a usar para subir informes a la nube.

No hay necesidad de administrar o mantener una infraestructura separada para la generación de informes, lo que conduce a costes más bajos y menos complejidad. Los clientes podrán acceder a los informes desde el portal de SQL Azure, a través del navegador o desde nuestras propias aplicaciones.

¿Para qué se usa SQL Azure Reporting?

Hay diversos escenarios, entre los que cabe destacar:

  • Generar informes de un datawarehouse sin necesidad de construir y gestionar una plataforma de presentación propia
  • Crear informes robustos y fáciles de leer y ponerlos disponibles directamente en tus aplicaciones o vía navegador
  • ¡Aprovecha la potencia de la nube! Mantén tus datos seguros mientras ofreces acceso a incluso más usuarios

¿Cuáles son las características principales?

  • Desarrollo de informes a través de Business Intelligence Design Studio (BIDS) o Report Builder, permitiendo realizar informes con características avanzadas: mapas, gráficos, indicadores, etc.
  • Permite exportación a varios formatos, como Excel, Word, HTML, PDF, XML, CSV y feeds ATOM
  • Escalabilidad y flexibilidad para demanda elástica, permitiendo aumentar o disminuir la capacidad de la plataforma según los requerimientos con alta disponibilidad y tolerancia a fallos de serie

¿Hay diferencias con SQL Server Reporting Services?

Sí, como también las hay entre SQL Server y SQL Azure. En este enlace hay una tabla rápida de comparación entre ambas plataformas: Comparación entre SQL Azure Reporting y SQL Server Reporting Services.

Comenzando a trastear con la CTP…

No sé si lo he pillado en un momento algo más avanzado que en su inicio, pero a mi parecer está bastante a la altura para ir hablando de Beta –recuerdo que con la CTPs de Windows Azure la herramienta más utilizada era el Notepad.

Una vez que recibes el ID de invitación, se asocia a una suscripción –para solicitar acceso a la CTP basta seguir las instrucciones dentro del portal de Windows Azure y esperar a que te toque la lotería. En esta fase CTP es muy importante ubicarlo en una suscripción donde nuestro servidor SQL Azure esté en South Central US si no queremos llevarnos una sorpresa en la factura durante las pruebas:

IMPORTANT DATA TRAFFIC NOTICE
Please note that the SQL Azure Reporting CTP is currently only hosted in our South Central US datacenter – we strongly recommend that you host any servers and databases you might use for your reporting testing needs at this datacenter. You will be charged for bandwidth usage for data transfers to/from the South Central US datacenter should you host your data that you report against outside of this datacenter. Also, co-locating with the service will provide optimal performance.

De este modo, hay que dirigirse al portal de Windows Azure, y en la sección “Reporting” pulsar sobre el botón de despliegue del servicio y seleccionar con cuidado la suscripción a la que queremos ligar la CTP. Cuando el proceso termina, tenemos ya nuestro servidor de informes listo para ser usado.

ServicioActivo

¿Y ahora? ¿Cómo comenzamos a trastear si sólo veo una opción que pone “Reset Password”? Paciencia, pulsemos el enlace “Getting Started with Azure Reporting

Una vez que le hemos echado una lectura rápida al contenido (por ahora sólo hay 6 páginas de documentación, y donde se puede ver más actividad es en los foros), el siguiente paso para realizar una prueba de concepto es descargar los ejemplos desde Code Gallery en MSDN:

Instalar el data warehouse de AdventureWorks en Windows Azure

Una vez descargada la herramienta de instalación del Dataware AdventureWorks LT para Windows Azure, realizamos los pasos siguientes:

  1. Eliminar cualquier base de datos de ejemplo de data warehouse de Adventureworks Light (LT) previa
  2. Iniciar una línea de comandos con privilegios de administrador
  3. Ubicarse en la carpeta donde se han descomprimidos los archivos de instalación
  4. Entrar en la subcarpeta AdventureWorks2008R2AZLT
  5. Ejecutar el comando siguiente:

buildawltaz.cmd tcp:nombreservidor usuario contraseña

Con esta acción iniciamos el script de inicialización del esquema de la base de datos y la carga de los datos de prueba. Como en cualquier upload, aquí ayuda mucho el que lo puedas realizar desde una línea con buen caudal de subida, por ejemplo en una máquina de desarrollo alquilada en un proveedor de IaaS Sonrisa

UploadDW

Aquí tenéis un vídeo de cómo realizar esta tarea paso a paso:

Desplegar informes de ejemplo en SQL Azure Reporting

Una vez que hemos descargado los informes de ejemplo, el siguiente paso es subirlos para ponerlos disponibles en la plataforma de Azure. Para ello realizamos los pasos siguientes:

  • Abrir el proyecto con Visual Studio 2008 (según la documentación VS2010 aún no está soportado aunque en la captura de pantalla que se ve en este enlace parece lo contrario, cosas de CTPs y documentación en construcción)
  • Para realizar una vista preliminar de los informes antes de desplegarlos en Azure, editamos la cadena de conexión para apuntarlos a nuestra base de datos en SQL Azure, haciendo doble click sobre los dos “Shared Data Sources” (fijaos que el tipo de conexión es Microsoft SQL Azure) y actualizamos los credenciales (no pongais en el nombre de usuario el “@nombreservidor” porque os dará un problema de conexión en producción, poned sólo el nombre de usuario)

SharedDataSource

ReportPreview

Para desplegar los informes, en las propiedades del proyecto, establecemos el valor de la propiedad TargetServerURL a la URL de nuestro servidor de informes de SQL Azure. Los datos de la URL está en la sección de Reporting del portal de Windows Azure (poniéndole por delante https:// y la coletilla “/reportserver”)

ServerConfig

Finalmente, desplegar el proyecto a través del menú “Build>Deploy”, donde finalmente nos solicita los credenciales para acceder al servidor de informes (¡de ahí la opción de “Reset Password”!)

Credentials

Ver los informes desplegados en el servidor de informes de Azure

Una de las formas más rápidas de examinar los informes es a través del mismo servidor de informes. Para ello, nos dirigimos a la misma URL que introdujimos en la fase de despliegue e introducimos los credenciales en una pantalla super-molona-requeteguay-delamuerte:

ServerLogin

Navegando por los informes, podemos comprobar su correcto funcionamiento:

Sample1

Sample2

Sampl3

¿Qué más puedo hacer?

La lista de cosas que se pueden hacer a partir de aquí son innumerables, gracias a que se pueden incrustar informes dentro de nuestras propias aplicaciones web o interactuar con el servicio SOAP disponible.

En este enlace tenéis más información de cómo hacer los primeros pinitos programáticamente con el Report Server en la nube.

A mí ya se me está ocurriendo el desarrollo de un módulo para DotNetNuke para visualizar los informes dentro del mismo portal.

¿Y a tí? ¡1,2,3…responda otra vez!