¿El futuro de los gráficos para juegos pasa también por la nube?

Creo que hoy en día nadie duda de las bondades que tiene la externalización de servicios computacionales y todo lo que se ha dado en llamar «cloud computing» (otro día hablaré de mi opinión al respecto y cómo creo que el término se está pervirtiendo bastante). Lo cierto es que no deja de sorprenderme las aplicaciones que algunos inventan para poner en la nube. Lo último que he leído al respecto me ha llamado poderosamente la atención porque, francamente, nunca pensé en la posibilidad de tener esto externalizado.


Se trata de AMD -sí, el fabricante de chips- que está creando un supercomputador de procesamiento gráfico que estará disponible después del verano. La idea es alquilarlo para proporcionar a los creadores de juegos un entorno de alta escalabilidad y potencia que genere los gráficos de sus juegos en tiempo real. He ahí la importancia o, al menos, lo que a mi me ha llamado tanto la atención. La idea es que los juegos que se ejecuten en dispositivos con poca potencia (sobre todo los móviles) manden los datos del juego en tiempo real a Fusion Render Cloud (que es como se llama el servicio), el cual renderizará los gráficos y los devovlerá al dispositivo. Así, en lugar de tener que disponer de un chip gráfico de gran potencia en el móvil podremos obtener los mismos resultados a través de Internet. Y no estaos hablando de una ida de olla de ciencia ficción, sino de algo disponible dentro de unos pocos meses…


¿No te deja flipado la idea?. Hay que tener en cuenta que estamos hablando de renderizar entre 30 y 50 cuadros por segundo para cada usuario, enviando y recibiendo información contantemente a través de Internet y que un juego en 3D tiene que ser realmente rápido para responder a las acciones del usuario. Aunque la pantalla de un móvil es pequeña y la resolución por tanto baja a mi me parece inviable conseguir un nivel de desempeño mínimamente razonable para esta tarea en la nube. AMD asegura que incluso en conexiones de baja velocidad pueden devolver 30fps aunque retirando detalle de la imagen.


Fusion Render Cloud será el supercomputador comercial más rápido del mercado, con un Petaflop de potencia (mil millones de millones de operaciones en coma flotante por segundo). No pongo en duda que la capacidad sea suficiente, ya que además es escalable para crecer según sea necesario. Ellos mismos dicen que con él serían capaces de gestionar los gráficos de cualquiera de los juegos on-line multijugador que hay hoy en día (como World of Warcraft y similares). Lo que me resulta complicado de creer es que, con las actuales redes de comunicaciones y por mucho que compriman los datos de ida y de vuelta, puedan conseguir en tiempo real una jugabilidad aceptable. Si hubieran dicho otra aplicación de renderizado en tiempo real, como gráficos científicos, render de imágenes estáticas de alta calidad para cine o para juegos, etc… estaría de acuerdo. Pero justo lo que proponen de dotar a los juegos de renderizado en la nube es lo que no me acabo de creer. Quizá dentro de unos cuantos años sí, pero ¿ahora?.


Seguramente se me escapan muchas cosas.


Puedes leer el artículo completo en el Spectrum del IEEE. Vienen muchos más datos interesantes, como por ejemplo la gran eficiencia de consumo energético del monstruo, algunos detalles técnicos de las GPU o los factores tecnológicos que confluyen para dar lugar a esto.


¿Qué opinas tú al respecto? ¿Lo ves viable o no?


P.D.: Seguro que este post me pasará factura, y dentro de unos años tendré que avergonzarme de leerlo, como cuando «otros» dijeron que «¿para que podría querer alguien un ordenador en casa?». Pero bueno… 😉

Sin categoría

4 thoughts on “¿El futuro de los gráficos para juegos pasa también por la nube?

  1. Ya que preguntas, y porque preguntas, y siendo suave y callándome lo que realmente pienso (y creo que en esta caso ambos coincidimos en nuestro pensamiento), si ya hay problemas y retardos en enviar paquetes en los juegos online, no veas los que se pueden producir cuando se esté enviando información 3D… Si se envían imágenes estáticas, multiplica bytes, y si se envía alguna forma de pseudolenguaje la parte cliente tendrá que procesar casi igual que si fuera 3D…

    En fin, que es más de lo mismo: ahora está de moda «la nube» y todo está en «la nube» y lo que no esté en «la nube» no es cool etc… Más de lo mismo, vamos.

  2. Hola Bisensual:

    Oye, gracias por el apunte. Desconocía la existencia de esta futura plataforma OnLive. Le he estado echando un vistazo y me parece sencillamente impresionante.

    Tiene toda la pinta de ser la competencia del Fusion Render Cloud que yo comento, ya que entre los partners está el archienemigo de AMD en gráficos: NVidia.

    Pues nada, no he tardado ni 6 horas en comerme mis palabras, por que por lo que se ve la cosa funciona de maravilla. Ahora bien, los requisitos son bastante altos para los estándares actuales de occidente: 1.5 Mbps para renderizado normal y 5 Mbps para renderizado en alta definición. No obstante imagino que no será para tanto dentro de unos pocos años (y desde luego no lo es ya en países como Japón donde el estándar en casa es 100 Mbps y está a punto de ser 1 Gbps nada menos).

    Finalmente aclarar que yo no estoy en contra ni muchísimo menos del modelo Cloud computing (de hecho mi empresa, desde sus inicios, ha hecho sólo software bajo demanda). Simplemente me había llamado la atención lo del renderizado remoto porque me pareció una idea algo loca y quería ver qué opinábais los demás.

    En invierno, cuando esté disponible OnLive intentaré probarlo si voy a los USA (sólo estará disponible allí al principio) y ya os contaré. Si alguien lo prueba que no dude en comentar aquí algo.

    Intentaré dar mi visión personal del tema Cloud Computing en el próximo post. Es un tema que me atrae muchísimo pero del que creo que se está abusando y confundiendo a la gente con él, como dice Rafael. Se ve que este no es el caso, pero en otros sí.

    Saludos!

    JM

  3. Interesante artículo… Para mí, 1 PetaFLOP es, simplemente, pornografía computacional.

    La cuestión como bien comentáis es saber si la ganancia computacional es mayor que el cuello de botella que pueda suponer la transferencia. En este caso, y puesto que en todo momento habla de juegos online ya sea con GPU local o en la nube, habría que considerar el incremento de tráfico entre transmitir simplemente los datos sin procesar o los gráficos procesados… Esto es, se pasaría de un escenario 75% GPU – 25% Transf. al 25%-75% (para entendernos, poniendo números algo más concretos). Sobre esas proporciones, o las que sean, AMD sabrá, jeje, aplicar Ley de Ahmdal y ver cuál interesa más. Personalmente, veo más factible el incremento de productividad en las transferencias (es decir, incremento de ancho de banda) que el de la capacidad de procesamiento gráfico en dispositivos móviles.

    Por otra parte, siempre será más sencillo para el fabricante administrar y optimizar el funcionamiento y procesamiento de datos de una solución web, que preocuparse del rendimiento en cada hardware de distintos fabricantes de móviles. Está claro que existen plataformas middleware para abstraer este problema, sí, pero ya sabemos a cuenta de qué…

    Veremos cómo evoluciona la cosa. 🙂
    M.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *