Los mayores fiascos en consolas y periféricos: del Virtual Boy de Nintendo a la PlayStation Classic

Los mayores fiascos en consolas y periféricos: del Virtual Boy de Nintendo a la PlayStation Classic

26 comentarios Facebook Twitter Flipboard E-mail
Diapositiva1

De todo se aprende, y de los grandes errores todavía más. A lo largo de las últimas décadas hemos sido testigos de cómo la industria de los videojuegos se ha transformado y definido a través de tecnologías, formatos y nuevas maneras de jugar que, por separado o en conjunto, fueron un punto de inflexión en esta pasión. A veces, con grandes ideas que derivaron en éxito y otras con errores que acabaron en decepciones y sonoros fracasos.

Porque nuestra manera de jugar hoy es la suma de todo lo aprendido desde los tiempos de la Atari 2600, las recreativas y los primeros ordenadores personales. No solo en lo relativo a los modelos a seguir y las fórmulas de éxito, sino también como ejemplos disuasorios de qué no hacer. Aquel que no conoce su historia está condenado a repetirla.

Con esa idea por delante, en VidaExtra hemos decidido hacer una retrospectiva diferente de la historia del videojuego. Un repaso del hardware que, por un motivo u otro, fracasó, se vio arrollado por el momento y las circunstancias o, sencillamente, no supo ofrecer lo que se esperaba de él. Grandes errores de los que aprender interesantes lecciones.

Nuestro enfoque no es centrarnos únicamente en las consolas, sino también en periféricos y accesorios que estaban llamados a ofrecer un cambio en la experiencia de juego y, de algún modo, acabaron relegados a una estantería en el mejor de los casos. Dándole prioridad a la variedad para que, puestos en conjunto, podamos llegar a conclusiones más concisas.

Diapositiva14

También hemos establecido una excepción: los sistemas portátiles merecen tratarse en un texto aparte. De modo que en esta ocasión no verás la Gizmondo o una PSP GO que, probablemente, unos años después hubiese sido recibida con otros ojos. Pero no te preocupes: más pronto que tarde hablaremos de ellos.

Te recordamos, como siempre, que en los comentarios siempre hay margen para ampliar el listado y hacerlo más rico e interesante. Sin más dilación,  a continuación encontrarás 13 grandes errores del hardware en la industria del  videojuego.

La Atari 5200

La caída de Atari, el primer titán de la industria del videojuego, se debió a una sucesión de problemas, incluyendo la saturación de juegos de baja calidad en las estanterías y malas decisiones internas. Siendo la no demasiado cálida acogida de la Atari 5200 un golpe letal que derivará en la crisis del videojuego del 83.

¿Los problemas de este sistema? De partida, se concibió como una respuesta al resto de consolas posteriores que, lógicamente, también querían su trozo del pastel. Sin embargo, la mayor parte de su catálogo eran versiones algo mejoradas del modelo Atari 2600.

A lo que hay que sumar que el único modo de poder disfrutar de los juegos de su predecesora era a través de un adaptador. Algo que decepcionó todavía más a sus compradores.

La Atari 5200 no supo ser una sucesora real de la Atari 2600 ni en lo técnico ni en calado. Y, de algún modo, su lanzamiento tampoco sirvió para volver a posicionar preferentemente a Atari en una industria emergente que se encontraba en su punto más delicado.

El Power Glove, de NES

Mattel se adelantó décadas a la fiebre por los sensores de movimiento iniciada por Wii y Nintendo: en 1989, el gigante juguetero lanzó el Power Glove, el primer sistema de control de videojuegos a través de gestos para la NES, y pese a que su aspecto actual, para la época lucía sensacional.

¿El error? Pese a ser compatible con juegos como Punch Out! solo dos de los cuatro títulos anunciados llegaron a las estanterías. El Power Glove contaba con buenas ideas y montones de sensores, pero había que comprar sus juegos aparte y, en el caso del resto de títulos, tampoco logró mejorar lo suficiente la experiencia de los jugadores. Un año después su producción fue descontinuada.

El CD-i, de Phillips

Como sistema multimedia, el CD-i de Phillips era todo un capricho: aquella consola podía reproducir discos o enciclopedias digitales en un tiempo en el que no todo el mundo tenía un lector de CDs en el PC. Sin embargo, como sistema de videojuegos, definitivamente no daba la talla.

Sus especificaciones y limitaciones de hardware no dejaban demasiado margen para los creativos de videojuegos, y tampoco parecía que Phillips tuviese un especial interés en explotar ese matiz. Es más, tuvo la posibilidad de lanzar sus propios juegos de The Legend of Zelda y Mario Bros., aunque dejó pasar la oportunidad de hacer algo mínimamente memorable.

El LaserActive, de Pioneer

Más que una consola en sí, el LaserActive de Pioneer era un centro multimedia capaz de reproducir Laserdiscs, CDs, discos de karaoke LD-G y, a través del módulo inferior, cartuchos de Mega Drive o de TurboGrafx 16.

Sin embargo, había dos grandes problemas: era carísimo -en 1993 costaba aproximadamente unos 1.000 dólares- con lo que salía mucho más a cuenta comprar las dos consolas. A lo que hay que sumar, claro, que se lanzó durante la llegada de los sistemas de 32 bits.

El Virtual Boy, de Nintendo

El primer fracaso comercial de Nintendo en cuestión de consolas, que no es poco. El Virtual Boy es un sistema de sobremesa de 32 bits en el que estuvo involucrado el legendario Gunpei Yokoi, siendo su visor el elemento más característico.

A través de él se podía reproducir juegos con sensación de profundidad real -una especie de 3D que hace uso de tonos monocromáticos-, aunque no estaba exento de complicaciones: independientemente de que solo recibiera 22 juegos, su modo de jugar, partiendo de su diseño, no resultaron realmente atractivos.

No era ni un sistema portátil ni de sobremesa, y el efecto visual monocromático tampoco convenció. Un año después de su lanzamiento, Nintendo decidió abandonar el proyecto y centrarse en el verdadero sucesor de la SNES: la N64.

El 32X, de SEGA

La 16 bits de SEGA fue un éxito, y la compañía del erizo azulado dio dos importantes empujones al hardware la Mega Drive: primero a través de un lector multimedia (el Mega CD) y luego a través del add-on 32X con el que, en teoría, se alcanzaría una experiencia de juego de nueva generación.

Inicialmente concebido como una nueva consola de 32 bits a un precio de derribo, SEGA finalmente replanteó la idea y optó por ofrecer un accesorio con el que superar definitivamente -al menos en hardware- a Nintendo y su SNES. Recordemos que a la SEGA de los 90 le encantaba sacar músculo.

La realidad es que su precio de salida suponía una gran barrera para el comprador (inicialmente 159 dólares) y apenas un año después llegará el verdadero relevo de la Mega Drive: la SEGA Saturn. La cual, pese a no mantener el éxito de SEGA, fue mucho mejor arropada por los jugadores y desarrolladores.

Fase de Bonus: la 3DO Interactive Multiplayer

Trip Hawkins, fundador de Electronic Arts, tuvo una visión: que los videojuegos se pudiesen comprar y jugar en cualquier consola bajo un mismo estándar de tecnología, como ocurría con los CDs o las cintas de VHS. Algo revolucionario, y no estaba solo en esa idea.

Así, en 1993 la propia Panasonic lanzará el primer sistema licenciado por The 3DO Company. Una consola de 32 bits que suponía un salto de calidad frente a las alternativas y en el que prácticamente cualquiera podía publicar sus juegos.

Sin embargo, Hawkins no contó con un factor clave: Nintendo y SEGA vendían sus consolas a pérdidas.

La clave del negocio de los videojuegos era que Nintendo y SEGA recuperaban el valor del hardware a través de sus juegos licenciados. De modo que Panasonic y después Sanyo o LG ofrecieron sistemas 3DO de 32 bits a precios desorbitados un año antes de la llegada de Saturn y la primera PlayStation.

La PIPP!N, de Apple y Bandai

La base sobre la que Apple dio forma a PIPP!N  no era demasiado diferente a la de 3DO: la idea central era ofrecer un completo sistema multimedia con conectividad a internet cuyo mayor impulso era el reclamo de reproducir videojuegos. De hecho, al tratarse de una licencia cualquier fabricante podía lanzar su propio modelo. Es más, hubo dos interesados: Bandai y Katz Media.

Desafortunadamente, Bandai lanzó su propio sistema PIPP!N a destiempo, en un 1996 en el que -en cuestión de hardware- partía con gran desventaja técnica y cuyo catálogo de juegos -su máximo reclamo- palidecía frente al de unas PlayStation, Saturn y Nintendo 64 que habían devorado al resto de alternativas.

La Neo Geo CD original, de SNK

Sobre el papel, lo que ofrecía la Neo Geo CD era el sueño de cualquier apasionado por los salones recreativos: la tecnología del sistema doméstico de SNK, conocido como el Rolls Royce de las consolas, abarataba sus costes gracias a un lector de discos que, en el proceso reducía el precio de sus juegos de los 300 dólares por título a unos más razonables 80 dólares.

En la práctica, la segunda consola de SNK, lanzada unos cuatro años después de la Neo Geo original, tuvo una complicada distribución y, para colmo, sus larguísimos tiempos de carga le acabaron pasando factura. Y no es para menos: un minuto de espera es una barbaridad en los juegos arcade.

SNK reaccionó lanzando dos modelos más en los años posteriores, pero -definitivamente- aquellas consolas y su hardware ya estaban lejos de ser ese idolatrado objeto de deseo para los fans. Al menos, del mismo modo que las Neo Geo originales. Siendo, a su modo, el inicio del declive de la marca.

El Nintendo 64DD, de N64

No es del todo justo decir que Nintendo 64 se cerró al uso exclusivo de cartuchos: en 1995, un año antes del lanzamiento nipón del sistema de 64 bits, la Gran N anunció el 64DD, su propio lector de discos magnéticos en forma de Add-On.

Es más, en los primeros compases del desarrollo de The Legend of Zelda: Ocarina of Time, se tuvieron en cuenta sus posibilidades. La realidad es que Nintendo retrasó el lanzamiento del 64DD demasiado: su lanzamiento se produjo en Japón en diciembre de 1999 y sus pobres ventas y su catálogo de 10 juegos hizo que no llegase a occidente y se descontinuara su fabricación poco más de un año después.

Siendo justos, poco podía aportar el 64DD con una DreamCast en las estanterías un año antes y la inminente llegada de una PS2. De modo que Nintendo se volcó en reforzar el catálogo de N64 y dar forma a su siguiente gran consola. La cual, por cierto, sí usará sus propios discos.

Fase de Bonus: el PlayStation 3D Display

Sony ha sacado toda clase de periféricos para PlayStation. Algunos muy notables, como el Eye Toy y PlayStation VR, y otros no tan destacables como el Wonderbook y su experiencia de realidad aumentada. Sin embargo, el caso del PlayStation 3D Display merece una mención muy especial.

Presentado en el E3 de 2011, se trataba de un monitor de 24 pulgadas que no solo se sumaba al carro de las pantallas que ofrecen 3D, al igual que Nintendo con la Nintendo 3DS, aunque con gafas; sino que puso ideas sobre la mesa como la posibilidad de ofrecer dos imágenes de manera simultánea sin recurrir a la pantalla partida.

Pese a sus acabados de calidad, el boom por las 3D no duró demasiado -a, fin de cuentas, iba rebufo del éxito de Avatar-  y su tamaño y precio (500 dólares) tampoco contribuyeron especialmente a que fuese un éxito frente a una alternativa con más pulgadas y mejores características más allá de la inmersión tridimensional.

La uDraw GameTablet, de THQ

THQ apostó muy fuerte por su tableta gráfica para consolas uDraw, y salió perdiendo. La premisa, a grandes rasgos, era ofrecer una alternativa a los mandos de toda la vida con la que interactuar con varios juegos compatibles de maneras únicas a través de panel y su stylus.

Y pese a que su debut en Wii en 2010 no estuvo mal a nivel comercial, el despliegue de unidades de uDraw para PlayStation 3 y Xbox 360 un año después fue catalogado como un desastre, dejando a THQ mortalmente herida como compañía antes de cerrar sus puertas.

En total, THQ se quedó con nada menos que 1,4 millones de tabletas uDraw son vender y, como efecto colateral, pérdidas millonarias que la acabaron poniendo en jaque. Todo un batacazo comercial.

El proyecto Ouya

Pocos proyectos reflejan tanto y tan bien la paradoja de la financiación colectiva como Ouya. Sobre el papel, el proyecto de crear una consola de código abierto basada en Android generó un enorme impacto en Kickstarter y atrajo la atención de muchos desarrolladores y jugones y el primer gran éxito del micromecenazgo. La realidad golpeó en 2013 y acabó siendo muy distinta.

Las primeras unidades de Ouya delataron su flaquezas: su mando no estaba a la altura de las consolas contemporáneas, su puerto USB daba problemas y su memoria interna apenas ofrecía margen a los jugadores. Pero el más delicado de todos no tenía que ver con el hardware, sino con el software: su catálogo de juegos era enorme en cantidad y, a la vez, decepcionante para usuarios y desarrolladores.

El proyecto de Ouya intentó reaccionar con programas enfocados al desarrollo y la promoción de contenidos exclusivos que motivasen a los creadores y mantuviesen interesados a los compradores, pero la realidad es que aquella consolita había comenzado su propio declive, el cual llegará en 2019 con el cierre definitivo de su tienda. 

El Kinect 2.0 para Xbox One, de Microsoft

Xbox One empezó con muy mal pie y buena parte de sus problemas tenían un denominador común: Kinect. La consola debía estar conectada al sensor de movimientos y comandos de voz sí o sí y, además, originalmente implicaba tener que conectar la consola a la red cada 24 horas. Reclamando en el proceso reclamaba buena parte de los recursos de hardware.

Y lo que es peor de todo: la inclusión de Kinect elevaba drásticamente el precio de Xbox One cien euros por encima de una PS4 libre de ataduras y que llegó casi a la vez a las estanterías.

A cambio, los jugadores podían usar el dispositivo como asistente de voz o para disfrutar de un catálogo de juegos compatibles que, por cierto, palidecía cada vez más ante las novedades mostradas en PlayStation. Definitivamente, Kinect fue más que un lastre para Xbox y obligó a Microsoft a replantear su estrategia a marchas forzadas tras el lanzamiento.

La entrada en escena de Phil Spencer en Xbox cambió las reglas del juego. Kinect no solo pasó a ser opcional, sino que los nuevos modelos de Xbox ya ni siquiera incluían su puerto de conexión. A partir de ahí, la marca de Xbox inició una nueva y mucho más prometedora etapa que nos conduce hacia sus posteriores hitos, como la retrocompatibilidad o el Game Pass.

La PlayStation Classic, de Sony

Sony no quiso quedarse fuera del fenómeno de las mini-consolas retro iniciado por Nintendo, y su alternativa no tardó en levantar pasiones: conmemorando los 25 años de PlayStation, llegará a las estanterías una PlayStation Classic con dos mandos y 20 juegos pre-instalados que, en otras circunstancias, hubiese sido una compra obligada.

La realidad es que, pese a que era posible adquirir la PlayStation Classic con pesetas, aquella consola que podías llevar en la palma de tu mano no irradiaba la misma nostalgia que las de Nintendo, SEGA y otras compañías míticas. Y eso que a su diseño no le faltaba detalle alguno.

El gran problema de PlayStation Classic radica en su selección de juegos. Si bien muchos de los grandes exponentes dicen presente, como Metal Gear Solid, Final Fantasy VII o Tekken 3, al final las grandes ausencias, como los juegos de Crash Bandicoot o Tomb Raider o Castlevania: SOTN acabaron pesando más. Sobre todo, cuando la mayoría de títulos incluidos provocaron cierta indiferencia.

Sin embargo, existen dos matices extra que devalúan todavía más lo anterior: las versiones europeas de PlayStation Classic no ofrecían selector de idiomas y los mandos incluidos no eran DualShcok, sino los originales. Entorpeciendo la jugabilidad de algunos títulos incluidos como la versión Director's Cut de Resident Evil. Siendo, en muchos aspectos, una oportunidad perdida por parte de Sony.

Comentarios cerrados
Inicio