Lo ammetto: pur non essendo una novità che illustri personalità dell’industria videoludica si siano sbilanciate nell’illustrare un futuro privo di console war e caratterizzato da servizi avanzati di digital delivery, mai avrei pensato, prima di leggere la notizia postata dal nostro prode Matteo Anelli nel forum di Ars Ludica, che un progetto di tal sorta fosse in un così avanzato stato di sviluppo (tanto da essere ufficialmente presentato alla Game Developers Conference di San Francisco, che si chiude proprio oggi). Il progetto cui faccio riferimento si chiama OnLive, e verrà commercializzato nel mercato USA quest’inverno (già da quest’estate, comunque, i cittadini statunitensi potranno provarne una beta).
La natura e il funzionamento del servizio appaiono semplicissimi: permettere all’utenza di giocare a qualsiasi titolo semplicemente connettendosi a Internet (attraverso un plugin per browser se su PC o Mac, oppure mediante l’apposita MicroConsole da collegare ad un TV). Come avveniva negli scenari a divisione di tempo dei grandi calcolatori mainframe di trent’anni fa, gli apparecchi sui quali si gioca sono dei semplici terminali di un software che viene eseguito in remoto da appositi server. Questo significa che persino configurazioni entry-level, o per l’appunto semplici televisori, sono sufficienti per gustarsi prodotti del calibro di Bioshock, Unreal Tournament 3, GRiD, F.E.A.R. 2 e via discorrendo.
I produttori promettono un’interazione realistica, l’assenza di tempi morti (neppure per il download!) e la massima resa tecnologica dei videogiochi offerti: non si può che rimanere inebriati dinnanzi alle potenzialità di simili caratteristiche, se solo si pensa al fatto che per accedere a tutto ciò potrebbe bastare una comune connessione a 1.5 megabit al secondo (5 se si desidera una risoluzione 720p): le applicazioni con interazione in tempo reale richiedono un flusso dati costante, con latenze contenute e stabili nel tempo, affinché le prestazioni siano soddisfacenti per l’operatore umano (ad esempio, in una conversazione telefonica, lag fino ai 400 millisecondi, sebbene percepiti, possono ancora risultare sopportabili per gli operatori umani, ma per preservare il senso di istantaneità bisogna per forza di cosa scendere al di sotto dei 150 millisecondi); il problema è che l’infrastruttura su cui poggia OnLive è Internet, concepita con una filosofia antipodale rispetto alla cura per la consegna del pacchetto dati entro strettissimi vincoli temporali, per cui è sufficiente un solo collegamento congestionato nel tragitto giocatore – server (e ritorno) per far decadere sensibilmente la qualità del servizio. E se consideriamo che le latenze ottimali di una DSL sono di circa 100 ms, allora capiamo le proporzioni della sfida.
La curiosità di vedere il sistema in azione, dunque, coinvolge molteplici aspetti che solo la release definitiva potrà soddisfare. La portata di OnLive è immensa, perché se l’operazione dovesse tradursi in un ampio successo ci troveremmo dinanzi alla ridefinizione del concetto stesso di fruizione dell’opera videoludica, balzando in una nuova era.
sarebbe un bel passo avanti. Speriamo.
Consiglio a tutti quelli che credono alle fiabe, di leggere questo articolo:
http://www.eurogamer.net/articles/gdc-why-onlive-cant-possibly-work-article
Puzza peggio del Phantom.
> Puzza peggio di Phantom.
Fixed.
I presupposti tecnici che citi nell’articolo sono non solo sbagliati, ma scritti quasi con quella paura atavica del cambiamento che inizia a serpeggiare quando arriva una disruptive technology.
Non è il credere alle fiabe, tecnicamente ormai è tecnologia molto più che fattibile, calcola solo che lo streaming HD a bassa latenza (e per giunta adattativo) sarà in tutti i pc questa estate, con il nuovo plugin di Silverlight 3. Il problema della latenza dell’input è un falso problema, visto che i giochi Valve e altri FPS competitivi gestiscono l’input server-side da più di 5 anni (e invito tutti a leggere i numerosi articoli su Gamasutra sull’argomento).
Il problema sono i cartelli della distribuzione e del retail. Oggi su CTRL+ALT+DEL c’era una bella striscia che riassume i problemi che onlive creerà al mercato dei VG.
Poi che magari non sarà proprio OnLive a portare il sistema al successo è quasi scontato. Di solito i pionieri se sono fortunati riescono a vendere a qualche major o semplicemente vengono eclissati da qualche conglomerato più grande di loro.
Mmm, ma lo streaming video è un flusso dati non interattivo, mentre OnLive dovrà proprio essere un flusso dati multimediale, interattivo, e dare l’impressione di istantaneità. Se il VOIP è sconsigliato per connessioni con latenze oltre i 250 ms (che è un valore che le ADSL nostrane possono tranquillamente superare, andando a sforare comodamente il mezzo secondo), penso che OnLive possa andare in crisi già se si varca la soglia dei 100 ms. Insomma, siamo proprio al limite, e penso proprio che le prestazioni che OnLive si prefigge di ottenere non siano raggiungibili dal solo strato di applicazione se non c’è un supporto anche da parte dei provider Internet.
Sarebbe fantastico.
Io sono ottimista. Almeno finché non saranno provati i suoi difetti.
Primo tra tutti diventare il nemico mortale di tutti coloro che lavorano nel mondo del gaming scatolato, passando poi per gli altri portali di DD, finendo con i produttori di console: questi soggetti faranno anche l’illecito per bloccare questa tecnologia.
Dimenticavo i produttori di hardware pc: col cloud render basta aggiungere potenza di calcolo al server invece di aggiornare il computer dell’utente.
Superati questi scogli resta la latenza dell’adsl e la risposta del pubblico, che dal mio punto di vista sono quasi minori.
@Emak: se ho ben capito il gioco viene eseguito in remoto quindi la latenza riguarderebbe solo l’invio di input al server, quindi al massimo si avrebbe un po’ di lag come in tanti giochi di adesso, giusto?
Cioè il lag
Per questa “tecnologia” prevedo un epic fail.
@Fleym: la latenza riguarda anche il tragitto inverso, perché è intrinseca nel collegamento tra due punti della rete. E’ ovvio, però, che il collo di bottiglia è il tratto con le prestazioni peggiori, che di solito è a livello dello stadio di linea.
C’è anche da considerare un ulteriore aspetto: la sincronizzazione tra i pacchetti riguardanti i flussi audio, video, e input/output. Insomma, bisogna che non solo la latenza sia bassa, ma anche che la variabilità (jitter) della stessa sia molto contenuta. Proprio non ce la riesco a vedere una facilissima implementazione a solo livello applicazione di tutti gli obiettivi che si prefigge OnLive senza il supporto a basso livello dei provider, altrimenti oggi già telefoneremmo e vedremmo la tv tutti quanti su IP. Quindi credo che il successo di OnLive sia nelle mani dei gestori delle linee piuttosto che del servizio stesso. Tutto ciò ovviamente imho, e nonostante i dubbi mi ritengo abbastanza fiducioso.
Vedo che non sono l’unico a dubitare di quest’idea.
Secondo me è arrivato troppo presto come progetto e in più do totale ragione al tizio linkato da Inconsulto [#2], se 1000 persone vorranno giocare a GTA 4 serviranno 1000 macchine abbastanza potenti da poterlo avviare, anche perché dell’Hardware per far girare 3/4 sessioni di GTA 4 differenti è difficile da trovare in giro e se c’è.. costa troppo.
Spero comunque che non faccia la fine del Phantom.
@matteo anelli: uhm, e per quanto riguarda la potenza di calcolo richiesta?
ennesimo fallimento in puro stile Phantom. io ho parlato.
Ho già espresso il mio pessimismo su questa nuova invenzione su più forum. Lo rifaccio qui visto che se ne parla. Ovvio che non sono mica Nostradamus…ma mi sa di fallimento. Spero di sbagliarmi. O forse no. Boh.
il primo aprile è vicino…
Che razza di datacenter sarà richiesto per gestire diverse migliaia di istanze contemporanee di diversi titoli?
Che poi dentro ROMA ci sono aree nelle quali si fatica a raggiungere la 4 mbit. E un servizio del genere richiederà una qualità del servizio di rete piuttosto elevata. E quando il provider comincia a fare le bizze, agli utenti freganasega che hanno la linea lenta: prenderanno OnLive e lo butteranno nel cestino, perchè il provider non avrà alcun interesse a sistemare la cosa.
IMHO è solo un’idea troppo in anticipo sui tempi.
Ma chissenefrega di Roma, Milano e Napoli scusate..come se il mondo si dovesse fermare ai nostri problemi di rete nazionali..
io ci spero, certo da un punto di vista tecnico sarebbe un miracolo.. se è roba vera gli impieghi andrebbero ben al di là del “semplice” gaming.. uno potrebbe “affittarsi” un pc remoto super-quad-sticazzi e smanettarci da un 386, tanto per dire..
Cherno però non è che negli Stati Uniti la situazione sia molto differente per la latenza delle DSL… Però il sistema deve per forza di cose funzionare in qualche modo se sarà commercializzato entro quest’anno, quindi propongo di essere un po’ più fiduciosi.
@Cherno: non era inteso in senso stretto, era un modo di spiegare che come ce li abbiamo noi i magheggi sulla rete, suppongo ce li abbiano pure gli altri. E che questo sistema è troppo dipendente dalla buona salute della propria connessione, che a sua volta non è una questione risolvibile in modo relativamente semplice dall’utente (mentre per intenderci, se vuole l’alta definizione va al centro commerciale e si compra un televisore nuovo).
penso faranno un numero chiuso per ogni gioco.
E ogni gioco avrà le sue macchine dedicate.
Comunque non credo che la cosa andrà a buon fine.
Vedo gente che bestemmia all’orizzonte, centinaia di migliaia di “vaffa” perchè il nemico ci ha headshottato prima ancora che girassimo l’angolo, perchè l’avversario ha segnato quando ci era parso di prendere il tempo perfetto per il takle, perchè abbiamo preso un platano che è apparso all’improvviso sulla nostra traiettoria.
Che è quello che succede anche adesso. A proposito, barbone, ieri avete suonato e non mi avete detto un tubo: nè tu, nè quell’altro con i synth 😡
Odio il DD e tutto ciò che gli somigli anche vagamente………sarebbe la fine del videogioco. Detto ciò, mi rincuora il fatto che anch’io la classifico come una boiata destinata a rimanere tale ancora per diverso tempo. Almeno spero………….
è appena entrata l’ora legale e quindi è ancora più tardi di come dovrebbe essere, ergo preannuncio che non ho letto i commenti precedenti ai miei, ma giusto qualche parolina qui e lì.
I problemi li sappiamo quali sono: velocità della rete, congestione con eventuali ritardi, sincronizzazione eccetera. Inutile secondo me stare a ragionare sul fatto che questo sistema possa funzionare o no: allo stato attuale delle cose non ci troviamo di fronte ad un servizio da poter dare a tutti perchè non c’è una infrastruttura sotto adeguata. Ma certamente è il futuro, così come il pc del futuro sarà costituito da schermo + interfaccia + modem e basta (imho).
questa storia del futuro costituito da terminali stupidi imho non ha molto senso. Preferisco immaginare uno scenario nel quale il mainframe esiste, si, ma si trova a casa nostra e al quale accediamo in remoto per prelevare i files che ci interessano e per alcune operazioni computazionalmente onerose (che poi volendo è quello che già si può fare con remote desktop). E vista l’evoluzione dei laptop(vedere alla voce mac air e dell adamo), anche su quest’ultima eventualità ci sarebbe da discutere.
Perchè no? Cosa me ne faccio di un pc potente se ho un centro di calcolo adeguato a svolgere il compito? Forse non starebbe bene ai produttori di schede video ed alle società che impacchettano pc esclusivamente per nerd feticisti del frame rate. Intanto però si trovano programmi di grafica/foto ritocco, programmi per fare flow chart ed altro (tipo Visio di microsoft) e tanta altro roba ancora che gira completamente da browser.
Il futuro è questo, che fra l’altro è un ritornare indietro come ai tempi dei terminali.
@Khelden: nelle soluzioni cloud-based la potenza di calcolo è un problema relativo perché si trae vantaggio dall’economia di scala. Se la tua X360 esegue un gioco non sarà mai impegnata al 100% per il 100% del tempo. Verosimilmente un hardware dedicato è impegnato per circa il 70% delle sue risorse durante un uso intensivo. Quel 30% con il tuo singolo sistema lo butti. Milioni di piccoli centri di calcolo che fanno una frazione del calcolo di una console possono scalare molto bene su numeri giganteschi.
Per l’interattività dello stream: sbagliato. Lo stream video è uno stream video passivo, non c’è nessuna interattività tra quello che la console manda al nostro televisore.
E’ l’input che determina l’interattività.
Basta documentarsi come funziona il netcode per un gioco Valve per capire che la gestione remota dell’input è tutt’altro che fantascienza, essendoci dai tempi di Counter Strike. L’unica vera incognità rimane quella sulla qualità video di output, visto che si parla di un codec a bassa latenza. Ad ogni modo, qualsiasi dispositivo messo su HDMI ha latenza altissime (anche 50-100ms), presumo che un altro trucco per guadagnare “tempo” sia quello di utilizzare una connessione video senza crittografia integrata come Component o VGA/Displayport.
Altra nota: l’articolo su Eurogamer quando parla dei requisiti hardware per lo streaming HD fa un gran casino. Se è vero che sui PC c’è bisogno di schede “mostruose” perché il mercato ha deciso così, per l’elettronica embedded (decoder HD satellitari, ad esempio) basta un semplice chip ARM a basso costo.
Pings/Trackbacks Ars Ludica » Blog Archive » OnLive ha già un concorrente: Dave Perry
Pings/Trackbacks Ars Ludica » Blog Archive » Nuovi dettagli su Gaikai
Pings/Trackbacks Ars Ludica » Blog Archive » Prepariamoci a seppellire le nostre console…