Credo che Eyetoy capti solo la differenza tra - ciò che si muove a schermo - e - ciò che sta fermo -
Se la tenda dietro di me si muove, mi fa esplodere tutte le bolle.
Con i due sensori di Natal sembra che sia possibile dare una terza dimensione (quindi un volume) alle cose, riconoscendo le persone (una o più, immagino) e a quel punto anche i loro arti.
Dalla tech demo sembrava proprio che simulasse un motion capture, con i punti di snodo individuati con dei pallini..
Quello che non capisco è come possa farlo anche quello sony con una eyetoy attualmente in commercio.
Il sistema di Sony non ha un'operatività full body, come invece avviene con Natal. In quest'ultimo caso, un modello scheletrale viene associato a porzioni di immagine (quelle corrispondenti alle articolazioni) che Natal analizza fotogramma per fotogramma tramite complessi algoritmi di feature detection.
La metodologia di Sony è molto meno sofisticata in quanto si basa sul tracciamento posizionale di una sfera: in quanto corpo indeformabile, la sola grandezza della sfera a schermo fornisce già un'indicazione affidabile sulla sua distanza (previa taratura). Il colore dei led istruisce la videocamera sul tipo di azione che si sta effettuando, e soprattutto aiuta la videocamera stessa a non perdere l'informazione posizionale anche in ambienti poco illuminati; il Wand Controller circola nei repart R&D di Sony dal 2005, e sarebbe dovuto uscire in epoca PS2.
Combinando questa informazione con i dati giroscopici / accelerometrici del dispositivo, si ottiene il risultato che avete visto sul palco dell' E3.