Kam to na ty fotce s MacBookem pripojili? Asi to umi i Bluetooth🙂
Je to sice hezké, ale téměř nepoužitelné. Po pár minutách budete mít pocit, že vám ruce upadnou.
Tady jde spíč o to, že jak pro applisty, tak pro M$ jde o NIH syndrom 😀M$ má podobný kinect, ale lepší LM nebude používat, protože Not Invented Here.Stejně tak applisti se budou držet patlání po obrazovce bez stylusu, protože to je "kůůl" a jsou z toho nažhavení jak pedo na mateřský, a LM by jim překáželo, protože to není apple 😃
nemusite machat rukama ve vzduchu...me napadlo zabudovat pod stul. mit bud skleneny stul nebo cast.. cili-ruce bych mel polozene krasne jako ted na stole ale pritom by se to dalo ovladat timto...
TO by jistě šlo, problém trochu nastává ve chvíli, kdy lidé mají zvyky z dotykových displayů a často využijí tutáž akci jen několim mm od obrazovky. Deska stolu má taky nevýhodu ve složitosti instalace, a pochybuju že se bude ikea domlouvat se samsungem či lenovem 😃 Ale na zakážku Vám truhlář kastli jistě udělá :)
V článku je uvedená podpora len pre Windows a Mac OSX, možno by sa oplatilo doplniť, že podpora je aj pre Linuxhttp://www.phoronix.com/scan.php... Ale inak myslím, že to nájde uplatnenie - pokiaľ je to naozaj tak presné, tak je to super :)
Můžu potvrdit (mám doma prototyp), že to tak přesné opravdu je, zachytí to i velmi jemné pohyby, zároveň má i dosti nízkou latenci.
Heh, uz se uuuuplne nemuzu dockat, az budu 8 az 12 hodin denne machat rukama ve vzduchu, abych neco nakreslil v AutoCadu, GIMPu nebo si zaparil nejakou gamesu.Hmm... na druhou stranu, mozna to uplne prevrati naruby geekovske stereotypy: misto obtloustlych jedincu s tenkymi rucickami budeme geeky poznavat podle jejich masivnich ramennich svalu! 😀
Na to cos napsal máš docela jednoduché myšlení.Pro takovouto práci se bude pc ovládat stále stejně přeci.Tohle je pro ty,kterým své výrobky prodáváte.Pro spotřebitele.
Takže místo mastičů displejových tu budeme mít hromadu epileptických Harry Potterů 😀 Dokud to nebude podporovat ovládání zadkem, tak to nechci.
Jako alternatvní ovládání je to super, ale IMHO není možné to používat déle jak 5 minut v kuse (minority report), za předpokladu, že nemám ruce odloženy na nějké podložce. Ve stravu beztíže by to mohlo fungovat docela dobře.
Jako hračka pěkné, ale nechtěl bych mít ruce v tomhle předpažení osm hodin denně.Další otázkou je spolehlivost v reálných podmínkách.
miesto mysi na pracu nie, ale vsade inde ano.
Proč furt uvažujete stylem "buď-anebo"? Copak myš vytlačila klávesnici? Je to doplněk k ovládání pro specifické případy, není to náhrada myši a klávesnice.Stejně jako dnes třeba v textovém editoru píšu s oběma rukama na klávesnici a myš použiju jen pro navigaci, tak i Leap by mohl fungovat stejně - ruce budu mít většinu času na klávesnici a myši, ale některé činnosti se zrychlí a zjednoduší použitím nějkého gesta.Ideální je to na zoom, manipulaci s nějakým objektem v prostoru, "dotyková" gesta ve Win8... Ono se využití ještě objeví, koneckonců když přišla myš, tak taky spousta lidí netušila, k čemu by ji využili.
Mám doma už přes dva měsíce prototyp, tak si s ním hraji a vyvíjím aplikace/hry a snad můžu dát nějaké postřehy. 🙂Ruce v předpažení být nemusí, dají se normálně opřít lokty o stůl a manipulovat z této pozice, akorát to na promo videích asi nevypadá úplně nejlépe.Osobně mě spolehlivost docela překvapila hned jak jsem to zařízení dostal a od té doby SDK pokročilo nejen funkcemi, ale i robustností snímání, takže si osobně myslím, že v okamžiku uvedení na trh bude spolehlivost bude dosti vysoká.
Názor byl 1× upraven, naposled 16. 4. 2013 17:25
Můžete se podělit o to, jakou úroveň informací zhruba SDK poskytuje? Tedy jestli je to ve stylu dotaz na zařízení a ono to vrátí sbírku bodů v prostoru, kde to něco vidí - programátore vyber si. Případně jestli to vrací body, nejblíže obrazovce, které to považuje za špičky prstů. Nebo jestli to dokáže říct, teď je to asi ruka, takže se ptám SDK vidíš pravou ruku? Kde je špička ukazováčku? A jaký má směrový vektor? Co takhle rozpoznání kloubů? Nebo dokonce jestli to umí gesta a tedy zadám až uživatel udělá gesto XY, tak chci abys zavolal tenhle callback? Nebo jestli se s tím pracuje nějak úplně jinak...
Moc k tomu říkat nemůžu a radši nebudu (SDK je "confidential"), ale můžu říct, že se s tím pracuje opravdu pěkně a jenoduše - Leap se v podstatě stará o veškerou analýzu a zpracování dat, takže napsat jednoduchou demonstraci je otázka pár minut. Osobně mě úroveň zpracování SDK velmi příjemně překvapila.Při vývoji používám jednak špičky prstů (jejich koordináty v prostoru) a jejich směrový vektor a rychlost, stejně jako pozici a polohu celé ruky (tzn. třeba zatlou pěst).
A proč bys měl mít stále předpaženo?Mohlo by to jít namapovat podle sebe.Třeba i tak,že bys měl ruce pohodlně na stole.
to vypadá fakt dobře i pro mne jako vývojáře už si dokážu představit že bych to mohl používat... pěkně zaintegrovaný do notebooku...
S tímhle ovládáním počítače by mohl zmizet problém s karpálním tunelem.
Zato by se mohl objevit problém s tenisovým loktem... 😀
Vyřešením jednoho problému vznikne další.
Aneb dotykové ovládání které neumaže displej... 😃Snad nebudu kamenován ale mnohem více se těším na (snad to ukazovali na CESu nebo kde) myšku ovládanou očima, respektive cosi so snímá vaše oči a tam jede myš... uchvátila mě už jen živá ukázka toho jak to funguje...Snad ta věcička bude brzy na trhu...nějak o ní narozdíl od Leapu není absolutně vidu ani slechu... A když tak přemýšlím na tím mácháním rukou před monitorem, vzpoměl jsem si na fotky kinect a jemu podobných zapíchnutých v celkem drahých TV :)Soráč za chyby a zapíchnuté prsty v IPS panelu 😃
co z kinectu jsi viděl zapíchnutého v tv???? 😀
Ku tam mělo být "nunchak" od Wii.
Ta věcička na očích by mi znepříjemnila prohlížení lechtivých stránek ... 😀
Tak ono to může být kombinace obojího.
nooo toto vyzera zaujimavo
Potvrďte prosím přezdívku, kterou jsme náhodně vygenerovali, nebo si zvolte jinou. Zajistí, že váš profil bude unikátní.
Tato přezdívka je už obsazená, zvolte prosím jinou.