docela by mne zajímalo, jak windows poznají, zda pohyb ruky, který uživatel provede, je gestem, které má otevřít webový prohlížeč, či jen gestikuluje při diskuzi s kolegou nebo si jen potřebuje natočit displej tak aby se mu na něm lépe četlo
když jsem zkoušel používat různé programy či pluginy pro shell operačního systému pro práci s gesty, zjistil jsem, že počet gest, která jsou tak jednoduchá, že fungují, je dosti omezený, nedovedu si představit, jak vymyslet, naprogramovat a i jen si pamatovat tolik gest aby se jimi dal ovládat jak operační systém, tak správce souborů, tak prohlížeč a přehrávač hudby ale i dalších XX programů
také si nedovedu představit velikost obrazovky, dostatečnou pro to aby šlo tímto způsobem psát, proti tomuto je dotekové ovládání sofistikované a miniaturní ovládání