S'identifier / Créer un compte
  • Actualités
  • Dossiers
  • Tests
  • Commentaires
  • INpactiens
Publicité

Windows 8 veut fusionner les données provenant des capteurs

Mieux gérer la position et les déplacements dans l'espace

Tandis que se rapproche la date de la bêta publique, toujours prévue pour la fin du mois de février, Microsoft continue de remplir son blog officiel Windows 8. Après plusieurs billets consacrés à la gestion des disques, aux Storage Spaces et à ReFS, la firme aborde la gestion des détecteurs, avec un regard en coulisse aux tablettes.

windows 8 win8 build samsung

Ce billet ne détaille pas à proprement parler de nouveautés. En fait, des capacités telles que l’adaptation automatique de la luminosité ou la prise en charge d’un accéléromètre existent depuis des années dans les smartphones et tablettes. Mais les propos de Microsoft font écho à la documentation récemment découverte au sujet des éléments obligatoirement présents dans une tablette pour qu’elle soit certifiée Windows 8. De fait, l’important ici est qu’une tablette affichant le précieux autocollant garantira la présence de toute une série de capteurs.

Le premier d’entre eux sera évidemment dédié à la lumière. On ne peut plus attendre d’une tablette moderne qu’elle soit incapable de s’adapter seule aux conditions d’éclairage. En l’occurrence, il est pratique de voir la luminosité de l’écran augmenter lorsqu’on se retrouve l’extérieur avec le soleil. Les deux images ci-dessous montrent la différence :

samsung tablette win8 samsung tablette win8 

La gestion des accéléromètres sera bien entendu de la partie ce qui permettra à l’écran de gérer les modes portrait et paysage. Jusque-là, rien de bien extraordinaire.

La fusion des capteurs

Là où Windows 8 veut proposer du neuf, c’est sur ce que Microsoft appelle la fusion des capteurs. Le système d’exploitation pourrait en fait brasser directement les données issues de l’accéléromètre, du gyroscope et du magnétomètre. L’objectif serait alors d’obtenir des résultats beaucoup plus précis à exploiter ensuite dans diverses situations.

Pour la firme, cela permettrait à un appareil mobile de prendre en charge la totalité des mouvements et déplacements dans l’espace afin soit de s’en servir directement au sein d’une application, soit pour en compenser les à-coups. Ces données peuvent également être prises en charge dans les manipulations générales du système pour mieux adapter les réponses aux actions souhaitées par l’utilisateur.

La firme annonce travailler avec ses partenaires, car cela suppose une adaptation. La partie matérielle elle-même ne change pas, mais les informations qui sont traitées doivent par contre passer par une série de « standards » fournis par Microsoft. Au centre se trouve un pilote unique, fourni par l’éditeur lui aussi.

Pour information, la tablette Samsung offerte aux participants de la conférence BUILD en septembre dernier contient déjà tous les capteurs et la solution de fusion de leurs données.
Source : Microsoft
Vincent Hermann

Rédacteur/journaliste spécialisé dans le logiciel et en particulier les systèmes d'exploitation. Ne se déplace jamais sans son épée.

Publiée le 26/01/2012 à 10:00

Soutenez l'indépendance de Next INpact en devenant Premium

  • Tout le contenu de Next INpact sans pub
  • Et bien plus encore...

Il y a 45 commentaires

Avatar de kwabena INpactien
kwabena Le jeudi 26 janvier 2012 à 18:17:59
Inscrit le jeudi 26 novembre 09 - 402 commentaires

Tout ça pour dire que iOS et WP7 pour des cas de multi-taches implicant autre chose que jouer un son sont de véritables plaies.

D'où mon terme multi-tâche indigne dans le sens où la seule chose que te permet le multi-tache ici est de pouvoir redémarrer une app là où elle en était, mais en aucun cas ces OS ne sont capables de faire 2 tâches en même temps.


Pas tout a fait vrai pour WP7 (je connais pas assez iOS5)
Tu ne peux pas faire tourner 2 applis simultanément, mais tu peux faire en sorte que ton appli lance un processus toutes les 1/2h. Celui a accès à certains capteurs dont le GPS, peut modifier les données de l'appli et peut notifier l'utilisateur.
Je m'en sers justement dans 2 applis, l'une qui est un gestionnaire de tâches en fonction de la localisation de l'utilisateur, l'autre qui télécharge des podcasts dès l'instant ou ils sont disponibles (la nuit), sans que l'application ne soit lancée.
Mais c'est effectivement très limité
Avatar de brokensoul INpactien
brokensoul Le vendredi 27 janvier 2012 à 01:45:07
Inscrit le mardi 16 mai 06 - 4220 commentaires


+1
Le coté fusion m'intéresse, et surtout comment ils font le faire vu que j'utilise de la fusion de capteur dans mon taff ;)

kalman du genre EKF ou UKF, pas trop de surprises, "on" sait faire depuis longtemps dans le domaine de la navigation inertielle. Un peu la flemme de lire tous les commentaires, mais pour certains malcomprenants la nouveauté c'est que pour avoir une info d'orientation, le gyro ne fait pas tout (et réciproquement pour les accélérations, exemple), et MS propose donc apparemment une API qui gère déjà la fusion des capteurs. Je ne sais pas où en est android, à la 2.2 les capteurs étaient adressés directement (donc sans fusion), mais ça a sûrement progressé. Je ne sais pas trop pour iOS, pas eu connaissance d'un travail comme ça chez Apple, mais relativement "facile" à faire dans une appli et sûrement déjà fait. Du coup j ne comprends pas que MS en parle si tôt, si ce n'était pas déjà chez les concurrents ça y sera dans 2 mois..
Avatar de NePNeP INpactien
NePNeP Le vendredi 27 janvier 2012 à 11:46:15
Inscrit le jeudi 29 juillet 10 - 2 commentaires
Je confirme que ce qui est décrit dans l'article :

Là où Windows 8 veut proposer du neuf, c’est sur ce que Microsoft appelle la fusion des capteurs. Le système d’exploitation pourrait en fait brasser directement les données issues de l’accéléromètre, du gyroscope et du magnétomètre. L’objectif serait alors d’obtenir des résultats beaucoup plus précis à exploiter ensuite dans diverses situations.


Cela existe déjà du coté iOS depuis la version 4 je crois... (C'était le but de Core motion et notamment la classe CMDeviceMotion qui combine les éléments, et permet de finir avec un Quaternion).
Le magnétomètre reste à part (en gros on a l'orientation de l'appareil dans l'espace par rapport à l'orientation originale de l'appareil + la possibilité de récupérer l'orientation originale avec le magnetometre) mais je vois pas trop ce que pourrait faire MS de différent, si ce n'est "fixer par défaut l'orientation de départ originale au nord" par exemple mais c'est pas beaucoup de lignes de codes en plus sur ios...

Et pour ceux que ca intéresse, c'est là :
http://developer.apple.com/library/IOs/#documentation/CoreMotion/Reference/CMDeviceMotion_Class/Reference/Reference.html

Les capteurs sont aussi disponibles séparement évidemment. Mais cette classe combine tout ça et évite pas mal de maux de tetes ;)

Edité par NePNeP le vendredi 27 janvier 2012 à 11:49
Avatar de NePNeP INpactien
NePNeP Le vendredi 27 janvier 2012 à 11:54:10
Inscrit le jeudi 29 juillet 10 - 2 commentaires
Je complète un peu plus précisemment, voilà l'objet qui combine les différentes informations de l'accelerometre et du gyroscope :
http://developer.apple.com/library/IOs/#documentation/CoreMotion/Reference/CMAttitude_Class/Reference/Reference.html#//apple_ref/occ/cl/CMAttitude
Avatar de Ewil INpactien
Ewil Le vendredi 27 janvier 2012 à 14:24:53
Inscrit le jeudi 10 septembre 09 - 1090 commentaires


J'utilise la fusion pour reproduire un environnement et le déplacement "des capteurs" dans cet environnement, un Kalman ne suffi pas (ni un markoff) mais c'est pas le sujet :p
;