Il y a quelques années en TP d’électronique j’avais découvert qu’en approchant sa main du montage on pouvait faire varier les courbes affichées à l’oscilloscope (sous-entendu faire joujou avec les fils était autrement plus marrant que de réaliser ledit TP ;-).
Rien de très magique là-dedans cependant, puisque le fait que le corp humain soit conducteur est une propriété bien connue. En revanche, ce que je ne soupçonnais pas c’est que cette propriété pouvait être utilisée à d’autres fins.
Des chercheurs de l’université de Washinton viennent en effet de mettre au point WeSee, un système qui analyse les perturbations provoquées par les mouvements des personnes sur les ondes Wifi.
A l’heure actuelle se sont donc 9 séquences qui sont reconnaissables par le système.
Je dois dire que je suis assez bluffé par cette technologie (un peu dubitatif aussi). Imaginez, vous achetez une nouvelle box Internet et celle-ci fait aussi reconnaissance de mouvements. Génial non ?
Si vous avez quelques minutes devant vous, vous pouvez bien entendu lire l’article en version originale, quand à moi je vous propose le petit résumé suivant:
Tout commence il y a cinquante ans avec l’apparition du mot computer. A l’origine celui-ci désignait des personnes chargées d’effectuer des calculs pour de grandes entreprises comme IBM.
On était alors encore très loin du concept de “personal computer”. Ce n’est que dans les années 60-70 que les choses ont commencées à évoluéer avec notamment l’apparition d’une nouvelle génération de chercheurs. Parmi eux, Douglas Engelbart et Alan Kay, deux visionnaires qui croyaient à l’enrichissement de l’humanité au travers ces nouveaux moyen de communication.
Le 19 décembre 1968, fut ainsi présenté pour la toute première fois un prototype d’interface utilisateur personnelle. Première révolution, l’apparition d’un nouvel objet appelé « souris ». Ce pointeur lumineux permettait alors d’éditer en temps réel des liens et de combiner texte et image sur un seul et même écran.
Plus tard Engelbart déclara :
“We were not just building a tool, we were designing an entire system for working with knowledge.”
Un nouveau paradigme était donc né ce jour là; le concept d’ordinateur personnel. Alan Kay écrivit plus tard:
“Adult and child users must be able to get it to perform useful activities without resorting to the services of an expert. Simple tasks must be simple, and complex ones must be possible.”
Au début des années 70 ce groupe de recherche expérimentale commença à prendre une dimension plus industrielle avec notamment le départ d’Alan Kay chez Xerox. C’est aussi à cette époque que l’on retrouve le premier ordinateur d’Apple munit d’une interface graphique: le Lisa. (La légende prétend que c’est en visitant Xerox que Steve Jobs aurait vu le concept de souris et d’interface utilisateur et l’aurait reproduit sur son propre modèle).
Contrairement au lisa, le produit made in Xerox baptisé Alto se vendit très mal en partie à cause de son prix très élevé (50 000 $).
Un exemple d’interface utilisateur sur l’Alto
En 1984 Apple enfonce le clou et lance un nouveau produit: le Macintosh “It was clear to me the Mac was a big step on top of the Star (Star est l’autre nom donné à l’Alto)” déclarera Ben Shniederman au cours d’un des nombreux procès qui opposa Xerox à Apple.
Un exemple d’interface utilisateur sur Macintosh
Le procès de 1988 souligne ainsi la rapidité avec laquelle l’informatique personnelle a convergé autour d’une interface utilisateur unique et dominante. Si vous prenez par exemple la version Windows 2.0 (qui a breveté des éléments Apple…) et Windows 8, fondamentalement, il n’y a pas tant de différence que cela.
Pou conclure, si l’on devait aujourd’hui comparer les différentes interfaces des poids lourds de l’informatique que sont Google Apple et Microsoft on remarque une tendance générale à l’uniformisation (ie Windows phone et ses tuiles, Apple et toute sa gamme iOs, Google et son Pixel Book).
Voilà que j’apprend aujourd’hui l’existence du mot NUI pour désigner un ensemble d’interfaces.
Plus précisément, les Natural User Interfaces font référence à des interfaces invisibles. A l’inverse des Graphical User Interface qui sont directement touchables ou cliquables via le pointeur de souris,les NUI sont uniquement perceptibles grâce à nos mouvements.
Ainsi la Kinect de Microsoft fait partie des NUI; de même, la technologie Leap motion (dont j’ai déjà parlé ici) est en plein dans ce sujet.
Je vous invite à jeter un coup d’oeil à cette vidéo montrant comment le logiciel Processing est en train de s’interfacer avec le Leap motion au travers l’utilisation d’une bibliothèque dédiée.
Pour ceux qui seraient intéressés, une version béta est dors et déjà disponible à cette adresse: [Link]
On termine la journée en douceur avec ce petit tutoriel du photographe Dustin Thompson.
Si vous avez toujours voulu savoir comment obtenir un parfait effet de lévitation sur vos photos vous devriez trouver votre bonheur dans la suite de l’article.
Après un an de travail acharné, je viens enfin de boucler le projet LigthScythe!
Je vous avais parlé pour la toute première fois de ce projet en août 2011. L’idée était alors la suivante, réutiliser la technique du light painting – un appareil photo en prise longue avec en face une source lumineuse mouvante- pour ensuite figer dans l’air d’autres images et ce de manière beaucoup plus précise.
Pour cela, j’ai utilisé un micro-controlleur Arduino qui envoie à intervalles de temps régulier des portions d’une image sur un ruban composé de 64 LEDs.
L’animation se déroule donc en trois temps: Tout d’abord je charge des images Bitmap sur une carte SD. Celles-ci sont ensuite lues et parsée par le micro-controlleur. Enfin, pendant que je me déplace à l’horizontal avec le bâton lumineux, l’Arduino commande les LED de manières à afficher rangée par rangée les pixels notre image.
Au final apparaît donc sur la photo l’image entièrement reconstituée.
Voici les premiers visuels auxquels nous sommes arrivés (se sont de simples tests, la suite des photos sera postée sur mon compte Behance ;-)
Un bref aperçu de l’écran nous permettant d’afficher les images en provenance de la carte SD.
Un grand grand merci à Ulysse Guigon pour m’avoir filé un coup de main et aidé à terminer ce projet!
On sort, on se détend et on va faire une balade dehors!
Histoire de rentabiliser un peu le temps que vous allez passer à flaner dans les rues de votre ville, je vous propose de découvrir aujourd’hui le Map crowdsourcing.
Rassurez-vous avant de regarder cette vidéo moi non plus je ne connaissais pas le concept. L’idée est simple et repose sur la participation bénévole des internaute pour mettre à jour des cartes. Il vous suffit donc de vous inscrire et en quelques clics vous allez pouvoir vous-même réaliser vote propres relevés topographique.
Cette initiative n’est pas vraiment nouvelle puisque qu’ Openstreetmap existe depuis 2005. Cependant, le mouvement fait de plus en plus parler de lui et c’est notamment grâce aux contributions volontaires d’internautes que vous pouvez voir des jolies cartes en 3D sur vos smartphone.
Je ne saurais trop vous conseiller de voir d’autres vidéos de l’émission géopolitique le dessous des cartes elles sont toutes plus passionnantes les unes que les autres!