Il y a certains 'projets artistiques' ou personnes qui me touche profondément à tel point que je souhaite vivre au processus de création qui donne naissance à ce type de projet. J'ai décidé de vivre cet état d'excitation ou d'exhaltation tout en apprenant des nouvelles compétences.
Je suis Joseph AZAR, et j'ai créé ce prototype qui s'appelle 'L'homme caméléon'. Cette application web utilise du machine learning pour détecter le mouvement d'une personne via la WebCam d'un navigateur web.
Il y a quelques semaines en suivant les cours de Daniel Shiifman sur sa chaine youtube 'the Coding Train" je suis tombé sur ce tuto de pose estimation et ca m'a tout de suite fait penser à un projet magnifique : 'Les métamorphoses de Mr Kalia" développé par Cyril Diagne et Béatrice Lartigue.
En 2014, ils étaient lauréats du concours Google Creative Art.
D'ailleurs j'ai pu rencontrer Cyril Diagne lors du GROW Festival à Paris. On a pu échanger rapidement sur son projet et son parcours. Au Grow j'ai constaté bcp d'enthousiasme à partager les savoir faire, bcp de générosité, j'ai pu rencontré des passionnés on ressent un esprit familial.
C'est l"unique festival de creative coding en France, Nicolas Barradeau en est l'initiateur. Nicolas c'est un pilier du créative coding en France et j'le remercie pour sa générosité et le partage de connaissance qu'il offre sur son blog !
C'est drôle j'avais cette image l'autre jour : c'est le genre de personnes avec qui j'aurais eu envie d'aller jouer à la récré, gamin, pas pour jouer au foot mais plutôt se challenger à créer des projets artistiques ou monter un groupe de punk.
En ce moment je me vois sur la rive d'un fleuve, et mes inspirateurs sont de l'autre côtés. Alors je décide de mettre les actions nécessaires pour que je puisse les rejoindre.
Qu'est ce que fait ce projet ?
L'idée était de faire une étude de cas sur la base de "Les Métamorphoses de Mr Kalia" et par contre de pouvoir cette fois l'utiliser directement avec un navigateur web et une WebCam. Placez-vous assez loin de la caméra et lâchez vous. Attrapez les cercles de couleurs et alors les différentes pistes audio du morceau se déclencheront. C'est un prototype, j'ai fait le choix de la simplicité.
Alors qu'est-ce que j'ai appris ?
J'ai tout d'abord découvert le model POSENET de Machine learning, qui permet une détection en temps réel d'une pose humaine. Il faut aller voir du côté de Google Creative Lab et de TensorFlow.js pour en savoir plus, c'est grâce à eux que l'on peut s'amuser aussi facilement avec ces nouvelles technos depuis un simple navigateur web.
Grâce aux codes de Cyril déposé sur son gitHUB, j'ai pu comprendre quelle technique il avait utiliser pour créer les jointures entre les membres du personnage. En gros tu places deux cercles de différentes tailles et tu calcules les tangentes. Ce qui te donne un membre, un avant bras etc. On apprend énormément en lisant le code des autres.
J'ai aussi appris la gestion des buffers sur Tone.js pour la gestion des pistes audio.
En partageant sur twitter j'ai eu un bon conseil de Julien Espagnon sur l'interpolation de mouvement avec la méthode LERP.
Qu'est-ce que j'ai compris ?
J'ai compris que les compétences techniques ne sont qu'une partie d'un projet interactif réussi. Mais doit être au service d'un message,
Je n'ai pas encore d'équipe, même si je partage et échange beaucoup avec Emilie qui me conseille sur les choix artistiques, esthétiques.