{"id":44497,"date":"2020-09-09T11:39:25","date_gmt":"2020-09-09T09:39:25","guid":{"rendered":"http:\/\/theark.ch\/news\/des-algorithmes-valaisans-renseignent-les-clients-dun-centre-commercial-finlandais\/"},"modified":"2020-09-09T11:39:25","modified_gmt":"2020-09-09T09:39:25","slug":"des-algorithmes-valaisans-renseignent-les-clients-dun-centre-commercial-finlandais","status":"publish","type":"post","link":"https:\/\/theark.ch\/fr\/news\/des-algorithmes-valaisans-renseignent-les-clients-dun-centre-commercial-finlandais\/","title":{"rendered":"Des algorithmes valaisans renseignent les clients d\u2019un centre commercial finlandais"},"content":{"rendered":"<p style=\"text-align: justify;\"><strong>Les interactions des robots-humains manquent souvent de naturel, surtout en dehors des laboratoires. Les chercheurs de l\u2019Idiap publient en libre acc\u00e8s les algorithmes qui ont permis d\u2019utiliser un robot en conditions r\u00e9elles dans un supermarch\u00e9 finlandais dans le cadre du projet europ\u00e9en Mummer.<\/strong><\/p>\n<p style=\"text-align: justify;\">R\u00e9pondre aux questions de clients dans un centre commercial. Une activit\u00e9 banale et pourtant\u2026 pour qu\u2019un robot puisse l\u2019effectuer correctement, il doit pouvoir comprendre les questions qui lui sont pos\u00e9es, mais pas que. Afin de mener une conversation sans confusions, le robot doit \u00eatre capable de d\u00e9tecter les personnes qui l\u2019entourent, de distinguer celles qui s\u2019int\u00e9ressent \u00e0 lui, celles qui parlent, s\u00e9parer celles qui discutent entre elles de celles qui s\u2019adressent \u00e0 lui ou encore de v\u00e9rifier si elles sont attentives. \u00ab Le but est de pouvoir d\u00e9velopper des algorithmes qui analysent les signaux audio et vid\u00e9o capt\u00e9s par le robot pour en extraire les \u00e9l\u00e9ments de communication non-verbaux, \u00bb explique Jean-Marc Odobez, responsable du groupe de recherche Perception et Compr\u00e9hension de l\u2019Activit\u00e9 \u00e0 l\u2019<a href=\"https:\/\/www.idiap.ch\/fr\" target=\"_blank\" rel=\"noopener\">Idiap<\/a>. Permettre au robot d\u2019interagir avec les humains dans des lieux du quotidien est un d\u00e9fi suppl\u00e9mentaire. C\u2019est dans un centre commercial, \u00e0 deux heures de route d\u2019Helsinki, que chercheurs valaisans et europ\u00e9ens ont test\u00e9 et affin\u00e9 leurs technologies. Gr\u00e2ce aux travaux de l\u2019Idiap, l\u2019exp\u00e9rience a montr\u00e9 que dans la vid\u00e9o capt\u00e9e par le robot, il est possible de reconna\u00eetre et de distinguer rapidement les interlocuteurs dans des conditions r\u00e9elles d\u2019\u00e9clairage.<\/p>\n<p style=\"text-align: justify;\">\u00a0<\/p>\n<p style=\"text-align: justify;\"><strong>Reconna\u00eetre un interlocuteur dans le temps et philosophie open source<\/strong><\/p>\n<p style=\"text-align: justify;\">\u00ab La confusion entre une personne et une autre est l\u2019un des principaux \u00e9cueils techniques \u00e0 l\u2019utilisation de robots dans l\u2019espace public, o\u00f9 les interlocuteurs sont nombreux. \u00a0Une seule erreur et le robot perd l\u2019historique de la conversation pour recommencer l\u2019interaction du d\u00e9but ou continuer la conversation avec un autre, \u00bb d\u00e9taille Jean-Marc Odobez. Pour \u00e9valuer et am\u00e9liorer les performances du robot, les chercheurs ont enregistr\u00e9 de nombreuses interactions en conditions r\u00e9elles. Ils ont ensuite cr\u00e9\u00e9 une base de donn\u00e9es o\u00f9 chaque interaction est d\u00e9crite : qui l\u2019interlocuteur regarde-t-il, \u00e0 qui parle-t-il, etc. Finalement, les images des m\u00eames interactions ont \u00e9t\u00e9 analys\u00e9es par l\u2019algorithme et le r\u00e9sultat a pu \u00eatre compar\u00e9 permettant d\u2019affiner les algorithmes. Unique dans le domaine de l\u2019interaction robot-humain, cette base de donn\u00e9es ainsi que les algorithmes ont \u00e9t\u00e9 mis \u00e0 disposition de la communaut\u00e9 pour pouvoir \u00e9valuer les progr\u00e8s futurs dans le domaine et font l\u2019objet d\u2019une publication et pr\u00e9sentation dans le cadre de la conf\u00e9rence IEEE RO-MAN 2020 sp\u00e9cialis\u00e9e dans ce domaine.<\/p>\n<p style=\"text-align: justify;\">\u00a0<\/p>\n<p style=\"text-align: center;\"><iframe loading=\"lazy\" allow=\"accelerometer; autoplay; encrypted-media; gyroscope; picture-in-picture\" allowfullscreen=\"\" frameborder=\"0\" height=\"315\" src=\"https:\/\/www.youtube.com\/embed\/Cfsc0zXAMVU\" width=\"560\"><\/iframe><\/p>\n<p style=\"text-align: justify;\">\u00a0<\/p>\n<p style=\"text-align: justify;\"><strong>Des algorithmes multimodaux et qui apprennent avec moins d\u2019informations<\/strong><\/p>\n<p style=\"text-align: justify;\">Le robot doit \u00eatre capable de distinguer la voix humaine du bruit environnant et de la localiser. Ceci lui permet de tourner si n\u00e9cessaire la t\u00eate vers la personne qui parle pour pouvoir ensuite mesurer la direction de son regard et d\u00e9terminer si elle s\u2019adresse \u00e0 lui. La communication orale est donc essentiellement multimodale, impliquant bien plus que le seul contenu vocal. L\u2019idiap se sp\u00e9cialise en particulier dans l\u2019analyse multimodale. \u00ab Gr\u00e2ce \u00e0 l\u2019utilisation combin\u00e9e de la vision et de l\u2019audition, la fluidit\u00e9 et la continuit\u00e9 des \u00e9changes est bien meilleure, \u00bb explique l\u2019ing\u00e9nieur recherche et d\u00e9veloppement qui \u00e9tait en charge de suivre le robot \u00e0 distance durant les trois mois de test grandeur nature en Finlande.<\/p>\n<p style=\"text-align: justify;\">Une des prouesses de cet essai est li\u00e9e au bon taux de r\u00e9ussite pour reconna\u00eetre et maintenir l\u2019interaction avec les interlocuteurs. Pour y parvenir, les chercheurs de l\u2019Idiap ont mis au point des techniques d\u2019apprentissage avec des donn\u00e9es dites faiblement \u00e9tiquet\u00e9es. \u00ab Habituellement, il faut fournir \u00e0 l\u2019algorithme un tr\u00e8s grand nombre de donn\u00e9es audio ou vid\u00e9os avec beaucoup d\u2019informations associ\u00e9es pour que l\u2019apprentissage automatique puisse se faire. Mais collecter ces informations automatiquement est difficile et leur annotation manuelle est fastidieuse et co\u00fbteuse, \u00bb pr\u00e9cise Jean-Marc Odobez. R\u00e9duire ces besoins en annotation est donc capital. Par exemple, pour apprendre \u00e0 localiser d\u2019o\u00f9 proviennent des sources sonores, il faut normalement enregistrer un ou plusieurs sons et annoter o\u00f9 se trouve chaque source. Le nouvel algorithme ne n\u00e9cessite que d\u2019indiquer le nombre de signaux sonores, pas leur localisation, ce qui est beaucoup plus ais\u00e9.<\/p>\n<p style=\"text-align: justify;\">\u00a0<\/p>\n<p style=\"text-align: justify;\"><strong>Informations compl\u00e9mentaires :<\/strong> <a href=\"https:\/\/www.idiap.ch\/fr\/actualites\/des-algorithmes-valaisans-renseignent-les-clients-d-un-centre-commercial-finlandais?set_language=fr\" target=\"_blank\" rel=\"noopener\">ici<\/a><\/p>\n<p style=\"text-align: justify;\"><strong>Source et cr\u00e9dit vid\u00e9o\/photo :<\/strong> Idiap Research Institut<\/p>\n<p style=\"text-align: justify;\">\u00a0<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Les interactions des robots-humains manquent souvent de naturel, surtout en dehors des laboratoires. Les chercheurs de l\u2019Idiap publient en libre acc\u00e8s les algorithmes qui ont permis d\u2019utiliser un robot en conditions r\u00e9elles dans un supermarch\u00e9 finlandais dans le cadre du projet europ\u00e9en Mummer. R\u00e9pondre aux questions de clients dans un centre commercial. Une activit\u00e9 banale [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":44498,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[194],"tags":[],"class_list":["post-44497","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-event"],"acf":[],"_links":{"self":[{"href":"https:\/\/theark.ch\/fr\/wp-json\/wp\/v2\/posts\/44497","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/theark.ch\/fr\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/theark.ch\/fr\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/theark.ch\/fr\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/theark.ch\/fr\/wp-json\/wp\/v2\/comments?post=44497"}],"version-history":[{"count":0,"href":"https:\/\/theark.ch\/fr\/wp-json\/wp\/v2\/posts\/44497\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/theark.ch\/fr\/wp-json\/wp\/v2\/media\/44498"}],"wp:attachment":[{"href":"https:\/\/theark.ch\/fr\/wp-json\/wp\/v2\/media?parent=44497"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/theark.ch\/fr\/wp-json\/wp\/v2\/categories?post=44497"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/theark.ch\/fr\/wp-json\/wp\/v2\/tags?post=44497"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}