28/11/2015
Sunu, un bracelet connecté qui aide les personnes malvoyantes
Ce dispositif a été conçu en s'inspirant du principe d'ondes utilisé par les chauves-souris.
Les bracelets connectés sont de plus en plus des accessoires de haute technologie, très utilisés par les consommateurs. Le bracelet Sunu devrait intéresser des personnes malvoyantes. C’est en réalité un système qui va guider les personnes handicapées visuels, les personnes aveugles, grâce à des ondes hautes fréquences qui détecte les obstacles.
Ce dispositif a été conçu en s'inspirant du principe d'ondes utilisé par les chauves-souris. Ce concept est le fruit de chercheurs mexicains, qui ont étudié la technologie du sonar pour aider à mieux bouger, marcher et surtout mieux s’orienter.
Une connexion pour guider les malvoyants
Les deux chercheurs mexicains qui ont créé le bracelet connecté Sunu, ont utilisé les ondes en version hautes fréquences, pour obtenir plus facilement l'écholocalisation dans l'espace, exactement comme fonctionne un sonar.
Le principe technologique, repose sur les ondes, émises depuis le bracelet connecté qui est au poignet du malvoyant. Ces dernières butent sur les obstacles, et font un retour à la source de l'émission. Les personnes aveugles vont pouvoir se déplacer même dans un environnement difficile. Le Sunu est un produit exclusivement conçu pour les personnes à la vision déficiente, un projet noble et socialement très utile. D'ailleurs, les deux inventeurs, sont allés plus loin, en créant le bracelet Sunu Tag connecté, ce dernier pouvant se fixer sur n'importe quel objet utilisable dans la journée, comme un trousseau de clés, un téléphone mobile, portefeuille, etc… ceci permettra de localiser le bracelet plus facilement via les vibrations du smartphone ou du bracelet.
Le bracelet est toujours en "phase projet", espérons que la campagne de financement lancée donnera des résultats pour soutenir cette action de bienfaisance.
Vidéo. Le bracelet connecté (en anglais)
12:58 Publié dans innovation | Lien permanent | Commentaires (0)
Uni traduit la langue des signes en mots
Grâce à ces deux caméras et à la technologie leap motion, le dispositif Uni traduit la langue des signes en mots et les paroles en texte pour faciliter la communication entre sourds et entendants.
D'après l'OMS, 360 millions de personnes, soit plus de 5% de la population mondiale, souffrent de déficience auditive incapacitante. En France, selon l'INPES cela concerne plus de cinq millionsde personnes avec 100 000 à 300 000 qui pratiquent la langue des signes française (LSF) contre 500 000 à 2 millions pour la langue des signes américaines (ASL). Difficile donc de se faire comprendre au quotidien pour une personne qui ne s’exprime que par la langue des signes. Un nouvel outil pourrait pallier ces difficultés.
Développé par MotionSavvy, Uni s’attache à une tablette, visualise les gestes et les traduit en texte grâce à ces deux caméras. Le dispositif doté de la technologie “leap motion” reconnaît les mouvements des dix doigts et déchiffre rapidement les signes pour les retranscrire en texte automatiquement lu avec une voix proche de celle de Siri. Avec son logiciel de reconnaissance vocal, Uni est aussi capable de détecter la voix et de la transformer en texte. Malentendants et entendants pourront ainsi converser simplement.
https://youtu.be/NN_WsMd6YIc?t=118
Les fondateurs de MotionSavvy Alexandr Opalka et Ryan Hait-Campbell sont tous les deux sourds et ont pour objectif de faciliter l’accès à l’emploi des malentendants en améliorant la communication. Les premiers Uni devraient être livrés pour l’été 2016. Pour l’instant, Uni ne comprend que la langue des signes américaine mais a pour projet d’en développer d’autres.
10:59 Publié dans innovation | Lien permanent | Commentaires (0)
casque à conduction osseuse pour les personnes malvoyantes
Microsoft met à jour son casque à conduction osseuse pour les personnes malvoyantes
Microsoft a amélioré son casque à conduction osseuse pour personnaliser les déplacements des personnes affectées d'une déficience visuelle.
Selon les chiffres de l'OMS, actuellement, près de 285 millions de personnes sont malvoyantes : 39 millions d'entre elles sont aveugles et 246 millions présentent une baisse de l'acuité visuelle. Pour ces personnes, le sens prenant la relève est l'ouïe et elles sont davantage sensibles aux sons.
En fin d'année dernière, Microsoft levait le voile sur ses travaux de recherche au Royaume-Uni. La société a conçu un casque à conduction osseuse modelé sur-mesure et proposant un champ sonore 3D, directement transmis dans les mâchoires de l'utilisateur. Le casque en question est appairé à un smartphone pour la géolocalisation mais aussi pour retourner des informations aux alentours ou lire les beacons.
Dans un communiqué, Microsoft explique avoir introduit plusieurs nouveautés. La fonctionnalité Orientate permet à l'utilisateur de savoir immédiatement ce qui les entoure ou les lieux à proximité après une requête vocale ou via un geste opéré sur le smartphone.
Mais la personne malvoyante dispose également d'un nouvel outil baptisé CityScribe. Concrètement, au fur et à mesure de ses sorties, l'utilisateur est en mesure d'ajouter des libellés à des obstacles récurrents sur ses différents parcours, qu'il s'agisse d'un banc sur le trottoir, une poubelle publique, un nid de poule ou une zone en travaux.
Microsoft rapporte les propos de Gerald James ayant testé le dispositif : « ça dépeint une image de la ville. Ca m'a identifié toutes les différentes boutiques de chaque côté de la rue mais ca m'a aussi informé sur les noms de rue et les directions à suivre ».
Le projet, baptisé City Unlocked, est mené en partenariat avec l'association britannique Guide Dogs, proposant des chiens entraînes pour aider les personnes non-voyantes.
A lire également :
Sunu, Buzzclip, DotWatch : quand les objets connectés aident les non-voyants
10:34 Publié dans innovation | Lien permanent | Commentaires (0)
25/11/2015
REAplan : un robot médical
REAplan : un robot médical pour optimiser la rééducation des patients victimes d’AVC ou atteints d’IMC.
Dispositif robotisé novateur, le REAplan a pour objectif la récupération de la motricité des membres supérieurs. Il se destine aux personnes cérébrolésées, plus particulièrement aux adultes victimes d’un accident vasculaire cérébral (AVC) et aux enfants atteints d’infirmité motrice cérébrale (IMC).
Comment récupérer d’une lésion causée par un AVC ou en cas d’IMC ? En stimulant la plasticité cérébrale du patient, c’est-à-dire la capacité que possèdent ses neurones à se réorganiser afin de pallier les déficits fonctionnels engendrés. Axinesis, une start-up belge, issue de l’Université catholique de Louvain-la-Neuve, a développé dans ce but et en collaboration avec des centres de rééducation un robot de neuro-réadaptation appelé REAplan.
Le principe de ce dispositif d’assistance consiste à mobiliser le bras du patient. Pour cela, un effecteur distal (sorte de poignée) va entrainer dans un plan horizontal le membre supérieur dans des déplacements dont l’intensité (force et vitesse) est paramétrable.
Une aide interactive sur trois modes
La partie la plus innovante réside dans l’existence d’algorithmes de contrôle. Leur rôle ? Assister le patient de manière interactive en fonction de ses propres déficiences motrices. L’aide fournie s’adaptera ainsi en fonction des performances mesurées lors des exercices, performances qui varieront selon les stades de la récupération motrice. Ainsi, les mouvements de l’effecteur distal se déclineront en trois modes. Le premier, dit actif, consiste à ce que le membre du patient conserve simplement une trajectoire. Le deuxième, activo-passif, correspond à une assistance permettant à la fois de rester sur une trajectoire et de progresser le long de cette dernière. Enfin, le dernier mode, appelé passif, procure un accompagnement total : le dispositif exécute l’ensemble des mouvements, entraînant complètement le membre du patient avec lui.
La plasticité stimulée via des mouvements répétés
Grâce au logiciel REAlab, le système a également la faculté de mesurer en continu et d’interpréter les efforts d’interaction avec l’utilisateur. Ce qui lui permet d’interagir constamment avec ce dernier afin d’intensifier le programme de rééducation, dans les limites des protocoles de neuro-réadaptation actuelles. In fine, le but de cette interaction est de permettre au patient d’exécuter des déplacements de manière répétée et intense. Ces répétitions de mouvements vont engendrer un phénomène de plasticité cérébrale autour de la lésion. C’est cette réorganisation corticale (ou remodelage) qui va, en retour, favoriser le réapprentissage moteur.
Le REAplan bientôt présent en France
Équipé d’un large écran plat, le dispositif permet également au patient de bénéficier d’un retour audio-visuel. Comme, par exemple, de suivre sur un circuit la trajectoire de la voiture guidée par sa main. Mais seul le personnel soignant, préalablement formé, sera à même de configurer et superviser l’interface : programmation et gestion des exercices d’évaluation ou de rééducation, suivi de l’évolution du patients, etc. Testée avec succès en Belgique et homologué CE, cette nouvelle technologie de réadaptation est en train d’établir ses premiers partenariats cliniques en France. O. Clot-Faybesse
16:07 Publié dans innovation | Lien permanent | Commentaires (0)
le contrôle d’un ordinateur par la pensée
BrainGate2 : le contrôle d’un ordinateur par la pensée
Grâce à BrainGate2, réseau d’électrodes implantées dans le cortex moteur, deux patients paralysés ont pu, en imaginant un mouvement, déplacer avec facilité un curseur jusqu’à une cible sur un écran. Un pas important vers le contrôle par la pensée d’appareils divers.
Un peu tôt pour parler de « prothèse cérébrale ». Mais les résultats obtenus avec deux personnes atteints de sclérose latérale amyotrophique (SLA ou maladie de Charcot) sont très encourageants. En imaginant que leur index se déplaçait sur une surface, l’un comme l’autre ont pu déplacer le curseur présent sur l’écran d’un ordinateur jusqu’à une zone délimitée.
Le détail de ces expériences, effectuées par les équipes américaines de BrainGate, un groupement de recherche dont l’objectif est de développer des outils pour la mobilité, communication et autonomie des personnes handicapées, a été publié dans le numéro de la revue anglo-saxonne Nature Medecine. Ces travaux font suite à une première expérience menée en 2011 par Cathy Hutchinson, une patiente tétraplégique qui avait pu actionner un bras robotisé grâce aux électrodes introduites dans son cerveau.
Des performances optimisées
Quatre ans plus tard, qu’apportent ces nouvelles expériences ? Rien de moins qu’un système d’interprétation des ondes cérébrales fortement amélioré. À savoir une meilleure extraction et traduction des signaux neuronaux de BrainGate2, contribuant notamment à donner plus de précision quant à la direction que souhaite mentalement prendre l’utilisateur.
Ce qui permet d’obtenir comme le souligne le scientifique Jaimie Henderson, cosignataire de l’article paru dans Nature Medecine, « un contrôle plus rapide et plus précis du marqueur sur l’écran ». En effet, les testeurs paralysés sont arrivés à déplacer le curseur de l’écran jusqu’à sa cible dans un temps moyen de 2,5 secondes. Contre 8,5 secondes de délai auparavant.
Des applications multiples
Réaliser des déplacements d’un marqueur sur un écran grâce à une impulsion provenant de notre cerveau, d’accord. Mais dans quel but concret ? Dans un premier temps pour choisir des lettres sur une interface afin de composer des mots et ainsi aider un patient dépourvu d’élocution à s’exprimer, comme le montre cette vidéo :
À terme, précise Jaimie Henderson, il s’agit de permettre à des personnes tétraplégiques « de déplacer à volonté un curseur et de cliquer afin de contrôler des appareils dans leur environnement » comme, par exemple, une voiture.
Avant, peut-être, d’établir à nouveau un lien entre le cerveau et les membres paralysés… O. Clot-Faybesse
15:56 Publié dans innovation | Lien permanent | Commentaires (0)