• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 71
  • 28
  • 11
  • Tagged with
  • 114
  • 56
  • 54
  • 46
  • 40
  • 31
  • 31
  • 31
  • 31
  • 31
  • 28
  • 23
  • 22
  • 21
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Séparation aveugle de mélanges convolutifs de sources cyclostationnaires / Blind source separation of convolutive mixtures of cyclostationary signals

Florian, Elena 14 December 2010 (has links)
Dans cette thèse, nous nous sommes intéressés aux méthodes de séparation de mélanges convolutifs de signaux cyclostationnaires, et particulièrement de signaux issus de systèmes de communications numériques. Les résultats de ces travaux concernent principalement les méthodes de séparation basées sur la minimisation d'un critère du type CMA avec une approche par déflation. Dans la première partie de ce manuscrit nous nous sommes concentrés sur les mélanges de sources non-circulaires à l'ordre 2, notamment des sources BPSK ou CPM d'indice 1/2. Nous avons montré que dans le cas où les sources ont des caractéristiques différentes (en terme de débit et de résidu de porteuse) la minimisation du critère du module constant couplée avec une approche par déflation permet d'extraire les sources du mélange sans connaître leurs fréquences cycliques ni leurs fréquences cycliques non conjuguées. Dans le cas opposé, où les sources partagent les mêmes fréquences cycliques et les mêmes fréquences cycliques non conjuguées, nous avons prouvé l'existence de minima locaux non-séparants du critère du CMA. Nous avons aussi montré que le critère du CMA converge dans un grand nombre de cas vers ces points et que par conséquent la séparation de sources n'est pas toujours réalisée pour ce type de mélanges. Nous avons ensuite proposé un nouveau critère basé sur le critère du CMA qui, couplé avec une approche par déflation, assure l'extraction des sources dans ces situations. Ce nouveau critère ne nécessite pas la connaissance des fréquences cycliques des signaux mais nécessite quand même la connaissance des fréquences cycliques non-conjuguées les plus significatives. Nous avons proposé une méthode assez grossière d'estimation de ces fréquences et nous avons montré que, avec les fréquences cycliques non-conjuguées significatives ainsi estimées, l'algorithme proposé fonctionne correctement et qu'il est capable d'extraire les sources des mélanges pour lesquels le critère du CMA échoue. Dans la deuxième partie de ce manuscript, nous nous sommes intéressés aux séparateurs dérivés du principe du maximum de vraisemblance. Nous avons d'abord étudié des mélanges instantanés des signaux cyclostationnaires et circulaires à l'ordre 2. Dans ce contexte, nous avons mis en évidence des estimateurs basés sur le principe du maximum de vraisemblance et nous avons présenté une méthode pour les implanter. Nous avons ensuite étudié les propriétés asymptotiques de ces estimateurs et nous avons montré que, dans des conditions idéales (absence du bruit), ces estimateurs permettent d'améliorer les performances du critère du CMA. Toujours dans ces conditions, nous avons montré que les estimateurs dérivés du critère du maximum de vraisemblance permettent dans certains cas d'estimer la source ayant la bande passante la plus petite avec une erreur plus petite que les méthodes usuelles. Ces résultats ne sont malheureusement plus vrais dans un context plus réaliste comme en présence de bruit. Nous avons généralisé les idées développées dans le cas de mélanges instantanés au cas de mélanges convolutifs mais pour ce type de mélanges, nous n'avons pas constaté d'amélioration des performances du critère du CMA même dans le cas non-bruité. Bien qu'en pratique cette étude n'apporte pas de grandes contributions, elle a néanmoins un intérêt théorique certain / This thesis addresses the problem of blind separation of convolutive mixtures of cyclostationnary, linearly modulated signals. We mainly focus on signals issued from digital communications systems. Our work involves separating methods based on the minimisation of a criterion (like the constant modulus) combined with a deflation approach. In the first part of the manuscript we considered convolutive mixtures of non second order circular signals such as BPSK and $1/2$ index CPM modulations. We have proven that if the transmission sources all have different baud rates and offset frequencies, minimizing the constant modulus criterion and using a deflation approach successfully achieves the extraction of the original signals from the mixture without prior knowledge of the signal cyclic and non conjugate cyclic frequencies. This result is no longer obtained if all the transmission sources have the same baud rate and frequency offset. We have proven that in this case the CMA criterion has non separating local minima and that the minimisation algorithm very often converges to these spurious points. This means that in a non-negligible number of cases separation is not achieved for this type of mixtures. We therefore propose a new criterion based on the CMA which combined with a deflation approach ensures the extraction of source signals from this particular type of mixtures. This new criterion does not need prior knowledge of the cyclic frequencies but does need information on the most significant non conjugate cyclic frequencies of the signals. We also propose an estimation method for these frequencies and we show that our new algorithm works correctly with the estimated non conjugate cyclic frequencies and that it is capable to extract all the source signals from those types of mixtures for which the CMA fails.The second part of this manuscript focuses on a class of Maximum Likelihood derived separators. We are only considering second order circularly modulated signals. We first studied the case of instantaneous mixtures and then extended our results to convolutive mixtures. For the instantaneous mixtures, we have developed Maximum Likelihood based estimators and presented an implementation method for them. We have then studied their asymptotic properties and we have shown that, in the absence of noise, these estimators improve the performance of the CMA algorithm. Under the same assumptions we have shown that the Maximum Likelihood based estimators allow, in some cases, to extract the signal with the largest bandwidth with a lower error than the one obtained when using other well known separating methods. This results however are no longer true in more realistic contexts such as the presence of noise. We have extended this study to the convolutive mixtures of signals but in this case we have not seen an important improvement on the performances achieved by the CMA algorithm, not even in the absence of noise. Even though this study does not have practical applications, it has nevertheless a certain theoretical significance
2

Filtrage d'artefacts par analyse multicomposante de l'électroencéphalogramme de patients épileptiques / Artifact filtering by multicomponent analysis on electroencephalogram of epileptic patients

Boudet, Samuel 03 July 2008 (has links)
L'électroencéphalographie (EEG) consiste à mesurer l'activité électrique du cerveau à l'aide d'électrodes placées à la surface du cuir chevelu. Cette technique est principalement utilisée pour le diagnostic de l'épilepsie. Certains grapho-éléments comme des ondes lentes et des pointes-ondes peuvent apparaitre sur l'EEG permettant au neurologue de détecter une souffrance épileptique. Malheureusement, cette activité peut être fortement contaminée par des signaux parasites appelés artefacts. Ces artefacts ont pour origines principales l'activité oculaire, l'activité musculaire, le rythme cardiaque et les légers déplacements d'électrodes. Les fréquences des grapho-éléments pathologique recouvrent celles des artefacts et nous avons alors recours à des filtres spatiaux, reposant sur la séparation de sources. Le principe est de déterminer un ensemble de sources d'origines cérébrales et un ensemble de sources d'artefacts. Les sources d'artefacts sont supprimées et les sources cérébrales sont utilisées pour reconstruire le signal. Nous présentons dans cette thèse plusieurs méthodes combinant les filtres spatiaux et les filtres frèquentiels afin d'automatiser le filtrage. Une démarche quantitative a été définie afin de valider ces méthodes, nous permettant de choisir la méthode la plus performante appelée Adaptive Filtering by Optimal Projection (AFOP). Les tests sur des enregistrements cliniques de patient épileptiques, ont montré, selon l'avis du neurologue, l'efficacité d'AFOP sur la plupart des types d'artefacts ainsi que son respect des rythmes cérébraux. / The electroencephalography (EEG) consists in measuring brain electrical activity thanks to electrodes located on the scalp surface. This technique is mainly used for the diagnostic of epilepsy. Sorne grapho-elements like slow waves and spike waves can appear on the EEG, enabling the neurologist to detect an epilepsy pain. Unfortunately, this activity can be highly contaminated by parasitical signals called artifacts. These artifacts have for main origins, the ocular activity, the muscular activity, the cardiac rhythm and tight electrode displacements. The frequencies of pathological grapho-elements recover those of artifacts, and it is then required to use spatial filter which rests on source separation. The principle is to determine a set of cerebral sources and a set of artifacts sources. Artifact sources are then cancelled and the cerebral ones are used to rebuild the signal. This thesis presents several methods using both spatial and frequential filters, making the EEG filtering automated. A quantitative approach of filtering validation is defined, which enables the author to choose the most efficient called Adaptive Filtering by Optimal Projection (AFOP). According to the neurologist, tests on clinical recordings of epileptic patients prove AFOP efficiency on cancelling most of artifact types as well as on respecting cerebn rhythms.
3

Codage réseau pour des applications multimédias avancées / Network coding for advanced video applications

Nemoianu, Irina-Delia 20 June 2013 (has links)
Le codage réseau est un paradigme qui permet une utilisation efficace du réseau. Il maximise le débit dans un réseau multi-saut en multicast et réduit le retard. Dans cette thèse, nous concentrons notre attention sur l’intégration du codage réseau aux applications multimédias, et en particulier aux systèmes avancès qui fournissent un service vidéo amélioré pour les utilisateurs. Nos contributions concernent plusieurs scénarios : un cadre de fonctions efficace pour la transmission de flux en directe qui utilise à la fois le codage réseau et le codage par description multiple, une nouvelle stratégie de transmission pour les réseaux sans fil avec perte qui garantit un compromis entre la résilience vis-à-vis des perte et la reduction du retard sur la base d’une optimisation débit-distorsion de l'ordonnancement des images vidéo, que nous avons également étendu au cas du streaming multi-vue interactive, un système replication sociale distribuée qui, en utilisant le réseau codage en relation et la connaissance des préférences des utilisateurs en termes de vue, est en mesure de sélectionner un schéma de réplication capable de fournir une vidéo de haute qualité en accédant seulement aux autres membres du groupe social, sans encourir le coût d’accès associé à une connexion à un serveur central et sans échanger des larges tables de métadonnées pour tenir trace des éléments répliqués, et, finalement, une étude sur l’utilisation de techniques de séparation aveugle de source -pour réduire l’overhead encouru par les schémas de codage réseau- basé sur des techniques de détection d’erreur telles que le codage de parité et la génération de message digest. / Network coding is a paradigm that allows an efficient use of the capacity of communication networks. It maximizes the throughput in a multi-hop multicast communication and reduces the delay. In this thesis, we focus our attention to the integration of the network coding framework to multimedia applications, and in particular to advanced systems that provide enhanced video services to the users. Our contributions concern several instances of advanced multimedia communications: an efficient framework for transmission of a live stream making joint use of network coding and multiple description coding; a novel transmission strategy for lossy wireless networks that guarantees a trade-off between loss resilience and short delay based on a rate-distortion optimized scheduling of the video frames, that we also extended to the case of interactive multi-view streaming; a distributed social caching system that, using network coding in conjunction with the knowledge of the users' preferences in terms of views, is able to select a replication scheme such that to provide a high video quality by accessing only other members of the social group without incurring the access cost associated with a connection to a central server and without exchanging large tables of metadata to keep track of the replicated parts; and, finally, a study on using blind source separation techniques to reduce the overhead incurred by network coding schemes based on error-detecting techniques such as parity coding and message digest generation. All our contributions are aimed at using network coding to enhance the quality of video transmission in terms of distortion and delay perceived
4

Braille ou vocal? Analyse du processus de décodage de journaux en texte électronique par des lecteurs aveugles

Viau, Émilie January 2014 (has links)
Ce mémoire s’intéresse aux usages des modalités braille et vocale pour la lecture tactile et auditive de journaux par des personnes aveugles. Plus spécifiquement, il expose une recherche qualitative visant à l’identification, à la caractérisation et à l’analyse du ou des choix de modalité(s) faits par ces personnes lors d’une lecture de journal adapté en texte électronique, ceci, dans une perspective d’évaluation des facteurs d’influence desdits choix. Afin de répondre aux objectifs fixés, une collecte de données a été réalisée auprès de six participants aveugles, notamment sélectionnés sur la base de leur double aptitude à la lecture tactile et auditive des textes. Chacun a eu à lire un corpus d’articles de journaux en texte électronique avec la ou les modalités de leur choix (braille et/ou vocal), lesquelles pouvaient être employées seules ou en combinaison. L’exercice, se déroulant à l’individuel, s’est tenu à l’aide des technologies adaptées de chacun (afficheur braille, synthèse vocale) et par l’entremise d’un site Web hébergeant le corpus. Les données recueillies proviennent d’une observation de comportements et de verbalisations émises par les participants après chaque lecture. Tous les participants ont à la fois choisi de recourir à la synthèse vocale et à l’afficheur braille dans le cadre des lectures du corpus. Ceci tend à appuyer notre principale hypothèse de recherche, à savoir que certaines personnes aveugles capables d’une lecture braille et placées en présence d’un choix de modalité(s) pourraient faire un emploi combiné du braille et du vocal pour le décodage de journaux en texte électronique. De façon générale, l’approche adoptée par les participants consistait à recourir « par défaut » à la synthèse vocale, pour des motifs comme la rapidité et le confort de lecture, ainsi que la simplicité d’usage. L’afficheur a plutôt été employé en complément, dans le cadre de stratégies de lecture telles que les vérifications orthographiques et la navigation dans les contenus. Toutefois, d’autres usages potentiels du braille en contexte de lecture d’un journal ont aussi été relevés. Notamment, chez certains participants, l’afficheur peut être mis à profit pour la lecture de contenus d’articles que l’on souhaite prendre en note ou rapporter à quelqu’un d’autre. Tous ces usages, exprimés ou observés, ont été rattachés à un certain nombre d’apports du braille décrits et contextualisés dans ce mémoire. Enfin, les données recueillies suggèrent certains liens entre les usages de modalité(s) et des variables telles que les objectifs de lecture et les caractéristiques du texte.
5

Temps de l’écriture et poétique du point aveugle : théorie et pratique (Bernard Pingaud, Henri Thomas) / The blind spot and the time of writing : theory and practice (Bernard Pingaud and Henri Thomas)

Weinberg, Alexis 07 July 2017 (has links)
Nous nous intéressons dans cette thèse à la relation originale et problématique qui s’est établie, dans la période qui va de l’après-guerre jusqu’à la fin des années 1970, entre, d’une part, la temporalité de l’écriture telle que vécue par l’écrivain et, d’autre part, la temporalité produite par le texte. Le schème paradoxal qui préside à cette relation pourrait se résumer ainsi : écrire pour savoir pourquoi écrire. Si la formule semble consonner avec la vulgate d’une écriture autotélique, elle nous semble plus profondément poser la question complexe du désir du scripteur, quand toute relation univoque entre le dedans et le dehors est mise en cause. Pour mener à bien cette étude, nous procédons en deux grands moments. Le premier aborde cette configuration par un bord théorique : nous suivons le fil du syntagme de « point aveugle », en ses acceptions métaphoriques et conceptuelles, dans un corpus essayistique extrait du grand moment théorique français. La seconde propose deux parcours de lecture dans les œuvres littéraires narratives fictionnelles de Bernard Pingaud et d’Henri Thomas – écrivains qui, selon des modalités distinctes, montrent deux voies d’articulation originale des registres temporels considérés. Aussi différents soient-ils, ils partagent ce principe : écrire pour savoir ce que, sans cette traversée, on ne pourrait savoir, en s’affrontant à cet irréductible point aveugle qui se donne comme condition de possibilité et d’impossibilité du sens / The focus of this thesis is the relationship - in the period between the end of World War Two and the late 1970s - between the temporality of writing as experienced by the writer, and the temporality produced by the text itself. The paradoxical structure of this relationship can be captured by the following formula: writing in order to know why one writes. Though this formula may seem to invoke the modernist received wisdom concerning autotelitic writing, this thesis takes it as the starting point in order to understand the desires of the “scriptor” (to use Roland Barthes’s term) when all unambiguous relations between the internal and the external are called into doubt. This study will proceed in two major parts. The first will apply a theoretical lens to the notion of the “blind spot” as it appears in its various metaphorical and conceptual senses in the essayistic corpus of so-called “French theory”. The second will consist of a literary analysis of the fictional narratives of Bernard Pingaud and Henri Thomas: writers who, each in their own distinct modalities, reveal an original way of articulating the forms of temporality at the center of this study. As different as they are, Pingaud and Thomas each share the aim of writing in order to understand that which, without writing, one could never understand. In pursuit of this aim, both writers come face-to-face with a blind spot that poses itself as the condition of both the possibility and the impossibility of meaning
6

Récepteur adaptatif multi-standards pour les signaux à étalement de spectre en contexte non coopératif

Nsiala-Nzéza, Crépin 05 July 2006 (has links) (PDF)
L'étalement de spectre par séquence directe occupe une place prépondérante dans les systèmes de télécommunication utilisant la technique d'accès multiple par répartition de code : ce sont les systèmes dits de troisième génération (3G). En effet, ces systèmes permettent des trafics de données diverses à très hauts débits et l'accès simultané d'un très grand nombre d'utilisateurs. Dans le cadre de la surveillance du spectre radio fréquence, se posent alors les problèmes de la différenciation de ces systèmes et de la reconnaissance automatique des signaux à spectre étalé par séquence directe, sans connaissance a priori sur les systèmes de transmission. C'est dans ce contexte dit non coopératif que se situe le cadre de ce travail. La première phase de l'identification est la détection multi-utilisateurs aveugle des signaux à spectre étalé interférents. Nous avons montré que ces signaux peuvent être détectés grâce à leur effet sur les fluctuations d'estimateurs statistiques. Cette méthode permet également d'estimer les périodes symboles et ainsi d'isoler les groupes de signaux transmis au même débit (c'est-à-dire, les différents systèmes). La seconde phase est la synchronisation dans chaque groupe. Elle consiste à affiner la période symbole obtenue lors de la première phase et, pour chaque signal du groupe, à évaluer de manière précise le début du premier symbole. Nous avons d'abord étendu au cas multi-utilisateurs la technique consistant à maximiser la norme carrée de la matrice de covariance du signal intercepté. La courbe de synchronisation obtenue présente alors des pics, dont le nombre correspond au nombre d'utilisateurs interférents. Toutefois, nous avons montré que certains de ces pics pouvaient être masqués. Partant de ce constat, nous avons développé une méthode originale de synchronisation consistant à maximiser les valeurs propres prépondérantes de la matrice de covariance. Une étude théorique des performances de ces deux techniques, après la synchronisation, prouve la robustesse de la nouvelle méthode. Enfin, une fois les signaux synchronisés, nous avons présenté une méthode d'estimation des séquences d'étalement utilisées à l'émission ainsi que des symboles transmis. Les performances simulées, en terme de taux d'erreurs chip et binaire moyens, confirment les résultats théoriques.
7

Traitement Aveugle de Signaux Biomédicaux

Kachenoura, Amar 06 July 2006 (has links) (PDF)
Ce mémoire aborde l'analyse et le traitement de données biomédicales. L'objectif est d'extraire des informations nécessaires au diagnostic de certaines pathologies. Plus précisément, ce rapport de thèse peut être scindé en deux parties. La première concerne l'élaboration d'un système ambulatoire multi-varié qui permette d'explorer les fonctions neurologiques nécessaires au diagnostic de différents troubles du sommeil. Des méthodes de séparation aveugle de sources, développées pour des mélanges instantanés, ont été étudiées et appliquées pour répondre à ce problème. La seconde partie porte sur l'étude du système nerveux autonome. Le but est de caractériser le profile sympathique et parasympathique des patients. Face aux différents problèmes mathématiques rencontrés, nous avons élaboré de nouvelles méthodes d'estimation de phase. Ces dernières ont fait l'objet d'une étude comparative au travers de simulations numériques.
8

Déconvolution aveugle et sismologie: estimation de la source sismique et des effets de site

SEBE, Olivier 24 July 2004 (has links) (PDF)
Depuis maintenant une vingtaine d'années, l'essor des télécommunications numériques a généré toute une panoplie de méthodes dites de déconvolution aveugle. Celles-ci permettent de séparer les différentes composantes d'un produit de convolution sans en avoir aucune connaissance a priori. L'objectif de ce travail de thèse a été d'étudier leurs modalités d'applications à la sismologie, afin notamment, d'estimer la fonction source du mouvement sismique ou les effets de site. L'adaptation de la déconvolution à phase minimale au signal de coda, nous a permis d'identifier les fonctions sources de deux types d'évènements sismiques : l'explosion sous-marine du Kursk (12/08/2000), d'une part et le séisme de Rambervillers (22/02/2003, Ml=5.4) d'autre part. Nous avons ainsi pu estimer respectivement la profondeur, la charge de l'explosion ainsi que la durée et le moment sismique du séisme. Grâce à cette méthode, nous avons montré qu'il est aussi possible d'estimer les effets de site en différentes stations du RAP pourtant séparées de plusieurs dizaines de kilomètres. Nous avons ensuite appliqué les méthodes de déconvolution aveugle par statistique d'ordre supérieur aux signaux de coda stationnarisés du séisme de Rambervillers. Ces méthodes ont l'avantage de supprimer l'hypothèse de phase minimale, contraignante et théoriquement non justifiée en sismologie. La fonction source obtenue grâce à la tricorrélation moyennée sur l'ensemble du réseau, est très similaire à celle obtenue après déconvolution par fonction de Green Empirique. Les exemples traités montrent que les méthodes développées ici sont très prometteuses et mériteraient d'être appliquées à de nombreux autres jeux de données.
9

Contributions à l'estimation aveugle et semi-aveugle et analyse de performance.

Kammoun, Abla 16 April 2010 (has links) (PDF)
Cette thèse s'articule autour de deux thématiques principales. La première traite de l'analyse de performance dans les contextes des systèmes utilisant les séquences d'apprentissage et des systèmes multi-utilisateurs. En nous basant sur une analyse asymptotique, nous donnons des expressions explicites des taux d'erreur binaire et de la probabilité de coupure et nous montrons leur précision même pour des systèmes de dimensions réduites. La deuxième partie de cette thèse traite des méthodes d'estimation aveugle et semi-aveugle. Nos contributions se situent sur deux plans: algorithmique et théorique. Sur le plan algorithmique, nous proposons de nouvelles approches qui permettent de résoudre certains problèmes des méthodes conventionnelles telque la sensibilité à la surestimation de l'ordre pour les méthodes aveugles et la recherche du paramètre de régularisation pour les méthodes semi-aveugles. Sur le plan théorique, nous apportons la démonstration de la quasi-convexité de l'erreur asymptotique quadratique moyenne des systèmes semi-aveugle basé sur la régularisation. Nous menons aussi une étude théorique qui témoigne de l'efficacité de l'utilisation de la norme lp pour robustifier les méthodes aveugles.
10

Navigation spatiale avec des systèmes de substitution sensorielle tactiles dans la cécité précoce et tardive

Djerourou, Ismaël 08 1900 (has links)
La perte de la vision affecte considérablement la capacité de se déplacer dans l’environnement. Les personnes aveugles utilisent aujourd’hui des aides à la mobilité comme la canne blanche et le chien guide. Cependant, ces aides ne donnent pas assez d’information sur l’environnement, et des accidents peuvent parfois survenir, notamment avec des obstacles en hauteur, non détectés par la canne blanche. Les systèmes de substitution sensorielle permettent d’apporter l’information visuelle via une autre modalité intacte comme le toucher. Il en existe principalement deux types, des systèmes de guidages, comme le EyeCane qui donne une information de distance en un point, et des systèmes visuels comme le Tongue Display Unit, basé sur le contraste qui transforme le signal d’une caméra en stimulation électro-tactile sur la langue. Le but de l’étude était de comparer ces deux appareils dans un même couloir à obstacle à taille réelle (21m x 2,4m). Des aveugles précoces et tardifs, et des contrôles voyants aux yeux bandés devaient traverser le couloir tout en détectant, identifiant et évitant les obstacles (cube, porte, sol, poteau) rencontrés. Les résultats ont montré que tous les participants ont été capables de naviguer avec les deux appareils. De plus, avec le EyeCane, les participants aveugles ont significativement mieux évité les obstacles après détection que les voyants, et que les aveugles précoces étaient significativement plus rapides pour traverser le couloir que les deux autres groupes. Cependant, la comparaison entre les deux appareils a révélé que les aveugles tardifs ont détecté significativement plus d’obstacles avec le TDU qu’avec le EyeCane sans pour autant améliorer les performances de navigation. De plus, la quantité d’information sur l’environnement fournie par le TDU semble ralentir et fatiguer les participants après une longue période d’utilisation. On peut alors suggérer que seules les informations de l’environnement immédiat données par le EyeCane sont nécessaires et suffisantes à la navigation. Cette étude permet de mieux guider la conception de futurs appareils destinés à améliorer l’indépendance de navigation chez les personnes aveugles. / Vision loss affects the ability to move around the environment. People who are blind today use mobility aids such as the long cane and guide dog. However, these aids do not provide enough information about the environment, and accidents can sometimes occur, especially with high obstacles not detected by the white cane. Sensory substitution systems allow visual information to be provided via another intact modality such as touch. There are mainly two types: guidance systems, like the EyeCane, that give distance information at a point, and visual systems, like the Tongue Display Unit, based on contrast which transforms the signal from a camera into electrotactile stimulation on the tongue. The aim of the study was to compare these two devices in the same full-size obstacle course (21m x 2.4m). Early and late blind, and blindfolded sighted controls had to cross the hallway while detecting, identifying and avoiding encountered obstacles (cube, door, floor, pole). It was found that all participants were able to navigate with both devices. Furthermore, with the EyeCane, the blind participants were significantly better to avoid obstacles after detection than the sighted, and the early blind were significantly faster to cross the corridor than the other two groups. However, the comparison between the two devices revealed that participants detected significantly more obstacles with the TDU than with the EyeCane without improving navigation performance. In addition, the amount of environmental information provided by the TDU appears to slow down and tire participants after a long period of use. We can then suggest that only the information of the immediate environment given by the EyeCane is necessary and sufficient for navigation. This study helps to guide the design of future devices to improve navigation independence in blind people.

Page generated in 0.1691 seconds