• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 18
  • 3
  • 3
  • Tagged with
  • 56
  • 56
  • 27
  • 27
  • 26
  • 10
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Human locomotion analysis, classification and modeling of normal and pathological vertical ground reaction force signals in elderly / Analyse, classification et modélisation de la locomotion humaine : application a des signaux GRF sur une population âgée

Alkhatib, Rami 12 July 2016 (has links)
La marche est définie par des séquences de gestes cycliques et répétées. Il a été déjà montré que la vitesse et la variabilité de ces séquences peuvent révéler des aptitudes ou des défaillances motrices. L’originalité de ce travail est alors d’analyser et de caractériser les foulées de sujets âgés à partir des signaux de pression issus de semelles instrumentées lors de la marche, au moyen d’outils de traitement du signal. Une étude préliminaire, sur les signaux de pression générés lors de la marche, nous a permis de mettre en évidence le caractère cyclo-stationnaire de ces signaux. Ces paramètres sont testées sur une population de 47 sujets. Tout d'abord, nous avons commencé par un prétraitement des signaux et nous avons montré dans la première de cette thèse que le filtrage peut éliminer une partie vitale du signal. C’est pourquoi un filtre adaptatif basé sur la décomposition en mode empirique a été conçu. Les points de retournement ont été filtrés ensuite en utilisant une technique temps-fréquence appelée «synochronosqueezing». Nous avons également montré que le contenu des signaux de force de marche est fortement affecté par des paramètres inquantifiables tels que les tâches cognitives qui les rendent difficiles à normaliser. C’est pourquoi les paramètres extraits de nos signaux sont tous dérivées par une comparaison inter-sujet. Par exemple, nous avons assimilé la différence dans la répartition de poids entre les pieds. Il est également recommandé dans ce travail de choisir le centre des capteurs plutôt que de compter sur la somme des forces issues du réseau de capteurs pour la classification. Ensuite, on a montré que l’hypothèse de la marche équilibrée et déséquilibrée peut améliorer les résultats de la classification. Le potentiel de cette hypothèse est montré à l'aide de la répartition du poids ainsi que le produit de l'âge × vitesse dans le premier classificateur et la corrélation dans le second classificateur. Une simulation de la série temporelle de VGRF basé sur une version modifiée du modèle de Markov non stationnaire, du premier ordre est ensuite dérivée. Ce modèle prédit les allures chez les sujets normaux et suffisamment pour les allures des sujets de Parkinson. On a trouvé que les trois modes: temps, fréquence et espace sont très utiles pour l’analyse des signaux de force, c’est pourquoi l’analyse de facteurs parallèles est introduite comme étant une méthode de tenseur qui peut être utilisée dans le futur / Walking is defined as sequences of repetitive cyclic gestures. It was already shown that the speed and the variability of these sequences can reveal abilities or motorskill failures. The originality of this work is to analyze and characterize the steps of elderly persons by using pressure signals. In a preliminary study, we showed that pressure signals are characterized by cyclostationarity. In this study, we intend to exploit the nonstationarity of the signals in a search for new indicators that can help in gait signal classification between normal and Parkinson subjects in the elderly population. These parameters are tested on a population of 47 subjects. First, we started with preprocessing the vertical ground reaction force (VGRF) signals and showed in this first part of the thesis that filtering can remove a vital part of the signal. That is why an adaptive filter based on empirical mode decomposition (EMD) was built. Turning points are filtered using synochronosqueezing of time-frequency representations of the signal. We also showed that the content of gait force signals is highly affected by unquantifiable parameter such as cognitive tasks which make them hard to be normalized. That is why features being extracted are derived from inter-subject comparison. For example we equated the difference in the load distribution between feet. It is also recommended in this work to choose the mid-sensor rather than relying on summation of forces from array of sensors for classification purposes. A hypothesis of balanced and unbalanced gait is verified to be potential in improving the classification accuracy. The power of this hypothesis is shown by using the load distribution and Age×Speed in the first classifier and the correlation in the second classifier. A time series simulation of VGRF based on a modified version of nonstationary- Markov model of first order is derived. This model successfully predict gaits in normal subjects and fairly did in Parkinson’s gait. We found out that the three modes: time, frequency and space are helpful in analyzing force signals that is why parallel factor analysis is introduced as a tensor method to be used in a future work
42

Accès et utilisation de documents multimédia complexes dans une bibliothèque numérique / Accessing and using complex multimedia documents in a digital library

Ly, Anh Tuan 09 July 2013 (has links)
Dans le cadre de trois projets européens, notre équipe a mis au point un modèle de données et un langage de requête pour bibliothèques numériques supportant l'identification, la structuration, les métadonnées, la réutilisation, et la découverte des ressources numériques. Le modèle proposé est inspiré par le Web et il est formalisé comme une théorie du premier ordre, dont certains modèles correspondent à la notion de bibliothèque numérique. En outre, une traduction complète du modèle en RDF et du langage de requêtes en SPARQL a également été proposée pour démontrer son adéquation à des applications pratiques. Le choix de RDF est dû au fait qu’il est un langage de représentation généralement accepté dans le cadre des bibliothèques numériques et du Web sémantique. L’objectif de cette thèse était double: concevoir et mettre en œuvre une forme simplifiée de système de gestion de bibliothèques numériques, d’une part, et contribuer à l’enrichissement du modèle, d’autre part. Pour atteindre cet objectif nous avons développé un prototype d’un système de bibliothèque numérique utilisant un stockage RDF pour faciliter la gestion interne des métadonnées. Le prototype permet aux utilisateurs de gérer et d’interroger les métadonnées des ressources numériques ou non-numériques dans le système en utilisant des URIs pour identifier les ressources, un ensemble de prédicats pour la description de ressources, et des requêtes conjonctives simples pour la découverte de connaissances dans le système. Le prototype est mis en œuvre en utilisant les technologies Java et l’environnement de Google Web Toolkit dont l'architecture du système se compose d'une couche de stockage, d’une couche de métier logique, d’une couche de service, et d’une interface utilisateur. Pendant la thèse, le prototype a été construit, testé et débogué localement, puis déployé sur Google App Engine. Dans l’avenir, il peut être étendu pour devenir un système complet de gestion de bibliothèques numériques. Par ailleurs, la thèse présente également notre contribution à la génération de contenu par réutilisation de ressources. Il s’agit d’un travail théorique dont le but est d’enrichir le modèle en lui ajoutant un service important, à savoir la possibilité de création de nouvelles ressources à partir de celles stockées dans le système. L’incorporation de ce service dans le système sera effectuée ultérieurement. / In the context of three European projects, our research team has developed a data model and query language for digital libraries supporting identification, structuring, metadata, and discovery and reuse of digital resources. The model is inspired by the Web and it is formalized as a first-order theory, certain models of which correspond to the notion of digital library. In addition, a full translation of the model to RDF and of the query language to SPARQL has been proposed to demonstrate the feasibility of the model and its suitability for practical applications. The choice of RDF is due to the fact that it is a generally accepted representation language in the context of digital libraries and the Semantic Web. One of the major aims of the thesis was to design and actually implement a simplified form of a digital library management system based on the theoretical model. To obtain this, we have developed a prototype based on RDF and SPARQL, which uses a RDF store to facilitate internal management of metadata. The prototype allows users to manage and query metadata of digital or non-digital resources in the system, using URIs as resource identifiers, a set of predicates to model descriptions of resources, and simple conjunctive queries to discover knowledge in the system. The prototype is implemented by using Java technologies and the Google Web Toolkit framework whose system architecture consists of a storage layer, a business logic layer, a service layer and a user interface. During the thesis work, the prototype was built, tested, and debugged locally and then deployed on Google App Engine. In the future, it will be expanded to become a full fledged digital library management system. Moreover, the thesis also presents our contribution to content generation by reuse. This is mostly theoretical work whose purpose is to enrich the model and query language by providing an important community service. The incorporation of this service in the implemented system is left to future work.
43

Développement de stratégies de maintenance structurales prédictives pour aéronefs utilisant le pronostic à base de modèles / Development of predictive structural maintenance strategies for aircraft using model-based prognostics

Wang, Yiwei 14 March 2017 (has links)
La maintenance aéronautique est fortement régulée, notamment à travers l’établissement d’un planning de maintenance obligatoire, permettant de garantir la sureté structurale. La fréquence des arrêts en maintenance est déterminée de manière très conservative en vue d’assurer les exigences de fiabilité. Développer des stratégies de maintenance moins conservatives et plus efficaces peut alors représenter une voie pour une nouvelle croissance des compagnies aériennes. Les systèmes de monitoring embarqué de structures, sont progressivement introduits dans l’industrie aéronautique. Ces développements pourraient alors permettre de nouvelles stratégies de maintenance structurale basées sur la prévision de l’état de santé de chaque élément structural, plutôt que basée sur une maintenance programmée, tel qu’implémentée actuellement. Dans ce cadre général, ce travail se concentre sur le suivi par un système embarqué de la propagation de fissures de fatigue dans les panneaux de fuselage. Une nouvelle méthode de prévision des fissures basée sur des modèles de propagation est développée, qui permet de filtrer le bruit des mesures du système embarqué, identifier la taille actuelle de la fissure et prédire son évolution future et par conséquent la fiabilité des panneaux. Cette approche prédictive est intégrée dans le processus de maintenance structurale aéronautique et deux types de maintenances prédictives sont proposés. L’étude numérique montre que ces stratégies de maintenance prédictive peuvent réduire de manière significative les coûts de maintenance en réduisant le nombre d’arrêts en maintenance et le nombre de réparations inutiles. / Aircraft maintenance represents a major economic cost for the aviation industry. Traditionally, the aircraft maintenance is highly regulated based on fixed schedules (thus called scheduled maintenance) in order to ensure safety. The frequency of scheduled maintenance is designed to be very conservative to maintain a desirable level of reliability. Developing efficient maintenance can be an important way for airlines to allow a new profit growth. With the development of sensor technology, structural health monitoring (SHM) system, which employ a sensor network sealing inside aircraft structures to monitor the damage state, are gradually being introduced in the aviation industry. Once it is possible to monitor the structure damage state automatically and continuously by SHM systems, it enables to plan the maintenance activities according to the actual or predicted health state of the aircraft rather than a fixed schedule. This work focus on the fatigue crack propagation in the fuselage panels. The SHM system is assumed to be employed. A model-based prognostics method is developed, which enables to filter the noise of SHM data to estimate the crack size, and to predict the future health state of the panels. This predictive information is integrated into the maintenance decision-making and two types of predictive maintenance are developed. The numerical study shows that the predictive maintenance significantly reduces the maintenance cost by reducing the number of maintenance stop and the repaired panels.
44

Théorie des opérateurs sur les espaces de tentes / Operator theory on tent spaces

Huang, Yi 12 November 2015 (has links)
Nous donnons un mécanisme de type Calderón-Zygmund concernant la théorie de l’extrapolationpour des opérateurs d’intégrale singulière sur les espaces de tentes. Pour des opérateursde régularité maximale sur les espaces de tentes, nous donnons des résultats optimaux enexploitant la structure des opérateurs intégraux de convolution et en utilisant des estimationsde la décroissance hors-diagonale du semi-groupe ou de la famille résolvante sous-jacente.Nous appliquons des techniques précédentes d’analyse harmonique et fonctionnelle pourestimer sur les espaces de tentes certains opérateurs d’intégrale évolutionnelle, nées de l’étudedes problèmes aux limites elliptiques et des systèmes non-autonomes du premier ordre. / We give a Calderón-Zygmund type machinery concerning the extrapolation theory for thesingular integral operators on tent spaces. For maximal regularity operators on tent space, wegive some optimal results by exploiting the structure of convolution integral operators and byusing the off-diagonal decay estimates of the underlying semigroup or resolvent family.We apply the previous harmonic and functional analysis techniques to estimate on tentspaces certain evolutionary integral operators arisen from the study of boundary value ellipticproblems and first order non-autonomous systems.
45

Système de Mesure Mobile Adaptif Qualifié / Mobile System for Adaptive Qualified Measurement

Bourgeois, Florent 21 March 2018 (has links)
Les dispositifs matériels mobiles proposent des capacités de mesure à l'aide de capteurs soit embarqués, soit connectés. Ils ont vocation à être de plus en plus utilisés dans des processus de prises de mesures. Ils présentent un caractère critique dans le sens où ces informations doivent être fiables, car potentiellement utilisées dans un contexte exigeant. Malgré une grande demande, peu d'applications proposent d'assister les utilisateurs lors de relevés exploitant ces capacités. Idéalement, ces applications devraient proposer des méthodes de visualisation, de calcul, des procédures de mesure et des fonctions de communications permettant la prise en charge de capteurs connectés ou encore la génération de rapports. La rareté de ces applications se justifie par les connaissances nécessaires pour permettre la définition de procédures de mesure correctes. Ces éléments sont apportés par la métrologie et la théorie de la mesure et sont rarement présents dans les équipes de développement logiciel. De plus, chaque utilisateur effectue des activités de mesure spécifiques au domaine de son champ d'activités, ce qui implique le développement d'applications spécifiques de qualité pouvant être certifiées par des experts. Ce postulat apporte la question de recherche à laquelle les travaux présentés répondent: Comment proposer une approche pour la conception d’applications adaptées à des procédures de mesures spécifiques. Les procédures de mesure pouvant être configurées par un utilisateur final La réponse développée est une "plateforme" de conception d'applications d'assistance à la mesure. Elle permet d'assurer la conformité des procédures de mesures sans l'intervention d'expert de la métrologie. Pour cela elle est construite en utilisant des concepts issus de la métrologie, de l'Ingénierie Dirigée par les Modèles et de la logique du premier ordre. Une étude du domaine de la métrologie permet de mettre en évidence la nécessité d'une expertise des procédures de mesure impliquées dans les applications. Cette expertise comprend des termes et des règles assurant l'intégrité et la cohérence d'une procédure de mesure. Un modèle conceptuel du domaine de la métrologie est proposé. Ce modèle conceptuel est ensuite intégré au processus de développement d'une application. Cette intégration se fait par un encodage de ce modèle conceptuel sous la forme d'un schéma des connaissances de la métrologie en logique du premier ordre. Il permet, la vérification du respect des contraintes inhérentes à la métrologie dans une procédure de mesure. Cette vérification est réalisée en confrontant les procédures de mesures au schéma sous forme de requêtes. Ces requêtes sont décrites à l'aide d'un langage proposé par le schéma. Les applications d'assistance à la mesure nécessitent d'exposer à l'utilisateur un processus de mesure impliquant relevés et affichages de mesures étape par étape. Cela implique de pouvoir décrire un processus de mesure et d'en définir les interfaces et le schéma d'évolution. Pour cela, un éditeur d'application est proposé. Cet éditeur propose un langage spécifique dédié à la description d'applications d'assistance à la mesure. Ce langage est construit à partir des concepts, formalismes et outils proposés par l'environnement de métamodélisation Diagrammatic Predicate Framework (DPF). Le langage comporte des contraintes syntaxiques prévenant les erreurs de construction au niveau logiciel tout en réduisant l'écart sémantique entre l'architecte logiciel l'utilisant et un potentiel expert de la métrologie. [...] / Mobile devices offer measuring capabilities using embedded or connected sensors. They are more and more used in measuring processes. They are critical because the performed measurements must be reliable because possibly used in rigorous context. Despite a real demand, there are relatively few applications assisting users with their measuring processes that use those sensors. Such assistant should propose methods to visualise and to compute measuring procedures while using communication functions to handle connected sensors or to generate reports. Such rarity of applications arises because of the knowledges required to define correct measuring procedures. Those knowledges are brought by metrology and measurement theory and are rarely found in software development teams. Moreover, every user has specific measuring activities depending on his field of work. That implies many quality applications developments which could request expert certification. These premises bring the research question the presented works answer : What approach enables the conception of applications suitable to specific measurement procedures considering that the measurement procedures could be configured by the final user. The presented works propose a platform for the development of measuring assistant applications. The platform ensure the conformity of measuring processes without involving metrology experts. It is built upon metrology, model driven engineering and first order logic concepts. A study of metrology enables to show the need of applications measuring process expert evaluation. This evaluation encompasses terms and rules that ensure the process integrity and coherence. A conceptual model of the metrology domain is proposed. That model is then employed in the development process of applications. It is encoded into a first order logic knowledge scheme of the metrology concepts. That scheme enables to verify that metrology constraints holds in a given measuring process. The verification is performed by confronting measuring processes to the knowledge scheme in the form of requests. Those requests are described with a request language proposed by the scheme. Measuring assistant applications require to propose to the user a measuring process that sequences measuring activities. This implies to describe a measuring process, and also to define interactive interfaces and sequencing mechanism. An application editor is proposed. That editor uses a domain specific language dedicated to the description of measuring assistant applications. The language is built upon concepts, formalisms and tools proposed by the metamodeling environment : Diagrammatic Predicat Framework (DPF). The language encompasses syntactical constraints that prevent construction errors on the software level while reducing the semantical gap between the software architect using it and a potential metrology expert. Then, mobile platforms need to execute a behaviour conforming to the editor described one. An implementation modelling language is proposed. This language enables to describe measuring procedures as sequences of activities. Activities imply to measure, compute and present values. Quantities are all abstracted by numerical values. This eases their computation and the use of sensors. The implementation model is made up of software agents. A mobile application is also proposed. The application is built upon a framework of agents, an agent network composer and a runtime system. The application is able to consider an implementation model and to build the corresponding agent network in order to propose a behaviour matching the end users needs. This enables to answer to any user needs, considering he can access to the implementation model, without requiring to download several applications.
46

Impacts fonctionnels du traumatisme craniocérébral léger sur la vision et l'équilibre postural chez l'adulte

Piponnier, Jean-Claude 08 1900 (has links)
Le traumatisme craniocérébral léger (TCCL) a des effets complexes sur plusieurs fonctions cérébrales, dont l’évaluation et le suivi peuvent être difficiles. Les problèmes visuels et les troubles de l’équilibre font partie des plaintes fréquemment rencontrées après un TCCL. En outre, ces problèmes peuvent continuer à affecter les personnes ayant eu un TCCL longtemps après la phase aiguë du traumatisme. Cependant, les évaluations cliniques conventionnelles de la vision et de l’équilibre ne permettent pas, la plupart du temps, d’objectiver ces symptômes, surtout lorsqu’ils s’installent durablement. De plus, il n’existe pas, à notre connaissance, d’étude longitudinale ayant étudié les déficits visuels perceptifs, en tant que tels, ni les troubles de l’équilibre secondaires à un TCCL, chez l’adulte. L’objectif de ce projet était donc de déterminer la nature et la durée des effets d’un tel traumatisme sur la perception visuelle et sur la stabilité posturale, en évaluant des adultes TCCL et contrôles sur une période d’un an. Les mêmes sujets, exactement, ont participé aux deux expériences, qui ont été menées les mêmes jours pour chacun des sujets. L’impact du TCCL sur la perception visuelle de réseaux sinusoïdaux définis par des attributs de premier et de second ordre a d’abord été étudié. Quinze adultes diagnostiqués TCCL ont été évalués 15 jours, 3 mois et 12 mois après leur traumatisme. Quinze adultes contrôles appariés ont été évalués à des périodes identiques. Des temps de réaction (TR) de détection de clignotement et de discrimination de direction de mouvement ont été mesurés. Les niveaux de contraste des stimuli de premier et de second ordre ont été ajustés pour qu’ils aient une visibilité comparable, et les moyennes, médianes, écarts-types (ET) et écarts interquartiles (EIQ) des TR correspondant aux bonnes réponses ont été calculés. Le niveau de symptômes a également été évalué pour le comparer aux données de TR. De façon générale, les TR des TCCL étaient plus longs et plus variables (plus grands ET et EIQ) que ceux des contrôles. De plus, les TR des TCCL étaient plus courts pour les stimuli de premier ordre que pour ceux de second ordre, et plus variables pour les stimuli de premier ordre que pour ceux de second ordre, dans la condition de discrimination de mouvement. Ces observations se sont répétées au cours des trois sessions. Le niveau de symptômes des TCCL était supérieur à celui des participants contrôles, et malgré une amélioration, cet écart est resté significatif sur la période d’un an qui a suivi le traumatisme. La seconde expérience, elle, était destinée à évaluer l’impact du TCCL sur le contrôle postural. Pour cela, nous avons mesuré l’amplitude d’oscillation posturale dans l’axe antéropostérieur et l’instabilité posturale (au moyen de la vitesse quadratique moyenne (VQM) des oscillations posturales) en position debout, les pieds joints, sur une surface ferme, dans cinq conditions différentes : les yeux fermés, et dans un tunnel virtuel tridimensionnel soit statique, soit oscillant de façon sinusoïdale dans la direction antéropostérieure à trois vitesses différentes. Des mesures d’équilibre dérivées de tests cliniques, le Bruininks-Oseretsky Test of Motor Proficiency 2nd edition (BOT-2) et le Balance Error Scoring System (BESS) ont également été utilisées. Les participants diagnostiqués TCCL présentaient une plus grande instabilité posturale (une plus grande VQM des oscillations posturales) que les participants contrôles 2 semaines et 3 mois après le traumatisme, toutes conditions confondues. Ces troubles de l’équilibre secondaires au TCCL n’étaient plus présents un an après le traumatisme. Ces résultats suggèrent également que les déficits affectant les processus d’intégration visuelle mis en évidence dans la première expérience ont pu contribuer aux troubles de l’équilibre secondaires au TCCL. L’amplitude d’oscillation posturale dans l’axe antéropostérieur de même que les mesures dérivées des tests cliniques d’évaluation de l’équilibre (BOT-2 et BESS) ne se sont pas révélées être des mesures sensibles pour quantifier le déficit postural chez les sujets TCCL. L’association des mesures de TR à la perception des propriétés spécifiques des stimuli s’est révélée être à la fois une méthode de mesure particulièrement sensible aux anomalies visuomotrices secondaires à un TCCL, et un outil précis d’investigation des mécanismes sous-jacents à ces anomalies qui surviennent lorsque le cerveau est exposé à un traumatisme léger. De la même façon, les mesures d’instabilité posturale se sont révélées suffisamment sensibles pour permettre de mesurer les troubles de l’équilibre secondaires à un TCCL. Ainsi, le développement de tests de dépistage basés sur ces résultats et destinés à l’évaluation du TCCL dès ses premières étapes apparaît particulièrement intéressant. Il semble également primordial d’examiner les relations entre de tels déficits et la réalisation d’activités de la vie quotidienne, telles que les activités scolaires, professionnelles ou sportives, pour déterminer les impacts fonctionnels que peuvent avoir ces troubles des fonctions visuomotrice et du contrôle de l’équilibre. / Mild traumatic brain injury (mTBI) has complex effects on several brain functions that can be difficult to assess and follow-up. Visual and balance problems are frequently reported after an mTBI. Furthermore, these problems can still affect mTBI individuals far beyond the acute stage of injury. However, standard clinical assessments of vision and balance most often fail to objectivize these symptoms, especially if they are lingering. Moreover, to our knowledge, no longitudinal study investigated either mTBI-related deficits of visual perception per se, or mTBI-related balance deficits in adults. The aim of this project was to determine the nature and duration of the effects of such a traumatism on visual perception as well as on postural stability, by evaluating mTBI and control adults over a one-year period. Exactly the same subjects participated in both experiments, which took place on the same days for every subject. The impact of mTBI on the visual perception of sine-wave gratings defined by first-and second-order characteristics was, first, investigated. Fifteen adults diagnosed with mTBI were assessed at 15 days, 3 months and 12 months after injury. Fifteen matched controls followed the same testing schedule. Reaction times (RTs) for flicker detection and motion direction discrimination were measured. Stimulus contrast of first- and second-order patterns was equated to control for visibility, and correct-response RT means, standard deviations (SDs), medians, and interquartile ranges (IQRs) were calculated. The level of symptoms was also evaluated to compare it to RT data. In general in mTBI, RTs were longer and more variable (ie., larger SDs and IQRs), than those of controls. In addition, mTBI participants’ RTs to first-order stimuli were shorter than those to second-order stimuli, and more irregular for first- than for second-order stimuli in the motion condition. All these observations were made over the 3 sessions. The level of symptoms observed in mTBI was higher than that of control participants and this difference did also persist up to one year after the brain injury, despite an improvement. The second experiment, then, investigated the impact of mTBI on postural control. To achieve that, antero-posterior body sway amplitude (BSA) and postural instability (given by body sway velocity root mean square, vRMS) during upright stance, feet together, on a firm surface, were measured in five different conditions: with eyes closed and in a 3D virtual reality tunnel, either static or sinusoidally moving in the antero-posterior direction at 3 different velocities. Balance measures derived from clinical tests, Bruininks-Oseretsky Test of Motor Proficiency 2nd edition (BOT-2) and Balance Error Scoring System (BESS), were also used. Participants diagnosed with mTBI exhibited more postural instability (i.e. higher body sway vRMS) than control participants at 2 weeks and at 3 months post-injury, regardless of the testing condition. These mTBI-related balance deficits were no longer present one year postinjury. These results also suggest that visual processing impairments revealed in the first experiment might have contributed to mTBI-related balance deficits. Anteroposterior BSA as well as measures derived from clinical tests for balance assessment did not appear to be sensitive enough to quantify postural deficits of mTBI participants. The combination of RT measures with particular stimulus properties appeared to be a highly sensitive method for measuring mTBI-induced visuomotor anomalies, and to provide a fine probe of the underlying mechanisms when the brain is exposed to mild trauma. Likewise, postural instability measures prove to be sensitive enough for measuring mTBI-induced balance deficits. Developing screening tests in this respect intended for early post-mTBI use would be of interest. Also, studying relationships of such deficits with performance in daily life activities, such as school, work, or sports, is crucial in order to determine the functional impacts of these alterations in visuomotor and balance functions.
47

The relationship between early and intermediate level spatial vision during typical development and in autism spectrum disorder

Perreault, Audrey 01 1900 (has links)
Certaines recherches ont investigué le traitement visuel de bas et de plus hauts niveaux chez des personnes neurotypiques et chez des personnes ayant un trouble du spectre de l’autisme (TSA). Cependant, l’interaction développementale entre chacun de ces niveaux du traitement visuel n’est toujours pas bien comprise. La présente thèse a donc deux objectifs principaux. Le premier objectif (Étude 1) est d’évaluer l’interaction développementale entre l’analyse visuelle de bas niveaux et de niveaux intermédiaires à travers différentes périodes développementales (âge scolaire, adolescence et âge adulte). Le second objectif (Étude 2) est d’évaluer la relation fonctionnelle entre le traitement visuel de bas niveaux et de niveaux intermédiaires chez des adolescents et des adultes ayant un TSA. Ces deux objectifs ont été évalué en utilisant les mêmes stimuli et procédures. Plus précisément, la sensibilité de formes circulaires complexes (Formes de Fréquences Radiales ou FFR), définies par de la luminance ou par de la texture, a été mesurée avec une procédure à choix forcés à deux alternatives. Les résultats de la première étude ont illustré que l’information locale des FFR sous-jacents aux processus visuels de niveaux intermédiaires, affecte différemment la sensibilité à travers des périodes développementales distinctes. Plus précisément, lorsque le contour est défini par de la luminance, la performance des enfants est plus faible comparativement à celle des adolescents et des adultes pour les FFR sollicitant la perception globale. Lorsque les FFR sont définies par la texture, la sensibilité des enfants est plus faible comparativement à celle des adolescents et des adultes pour les conditions locales et globales. Par conséquent, le type d’information locale, qui définit les éléments locaux de la forme globale, influence la période à laquelle la sensibilité visuelle atteint un niveau développemental similaire à celle identifiée chez les adultes. Il est possible qu’une faible intégration visuelle entre les mécanismes de bas et de niveaux intermédiaires explique la sensibilité réduite des FFR chez les enfants. Ceci peut être attribué à des connexions descendantes et horizontales immatures ainsi qu’au sous-développement de certaines aires cérébrales du système visuel. Les résultats de la deuxième étude ont démontré que la sensibilité visuelle en autisme est influencée par la manipulation de l’information locale. Plus précisément, en présence de luminance, la sensibilité est seulement affectée pour les conditions sollicitant un traitement local chez les personnes avec un TSA. Cependant, en présence de texture, la sensibilité est réduite pour le traitement visuel global et local. Ces résultats suggèrent que la perception de formes en autisme est reliée à l’efficacité à laquelle les éléments locaux (luminance versus texture) sont traités. Les connexions latérales et ascendantes / descendantes des aires visuelles primaires sont possiblement tributaires d’un déséquilibre entre les signaux excitateurs et inhibiteurs, influençant ainsi l’efficacité à laquelle l’information visuelle de luminance et de texture est traitée en autisme. Ces résultats supportent l’hypothèse selon laquelle les altérations de la perception visuelle de bas niveaux (local) sont à l’origine des atypies de plus hauts niveaux chez les personnes avec un TSA. / Most studies investigating visual perception in typically developing populations and in Autism Spectrum Disorder (ASD) have assessed lower- (local) and higher-levels (global) of processing in isolation. However, much less is known about the developmental interactions between mechanisms mediating early- and intermediate-level vision in both typically developing populations and in ASD. Based on such premise, the present thesis had two main objectives. The first objective (Study 1) was to evaluate the developmental interplay between low- and intermediate-levels of visual analysis at different periods of typical development (school-age, adolescence and adulthood). The second objective (Study 2) was to evaluate the functional relationship between low- and intermediate-levels of visual analysis in adolescents and adults diagnosed with ASD. Common methodologies were used to assess both objectives. Specifically, sensitivity to slightly curved circles (Radial Frequency Patterns or RFP), defined by luminance or texture information, was measured using a two alternative temporal forced choice procedure. Results obtained in Study 1 demonstrated that local information defining a RFP (mediated by intermediate visual mechanisms) differentially affected sensitivity at different periods of development. Specifically, when the contour was luminance-defined, children performed worse when compared to adolescents and adults only when RFPs targeted a global processing style (few deformations along the RFP’s contour). When RFPs were texture-defined, children’s sensitivity was worse compared to that of adolescents and adults for both local and global conditions. Therefore, timing of adult-like sensitivity to RFPs is dependent on the type of local physical elements defining its global shape. Poor visual integration between low and intermediate visual mechanisms, which could be attributed to immature feedback and horizontal connections as well as under-developed visual cortical areas, may account for such reduced sensitivity in children. Results obtained from Study 2 demonstrated that manipulating the local physical elements of RFPs impacts visual sensitivity in ASD. Specifically, sensitivity to RFPs is unaffected in ASD only when visual analysis is dependent on local deformations of luminance-defined contours. However, sensitivity is reduced for both local and global visual analysis when shapes are texture-defined. Such results suggest that intermediate-level, shape perception in ASD is functionally related to the efficacy with which local physical elements (luminance versus texture) are processed. It is possible that abnormal lateral or feed-forward / feedback connectivity within primary visual areas in ASD, which possibly arise from excitatory / inhibitory signalling imbalance, accounts for differential efficacy with which luminance and texture information is processed in ASD. These results support the hypothesis that atypical higher-level perception in ASD, when present, may have early (local) visual origins.
48

Graph structurings : some algorithmic applications / Structurations des graphes : quelques applications algorithmiques

Kanté, Mamadou Moustapha 03 December 2008 (has links)
Tous les problèmes définissables en logique du second ordre monadique peuvent être résolus en temps polynomial dans les classes de graphes qui ont une largeur de clique bornée. La largeur de clique est un paramètre de graphe défini de manière algébrique, c'est-à-dire, à partir d'opérations de composition de graphes. La largeur de rang, définie de manière combinatoire, est une notion équivalente à la largeur de clique des graphes non orientés. Nous donnons une caractérisation algébrique de la largeur de rang et nous montrons qu'elle est linéairement bornée par la largeur arborescente. Nous proposons également une notion de largeur de rang pour les graphes orientés et une relation de vertex-minor pour les graphes orientés. Nous montrons que les graphes orientés qui ont une largeur de rang bornée sont caractérisés par une liste finie de graphes orientés à exclure comme vertex-minor. Beaucoup de classes de graphes n'ont pas une largeur de rang bornée, par exemple, les graphes planaires. Nous nous intéressons aux systèmes d'étiquetage dans ces classes de graphes. Un système d'étiquetage pour une propriété P dans un graphe G, consiste à assigner une étiquette, aussi petite que possible, à chaque sommet de telle sorte que l'on puisse vérifier si G satisfait P en n'utilisant que les étiquettes des sommets. Nous montrons que si P est une propriété définissable en logique du premier ordre alors, certaines classes de graphes de largeur de clique localement bornée admettent un système d'étiquetage pour P avec des étiquettes de taille logarithmique. Parmi ces classes on peut citer les classes de graphes de degré borné, les graphes planaires et plus généralement les classes de graphes qui excluent un apex comme mineur et, les graphes d'intervalle unitaire. Si x et y sont deux sommets, X un ensemble de sommets et F un ensemble d'arêtes, nous notons Conn(x,y,X,F) la propriété qui vérifie dans un graphe donné si x et y sont connectés par un chemin, qui ne passe par aucun sommet de X si aucune arête de F. Cette propriété n'est pas définissable en logique du premier ordre. Nous montrons qu'elle admet un système d'étiquetage avec des étiquettes de taille logarithmique dans les graphes planaires. Nous montrons enfin que Conn(x,y,X,0) admet également un système d'étiquetage avec des étiquettes de taille logarithmique dans des classes de graphes qui sont définies comme des combinaisons de graphes qui ont une petite largeur de clique et telles que le graphe d'intersection de ces derniers est planaire et est de degré borné. / Every property definable in onadic second order logic can be checked in polynomial-time on graph classes of bounded clique-width. Clique-width is a graph parameter defined in an algebraical way, i.e., with operations ``concatenating graphs'' and that generalize concatenation of words.Rank-width, defined in a combinatorial way, is equivalent to the clique-width of undirected graphs. We give an algebraic characterization of rank-width and we show that rank-width is linearly bounded in term of tree-width. We also propose a notion of ``rank-width'' of directed graphs and a vertex-minor inclusion for directed graphs. We show that directed graphs of bounded ``rank-width'' are characterized by a finite list of finite directed graphs to exclude as vertex-minor. Many graph classes do not have bounded rank-width, e.g., planar graphs. We are interested in labeling schemes on these graph classes. A labeling scheme for a property P in a graph G consists in assigning a label, as short as possible, to each vertex of G and such that we can verify if G satisfies P by just looking at the labels. We show that every property definable in first order logic admit labeling schemes with labels of logarithmic size on certain graph classes that have bounded local clique-width. Bounded degree graph classes, minor closed classes of graphs that exclude an apex graph as a minor have bounded local clique-width. If x and y are two vertices and X is a subset of the set of vertices and Y is a subset of the set of edges, we let Conn(x,y,X,Y) be the graph property x and y are connected by a path that avoids the vertices in X and the edges in Y. This property is not definable by a first order formula. We show that it admits a labeling scheme with labels of logarithmic size on planar graphs. We also show that Conn(x,y,X,0) admits short labeling schemes with labels of logarithmic size on graph classes that are ``planar gluings'' of graphs of small clique-width and with limited overlaps.
49

Schémas numérique d'ordre élevé en temps et en espace pour l'équation des ondes du premier ordre. Application à la Reverse Time Migration. / High Order time and space schemes for the first order wave equation. Application to the Reverse Time Migration.

Ventimiglia, Florent 05 June 2014 (has links)
L’imagerie du sous-sol par équations d’onde est une application de l’ingénierie pétrolière qui mobilise des ressources de calcul très importantes. On dispose aujourd’hui de calculateurs puissants qui rendent accessible l’imagerie de régions complexes mais des progrès sont encore nécessaires pour réduire les coûts de calcul et améliorer la qualité des simulations. Les méthodes utilisées aujourd’hui ne permettent toujours pas d’imager correctement des régions très hétérogènes 3D parce qu’elles sont trop coûteuses et /ou pas assez précises. Les méthodes d’éléments finis sont reconnues pour leur efficacité à produire des simulations de qualité dans des milieux hétérogènes. Dans cette thèse, on a fait le choix d’utiliser une méthode de Galerkine discontinue (DG) d’ordre élevé à flux centrés pour résoudre l’équation des ondes acoustiques et on développe un schéma d’ordre élevé pour l’intégration en temps qui peut se coupler avec la technique de discrétisation en espace, sans générer des coûts de calcul plus élevés qu’avec le schéma d’ordre deux Leap-Frog qui est le plus couramment employé. Le nouveau schéma est comparé au schéma d’ordre élevé ADER qui s’avère plus coûteux car il requiert un plus grand nombre d’opérations pour un niveau de précision fixé. De plus, le schéma ADER utilise plus de mémoire, ce qui joue aussi en faveur du nouveau schéma car la production d’images du sous-sol consomme beaucoup de mémoire et justifie de développer des méthodes numériques qui utilisent la mémoire au minimum. On analyse également la précision des deux schémas intégrés dans un code industriel et appliqués à des cas test réalistes. On met en évidence des phénomènes de pollution numériques liés à la mise en oeuvre d'une source ponctuelle dans le schéma DG et on montre qu'on peut éliminer ces ondes parasites en introduisant un terme de pénalisation non dissipatif dans la formulation DG. On finit cette thèse en discutant les difficultés engendrées par l'utilisation de schémas numériques dans un contexte industriel, et en particulier l'effet des calculs en simple précision. / Oil engineering uses a wide variety of technologies including imaging wave equation which involves very large computing resources. Very powerful computers are now available that make imaging of complex areas possible, but further progress is needed both to reduce the computational cost and improve the simulation accuracy. The current methods still do not allow to image properly heterogeneous 3D regions because they are too expensive and / or not accurate enough. Finite element methods turn out to be efficient for producing good simulations in heterogeneous media. In this thesis, we thus chose to use a high order Discontinuous Galerkin (DG) method based upon centered fluxes to solve the acoustic wave equation and developed a high-order scheme for time integration which can be coupled with the space discretization technique, without generating higher computational cost than the second-order Leap Frog scheme which is the most widely used . The new scheme is compared to the high order ADER scheme which is more expensive because it requires a larger number of computations for a fixed level of accuracy. In addition, the ADER scheme uses more memory, which also works in favor of the new scheme since producing subsurface images consumes lots of memory and justifies the development of low-memory numerical methods. The accuracy of both schemes is then analyzed when they are included in an industrial code and applied to realistic problems. The comparison highlights the phenomena of numerical pollution that occur when injecting a point source in the DG scheme and shows that spurious waves can be eliminated by introducing a non-dissipative penalty term in the DG formulation. This work ends by discussing the difficulties induced by using numerical methods in an industrial framework, and in particular the effect of single precision calculations.
50

Étude d'équations aux dérivées partielles stochastiques

Bauzet, Caroline 13 June 2013 (has links) (PDF)
Cette thèse s'inscrit dans le domaine mathématique de l'analyse des équations aux dérivées partielles (EDP) non-linéaires stochastiques. Nous nous intéressons à des EDP paraboliques et hyperboliques que l'on perturbe stochastiquement au sens d'Itô. Il s'agit d'introduire l'aléatoire via l'ajout d'une intégrale stochastique (intégrale d'Itô) qui peut dépendre ou non de la solution, on parle alors de bruit multiplicatif ou additif. La présence de la variable de probabilité ne nous permet pas d'utiliser tous les outils classiques de l'analyse des EDP. Notre but est d'adapter les techniques connues dans le cadre déterministe aux EDP non linéaires stochastiques en proposant des méthodes alternatives. Les résultats obtenus sont décrits dans les cinq chapitres de cette thèse : Dans le Chapitre I, nous étudions une perturbation stochastique des équations de Barenblatt. En utilisant une semi- discrétisation implicite en temps, nous établissons l'existence et l'unicité d'une solution dans le cas additif, et grâce aux propriétés de la solution nous sommes en mesure d'étendre ce résultat au cas multiplicatif à l'aide d'un théorème de point fixe. Dans le Chapitre II, nous considérons une classe d'équations de type Barenblatt stochastiques dans un cadre abstrait. Il s'agit là d'une généralisation des résultats du Chapitre I. Dans le Chapitre III, nous travaillons sur l'étude du problème de Cauchy pour une loi de conservation stochastique. Nous montrons l'existence d'une solution par une méthode de viscosité artificielle en utilisant des arguments de compacité donnés par la théorie des mesures de Young. L'unicité repose sur une adaptation de la méthode de dédoublement des variables de Kruzhkov. Dans le Chapitre IV, nous nous intéressons au problème de Dirichlet pour la loi de conservation stochastique étudiée au Chapitre III. Le point remarquable de l'étude repose sur l'utilisation des semi-entropies de Kruzhkov pour montrer l'unicité. Dans le Chapitre V, nous introduisons une méthode de splitting pour proposer une approche numérique du problème étudié au Chapitre IV, suivie de quelques simulations de l'équation de Burgers stochastique dans le cas unidimensionnel.

Page generated in 0.0636 seconds