• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 478
  • 148
  • 59
  • 5
  • 1
  • Tagged with
  • 685
  • 299
  • 238
  • 176
  • 153
  • 98
  • 77
  • 74
  • 73
  • 71
  • 58
  • 50
  • 50
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
301

Douleur et caractérisation neurophysiologique de l'atteinte des petites fibres dans les neuropathies périphériques / Pain and neurophysiological characterization of small fiber involvement in peripheral neuropathies

Ng Wing Tin, Sophie 27 November 2013 (has links)
L'objectif de notre travail était dans un premier temps d'étudier les liens entre l'altération des fibres nerveuses de petit diamètre et la présence de douleurs chez des patients ayant une neuropathie périphérique. Notre deuxième objectif était d'évaluer la pertinence de certaines techniques neurophysiologiques pour mettre en évidence l'atteinte de ces petites fibres nerveuses. Notre première étude réalisée sur une large cohorte de patients présentant divers types de neuropathie a montré, grâce à une étude quantifiée de la sensibilité, qu'il n'y avait pas de corrélation entre la perte ou perte de fonction des fibres nerveuses de petit diamètre et la présence de douleurs. Ceci a été confirmé par notre deuxième étude portant sur une population plus homogène de patients ayant une neuropathie amyloïde familiale et étudiés avec une batterie neurophysiologique plus large. Ainsi, les douleurs neuropathiques des patients présentant une neuropathie périphérique sont probablement dues à la combinaison de facteurs d'hyperexcitabilité périphérique et de sensibilisation centrale et non directement liée à la perte en petites fibres. Il reste cependant pertinent de développer des techniques objectives d'exploration de ces petites fibres notamment dans un but de diagnostic clinique. Notre troisième étude a montré que certaines méthodes neurophysiologiques étaient particulièrement sensibles dans ce cadre en prenant pour exemple la détection d'anomalies précoces d'atteinte des petites fibres au cours de la neuropathie amyloïde familiale. Une batterie de tests comprenant l'enregistrement des potentiels évoqués laser, la mesure du seuil de détection du chaud et de la conductance cutanée, s'est avérée être la combinaison la plus pertinente, comme l'a montré notre quatrième étude sur une grande cohorte de patients susceptibles de présenter une neuropathie des petites fibres. / The aim of our work was initially to study the relationship between alterations in small diameter nerve fibers and the presence of pain in patients with peripheral neuropathy. Our second objective was to assess the relevance of some neurophysiological tests to characterize these alterations in small nerve fibers. Our first study of a large cohort of patients with various types of neuropathy showed, using quantitative sensory testing, that there was no correlation between the loss or loss of function of small nerve fibers and the presence of pain. This was confirmed by our second study focused on a more homogeneous population of patients with familial amyloid neuropathy and studied with a larger neurophysiological battery. Thus, neuropathic pain in patients with peripheral neuropathy is probably due to a combination of factors of peripheral hyperexcitability and central sensitization and not directly related to the loss of small nerve fibers. However, it remains relevant to develop techniques of objective investigation of these small nerve fibers for a purpose of clinical diagnosis. Our third study showed that some neurophysiological methods were particularly sensitive in this context, taking the example of the detection of early alteration of small nerve fibers in familial amyloid neuropathy. A battery of tests, including laser evoked potential recording, warm detection threshold and electrochemical skin conductance measurement, proved to be the most appropriate combination for this diagnostic purpose, as shown by our fourth study on a large cohort of patients likely to have a small fiber neuropathy.
302

Conception de lignes de fabrication sous incertitudes : analyse de sensibilité et approche robuste. / Production line design under uncertainty : sensitivity analysis and robust approach

Gurevsky, Evgeny 13 December 2011 (has links)
Les travaux présentés dans cette thèse portent sur la conception de systèmes de fabrication en contexte incertain. La conception d’un tel système peut être vue comme un problème d’optimisation qui consiste à trouver une configuration qui permet d’optimiser certains objectifs tout en respectant des contraintes technologiques et économiques connues. Les systèmes de fabrication étudiés dans ce mémoire sont des lignes d’assemblage et d’usinage. La première est une ligne qui se présente comme une chaîne de postes de travail où, dans chaque poste, les opérations d’assemblage s’exécutent de manière séquentielle. La deuxième, quant à elle, est une ligne particulière qui se compose de machines de transfert comportant plusieurs boîtiers multibroches où les opérations s’exécutent simultanément. Dans un premier temps, nous décrivons de différentes approches permettant de modéliser l’incertitude des données en optimisation. Une attention particulière est portée sur les deux approches suivantes : l’approche robuste et l’analyse de sensibilité. Puis, nous présentons trois applications : la conception d’une ligne d’assemblage et d’une ligne d’usinage soumises aux variations de temps opératoires et la conception d’une ligne d’assemblage avec les temps opératoires connus sous la forme d’intervalles des valeurs possibles. Pour chaque application, nous identifions les performances attendues ainsi que la complexité de la prise en compte de l’incertitude. Ensuite, nous proposons de nouveaux critères d’optimisation en adéquation avec la problématique introduite. Enfin des méthodes de résolution sont développées pour appréhender les différents problèmes mis en évidence par ces critères. / The presented work deals with the design of production systems in uncertain context. The design of such systems can be interpreted as an optimization problem that consists to find a configuration optimizing certain objectives and respecting technological and economical constraints. The production systems studied in this thesis are the assembly and transfer lines. The first one is the line that can be represented as a flow-oriented chain of workstations where, at each workstation, the tasks are executed in a sequential manner. The second is a particular line that is composed of transfer machines including several multi-spindle heads where the tasks are executed simultaneously. At first, we describe different approaches that permit to model the uncertainty of data in optimization. A particular attention is attracted to two following approaches: robust approach and sensitivity analysis. Then, we present three applications: the design of assembly and transfer lines under variations of task processing times and the design of an assembly line with interval task processing times. For each application, we identify the expected performances as well as the complexity of taking into account the uncertainty. Thereafter, we propose some new optimization criteria in adequacy with the introduced problematic. Finally, resolution methods are developed to solve different problems engendered by these criteria.
303

Fiabilité résiduelle des ouvrages en béton dégradés par réaction alcali-granulat : application au barrage hydroélectrique de Song Loulou / Residual reliability of alkali-aggregate reaction affected concrete structures : application to the song Loulou hydroelectric dam

Ftatsi Mbetmi, Guy-De-Patience 31 August 2018 (has links)
Ce travail de thèse propose une méthodologie multi-échelle basée sur l'utilisation de modèles de substitution fonction de variables aléatoires, pour évaluer la fiabilité résiduelle d'ouvrages en béton atteints de réaction alcali-granulat (RAG), dans l'optique d'une meilleure maintenance. Les modèles de substitution, basés sur des développements en chaos de polynômes des paramètres d'une fonction de forme (sigmoïde dans les cas traités), ont été constitués à plusieurs échelles, afin notamment de réduire les temps de calculs des modèles physiques sous-jacents. A l'échelle microscopique, le modèle de RAG employé est celui développé par Multon, Sellier et Cyr en 2009, comprenant initialement une vingtaine de variables aléatoires potentielles. A l'issue d'une analyse de sensibilité de Morris, le modèle de substitution permet de reproduire la courbe de gonflement dans le temps du volume élémentaire représentatif en fonction de neuf variables aléatoires. L'utilisation du modèle de substitution construit, pour la prédiction des effets mécaniques du gonflement dû à la RAG sur une éprouvette, a nécessité de prendre en compte l'anisotropie de ces effets en améliorant les fonctions poids proposées par Saouma et Perotti en 2006. L'échelle de l'éprouvette étant validée par la confrontation des prédictions aux données expérimentales des travaux de thèse de Multon, une application à l'échelle du barrage de Song Loulou a été entreprise. Le calcul du comportement thermo-chemo-mécanique d'une pile d'évacuateur de crues, dont les résultats en déplacements ont pu être confrontés aux données d'auscultation fournies par l'entreprise AES-SONEL (devenue ENEO), a été réalisé. Des modèles de substitution ont été construits ensuite à l'échelle de la structure afin d'obtenir les déplacements aux points d'intérêt, liés aux états limites de fonctionnement des évacuateurs, et procéder ainsi à l'estimation de la fiabilité résiduelle du barrage. Les calculs d'analyse de sensibilité et la construction des modèles de substitution ont été implémentés en Fortran, Java et OpenTURNS Les calculs sur éprouvette et pile de barrage ont été effectués sous Cast3M. / This work proposes a multi-scale methodology based on the use of surrogate models function of random variables, to evaluate the residual reliability of concrete structures suffering from alkali-aggregate reaction (AAR), for a better maintenance purpose. Surrogate models, based on polynomial chaos expansion of the parameters of a shape function (sigmoid in the studied cases), have been constituted at several scales, in particular in order to reduce computation time of the underlying physical models. At the microscopic scale, the AAR model employed is that developed by Multon, Sellier and Cyr in 2009, initially comprising about twenty potential random variables. At the end of a Morris sensitivity analysis, the surrogate model enables to reproduce the expansion curve over time of the representative elementary volume as a function of nine random variables. The use of the built-in surrogate model in predicting the mechanical effects of AAR expansion on a concrete core required to take into account the anisotropy of these effects by improving the weight functions proposed by Saouma and Perotti in 2006. The core's scale being validated by the comparison of the predictions with the experimental data of Multon's thesis work, an application at the scale of the Song Loulou dam was undertaken. The computation of the thermo-chemo-mechanical behavior of a spillway stack, whose results in displacement could be compared with the auscultation data provided by the company AES-SONEL (now ENEO), was realized. Surrogate models were then constructed at the scale of the structure to obtain displacements at the points of interest, related to the operating limit states of the spillways, and thus to estimate the residual reliability of the dam. The sensitivity analysis computations as well as the construction of the surrogate models were implemented in Fortran, Java and OpenTURNS. Computations on concrete cores and Song Loulou dam spillway were performed under Cast3M.
304

Contribution to the modelling of aircraft tyre-road interaction / Contribution à la modélisation de l'interface pneu-piste du train d'atterissage des avions

Kiébré, Rimyalegdo 10 December 2010 (has links)
La présente thèse est une partie du projet national français dénommé MACAO (Modélisation Avancée de Composants Aéronautiques et Outils associés). En collaboration avec Messier-Dowty (constructeur d'atterrisseurs d'avion), cette thèse contribue à une meilleure compréhension du comportement du pneu sur piste dans le domaine de l'aéronautique. L'objectif est de mettre en place des modèles capables de représenter le torseur des efforts au niveau de l'interface pneu-piste lors des différentes manœuvres de l'avion au sol en régime établi. Une priorité est accordée aux modèles dont les paramètres sont physiquement interprétables. De ce fait, un état de l'art des modèles de pneu en régime établi est d'abord réalisé. Un classement de ces modèles selon leurs motivations et limitations est aussi proposé. A l'aide de cette classification et en prenant en compte les exigences de l'étude, un choix a priori de modèles a été analysé. Les limites de ces modèles sont soulignées et une amélioration est proposée. Par ailleurs, une étude exhaustive de la déformation du pneu en situation de virage a été menée. Elle a permis de décrire la génération de la composante longitudinale de la force totale au niveau de l'interface pneu-piste. Elle est dite force longitudinale induite. Puis, en prenant en compte cette force, il a été possible d'expliquer pourquoi le moment d'auto-alignement peut repasser par zéro sans que le pneu ne soit en glissement total. Enfin, l'analyse de sensibilité est proposée comme une méthode permettant de déterminer les paramètres les plus influents de chaque modèle. Ces paramètres doivent alors être déterminés avec précision afin de réduire l'incertitude sur le modèle. / This thesis is a part of the French national project called MACAO (Modélisation Avancée de Composants Aéronautiques et Outils associés). In collaboration with Messier-Dowty company (a landing gears manufacturer), the thesis has contributed to better understand the actual literature studies in the field of aircraft tyre-road interaction modelling and therefore, to help making an optimal choice of model for a specifie application. The objectives have been to propose models for representing the tyre behaviour on the ground with respect to the aircraft run types. Physical oriented models are preferred. To complete this study, a literature survey of the previous researches in tyre modelling for steady­state responses is first carried out. Then, based on the main factors playing an important role in tyre modelling, it is proposed a classification for the physical and the semi-empirical models, which are also investigated. Based on this classification, the study requirements and the measurement data constraints, an a priori choice of suitable models are studied. A further investigation of the tyre deformation at pure lateral slip is carried out. It has allowed to physically describe the mechanism of generation of the longitudinal component of the tyre force at pure lateral slip. This force is refened as induced longitudinal force. By taking this force into consideration, it has been possible to explain why the self-aligning moment can drop to zero before the tyre gets to full sliding at pure lateral slip. Besides, the sensitivity analysis is proposed as a means for determining the parameters that have most influence on the model output and thus, are responsible for the output uncertainty.
305

Calibration Bayésienne d'un modèle d'étude d'écosystème prairial : outils et applications à l'échelle de l'Europe / no title available

Ben Touhami, Haythem 07 March 2014 (has links)
Les prairies représentent 45% de la surface agricole en France et 40% en Europe, ce qui montre qu’il s’agit d’un secteur important particulièrement dans un contexte de changement climatique où les prairies contribuent d’un côté aux émissions de gaz à effet de serre et en sont impactées de l’autre côté. L’enjeu de cette thèse a été de contribuer à l’évaluation des incertitudes dans les sorties de modèles de simulation de prairies (et utilisés dans les études d’impact aux changements climatiques) dépendant du paramétrage du modèle. Nous avons fait appel aux méthodes de la statistique Bayésienne, basées sur le théorème de Bayes, afin de calibrer les paramètres d’un modèle référent et améliorer ainsi ses résultats en réduisant l’incertitude liée à ses paramètres et, par conséquent, à ses sorties. Notre démarche s’est basée essentiellement sur l’utilisation du modèle d’écosystème prairial PaSim, déjà utilisé dans plusieurs projets européens pour simuler l’impact des changements climatiques sur les prairies. L’originalité de notre travail de thèse a été d’adapter la méthode Bayésienne à un modèle d’écosystème complexe comme PaSim (appliqué dans un contexte de climat altéré et à l’échelle du territoire européen) et de montrer ses avantages potentiels dans la réduction d’incertitudes et l’amélioration des résultats, en combinant notamment méthodes statistiques (technique Bayésienne et analyse de sensibilité avec la méthode de Morris) et outils informatiques (couplage code R-PaSim et utilisation d’un cluster de calcul). Cela nous a conduit à produire d’abord un nouveau paramétrage pour des sites prairiaux soumis à des conditions de sécheresse, et ensuite à un paramétrage commun pour les prairies européennes. Nous avons également fourni un outil informatique de calibration générique pouvant être réutilisé avec d’autres modèles et sur d’autres sites. Enfin, nous avons évalué la performance du modèle calibré par le biais de la technique Bayésienne sur des sites de validation, et dont les résultats ont confirmé l’efficacité de cette technique pour la réduction d’incertitude et l’amélioration de la fiabilité des sorties. / Grasslands cover 45% of the agricultural area in France and 40% in Europe. Grassland ecosystems have a central role in the climate change context, not only because they are impacted by climate changes but also because grasslands contribute to greenhouse gas emissions. The aim of this thesis was to contribute to the assessment of uncertainties in the outputs of grassland simulation models, which are used in impact studies, with focus on model parameterization. In particular, we used the Bayesian statistical method, based on Bayes’ theorem, to calibrate the parameters of a reference model, and thus improve performance by reducing the uncertainty in the parameters and, consequently, in the outputs provided by models. Our approach is essentially based on the use of the grassland ecosystem model PaSim (Pasture Simulation model) already applied in a variety of international projects to simulate the impact of climate changes on grassland systems. The originality of this thesis was to adapt the Bayesian method to a complex ecosystem model such as PaSim (applied in the context of altered climate and across the European territory) and show its potential benefits in reducing uncertainty and improving the quality of model outputs. This was obtained by combining statistical methods (Bayesian techniques and sensitivity analysis with the method of Morris) and computing tools (R code -PaSim coupling and use of cluster computing resources). We have first produced a new parameterization for grassland sites under drought conditions, and then a common parameterization for European grasslands. We have also provided a generic software tool for calibration for reuse with other models and sites. Finally, we have evaluated the performance of the calibrated model through the Bayesian technique against data from validation sites. The results have confirmed the efficiency of this technique for reducing uncertainty and improving the reliability of simulation outputs.
306

Méthodes de méta-analyse pour l’estimation des émissions de N2O par les sols agricoles / Meta-analysis methods to estimate N2O emissions from agricultural soils.

Philibert, Aurore 16 November 2012 (has links)
Le terme de méta-analyse désigne l'analyse statique d'un large ensemble de résultats provenant d'études individuelles pour un même sujet donné. Cette approche est de plus en plus étudiée dans différents domaines, notamment en agronomie. Dans cette discipline, une revue bibliographique réalisée dans le cadre de la thèse a cependant montré que les méta-analyses n'étaient pas toujours de bonne qualité. Les méta-analyses effectuées en agronomie étudient ainsi très rarement la robustesse de leurs conclusions aux données utilisées et aux méthodes statistiques. L'objectif de cette thèse est de démontrer et d'illustrer l'importance des analyses de sensibilité dans le cadre de la méta-analyse en s'appuyant sur l'exemple de l'estimation des émissions de N2O provenant des sols agricoles. L'estimation des émissions de protoxyde d'azote (N2O) est réalisée à l'échelle mondaile par le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC). Le N2O est un puissant gaz à effet de serre avec un pouvoir de réchauffement 298 fois plus puissant que le CO2 sur une période de 100 ans. Les émissions de N2O ont la particularité de présenter une forte variabilité spatiale et temporelle. Deux bases de données sont utilisées dans ce travail : la base de données de Rochette et Janzen (2005) et celle de Stehfest et Bouwman (2006). Elles recensent de nombreuses mesures d'émissions de N2O réparties dans le monde provenant d'études publiées et ont joué un rôle important lors des estimations d'émissions de N2O réalisées par le GIEC. Les résultats montrent l'intérêt des modèles à effets aléatoires pour estimer les émissions de NO2 issues de sols agricoles. Ils sont bien adaptés à la structure des données (observations répétées sur un même site pour différentes doses d'engrais, avec plusieurs sites considérés). Ils permettent de distinguer la variabilité inter-sites de la variabilité intra-site et d'estimer l'effet de la dose d'engrais azoté sur les émissions de NO2. Dans ce mémoire, l'analyse de la sensibilité des estimations à la forme de la relation "Emission de N2O / Dose d'engrais azoté" a montré qu'une relation exponentielle était plus adaptée. Il apparait ainsi souhaitable de remplacer le facteur d'émission constant du GIEC (1% d'émission quelque soit la dose d'engrais azoté) par un facteur variable qui augmenterait en fonction de la dose. Nous n'avons par contre pas identifié de différence importante entre les méthodes d'inférence fréquentiste et bayésienne. Deux approches ont été proposées pour inclure des variables de milieu et de pratiques culturales dans les estimations de N2O. La méthode Random Forest permet de gérer les données manquantes et présente les meilleures prédictions d'émission de N2O. Les modèles à effets aléatoires permettent eux de prendre en compte ces variables explicatives par le biais d'une ou plusieurs mesures d'émission de N2O. Cette méthode permet de prédire les émissions de N2O pour des doses non testées comme le cas non fertilisé en parcelles agricoles. Les résultats de cette méthode sont cependant sensibles au plan d'expérience utilisé localement pour mesurer les émissions de N2O. / The term meta-analysis refers to the statistical analysis of a large set of results coming from individual studies about the same topic. This approach is increasingly used in various areas, including agronomy. In this domain however, a bibliographic review conducted by this thesis, showed that meta-analyses were not always of good quality. Meta-analyses in agronomy very seldom study the robustness of their findings relative to data quality and statistical methods.The objective of this thesis is to demonstrate and illustrate the importance of sensitivity analysis in the context of meta-analysis and as an example this is based on the estimation of N2O emissions from agricultural soils. The estimation of emissions of nitrous oxide (N2O) is made at the worldwide level by the Intergovernmental Panel on Climate Change (IPCC). N2O is a potent greenhouse gas with a global warming power 298 times greater than the one of CO2 over a 100 year period. The key characteristics of N2O emissions are a significant spatial and time variability. Two databases are used for this work: the database of Rochette and Janzen (2005) and the one of Stehfest and Bouwman (2006). They collect numerous worldwide N2O emissions measurements from published studies and have played a significant role in the estimation of N2O emissions produced by the IPCC. The results show the value of random effects models in order to estimate N2O emissions from agricultural soils. They are well suited to the structure of the data (repeated observations on the same site for different doses of fertilizers, with several sites considered). They allow to differentiate the inter-site and intra-site variability and to estimate the effect of the rate of nitrogen fertilize on the N2O emissions. In this paper, the analysis of the sensitivity of the estimations to the shape of the relationship "Emission of N2O / N fertilizer dose" has shown that an exponential relationship would be the most appropriate. Therefore it would be appropriate to replace the constant emission factor of the IPCC (1% emission whatever the dose of nitrogen fertilizer) by a variable factor which would increase with the dose. On the other hand we did not identify significant differences between frequentist and Bayesian inference methods. Two approaches have been proposed to include environmental variables and cropping practices in the estimates of N2O. The first one using the Random Forest method allows managing missing data and provides the best N2O emissions predictions. The other one, based on random effects models allow to take into account these explanatory variables via one or several measurements of N2O. They allow predicting N2O emissions for non-tested doses in unfertilized farmer's field. However their results are sensitive to the experimental design used locally to measure N2O emissions.
307

Optimisation des programmes d’activité physique destinés à la prévention des chutes chez les personnes âgées institutionnalisées : influence de la sensibilité cutanée plantaire et du moment de la journée. / Optimization of physical activity programs to prevent falls in institutionalized older adults : influence of plantar cutaneous sensitivity and time-of-day.

Korchi, Karim 18 June 2019 (has links)
L’ensemble de ce travail doctoral avait pour objectif d’optimiser les effets des programmes d’activités physiques pour prévenir les chutes chez les personnes âgées institutionnalisées. Le contrôle postural et la locomotion étant fondamentaux dans la prévention des chutes, il convient de les stimuler régulièrement par une pratique physique adaptée. Par ailleurs, l’amélioration de la sensibilité cutanée plantaire peut permettre d’améliorer le contrôle postural et la locomotion. Même si les bénéfices potentiels d'une stimulation des afférences cutanées plantaires par la pratique d’exercices pieds nus sont multiples, l’intérêt de cette modalité de pratique des activités physiques à destination des personnes âgées reste à démontrer. Deux groupes de personnes âgées ont ainsi dû suivre le même programme d’activités physiques, pieds-nus pour un groupe et en portant des chaussures pour l’autre groupe. Les principaux résultats ont révélé qu’un programme d’activités physiques pratiqué pieds nus améliorait davantage la sensibilité cutanée plantaire et le contrôle postural qu’un programme pratiqué avec des chaussures. Malgré l’avancée en âge, le système sensori-moteur semble toujours bénéficier d’une certaine plasticité. Ce système sensori-moteur peut être stimulé en sollicitant notamment les mécanorécepteurs cutanés plantaires. Les effets d’un programme d’activités physiques peuvent également être optimisés en plaçant les séances au moment de la journée le plus approprié. En évaluant l’influence du moment de pratique au cours de la journée, nous avons pu montrer qu’un programme d’activités physiques réalisé l’après-midi provoquait des effets positifs plus marqués qu’un programme réalisé le matin. De manière surprenante, le contrôle postural des sujets qui s’entraînaient l’après-midi s’améliorait principalement le matin, au moment de la journée où il est le plus efficace chez les personnes âgées. Ces adaptations seraient en phase avec le moment de la journée où les fonctions cognitives sont également optimales, c’est-à-dire le matin. / The main purpose of these researches was to optimize the effects of physical activity programs to prevent falls among institutionalized older adults. Postural control and gait are essential in preventing falls and should be regularly promoted by an appropriate physical practice. In addition, improving plantar cutaneous sensitivity can improve postural control and gait. Even though there are further potential benefits of stimulating plantar afferences by performing barefoot exercises, the effects of this modality of physical activity for the elderly remains unclear. Two groups of older adults were involved in the same physical activity program, barefoot for one group and while wearing shoes for the other. The main results revealed that a program of physical activity with barefoot exercises improved plantar cutaneous sensitivity and postural control to a greater extent than while wearing shoes. Despite advancement of aging, the sensorimotor system still seems to benefit from plasticity which can be stimulated by exercising barefoot and increasing somatosensory information from the foot. The time of day when people exercise can also influence the optimization of physical performance and enhance the effectiveness of a physical activity program. By assessing the influence of exercising at different times of day, we showed that training in the afternoon provided greater benefits on postural control than morning training. Surprisingly, postural control was mainly improved in the morning and did not improve when participants exercised in the morning. The postural control system would have benefited from an enhanced motor potential (acquired through afternoon training which optimized the musculoskeletal adaptations) only at the time of day when cognitive functions are optimal, i.e., in the morning.
308

Analyses de sensibilité et d'identifiabilité globales : application à l'estimation de paramètres photophysiques en thérapie photodynamique / Global sensitivity and identifiability analyses : application to the estimation of the photophysical parameters in photodynamic therapy

Dobre, Simona 22 June 2010 (has links)
La thérapie photodynamique (PDT) est un traitement médical destiné à certains types de cancer. Elle utilise un agent photosensibilisant qui se concentre dans les tissus pathologiques est qui sera. Cet agent est ensuite activé par une lumière d'une longueur d'onde précise produisant, après une cascade de réactions, des espèces réactives de l'oxygène qui endommagent les cellules cancéreuses.Cette thèse aborde les analyses d'identifiabilité et de sensibilité des paramètres du modèle dynamique non linéaire retenu.Après avoir précisé différents cadres d'analyse d'identifiabilité, nous nous intéressons plus particulièrement à l'identifiabilité a posteriori, pour des conditions expérimentales fixées, puis à l'identifiabilité pratique, prenant en plus en compte les bruits de mesure. Pour ce dernier cadre, nous proposons une méthodologie d'analyse locale autour de valeurs particulières des paramètres. En ce qui concerne l'identifiabilité des paramètres du modèle dynamique de la phase photocytotoxique de la PDT, nous montrons que parmi les dix paramètres localement identifiables a posteriori, seulement l'un d'entre eux l'est en pratique. Néanmoins, ces résultats locaux demeurent insuffisants en raison des larges plages de variation possibles des paramètres du modèle et nécessitent d'être complétés par une analyse globale.Le manque de méthode visant à tester l'identifiabilité globale a posteriori ou pratique, nous a orientés vers l'analyse de sensibilité globale de la sortie du modèle par rapport à ses paramètres. Une méthode d'analyse de sensibilité globale fondée sur l'étude de la variance a permis de mettre en évidence trois paramètres sensibilisants.Nous abordons ensuite les liens entre les analyses globales d'identifiabilité et de sensibilité des paramètres, en employant une décomposition de Sobol'. Nous montrons alors que les liens suivants existent : une fonction de sensibilité totale nulle implique un paramètre non-identifiable; deux fonctions de sensibilité colinéaires impliquent la non-identifiabilité mutuelle des paramètres en question ; la non-injectivité de la sortie par rapport à un de ses paramètres peut aussi entrainer la non-identifiabilité du paramètre en question mais ce dernier point ne peut être détecté en analysant les fonctions de sensibilité uniquement. En somme, la détection des paramètres non globalement identifiables dans un cadre expérimental donné à partir de résultats d'analyse de sensibilité globale ne peut être que partielle. Elle permet d'observer deux (sensibilité nulle ou négligeable et sensibilités corrélées) des trois causes de la non-identifiabilité / Photodynamic therapy (PDT) is a treatment of dysplastic tissues such as cancers. Mainly, it involves the selective uptake and retention of the photosensitizing drug (photosensitizer, PS) in the tumor, followed by its illumination with light of appropriate wavelength. The PS activation is thought to produce, after multiple intermediate reactions, singlet oxygen at high doses (in the presence of molecular oxygen) and thereby to initiate apoptotic and necrotic death of tumor. The PDT efficiency stems from the optimal interaction between these three factors: photosensitizing agent (its chemical and photobiological properties), light (illumination conditions) and oxygen (its availability in the target tissue). The relative contribution of each of these factors has an impact on the effectiveness of treatment. It is a dynamic process and the objective of the thesis is to characterize it by a mathematical model. The points raised relate primarily to the determination of a dynamic model of the photodynamic phase (production of singulet oxygen), to the global analyses of identifiability and sensitivity of the parameters of the model thus built. The main difficulties of this work are the nonlinearity structure of the photophysical model, the large range of possible values (up to four decades) of the unknown parameters, the lack of information (only one measured variable over six state variables), the limited degrees-of-freedom for the choice of the laser light stimulus (input variable).Another issue concerns the links between the non-identifiability of parameters and the properties of global sensitivity functions. Two relationships between these two concepts are presented. We stress the need to remain cautious about the parameter identifiability conclusions based on the sensitivity study. In perspective, these results could lead to the development of new approaches to test the non-identifiability of parameters in an experimental framework
309

Analyse de sensibilité et estimation de l'humidité du sol à partir de données radar / On sensitivity analysis and estimation of soil moisture from radar responses

Liu, Yuan 23 September 2016 (has links)
L’étude de la diffusion des ondes électromagnétiques par une surface rugueuse aléatoire est de première importance dans de nombreuses disciplines et conduit à diverses applications notamment pour le traitement des surfaces par télédétection. En connaissant les modes de rétrodiffusion, on peut détecter la présence de la rugosité aléatoire indésirable de la surface de réflection telle que le réflecteur d'antenne et par conséquent trouver un moyen de corriger ou compenser les erreurs de phase. Cette thèse porte sur l’obtention de l'humidité du sol de surface à partir de mesures radar. La description de la surface rugueuse de façon aléatoire est présentée, suivie par les interactions d'ondes électromagnétiques avec les média. En particulier, un modèle d'équation intégrale avancé (AIEM) est introduit. La validité du modèle AIEM, qui est adopté comme modèle de travail, se fait par une large comparaison avec des simulations numériques et des données expérimentales. On analyse également les caractéristiques des configurations radar bistatique et on étudie la sensibilité de la diffusion bistatique à l'humidité du sol et à la rugosité de surface et, dans le même temps, le cadre de la détermination de l'humidité du sol à partir de mesures radar utilisant un réseau de neurones à base de filtres de Kalman récurrents est présenté. La formation du réseau et l'inversion des données sont décrits. / Electromagnetic waves scattering from a randomly rough surface is of palpable importance in many fields of disciplines and bears itself in various applications spanned from surface treatment to remote sensing of terrain and sea. By knowing the backscattering patterns, one may detect the presence of the undesired random roughness of the reflection surface such as antenna reflector and accordingly devise a means to correct or compensate the phase errors. Therefore, it has been both theoretically and practically necessary to study the electromagnetic wave scattering from the random surfaces. This dissertation focuses on the retrieval of surface soil moisture from radar measurements. The description of the randomly rough surface is presented, followed by the electromagnetic wave interactions with the media. In particular, an advanced integral equation model (AIEM) is introduced. The validity of the AIEM model, which is adopted as a working model, is made by extensive comparison with numerical simulations and experimental data. Also analyzes the characteristics of the bistatic radar configurations and dissects the sensitivity of bistatic scattering to soil moisture and surface roughness of soil surfaces. Meanwhile presents a framework of soil moisture retrieval from radar measurements using a recurrent Kalman filter-based neural network. The network training and data inversion are described in detail.
310

Traitement des données manquantes en épidémiologie : application de l’imputation multiple à des données de surveillance et d’enquêtes / Missing data management in epidemiology : Application of multiple imputation to data from surveillance systems and surveys

Héraud Bousquet, Vanina 06 April 2012 (has links)
Le traitement des données manquantes est un sujet en pleine expansion en épidémiologie. La méthode la plus souvent utilisée restreint les analyses aux sujets ayant des données complètes pour les variables d’intérêt, ce qui peut réduire lapuissance et la précision et induire des biais dans les estimations. L’objectif de ce travail a été d’investiguer et d’appliquer une méthode d’imputation multiple à des données transversales d’enquêtes épidémiologiques et de systèmes de surveillance de maladies infectieuses. Nous avons présenté l’application d’une méthode d’imputation multiple à des études de schémas différents : une analyse de risque de transmission du VIH par transfusion, une étude cas-témoins sur les facteurs de risque de l’infection à Campylobacter et une étude capture-recapture estimant le nombre de nouveaux diagnostics VIH chez les enfants. A partir d’une base de données de surveillance de l’hépatite C chronique (VHC), nous avons réalisé une imputation des données manquantes afind’identifier les facteurs de risque de complications hépatiques graves chez des usagers de drogue. A partir des mêmes données, nous avons proposé des critères d’application d’une analyse de sensibilité aux hypothèses sous-jacentes àl’imputation multiple. Enfin, nous avons décrit l’élaboration d’un processus d’imputation pérenne appliqué aux données du système de surveillance du VIH et son évolution au cours du temps, ainsi que les procédures d’évaluation et devalidation.Les applications pratiques présentées nous ont permis d’élaborer une stratégie de traitement des données manquantes, incluant l’examen approfondi de la base de données incomplète, la construction du modèle d’imputation multiple, ainsi queles étapes de validation des modèles et de vérification des hypothèses. / The management of missing values is a common and widespread problem in epidemiology. The most common technique used restricts the data analysis to subjects with complete information on variables of interest, which can reducesubstantially statistical power and precision and may also result in biased estimates.This thesis investigates the application of multiple imputation methods to manage missing values in epidemiological studies and surveillance systems for infectious diseases. Study designs to which multiple imputation was applied were diverse: a risk analysis of HIV transmission through blood transfusion, a case-control study on risk factors for ampylobacter infection, and a capture-recapture study to estimate the number of new HIV diagnoses among children. We then performed multiple imputation analysis on data of a surveillance system for chronic hepatitis C (HCV) to assess risk factors of severe liver disease among HCV infected patients who reported drug use. Within this study on HCV, we proposedguidelines to apply a sensitivity analysis in order to test the multiple imputation underlying hypotheses. Finally, we describe how we elaborated and applied an ongoing multiple imputation process of the French national HIV surveillance database, evaluated and attempted to validate multiple imputation procedures.Based on these practical applications, we worked out a strategy to handle missing data in surveillance data base, including the thorough examination of the incomplete database, the building of the imputation model, and the procedure to validate imputation models and examine underlying multiple imputation hypotheses.

Page generated in 0.056 seconds