• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 327
  • 163
  • 35
  • 1
  • Tagged with
  • 517
  • 265
  • 108
  • 94
  • 92
  • 84
  • 80
  • 79
  • 75
  • 74
  • 61
  • 59
  • 58
  • 56
  • 56
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Inférence statistique dans le modèle de régression logistique avec fraction immune

Diop, Aba 15 November 2012 (has links) (PDF)
Les modèles linéaires généralisés sont une généralisation des modèles de régression linéaire, et sont très utilisés dans le domaine du vivant. Le modèle de régression logistique, l'un des modèles de cette classe, très souvent utilisé dans les études biomédicales demeure le modèle de régression le plus approprié quand il s'agit de modéliser une variable discrète de nature binaire. Dans cette thèse, nous nous intéressons au problème de l'inférence statistique dans le modèle de régression logistique, en présence d'individus immunes dans la population d'étude.Dans un premier temps, nous considérons le problème de l'estimation dans le modèle de régression logistique en présence d'individus immunes, qui entre dans le cadre des modèles de régression à excès de zéros (ou zéro-inflatés). Un individu est dit immune s'il n'est pas exposé à l'événement d'intérêt. Le statut d'immunité est inconnu sauf si l'événement d'intérêt a été observé. Nous développons une méthode d'estimation par maximum de vraisemblance en proposant une modélisation conjointe de l'immunité et des risques d'infection. Nous établissons d'abord l'identifiabilité du modèle proposé. Puis, nous montrons l'existence de l'estimateur du maximum de vraisemblance des paramètres de ce modèle. Nous montrons ensuite,la consistance de cet estimateur, et nous établissons sa normalité asymptotique. Enfin, nous étudions, au moyen de simulations, leur comportement sur des échantillons de taille finie.Dans un deuxième temps, nous nous intéressons à la construction de bandes de confiance simultanées pour la probabilité d'infection, dans le modèle de régression logistique avec fraction immune. Nous proposons trois méthodes de constructions de bandes de confiance pour la fonction de régression. La première méthode (méthodede Scheffé) utilise la propriété de normalité asymptotique de l'estimateur du maximum de vraisemblance, et une approximation par une loi du khi deux pour approcher le quantile nécessaire à la construction des bandes. La deuxième méthode utilise également la propriété de normalité asymptotique de l'estimateur du maximum de vraisemblance et est basée sur une égalité classique de (Landau & Sheep 1970). La troisième méthode (méthode bootstrap) repose sur des simulations, pour estimer le quantile approprié de la loi du supremum d'un processus gaussien. Enfin, nous évaluons, au moyen de simulations, leurs propriétés sur des échantillons de taille finie.Enfin, nous appliquons les résultats de modélisation à des données réelles surla dengue. Il s'agit d'une maladie vectorielle tropicale à transmission strictement inter-humaine. Les résultats montrent que les probabilités d'infection estimées à partir de notre approche de modélisation sont plus élevées que celles obtenues à partir d'un modèle de régression logistique standard qui ne tient pas compte d'une possible immunité. En particulier, les estimations fournies par notre approche suggèrent que le sous-poids constitue un facteur de risque majeur de l'infection par la dengue, indépendamment de l'âge.
272

Estimation par ondelettes dans les modèles partiellement linéaires

Gannaz, Irène 07 December 2007 (has links) (PDF)
L'objet de cette thèse est d'apporter une contribution à l'inférence dans les modèles partiellement linéaires en appliquant des méthodes d'estimation adaptative par ondelettes. Ces modèles de régression semi-paramétriques distinguent des relations linéaires et des relations fonctionnelles, non paramétriques. L'inférence statistique consiste à estimer conjointement les deux types de prédicteurs, en prenant en compte leur possible corrélation. Une procédure des moindres carrés pénalisés permet d'introduire une estimation par ondelettes avec seuillage des coefficients de la partie fonctionnelle. Un parallèle est établi avec une estimation du paramètre de régression par des M-estimateurs usuels dans un modèle linéaire, les coefficients d'ondelettes de la partie fonctionnelle étant considérés comme des valeurs aberrantes. Une procédure d'estimation de la variance du bruit est aussi proposée. Des résultats relatifs aux propriétés asymptotiques des estimateurs de la partie linéaire et de la partie non paramétrique sont démontrés lorsque les observations de la partie fonctionnelle sont réalisées en des points équidistants. Sous des restrictions usuelles de corrélation entre les variables explicatives, les résultats sont presque optimaux (à un logarithme près). Des simulations permettent d'illustrer les comportements des estimateurs et de les comparer avec d'autres méthodes existantes. Une application sur des données d'IRM fonctionnelle a aussi été réalisée. Une dernière partie envisage le cadre d'un plan d'observation aléatoire de la partie fonctionnelle.
273

Evolution et facteurs pronostiques de la Neurofibromatose 1

Sbidian, Emilie 23 October 2012 (has links) (PDF)
La Neurofibromatose 1 (NF1) est une maladie autosomique dominante dont l'évolutivité est inconnue. En effet, ni le type de mutation du gène, la gravité d'éventuels cas familiaux, ni une première complication ne permettent de prédire le pronostic de la maladie. L'objectif général de ce travail de thèse était de cibler les malades les plus à risque de morbi-mortalité au cours de la NF1. Méthode. Les différents travaux se sont appuyés sur les données phénotypiques de patients NF1 suivis dans le Réseau NF-France labellisé par le ministère de la Santé. Il s'agit d'une filière nationale monothématique ayant pour mission la prise en charge des malades atteints de NF1. Une cohorte d'environ 2500 malades est actuellement suivie dans ce réseau. Résultats. La mortalité des patients NF1 a tout d'abord été comparée à celle de la population générale française par l'estimation du rapport de mortalité standardisée (SMR). Entre 1980 et 2006, 1 895 patients NF1 ont été rétrospectivement inclus dans la cohorte. Un excès de mortalité était observé chez les [10-20[ ans (SMR=5.2, IC95% : 2.6 - 9.3, p<10-4) et les [20-40[ ans (SMR=4.1, IC95% : 2.8 - 5.8, p<10-4). Les principales causes de décès étaient la transformation de neurofibromes internes en tumeurs malignes des gaines nerveuses (TMGN). Une étude cas témoins portant sur 208 patients NF1 a permis d'expliquer le risque de mortalité accru chez les patients présentant des neurofibromes sous cutanés (SC-NF) en confirmant en IRM la présence chez ces patients de neurofibromes internes à fort risque de transformation en TMGN (OR=4.3, IC95% : 2.2 - 8.2). Cet effet était d'autant plus marqué que le nombre de SC-NF était important et notamment au-delà d'un seuil de 10 (OR=82, IC95% : 10.4 - 647.9) et que les neurofibromes internes étaient diffus (OR=14.7, IC95% : 3.8 - 57.3) et de taille ≥ 3 cm (OR=6.3, IC95% : 2.3 - 17.4). Les patients présentant des SC-NF représentent 20 à 30% de la population NF1. Afin d'identifier les patients à risque de développer une TMGN, nous avons élaboré un score prédictif de la présence des neurofibromes internes à partir des caractéristiques phénotypiques des patients. La présence de SC-NF (OR=4.7, IC95% : 2.1 - 10.5), l'absence de neurofibromes cutanés (OR=2.6, IC95% : 0.9 - 7.5), un âge inférieur ou égal à 30 ans (OR=3.1, IC95% : 1.4 - 6.8) et moins de 6 tâches café au lait (OR=2, IC95% : 0.9 - 4.6) étaient les variables qui constituaient le NF1Score. Le NF1Score = 10*(âge ≤ 30 ans) + 10*(absence de neurofibromes cutanés) + 5*(moins de 6 tâches café-au-lait) + 15*(plus de 2 neurofibrome sous cutanés) avait une excellente adéquation (test C de Hosmer-Lemeshow=4,53 avec 7ddl, p>0,50) et une capacité discriminante satisfaisante (aire sous la courbe ROC non paramétrique = 0,75 [0,68-0,82]). Enfin, l'expression phénotypique variant au cours du temps chez un même patient nous avons réalisé une étude spécifique chez l'enfant. Ainsi, l'âge (OR=1.1, IC95% : 1.0 - 1.2), la présence de xanthogranulomes (OR=4.5, IC95% : 0.9 - 21.7), celle de neurofibromes sous cutanés et plexiformes (OR=5.0, IC95% : 1.8 - 13.6) étaient indépendamment associés à celle des neurofibromes internes chez l'enfant NF1 de moins de 17 ans. Dans cette dernière étude, les neurofibromes internes se développaient de façon exponentielle pendant l'adolescence et plus précocement chez les femmes en accord avec les données de la littérature. Conclusion. La période à risque de développer des neurofibromes internes semblent donc sesituer entre l'adolescence et l'âge de 30 ans. Les recommandations de suivi pourraient prendre en compte le phénotype à risque, mais également la période de survenue de ces complications en réévaluant l'intérêt dans ce contexte d'investigations complémentaires
274

Paramètres spectraux à LPC Paramètres Mapping : approches multi-linéaires et GMM (appliqué aux voyelles françaises)

Ming, Zuheng 24 June 2013 (has links) (PDF)
Le langage parlé complété (LPC) est un système de communication visuel qui utilise des formes de main placés dans différentes positions près du visage, en combinaison avec le discours de la lecture labiale naturel, pour améliorer la perception de la parole à partir de l'entrée visuelle pour les personnes sourdes. Cependant l'un des défis importants est la question de la communication de la parole entre les personnes normo-entendant qui ne pratiquent pas LPC mais produisent discours acoustique et les personnes sourdes qui utilisent la lecture labiale complété par code LPC pour la perception de la parole sans audition résiduelle. Dans notre travail, nous appliquons la méthode de régression linéaire multiple (MLR) et modèle gaussien de mélange (GMM) approche pour mapper des paramètres spectraux acoustiques à la position de la main dans LPC et la forme de la lèvre d'accompagnement. Nous donc contribué à la mise au point d'un système de traduction automatique dans le cadre de la synthèse de la parole visuelle.Cela prouve que l'approche MLR est bonne pour l'estimation des paramètres pour les lèvres à partir des paramètres spectraux car il y a forte corrélation linéaire entre les paramètres des lèvres et des paramètres spectraux. Cependant, la performance de l'approche MLR pour estimer la position de la main est faible car il n'y a pas de relation entre les positions de la main et des paramètres spectraux. En introduisant un espace intermédiaire, il s'avère que la structure de topologie similaire est la clé de la MLR. Afin de libérer de la contrainte linéaire de l'approche MLR, nous appliquons la méthode de cartographie basée sur GMM qui possède à la fois les propriétés de classification et de régression. Les paramètres de GMM sont estimés par les méthodes de formation supervisées, non supervisées et semi- supervisés séparément dans la vue de la théorie de l'apprentissage de la machine. La méthode de formation supervisée montre une grande efficacité et une bonne robustesse. Le Minimum Mean Square Error (MMSE) et Maximum A Posteriori Probabilité (MAP) sont utilisés comme critères de régression séparément dans l'approche de la cartographie basée sur GMM. Cela prouve que l'approche MLR est un cas particulier de l'approche de GMM lorsque le nombre de gaussiennes est égal à un. Ainsi, l'approche de la cartographie sur GMM peut améliorer la performance significative en comparaison avec le MLR en augmentant le nombre de gaussiennes. Enfin, les différentes approches de cartographie utilisées dans ce travail sont comparées dans une transition continue. Il montre que l'approche sur GMM peut effectuer bien grâce à la propriété de classification lorsque les données source et cible n'a pas de " relation" comme dans le cas de l'estimation de la position de la main, et il peut également améliorer les performances par la propriété de régression local lorsque la source et les données cible a forte corrélation comme dans le cas du paramètre de lèvre estimation. En outre, une prédiction directe de la géométrie des lèvres comporte de l'image naturelle de la bouche région d'intérêt (ROI) sur la base de la 2D transformée en cosinus discrète (DCT) combinée à une analyse en composante principale (ACP) est proposé. Les résultats montrent la possibilité d'estimer les caractéristiques géométriques de la lèvre avec une bonne précision en utilisant un ensemble réduit de prédicteurs dérivés des coefficients DCT.
275

Physics and chemistry of stratospheric ozone and interactions with climate change

Kuttippurath, Jayanarayanan 21 March 2013 (has links) (PDF)
L'ozone est un constituant important dans la chimie de l'atmosphère, cela malgré sa faible concentration. L'ozone stratoshérique joue un rôle essentiel à la fois dans la régulation des radiations ultraviolettes du soleil connues pour être dangereuses aux différentes formes de vie sur Terre et également dans l'équilibre radiatif influençant le climat global. Cette thèse est consacrée à l'étude de l'évolution temporelle et spatiale de l'ozone stratosphérique polaire entre 1979 et 2012, ainsi qu'à son interaction avec le changement climatique, avec une attention particulière pour les années après 2000. L'analyse de la dynamique des hivers arctiques révèle une augmentation des évènements de forts réchauffements (EFR) ces dernières années (comparaisons faites entre les hivers 1998/99 et 2009/10). Alors qu'on compte 13 EFRs lors des 12 derniers hivers (soit 11EFR/décennie), le nombre moyen entre les hivers 1957/58 et 2009/10 s'élève à 7 EFR/décennie. Une étude chimique de la destruction de l'ozone lors des 17 derniers hivers (1993/94-2009/10) montre que celle-ci est inversement proportionnelle à l'intensité des EFRs. De même, il semble que, pour chaque hiver, plus l'EFR se produit tôt dans l'année (Décembre-Janvier), plus la perte d'ozone enregistrée est faible. Ainsi la fréquence des EFRs lors des récents hivers arctiques joue un rôle significatif sur la concentration moyenne d'ozone stratospherique dans l'hémisphère Nord et par conséquent également sur le climat arctique et global. Une analyse détaillée de la destruction d'ozone lors des hivers arctiques 1996/97 et 2002/03-2010/11 montre que l'hiver 2002/03 a subit un EFR et trois réchauffements mineurs. Pourtant, lors de cet hiver, une grande quantité d'ozone a été détruite à la fin du mois de mars. Environ 1.5 ppmv détruit entre 450 et 500 K, ou 65 DU entre 400 et 550 K qui s'ajoutent aux 0.7 ppmv détruit au mois de décembre (il s'agit de la plus forte perte d'ozone enregistrée au mois de décembre entre les hivers 1988/89 et 2010/11). La plus forte perte d'ozone enregistrée sur un hiver entier lors de cette décennie a été observée en 2010/11 (soit environ 2.5ppmv entre 400-500K ou 140DU entre 350-550K). L'étude montre également que, pour la première fois depuis que nous observons l'ozone, la quantité d'ozone détruite lors de cet hiver est comparable à celle détruite lors de certains hivers en Antarctique. Nous montrons que cette destruction d'ozone record est due à une activation des chlorines et une denitrification importante et prolongée lors de cet hiver. La perte d'ozone lors des autres hivers est de l'ordre de 0.7 à 1.6 ppmv autour de 475 K ou 40 à 115 DU entre 350 et 550 K (la plus petite destruction d'ozone ayant été mesurée lors de l'hiver 2005/06, particulièrement chaud). Pour l'Antarctique, une méthode est proposée pour estimer la tendance à long terme de la destruction chimique de l'ozone. Cette méthode est utilisée sur la période 1989-2012 pour estimer, en colonne totale, les tendances d'ozone à partir d'observations au sol et satellitaires. A l'intérieur du vortex polaire, nous montrons que la perte moyenne d'ozone se situe entre 33-50% pendant la période 1989-1992. Cette valeur est en accord avec l'augmentation de la concentration d'halogène lors de cette même période. Après cette période, la perte moyenne d'ozone semble atteindre une valeur de saturation aux alentours de 48%. La destruction d'ozone lors des hivers les plus chauds (e.g. 2002 et 2004) est légèrement inférieure (37-46%) et celle des hivers les plus froids (e.g. 2003 et 2006), légèrement supérieure (52-55%). La perte maximum d'ozone en Antarctique est observée entre le milieu du mois de septembre et le milieu du mois d'octobre, et la plus forte valeur de perte d'ozone est observée entre fin août et début septembre, atteignant en moyenne 0.5%/jr. Des analyses basées à la fois sur des profils d'ozone simulés grâce à un modèle haute résolution et sur des profils observés par instrument satellitaire lors des 7 hivers antarctiques entre 2004 et 2010, montrent également que les plus fortes pertes d'ozone coincident avec les hivers les plus froids de 2005 et 2006. Lors de ces deux hivers, la perte d'ozone a atteint 3.5 ppmv entre 450 et 550 K, ou 180 DU entre 350 et 850 K. Les deux hivers les plus chauds (2004 et 2010) ont connu les plus faibles pertes d'ozone (environ 2.5 ppmv entre 450 et 550 K, ou 160 DU entre 350 et 850 K). En Antarctique, l'altitude du maximum de destruction d'ozone est 500 K, cependant, pendant les hivers les plus froids et les hivers les plus chauds, ce maximum est 25 K plus haut (respectivement plus bas). Ce déplacement du maximum de perte permettant ainsi clairement de distinguer les hivers froids des hivers chauds. Cette étude montre également que la relative faible perte d'ozone ainsi que le trou d'ozone des récents hivers antarctiques (2004-2010) sont due à des phénomènes de réchauffement moindre.
276

Modélisation statistique pour données fonctionnelles : approches non-asymptotiques et méthodes adaptatives

Roche, Angelina 07 July 2014 (has links) (PDF)
L'objet principal de cette thèse est de développer des estimateurs adaptatifs en statistique pour données fonctionnelles. Dans une première partie, nous nous intéressons au modèle linéaire fonctionnel et nous définissons un critère de sélection de la dimension pour des estimateurs par projection définis sur des bases fixe ou aléatoire. Les estimateurs obtenus vérifient une inégalité de type oracle et atteignent la vitesse de convergence minimax pour le risque lié à l'erreur de prédiction. Pour les estimateurs définis sur une collection de modèles aléatoires, des outils de théorie de la perturbation ont été utilisés pour contrôler les projecteurs aléatoires de manière non-asymptotique. D'un point de vue numérique, cette méthode de sélection de la dimension est plus rapide et plus stable que les méthodes usuelles de validation croisée. Dans une seconde partie, nous proposons un critère de sélection de fenêtre inspiré des travaux de Goldenshluger et Lepski, pour des estimateurs à noyau de la fonction de répartition conditionnelle lorsque la covariable est fonctionnelle. Le risque de l'estimateur obtenu est majoré de manière non-asymptotique. Des bornes inférieures sont prouvées ce qui nous permet d'établir que notre estimateur atteint la vitesse de convergence minimax, à une perte logarithmique près. Dans une dernière partie, nous proposons une extension au cadre fonctionnel de la méthodologie des surfaces de réponse, très utilisée dans l'industrie. Ce travail est motivé par une application à la sûreté nucléaire.
277

Quelques contributions à la sélection de variables et aux tests non-paramétriques

Comminges, Laëtitia, Comminges, Laëtitia 12 December 2012 (has links) (PDF)
Les données du monde réel sont souvent de très grande dimension, faisant intervenir un grand nombre de variables non pertinentes ou redondantes. La sélection de variables est donc utile dans ce cadre. D'abord, on considère la sélection de variables dans le modèle de régression quand le nombre de variables est très grand. En particulier on traite le cas où le nombre de variables pertinentes est bien plus petit que la dimension ambiante. Sans supposer aucune forme paramétrique pour la fonction de régression, on obtient des conditions minimales permettant de retrouver l'ensemble des variables pertinentes. Ces conditions relient la dimension intrinsèque à la dimension ambiante et la taille de l'échantillon. Ensuite, on considère le problème du test d'une hypothèse nulle composite sous un modèle de régression non paramétrique multi varié. Pour une fonctionnelle quadratique donnée $Q$, l'hypothèse nulle correspond au fait que la fonction $f$ satisfait la contrainte $Q[f] = 0$, tandis que l'alternative correspond aux fonctions pour lesquelles $ |Q[f]|$ est minorée par une constante strictement positive. On fournit des taux minimax de test et les constantes de séparation exactes ainsi qu'une procédure optimale exacte, pour des fonctionnelles quadratiques diagonales et positives. On peut utiliser ces résultats pour tester la pertinence d'une ou plusieurs variables explicatives. L'étude des taux minimax pour les fonctionnelles quadratiques diagonales qui ne sont ni positives ni négatives, fait apparaître deux régimes différents : un régime " régulier " et un régime " irrégulier ". On applique ceci au test de l'égalité des normes de deux fonctions observées dans des environnements bruités
278

Sélection de variables pour des processus ponctuels spatiaux / Feature selection for spatial point processes

Choiruddin, Achmad 15 September 2017 (has links)
Les applications récentes telles que les bases de données forestières impliquent des observations de données spatiales associées à l'observation de nombreuses covariables spatiales. Nous considérons dans cette thèse le problème de l'estimation d'une forme paramétrique de la fonction d'intensité dans un tel contexte. Cette thèse développe les procédures de sélection des variables et donne des garanties quant à leur validité. En particulier, nous proposons deux approches différentes pour la sélection de variables : les méthodes de type lasso et les procédures de type Sélecteur de Dantzig. Pour les méthodes envisageant les techniques de type lasso, nous dérivons les propriétés asymptotiques des estimations obtenues par les fontions d'estimation dérivées par les vraisemblances de la Poisson et de la régression logistique pénalisées par une grande classe de pénalités. Nous prouvons que les estimations obtenues par de ces procédures satisfont la consistance, sparsité et la normalité asymptotique. Pour la partie sélecteur de Dantzig, nous développons une version modifiée du sélecteur de Dantzig, que nous appelons le sélecteur Dantzig linéaire adaptatif (ALDS), pour obtenir les estimations d'intensité. Plus précisément, les estimations ALDS sont définies comme la solution à un problème d'optimisation qui minimise la somme des coefficients des estimations soumises à une approximation linéaire du vecteur score comme une contrainte. Nous constatons que les estimations obtenues par de ces méthodes ont des propriétés asymptotiques semblables à celles proposées précédemment à l'aide de méthode régularisation du lasso adaptatif. Nous étudions les aspects computationnels des méthodes développées en utilisant les procédures de type lasso et de type Sélector Dantzig. Nous établissons des liens entre l'estimation de l'intensité des processus ponctuels spatiaux et les modèles linéaires généralisés (GLM), donc nous n'avons qu'à traiter les procédures de la sélection des variables pour les GLM. Ainsi, des procédures de calcul plus faciles sont implémentées et un algorithme informatique rapide est proposé. Des études de simulation sont menées pour évaluer les performances des échantillons finis des estimations de chacune des deux approches proposées. Enfin, nos méthodes sont appliquées pour modéliser les emplacements spatiaux, une espèce d'arbre dans la forêt observée avec un grand nombre de facteurs environnementaux. / Recent applications such as forestry datasets involve the observations of spatial point pattern data combined with the observation of many spatial covariates. We consider in this thesis the problem of estimating a parametric form of the intensity function in such a context. This thesis develops feature selection procedures and gives some guarantees on their validity. In particular, we propose two different feature selection approaches: the lasso-type methods and the Dantzig selector-type procedures. For the methods considering lasso-type techniques, we derive asymptotic properties of the estimates obtained from estimating functions derived from Poisson and logistic regression likelihoods penalized by a large class of penalties. We prove that the estimates obtained from such procedures satisfy consistency, sparsity, and asymptotic normality. For the Dantzig selector part, we develop a modified version of the Dantzig selector, which we call the adaptive linearized Dantzig selector (ALDS), to obtain the intensity estimates. More precisely, the ALDS estimates are defined as the solution to an optimization problem which minimizes the sum of coefficients of the estimates subject to linear approximation of the score vector as a constraint. We find that the estimates obtained from such methods have asymptotic properties similar to the ones proposed previously using an adaptive lasso regularization term. We investigate the computational aspects of the methods developped using either lasso-type procedures or the Dantzig selector-type approaches. We make links between spatial point processes intensity estimation and generalized linear models (GLMs), so we only have to deal with feature selection procedures for GLMs. Thus, easier computational procedures are implemented and computationally fast algorithm are proposed. Simulation experiments are conducted to highlight the finite sample performances of the estimates from each of two proposed approaches. Finally, our methods are applied to model the spatial locations a species of tree in the forest observed with a large number of environmental factors.
279

Analysis of debris-flow occurrence in active catchments of the French Alps using monitoring stations / Analyse de l'occurrence de laves torrentielles dans des bassins à forte susceptibilité à partir d'un jeu de données issu de stations de mesure

Bel, Coraline 16 June 2017 (has links)
Les crues – telles que les laves torrentielles – engendrées dans les torrents lors de fortes précipitations peuvent mobiliser de grande quantité de sédiments. Lorsqu'elles atteignent les zones urbanisées, elles peuvent mettre en dangers à la fois les personnes et les biens. Les approches visant à réduire le risque torrentiel se basent largement sur des seuils intensité-durée de pluie qui déterminent les conditions minimum de déclenchement d’une lave torrentielle. Pourtant, ces seuils sont sujets à une forte variabilité liée, non seulement aux différences inter-sites, mais aussi à la méthode appliquée lors de leur établissement. De plus, ils peuvent entraîner des fausses prédictions, l’intensité et la durée de l’épisode de pluie n’étant pas les seules variables explicatives. Ce travail de thèse vise (i) à fournir un cadre méthodologique rigoureux pour l’établissement des seuils de pluie afin de limiter les sources de variabilité, et (ii) à améliorer leurs performances en considérant à la fois les facteurs de déclenchement et de prédisposition. Il s’appuie sur les données d’un observatoire des crues torrentielles, mis en place dans les Alpes françaises en 2011 sur les torrents très actifs du Manival et du Réal. Dans un premier temps, les images et mesures hautes-fréquences collectées entre 2011 et 2016 ont été analysées afin de détecter et de caractériser les crues torrentielles. Pour appréhender la diversité des écoulements observés, une classification phénoménologique a été proposée. Dans un second temps, la condition minimum intensité-durée de pluie requise pour déclencher une lave torrentielle a été établie. La sensibilité du seuil à la définition d’un épisode de pluie a été évaluée. Dans un troisième temps, un modèle de régression logistique a été implémenté pour discriminer les épisodes de pluies critiques qui n’ont pas engendré de lave torrentielle. Il a permis de sélectionner les variables explicatives les plus pertinentes. Finalement, des pistes de travail ont été avancées pour (i) passer de conditions critiques établies à une échelle locale vers une échelle régionale, en perspective d’une application au sein d’un système d’alerte dédié aux risques hydrométéorologiques, et (ii) passer des conditions de déclenchement d’une lave torrentielle dans la zone de production sédimentaire aux conditions de propagation jusqu'aux zones à enjeux. / Flows – such as debris flows – caused by heavy rainfalls in torrents can mobilise a huge amount of sediments. When they reach the urbanised areas, they may endanger the people’s safety or cause damages. Approaches aimed at mitigating torrential risk widely rely on rainfall intensity-duration thresholds which determine the minimum debris-flow triggering conditions. However, these thresholds suffer from a high variability related not only to inter-site differences but also to the method applied to design them. In addition, they are likely to cause false prediction because the intensity and the duration of the rainfall event are not the only explanatory variables. This PhD research work aim (i) to provide a rigorous methodological framework for designing rainfall threshold in order to limit the variability sources, and (ii) to improve their performances by including both the triggering and the predisposing factors. It is supported by field observations stemming from high-frequency monitoring stations installed since 2011 on two very active debris flow-prone torrents in the French Alps: the Manival and the Réal. First, the images and data gathered between 2011 and 2016 were analysed in order to detect and characterise the sediment laden-flows. To deal with the variety of recorded flows, a phenomenological classification was performed. Second, the minimum intensity-duration threshold for debris-flow triggering was assessed. The threshold sensitivity to the rainfall event definition was estimated. Third, a logistic regression model was used to discriminate the critical rainfall events which do not lead to a debris flow. It makes it possible to select the most relevant explanatory variables. At last, several avenues of work were proposed (i) to move the knowledge of debris-flow initiation conditions from a local to a regional level, with a view to application in a warning system dedicated to hydrometeorological risks, and (ii) to improve the ability to predict, not the debris-flow triggering in the production zone, but the debris-flow propagation up to the area concerned.
280

Investigations on upper limb prosthesis control with an active elbow / Etude de la commande d'une prothèse de membre supérieur incluant un coude actif

Mérad, Manelle 01 December 2017 (has links)
Les progrès de la mécatronique ont permis d’améliorer les prothèses du membre supérieur en augmentant le catalogue des mouvements prothétiques. Cependant, un fossé se creuse entre les capacités technologiques de la prothèse et leur méthode de contrôle. La commande myoélectrique, qui est la méthode la plus répandue, reste complexe, notamment pour les personnes amputées au niveau trans-huméral qui peuvent avoir un coude actif en plus de la main et du poignet motorisés. Une approche intéressante consiste à utiliser la mobilité du membre résiduel, présente chez la plupart des amputés trans-huméraux, pour contrôler des articulations prothétiques distales comme le coude. Les mouvements du coude sont couplés aux mouvements du membre résiduel selon un modèle de coordination épaule/coude saine. Cette thèse étudie une stratégie de commande d’un coude prothétique utilisant les mouvements du membre résiduel, mesuré par des centrales inertielles, et nos connaissances du contrôle moteur humain. Pour cela, un modèle de la coordination épaule/coude a été construit à partir d’enregistrements de gestes sains de préhension. Ce modèle, implémenté sur un prototype de prothèse, a été testé par 10 individus sains équipés du prototype afin de valider le concept, puis par 6 personnes amputées. Ces dernières ont aussi réalisé la tâche avec une commande myoélectrique conventionnelle afin de comparer les résultats. La commande couplant automatiquement les mouvements de l’épaule et du coude s’est montrée satisfaisante en termes de facilité d’utilisation et de réduction des stratégies de compensation. / Progress in mechatronics has enabled the improvement of upper limb prosthetics increasing the grasps catalog. However, a gap has been growing between the prosthesis technological possibilities and the methods to control it. Indeed, common myoelectric control strategy remains complex, especially for transhumeral amputees who can have an active elbow in addition to a prosthetic wrist and hand. Since most transhumeral amputees have a mobile residual limb, an interesting approach aims at utilizing this mobility to control intermediate prosthetic joints, like the elbow, based on the shoulder/elbow coordination observed in healthy movements. This thesis investigates the possibility of controlling an active prosthetic elbow using the residual limb motion, measured with inertial measurement units, and knowledge of the human motor control. A primary focus has been targeting the reaching movement for which a model has been built using regression tools and kinematic data from several healthy individuals. The model, implemented on a prosthesis prototype, has been tested with 10 healthy participants wearing the prototype to validate the concept, and with 6 amputated individuals. These participants also performed the task with a conventional myoelectric control strategy for comparison purpose. The results show that the inter-joint coordination-based control strategy is satisfying in terms of intuitiveness and reduction of the compensatory strategies.

Page generated in 0.0879 seconds