• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 1
  • Tagged with
  • 9
  • 9
  • 4
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Référentiel pour le développement d'un système de pilotage de la performance cohérent et réactif

Marif, Anouar 27 January 2024 (has links)
Le travail de cette thèse porte sur l'élaboration d'un référentiel pour le développement d'un système de pilotage de la performance cohérent et réactif, interface entre plusieurs méthodes distinctes et complémentaires. Le référentiel proposé intègre des principes clés de pilotage par la performance et propose une alternative améliorée et prometteuse par rapport aux systèmes de mesures de la performance traditionnels. Un système de pilotage de la performance est un outil indispensable pour une organisation. Sa conception demeure par ailleurs une démarche complexe étant donné les différents aspects et éléments que l'organisation doit intégrer dans son processus d'évaluation et d'amélioration de la performance, en particulier les événements perturbateurs, souvent négligés dans la littérature et très difficile à intégrer dans l'élaboration d'un mécanisme de pilotage de la performance. En effet, le choix de la variable de décision pour contrecarrer les effets d'un évènement perturbateur n'est pas toujours immédiate, il possède une certaine inertie qui peut entraîner une perte de la performance globale. Également, les décideurs ne disposent pas souvent des mécanismes et des outils susceptibles de vérifier que les composantes clés de pilotage de la performance (Objectifs-Variables de décision-Indicateurs de performance) engagées par chacun d'eux soient cohérentes et aident à faire évoluer l'organisation vers l'atteinte de ses objectifs escomptés. De ce fait, l'organisation évolue dans un contexte souvent incertain et doivent faire preuve d'adaptabilité pour garantir leur viabilité. Ce projet de recherche est motivé par un besoin criant soulevé suite à une revue de littérature soulignant la nécessité de développer un système de pilotage de la performance qui répond aux défis actuels en terme de pilotage, à savoir : la cohérence entre les composantes clés de pilotage de la performance et la réactivité pour faire face aux évènements perturbateurs. De ce fait, notre volonté dans ce travail a été de proposer un référentiel pour le développement d'un système de pilotage de la performance cohérent et réactif. Les contributions de cette thèse sont présentées en quatre phases. Dans une première phase, à partir du constat réalisé durant la revue de littérature, nous avons souligné la nécessité de proposer une démarche structurale SIPCo (Système d'Indicateurs de Performance Cohérent) pour identifier les composantes clés de pilotage de la performance et assurer leur cohérence à travers deux démarches. Une démarche logique basée sur (1) une approche de modélisation de système décisionnel afin d'identifier les centres de décision et (2) une approche de modélisation de système informationnel afin de d'établir une représentation de la part interactive des composantes clés de pilotage de la performance de chaque centre de décision. La méthode SIPCo repose aussi sur une démarche participative pour accompagner la démarche logique afin de définir les différentes composantes clés de pilotage de la performance auprès des futurs utilisateurs. Dans une deuxième phase, nous avons proposé une démarche procédurale SYPCo-R (Système de Pilotage de la Performance Cohérent et Réactif) en intégrant un élément jamais intégré par les autres systèmes d'évaluation de la performance, à savoir "évènement potentiel". En effet, la plupart des systèmes de pilotage par la performance sont basés sur le triplet "Objectif - Variable de Décision - Indicateur de performance". Alors que, SYPCo-R que nous proposons est basé sur le quadruplet "Objectif - Évènement potentiel - Variable de Décision - Indicateur de performance". L'objectif de SYPCo-R est d'apporter une cohérence globale dans l'exploitation des composantes clés de pilotage de la performance et une réactivité en intégrant la notion d'évènement potentiel dans la prise de décision à travers une méthodologie de classement des variables de décision qui permettent de contrecarrer les évènements potentiels susceptibles d'entraver l'atteinte des objectifs. Dans une troisième phase, nous avons proposé un modèle conceptuel MCR (Modèle Conceptuel de Réactivité) qui reprend les propriétés fondamentales de la notion de réactivité sous forme d'algorithme composé d'un ensemble des règles opératoires pour identifier les défaillances de performance en terme de réactivité et leurs origines afin d'ajuster et consolider SYPCo-R. Dans une quatrième phase, nous avons proposé une démarche prédictive basée sur la simulation pour évaluer et apprécier l'impact des valeurs fixées aux alternatives associées à chaque variable de décision choisie parmi le classement résultant de la démarche SYPCo-R. Cette démarche vise aussi à anticiper les défaillances de performance pour ajuster les paramètres de MCR et SYPCo-R. Les décideurs pourront ainsi disposer d'un outil supplémentaire pour garantir la cohérence, la réactivité basée sur l'anticipation et la prédiction. Les travaux de cette thèse apportent des solutions innovantes dans la démarche de l'élaboration d'un système de pilotage de la performance en proposant un référentiel interface entre plusieurs méthodes distinctes et complémentaires qui répond efficacement aux préoccupations des décideurs. Le référentiel proposé permet de cerner la complexité d'un système et de la rendre intelligible par les décideurs. De plus, il s'apprête bien à des extensions futures basées sur une exploitation optimisée des données en temps réel. / This thesis aims at elaborating a framework for the development of a coherent and responsive performance management system, interface between several distinct and complementary methods. The proposed framework integrates key performance management principle s and offers an improved and promising alternative to traditional performance measurement systems. A performance management system is an essential tool for an organization. Otherwise, the conception of this system remains a complex process given the several aspects and elements that the organization must integrate into its process of evaluating and improving performance, in particular disruptive events, often neglected in the literature and very difficult to take into account in the development of a performance management mechanism. Decision-making to cover the effects of a disruptive event is not immediate as it has an inertia which can lead to a loss of overall performance. Also, decision-makers rarely have the necessary tools to verify that the used key performance management components (Objectives-Decision variables-Performance indicators) are coherent and help to move the organization towards achievement of its expected objectives. Hence, the organization operates in an uncertain environment and must be adaptable to ensure its viability. This research is motivated by a strong need raised by the achieved literature review highlighting the need to develop a performance management system that responds to current management challenges, namely : consistency between the key management components performance and responsiveness to deal with disruptive events. As a result, the main objective of this thesis is to propose a framework for the development of a coherent and responsive performance management system. The contributions of this thesis are presented in four phases. In a first phase, based on the findings of the literature review, we underlined the need to propose a structural approach SIPCo (Consistent Performance Indicator System) to identify the key components of performance management and to ensure their consistency through two methods. A logical method based on (1) a decision-making system modeling approach in order to identify the decision-making centers and (2) an informational system modeling approach in order to establish a representation of the interactive part of the key components of the performance management of each of the decision-making centers. The SIPCo method is also based on a participatory method to support the logical approach in order to define the various key components of performance management with future users. In a second phase, we proposed a procedural approach SYPCo-R (Coherent and Responsive Performance Management System) by integrating "potential event", an essential element nowadays never integrated by other performance evaluation systems. Most performance management systems are based on the triplet "Objective - Decision variable - Performance indicator" while the proposed SYPCo-R is based on the quadruplet "Objective - Potential event - Decision variable - Performance indicator". The objective of SYPCo-R is to provide overall consistency in the use of the key performance management components, and responsiveness by integrating the notion of potential event into decision-making through a methodology for classifying decision variables allowing to thwart potential events that may hinder the achievement of objectives. In a third phase, we proposed a conceptual model MCR (Conceptual Model of Reactivity) which uses the fundamental properties of the notion of reactivity in the form of an algorithm composed of a set of operating rules to identify performance failures in terms of reactivity and their origins in order to adjust and consolidate SYPCo-R. In a fourth phase, we proposed a predictive approach based on simulation to evaluate and assess the impact of the values fixed on the alternatives associated with each decision variable chosen from the ranking resulting from the SYPCo-R approach. Furthermore, this approach aims to anticipate performance failures to adjust the parameters of MCR and SYPCo-R. This will provide decision-makers with an additional tool to ensure consistency and responsiveness based on anticipation and prediction. This thesis provides innovative solutions in the process of developing a performance management system by proposing an interface by proposing an interface framework between several distinct and complementary methods that effectively responds to the concerns of decision-makers. The proposed framework allows to identify the complexity of a system and to make it intelligible to decision-makers. Moreover, this framework accepts future extensions based on an optimized exploitation of real-time data.
2

Évaluation et comparaison des modèles de contrôle d'accès

Pooda, Herman January 2015 (has links)
La protection des données et de la vie privée des personnes est devenue aujourd’hui un enjeu majeur pour les entreprises et les organisations gouvernementales qui collectent et entreposent les données à caractère personnel. L’adoption d’une politique de sécurité est un impératif. Plusieurs modèles de contrôle d’accès sont proposés dans la littérature pour guider les utilisateurs dans la mise en oeuvre de leurs politiques de sécurité. Chacun de ces modèles a ses forces et faiblesses. Les systèmes de contrôle d’accès mis en place s’érigent souvent en de véritables obstacles, rendant inefficace le travail de leurs utilisateurs. Il convient de mieux connaître les modèles de contrôles d’accès avant de les implémenter. Ce mémoire présente une étude complète des modèles de contrôle d’accès RBAC, XACML et SGAC, en dégageant les enjeux auxquels les utilisateurs devront s’attendre en adoptant ces modèles. RBAC et XACML ont été normalisés respectivement par ANSI et OASIS et sont actuellement les modèles dominants dans l’industrie et dans le monde de la recherche. SGAC est un modèle proposé à la suite d’une étude, pour implémenter le contrôle d’accès aux dossiers médicaux au profit du réseau de santé de Sherbrooke. Les récentes études ont montré que c’est dans le domaine de la santé que les violations de la vie privée sont plus fréquentes. Le mémoire présente aussi les principales exigences d’un système de contrôle d’accès dans le domaine de la santé. Sur la base des exigences identifiées, il propose une évaluation des modèles de contrôle d’accès étudiés, et fournit une comparaison de ces modèles.
3

Suivi d'objets dans une séquence d'images par modèle d'apparence : conception et évaluation

Mikram, Mounia 15 December 2008 (has links)
Le travail présenté dans ce mémoire s’inscrit dans le cadre du suivi d'objets dans des vidéos, et plus particulièrement, sur l'utilisation de représentations par modèle d'apparence pour le suivi. La notion de modèle d'apparence est précisée sur la base de l'extraction de descripteurs visuels comparés à l'aide de similarités à une référence. De nouvelles techniques pour évaluer les performances vis à vis du suivi sont présentées. Les approches classiques d’évaluation considèrent uniquement la qualité des trajectoires finales estimées. Les métriques proposées dans ce mémoire s’en distinguent par le fait qu’elles quantifient la performance intrinsèque des modèles d’apparence utilisés au sein du système. Deux axes sont ainsi développés : d’une part, un ensemble de mesures de la précision spatiale d’un modèle couplées à la mesure de la robustesse vis-à-vis d’une initialisation spatiale approximative, et d’autre part, la proposition d’une méthodologie permettant de mesurer la stabilité d’un modèle du point de vue temporel sur des données vidéos naturelles. Ces techniques seront utilisées dans la suite du mémoire pour évaluer les méthodes existantes ainsi que celles présentées. Deux nouveaux modèles d'apparence sont ensuite introduits. Le premier modèle dénommé l’histogramme multi-échelles permet de limiter les ambigüités liées à la représentation par histogramme de couleurs. Le deuxième modèle, fondé sur une extension de la métrique de Matusita pour la comparaison de distributions de couleurs, prend en compte les variations possibles des couleurs des objets liées aux conditions de changement d’illumination. Enfin, le lien entre modèle d'apparence et technique de recherche de la position optimale est abordé dans le contexte du suivi multi-noyaux à travers la proposition d'un nouvel algorithme de suivi basé sur une approche compositionnelle inverse. Celui-ci offre un temps de calcul fortement réduit pour une qualité de suivi similaire aux algorithmes existants. / Abstract
4

Etude des précipitations en Antarctique par télédétection radar, mesures in-situ, et intercomparaison de modèles de climat / Study of Antarctic precipitation by radar remote sensing, in-situ measurements, and intercomparison of climate models

Palerme, Cyril 21 November 2014 (has links)
Au cours du XXIème siècle, une augmentation des précipitations est attendue dans les régions polaires. En Antarctique, cette augmentation devrait se traduire par une accumulation de neige sur le continent, contribuant ainsi positivement au bilan de masse de la calotte polaire, et par conséquent négativement au niveau des mers. Les modèles utilisés pour simuler le climat du XXIème siècle prédisent presque tous une augmentation des précipitations en Antarctique, mais l'importance de ce changement diffère fortement d'un modèle à l'autre. De plus, les taux de précipitation actuels reproduits par ces mêmes modèles divergent également beaucoup. Cependant, faute d'observation fiable de précipitation en Antarctique, il était jusqu'à présent difficile de vérifier la capacité des modèles à simuler ces dernières. Dans cette étude, les données issues du radar météorologique embarqué à bord du satellite CloudSat ont été utilisées afin de produire la première climatologie de précipitation en Antarctique à partir d'observations. Cette climatologie couvre la période août 2006 - avril 2011, et a montré de très bons accords avec les réanalyses ERA Interim qui n'utilisent pas d'observations issues de CloudSat. Le taux de chute de neige obtenu avec CloudSat sur le continent Antarctique jusqu'à 82°S est en moyenne de 171 mm/an. L'automne austral est la saison avec les chutes de neige les plus importantes, et le printemps austral, la saison avec les chutes de neige les plus faibles. Par ailleurs, une expérience de mesure in-situ des précipitations a été développée sur la base de Dumont d'Urville en Antarctique, des observations in-situ étant nécessaires à la validation des algorithmes de télédétection. Un système de profilage utilisant des capteurs optiques a été installé sur un mât de 73 m afin d'identifier les chutes de neige et les évènements de transport de neige par le vent. Les flux de neige mesurés à différentes hauteurs devraient être similaires lors de chute de neige sans transport de neige, alors qu'un gradient devrait apparaître si de la neige est transportée depuis la surface. Le système a été évalué et comparé aux analyses opérationnelles d'ECMWF. Enfin, les simulations des modèles de climat utilisés pour la production du rapport du GIEC ont été comparées aux observations satellites obtenues. Tous les modèles simulent un taux de chute de neige supérieur à celui observé avec CloudSat. Le changement de précipitation en Antarctique durant le XXIème siècle simulé varie de -6.0 % à +39.4 % en fonction des modèles et des scénarios d'émission de gaz à effet de serre. Les modèles de climat simulant des taux de chute de neige proches de ceux observés par satellite pour la période actuelle prédisent en moyenne un changement plus important de précipitation au cours du XXIème siècle, et donc un impact sur le niveau des mers plus conséquent. / During the 21st century, precipitation is expected to increase in polar regions. In Antarctica, this would lead to an increase in snow accumulation over the continent, which would represent a positive contribution to the ice sheet mass balance, and thus a negative contribution to sea level. Almost all the climate models predict a precipitation increase in Antarctica during the 21st century, but this change differs widely according to the models. Moreover, the current precipitation rate simulated by these models diverge greatly. However, because no reliable observation of Antarctic precipitation was available so far, it was not possible to benchmark climate models. In this study, data from the cloud profiling radar onboard CloudSat satellite have been used to produce the first climatology of Antarctic precipitation from observations. This climatology agrees well with ERA Interim reanalysis, the production of which is constrained by various in situ and satellite observations, but does not use any data from CloudSat. The mean snowfall rate from CloudSat observations is 171 mm/an over the Antarctic ice sheet, north of 82°S. The maximum snowfall rate is observed during the fall, while the minimum snowfall rate occurs in spring. Because in-situ measurements are necessary to evaluate remote sensing observations, a field experiment has been developed at Dumont d'Urville station in Antarctica for measuring precipitation. Optical sensors have been set up at different levels on a 73-meter tower in order to separate snowfall from blowing snow events. Snow flux measured at different heights should be similar during snowfall without blowing snow, whereas a gradient shoud be observed if blowing snow occurs. The system has been evaluated and compared to the ECMWF operational analysis. Finally, simulations from the climate models used for the last IPCC report have been compared to the new satellite climatology. All the models produce a higher snowfall rate than the snowfall observed with CloudSat. Precipitation increase predicted in Antarctica varies from -6.0 % to +39.4 % according to the models and the greenhouse gas emissions scenarios.Climate models which reproduce a current snowfall rate close to the snowfall rate observed by satellite predict on average a larger increase in Antarctic precipitation during the 21st century, and thus a stronger impact on sea level.
5

Etude de la réponse aux médicaments par la modélisation des relations dose-concentration-effet

Comets, Emmanuelle 07 May 2010 (has links) (PDF)
Mes travaux s'inscrivent dans le cadre général de la modélisation en pharmacologie. Je m'intéresse à la modélisation de relations entre les doses administrées, les concentrations observées et les effets, bénéfiques ou indésirables, de molécules administrées dans un organisme, afin d'expliquer et prédire l'action des médicaments. Cette discipline joue un rôle grandissant dans le développement de nouveaux médicaments, et fait notamment partie des dossiers d'autorisation de mise sur le marché de toute nouvelle molécule. Mais la modélisation se poursuit bien au-delà lors de la vie du médicament, et la pharmacométrie est encore à l'honneur dans l'analyse des essais cliniques permettant d'explorer de nouvelles populations ou de nouvelles pathologies, dans la surveillance thérapeutique où elle est utilisée pour prédire le meilleur traitement à administrer à un patient, ou dans la pharmacovigilance permettant de surveiller les effets indésirables. Les méthodes statistiques permettant d'analyser les données dans ce contexte reposent principalement sur l'utilisation de modèles à effets mixtes, capables de distinguer un profil moyen d'évolution du système et une variabilité expliquant les différences entre individus. Les modèles utilisés pour décrire le système sont le plus souvent dynamiques (en évolution dans le temps), et non-linéaires dans leurs paramètres. Ces modèles posent donc, comme nous le verrons dans ce travail, de nombreux problèmes méthodologiques. On peut ainsi citer, parmi les questions faisant l'objet à l'heure actuelle de nombreux travaux : les méthodes et algorithmes permettant d'estimer les paramètres de ces modèles ; les stratégies de construction de modèles ; l'évaluation de modèles ; le choix du protocole expérimental et le calcul du nombre de sujets nécessaires ; le traitement de données manquantes ; la nature des données, comme le fait de devoir traiter des données catégorielles ou la combinaison de plusieurs variables d'intérêt dans des modèles à réponses multiples. Cet ouvrage commence par une introduction générale à la pharmacométrie, avec un bref historique et une description des méthodologies utilisées dans cette discipline. Dans ce premier chapitre, je développerai plus en détail les éléments auxquels je me suis particulièrement intéressée. Dans le chapitre suivant, j'exposerai mes travaux en les classant par grandes thématiques. Mes travaux peuvent être regroupés pour la plupart en trois grands thèmes : la modélisation, avec un intérêt particulier pour les données de pharmacogénétique, thème que je développe au travers de collaborations extérieures et du co-encadrement d'une thèse ; l'évaluation de modèles, un sujet sur lequel j'ai co-encadré une thèse et qui continue de faire l'objet de développements auxquels s'intéresse la communauté scientifique ; l'optimisation de protocoles, sujet important au sein de mon unité d'accueil mais pour lequel j'ai également mes propres projets. D'autres projets sont également nés au travers de collaborations diverses. Le troisième chapitre contient les éléments d'appréciation de mon parcours, cursus, intégration dans l'unité et collaborations, ainsi que la liste de publications auxquelles j'ai été associée. Le dernier chapitre du manuscrit donne un bref résumé de 10 articles récents concernant mes trois principales thématiques, et en explicite les messages majeurs ainsi que ma contribution personnelle. Une annexe séparée contient la reproduction de ces 10 articles (non jointe pour des problèmes de copyright).
6

Apprentissage supervisé de données déséquilibrées par forêt aléatoire / Supervised learning of imbalanced datasets using random forest

Thomas, Julien 12 February 2009 (has links)
La problématique des jeux de données déséquilibrées en apprentissage supervisé est apparue relativement récemment, dès lors que le data mining est devenu une technologie amplement utilisée dans l'industrie. Le but de nos travaux est d'adapter différents éléments de l'apprentissage supervisé à cette problématique. Nous cherchons également à répondre aux exigences spécifiques de performances souvent liées aux problèmes de données déséquilibrées. Ce besoin se retrouve dans notre application principale, la mise au point d'un logiciel d'aide à la détection des cancers du sein.Pour cela, nous proposons de nouvelles méthodes modifiant trois différentes étapes d'un processus d'apprentissage. Tout d'abord au niveau de l'échantillonnage, nous proposons lors de l'utilisation d'un bagging, de remplacer le bootstrap classique par un échantillonnage dirigé. Nos techniques FUNSS et LARSS utilisent des propriétés de voisinage pour la sélection des individus. Ensuite au niveau de l'espace de représentation, notre contribution consiste en une méthode de construction de variables adaptées aux jeux de données déséquilibrées. Cette méthode, l'algorithme FuFeFa, est basée sur la découverte de règles d'association prédictives. Enfin, lors de l'étape d'agrégation des classifieurs de base d'un bagging, nous proposons d'optimiser le vote à la majorité en le pondérant. Pour ce faire nous avons mis en place une nouvelle mesure quantitative d'évaluation des performances d'un modèle, PRAGMA, qui permet la prise en considération de besoins spécifiques de l'utilisateur vis-à-vis des taux de rappel et de précision de chaque classe. / The problem of imbalanced datasets in supervised learning has emerged relatively recently, since the data mining has become a technology widely used in industry. The assisted medical diagnosis, the detection of fraud, abnormal phenomena, or specific elements on satellite imagery, are examples of industrial applications based on supervised learning of imbalanced datasets. The goal of our work is to bring supervised learning process on this issue. We also try to give an answer about the specific requirements of performance often related to the problem of imbalanced datasets, such as a high recall rate for the minority class. This need is reflected in our main application, the development of software to help radiologist in the detection of breast cancer. For this, we propose new methods of amending three different stages of a learning process. First in the sampling stage, we propose in the case of a bagging, to replaced classic bootstrap sampling by a guided sampling. Our techniques, FUNSS and LARSS use neighbourhood properties for the selection of objects. Secondly, for the representation space, our contribution is a method of variables construction adapted to imbalanced datasets. This method, the algorithm FuFeFa, is based on the discovery of predictive association rules. Finally, at the stage of aggregation of base classifiers of a bagging, we propose to optimize the majority vote in using weightings. For this, we have introduced a new quantitative measure of model assessment, PRAGMA, which allows taking into account user specific needs about recall and precision rates of each class.
7

Quel est le niveau de détail pertinent pour modéliser la croissance d'une forêt mélangée ? Comparaison d'une famille de modèles et application aux peuplements mélangés chêne sessile - pin sylvestre

Pérot, Thomas 26 June 2009 (has links) (PDF)
Face à l'intérêt grandissant pour les forêts mélangées, des d'outils et des modèles adaptés à leur gestion sont nécessaires. L'objectif de cette thèse est de montrer comment la construction et la comparaison de modèles ayant différents niveaux de détail peuvent nous aider à choisir le niveau le plus approprié pour modéliser la croissance d'un peuplement mélangé dans un contexte d'application donné. A partir de données récoltées dans des peuplements mélangés chêne sessile (Quercus petraea L.) pin sylvestre (Pinus sylvestris L.), nous avons construit une famille de modèles à différents niveaux de détail : un modèle arbre indépendant des distances (MAID), un modèle arbre dépendant des distances (MADD), trois modèles peuplement et un modèle intermédiaire entre le MAID et le MADD utilisant des distributions de voisinage. Pour que la comparaison de ces modèles soit pertinente, nous avons assuré une cohérence entre les modèles en utilisant plusieurs approches. Ces modèles nous ont permis d'acquérir des connaissances sur la croissance et la dynamique de ces forêts en particulier sur les interactions spatiales et temporelles entre le chêne et le pin. Ainsi le MAID a permis de montrer qu'il peut y avoir des phénomènes de compensation de croissance entre les deux espèces. Le MADD a permis de montrer que dans ces peuplements la compétition intraspécifique est supérieure à la compétition interspécifique. Un modèle peuplement obtenu à partir du MADD a permis d'étudier l'influence du taux de mélange sur la production. Pour évaluer la qualité prédictive des modèles, nous avons utilisé un jeu de données indépendant obtenu en partageant nos données avant la construction des modèles. Nous avons ainsi montré que le MAID était plus performant que le MADD pour prédire les accroissements individuels. Les modèles ont aussi été comparés sur des exemples d'applications mettant en œuvre des simulations à court ou moyen terme. La démarche proposée présente un intérêt aussi bien pour la compréhension du phénomène étudié que pour sa modélisation dans un but prédictif. En regroupant l'ensemble des résultats acquis, ce travail nous a permis d'apprécier la pertinence d'un type de modèle en fonction du contexte d'utilisation. Cette démarche très générale pourrait être appliquée à la modélisation d'autres processus comme la mortalité ou la régénération.
8

Modélisation Multi-échelle et Analyse d'Assemblages Macro-moléculaires Ambigus, avec Applications au Complexe du Pore Nucléaire

Dreyfus, Tom 20 December 2011 (has links) (PDF)
La génomique structurale a donnée accès à un nombre remarquable d'informations sur le protéome. De nature essentiellement combinatoire---il apparaît que certaines protéines interagissent en complexe, elles gagnent à être complémentées par des modèles tridimensionnels pour étendre la connaissance jusqu'au niveau structural. Récemment, de tels modèles ont été reconstruits pour le pore nucléaire, en intégrant diverses données biophysiques et biochimiques. Cependant, la nature qualitative de ces modèles empêche une complète synergie entre ceux-ci et les données expérimentales. Cette thèse propose trois développements répondant à ces limitations. Premièrement, nous introduisons les modèles tolérancés pour représenter des formes aux contours incertains par un continuum de modèles. Nous montrons qu'un modèle tolérancé est équivalent à un diagramme de Voronoi additif multiplicatif, et nous développons le lambda-complexe, l'équivalent de l'alpha-complexe, pour un tel diagramme. Deuxièmement, nous utilisons les modèles tolérancés pour représenter des assemblages protéiques. Nous expliquons comment un modèle tolérancé peut être utilisé pour évaluer la stabilité des contacts entre les protéines et pour valider la cohérence d'un tel modèle vis à vis de données expérimentales. Troisièmement, nous proposons des outils pour comparer des graphes de contact entre protéines, issus d' une part d'un modèle tolérancé, et d'autre part d'un modèle connu à résolution atomique. L'ensemble de ces concepts et outils est utilisé pour sonder les reconstructions du pore nucléaire mentionnées ci-dessus.
9

Amélioration de la géométrie des modèles musculosquelettiques de l'épaule

Hoffmann, Marion 09 1900 (has links)
Pour mieux comprendre et traiter les troubles musculosquelettiques présents à l’épaule, une meilleure connaissance de la contribution et de la fonction de chaque muscle de l’articulation glénohumérale est nécessaire. L’analyse des forces musculaires et articulaires est une étape importante pour comprendre les mécanismes de blessures et les pathologies. Ces forces musculaires peuvent être estimées de façon non invasive grâce à des modèles musculosquelettiques. Le défi est de prédire de façon physiologique les trajectoires musculaires et les bras de levier afin de s’assurer d’avoir une cohérence des forces musculaires dans les modèles musculosquelettiques. L’objectif de cette thèse était d’améliorer la géométrie musculaire des modèles musculosquelettiques de l’épaule en passant par plusieurs méthodes différentes d’implémentation des trajectoires musculaires. À cet égard, nos objectifs spécifiques étaient de : (1) améliorer la géométrie musculaire des modèles multicorps rigides grâce à l’implémentation de contraintes transverses; (2) évaluer la fiabilité d’un modèle éléments finis pour l’estimation des bras de levier et (3) tester la sensibilité de la prédiction des bras de levier aux incertitudes sur les zones d’insertions musculaires; (4) établir une base de données de bras de levier 3D pour des mouvements de grande amplitude; (5) quantifier de façon expérimentale les changements architecturaux des muscles entre l’état au repos et différents niveaux de contraction isométrique. (1) Deux modèles multicorps rigides de la coiffe des rotateurs ont été développés : un modèle classique intégrant une représentation des lignes d’action en 1D et un modèle possédant des contraintes transverses entre les lignes d’action permettant une représentation 2D. La représentation 2D avec des contraintes transverses permet une représentation plus physiologique des trajectoires musculaires et des bras de levier que les modèles classiques 1D. Toutefois, lors de mouvement allant au-delà de 90° d’élévation du bras, lorsque les points d’origine et d’insertion se rapprochent, les bras de levier et les longueurs musculaires sont mal estimés, car le modèle ne prend pas en compte les déformations du volume musculaire. (2) Un modèle éléments finis a été développé à partir de données d’imagerie médicale. Ce modèle permet une estimation des bras de levier fidèle aux données d’IRM. Contrairement aux modèles multicorps rigides, notre modèle élément finis rend compte du fait qu’un même muscle peut avoir plusieurs actions selon la position de sa ligne d’action par rapport au centre de rotation de l’articulation. (3) Le modèle a également servi à faire une étude de sensibilité des bras de levier : les zones d’insertion des différents muscles de la coiffe des rotateurs et du deltoïde ont été déplacées et les bras de levier associés calculés. Les résultats montrent qu’une variation de 10 mm des points d’insertion sur la tête humérale peut amener un muscle à changer de fonction (par exemple adduction plutôt que d’abduction). (4) Une collecte de données expérimentales effectuées sur quatre épaules a permis de collecter les bras de levier du deltoïde et des muscles de la coiffe des rotateurs pour des mouvements de grande amplitude. Ces résultats permettent de mieux comprendre le rôle des muscles de l’articulation glénohumérale lors de la réalisation de différents mouvements. Le deltoïde antérieur a une grande action en flexion et en adduction; le deltoïde moyen est un fort abducteur; le deltoïde postérieur agit en extension. Contrairement au deltoïde, l’infra-épineux et le petit rond ont principalement une fonction de rotateur externe. (5) Une collecte de données impliquant 14 sujets a été réalisée dans le but de quantifier les changements de géométrie musculaire et d’angle de pennation associés à la contraction pour les muscles du biceps, triceps et deltoïde. Les angles de pennation ont été obtenus grâce à un système d’échographie et les changements de géométrie externe des muscles ont été mesurés grâce à un capteur de structure. Les résultats montrent que les changements architecturaux pour les muscles étudiés se produisent principalement entre 0 et 25% de contraction maximale volontaire (aucune différence significative observée entre 25 et 50%). Le muscle le plus affecté par les changements architecturaux est le biceps. Cette thèse a évalué différentes approches de modélisation de la géométrie musculaire : l’approche la plus bio-fidèle étant finalement la modélisation par éléments finis, car elle permet de prendre en compte les interactions entre les structures et les déformations musculaires. De plus, nous avons montré l’importance d’estimer avec rigueur les paramètres d’entrée (zones d’insertions musculaires) des modèles et de bien évaluer la bio-fidèlité des modèles développés avant de les utiliser dans des contextes cliniques. Dans ce but, de nouvelles données ont été acquises en termes de déformations musculaires et d’angle de pennation pour permettre l’évaluation de modèle intégrant de l’activation musculaire. / Understanding and treating musculoskeletal disorders of the shoulder requires additional knowledge of the contribution and function of each muscle of the glenohumeral joint. The analysis of muscle and joint forces is an important step in understanding injury mechanisms and pathologies. These muscle forces can be estimated non-invasively using musculoskeletal models. The challenge is to physiologically predict muscle trajectories and moment arms to ensure consistency of muscle forces in musculoskeletal models. The aim of this thesis was to improve muscle geometry in musculoskeletal models of the shoulder by testing several different techniques for implementing muscle trajectories. Our specific objectives were to: (1) improve muscle geometry of rigid multibody models by using transverse constraints; (2) assess the reliability of a finite element model for estimating moment arms and (3) evaluate the sensitivity of moment arm predictions to uncertainties in muscle insertion areas; (4) create a database of 3D moment arms for movements with high ranges of motion; (5) experimentally quantify muscles’ architectural changes between resting state and different levels of isometric contractions. (1) Two rigid multibody models of the rotator cuff were developed: a classic model representing muscles with lines of action in 1D and a 2D model with transverse constraints between lines of action of a single muscle. The 2D model (with transverse constraints) gives a more physiological representation of muscle trajectories and moment arms than the classical 1D model. However, for arm movements beyond 90° of elevation, when the origin and insertion points get closer, moment arms and muscle lengths are misestimated due to the mode’s inability to account for muscle volume deformations. (2) A finite element model of the glenohumeral joint was developed based on medical imaging. Moment arms were computed and compared to the literature and MRI data. Our finite element model produces moment arms consistent with the literature and MRI data. Unlike rigid multibody models, our finite element model accounts for the fact that one muscle can have several actions depending on the position of its line of action relative to the centre of rotation of the joint. (3) The model was used to study moment arm sensitivity: insertion areas of rotator cuff muscles and the deltoid were moved, and associated moment arms have been computed. Results showed that a 10 mm variation in insertion points on the humeral head could cause a muscle to change function (for example performing adduction rather than abduction). (4) The 3D moment arms were assessed on four post-mortem human surrogates during movements with high ranges of motion. Results of the study gave us a better understanding of muscle functions during different movements. The main findings of the study were that the anterior deltoid was the largest flexor and had an adduction component, the median deltoid was a strong abductor, and the posterior deltoid acted in extension. Unlike the deltoid, the infraspinatus and teres minor were the largest external rotators of the shoulder. (5) Experimental measurements were performed on 14 subjects in order to quantify changes in muscle geometry and pennation angles associated with different levels of contraction for the biceps, triceps and deltoid. Pennation angles were measured on subjects using a portable ultrasound system. External muscle deformations were measured with an iPad equipped with a structure sensor. Changes in muscle architecture for the biceps, triceps and deltoid during isometric contractions occurred mostly between 0 and 25% of maximal voluntary contraction (no significant difference was observed between 25 and 50%). Changes were higher for the biceps than other muscles. This thesis evaluated different approaches to model muscle geometry: the approach leading to the most physiological result was the finite element model due to modeling of the interactions between structure and muscle deformations. Additionally, we demonstrated the importance of rigorously estimating input parameters (muscle insertion areas) and of properly evaluating the bio-fidelity of the models developed before using them in clinical contexts. New data was acquired regarding muscle deformations and pennation angles to evaluate models integrating muscle activation.

Page generated in 0.139 seconds