• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 86
  • 29
  • 6
  • 1
  • 1
  • Tagged with
  • 128
  • 128
  • 65
  • 44
  • 32
  • 27
  • 19
  • 19
  • 16
  • 14
  • 14
  • 14
  • 12
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Modélisation mathématique multi-échelle de l'angiogenèse tumorale : analyse de la réponse tumorale aux traitements anti-angiogéniques

Billy, Frédérique 09 December 2009 (has links) (PDF)
Le cancer est l'une des principales causes de décès dans le monde. L'angiogenèse tumorale est le processus de formation de nouveaux vaisseaux sanguins à partir de vaisseaux préexistants. Une tumeur cancéreuse peut induire l'angiogenèse afin de disposer d'apports supplémentaires en oxygène et nutriments, indispensables à la poursuite de son développement. Cette thèse consiste en l'élaboration d'un modèle mathématique multi-échelle de l'angiogenèse tumorale. Ce modèle intègre les principaux mécanismes intervenant aux échelles tissulaire et moléculaire. Couplé à un modèle de croissance tumorale, notre modèle permet d'étudier les effets de l'apport en oxygène sur la croissance tumorale. D'un point de vue mathématique, ces modèles d'angiogenèse et de croissance tumorale reposent sur des équations aux dérivées partielles de réaction-diffusion et d'advection régissant l'évolution spatio-temporelle des densités de cellules endothéliales, cellules constituant la paroi des vaisseaux sanguins, et tumorales, ainsi que celle des concentrations tissulaires en substances pro- et antiangiogéniques et en oxygène. A l'échelle moléculaire, la liaison des substances angiogéniques aux récepteurs membranaires des cellules endothéliales, mécanisme clé de la communication intercellulaire, est modélisée à l'aide de lois pharmacologiques. Ce modèle permet ainsi de reproduire in silico les principaux mécanismes de l'angiogenèse et d'analyser leur rôle dans la croissance tumorale. Il permet également de simuler l'action de différentes thérapies anti-angiogéniques, et d'étudier leur efficacité sur le développement tumoral afin d'aider à l'innovation thérapeutique
22

Pilotage opérationnel des structures d'hospitalisation à domicile

Ben Bachouch, Rym 15 November 2010 (has links) (PDF)
Les structures d'hospitalisation rencontrent de nombreux problèmes de niveau opérationnel. Cette thèse propose une investigation des problématiques d'aide à la décision pour le pilotage des ressources humaines en HAD. Suite à l'étude des processus d'une structure HAD identifiant les différentes décisions logistiques dans le cadre d'une certification qualité, deux problématiques principales ont été identifiées. L'investigation du premier domaine, a permis de concevoir un outil d'aide à la décision calculant les emplois du temps des infirmiers d'une structure de soins à domicile. Il a été expérimenté pour l'HAD EOVI Drôme nord. Plusieurs modèles de décision ont été comparés à l'aide de deux méthodes de résolution : une résolution par programmation linéaire entière et une résolution par programmation par contraintes. Une deuxième problématique a été étudiée : le circuit du médicament d'une HAD, ceci en collaboration avec l'HAD Soins et Santé de Lyon afin de les aider dans la gestion de leurs livraisons urgentes à partir d'une pharmacie à usage intérieur. L'HAD rencontre en moyenne une quarantaine de livraisons urgentes par jour et ces livraisons coûtent très chers en raison des prestataires externes employés et des frais de taxi éventuels. Un outil d'aide à la décision décliné selon trois stratégies de livraisons différentes (par tranches horaires, par nombre de médicaments à livrer, par nombre de livraisons par tournées) a été développé et a été proposé à l'HAD. Une fois la stratégie choisie, cet outil a été utilisé en exploitant les données réelles de l'HAD pour comparer les coûts entre l'emploi de prestataires externes ou de livreurs salariés. Il a permis de démontrer que l'emploi de livreurs salariés serait nettement plus rentable.
23

Sur la capacité opérationnelle des modèles d'affectation dynamique du trafic, et la convergence des algorithmes d'équilibrage

Mai, Hai Dang 18 December 2006 (has links) (PDF)
Cette thèse porte sur les modèles d'affectation dynamique du trafic et l'équilibre offre-demande du trafic, afin d'en évaluer la capacité opérationnelle et d'en développer certains aspects. L'analyse porte essentiellement sur le modèle LADTA de Leurent (2003), dont les hypothèses physiques et économiques sont proches de l'affectation statique tout en ajoutant la dimension chronologique et un traitement par file d'attente de la congestion sur les arcs du réseau de transport. Nous reprenons la formulation analytique de ce modèle dans une expression abstraite qui est générique pour l'affectation dynamique, ce qui nous permet d'élaborer des approches algorithmiques variées en termes de formulation mathématique et de variables endogènes basiques. Nous discutons des algorithmes d'équilibrage et proposons un algorithme hybride qui traite conjointement des volumes et des temps par arcs. Nous donnons une analyse formalisée du mesurage de convergence, et nous élaborons des critères de convergence rigoureux et parcimonieux. Le modèle dans une version simplifiée, les algorithmes d'équilibrage et les critères de convergence ont été programmés dans un prototype, et expérimentés sur des cas d'école, afin d'établir le comportement des algorithmes et des critères, et de procéder à des réglages pour certains paramètres.
24

Oscillations et bistabilité dans des réseaux de régulation transcriptionnelle: étude théorique et expérimentale

Abou-Jaoudé, Wassim 23 June 2009 (has links)
Face à un environnement changeant, la cellule a dû développer des systèmes de régulation lui permettant de s’adapter et d’assurer son développement et sa survie. Ces systèmes de régulation s’organisent autour de réseaux de régulation transcriptionnelle permettant l’expression des gènes codant pour les protéines dont la cellule a besoin. Dans la plupart des réseaux trancriptionnels, la régulation de la transcription des gènes est « raffinée » par la présence de circuits de rétroaction positifs et négatifs à l’origine de deux types de comportements différents: la multistabilité d’une part, et les comportements homéostatiques ou oscillants d’autre part. Deux réseaux de régulation transcriptionnelle de complexité différente ont été étudiés au cours de cette thèse : le réseau p53-Mdm2 impliqué dans l'arrêt de la croissance cellulaire, la réparation de l’ADN et l’apoptose chez les mammifères, et le réseau de facteurs transcriptionnels GATA impliqué dans la régulation du catabolisme de l’azote chez la levure Saccharomyces cerevisiae. L’analyse théorique du réseau p53-Mdm2 a eu pour principal objectif de reproduire et d’interpréter les données expérimentales disponibles dans la littérature concernant la réponse oscillante de la p53 lorsque l’ADN de la cellule est endommagé. L’analyse théorique des comportements du réseau GATA, quant à elle, a été couplée à une étude expérimentale dans les milieux de qualité intermédiaire en azote peu investigués jusqu’à présent. Pour analyser les propriétés dynamiques de ces deux réseaux, plusieurs approches complémentaires, se situant à différents niveaux de description, ont été utilisées: l’approche logique, différentielle et stochastique. La première partie de cette thèse a été consacrée à l’étude du réseau p53-Mdm2 pour lequel nous avons développé un modèle simple composé d’un circuit de rétroaction positif imbriqué dans un circuit de rétroaction négatif. Les résultats de notre analyse logique montrent que les principales propriétés dynamiques du réseau peuvent être résumées par un petit nombre de diagrammes de bifurcation logique. Ces scénarios de bifurcations diffèrent par la séquence d’activation du circuit positif et négatif composant le réseau et dépendent d’une part de l’affinité de la p53 pour ses gènes cibles et d’autre part de son activité transcriptionnelle. Nous proposons que différents stress et types cellulaires pourraient correspondre à différents scénarios de bifurcation et donc conduire à des réponses différentes après irradiation. Cette première analyse qualitative nous a permis de rendre compte de différents aspects de la dynamique du réseau observés expérimentalement, tels que le changement de fréquence des oscillations en cours de réponse, les oscillations de longue durée de la p53 ou l’amortissement rapide des oscillations à l’échelle d’une population de cellules. Pour nous affranchir des fortes non-linéarités inhérentes au traitement logique, nous avons ensuite traduit le modèle logique en un modèle différentiel et montré que les principaux comportements présentés par le modèle logique sont conservés, suggérant que la structure du réseau détermine dans une large mesure les principales potentialités dynamiques du système. L’analyse des propriétés de bifurcation du modèle différentiel en fonction du niveau de dommage à l’ADN nous a également permis de mettre en évidence la présence de deux régimes oscillants d’amplitude, de valeur moyenne et de fréquence nettement différentes, séparés par une zone de bicyclicité où ces deux régimes coexistent. Cette propriété permet d’expliquer l’existence des deux fréquences d’oscillation différentes qui ont été observées expérimentalement en fonction de la dose d’irradiation. Enfin l’analyse stochastique de notre modèle nous a, en particulier, permis de rendre compte de l’augmentation du nombre de cellules oscillant à des fréquences élevées lorsque la dose d’irradiation augmente, observée expérimentalement. La deuxième partie de notre thèse a été consacrée à l’étude du réseau de facteurs GATA chez la levure S.cerevisiae. Ce réseau, constitué des activateurs Gln3 et Nil1 et des répresseurs Dal80 et Gzf3, comporte plusieurs circuits de rétroaction positifs et négatifs interconnectés. Dans le but d’aider à comprendre le rôle et le fonctionnement du réseau GATA, nous avons effectué une analyse théorique et expérimentale de son comportement dynamique en fonction de la qualité de la source azotée. L’analyse différentielle montre la possibilité d’un comportement bistable dans les milieux de qualité intermédiaire en azote et d’oscillations amorties suite à un transfert nutritionnel d’une condition azotée à une autre, lorsque l’activation des gènes du réseau par Gln3 et Nil1 est synergique ou lorsque le gène Gln3 est supprimé. Gzf3 serait le répresseur clef impliqué dans la bistabilité tandis que Dal80 serait le répresseur clef impliqué dans les comportements oscillants. L’analyse stochastique nous a permis d’étudier l’effet des fluctuations moléculaires sur ces comportements et les distributions de variables importantes du système dans une population de cellules. Pour le modèle synergique de la souche sauvage et celui du mutant gln3°, elle a montré l’existence, dans des milieux de qualité intermédiaire en azote, de deux populations de cellules qui coexistent : une population où l’expression de Dal80 est réprimée, une autre où son expression est activée. Enfin, l’étude de la dynamique du couplage entre la protéine fluorescente Gfp, sous le contrôle du promoteur de DAL80, et le réseau GATA montre que, pour des ordres de grandeur physiologique de la vitesse de disparition de la Gfp, la bimodalité présente au niveau du réseau GATA devrait se refléter au niveau de la Gfp. Les comportements bistables et oscillants mis en évidence dans notre étude théorique du réseau GATA ont ensuite été testés expérimentalement en suivant la Gfp sous le contrôle du promoteur de DAL80 en fonction de la concentration de la source azotée glutamine. Cette étude expérimentale nous a permis de mettre en évidence l’existence d’oscillations amorties de la fluorescence de la protéine de fusion Dal80-Gfp. De telles oscillations cependant n’ont pas été observées dans les expériences réalisées sur les autres souches testées pour lesquelles le gène de la Gfp est fusionné au promoteur de DAL80. Notre étude expérimentale montre également l’existence, chez la souche sauvage, d’une population unique de cellules fluorescentes quelle que soit la concentration du milieu extérieur en glutamine testé (0.2mM à 10mM). Un modèle additif où l’activation des gènes du réseau par Gln3 et Nil1 n’est pas synergique serait donc en meilleur accord avec nos observations. Chez les souches où le facteur Gln3 est inactivé, par contre, deux populations cellulaires, l’une de forte fluorescence et constituée de cellules de grande taille, l’autre de plus faible fluorescence et constituée de cellules de taille plus petite, coexistent pour des concentrations intermédiaires du milieu extérieur en glutamine. La forte corrélation observée entre la taille et la fluorescence des cellules suggère que le comportement bimodal observé au niveau de la fluorescence est lié au comportement bimodal observé au niveau de la taille. Enfin, un modèle phénoménologique de la croissance cellulaire nous a permis de reproduire l’existence de deux populations cellulaires de taille distincte.
25

Évaluation de la performance de quatre schémas microphysique pour la simulation des nuages arctiques en phase mixte avec le modèle Gem-Lam

Dorais, Johanne Gabrielle January 2010 (has links) (PDF)
Les stratus arctiques en phase-mixte sont fréquemment observés en Arctique, particulièrement lors des saisons de transition. Les observations ont montré qu'ils ont un impact considérable sur le bilan énergétique en surface. Ces nuages sont caractérisés par une instabilité colloïdale et par des interactions complexes avec les aérosols qui compliquent la simulation numérique de ces nuages. Des études antérieures ont montré que les modèles ont tendance à sous-estimer la quantité d'eau liquide et à prédire une quantité de glace supérieure à celle observée. Cette mauvaise partition des phases dans les nuages simulés fausse la simulation de la durée de vie des nuages ainsi que le forçage radiatif en surface. Les procédés microphysiques responsables de la partition de l'eau liquide et de la glace dans les stratus arctique en phase-mixte ne sont pas encore totalement compris et nécessitent des études plus approfondies. L'objectif de ce projet de recherche est d'évaluer la performance de quatre schémas microphysiques pour la simulation des nuages arctiques en phase-mixte observés lors de la campagne Mixed-Phase Arctic Clouds Experiment (M-PACE) qui a eu lieu sur la côte nord de l'Alaska à l'automne 2004. Les schémas ont été implantés dans le modèle canadien Global Environnemental Multi Échelle à aire limitée (GEM-LAM) et les simulations sont faites à une résolution horizontale de 2,5km. Les quatre schémas sont de complexité différente, deux sont à simple moment et deux sont à double moment. Les résultats montrent que tous les schémas surestiment la quantité d'eau liquide et ont de la difficulté à reproduire les nombreuses couches nuageuses observées. L'analyse des résultats a montré que tous les schémas ont de la difficulté à bien partitionner les phases liquide et solide. De plus, l'implantation de paramétrage plus complexe pour la nucléation hétérogène de la glace permet d'améliorer les résultats pour les schémas à simple moment, mais a peu d'effets pour les schémas à deux moments. Les schémas à double moment comporte un plus grand nombre de procédés qui peuvent influencer les résultats. Il en ressort que modifier les paramétrages de nucléation primaire dans ce type de schéma a des effets limités sur les résultats. La modification du paramétrage du gel par déposition dans le schéma de Morrison et al. par un paramétrage plus complexe basé sur les travaux de Eastwood et al. (2009) a eu très peu d'influence sur les résultats et n'a pas permis d'augmenter la quantité de glace simulée. Par contre, l'implantation de ce même paramétrage combiné à l'implantation de paramétrages plus performants pour le gel par immersion et par contact dans le schéma de Kong et Yau a permis d'augmenter la quantité de glace simulée dans les nuages en phase-mixte et d'améliorer la simulation de la structure verticale du contenu en eau liquide. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Microphysique des nuages, Modélisation numérique, Climat arctique, GEM-LAM.
26

Taux d'altération des sols de la bordure sud du Bouclier canadien, Québec, Canada : description physique des sols et modélisation de l'altération avec le modèle profile

Lamoureux, Patrick January 2007 (has links) (PDF)
L'altération des sols est essentielle pour l'évaluation des réservoirs de cations basiques dans la solution du sol et sa capacité de neutralisation des dépôts acides. Des taux d'altération des sols du Bouclier canadien ont été déterminés pour 22 bassins versants du réseau TADPA-Québec à l'aide du modèle de simulation biogéochimique PROFILE à partir de 62 échantillons. La recherche a surtout été concentrée sur la description physique des sols (granulométrie, minéralogie et surface spécifique) et la modélisation des variables hydroclimatiques dans le but d'effectuer une simulation des taux d'altération avec PROFILE. Le rééquilibre chimique dans la qualité des eaux de surface du Bouclier canadien exige avant tout une recharge des réservoirs de cations basiques échangeables dans les sols qui est supportée par l'altération chimique des sols. Une minéralogie semi-quantitative des sols a été établie selon différente analyses physiques et chimiques: la diffraction aux rayons X pour les fractions argileuses et limoneuses, le comptage minéralogique au binoculaire pour les fractions sableuses et l'utilisation du modèle stoechiométrique UPPSALA basé sur la chimie totale des horizons B. La surface spécifique a été établie selon deux méthodes: l'équation BET et l'algorithme textural de Sverdrup (1990). La texture des horizons B a été évaluée à partir d'un tamisage sec (>63 µm) et d'un sédimentomètre (<63 µm). La modélisation des variables hydroclimatiques a été faite à partir des modèles BioSIM, ForHYM et forSTEM. Les simulations d'altération des sols par PROFILE ont été faites deux fois pour chaque pédon en fonction des différentes valeurs de surface spécifique. Les taux d'altération simulés avec une surface spécifique établie selon la méthode BET sont entre 0,47 et 12,8 kmolc ha¯¹ an¯¹, tandis que les taux d'altération simulés avec une surface spécifique établie selon l'algorithme textural sont entre 0,87 et 5,5 kmolc ha¯¹ an¯¹. Des simulations PROFILE ont également été faites sur huit échantillons pour lesquels nous avons extraits les oxyhydroxides dans l'évaluation de la surface spécifique avec la méthode BET. Les résultats d'altération PROFILE suite aux extractions sont entre 0,88 et 4,39 kmolc ha¯¹ an¯¹. Les taux d'altération simulés démontrent l'importance de la surface spécifique dans ces évaluations. De même, une minéralogie diversifiée permet de cerner la contribution de certains minéraux au taux d'altération, en particulier les amphiboles. Les comparaisons effectuées avec les bilans élémentaires suggèrent que les taux d'altération actuels sont supérieurs aux taux historiques. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Taux d'altération des sols, Modélisation (PROFILE, UPPSALA, BioSIM, ForHYM, ForsTEM), Diffraction aux rayons X (DRX), Surface spécifique, Minéralogie, Bouclier canadien.
27

Estimation de la vulnérabilité de l'aquifère au roc de la zone Bécancour (Centre-du-Québec)

Meyzonnat, Guillaume 05 1900 (has links) (PDF)
Le concept de vulnérabilité de l'eau souterraine est généralement défini comme « la capacité du milieu à transmettre un polluant depuis la surface jusqu'à la zone saturée ». Bien qu'indispensable pour la protection et la gestion de la ressource en eau souterraine, ce concept montre des limites importantes puisqu'il n'intègre presque jamais la dynamique des écoulements souterrains et rarement l'agencement lithostratigraphique des dépôts quaternaires. Ce mémoire vise à déterminer la vulnérabilité de l'aquifère au roc de la zone Bécancour. L'étude est réalisée par l'application de l'indice DRASTIC et par le développement d'un indice de vulnérabilité basé sur une caractérisation hydrogéochimique de la zone d'étude. La comparaison des deux indices ainsi que la pertinence des paramètres utilisés est discutée et mise en perspective avec l'occurrence des nitrates dans les puits de la zone d'étude. Enfin, les concepts utilisés pour l'estimation de la vulnérabilité sont mis en perspective en s'appuyant notamment sur les résultats d'un modèle numérique synthétique d'écoulement et de transport en zone saturée. La recharge moyenne pour l'ensemble de la zone étudiée est estimée à 103 mm/an. La recharge est principalement contrôlée par la présence de till sur le territoire où elle atteint des valeurs voisines de 100 mm/an. Des taux de recharge inférieurs à 40 mm/an sont estimés pour la partie aval du bassin, en raison de la présence de dépôts fins de la Mer de Champlain. Des maximums de 250 mm/an sont évalués dans le piémont appalachien aux endroits où les dépôts quaternaires sont minces. Les résultats de l'étude hydrogéochimique confirment la présence de zones de recharge privilégiées dans le piémont appalachien avec la présence d'eaux souterraines peu minéralisées de type Ca-HCO3. Des conditions de confinement croissantes vers le Fleuve Saint-Laurent sont également mises en évidence avec des eaux de plus en plus minéralisées et de plus en plus basiques évoluant successivement vers des eaux de type Na-HCO3 puis Na-Cl. Bien qu'aucun dépassement de la norme de potabilité pour les nitrates (10 mg N-NO3/L) n'ait été détecté, les résultats montrent la présence de nitrates dans 30% des forages échantillonnés (concentrations supérieures à 1 mg N-NO3/L, attribuables à des sources anthropiques). Parmi les forages affectés, 37% sont des puits tubulaires au roc, la plupart situés en zone amont du bassin, dans le piémont appalachien. L'indice de vulnérabilité DRASTIC (Aller et al., 1987) est calculé sur la zone d'étude, et montre une cohérence limitée avec le contexte géomorphologique et avec l'occurrence des nitrates sur le bassin. L'indice hydrogéochimique montre une vulnérabilité plus importante en amont qu'en aval du bassin, mais permet de discerner des zones de vulnérabilité localement élevées en aval du bassin, sans doute exposées à des fenêtres locales de recharge, notamment pour la zone sud-sud-ouest. L'utilisation d'un modèle numérique d'écoulement-transport synthétique en zone saturée a permis de confirmer que le taux de recharge est un paramètre majeur de la vulnérabilité et que son effet est couplé avec le potentiel de dilution à l'échelle régionale. Les zones simultanément associées à de forts taux de recharge et à de faibles taux de dilution représenteraient des zones plus vulnérables à la contamination depuis la surface. Ce constat est plausible avec les résultats du bassin de la zone Bécancour où l'on observe l'occurrence de nitrates dans le piémont appalachien plutôt qu'en aval du bassin, bien que la densité des activités anthropiques et agricoles soit plus denses proche du Fleuve Saint-Laurent. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : vulnérabilité eau souterraine, recharge, hydrogéochimie, nitrates, modélisation numérique, DRASTIC, zone Bécancour
28

Vers un outil d'aide à la planification et à l'ordonnacement des ressources dans les services de soins

Jebali, Aïda 27 April 2004 (has links) (PDF)
Le travail présenté dans cette thèse aborde le problème de la planification et de l'ordonnancement des<br />ressources dans les services de soins. Nous avons commencé par recenser différents travaux qui ont porté<br />sur l'un des aspects de ce problème. Cette revue de la littérature nous a permis d'opter pour une approche<br />par processus de soins dans l'objectif de minimiser le délai de séjour du patient dans l'hôpital ainsi que les<br />coûts de sa prise en charge, et ce dans le respect de la qualité des soins. Cette approche a été<br />particulièrement illustrée dans le cas de processus de soins passant par un service de chirurgie.<br />Afin de tenir compte des aspects aléatoires, l'une des caractéristiques importantes de l'environnement<br />hospitalier, nous avons proposé de traiter le problème de la planification et de l'ordonnancement des<br />ressources suivant une structure hiérarchique qui porte sur quatre niveaux décisionnels. Le premier niveau<br />porte sur la planification des admissions qui consiste à fixer les dates d'hospitalisation des patients pour une<br />intervention chirurgicale. Cependant, la planification des admissions fournit au patient une date<br />d'hospitalisation qui risque de ne pas être très fiable à cause de la possibilité d'occurrence de différentes<br />perturbations. Nous avons ainsi proposé d'adopter un processus de confirmation des dates d'hospitalisation<br />conformément au programme opératoire construit sur l'horizon de T jours. Le troisième niveau décisionnel<br />consiste dans la construction du programme opératoire journalier. Cette construction est à double objectifs :<br />d'une part, mettre à jour le programme opératoire établi sur l'horizon de T jours en intégrant les différents<br />aléas qui ont pu avoir lieu dans la système de soins tel que le report d' interventions à cause d'admissions de<br />cas urgents, non programmées à l'avance ; d'autre part, préciser l'ordre de réalisation des interventions en<br />considérant les ressources critiques utilisées dans le processus opératoire. Ensuite, nous avons proposé une<br />approche temps-réel pour aider au pilotage du bloc opératoire devant l'occurrence d'aléas nécessitant de<br />repenser le programme opératoire journalier, en cours de réalisation. Parmi les différents types d'aléas<br />auxquels doit faire face le système de soins, nous avons traité ici de près le cas de la prise en compte de<br />l'urgence.
29

Prédiction de la performance en natation par les mesures d'activité du Système Nerveux Autonome : modélisation mathématique / Prediction of performance in swimming by Autonomic Nervous System activity assessment : mathematical modeling

Chalencon, Sébastien 07 June 2013 (has links)
Durant ces 20 dernières années, de nombreuses études réalisées chez l’homme ont mis en évidence l’utilité de la Variabilité de la Fréquence Cardiaque (VFC) comme outil d’investigation de l’activité du Système Nerveux Autonome (SNA). Des études longitudinales et transversales ont par ailleurs démontré des relations fortes entre SNA, entrainement et performance. La recherche d’indicateurs biologiques permettant au mieux de paramétrer la charge d’entraînement a conduit à l’étude de différents paramètres parmi lesquels la VFC. L’objectif de l’ensemble de ce travail de thèse a été, à la fois, l’étude de la prédiction de la performance en natation ainsi que la modélisation des effets de l’entraînement sur le SNA. L’étude I modélise les effets de l’entraînement sur l’activité parasympathique au travers du modèle de Banister, initialement conçu pour représenter les effets de l’entraînement sur la performance. Une relation significative de type logarithmique est démontrée, également, entre l’activité parasympathique et la performance. L’étude II démontre la pertinence de la VFC dans le pilotage et l’optimisation de la charge d’entraînement. Cette étude a utilisé les paramètres issus des modèles linéaire et non-linéaire des 10 nageurs pour analyser l’influence sur la performance et l’activité parasympathique de la charge d’entraînement. Cette étude rend compte de l’application pratique de la modélisation mathématique et des simulations informatiques dans la prédiction de la performance et l’optimisation de la charge d’entraînement en vue de maximiser à la fois les gains de performance et d’activité parasympathique. L’ensemble de ce travail démontre, au travers de la modélisation mathématique des réponses à l’entraînement de l’activité parasympathique et sa confrontation aux réponses de la performance, que la puissance spectrale en HF est un outil non invasif et facilement utilisable en routine pour optimiser l’entraînement. Au-delà de la démonstration d’une relation significative, c’est la mise en évidence d’une évolution en phase de ce paramètre physiologique et de la performance qui a été démontrée / Over the past 20 years, numerous studies in humans have demonstrated the usefulness of Heart Rate Variability (HRV) as a tool for investigating the activity of Autonomic Nervous System (ANS). Longitudinal and transversal studies have also shown a strong relationship between ANS activity, training load and performance. Monitoring of the training load has led to the study of various physiological parameters including the HRV. The goal of all this work was the study of the abilities of ANS parameters to predict the level of performance in swimming, as well as, modeling the effects of training load on the parameters of ANS. Study I models the effects of training on parasympathetic activity through the Banister model, originally designed to represent the effects of training on performance. A significant logarithmic relationship was demonstrated between parasympathetic activity and performance. Study II demonstrates the relevance of HRV and mathematical modeling to drive and optimize the training load. This study, using model parameters calculated from linear and non-linear mathematical formulation for 10 swimmers, analyzes the ability of computer simulation to predict performance and parasympathetic activity in response to the training load. The results demonstrate the practical application of mathematical modeling and computer simulations in predicting the performance and optimization of the training load to maximize both performance gains and parasympathetic activity All this work demonstrates, through mathematical modeling, the relevance of HF spectral power of HRV as a non-invasive tool, easy to use in routine, to optimize the training load and predict the performance in swimming. Beyond the demonstration of a significant relationship between parasympathetic activity and performance, it was an evolution in phase of these two parameters that was highlighted
30

Outils et concepts de biologie systémique pour la modélisation prédictive de la toxicité / Systems biology tools and concepts for predictive modelling of toxicity

Hamon, Jérémy 21 November 2013 (has links)
Le besoin actuel de comprendre les conséquences précises que l'administration d'une molécule va avoir sur un organisme et les organes qui le composent, est un enjeu majeur pour la recherche pharmaceutique et l'étude de la toxicité des xénobiotiques. Il n’est pas difficile de se rendre compte, quand les effets sont observables, qu’il existe un lien entre la dose administrée d’un xénobiotique et ses effets. La difficulté de les prédire, qu'ils soient bénéfiques ou délétères, réside principalement dans le fait qu'un nombre très important de mécanismes complexes sont mis en jeu, dès l'entrée de cette molécule dans l'organisme et jusqu'à son excrétion. Afin de comprendre et quantifier ce lien, et pour pouvoir faire des prédictions, il est nécessaire de connaître les principaux mécanismes biologiques impliqués et de proposer des modèles mathématiques les décrivant. Le travail présenté dans cette thèse montre que l'utilisation de la biologie systémique n'est pas facile et manque encore de maturité. Au-delà de la diversité des connaissances auxquelles elle fait appel, on se rend compte que la quantité de données et de paramètres à gérer est considérable. Pour un modèle ne prenant en compte qu'une seule voie de signalisation, comme celui présenté ici, plusieurs mois ont été nécessaires pour sa calibration. Cette durée est en grande partie imputable au temps de calculs nécessaire aux estimations des paramètres, et à celui nécessaire à la récolte et aux traitements des données très diverses (données PK, omiques, physiologiques, cellulaires, etc). Il est très important que le protocole de collecte des données soit défini en commun par l'ensemble des équipes les utilisant par la suite. / The current need to understand the consequences of the administration of a specific molecule to a given organism is a major issue for pharmaceutical and toxicological research. It is not difficult to realize, when the effects are observable, that there is a relationship between the dose of a xenobiotic and its effects. The difficulty in predicting such effects comes mainly from the fact that a large number of complex mechanisms are involved, from the entry of the molecule in the body to its excretion. To understand and quantify this relationship it is necessary to know the main biological mechanisms involved and to propose corresponding mathematical models. Pharmacokinetics, pharmacodynamics and systems biology are the scientific fields most appropriate to meet this need. The first examines the fate of xenobiotics in the body and the second, the evolution of their effects. Systems biology is a relatively new approach which combines different levels of information (experimental data, chemical and biological knowledge, assumptions, etc) with mathematical models to understand how complex biological systems work. Our work shows that the use of systems biology is not easy and still lacks maturity. The amount of data and parameters to manage is typically huge. For a model taking into account only one signaling pathway, several months were needed for its calibration. This length of time is largely due to computation time required for parameter estimates, but also to the time required for harvesting and processing of diverse data (PK data omics, physiological, cellular, etc.) It is important that data collection protocol be defined in common by all the teams involved.

Page generated in 0.5077 seconds