• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 58
  • 8
  • 5
  • 1
  • Tagged with
  • 72
  • 37
  • 21
  • 11
  • 10
  • 10
  • 10
  • 9
  • 7
  • 7
  • 7
  • 7
  • 7
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Effet des angiopoïétines sur la survie des neutrophiles

Dumas, Elizabeth 05 1900 (has links)
Nous avons identifié l’expression du récepteur des angiopoïétines, le récepteur Tie2, à la surface des neutrophiles humains. De plus, nous avons démontré qu’Ang1 et Ang2 induisent des activités pro-inflammatoires sur les neutrophiles, comme l’adhésion aux cellules endothéliales (CEs) et la synthèse du facteur d’activation plaquettaire (PAF). Puisque le PAF augmente la viabilité des neutrophiles et que les angiopoïétines modulent la survie des CEs, nous avons voulu évaluer l’effet des angiopoïétines sur la survie des neutrophiles. Des neutrophiles humains ont été isolés à partir du sang de donneurs sains en accord avec le comité d’éthique de l’Institut de cardiologie de Montréal. La viabilité des neutrophiles a été mesurée par cytométrie en flux à l’aide de marqueurs d’apoptose et de nécrose. Un traitement avec des témoins positifs, soit l’interleukine 8 (IL-8; 25 nM) ou le PAF (100 nM), a augmenté la survie basale des neutrophiles de 34 et 27%, respectivement. De plus, un traitement avec Ang1 (1 pM – 10 nM) a augmenté la survie des neutrophiles jusqu’à 35%, alors qu’Ang2 n’a eu aucun effet. La combinaison de l’IL-8 ou du PAF avec Ang1 (10 nM) a eu un effet additif sur la viabilité des neutrophiles et a augmenté la survie de 56 et 60%, respectivement. Un prétraitement avec des anticorps bloquants contre l’IL-8 a permis d’inhiber l’activité anti-apoptotique de l’IL-8 et d’Ang1 de 92 et 80%, respectivement. Ainsi, notre étude est la première à démontrer la capacité d’Ang1 à prolonger la viabilité des neutrophiles, qui est principalement causée par la relâche d’IL-8. / We reported the expression of angiopoietin receptor Tie2 on the surface of human neutrophils. In addition, we reported that Ang1 and Ang2 are both capable to promote pro-inflammatory activities in neutrophils, namely their adhesion onto endothelial cells (ECs) and platelet-activating factor (PAF) synthesis. PAF is known to promote pro-survival activity on neutrophils and since both angiopoietins can modulate ECs viability, we addressed whether Ang1 and/or Ang2 could modulate neutrophil viability. Human neutrophils were isolated from blood of healthy volunteers in accordance with the guidelines of the Montreal Heart Institute’s ethical committee. Neutrophil viability was assessed by flow cytometry using apoptotic and necrotic markers. Treatment with anti-apoptotic mediators such as interleukin 8 (IL-8; 25 nM) and PAF (100 nM) increased neutrophil basal viability by 34 and 27%, respectively. In addition, treatment with Ang1 (1 pM – 10 nM) increased neutrophil viability by up to 35%, while Ang2 had no effect. Combination of IL-8 or PAF with Ang1 (10 nM) provided an additive effect on neutrophil viability and further increased viability by 56 and 60%, respectively. Pretreatment of the neutrophils with blocking anti-IL-8 antibodies inhibited the anti-apoptotic effect of IL-8 and Ang1 by 92 and 80%, respectively. In summary, our data are the first one to report Ang1 pro-survival activity on neutrophils, which is mainly driven through IL-8 release.
42

Financiarisation, gouvernance actionnariale et crise économique : une approche monétaire, la problèmatique de la viabilité.

Stellian, Remi 29 November 2012 (has links) (PDF)
Cette thèse cherche à savoir dans quelle mesure une crise économique peut résulter d'une dimension particulière de la financiarisation : la gouvernance actionnariale. La financiarisation est la structuration inédite de certaines composantes des activités économiques par un système financier libéralisé à partir des années 1970. Parmi les composantes concernées figure la gestion des entreprises. Sa financiarisation consiste à réduire autant que possible les dépenses de production tout en privilégiant l'endettement comme mode de financement. L'objectif est de générer autant de revenus que possible pour l'actionnaire, sous forme de dividendes et de gains en capital. C'est pourquoi une telle gestion est qualifiée de gouvernance actionnariale. Une démarche en quatre étapes est suivie. En premier, la littérature existante est soumise à la critique. Le problème posé est généralement résolu à partir de modèles formalisant des marchés équilibrés, mais la formation de tels marchés est à peine prouvée. Ce biais n'est pas nouveau et affecte la théorie économique dans son ensemble. La résolution peut donc s'appuyer sur un modèle représentant les activités économiques sans référence à des marchés équilibrés. La seconde étape est de construire cette représentation. Cette dernière peut s'organiser autour de la monnaie, c'est-à-dire une approche monétaire des activités économiques. Ces dernières sont saisies à partir des paiements interdépendants rendus possibles par l'utilisation de la monnaie, en tant qu'unité d'expression des paiements et moyen de les effectuer. Les paiements sont mis en relation avec trois composantes : i) le mode d'émission de moyens de paiement, typiquement le crédit bancaire ; ii) le règlement des déficits résultant des paiements (crédits bancaires non totalement remboursés, faute d'avoir enregistré suffisamment de paiements) ; et iii) la modification des paiements d'une période à l'autre par les agents, afin de les ajuster à leurs objectifs et contraintes. Ces modifications produisent une évolution du réseau de paiements formé à chaque période.La troisième étape est de modéliser un réseau de paiements en évolution. Un système d'équations non-linéaires de récurrence détermine chaque paiement parmi une typologie préalablement établi, ainsi que son mode de financement. Le système détermine aussi le règlement des déficits résultant des paiements. Les multiples récurrences produisent l'évolution. Le tout est saisi en faisant abstraction des biens et des phénomènes afférents, conformément à une approche monétaire. La quatrième étape est de mobiliser le modèle pour résoudre le problème. La crise peut être le résultat de l'évolution elle-même. Des agents modifiant leurs paiements peuvent conduire d'autres agents à enregistrer des déficits. Le réseau de paiements peut donc évoluer de manière à ce que des entreprises soient insolvables. Les faillites subséquentes peuvent être en nombre suffisant pour diminuer la production et de l'emploi, d'où la crise économique. Une telle évolution est définie comme non-viable. Savoir si la gouvernance actionnariale est un facteur de crise revient donc à savoir si la gouvernance actionnariale implique une évolution non-viable du réseau de paiements. Des simulations numériques sont effectuées, avec notamment des sous-configurations de paramètres associées à une plus ou moins grande diffusion de la gouvernance actionnariale parmi les entreprises. Le modèle produit le résultat général suivant : soit la gouvernance actionnariale génère une crise, soit elle rapproche de cette situation, soit la crise se produit indépendamment de la gouvernance actionnariale. Ce résultat vaut quel que soit le degré de diffusion de cette gouvernance parmi les entreprises. Ce résultat vaut également en l'absence d'épargne et avec l'endettement des salariés, contrairement aux modèles déjà existants mais sujets au biais conceptuel relatif à la formation des marchés équilibrés.
43

Résilience et vulnérabilité dans le cadre de la théorie de la viabilité et des systèmes dynamiques stochastiques contrôlés

Rougé, Charles 17 December 2013 (has links) (PDF)
Cette thèse propose des définitions mathématiques des concepts de résilience et de vulnérabilité dans le cadre des systèmes dynamiques stochastiques contrôlés, et en particulier celui de la viabilité stochastique en temps discret. Elle s'appuie sur les travaux antérieurs définissant la résilience dans le cadre de la viabilité pour des dynamiques déterministes. Les définitions proposées font l'hypothèse qu'il est possible de distinguer des aléas usuels, inclus dans la dynamique, et des événements extrêmes ou surprenants dont on étudie spécifiquement l'impact. La viabilité stochastique et la fiabilité ne mettent en jeu que le premier type d'aléa, et s'intéressent à l'évaluation de la probabilité de sortir d'un sous-ensemble de l'espace d'état dans lequel les propriétés d'intérêt du système sont satisfaites. La viabilité stochastique apparaît ainsi comme une branche de la fiabilité. Un objet central en est le noyau de viabilité stochastique, qui regroupe les états contrôlables pour que leur probabilité de garder les propriétés sur un horizon temporel défini soit supérieure à un seuil donné. Nous proposons de définir la résilience comme la probabilité de revenir dans le noyau de viabilité stochastique après un événement extrême ou surprenant. Nous utilisons la programmation dynamique stochastique pour maximiser la probabilité d'être viable ainsi que pour optimiser la probabilité de résilience à un horizon temporel donné. Nous proposons de définir ensuite la vulnérabilité à partir d'une fonction de dommage définie sur toutes les trajectoires possibles du système. La distribution des trajectoires définit donc une distribution de probabilité des dommages et nous définissons la vulnérabilité comme une statistique sur cette distribution. Cette définition s'applique aux deux types d'aléas définis précédemment. D'une part, en considérant les aléas du premier type, nous définissons des ensembles tels que la vulnérabilité soit inférieure à un seuil, ce qui généralise la notion de noyau de viabilité stochastique. D'autre part, après un aléa du deuxième type, la vulnérabilité fournit des indicateurs qui aident à décrire les trajectoires de retour (en considérant que seul l'aléa de premier type intervient). Des indicateurs de vulnérabilité lié à un coût ou au franchissement d'un seuil peuvent être minimisés par la programmation dynamique stochastique. Nous illustrons les concepts et outils développés dans la thèse en les appliquant aux indicateurs pré-existants de fiabilité et de vulnérabilité, utilisés pour évaluer la performance d'un système d'approvisionnement en eau. En particulier, nous proposons un algorithme de programmation dynamique stochastique pour minimiser un critère qui combine des critères de coût et de sortie de l'ensemble de contraintes. Les concepts sont ensuite articulés pour décrire la performance d'un réservoir.
44

Intégrer des modèles de viabilité dans les outils d'aide à la gestion participative de territoires protégés / Integrate sustainability models into tools to support participatory management of protected areas

Wei, Wei 11 December 2012 (has links)
Un défi important pour la gestion participative est de gérer des ressources renouvelables et la biodiversité. Dans le cadre de l'aide la la décision pour la gestion participative des territoires protégés, nous proposons dans cette thèse un agent expert qui fournit des informations sur la viabilité des solutions envisagées pour aider les joueurs à prendre une décision. C'est une nouvelle application de la théorie de la viabilité qui propose des concepts et méthodes pour contrôler un système dynamique afin de le maintenir dans un ensemble de contraintes de viabilité. Tout d'abord, nous avons étudié en quoi la théorie de la viabilité est particulièrement adaptée la la problématique de la gestion durable. L'analyse de viabilité prend en compte à la fois les comportements asymptotiques et transitoires qui doivent tous deux être considérés dans le cadre de la gestion de systèmes environnementaux. C'est l'intérêt de cette étude qui motive l'introduction d'un agent "viabilité" dans le cadre d'aide à la gestion participative. Nous décrivons ensuite un algorithme d'approximation du noyau de viabilité qui se concentre sur la réduction du temps de calcul. Cet algorithme utilise une procédure de classification du type "plus proche voisin", qui satisfait les conditions nécessaires pour garantir la convergence asymptotique de l'approximation. Nous comparons les résultats obtenus pour des problèmes de viabilité pour lesquels les noyaux théoriques ont été calculés. La fidélité de cet algorithme est toujours supérieure à 90 %. Le temps de calcul, relativement rapide, est très intéressant dans l'objectif d'intégrer ces calculs de noyaux dans des outils d'aide à la décision. Nous développons également un support logiciel qui est facile à utiliser par les joueurs pour les aider à analyser le problème de viabilité. Les joueurs définissent leur problème de viabilité grâce à une influence interface graphique utilisateur, puis lancent les simulations. Le logiciel permet aussi de visualiser les noyaux de viabilité et d'observer les trajectoires en 2D et 3D. Enfin nous étudions un agent expert viabilité dans un jeu de SimParc pour observer ses influences. Nous présentons des résultats fournis par l'agent expert viabilité en utilisant un modèle abstrait qui est axé sur la biodiversité. Puis nous présentons une expérimentation avec et sans agent expert viabilité. / An important challenge for participatory management is to manage renewable resources and biodiversity. In the framework of the decision support for participatory management of protected areas, we propose in this thesis an expert agent who provides information on the viability of the proposed solutions to help players to make a decision. This is a new application of the viability theory that provides concepts and methods for controlling a dynamic system in order to maintain the system in a set of viability constraints. Firstly, we study how the viability theory is particularly adapted to the problem of sustainable management. Sustainability analysis takes into account both the asymptotical dynamics and transient behaviors that have both to be considered in the context of environmental management systems. This study motivates the introduction of agent "viability" in the context of support participatory management. Then, we describe an algorithm of approximation of the viability kernel, which focuses on the reduction of computing time. This algorithm uses the "nearest neighbors" as a classification method, which satisfies the conditions guaranteeing the asymptotic convergence of the approximation. We compare the results obtained in cases where the theoretic viability kernel could be calculated. The accuracy of this algorithm is always higher than 90 percent. The computing time is relatively short, which is very interesting in the aim of integrating these calculations of viability kernel in tools of decision support. We also develop a software that is easy to use by players to help analyze the problem of sustainability. Players define their sustainability problem through a graphical user interface and launch simulations. The software also allows users to visualize the viability kernels and to observe the trajectories in 2D and 3D. Finally we study a viability expert agent in a game SimParc to observe these influences. We present the results provided by the viability expert agent using an abstract model which focuses on biodiversity. Then we present an experiment with and without viability expert agent.
45

Commande prédictive d'un robot humanoïde / Model predictive control of a humanoid robot

Herdt, Andrei 27 January 2012 (has links)
L'étendue des mouvements que les robots humanoïdes peuvent réaliser est fortement limitée par des contraintes dynamiques. Une loi de commande qui ne prend pas en compte ses res- trictions, d'une manière ou autre, ne va pas réussir d'éviter une chute. La Commande Prédictive est capable de considérer les contraintes sur l'état et le contrôle de manière explicite, ce qui la rend particulièrement appropriée pour le contrôle des mouvements des robots marcheurs.Nous commençons par dévoiler la structure spécifique de ces contraintes, démontrant notamment l'importance des appuis au sol. Nous développons ensuite une condition suffisante pour l'évitement d'une chute et nous proposons une loi de commande prédictive qui y réponde. Cette formulation nous sert ensuite pour la conception des contrôleurs pratiques, capables d'un contrôle plus efficace et plus robuste des robots marcheurs humanoïdes. / The range of motions that humanoid robots are able to realize is strongly limited by inherent dynamical constraints so that any control law that does not consider these limitations, in one way or another, will fail to avoid falling. The Model Predictive Control (MPC) technique is capable of handling constraints on the state and the control explicitly, which makes it highly apt for the control of walking robots.We begin by unveiling the specific structure of these constraints, stressing especially the impor- tance of the supports on the ground. We give thereupon a sufficient condition for keeping balance and formulate an MPC law that complies with it. This formulation serves us then for the design of practicable controllers capable of more efficient and more robust control of humanoid robots.
46

Déformation myocardique et remodelage cardiaque / Myocardial deformation and cardiac remodelling

Altman, Mikhail 24 November 2014 (has links)
Le remodelage myocardique est une réponse du myocarde à une altération des contraintes pariétales générée par une agression aiguë (ischémie myocardique) ou chronique (surcharge en pression, surcharge en volume, anomalie métabolique). En effet, le cœur est un organe capable de modifier en fonction de ses conditions de travail l’expression de ses fonctions moléculaires et cellulaires pour aboutir à des changements de taille,de morphologie et de fonction. Le remodelage myocardique est un mécanisme adaptatif initialement bénéfique, car en modifiant sa géométrie, le ventricule gauche s’adapte aux modifications de stress pariétal et préserve le volume d’éjection systolique. / Not transmitted
47

Les alternatives à la greffe de fragments de cortex ovarien dans la conservation de la fertilité chez la fille devant subir un traitement gonadotoxique : contribution à l'étude de la xénogreffe de follicules primordiaux et de la cryoconservation d'ovaire entier avec son pédicule vasculaire / Alternatives to grafting of ovarian cortical strips in the fertility perservation of young girls to be treated by gonadotoxic agents : contribution to studies of isolates primordial follicles xenografting and cryopreservation of whole ovary with its vascular pedicle

Torre, Antoine 27 September 2012 (has links)
Les traitements anticancéreux utilisés sur la femme jeune conduisent de plus en plus à laguérison, au prix d’une altération de la fertilité par atteinte significative de la réserveovarienne. Ces patientes à risque d’atrésie folliculaire accélérée peuvent bénéficier d’une sauvegarde de leur fertilité, le plus souvent par techniques conventionnelles d’assistance médicale à la procréation, permettant la conservation d’ovocytes et/ou d’embryons. Cependant, ces techniques ne sont pas adaptées aux patientes pré-pubères ou à celles porteuses de pathologies imposant un traitement immédiat ou contrindiquant unestimulation hormonale. Chez ces patientes, la cryoconservation du tissu ovarien est indiquée. A ce jour, au moins 18 enfants sont nés après greffes avasculaires de fragments ovariens cryoconservés, mais ces greffes ont une durée de vie limitée par souffrance ischémique initiale et comportent un risque de réimplantation de cellules malignes. La transplantation micro-vasculaire d’ovaire entier a été proposée pour palier la souffrance ischémique, tandis que l’isolation des follicules primordiaux éviterait la récidive néoplasique induite par la greffe .Dans ce travail scientifique, nous nous sommes d'abord intéressés à l'isolation des follicules primordiaux humains. Par un modèle de xénogreffe, nous avons établi que ces follicules isolés et greffés dans un caillot de fibrine pouvaient poursuivre leur développement jusqu'austade antral. Ces travaux ont été précurseurs aux progrès récents sur la culture in vitro defollicules primordiaux encapsulés. Dans la suite du travail, nous avons contribué à l'étude de la vitrification d'ovaire entier de brebis avec son pédicule vasculaire. Nous avons ainsi établi l'altération de la viabilité dupédicule vasculaire de ces organes entiers vitrifiés, alors que des études thermodynamiques préalables prouvaient que ces pédicules vasculaires étaient bien vitrifiés. Des phénomènes de cristallisation étant survenus au réchauffement de ces organes, avec pour point de départ la zone péri-ovarienne, nous nous sommes intéressés à l'exposition deces ovaires lorsqu'ils sont perfusés par les cryoprotecteurs. Nous avons montré que la perfusion d'ovaires s'accompagne de zones non exposées dans plus de 50% des ovaires perfusés, d'autant plus que l'expérimentateur est novice, que la surface de la tranche ovarienne est petite et qu'il existe un corps jaune visible. Ces zones incomplètement exposées seraient donc responsables de cristallisation lors de la vitrification de l'organe, catalysant une prise en glace globale de l'organe lors du réchauffement. Le problème serait donc plus dans une exposition incomplète aux cryoprotecteurs que dans la nature même de ces cryoprotecteurs. L'équipe lyonnaise avait déjà rapporté l'absence d'efficacité du protocole de vitrification utilisant le cryoprotecteur « VS4 » dans le rétablissement de la fertilité de brebis. Nous avons confirmé que l'utilisation du cryoprotecteur « VM3 » (vitrifiant de manière plus performanteque « VS4 »), ne permettait pas non plus le rétablissement de la fertilité après autotransplantation d'ovaires vitrifiés à la brebis. En revanche, nous avons obtenu une gestation après auto-transplantation d'ovaire de brebis cryoconservé par congélation lente, ce qui est le deuxième cas rapporté au monde. Nos résultats suggèrent que cette vitrification incomplète due à une mauvaise exposition des ovaires est l'un des principaux obstacles à la conservation de la fertilité par vitrification d'ovaire entier avec son pédicule vasculaire. / Anticancer treatments used in young women more and more lead to recovery, but with fertility disturbance due to ovarian reserve insults. These women at risk of accelerated follicle atresia can safe guard there fertility. Most of the time, it is performed with conventional Assisted Reproductive Techniques, allowing ovocytes or embryos banking. However these treatments are available neither for girls before puberty, nor when thedisease requires emergency treatments, nor for hormone dependant disease. In these cases, ovarian tissue cryobanking is indicated. To date, at least 18 babies have been born after cryopreservation and replacement of ovarian cortical strips but these grafts have a short lifespan due to initial ischemic damages and can reintroduce cancer cells on a cured woman. To control ischemic damage, cryopreservation of whole ovaries with their vascular pedicle has been proposed where as isolation of early follicles could manage the cancer reintroduction risk. In this scientific work, we first focused on isolation of early follicles. Using a xenograft model to mice with plasma clot as a vehicle, we showed that human isolated follicles can pursuit their development up to antral stage. This work motivates further progress in in-vitro cultureof encapsulates early follicles. In the second part of this work, we contributed to knowledge on vitrification of whole eweovaries with their vascular pedicle. We thus established impaired vascular viability of whole“VS4” vitrified ovaries, whereas previous calorimetric studies founded these vascular pedicles to be completely vitrified. As warming phase crystallization happened, starting from the area surrounding the ovary, we focused on the ovarian exposition when it is perused with cryoprotectors. We showed that unexposed parts are present in more than 50% of perfused ovaries, as much as the slide surface is small, a corpus luteum is present and the experimenter is inexperienced. These unexposed zones could be responsible for focal freezing during vitrification, these frozen focicatalyzing the whole organ ice crystallization during the warming phase. Hence, whole ovary vitrification failure could be due to improper cryoprotectors exposition of the organ ratherthan the inability of these cryoprotectors to promote proper tissue vitrification.Our team already failed to preserve fertility with “VS4” vitrified ewe ovaries. Neither were we able to preserve fertility with “VM3” vitrified ewe ovaries (this last cryoprotector being amore potent vitrificant solution than “VS4”), suggesting that vitrification is an inappropriate way to cryopreserve whole ewe ovaries for fertility purpose. On the other hand, we obtained a gestation after transplantation of slow frozen ewe ovaries. This gestation is the second reported worldwide. Our results suggest that vitrification of whole ovaries is impaired by improper cryoprotector exposition of ovaries through perfusion route.
48

Conjurer la malédiction de la dimension dans le calcul du noyau de viabilité à l'aide de parallélisation sur carte graphique et de la théorie de la fiabilité : application à des dynamiques environnementales / Dispel the dimensionality curse in viability kernel computation with the help of GPGPU and reliability theory : application to environmental dynamics

Brias, Antoine 15 December 2016 (has links)
La théorie de la viabilité propose des outils permettant de contrôler un système dynamique afin de le maintenir dans un domaine de contraintes. Le concept central de cette théorie est le noyau de viabilité, qui est l’ensemble des états initiaux à partir desquels il existe au moins une trajectoire contrôlée restant dans le domaine de contraintes. Cependant, le temps et l’espace nécessaires au calcul du noyau de viabilité augmentent exponentiellement avec le nombre de dimensions du problème considéré. C’est la malédiction de la dimension. Elle est d’autant plus présente dans le cas de systèmes incorporant des incertitudes. Dans ce cas-là, le noyau de viabilité devient l’ensemble des états pour lesquels il existe une stratégie de contrôle permettant de rester dans le domaine de contraintes avec au moins une certaine probabilité jusqu’à l’horizon de temps donné. L’objectif de cette thèse est d’étudier et de développer des approches afin de combattre cette malédiction de la dimension. Pour ce faire, nous avons proposé deux axes de recherche : la parallélisation des calculs et l’utilisation de la théorie de la fiabilité. Les résultats sont illustrés par plusieurs applications. Le premier axe explore l’utilisation de calcul parallèle sur carte graphique. La version du programme utilisant la carte graphique est jusqu’à 20 fois plus rapide que la version séquentielle, traitant des problèmes jusqu’en dimension 7. Outre ces gains en temps de calcul, nos travaux montrent que la majeure partie des ressources est utilisée pour le calcul des probabilités de transition du système. Cette observation fait le lien avec le deuxième axe de recherche qui propose un algorithme calculant une approximation de noyaux de viabilité stochastiques utilisant des méthodes fiabilistes calculant les probabilités de transition. L’espace-mémoire requis par cet algorithme est une fonction linéaire du nombre d’états de la grille utilisée, contrairement à l’espace-mémoire requis par l’algorithme de programmation dynamique classique qui dépend quadratiquement du nombre d’états. Ces approches permettent d’envisager l’application de la théorie de la viabilité à des systèmes de plus grande dimension. Ainsi nous l’avons appliquée à un modèle de dynamique du phosphore dans le cadre de la gestion de l’eutrophisation des lacs, préalablement calibré sur les données du lac du Bourget. De plus, les liens entre fiabilité et viabilité sont mis en valeur avec une application du calcul de noyau de viabilité stochastique, autrement appelé noyau de fiabilité, en conception fiable dans le cas d’une poutre corrodée. / Viability theory provides tools to maintain a dynamical system in a constraint domain. The main concept of this theory is the viability kernel, which is the set of initial states from which there is at least one controlled trajectory remaining in the constraint domain. However, the time and space needed to calculate the viability kernel increases exponentially with the number of dimensions of the problem. This issue is known as “the curse of dimensionality”. This curse is even more present when applying the viability theory to uncertain systems. In this case, the viability kernel is the set of states for which there is at least a control strategy to stay in the constraint domain with some probability until the time horizon. The objective of this thesis is to study and develop approaches to beat back the curse of dimensionality. We propose two lines of research: the parallel computing and the use of reliability theory tools. The results are illustrated by several applications. The first line explores the use of parallel computing on graphics card. The version of the program using the graphics card is up to 20 times faster than the sequential version, dealing with problems until dimension 7. In addition to the gains in calculation time, our work shows that the majority of the resources is used to the calculation of transition probabilities. This observation makes the link with the second line of research which proposes an algorithm calculating a stochastic approximation of viability kernels by using reliability methods in order to compute the transition probabilities. The memory space required by this algorithm is a linear function of the number of states of the grid, unlike the memory space required by conventional dynamic programming algorithm which quadratically depends on the number of states. These approaches may enable the use of the viability theory in the case of high-dimension systems. So we applied it to a phosphorus dynamics for the management of Lake Bourget eutrophication, previously calibrated from experimental data. In addition the relationship between reliability and viability is highlighted with an application of stochastic viability kernel computation, otherwise known as reliability kernel, in reliable design in the case of a corroded beam.
49

Conception innovante d’une méthode de fertilisation azotée : Articulation entre diagnostic des usages, ateliers participatifs et modélisation / Innovative design of a method for managing nitrogen fertilization : combining diagnosis of uses with participatory workshops and modeling

Ravier, Clémence 10 February 2017 (has links)
Le raisonnement de la fertilisation azotée du blé a, depuis 40 ans, été largement orienté par le consensus autour de la méthode du bilan, avec comme principes fondamentaux : une nutrition azotée non limitante tout au long du cycle et l’estimation, de manière indépendante, des différents termes de l’équation du bilan pour caractériser la fourniture du sol et les besoins en azote de la plante. Au regard des enjeux de réduction des pollutions environnementales, de l’évolution des exigences qualitative du marché, ainsi que des difficultés de mise en oeuvre de la méthode, on s’interroge sur l’opportunité de renouveler ce paradigme. Pour proposer une nouvelle méthode qui réponde aux divers enjeux concernant l’azote, qui valorise au mieux les connaissances disponibles et dont la mise en oeuvre est cohérente avec les moyens des acteurs, nous avons mis en oeuvre une démarche de conception innovante, structurée en 3 étapes : un diagnostic des usages des outils actuels, une phase de conception, incluant des ateliers de conception et la mise au point de règle de décision à l’aide d’un modèle, et un test d’usage du prototype conçu.Le diagnostic des usages a mis en évidence plusieurs obstacles à la mise en oeuvre de la méthode du bilan, dont la fixation de l’objectif de rendement, ce qui a orienté la phase de conception vers l’exploration d’un concept de méthode de fertilisation azotée permettant de s’en affranchir. La méthode mise au point est basée sur le suivi régulier de l’état de nutrition azotée de la plante, l’acceptation de carences en azote non préjudiciables et des règles de décision tenant compte des conditions météorologiques au moment de l’apport. Nous montrons que la conception a rendu nécessaire la production de nouvelles connaissances, mais aussi la diversification des ressources et des compétences habituellement mobilisées. Ce travail enrichit les méthodes de conception d’outils d’aide à la décision en montrant comment l’articulation des 3 étapes permet de sortir du paradigme qui domine la fertilisation azotée depuis des décennies et d’élaborer un outil palliant les défauts des outils actuels. / Decisions about nitrogen fertilizer application on wheat have, for the last 40 years, been based on the balance sheet method, with the following underlying principles: non-limiting nitrogen nutrition throughout the crop cycle, and independent estimation of the various terms of the equation, to characterize soil nitrogen supply and plant nitrogen needs. Environmental pollution, changes in the qualitative requirements of the market and difficulties implementing this method have raised questions about whether it might be appropriate to switch to new ways of managing nitrogen fertilizer. We developed a new method meeting the diverse constraints relating to nitrogen use, making the best use of available knowledge and easily applicable by users, through a 3-steps innovative design approach: a diagnosis of the use of current tools, a design phase including design workshops, production of new knowledge, a modelbased prototyping, and the testing of a prototype method.The diagnosis of uses identified several barriers to the implementation of the balance sheet method, including the need to set a target yield. This directed the design phase towards the exploration of new ways of managing nitrogen fertilizer that did not require the fixing of a target yield. The method developed is based on the regular monitoring of plant nitrogen nutrition, the toleration of periods of nitrogen deficiency that are not prejudicial and the use of decision rules taking weather conditions at the time of nitrogen application into account.This design required the generation of new knowledge and a diversification of the resources and skills usually mobilized. This work enriches the methods for designing decision support tools and shows how a combination of 3 steps can be used to develop a tool for managing nitrogen fertilizer applications completely different from the dominant paradigm of the last 40 years, and compensating the defects of current methods.
50

Rôle de l'hermine dans les cycles de lemmings du Haut-Arctique

Bolduc, David 18 December 2023 (has links)
Thèse ou mémoire avec insertion d'articles / Prédire l'abondance d'une espèce en un lieu donné représente encore aujourd'hui un défi de taille vu la diversité de facteurs à considérer et ce, à différentes échelles spatiotemporelles. En générant beaucoup de variabilité, autant dans leur abondance que dans les facteurs la régulant, les populations cycliques présentent des systèmes de choix pour étudier la dynamique des populations. Ce mémoire s'intéresse aux interactions prédateurs-proies, en examinant l'influence qu'a un prédateur spécialiste résident, l'hermine (Mustela richardsonii), sur les cycles de populations des lemmings du Haut-Arctique canadien (Lemmus trimucronatus & Dicrostonyx groenlandicus). Au chapitre 1, nous avons reconstitué les niveaux d'abondance de ce prédateur sur près de 30 ans grâce aux témoignages fournis par d'anciens observateurs. Selon nos résultats, les données issues des témoignages sont comparables à celles récoltées systématiquement. Au chapitre 2, en utilisant la série-temporelle d'abondance d'hermine issue du chapitre précédent, nous avons testé l'hypothèse du prédateur spécialistes (HPS) qui suppose un rôle prépondérant de ces prédateurs dans la génération des cycles de micromammifères. Comme prévu par l'HPS, nos résultats montrent que l'abondance d'hermine à l'an t est autant déterminée par les abondances passées (t-1) que présentes (t) de proies. De plus, des analyses saisonnières circonscrivent l'impact négatif de l'hermine sur les lemmings surtout à l'hiver, ce qui indique un rôle potentiel dans les déclins et le maintien à faible abondance des lemmings sur plus d'un an. Nos simulations soulignent aussi l'importance de l'hermine dans la création de phases de faible abondance. En somme, nos résultats montrent que l'hermine est nécessaire, bien qu'insuffisante, pour générer les cycles de 3 à 5 ans observés dans le Haut-Arctique. Ces travaux empiriques délimitent les conditions dans lesquelles les petits mustélidés pourraient influencer les cycles de populations et proposent des mécanismes permettant cette influence. / Predicting the abundance of a species at a given location still represents a sizable challenge given the multiple factors present at different spatiotemporal scales. By generating a lot of variability in their abundance as well as in the factors regulating it, cyclic populations become prime study systems to study population dynamics. This thesis focuses on the role of predator-prey interactions by investigating the influence that a specialist resident predator, the ermine (Mustela richardsoni), has on the population cycles of Canadian High-Arctic lemmings (Lemmus trimucronatus & Dicrostonyx groenlandicus). In the first chapter, we reconstructed the abundance of this predator over nearly 30 years thanks to the testimonials of past observers. Our results show that testimonial-based and systematically collected data are comparable. In chapter 2, using the abundance time-serie of ermine from the previous chapter, we tested the specialist predator hypothesis (SPH) which suppose a predominant role of these predators in generating small mammal cycles. As suggested by the SPH, our result showed that ermine abundance at year t was determined as much by past (t-1) and current (t) prey densities. Moreover, seasonal analysis suggests the negative impact of ermines on lemmings is mostly limited to winter, indicating a potential role in the decline and the maintenance of lemmings to low abundances for more than a year. Our simulations also indicate the importance of ermines in the generation of pluriannual low abundance phases. In sum, our results suggests that ermines are necessary yet insufficient to create the 3- to 5-year cycles observed in the High-Arctic. This empirical work delimits the conditions in which small mustelids may influence population cycles and suggests mechanisms permitting such influence.

Page generated in 0.4358 seconds