Spelling suggestions: "subject:"aux"" "subject:"taux""
551 |
Intégration des mesures intermédiaires de survie dans les évaluations économiques en cancer du sein métastatiqueBeauchemin, Catherine 04 1900 (has links)
De nos jours, il est de plus en plus fréquent de recourir à des mesures intermédiaires d’efficacité telles que la survie sans progression (SSP) et le temps avant la progression de la tumeur (TPT) afin d’estimer l’efficacité d’un nouvel agent anticancéreux. Cependant, l’absence de mesures finales comme la survie globale (SG) complexifie la prise de décision par rapport au remboursement des nouveaux traitements anticancéreux. Ainsi, cette thèse se concentre sur différents aspects de l’intégration des mesures intermédiaires d’efficacité dans les évaluations économiques en oncologie, spécifiquement en cancer du sein métastatique.
Une première étude a évalué la relation entre la SSP/TPT et la SG dans le contexte du cancer du sein métastatique. Une revue systématique de la littérature a identifié les études cliniques randomisées portant sur l’efficacité d’un traitement anticancéreux chez les femmes atteintes d’un cancer du sein métastatique et rapportant des données de SSP/TPT et de SG. Les résultats de cette étude ont démontré qu’il existe une relation statistiquement significative, d’une part, entre la SSP/TPT médiane et la SG médiane (r = 0.428; p ≤ 0,01), et d’autre part, entre l’effet de traitement sur la SSP/TPT et l’effet de traitement sur la SG (r = 0.427; p ≤ 0,01). Selon les résultats obtenus, la SSP/TPT pourrait être considérée comme un substitut valide de la SG, justifiant ainsi son utilisation dans les évaluations économiques en cancer du sein métastatique.
Une deuxième étude a évalué l’utilisation des mesures intermédiaires de survie dans les évaluations économiques en cancer avancé et identifié les méthodes utilisées pour intégrer ces mesures en l’absence de données de SG. Une revue systématique de la littérature a été réalisée pour recenser les évaluations économiques de type coût-efficacité et coût-utilité ayant intégré des mesures intermédiaires de survie. Cette étude a démontré l’ampleur de l’utilisation des mesures intermédiaires de survie dans les évaluations économiques en cancer avancé. Par ailleurs, plusieurs approches ont été identifiées pour pallier l’absence de données de SG, notamment l’utilisation d’un risque de décès post-progression équivalent pour les groupes à l’étude, le recours à des comparaisons indirectes basées sur de nombreuses hypothèses, l’utilisation d’une mesure intermédiaire comme proxy de la SG, le recours à l’opinion d’experts et l’utilisation de données associées à un traitement différent ou une ligne de traitement différente.
Enfin, une troisième étude s’est penchée sur le développement d’un modèle pharmacoéconomique générique canadien intégrant les mesures intermédiaires de survie en cancer du sein métastatique. Ce modèle de Markov inclut des paramètres spécifiques aux traitements sous évaluations (coût de traitement, données de survie et incidence des effets indésirables) de même que des paramètres globaux qui ne dépendent pas des traitements évalués (caractéristiques des patientes, valeurs d’utilité associées aux états de santé du modèle, pertes d’utilité et coûts des effets indésirables, coûts d’administration des traitements, coûts de suivi médical et coûts des soins prodigués en fin de vie). Le modèle a été validé en évaluant sa capacité à répliquer des résultats d’études existantes. Ce modèle permet d’uniformiser l’évaluation économique des nouveaux traitements en cancer du sein métastatique et pourrait par conséquent, devenir un outil d’aide à la décision de référence pour les organismes responsables du remboursement des médicaments au Canada.
Bref, les résultats de ces trois études répondent à une problématique importante dans l’évaluation économique des traitements en oncologie et pourront contribuer à faciliter la prise de décision en santé. / Nowadays, intermediate endpoints such as progression-free survival (PFS) and time to progression (TTP) are frequently used in clinical trials of advanced cancer. However, use of such endpoints instead of overall survival (OS) poses a significant challenge in the economic evaluation of anticancer drugs. This thesis focuses on different aspects of the integration of intermediate endpoints in the economic evaluation of anticancer drugs, especially in the context of metastatic breast cancer.
A first study assessed the relationship between PFS/TPT and OS in metastatic breast cancer using a trial-based approach. A systematic review of the literature was performed to identify randomized clinical trials of metastatic breast cancer therapy reporting both PFS/TTP and OS data. Results of this study indicated a statistically significant relationship between the median PFS/TTP and the median OS (r = 0.428; p < 0.01), and between the treatment effect on PFS/TTP and the treatment effect on OS (r = 0.427; p < 0.01). Findings of this study suggest that PFS/TTP may be considered as a potential surrogate for OS, thus justifying its use in cost-effectiveness or cost-utility analyses of metastatic breast cancer therapy.
A second study evaluated the use of intermediate endpoints in the economic evaluation of new treatments for advanced cancer and the methodological approaches adopted when OS data are unavailable or of limited use. A systematic review of the literature was conducted to identify cost-effectiveness and cost-utility analyses using an intermediate endpoint as an outcome measure. This study showed that intermediate endpoints are widely used in the economic evaluation of new treatments for advanced cancer. Several approaches are used in the absence of OS data such as assuming an equal risk of death for all treatment groups, using indirect comparison based on numerous assumptions, using of a proxy for OS, using unpublished external information (consultation with clinical experts), and using published external information from different treatment settings.
Finally, a third study aimed to develop a global economic model to assess the cost-effectiveness of new treatments for metastatic breast cancer in Canada. This Markov model, which integrates intermediate endpoints, includes parameters specific to the treatments under evaluation (drug treatment, survival outcomes, and incidence of treatment-related adverse events (AEs)), as well as global parameters that are consistent regardless of the treatment under evaluation (patient characteristics, health states utilities, disutilities and costs associated with treatment-related AEs, as well as costs associated with drug administration, medical follow-up, and end-of-life care). The model was validated by assessing its ability to replicate results of existing studies. This model standardizes the economic evaluation of new therapies for metastatic breast cancer, and could thus be used as a benchmark by drug reimbursement authorities in Canada.
In summary, the results of these three studies address an important challenge encountered in the economic evaluation of anticancer drugs, and therefore, can be very valuable for decision-making purposes.
|
552 |
An integrated GIS-based and spatiotemporal analysis of traffic accidents: a case study in SherbrookeHarirforoush, Homayoun January 2017 (has links)
Abstract: Road traffic accidents claim more than 1,500 lives each year in Canada and affect society adversely, so transport authorities must reduce their impact. This is a major concern in Quebec, where the traffic-accident risks increase year by year proportionally to provincial population growth. In reality, the occurrence of traffic crashes is rarely random in space-time; they tend to cluster in specific areas such as intersections, ramps, and work zones. Moreover, weather stands out as an environmental risk factor that affects the crash rate. Therefore, traffic-safety engineers need to accurately identify the location and time of traffic accidents. The occurrence of such accidents actually is determined by some important factors, including traffic volume, weather conditions, and geometric design. This study aimed at identifying hotspot locations based on a historical crash data set and spatiotemporal patterns of traffic accidents with a view to improving road safety. This thesis proposes two new methods for identifying hotspot locations on a road network. The first method could be used to identify and rank hotspot locations in cases in which the value of traffic volume is available, while the second method is useful in cases in which the value of traffic volume is not. These methods were examined with three years of traffic-accident data (2011–2013) in Sherbrooke. The first method proposes a two-step integrated approach for identifying traffic-accident hotspots on a road network. The first step included a spatial-analysis method called network kernel-density estimation. The second step involved a network-screening method using the critical crash rate, which is described in the Highway Safety Manual. Once the traffic-accident density had been estimated using the network kernel-density estimation method, the selected potential hotspot locations were then tested with the critical-crash-rate method. The second method offers an integrated approach to analyzing spatial and temporal (spatiotemporal) patterns of traffic accidents and organizes them according to their level of significance. The spatiotemporal seasonal patterns of traffic accidents were analyzed using the kernel-density estimation; it was then applied as the attribute for a significance test using the local Moran’s I index value. The results of the first method demonstrated that over 90% of hotspot locations in Sherbrooke were located at intersections and in a downtown area with significant conflicts between road users. It also showed that signalized intersections were more dangerous than unsignalized ones; over half (58%) of the hotspot locations were located at four-leg signalized intersections. The results of the second method show that crash patterns varied according to season and during certain time periods. Total seasonal patterns revealed denser trends and patterns during the summer, fall, and winter, then a steady trend and pattern during the spring. Our findings also illustrated that crash patterns that applied accident severity were denser than the results that only involved the observed crash counts. The results clearly show that the proposed methods could assist transport authorities in quickly identifying the most hazardous sites in a road network, prioritizing hotspot locations in a decreasing order more efficiently, and assessing the relationship between traffic accidents and seasons. / Les accidents de la route sont responsables de plus de 1500 décès par année au Canada et ont des effets néfastes sur la société. Aux yeux des autorités en transport, il devient impératif d’en réduire les impacts. Il s’agit d’une préoccupation majeure au Québec depuis que les risques d’accidents augmentent chaque année au rythme de la population. En réalité, les accidents routiers se produisent rarement de façon aléatoire dans l’espace-temps. Ils surviennent généralement à des endroits spécifiques notamment aux intersections, dans les bretelles d’accès, sur les chantiers routiers, etc. De plus, les conditions climatiques associées aux saisons constituent l’un des facteurs environnementaux à risque affectant les taux d’accidents. Par conséquent, il devient impératif pour les ingénieurs en sécurité routière de localiser ces accidents de façon plus précise dans le temps (moment) et dans l’espace (endroit). Cependant, les accidents routiers sont influencés par d’importants facteurs comme le volume de circulation, les conditions climatiques, la géométrie de la route, etc. Le but de cette étude consiste donc à identifier les points chauds au moyen d’un historique des données d’accidents et de leurs répartitions spatiotemporelles en vue d’améliorer la sécurité routière. Cette thèse propose deux nouvelles méthodes permettant d’identifier les points chauds à l’intérieur d’un réseau routier. La première méthode peut être utilisée afin d’identifier et de prioriser les points chauds dans les cas où les données sur le volume de circulation sont disponibles alors que la deuxième méthode est utile dans les cas où ces informations sont absentes. Ces méthodes ont été conçues en utilisant des données d’accidents sur trois ans (2011-2013) survenus à Sherbrooke. La première méthode propose une approche intégrée en deux étapes afin d’identifier les points chauds au sein du réseau routier. La première étape s’appuie sur une méthode d’analyse spatiale connue sous le nom d’estimation par noyau. La deuxième étape repose sur une méthode de balayage du réseau routier en utilisant les taux critiques d’accidents, une démarche éprouvée et décrite dans le manuel de sécurité routière. Lorsque la densité des accidents routiers a été calculée au moyen de l’estimation par noyau, les points chauds potentiels sont ensuite testés à l’aide des taux critiques. La seconde méthode propose une approche intégrée destinée à analyser les distributions spatiales et temporelles des accidents et à les classer selon leur niveau de signification. La répartition des accidents selon les saisons a été analysée à l’aide de l’estimation par noyau, puis ces valeurs ont été assignées comme attributs dans le test de signification de Moran. Les résultats de la première méthode démontrent que plus de 90 % des points chauds à Sherbrooke sont concentrés aux intersections et au centre-ville où les conflits entre les usagers de la route sont élevés. Ils révèlent aussi que les intersections contrôlées sont plus à risque par comparaison aux intersections non contrôlées et que plus de la moitié des points chauds (58 %) sont situés aux intersections à quatre branches (en croix). Les résultats de la deuxième méthode montrent que les distributions d’accidents varient selon les saisons et à certains moments de l’année. Les répartitions saisonnières montrent des tendances à la densification durant l’été, l’automne et l’hiver alors que les distributions sont plus dispersées au cours du printemps. Nos observations indiquent aussi que les répartitions ayant considéré la sévérité des accidents sont plus denses que les résultats ayant recours au simple cumul des accidents. Les résultats démontrent clairement que les méthodes proposées peuvent: premièrement, aider les autorités en transport en identifiant rapidement les sites les plus à risque à l’intérieur du réseau routier; deuxièmement, prioriser les points chauds en ordre décroissant plus efficacement et de manière significative; troisièmement, estimer l’interrelation entre les accidents routiers et les saisons.
|
553 |
Affine and generalized affine models : Theory and applicationsFeunou Kamkui, Bruno January 2009 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
|
554 |
Trois essais en économie des ressources naturellesAtewamba, Calvin 05 1900 (has links)
Cette thèse est composée de trois articles en économie des ressources naturelles non-renouvelables. Nous considérons tour à tour les questions suivantes : le prix in-situ des ressources naturelles non-renouvelables ; le taux d’extraction optimal et le prix des res- sources non-renouvelables et durables.
Dans le premier article, nous estimons le prix in-situ des ressources naturelles non-renouvelables en utilisant les données sur le coût moyen d’extraction pour obtenir une approximation du coût marginal. En utilisant la Méthode des Moments Généralisés, une dynamique du prix de marché derivée des conditions d’optimalité du modèle d’Hotelling est estimée avec des données de panel de 14 ressources naturelles non-renouvelables. Nous trouvons des résultats qui tendent à soutenir le modèle. Premièrement, le modèle d’Hotelling exhibe un bon pouvoir explicatif du prix de marché observé. Deuxièmement, bien que le prix estimé présente un changement structurel dans le temps, ceci semble n’avoir aucun impact significatif sur le pouvoir explicatif du modèle. Troisièmement, on ne peut pas rejeter l’hypothèse que le coût marginal d’extraction puisse être approximé par les données sur le coût moyen. Quatrièmement, le prix in-situ estimé en prenant en compte les changements structurels décroît ou exhibe une forme en U inversé dans le temps et semble être corrélé positivement avec le prix de marché. Cinquièmement, pour neuf des quatorze ressources, la différence entre le prix in-situ estimé avec changements structurels et celui estimé en négligeant les changements structurels est un processus de moyenne nulle.
Dans le deuxième article, nous testons l’existence d’un équilibre dans lequel le taux d’extraction optimal des ressources non-renouvelables est linéaire par rapport au stock de ressource en terre. Tout d’abord, nous considérons un modèle d’Hotelling avec une fonction de demande variant dans le temps caractérisée par une élasticité prix constante et une fonction de coût d’extraction variant dans le temps caractérisée par des élasticités constantes par rapport au taux d’extraction et au stock de ressource. Ensuite, nous mon- trons qu’il existe un équilibre dans lequel le taux d’extraction optimal est proportionnel au stock de ressource si et seulement si le taux d’actualisation et les paramètres des fonctions de demande et de coût d’extraction satisfont une relation bien précise. Enfin, nous utilisons les données de panel de quatorze ressources non-renouvelables pour vérifier empiriquement cette relation. Dans le cas où les paramètres du modèle sont supposés invariants dans le temps, nous trouvons qu’on ne peut rejeter la relation que pour six des quatorze ressources. Cependant, ce résultat change lorsque nous prenons en compte le changement structurel dans le temps des prix des ressources. En fait, dans ce cas nous trouvons que la relation est rejetée pour toutes les quatorze ressources.
Dans le troisième article, nous étudions l’évolution du prix d’une ressource naturelle non-renouvelable dans le cas où cette ressource est durable, c’est-à-dire qu’une fois extraite elle devient un actif productif détenu hors terre. On emprunte à la théorie de la détermination du prix des actifs pour ce faire. Le choix de portefeuille porte alors sur les actifs suivant : un stock de ressource non-renouvelable détenu en terre, qui ne procure aucun service productif ; un stock de ressource détenu hors terre, qui procure un flux de services productifs ; un stock d’un bien composite, qui peut être détenu soit sous forme de capital productif, soit sous forme d’une obligation dont le rendement est donné. Les productivités du secteur de production du bien composite et du secteur de l’extraction de la ressource évoluent de façon stochastique. On montre que la prédiction que l’on peut tirer quant au sentier de prix de la ressource diffère considérablement de celle qui découle de la règle d’Hotelling élémentaire et qu’aucune prédiction non ambiguë quant au comportement du sentier de prix ne peut être obtenue de façon analytique. / This thesis consists of three articles on the economics of nonrenewable natural re- sources. We consider in turn the following questions : the in-situ price of nonrenewable natural resources, the optimal extraction rate and the price of nonrenewable and durable resources.
The purpose of the first article is to estimate the in-situ price of nonrenewable natural resources using average extraction cost data as proxy for marginal cost. Using the regime switching Generalized Method of Moments (GMM) estimation technique, a dynamic of the market price derived from the first-order conditions of a Hotelling model is estimated with panel data for fourteen nonrenewable resources. I find results that tend to support the model. First, it appears that the Hotelling model has a good explanatory power of the observed market prices. Second, although the fitted prices seem to be subject to structural breaks over time, this does not have a significant impact on the explanatory power of the model. Third, there is evidence that marginal extraction cost can be approximated by average extraction cost data. Fourth, when allowing for structural breaks, estimates of the in-situ price decrease or exhibit an inverted U-shape over time and appear to be positively correlated with the market price. Fifth, for nine of the fourteen minerals, the difference between the estimates of the in-situ price with and without allowing for structural breaks is a zero-mean process.
|
555 |
Défauts et diffusion dans le silicium amorpheDiop, Ousseynou 08 1900 (has links)
Nous avons observé une augmentation ‘’transient’’du taux de cristallisation interfacique de l’a-Si lorsqu’on réimplante du Si à proximité de l’interface amorphe/cristal. Après amorphisation et traitement thermique à 650°C pendant 5s de la couche a-Si crée par implantation ionique, une partie a été réimplantée. Les défauts produits par auto-réimplantation à 0.7MeV se trouvent à (302±9) nm de l’interface initiale. Cela nous a permis d’étudier d’avantage la variation initiale de la vitesse SPE (Épitaxie en phase solide). Avec des recuit identiques de 4h à 500°C, nous avons déterminé les positions successives des interfaces et en déduit les taux de cristallisation SPE. La cristallisation débute à l’interface et continue graduellement vers la surface. Après le premier recuit, (252±11) nm s’est recristallisé dans la zone réimplantée soit un avancement SPE de 1.26x10^18at./cm2. Cette valeur est environ 1.50 fois plus importante que celle dans l’état relaxé. Nous suggérons que la présence de défauts à proximité de l’interface a stimulé la vitesse initiale. Avec le nombre de recuit, l’écart entre les vitesses diminue, les deux régions se cristallisent presque à la même vitesse. Les mesures Raman prises avant le SPE et après chaque recuit ont permis de quantifier l’état de relaxation de l’a-Si et le transfert de l’état dé-relaxé à relaxé. / We observed a ‘’transient’’ increase of planar crystallization rate of a-Si when one reimplanted Si near the interface amorphous / crystal. After amorphization and heat treatment at 650°C for 5s, one part has been re-implanted. The defects produced at 0.7 MeV by self-re-implantation are located at (302±9) nm of the initial interface. This allows us to better study the initial variation of SPE speed (solid phase epitaxy). With recrystallisation anneals at 500±4°C for 4h, we have determined the successive positions of the interfaces and have deduced the SPE recrystallization rate. Crystallization began at the interface and continues gradually to the surface. After the first annealing, (252±11)nm was recrystallized in the re-implanted state. That means 1.26x10^18at./cm2 SPE enhancement. This value is approximately 1.50 times greater than that in the relaxed state. We suggest that the presence of defects near the interface stimulate the speed. Raman measurements taken after each annealing allowed us to know the transfer of the un-relaxed state to the relaxed state. After the number of anneals treatments, both areas progress almost at the same speed / Dans ce travail nous avons étudié le phénomène de diffusion du cuivre et de l’argent dans a-Si en présence de l’hydrogène à la température de la pièce et de recuit. Une couche amorphe de 0.9μm d’épaisseur a été produite par implantation de 28Si+ à 500 keV sur le c-Si (100). Après celle-ci, on procède à l’implantation du Cu et de l’Ag. Un traitement thermique a produit une distribution uniforme des impuretés dans la couche amorphe et la relaxation de défauts substantiels. Certains défauts dans a-Si sont de type lacune peuvent agir comme des pièges pour la mobilité du Cu et de l’Ag. L’hydrogène implanté après traitement thermique sert à dé-piéger les impuretés métalliques dans certaines conditions. Nous n’avons détecté aucune diffusion à la température de la pièce au bout d’un an, par contre un an après à la température de recuit (1h à 450°C) on observe la diffusion de ces métaux. Ce qui impliquerait qu’à la température de la pièce, même si l’hydrogène a dé-piégé les métaux mais ces derniers n’ont pas pu franchir une barrière d’énergie nécessaire pour migrer dans le réseau. / In this work we studied the diffusion phenomenon of copper and silver in a-Si in the presence of hydrogen at room temperature and annealing temperature. The 0.9 μm -thick a-Si layers were formed by ion implantation 28Si + at 500 keV on c-Si (100). After this Cu ions and Ag ions were implanted at 90keV.The heat treatment produces a uniform distribution of impurities in the amorphous layer and the relaxation of substantial defects. Vacancies defects in a-Si can act as traps for the mobility of Cu and Ag. Hydrogen implanted is used to de-trap metal impurities such as Cu and Ag. However we did not detect any diffusion at room temperature during 1 year, but after one year at the annealing temperature (450°C for 1h) we observe the distribution of these metals. Implying that the room at temperature, although the hydrogen de-trapping metals but they could not crossed an energy barrier required to migrate in the network.
|
556 |
L'effet de la disponibilité des armes à feu sur le taux d'homicide au Canada de 1974 à 2006Reeves-Latour, Maxime 12 1900 (has links)
L’effet de la disponibilité des AAF sur le taux d’homicide est un sujet qui n’a jamais su faire consensus au sein du corpus scientifique. En tenant compte des réalités canadiennes relatives à l’utilisation d’une arme à feu dans les homicides, la présente étude évaluera la relation entre la disponibilité des armes à feu et le taux d’homicide au Canada, par le biais de séries chronologiques simples et multiples. Les données utilisées dans le cadre de la recherche proviennent de l’Enquête sur l’homicide effectuée par Statistiques Canada, du programme de la déclaration uniforme de la criminalité (DUC), des catalogues Juristats et des catalogues produits par Statistiques Canada sur les causes de décès au pays. Globalement, des relations positives et significatives sont observées entre les deux
phénomènes au temps t. Au temps t-1 et t-2, des relations négatives sont observées entre la disponibilité des armes à feu et le taux d’homicide, tandis que des relations positives sont constatées entre le taux d’homicides et la disponibilité des armes à feu. Les résultats confirment que le taux d’homicide et la disponibilité des armes à
feu sont des phénomènes qui s’influencent mutuellement dans le temps. En raison du niveau d’agrégation des données, il n’est pas possible de départager l’influence respective des deux phénomènes. Les résultats soutiennent toutefois davantage les thèses de l’autoprotection et de l’autodéfense. Enfin, les résultats montrent l’importance de développer des indices de disponibilité propres aux deux types d’armes à feu impliqués dans les homicides au Canada. / The debate surrounding the effects of gun availability on homicide rates have continuously been going on between scholars for the last decades. Relying on the Canadian context regarding the use of a firearm in homicides, this study evaluates the
relationship between gun availability and homicide rates in Canada using pooled-time series analyses. Data used in this study comes from Statistics Canada’s Homicide Survey, the Uniform Crime Report Survey (UCR), Juristat’s catalogues and from catalogues produced by Statistics Canada on the causes of death in the country. Globally, results show positive and significant relationships between the two phenomena over time. Analyses at time t-1 and t-2 allow us to, on one hand notice negative and significant relationships between homicide rates and gun availability. One the other hand,positive and significant relationships were found between gun availability and homicide rates. Analyses suggest that there is a reciprocal relationship between homicide ratesand gun availability in Canada for the period under study. Additional studies using different aggregation levels are needed to pinpoint the specific effects of gun availability and homicide rates on each other. However, the present results tend to give greater support the selfprotection
and defensive gun use hypotheses. Results also underline the importance of developing distinct proxies to capture the relationships between the availability of specific
firearms and particular homicide rates in Canada
|
557 |
Réponse métabolique du saumon Atlantique (Salmo salar) aux fluctuations journalières de température : rôles de la température d’acclimatation et de l’historique thermiqueOligny-Hébert, Hélène 12 1900 (has links)
En général, le métabolisme des poissons est estimé à des valeurs de température constantes, mais les effets de fluctuations journalières de température similaires à celles retrouvées en milieu naturel semblent peu connus.
Les objectifs du présent mémoire sont de quantifier les effets de la température moyenne d’acclimatation et d’évaluer les effets de l’historique thermique des individus, sur les réponses métaboliques de tacons de saumon Atlantique (Salmo salar) aux fluctuations journalières de la température. Des tacons provenant de deux rivières, une fraîche et une chaude, ont été acclimatés à un maximum de quatre régimes thermiques (constant 15 °C ou 20 °C, fluctuant 15 °C ± 2.5 °C ou 20 °C ± 2.5 °C) et leur taux métabolique standard estimés par respirométrie par débit-intermittent.
Les fluctuations journalières de température (15 °C ± 2.5 °C) près de l’optimum thermique pour cette espèce (16 °C) n’affectent pas le taux métabolique standard. À l’opposé, les fluctuations journalières de température plus chaudes (20 °C ± 2.5 °C) augmentent de 35.4% le taux métabolique standard des tacons de la rivière plus chaude, mais pas ceux des poissons de la rivière fraîche. Ainsi, la température moyenne à laquelle sont acclimatés les poissons peut affecter leur réponse métabolique aux fluctuations journalières de température, mais cette réponse peut varier entre populations provenant de rivières présentant des régimes thermiques différents.
Enfin, grâce aux données de métabolisme précédemment estimées, un modèle de métabolisme standard a été développé pour des tacons de saumon Atlantique soumis à des fluctuations journalières de température. / Usually, fish metabolism is evaluated under constant values of temperature, but the effects of daily temperature fluctuations similar to those found in natural environment on metabolism seems to be much less understood.
The goals of this study are to quantify the effects of the mean acclimation temperature and to assess the effects of the thermal history on the metabolic response of Atlantic salmon (Salmo salar) parr to daily fluctuations of water temperature. Atlantic salmon parr originating from two rivers, one cool and one relatively warm, were acclimated to up to four thermal regimes (constant 15 °C or 20 °C, daily fluctuating 15 °C ± 2.5 °C or 20 °C ± 2.5 °C) and their standard metabolic rate was estimated using intermittent-flow respirometry.
Daily temperature fluctuations (15 °C ± 2.5 °C) near this species’ thermal optimum (16 °C) do not influence standard metabolic rate. In contrast, daily fluctuations of higher temperature (20 °C ± 2.5 °C) do increase standard metabolic rate by 35.4% for fish from the warmer river, but not for fish from the cooler river. Therefore, the mean temperature to which fish are acclimated may affect their responses to daily fluctuations of water temperature, but this response may vary between populations originating from rivers having different thermal regimes.
Using standard metabolic rates previously estimated, a standard metabolic rate model was developed for Atlantic salmon parr exposed to daily fluctuations of temperature.
|
558 |
The relationship between markers of risk-taking tendecies and the first year driving records of young driversHirsch, Pierro January 2005 (has links)
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
|
559 |
Sur un modèle d'érythropoïèse comportant un taux de mortalité dynamiquePaquin-Lefebvre, Frédéric 01 1900 (has links)
Ce mémoire concerne la modélisation mathématique de l’érythropoïèse, à savoir le processus de production des érythrocytes (ou globules rouges) et sa régulation par l’érythropoïétine, une hormone de contrôle. Nous proposons une extension d’un modèle d’érythropoïèse tenant compte du vieillissement des cellules matures. D’abord, nous considérons un modèle structuré en maturité avec condition limite mouvante, dont la dynamique est capturée par des équations d’advection. Biologiquement, la condition limite mouvante signifie que la durée de vie maximale varie afin qu’il y ait toujours un flux constant de cellules éliminées. Par la suite, des hypothèses sur la biologie sont introduites pour simplifier ce modèle et le ramener à un système de trois équations différentielles à retard pour la population totale, la concentration d’hormones ainsi que la durée de vie maximale. Un système alternatif composé de deux équations avec deux retards constants est obtenu en supposant que la durée de vie maximale soit fixe. Enfin, un nouveau modèle est introduit, lequel comporte un taux de mortalité augmentant exponentiellement en fonction du niveau de maturité des érythrocytes. Une analyse de stabilité linéaire permet de détecter des bifurcations de Hopf simple et double émergeant des variations du gain dans la boucle de feedback et de paramètres associés à la fonction de survie. Des simulations numériques suggèrent aussi une perte de stabilité causée par des interactions entre deux modes linéaires et l’existence d’un tore de dimension deux dans l’espace de phase autour de la solution stationnaire. / This thesis addresses erythropoiesis mathematical modeling, which is the process of erythrocytes production and its regulation by erythropeitin. We propose an erythropoiesis model extension which includes aging of mature cells. First, we consider an age-structured model with moving boundary condition, whose dynamics are represented by advection equations. Biologically, the moving boundary condition means that the maximal lifespan varies to account for a constant degraded cells flux. Then, hypotheses are introduced to simplify and transform the model into a system of three delay differential equations for the total population, the hormone concentration and the maximal lifespan. An alternative model composed of two equations with two constant delays is obtained by supposing that the maximal lifespan is constant. Finally, a new model is introduced, which includes an exponential death rate depending on erythrocytes maturity level. A linear stability analysis allows to detect simple and double Hopf bifurcations emerging from variations of the gain in the feedback loop and from parameters associated to the survival function. Numerical simulations also suggest a loss of stability caused by interactions between two linear modes and the existence of a two dimensional torus in the phase space close to the stationary solution.
|
560 |
A theoretical and experimental dissociation of two models of decision‐makingCarland, Matthew A. 08 1900 (has links)
La prise de décision est un processus computationnel fondamental dans de nombreux aspects du comportement animal. Le modèle le plus souvent rencontré dans les études portant sur la prise de décision est appelé modèle de diffusion. Depuis longtemps, il explique une grande variété de données comportementales et neurophysiologiques dans ce domaine. Cependant, un autre modèle, le modèle d’urgence, explique tout aussi bien ces mêmes données et ce de façon parcimonieuse et davantage encrée sur la théorie. Dans ce travail, nous aborderons tout d’abord les origines et le développement du modèle de diffusion et nous verrons comment il a été établi en tant que cadre de travail pour l’interprétation de la plupart des données expérimentales liées à la prise de décision. Ce faisant, nous relèveront ses points forts afin de le comparer ensuite de manière objective et rigoureuse à des modèles alternatifs. Nous réexaminerons un nombre d’assomptions implicites et explicites faites par ce modèle et nous mettrons alors l’accent sur certains de ses défauts. Cette analyse servira de cadre à notre introduction et notre discussion du modèle d’urgence. Enfin, nous présenterons une expérience dont la méthodologie permet de dissocier les deux modèles, et dont les résultats illustrent les limites empiriques et théoriques du modèle de diffusion et démontrent en revanche clairement la validité du modèle d'urgence. Nous terminerons en discutant l'apport potentiel du modèle d'urgence pour l'étude de certaines pathologies cérébrales, en mettant l'accent sur de nouvelles perspectives de recherche. / Decision‐making is a computational process of fundamental importance to many aspects of animal behavior. The prevailing model in the experimental study of decision‐making is the drift‐diffusion model, which has a long history and accounts for a broad range of behavioral and neurophysiological data. However, an alternative model – called the urgency‐gating model – has been offered which can account equally well for much of the same data in a more parsimonious and theoretically‐sound manner. In what follows, we will first trace the origins and development of the DDM, as well as give a brief overview of the manner in which it has supplied an explanatory framework for a large number of behavioral and physiological studies in the domain of decision‐making. In so doing, we will attempt to build a strong and clear case for its strengths so that it can be fairly and rigorously compared to potential alternative models. We will then re‐examine a number of the implicit and explicit theoretical assumptions made by the drift‐diffusion model, as well as highlight some of its empirical shortcomings. This analysis will serve as the contextual backdrop for our introduction and discussion of the urgency‐gating model. Finally, we present a novel experiment, the methodological design of which uniquely affords a decisive empirical dissociation of the models, the results of which illustrate the empirical and theoretical shortcomings of the drift‐diffusion model and instead offer clear support for the urgency‐gating model. We finish by discussing the potential for the urgency gating model to shed light on a number of clinical disorders, highlighting a number of future directions for research.
|
Page generated in 0.0337 seconds