• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3023
  • 1273
  • 267
  • 3
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 4495
  • 1283
  • 888
  • 763
  • 731
  • 541
  • 497
  • 479
  • 475
  • 456
  • 343
  • 342
  • 315
  • 307
  • 306
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Vers une meilleure modélisation de l'évapotranspiration (ET) sous des conditions environnementales diversifiées

Hajji, Islem 27 January 2024 (has links)
Le processus d'évapotranspiration (ET) est l'une des composantes les plus significatives du cycle de l'eau de la Terre. C'est le plus important consommateur d'énergie, créant le lien entre les cycles de l'eau et de l'énergie. La maîtrise de ce processus est donc indispensable pour mieux appréhender les mécanismes complexes régissant les interactions entre le sol et l'atmosphère en terme de transfert de masse et de chaleur. Compte tenu de son intérêt majeur dans un éventail de disciplines, l'étude d'un tel processus a fait l'objet de plusieurs travaux scientifiques ces dernières années. Ceci a conduit au développement d'une grande variété de méthodes ayant pour objectif de quantifier l'ET et ses principales composantes, comme par exemple l'évaporation et la transpiration. Néanmoins, malgré l'effort scientifique, l'estimation précise de l'ET reste limitée par un certain nombre de problèmes non résolus. Certains de ces problèmes sont liées à la variabilité de l'ET dans l'espace et dans le temps, ainsi que selon les climats et les biomes. D'autres problèmes sont liés au paramétrage et à l'étalonnage des modèles ET proposés et au nombre important des données nécessaires pour exécuter ces modèles. Afin de pallier les difficultés des modèles ET existants, un nouveau modèle, dit modèle MEP (Maximum Entropy Production), a été récemment développé en se basant sur la thermodynamique hors-équilibre et la théorie des probabilités bayésiennes. Ce modèle offre une alternative intéressante pour estimer efficacement l'ET et les flux de chaleur de surface en utilisant moins de variables d'entrée que les modèles existants, tout en respectant la fermeture du bilan énergétique de surface. Il existe trois versions de ce modèle permettant d'estimer séparément l'évaporation, la transpiration et la sublimation. Cependant, jusqu'à présent, les capacités de ce modèle n'ont été évalués que sur des sites et conditions climatiques relativement simples et homogènes. Son applicabilité sur des sites complexes présentant des climats et couvertures végétales variés n'a pas été étudiée. Dans ce contexte, le présent projet de thèse vise à investiguer les capacités du modèle MEP à simuler correctement l'ET pour une large gamme de climats et de couvertures végétales et d'apporter les améliorations nécessaires en cas d'insatisfaction. Pour atteindre ses objectifs, ce travail est divisé en deux parties.La première partie du travail s'est intéressée à l'investigation du modèle MEP dans des conditions climatiques et végétales complexes en l'absence des effets de neige. Pour ce faire, un couplage entre les deux versions du modèle MEP utilisés pour estimer l'évaporation du sol et la transpiration de la végétation a été développé. Le modèle couplé obtenu, désigné par MEP-ET par la suite, repose sur l'introduction d'un coefficient de pondération caractérisant la proportion de la surface végétalisée par rapport à la surface totale du site étudié. Ainsi, l'ET totale dans les sites partiellement végétalisés est calculée comme la somme pondérée de l'évaporation du sol et de la transpiration de la végétation. Pour étudier les performances du modèle MEP-ET, celui-ci a été appliqué sur huit sites FLUXNET sur le continent américain présentant différentes conditions climatiques et végétales. La comparaison entre les estimations obtenues et les observations in situ de l'ET montre la grande aptitude du modèle MEP-ET à estimer l'ET dans les sites caractérisés par une présence abondante à modérément limitée d'eau. Dans les sites caractérisés par des conditions de stress hydrique élevé, les estimations obtenues sont loin d'être réalistes. Ceci est dû au fait que la version originale du modèle MEP-ET ne prend pas en compte les effets du stress hydrique du sol sur les stomates. Pour sur monter ce problème, un nouveau paramètre de régulation permettant de reproduire correctement ces effets a été introduit. L'ajout de ce paramètre a considérablement réduit les biais de la version originale du modèle MEP-ET, notamment dans les conditions de stress hydrique. Le modèle MEP-ET généralisé, impliquant le paramètre de régularisation, se montre beaucoup plus performant que d'autres modèles classiquement utilisés pour estimer l'ET, comme le modèle dePenman–Monteith (PM), la version modifiée de la méthode Priestley–Taylor–Jet (PT-JPL) et le modèle modèle à deux sources basé sur l'humidité relative de l'air (ARTS) dans tous les sites testés. La deuxième partie de ce travail s'est intéressée à la prise en compte des effets de neige sur l'estimation de l'ET pour permettre la simulation des flux de vapeur d'eau de surface (chaleur latente) sur l'ensemble du cycle de vie du manteau neigeux, notamment l'accumulation de neige et la fonte au début de la saison de croissance. Pour ce faire, le modèle MEP-ET généralisé,qui a été proposé dans le première partie du travail, a été couplé avec la version du modèle MEP simulant la sublimation de la neige pour prendre en compte l'effet de la perte d'eau de la neige dans l'atmosphère pendant le cycle de vie du manteau neigeux sur l'ET. Deux hypothèses basées sur des observations pluriannuelles de plusieurs sites on été utilisées pour développer ce couplage : (1) la sublimation devient négligeable pendant la fonte lorsque le manteau neigeux est isotherme (0°C) et (2) la transpiration est progressivement activée en fonction de la température de l'air au réveil de la végétation. L'approche de couplage proposée s'avère efficace pour modéliser les flux de vapeur d'eau de surface totaux au cours du cycle de vie du manteau neigeux. / The process of evapotranspiration (ET) is one of the most significant components of the earth water cycle. It is the most important consumer of energy, creating the link between the cycles of water and energy of the Earth. Therefore, control of this process is essential to better understand the complex mechanisms governing the interactions between the soil and the atmosphere in terms of mass and heat transfer. Given its major interest in various disciplines,the study of such a process has been the subject of several scientific works in recent years.This has led to the development of a wide variety of methods for quantification of ET and its main components, such as evaporation and transpiration. Nevertheless, despite the scientific effort, precise ET estimation remains limited by a number of unresolved problems. Some of these problems are related to the variability of ET in space and time, as well as in climate sand biomes. Other problems are related to the setting and calibration of the proposed ET models and the important number of data needed to run them.To overcome difficulties related to existing ET approaches, a new model, called the Maximum Entropy Production (MEP) model, was recently developed based on out-of-equilibrium thermodynamics and Bayesian probability theory. This model offers an interesting alternative to efficiently estimate ET and the surface heat fluxes, using fewer input variables than the existing models, while respecting the closure of the surface energy balance. There are three MEP versions used to separately estimate evaporation, transpiration and sublimation. However, until now, the capabilities of this model have only been evaluated in relatively simple and homogeneous sites and climatic conditions. Its applicability on complex sites with varied climates and plant covers has not been studied. In this context, the present project aims to investigate the capabilities of the MEP model to accurately predict ET in a wide range of climates and plant covers and to propose improvements in order to enhance such capabilities if necessary. To achieve its objectives, this work is divided into two parts.The first part of the work has focused on the investigation of the MEP model under complex climatic and plant conditions in the absence of snow effects. To this end, a coupling between the two versions of the MEP model used to estimate soil evaporation and vegetation transpiration has been developed. The obtained coupling model, which is referenced to in the followingas MEP-ET model, is based on the introduction of a weighting coefficient characterizing the proportion of the vegetated surface with respect to the total surface of the studied site. Using this model, total ET in partially vegetated sites is calculated as the weighted sum of soil evaporation and vegetation transpiration. To study the performance of the MEP-ET model,it has been applied to eight FLUXNET sites, with different climatic and plant conditions, in the American continent. The comparison between the obtained estimates and the in-situ observations of the ET shows the great ability of the MEP-ET model to estimate the ET in sites characterized by an abundant to moderately limited presence of water. In sites characterizedby conditions of high water stress, the estimates obtained are far from being realistic. This is because the original version of the MEP-ET model does not take into account the effects of soil moisture stress on stomata. To overcome this problem, a new regulation parameter has been introduced to correctly reproduce these effects. The addition of this parameter has significantly minimized biases of the original version of the MEP-ET model, especially underwater stress conditions. The generalized MEP-ET model, involving the regulation parameter,is much more efficient than other models conventionally used to estimate ET at all test sites, such as the Penman–Monteith (PM), modified Priestley–Taylor–Jet Propulsion Laboratory(PT-JPL), and air-relative-humidity-based two-source model (ARTS).The second part of this work has focused on the inclusion of snow effects on the ET estimationin order to allow for simulation of the surface water vapor fluxes (latent heat) over the entire snowpack cycle, including snow accumulation and snow melting at the beginning of the growing season. To do this, the generalized MEP-ET model proposed in the first part of the work has been coupled with the MEP version for snow to consider effects of water loss in the atmosphere during the snowpack life cycle on the ET. Two hypotheses based on multi-year observations of several sites have been used to develop this coupling: (1) effects of sublimation are negligible during melting when the snowpack is isothermal (0°C) and (2) effects of transpiration are progressively activated according to the air temperature when the vegetation awakes. The proposed coupling approach is shown to be very effective in modeling the total surface watervapor fluxes during the snowpack life cycle.
32

Modèles conjoints multi-états avec données longitudinales de comptage

Sylla, Magatte 24 October 2024 (has links)
Dans le domaine de l'assurance, les entreprises utilisent souvent des techniques de modélisation prédictive pour anticiper le moment où un client est susceptible de résilier sa police. Cependant, un client peut subir une succession d'événements sur l'évolution de ses polices d'assurance avec, par exemple, l'acquisition d'une police automobile, suivie d'une police habitation, ou quitter l'entreprise, c'est-à-dire annuler ses contrats de polices d'assurance. Ainsi, au lieu de l'apparition d'un seul événement, la progression du client pourrait être définie comme un processus multi-états en mettant l'accent sur les transitions entre les états et la modélisation du nombre d'interactions entre le client et la compagnie sur celles-ci. Dans ce contexte, nous présentons un modèle conjoint pour une variable longitudinale et un processus multi-états qui est divisé en deux sous-modèles : un sous-modèle linéaire généralisé mixte pour une variable longitudinale de comptage et un sous-modèle multi-états avec des risques proportionnels pour les temps de transition, tous deux liés par des effets aléatoires partagés. Les paramètres de ce modèle conjoint multi-états sont estimés avec une approche bayésienne. Elle est mise en œuvre sous R à l'aide des packages msm, survival et JMbayes2. Des outils graphiques de diagnostic ont été proposés pour évaluer la convergence des estimations obtenues. Grâce aux covariables classiques disponibles dans les données d'une compagnie d'assurance, nous sommes en mesure d'étudier l'évolution du nombre d'interactions trimestriel, de définir les risques de transition entre les états de police d'assurance et de quantifier l'impact de la dynamique du nombre d'interactions sur chaque intensité de transition. / In the insurance industry, companies often use predictive modeling techniques to anticipate when a customer is likely to cancel their policy. However, a customer may experience a succession of events on the evolution of their insurance policies, with, for example, the acquisition of a car policy, followed by a home policy, or leaving the company, i.e. canceling their insurance policies. Thus, instead of the occurrence of a single event, the customer's progression could be defined as a multi-state process, focusing on the transitions between states and the impact of the dynamics of the number of interactions between the customer and the company on these. In this context, we present a joint model for a longitudinal variable and a multi-state process that is divided into two sub-models: a mixed generalized linear sub-model for a longitudinal counting variable and a multi-state sub-model with proportional risks for transition times, both linked by shared random effects. The parameters of this joint multi-state model are estimated using a Bayesian approach. It is implemented in R using the msm, survival and JMbayes2 packages. Graphical diagnostic tools have been proposed to assess the convergence of the estimates obtained. Thanks to the classical covariates available in the data of an insurance company, we are able to study the evolution of the quarterly number of interactions, to define the transition risks between insurance policy states and to quantify the impact of the dynamics of the number of interactions on each transition intensity.
33

Incessant transitions between active and silent states in cortico-thalamic circuits and altered neuronal excitability lead to epilepsy

Nita, Dragos Alexandru 13 April 2018 (has links)
La ligne directrice de nos expériences a été l'hypothèse que l'apparition et/ou la persistance des fluctuations de longue durée entre les états silencieux et actifs dans les réseaux néocorticaux et une excitabilité neuronale modifiée sont les facteurs principaux de l'épileptogenèse, menant aux crises d’épilepsie avec expression comportementale. Nous avons testé cette hypothèse dans deux modèles expérimentaux différents. La déafférentation corticale chronique a essayé de répliquer la déafférentation physiologique du neocortex observée pendant le sommeil à ondes lentes. Dans ces conditions, caractérisées par une diminution de la pression synaptique et par une incidence augmentée de périodes silencieuses dans le système cortico-thalamique, le processus de plasticité homéostatique augmente l’excitabilité neuronale. Par conséquent, le cortex a oscillé entre des périodes actives et silencieuses et, également, a développé des activités hyper-synchrones, s'étendant de l’hyperexcitabilité cellulaire à l'épileptogenèse focale et à des crises épileptiques généralisées. Le modèle de stimulation sous-liminale chronique (« kindling ») du cortex cérébral a été employé afin d'imposer au réseau cortical une charge synaptique supérieure à celle existante pendant les états actifs naturels - état de veille ou sommeil paradoxal (REM). Dans ces conditions un mécanisme différent de plasticité qui s’est exprimé dans le système thalamo-corticale a imposé pour des longues périodes de temps des oscillations continuelles entre les époques actives et silencieuses, que nous avons appelées des activités paroxysmiques persistantes. Indépendamment du mécanisme sous-jacent de l'épileptogenèse les crises d’épilepsie ont montré certaines caractéristiques similaires : une altération dans l’excitabilité neuronale mise en évidence par une incidence accrue des décharges neuronales de type bouffée, une tendance constante vers la généralisation, une propagation de plus en plus rapide, une synchronie augmentée au cours du temps, et une modulation par les états de vigilance (facilitation pendant le sommeil à ondes lentes et barrage pendant le sommeil REM). Les états silencieux, hyper-polarisés, de neurones corticaux favorisent l'apparition des bouffées de potentiels d’action en réponse aux événements synaptiques, et l'influence post-synaptique d'une bouffée de potentiels d’action est beaucoup plus importante par rapport à l’impacte d’un seul potentiel d’action. Nous avons également apporté des évidences que les neurones néocorticaux de type FRB sont capables à répondre avec des bouffées de potentiels d’action pendant les phases hyper-polarisées de l'oscillation lente, propriété qui peut jouer un rôle très important dans l’analyse de l’information dans le cerveau normal et dans l'épileptogenèse. Finalement, nous avons rapporté un troisième mécanisme de plasticité dans les réseaux corticaux après les crises d’épilepsie - une diminution d’amplitude des potentiels post-synaptiques excitatrices évoquées par la stimulation corticale après les crises - qui peut être un des facteurs responsables des déficits comportementaux observés chez les patients épileptiques. Nous concluons que la transition incessante entre des états actifs et silencieux dans les circuits cortico-thalamiques induits par disfacilitation (sommeil à ondes lentes), déafférentation corticale (épisodes ictales à 4-Hz) ou par une stimulation sous-liminale chronique (activités paroxysmiques persistantes) crée des circonstances favorables pour le développement de l'épileptogenèse. En plus, l'augmentation de l’incidence des bouffées de potentiels d’actions induisant une excitation post-synaptique anormalement forte, change l'équilibre entre l'excitation et l'inhibition vers une supra-excitation menant a l’apparition des crises d’épilepsie. / The guiding line in our experiments was the hypothesis that the occurrence and / or the persistence of long-lasting fluctuations between silent and active states in the neocortical networks, together with a modified neuronal excitability are the key factors of epileptogenesis, leading to behavioral seizures. We addressed this hypothesis in two different experimental models. The chronic cortical deafferentation replicated the physiological deafferentation of the neocortex observed during slow-wave sleep (SWS). Under these conditions of decreased synaptic input and increased incidence of silent periods in the corticothalamic system the process of homeostatic plasticity up-regulated cortical cellular and network mechanisms and leaded to an increased excitability. Therefore, the deafferented cortex was able to oscillate between active and silent epochs for long periods of time and, furthermore, to develop highly synchronized activities, ranging from cellular hyperexcitability to focal epileptogenesis and generalized seizures. The kindling model was used in order to impose to the cortical network a synaptic drive superior to the one naturally occurring during the active states - wake or rapid eye movements (REM) sleep. Under these conditions a different plasticity mechanism occurring in the thalamo-cortical system imposed long-lasting oscillatory pattern between active and silent epochs, which we called outlasting activities. Independently of the mechanism of epileptogenesis seizures showed some analogous characteristics: alteration of the neuronal firing pattern with increased bursts probability, a constant tendency toward generalization, faster propagation and increased synchrony over the time, and modulation by the state of vigilance (overt during SWS and completely abolished during REM sleep). Silent, hyperpolarized, states of cortical neurons favor the induction of burst firing in response to depolarizing inputs, and the postsynaptic influence of a burst is much stronger as compared to a single spike. Furthermore, we brought evidences that a particular type of neocortical neurons - fast rhythmic bursting (FRB) class - is capable to consistently respond with bursts during the hyperpolarized phase of the slow oscillation, fact that may play a very important role in both normal brain processing and in epileptogenesis. Finally, we reported a third plastic mechanism in the cortical network following seizures - a decreasing amplitude of cortically evoked excitatory post-synaptic potentials (EPSP) following seizures - which may be one of the factors responsible for the behavioral deficits observed in patients with epilepsy. We conclude that incessant transitions between active and silent states in cortico-thalamic circuits induced either by disfacilitation (sleep), cortical deafferentation (4-Hz ictal episodes) and by kindling (outlasting activities) create favorable circumstances for epileptogenesis. The increase in burst-firing, which further induce abnormally strong postsynaptic excitation, shifts the balance of excitation and inhibition toward overexcitation leading to the onset of seizures.
34

Designing a method to estimate the quality of airborne LiDAR-derived DTM

Pashaei, Zahra 23 October 2023 (has links)
Le balayage lidar aéroporté permet la production de modèles numériques de terrain (MNT) précis et à haute résolution. Cette thèse fait partie d'un projet où le DTM est utilisé pour évaluer la hauteur d'eau en crue et estimer le risque qu'elle atteigne les ouvertures inférieures des bâtiments. Ce travail est fait pour aider les décideurs à évaluer les dommages causés par les inondations. Cependant, le DTM est souvent présenté sans estimation de sa précision. La comparaison avec la vérité terrain est une approche courante pour estimer la qualité du DTM. Alors que la fiabilité d'une telle approche dépend de divers facteurs dont la taille de l'échantillon, l'accessibilité sur le terrain, la distribution et une assez grande diversité de vérité terrain, ce qui a un coût et est quelque peu irréalisable à l'échelle de la province de Québec. Par conséquent, l'objectif principal de cette recherche est de concevoir une méthode qui pourrait fournir une estimation locale de l'erreur sans aucune dépendance à des ensembles de données tiers. À cet égard, nous profitons du krigeage géostatistique comme estimateur alternatif de la qualité. Le défi de considérer une variation constante dans l'espace nous amène à proposer une méthode non stationnaire qui aboutit à l'estimation locale de l'erreur d'élévation du MNT. La performance de la méthode présentée a été validée par la comparaison avec l'évaluation de la vérité terrain. Les résultats ont révélé que notre méthode est fiable dans les zones urbaines et semi-urbaines, en particulier dans les zones agricoles et résidentielles sauf dans les forêts qui sont dues à leur plus faible densité. / Airborne lidar scanning allows the production of accurate and high-resolution digital terrain models (DTM). This thesis is part of a project where the DTM is used to assess the water height in flood and estimate the risk it reaches the lower openings in buildings. This work is done to support decision-makers in estimating damages caused by floods. However, DTM is often presented without an estimation of its accuracy. Comparison with ground truth is a common approach to estimating the quality of DTM. Whereas the reliability of such an approach depends on various factors including sample size, accessibility on the field, distribution, and a large enough diversity of ground truth, which comes at a cost and is somewhat unfeasible in the scale of Quebec province. Therefore, the main objective of this research is to design a method that could provide a local estimation of error without any dependency on third-party datasets. In this regard, we take advantage of geostatistical kriging as an alternative quality estimator. The challenge of considering constant variation across the space brings us to propose a non-stationary method that results in the local estimation of DTM elevation error. The performance of the presented method was validated with the comparison with ground truth assessment. The results revealed that our method is reliable in urban and semi-urban areas, especially in farmland and residential areas except in forests which are due to their lowest density.
35

Développement mathématique et modélisation théorique de métasurfaces

Bouillon, Christopher 17 April 2024 (has links)
Thèse ou mémoire avec insertion d'articles / Depuis la seconde moitié du XXe siècle, de nouveaux matériaux photoniques ont graduellement fait leur apparition dans la recherche fondamentale et industrielle, et ce, à l'échelle internationale. Les métasurfaces, l'équivalent bidimensionnel des métamatériaux et composées d'éléments artificiels de taille sous-longueur d'onde, ont révolutionné notre façon de manipuler la lumière en offrant un contrôle sans précédent sur son amplitude, sa phase et sa polarisation. Effectivement, le simple fait de pouvoir concevoir une surface artificielle qui peut plier l'onde électromagnétique aux désirs de son concepteur ouvre la porte à de nouveaux paradigmes optiques. Réfraction négative, cape d'invisibilité et miniaturisation sans précédent en sont de bons exemples. Bien évidemment, il n'y a qu'un pas entre un concept si novateur et ses applications potentielles. Le fait que ces méta-atomes (les nanostructures posées sur le substrat et qui composent la métasurface) doivent être individuellement analysés avec l'aide de simulations par éléments finis (FDTD) rend la conception et surtout l'optimisation de ces métasurfaces très difficiles. C'est pourquoi les modèles semi-analytiques sont si pertinents. Ces modèles permettent de reproduire avec suffisament de précision les résultats de ces longues simulations en une fraction du temps, souvent de plusieurs ordres de grandeurs inférieurs. La difficulté de ce genre de modélisation est que pour y arriver, plusieurs théories doivent être combinées afin de prendre en compte le plus de facteurs qui sont analysés par les simulations par éléments finis, qui reprennent sommairement les équations de Maxwell sur l'ensemble de la surface sous analyse. De plus, dépendamment du type de nanostructure (de sa forme, de sa taille, du matériau qui la compose), un modèle peut être mathématiquement adéquat et précis pour un méta-atome et être incorrect pour une autre forme. Cependant, si un modèle est validé pour une nanostructure précise, on peut s'en servir pour simuler très rapidement les différentes propriétés optiques qu'une métasurface composée de cette nanostructure aurait si elle était soumise à différents cas d'illumination. Finalement, si plusieurs modèles sont pertinents et validés, le fait de pouvoir les mélanger ouvre la porte à une grande liberté de conception pour un ingénieur qui souhaiterait concevoir une métasurface composée de différents méta-atomes, en permettant un processus d'optimisation itératif par exemple. / Since the second half of the 20th century, new photonic materials have gradually emerged in fundamental and industrial research on an international scale. Metasurfaces, the two-dimensional counterparts of metamaterials, composed of artificial elements with sizes below the wavelength, have revolutionized the way we manipulate light, offering unprecedented control over its amplitude, phase, and polarization. Indeed, the mere ability to design an artificial surface capable of bending electromagnetic waves to the designer's desires opens the door to new optical paradigms. Negative refraction, invisibility cloaks, and unprecedented miniaturization are among the most notable examples. Undoubtedly, there is more than just a step between such innovative concepts and their potential applications. The fact that these meta-atoms (nanostructures placed on the substrate and composing the metasurface) need to be individually analyzed using finite-difference time-domain simulations (FDTD) makes the design and, more importantly, the optimization of these metasurfaces very challenging. This is where semi-analytical models become highly relevant. These models allow reproducing the results of these lengthy simulations with sufficient accuracy in a fraction of the time, often several orders of magnitude faster. The difficulty in this type of modeling lies in the need to combine multiple theories to account for the numerous factors analyzed by finite-difference time-domain simulations, which, in summary, apply Maxwell's equations to the entire surface under analysis. Additionally, depending on the type of nanostructure (its shape, size, and the material it is composed of), a model that is mathematically adequate and accurate for one meta-atom may be incorrect for another form. However, once a model is validated for a specific nanostructure, it can be used to rapidly simulate the different optical properties that a metasurface composed of this nanostructure would exhibit under various illumination scenarios. Ultimately, if multiple models are relevant and validated, the ability to mix them opens the door to significant design freedom for an engineer wishing to create a metasurface composed of different meta-atoms. In this thesis, we will explore the key concepts of semi-analytical modeling of metasurfaces, emphasizing the advantages they offer in design and optimization. Our research aims to accelerate the development of these innovative structures, unlocking new possibilities for advanced and functional optical devices.
36

Pollinators : demanding partners : Investigating the interplay between plant-pollinator interactions and plant traits evolution / Les pollinisateurs : des partenaires contraignants : interactions plantes-pollinisateurs et évolution des traits chez les plantes

Lepers, Clotilde 10 December 2015 (has links)
La grande majorité des plantes à fleurs se reproduisent grâce à leurs pollinisateurs. L’évolution chez les plantes est pourtant souvent étudiée sans prendre en compte ces interactions, et cette thèse vise à mieux comprendre leur impact sur l’évolution des plantes. Dans un premier chapitre, je présenterai les effets connus des pollinisateurs sur le taux d’autofécondation des plantes et sur son évolution. Dans un second chapitre, j’ai modélisé l’évolution du taux d’autofécondation des plantes lorsque celui-ci affecte la démographie des plantes et des pollinisateurs, et l’investissement des plantes dans la pollinisation. Cette étude montre que l’évolution vers l’autofécondation peut mener à l’extinction des plantes. Dans un troisième chapitre, je m’intéresserai à l’évolution des caractéristiques florales pour des espèces qui dépendent obligatoirement du transfert de pollen entre individus : les espèces dioïques. Cette étude montre que l’attractivité des plantes peut évoluer différemment chez les individus mâles et femelles, surtout dans les grandes populations qui subissent peu de limitation en pollen. Ce résultat suggère que le dimorphisme sexuel ne menacerait pas le maintien des populations dioïques. Enfin, même si elles prennent en compte les pollinisateurs de manière sommaire, les études précédentes ont montré leur importance pour la démographie et l’évolution chez les plantes. La dernière étude de cette thèse a donc pour but de mieux décrire et quantifier les mécanismes sous-jacents au comportement du pollinisateur, en particulier concernant l’impact des traits floraux. Elle permettra une meilleure intégration des interactions plantes-pollinisateurs dans les modèles. / The mode of pollination is often neglected regarding the evolution of plant traits, although the reproduction of most flowering plants is based on their interactions with pollinators. This thesis aims at a better understanding of the interplay between animal-pollination and the evolution of plant traits. First, I will present a detailed review on the interplay between plant mating system and pollinator behavior, which highlights the impact of pollinators on the immediate ecological selfing rate and on its evolution. Second, I modeled the evolution of plant selfing rate when it affects both the demography of plants and pollinators and the investment of plants in pollination. This study provides new theoretical evidence that evolution towards selfing can lead to an evolutionary suicide in some conditions. Third, I will present a modeling analysis of the impact of animal-pollination for species that compulsorily rely on outcross pollination: entomophilous dioecious species. This study revealed that under pollinator-mediated selection, attractiveness of males and females should evolve in large populations that do not suffer from pollen limitation. This result suggests that dimorphism may not be a threat for dioecious populations. Finally, although the previous models integrated pollinators in a basic way, they highlighted strong interplays between pollinators, plant demography, and the evolution of plant traits. The last study of this thesis, aims at defining and quantifying the mechanisms underlying pollinator foraging behavior, and especially the impact of plants floral traits on pollen transfer. This would allow for a better modeling of plant-pollinators interactions.
37

Estimation et sélection en classification semi-supervisée / Estimation and selection in semi-supervised classification

Vandewalle, Vincent 09 December 2009 (has links)
Le sujet de cette thèse est la classification semi-supervisée qui est considérée d'un point de vue décisionnel. Nous nous intéressons à la question de choix de modèles dans ce contexte où les modèles sont estimés en utilisant conjointement des données étiquetées et des données non étiquetées plus nombreuses. Nous concentrons notre recherche sur les modèles génératifs où la classification semi-supervisée s'envisage sans difficulté, contrairement au cadre prédictif qui nécessite des hypothèses supplémentaires peu naturelles. Après avoir dressé un état de l'art de la classification semi-supervisée, nous décrivons l'estimation des paramètres d'un modèle de classification à l'aide de données étiquetées et non étiquetées par l'algorithme EM. Nos contributions sur la sélection de modèles font l'objet des deux chapitres suivants. Au chapitre 3, nous présentons un test statistique où les données non étiquetées sont utilisées pour mettre à l'épreuve le modèle utilisé. Au chapitre 4 nous présentons un critère de sélection de modèles AICcond, dérivé du critère AIC d'un point de vue prédictif. Nous prouvons la convergence asymptotique de ce critère particulièrement bien adapté au contexte semi-supervisé et ses bonnes performances pratiques comparé à la validation croisée et à d'autres critères de vraisemblance pénalisée.Une deuxième partie de la thèse, sans rapport direct avec le contexte semi-supervisé, présente des modèles multinomiaux pour la classification sur variables qualitatives. Nous avons conçu ces modèles pour répondre à des limitations des modèles multinomiaux parcimonieux proposés dans le logiciel MIXMOD. À cette occasion, nous proposons un critère type BIC qui prend en compte de manière spécifique la complexité de ces modèles multinomiaux contraints. / The subject of this thesis is the semi-supervised classification which is considered in decision-making perpective. We are interested in model choice issue in when models are estimated using both labeled data and many unlabeled data. We focus our research on generative models for which the semi-supervised classification is considered without difficulty, unlike predictive framework that requires additional unnatural assumptions. Having developed a state of the art of semi-supervised classification, we describe the estimation of parameters of a classification model using labeled data and unlabeled data by the EM algorithm. Our contributions on models selection closely watched in the two following chapters. In Chapter 3, we present a statistical test where unlabeled data are used to test the model. In Chapter 4 we present a model selection criterion, AICcond, derived from the AIC criterion in a predictive point of view. We prove the asymptotic convergence of this test particularly well suited to semi-supervised setting and his good practical performance compared to the cross-validation and other penalized likelihood criteria.A second part of the thesis, not directly connected with the semi-supervised setting, the multinomial models for classification of qualitative variables are considered. We designed these models to address the limitations of parsimonious multinomial models proposed in the program MIXMOD. For this setting, we propose a BIC-type criterion which takes into account specifically the complexity of the constrained multinomial models.
38

Analyse de données catégorielles dans un plan croisé 2x2

Traoré, Issouf January 1996 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
39

A mathematical model of Alzheimer's disease

Moravveji, Seyedadel 25 March 2024 (has links)
Titre de l'écran-titre (visionné le 7 août 2023) / L'objet de cette thèse est l'étude de différents modèles mathématiques décrivant le vieillissement du cerveau et l'évolution de la maladie d'Alzheimer. Je porte un regard critique sur les différents modèles publiés et j'en développe un nouveau qui corrige les lacunes des modèles existant. Il n'existe pour l'instant aucun traitement efficace pour les patients atteints de la maladie d'Alzheimer. De plus, étant donné le vieillissement de la population et la perte d'autonomie des personnes atteintes, les coûts humains et sociaux de cette maladie sont dramatiques et ne cessent d'augmenter. Les causes et les mécanismes biologiques impliqués dans le développement de cette maladie sont nombreux et semblent interagir de manière non linéaire. Les recherches se concentrant sur une cause ou un facteur unique n'ont pas donné les résultats escomptés. Pour ces raisons, les modèles mathématiques peuvent nous aider à comprendre l'impact des différents facteurs impliqués et de tester in silico l'impact de différentes stratégies thérapeutiques. Dans un premier temps, j'ai effectué une revue systématique des différents articles publiés contenant des modèles mathématiques décrivant le développement de la maladie d'Alzheimer, ce qui constitue le chapitre 1 de cette thèse. Les modèles utilisent pour la plupart des systèmes d'équations différentielles ordinaires(EDOs) et/ou des systèmes d'équations aux dérivées partielles (EDPs). Dans le chapitre 2, je présente les outils mathématiques nécessaires pour résoudre ces modèles. Il existe de nombreuses recettes numériques pour résoudre des systèmes d'EDOs ou d'EDPs. Étant donné les différentes échelles de temps impliquées dans la développement de la maladie d'Azheimer, le système résultant d'ÉDOs peut être délicat à résoudre numériquement. Je discute des méthodes adaptées à la résolution de notre problème. Au chapitre 3, je donne une introduction à l'analyse de sensibilité. L'analyse de sensibilité est importante pour plusieurs raisons que ce soit pour quantifier l'incertitude ou pour l'identification de paramètres critiques. Du point de de vue mathématique, il existe plusieurs outils pour calculer les sensibilités et le choix de la méthode dépend du contexte. Dans ce chapitre, je discute de l'importance d'effectuer des analyses de sensibilité et je présente les méthodes les plus appropriées pour notre cas. Au chapitre 4, je présente en détail le modèle développé par Hao et Friedman. Ce modèle comporte un système de 18 EDOs. Je discute des forces et des faiblesses de ce modèle et en particulier des facteurs qui rendent les résultats impossibles à reproduire. Je développe finalement une version améliorée de ce modèle avec une description plus réaliste des différents facteurs impliqués dans le développement de la maladie d'Alzheimer. / The main objective of this thesis is to study different mathematical models describing brain aging and the progression of Alzheimer's disease (AD). I critically review different published papers with mathematical models of AD and I develop a new one improving upon existing works. There exists no efficient treatment to help patients suffering from AD. Given the worldwide population aging and the loss of autonomy caused by AD, the human and social economical costs of AD are staggering and keep increasing. The causes and mechanisms involved in the development of AD are numerous and seem to interact in a nonlinear fashion. Research focusing on a single factor has not yielded the expected results. Given all this, mathematical modeling can be a useful tool to help us understand how the different elements of interest interact with each other and play a role in AD progression. Mathematical models can also be used to test in silico different potential therapeutic strategies. I first performed a scoping review of different published papers describing mathematical models of AD on set and progression. This corresponds to chapter 1 of this thesis. For the most part, mathematical models use either systems of ordinary differential equations (ODEs) or systems of partial differential equations (PDEs). In chapter 2, I present and discuss the different mathematical tools needed to solve these models. There exist numerous numerical recipes to solve systems of ODEs or PDEs. Given the different temporal scales implied in AD, the resulting ODE system can be delicate to handle numerically. I discuss numerical methods which are well-suited to the resolution of our particular problem. In chapter 3, I give an introduction to sensitivity analysis and present different methods with which one can assess which parameters or factors have a significant impact on the prediction of the models. Sensitivity analysis is important for many reasons, be it to quantify uncertainty or to identify critical parameters. From a mathematical point of view, several tools exist to compute sensitivities and the choice of a particular technique depends on the context and objectives. I discuss the importance of sensitivity analysis and present different algorithms with which one can perform this analysis. I discuss which methods are the most appropriate for our specific problem. In chapter 4, I present in detail the model developed by Hao and Friedman. This model has 18 ODEs. I discuss the strengths and weaknesses of this model and in particular the reasons making the results of Hao and Friedman impossible to reproduce. Finally, I develop an improved version of this model with a more realistic description of the different factors involved in the onset and progression of AD.
40

Évaluer l'évolution du régime hydrique à partir d'une configuration alternative de la chaîne de modélisation hydroclimatique dans un contexte de rareté des observations.

Ricard, Simon 17 April 2024 (has links)
Une configuration alternative de la chaîne de modélisation hydroclimatique est proposée contournant la rareté des observations météorologiques nécessaires au post-traitement statistique des simulations climatiques ainsi qu’au calage du modèle hydrologique. Cette configuration propose de calibrer les fonctions de transfert nécessaires au post-traitement statistique conjointement aux paramètres du modèle hydrologique et repose sur l’hypothèse que les variations de débits observées à l’exutoire d’un bassin versant constituent un proxy valable des forçages climatiques correspondant. Cette configuration repose également sur la notion de « fonction-objectif asynchrone », c’est-à-dire un critère d’erreur négligeant volontairement la corrélation entre deux variables. Parce qu’elles sont largement dépendantes des observations disponibles, les configurations conventionnelles de la chaîne de modélisation hydroclimatique sont généralement limitées au déploiement des champs précipitations et températures. Elles sont conséquemment limitées à l’usage de formulations empiriques pour évaluer les processus hydrologiques à l’échelle du bassin versant. Par la mise en place de la configuration alternative, les champs humidité de l’air, rayonnement solaire et vitesse du vent sont intégrés à une chaîne complète de modélisation hydroclimatique, permettant la construction de projections hydrologiques à partir de la formulation physique d’évapotranspiration de référence de Penman-Montheith. Les projections ainsi produites sont comparées à celles issues d’une configuration conventionnelle employant des réanalyses comme substituts aux observations. Les deux configurations sont mises en place sur le bassin versant de la rivière Du Loup, un bassin forestier de taille intermédiaire localisé dans la Vallée du Saint-Laurent, à partir des simulations issues de l’ensemble climatique CRCM5-LE et du modèle hydrologique distribué à base physique WaSiM-ETH. L’analyse des projections hydrologiques produites démontrent la capacité de la configuration alternative à produire une réponse hydrologique cohérente, généralement plus robuste que celle produite par une configuration conventionnelle. Cette dernière s’avère sensible aux biais inscrits à même les réanalyses, affectant le post-traitement des séries simulées et l’identification des paramètres calibrés. Sur la période historique, la formulation de Penman-Montheith offre une représentation plus cohérente des fluctuations d’évapotranspiration comparativement à une formulation empirique basée exclusivement sur la température de l’air. La projection de l’évapotranspiration, des teneurs en eau dans le sol ainsi que des étiages estivaux se sont avérée sensibles aux choix de la formulation d’évapotranspiration. La configuration alternative proposée répond d’abord à une incohérence structurelle inscrite dans les configurations conventionnelles de la chaîne de modélisation hydroclimatique. Elle permet également le déploiement d’une modélisation hydroclimatique à base physique cohérente pour des régions où les observations météorologiques sont rares tel que les régions montagneuses ou septentrionales, ou bien en voie de développement.

Page generated in 0.0435 seconds