• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 37
  • 20
  • 2
  • Tagged with
  • 57
  • 24
  • 16
  • 15
  • 10
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Le recours au mode de preuve scientifique dans le contentieux constitutionnel des droits et libertés : recherche comparée sur les méthodes des juges américain et canadien / The use of scientific evidence in constitutional rights cases : research on the methods of the American and the Canadian judges

Michel, Audrey 10 March 2017 (has links)
En 1908, les juges de la Cour Suprême des États-Unis citent pour la première fois des études en médecine, en sociologie et en psychologie afin de valider la constitutionnalité d’une loi. Depuis, le recours aux preuves scientifiques s’est largement développé et il a pris une place dans le travail du juge aux États-Unis et au Canada. La preuve scientifique se présente comme un outil d’information essentiel pour le juge dans le contentieux constitutionnel des droits et libertés. Elle permet ainsi de décrire les réalités sociales et les aspects techniques qui intéressent directement la résolution des questions constitutionnelles. Au delà de son rôle d'information, son recours s’inscrit dans une logique de concrétisation de l’analyse constitutionnelle. Plus précisément, les critères du contrôle de constitutionnalité impliquent des questions de faits que la preuve scientifique pourra démontrer. En prenant ainsi un tout autre rôle, le recours aux preuves scientifiques questionne sur la nature du contrôle de constitutionnalité et sur les méthodes du juge. Malgré l’intérêt des juges américain et canadien pour ce mode de preuve, leur statut et leur régime juridique dans le contentieux constitutionnel demeurent indéterminés. Ces incertitudes touchent tant des questions de procédure que des questions de fond sur leur rôle dans l’analyse constitutionnelle et dans le raisonnement du juge. Dès lors, la recherche d'un cadre méthodologique a semblé nécessaire. Ce modèle permet de revaloriser l’apport des preuves scientifiques dans le contentieux constitutionnel et il contribue à la protection des droits et libertés. Il présente, alors, un intérêt pour l'ensemble juges constitutionnels / In 1908, the U.S. Supreme Court Justices made several citations of medical, sociology andpsychology studies for the first time. Since then, the use of scientific evidence has expanded and it became an important part of the work of the Supreme Court of the U.S. as well as the Supreme Court of Canada. Scientific evidence is an essential tool to inform judges in constitutional rights cases. It gives information on social realities and technical questions which are directly relevant to resolve questions of law. However, the use of scientific evidence is more than a medium of information. Indeed, it implies an interest for facts that go beyond the parties. Constitutional doctrine itself implies empirical questions that could find answers in scientific evidence. By determining those facts, scientific evidence becomes a part of the constitutional doctrineitself. Consequently, the use of scientific evidence interrogates on the nature of judicial review and on the judge’s methods. Thought judges in the U.S. and in Canada frequently cite scientific evidence, their use is mostly unregulated and indeterminate. The uncertainties surrounding the use of scientific evidence concern procedural questions as well as questions regarding their role in decisionmaking. Those questions must be answered. Once resolved, we research a methodological framework in which scientific evidence could be used consistently by American and Canadian judges. This approach is essential to reassert the value of scientific evidence in constitutionalrights cases and to improve constitutional rights protection. Finally, this framework might be relevant for judges beyond the United States and Canada
32

Using Semi-Empirical Models For Predicting The Luminescence –Structure Relationships in Near-UV Excited Phosphors Activated with Divalent Europium or Mercury-like Cations / Utilisation de modèles semi-empiriques pour prédire les relations luminescence-structure dans les luminophores excités aux UV proches activés avec de l'europium divalent ou des cations de type mercure

Amer, Mariam 13 December 2017 (has links)
La stratégie la plus utilisée aujourd'hui pour la conception de nouveaux matériaux luminescents est basée sur des méthodes d'essais-erreurs. Cependant, ces méthodes peuvent souvent entraîner une consommation d'argent et de temps. En ce sens, un modèle théorique agissant comme un outil prédictif peut servir comme une stratégie alternative. De tels modèles sont également étudiés et utilisés par des scientifiques du monde entier, mais ils sont pour la plupart difficiles à utiliser. Dans ce travail, deux modèles semi-empiriques conviviaux et faciles à utiliser ont été proposés pour la conception de luminophores intégrés dans le développement de technologies importantes, en particulier dans les éclairages à base de LED et les cellules solaires. Ces modèles sont: 1) le modèle de facteur environnemental (EF) basé sur la théorie diélectrique de la liaison chimique proposée par Philips et 2) le modèle de transfert de charge métal-métal (MMCT) utilisées pour trouver des relations entre les propriétés structurelles d'un matériau et sa luminescence. Le modèle EF a été appliqué à la famille des composés AIBIIPO4 (AI = cation monovalent, BII = cation divalent) dopés à Eu2+. Il était capable d'estimer l'énergie du bord d'excitation et d'identifier les sites de dopage à ± 1000 cm-1. Il peut donc être utilisé pour la conception de nouveaux luminophores appartenant à cette famille. Dans la deuxième partie, les deux modèles ont été utilisés pour identifier la nature de la luminescence dans les oxydes dopés à Bi3+. A cet effet, une méthode combinant les modèles motionnés avec les valeurs de Stokes shift a été trouvé fiable. En outre, la a été jugée utile pour expliquer la modification des propriétés luminescentes de YVO4:Bi3+ sous haute pression. Dans la troisième partie, les deux modèles ont été utilisés pour explorer la luminescence des oxydes dopés à Sb3+ par analogie avec Bi3+. Cependant, les résultats n'étaient pas assez bons pour identifier la nature de la luminescence dans ces matériaux. La raison pourrait être liée à la position décentrée du dopant (Sb3+). / The most used strategy for the design of new luminescent materials today is based on trial-error methods. However, these methods may often result in consummation of money and time. In this sense, a theoretical model acting as a predictive tool can serve as an alternative strategy. Such models are also studied and used by scientists around the world but they are mostly difficult to use. In this work, two friendly and easy to use semi-empirical theoretical models were proposed as a criterion for designing phosphors integrated in the development of important technologies especially in LED-based lightings and solar cells. These models are: 1) the environmental factor model (EF) based on the dielectric theory of chemical bonding proposed by Philips and 2) the metal to metal charge transfer (MMCT) model by Boutinaud that were both used for the purpose of finding relationships between the structural properties of a material and its luminescence. The EF model was applied on the family of AIBIIPO4 (AI= monovalent cation, BII= divalent cation) compounds doped with Eu2+. It was able to estimate the excitation edge energy and to identify the doping sites within uncertainty of ± 1000 cm-1. It can therefore, be used for the design of new phosphors belonging to this family. In a second part, both models were used to identify the nature of luminescence in Bi3+-doped oxides. For this purpose, a method combining the mentioned models along with the values of the Stokes shift was found reliable. In addition, the method was found useful to explain the change in luminescent properties of YVO4:Bi3+ under high pressure. In the third part, the two models were used to explore the luminescence of Sb3+-doped oxides by analogy with Bi3+. However, the results were not good enough to identify the nature of luminescence in these materials. The reason could be related to the off-centered position of the dopant (Sb3+).
33

Contribution à l'étude des dispositifs de guides lumineux tubulaires (D.G.L.T.) appliqués au bâtiment : expérimentation, modélisation et validation / Contribution to the study of Tubular Daylight Guidance Systems (TDGS) : experimentation, Modelling and Validation

Malet-Damour, Bruno 07 December 2015 (has links)
Concevoir un bâtiment avec des préoccupations de confort et de maitrise de l'énergie est un enjeu primordial. Dans le contexte mondial alarmant, tant sur le plan énergétique que climatique, le secteur du bâtiment est pointé du doigt. En France, l'éclairage fait partie des mauvais élèves comparés aux autres pays européens. Le pays accuse un certain retard dans la qualité de l'éclairage tertiaire ou résidentiel en termes de performance énergétique, confort visuel ou santé au travail. L'organisation de « 2015, Année de la Lumière en France » par l'ONU, l'UNESCO et le CNOP montre qu'un changement tend à s'opérer dans les consciences. L'île de La Réunion, compte tenu de son fort gisement solaire, est une terre de choix pour expérimenter des dispositifs novateurs dans l'apport de lumière naturelle au sein des bâtiments. Pour cela, l'approche physique du phénomène offre des perspectives de prédiction où l'étude théorique d'aujourd’hui fera le bâtiment de demain. En débutant par une approche généraliste, ce manuscrit de thèse se veut être le plus exhaustif possible dans l'étude bibliographique, expérimentale et modélisation du comportement des DGLT-R (Dispositifs de Guides Lumineux Tubulaires Réfléchissants) appliqués au bâtiment. Notre prospection bibliographique nous a révélé que ce procédé est couramment commercialisé et installé à l'échelle internationale sur les bâtiments soucieux de leur impact environnemental ou du bien-être de leurs occupants. Cependant, la littérature montre également qu'ils sont peu étudiés et que les approches ne peuvent être appliquées à tous types de climats. Dans ce cadre, une étude expérimentale à échelle réelle, comprenant de nombreux scénarios, a été menée en vue de créer une base de données de mesures expérimentales unique et comprendre les phénomènes mis en jeu. La modélisation semi-empirique possède à la fois des atouts et des inconvénients. Forte de simplicité, elle reste toutefois limitée à une configuration ou un climat particulier. À cette problématique, ces travaux de recherche offrent une solution : un outil numérique de modélisation dédié, assurant la génération des modèles au départ de mesures à effectuer, nommé HEMERA. Il utilise la puissance des algorithmes génétiques pour offrir une solution efficace à un problème local. Le code de calcul CODYRUN est le support de validation du modèle généré pour le climat de La Réunion. Ce code de calcul bénéficie d'une expérience et d'un développement de plus de 20 ans au sein du laboratoire PIMENT. / Designing a building with comfort and energy conservation concerns is a key issue. In the alarming global context, both on energy-climate that the building sector is singled out. In France, the lighting is among the poor performers compared to other European countries. The country lags behind in quality tertiary or residential lighting in terms of energy performance, visual comfort or health. The organization of "2015, Année de la Lumière en France" by the ONU, UNESCO and the CNOP shows a change which tends to take place in the popular consciousness. Reunion Island, considering its strong solar radiation, is a land of choice to experiment with innovative devices in the contribution of daylight in buildings. For this purpose, the physical approach of the phenomenon provides prediction prospects, where the theoretical study of today will be tomorrow's building. Starting with a generalist approach, this PhD thesis aims to be as comprehensive as possible in the literature review, experimental and modelling study of the TDGS (Tubular Daylight Guide Systems) applied to the building. Our bibliographic survey has revealed that, this process is commonly marketed and installed internationally on the buildings concerned about their environmental impact or well-being of their occupants. However, the literature also shows they are poorly studied, and the approaches cannot be applied to all types of climates. In this context, a full-scale experimental study, including many scenarios was conducted to understand the phenomena involved.The semi-empirical modelling has both strengths and weaknesses. With simplicity, it remains limited to a configuration or a particular climate. In this issue, this research offers a solution: a numeric tool of dedicated modelling environment, ensuring the generation of the models according to need, called HEMERA. It uses the power of genetic algorithms to provide an effective solution to a local problem. The computer code CODYRUN is the support of the validation of the model developed as part of this work, and adjusted specifically for the climate of Reunion Island. This software profits an experience and a development of over 20 years in the PIMENT laboratory.
34

Prédiction des mouvements sismiques forts : apport de l’analyse du comportement non-linéaire des sols et de l’approche des fonctions de Green empiriques / Empirical prediction of seismic strong ground motion : contributions to the nonlinear soil behavior analysis and the Empirical Green's function approach

Castro Cruz, David Alejandro 12 December 2018 (has links)
L'évaluation de l’aléa sismique doit tenir compte des différents aspects qui interviennent dans le processus sismique et qui affectent le mouvement du sol en surface. Ces aspects peuvent être classés en trois grandes catégories : 1) les effets de source liés au processus de rupture et à la libération d'énergie sur la faille. 2) les effets liés à la propagation de l'énergie sismique à l'intérieur de la Terre. 3) l'influence des caractéristiques géotechniques des couches peu profondes ; appelé effet de site. Les effets de site sont pris en compte dans la mitigation des risques par l'évaluation de la réponse sismique du sol. Lors de sollicitations cycliques, le sol présente un comportement non-linéaire, ce qui signifie que la réponse dépendra non seulement des paramètres du sol mais aussi des caractéristiques du mouvement sismique (amplitude, contenu en fréquence, durée, etc.). Pour estimer la réponse non-linéaire du site, la pratique habituelle consiste à utiliser des simulations numériques avec une analyse linéaire équivalente ou une approche non-linéaire complète. Dans ce document, nous étudions l'influence du comportement non-linéaire du sol sur la réponse du site sismique en analysant les enregistrements sismiques des configurations des réseaux de forages. Nous utilisons les données du réseau Kiban Kyoshin (KiK-Net). Les 688 sites sont tous équipés de deux accéléromètres à trois composantes, l'un situé à la surface et l'autre en profondeur. À partir de ces données, nous calculons les amplifications du mouvement du sol depuis la surface jusqu'aux enregistrements en fond de puit à l'aide des rapports spectraux de Fourier. Une comparaison entre le rapport spectral pour le faible et le fort mouvement du sol est alors réalisée. Le principal effet du comportement non-linéaire du sol sur la fonction de transfert du site est un déplacement de l'amplification vers les basses fréquences. Nous proposons une nouvelle méthodologie et un nouveau paramètre appelé fsp pour quantifier ces changements et étudier les effets non-linéaires. Ces travaux permettent d'établir une relation site-dépendante entre le paramètre fsp et le paramètre d'intensité du mouvement du sol. La méthode est testée sur les données accélérométriques du séisme de Kumamoto (Mw 7.1, 2016). Nous proposons ensuite d’utiliser des corrélations entre moment seismic et la duration de la faille (Courboulex et al., 2016), obtenues à partir d’une base de données globale de fonctions source et une méthode basée sur l’approche des fonctions de Green empiriques (EGF) stochastiques pour simuler les mouvements forts du sol dus à un futur séisme. Cette méthodologie est appliquée à la simulation d’un séisme de subduction en Équateur et comparée aux données réelles du séisme de Pedernales (Mw 7.8, 16 avril 2016) dans la ville de Quito. Nous proposons enfin de combiner la méthode de simulation de mouvements forts par EGF et la prise en compte des effets non-linéaires proposée dans les premiers chapitres. La méthode est testée sur les données accélérométriques d’une réplique du séisme de Tohoku (Mw 7.9). / Seismic hazard assessments must consider different aspects that are involved in an earthquake process and affect the surface ground motion. Those aspects can be classified into three main kinds. 1) the source effects are related to the rupture process and the release of energy. 2) the path effects related to the propagation of energy inside Earth. 3) the influence of the shallow layers geotechnical characteristics; the so-called site-effects. The site effects are considered in risk mitigation through the evaluation of the seismic soil response. Under cyclic solicitations the soil shows a non-linear behavior, meaning that the response will not only depend on soil parameters but also on seismic motion input characteristics (amplitude, frequency content, duration, …). To estimate the non-linear site response, the usual practice is to use numerical simulations with equivalent linear analysis or truly non-linear time domain approach. In this document, we study the influence of the nonlinear soil behavior on the seismic site response by analyzing the earthquake recordings from borehole array configurations. We use the Kiban Kyoshin network (KiK-Net) data. All 688 sites are instrumented with two 3-components accelerometers, one located at the surface and the another at depth. From these data, we compute the ground motion amplifications from the surface to downhole recordings by the computing Fourier spectral ratios for the aim to compare between the spectral ratio for weak and strong ground motion. The main effect of the non-linear behavior of the soil on the site transfer function is a shift of the amplification towards lower frequencies. We propose a new methodology to quantify those changes and study the nonlinear effects. This work results in a site-dependent relationship between the changes in the site response and the intensity parameter of the ground motion. The method is tested analyzing the records of the earthquake of Kumamoto (Mw 7.1, 2016). Posteriorly, we propose to integrate a correlation between seismic moment and the duration of the fault (Courboulex et al., 2016) in the empirical Green’s function method. This methodology was applied to simulate one seduction event in Equator, and we compare the results with the records of the Pedernales earthquake (Mw 7.8, 2016) in the city of Quito. We attempt to take in account the nonlinear effects in the empirical Green’s function method. We use the methodologies of the first part of this document based on the frequency shift parameter. The procedure could be implemented in other methodologies that can predict an earthquake at a rock reference site, such as the stochastic methods. We test the procedure using the accelerometric records for one of the aftershocks o the Tôhoku earthquake (Mw 7.9).
35

Comportement microscopique de particules en interaction : gaz de Coulomb, Riesz et log-gases / Microscopic behavior of interacting particles : Coulomb, Riesz and log-gases

Leblé, Thomas 05 February 2016 (has links)
Cette thèse est consacrée à l’étude de systèmes de particules modélisant des particules chargées en interaction, ou les valeurs propres de matrices aléatoires. On s’intéresse aux gaz de particules avec interaction logarithmique en dimension 1 et 2, et aux interactions de Coulomb/Riesz en dimension générale. On étudie leur comportement microscopique à travers un principe de grandes déviations satisfait par la loi des champs empiriques et gouverné par une fonctionnelle d’énergie libre qui met en évidence la dépendance en la température. Parmi les minimiseurs de cette énergie libre, on compte les processus ponctuels Sine-beta définis dans le contexte des matrices aléatoires. On démontre la convergence vers un processus de Poisson à haute température et, en dimension 1, on prouve la cristallisation du système dans la limite de basse température. Dans le cas des interactions logarithmiques en dimension 2, on montre une loi locale qui contrôle les fluctuations à toute échelle mésoscopique. On traite aussi le cas du gaz de Coulomb 2D avec des charges de signes opposés. / This thesis is devoted to the study of statistical physics systems which can represent charged interacting particles or eigenvalues of random matrices. We are interested in particle gases with logarithmic interaction in dimension 1 and 2 and with Coulomb/Riesz interactions in general dimension. We study the microscopic behavior by establishing a large deviation principle for the law of the empirical fields, governed by a free energy functional in which the temperature dependence appears. Minimizers of this free energy include the Sine-beta point processes defined in random matrix theory. We show the convergence to a Poisson point process at high temperature and in dimension 1 we prove crystallization in the zero temperature limit. For two-dimensional log-gases we establish a local law which bounds the fluctuations at any mesoscopic scale. We also treat the case of a 2D Coulomb gas with charges of opposite sign.
36

Régression linéaire et apprentissage : contributions aux méthodes de régularisation et d’agrégation / Linear regression and learning : contributions to regularization and aggregation methods

Deswarte, Raphaël 27 September 2018 (has links)
Cette thèse aborde le sujet de la régression linéaire dans différents cadres, liés notamment à l’apprentissage. Les deux premiers chapitres présentent le contexte des travaux, leurs apports et les outils mathématiques utilisés. Le troisième chapitre est consacré à la construction d’une fonction de régularisation optimale, permettant par exemple d’améliorer sur le plan théorique la régularisation de l’estimateur LASSO. Le quatrième chapitre présente, dans le domaine de l’optimisation convexe séquentielle, des accélérations d’un algorithme récent et prometteur, MetaGrad, et une conversion d’un cadre dit “séquentiel déterministe" vers un cadre dit “batch stochastique" pour cet algorithme. Le cinquième chapitre s’intéresse à des prévisions successives par intervalles, fondées sur l’agrégation de prédicteurs, sans retour d’expérience intermédiaire ni modélisation stochastique. Enfin, le sixième chapitre applique à un jeu de données pétrolières plusieurs méthodes d’agrégation, aboutissant à des prévisions ponctuelles court-terme et des intervalles de prévision long-terme. / This thesis tackles the topic of linear regression, within several frameworks, mainly linked to statistical learning. The first and second chapters present the context, the results and the mathematical tools of the manuscript. In the third chapter, we provide a way of building an optimal regularization function, improving for instance, in a theoretical way, the LASSO estimator. The fourth chapter presents, in the field of online convex optimization, speed-ups for a recent and promising algorithm, MetaGrad, and shows how to transfer its guarantees from a so-called “online deterministic setting" to a “stochastic batch setting". In the fifth chapter, we introduce a new method to forecast successive intervals by aggregating predictors, without intermediate feedback nor stochastic modeling. The sixth chapter applies several aggregation methods to an oil production dataset, forecasting short-term precise values and long-term intervals.
37

Modelling software quality : a multidimensional approach

Vaucher, Stéphane 11 1900 (has links)
Les sociétés modernes dépendent de plus en plus sur les systèmes informatiques et ainsi, il y a de plus en plus de pression sur les équipes de développement pour produire des logiciels de bonne qualité. Plusieurs compagnies utilisent des modèles de qualité, des suites de programmes qui analysent et évaluent la qualité d'autres programmes, mais la construction de modèles de qualité est difficile parce qu'il existe plusieurs questions qui n'ont pas été répondues dans la littérature. Nous avons étudié les pratiques de modélisation de la qualité auprès d'une grande entreprise et avons identifié les trois dimensions où une recherche additionnelle est désirable : Le support de la subjectivité de la qualité, les techniques pour faire le suivi de la qualité lors de l'évolution des logiciels, et la composition de la qualité entre différents niveaux d'abstraction. Concernant la subjectivité, nous avons proposé l'utilisation de modèles bayésiens parce qu'ils sont capables de traiter des données ambiguës. Nous avons appliqué nos modèles au problème de la détection des défauts de conception. Dans une étude de deux logiciels libres, nous avons trouvé que notre approche est supérieure aux techniques décrites dans l'état de l'art, qui sont basées sur des règles. Pour supporter l'évolution des logiciels, nous avons considéré que les scores produits par un modèle de qualité sont des signaux qui peuvent être analysés en utilisant des techniques d'exploration de données pour identifier des patrons d'évolution de la qualité. Nous avons étudié comment les défauts de conception apparaissent et disparaissent des logiciels. Un logiciel est typiquement conçu comme une hiérarchie de composants, mais les modèles de qualité ne tiennent pas compte de cette organisation. Dans la dernière partie de la dissertation, nous présentons un modèle de qualité à deux niveaux. Ces modèles ont trois parties: un modèle au niveau du composant, un modèle qui évalue l'importance de chacun des composants, et un autre qui évalue la qualité d'un composé en combinant la qualité de ses composants. L'approche a été testée sur la prédiction de classes à fort changement à partir de la qualité des méthodes. Nous avons trouvé que nos modèles à deux niveaux permettent une meilleure identification des classes à fort changement. Pour terminer, nous avons appliqué nos modèles à deux niveaux pour l'évaluation de la navigabilité des sites web à partir de la qualité des pages. Nos modèles étaient capables de distinguer entre des sites de très bonne qualité et des sites choisis aléatoirement. Au cours de la dissertation, nous présentons non seulement des problèmes théoriques et leurs solutions, mais nous avons également mené des expériences pour démontrer les avantages et les limitations de nos solutions. Nos résultats indiquent qu'on peut espérer améliorer l'état de l'art dans les trois dimensions présentées. En particulier, notre travail sur la composition de la qualité et la modélisation de l'importance est le premier à cibler ce problème. Nous croyons que nos modèles à deux niveaux sont un point de départ intéressant pour des travaux de recherche plus approfondis. / As society becomes ever more dependent on computer systems, there is more and more pressure on development teams to produce high-quality software. Many companies therefore rely on quality models, program suites that analyse and evaluate the quality of other programs, but building good quality models is hard as there are many questions concerning quality modelling that have yet to be adequately addressed in the literature. We analysed quality modelling practices in a large organisation and identified three dimensions where research is needed: proper support of the subjective notion of quality, techniques to track the quality of evolving software, and the composition of quality judgments from different abstraction levels. To tackle subjectivity, we propose using Bayesian models as these can deal with uncertain data. We applied our models to the problem of anti-pattern detection. In a study of two open-source systems, we found that our approach was superior to state of the art rule-based techniques. To support software evolution, we consider scores produced by quality models as signals and the use of signal data-mining techniques to identify patterns in the evolution of quality. We studied how anti-patterns are introduced and removed from systems. Software is typically written using a hierarchy of components, yet quality models do not explicitly consider this hierarchy. As the last part of our dissertation, we present two level quality models. These are composed of three parts: a component-level model, a second model to evaluate the importance of each component, and a container-level model to combine the contribution of components with container attributes. This approach was tested on the prediction of class-level changes based on the quality and importance of its components: methods. It was shown to be more useful than single-level, traditional approaches. To finish, we reapplied this two-level methodology to the problem of assessing web site navigability. Our models could successfully distinguish award-winning sites from average sites picked at random. Throughout the dissertation, we present not only theoretical problems and solutions, but we performed experiments to illustrate the pros and cons of our solutions. Our results show that there are considerable improvements to be had in all three proposed dimensions. In particular, our work on quality composition and importance modelling is the first that focuses on this particular problem. We believe that our general two-level models are only a starting point for more in-depth research.
38

Estimation utilisant les polynômes de Bernstein

Tchouake Tchuiguep, Hervé 03 1900 (has links)
Ce mémoire porte sur la présentation des estimateurs de Bernstein qui sont des alternatives récentes aux différents estimateurs classiques de fonctions de répartition et de densité. Plus précisément, nous étudions leurs différentes propriétés et les comparons à celles de la fonction de répartition empirique et à celles de l'estimateur par la méthode du noyau. Nous déterminons une expression asymptotique des deux premiers moments de l'estimateur de Bernstein pour la fonction de répartition. Comme pour les estimateurs classiques, nous montrons que cet estimateur vérifie la propriété de Chung-Smirnov sous certaines conditions. Nous montrons ensuite que l'estimateur de Bernstein est meilleur que la fonction de répartition empirique en terme d'erreur quadratique moyenne. En s'intéressant au comportement asymptotique des estimateurs de Bernstein, pour un choix convenable du degré du polynôme, nous montrons que ces estimateurs sont asymptotiquement normaux. Des études numériques sur quelques distributions classiques nous permettent de confirmer que les estimateurs de Bernstein peuvent être préférables aux estimateurs classiques. / This thesis focuses on the presentation of the Bernstein estimators which are recent alternatives to conventional estimators of the distribution function and density. More precisely, we study their various properties and compare them with the empirical distribution function and the kernel method estimators. We determine an asymptotic expression of the first two moments of the Bernstein estimator for the distribution function. As the conventional estimators, we show that this estimator satisfies the Chung-Smirnov property under conditions. We then show that the Bernstein estimator is better than the empirical distribution function in terms of mean squared error. We are interested in the asymptotic behavior of Bernstein estimators, for a suitable choice of the degree of the polynomial, we show that the Bernstein estimators are asymptotically normal. Numerical studies on some classical distributions confirm that the Bernstein estimators may be preferable to conventional estimators.
39

Génération d'accélérogrammes synthétiques large-bande : contribution à l’estimation de l’aléa sismique par validation d’approches en aveugle / Generation of broadband synthetic accelerograms : contribution to seismic hazard assessment by validation of blind approaches

Honoré-Foundotos, Laëtitia 10 July 2013 (has links)
L’une des problématique scientifique majeure en sismologie est de pouvoir estimer les mouvements du sol attendus en un site pour un futur séisme. L’objectif de cette thèse est de tester et de valider deux méthodes de simulation des mouvements du sol basées sur l’approche des fonctions de Green empiriques et d’apporter des éléments pouvant aider au développement d’une méthodologie de simulation en aveugle. Dans une première partie, une méthode de simulation basée sur une approche stochastique en point-source est validée sur les données réelles de séismes récents bien instrumentés : le séisme des Saintes Mw6.4 et le séisme de L’Aquila Mw6.3. Nous avons développé une approche de simulation en aveugle en prenant en compte une incertitude sur le paramètre de rapport des chutes de contrainte C. Cette approche permet de générer un ensemble d’accélérogrammes synthétiques d’un séisme cible suffisamment variés pour être représentatifs d’un grand nombre de scénarios de sources possibles et prenant en compte dans un sens statistique de potentiels effets de directivité. Cette approche a également été appliquée à la simulation d’un séisme historique pyrénéen Mw6.1. Dans une seconde partie, nous nous appuyons sur un modèle de source étendue plus complexe, combinant des modèles cinématiques de sources composites fractales avec l’approche des FGEs. Le potentiel de la méthode est testé sur une application au séisme de L’Aquila. Cela a permis de produire des résultats très satisfaisants sur l’ensemble des paramètres des mouvements du sol analysés. Cette méthode de simulation apparaît comme étant très prometteuse pour la mise en œuvre d’une méthodologie de simulation en aveugle, même si la principale difficulté réside dans la nécessité de définir la variabilité de nombreux paramètres d’entrée mal connus dans le cadre de la simulation d’un futur séisme. / One of the major scientific problems in seismology is to estimate the ground motions expected at a given site from a future earthquake. The aim of this thesis is to test and validate two different methods of ground motions simulation based on the empirical Green’s function approach and to provide elements that can help to develop a blind simulation methodology. In a first part, a simulation method based on a stochastic point source approach is validated on the real data of recent earthquakes well instrumented : the Les Saintes earthquake Mw6.4 and the L’Aquila earthquake Mw6.3. We have developed a blind simulation approach by taking into account an uncertainty on the parameter of stress drop ratio C. This approach allows to generate a set of synthetic accelerograms of a target earthquake varied enough to be representative of a large number of possible source scenario and taking into account in a statistical sense potential directivity effects. This approach is also applied to the simulation of an historical Pyrenean earthquake Mw6.1. In a second part, we use a more complex extended source model, combining kinematic models of fractal composite sources with EGF approach. The potential of the method is tested on an application to L’Aquila earthquake. This has produced very satisfying results on all ground motion parameters analyzed. This simulation method appears to be very promising for the implementation of a blind simulation methodology, even if the main difficulty lies in the need to define the variability of many poorly known input parameters in the simulation of a future earthquake.
40

Résolution de l'equation de transport de boltzmann par une approche Monte Carlo (full-band), application aux cellules solaires à porteurs chauds et aux composants ultra-rapides / Full-band monte carlo resolution of the boltzmann transport equation, applied to hot carrier solar cells and ultrafast devices

Tea, Eric 16 December 2011 (has links)
Cette thèse est consacrée à l’étude de la dynamique des porteurs de charges sous forte concentration. La méthode Monte Carlo « Full-Band » a été utilisée pour la modélisation du transport et la relaxtion des porteurs de charge dans les semi-conducteurs III-V (GaAs, InAs, GaSb, In0.53Ga0.47As et GaAs0.50Sb0.50). Les structures électroniques ont été calculées par la Méthode des Pseudo-potentiels Non-Locaux Empiriques, ce qui a notamment permis de traiter le cas de l’alliage ternaire GaAs0.50Sb0.50 dans une approche de type Cristal Virtuel, matériau qui souffre d’un manque de caractérisations expérimentales. Dans ces semi-conducteurs polaires fortement dopés, le couplage entre phonons optiques polaires et plasmons a été pris en compte via le calcul de la fonction diélectrique totale incluant les termes associés à l’amortissement dans le système phonon-plasmon auto-cohérents. Ce phénomène de couplage phonon-plasmon, est apparu primordial pour l’analyse de la mobilité des électrons dans GaAs, In0.53Ga0.47As et GaAs0.50Sb0.50 en fonction de la concentration en accepteurs. Dans des semi-conducteurs fortement photo-excités, la relaxation des électrons et des trous a été étudiée en tenant compte du chauffage de la population de phonon (qui ralentit la relaxation des porteurs) avec un modèle Monte Carlo dédié à la dynamique des phonons (Thèse de H. Hamzeh). L’étude a montré que le ralentissement de la relaxation dépend fortement des concentrations de porteurs photo-excités à cause du couplage phonon-plasmon dans ces matériaux. Les processus de génération et recombinaison de porteurs tels que l’absorption optique, la recombinaison radiative, l’ionisation par choc et les recombinaisons Auger, ont été implémentés. Les taux de génération et recombinaison associés sont calculés directement sur les distributions de porteurs modélisées, sans supposer des distributions à l’équilibre. Ces processus sont cruciaux pour l’optimisation de Cellules Solaires à Porteurs Chauds. Le photo-courant de ce type de cellule théorique à haut rendement de 3ème génération avec un absorbeur en In0.53Ga0.47As a été étudié. / The aim of this work is the study of charge carriers dynamic under high carrier concentration regimes. The « Full-Band » Monte Carlo method is used for charge carrier transport/relaxation modeling in III-V semiconductors (GaAs, InAs, GaSb, In0.53Ga0.47As and GaAs0.50Sb0.50). Electronic band structures are calculated with the Non-Local Empirical Pseudopotential Method which enables the study of ternary alloys within a Virtual Crystal approach. This method has been applied to In0.53Ga0.47As and GaAs0.50Sb0.50, the latter being a promising material for Heterojunction Bipolar Transistor applications though it lacks experimental characterizations. In highly doped polar semiconductors, the polar optical phonon – plasmon coupling is accounted for via the calculation of the total dielectric function including self-consistent damping parameters. This coupling appeared crucial for the calculation of minority electron mobilities in highly p-doped GaAs, In0.53Ga0.47As and GaAs0.50Sb0.50. In strongly photo-excited semiconductors, phonon population heating has been included in the study of electrons and holes relaxation. Hot phonon populations, that slow the charge carrier relaxation through the phonon bottleneck effect, have been dealt with a phonon dedicated Monte Carlo model (PhD H. Hamzeh). The study showed that carrier relaxation slowing depends strongly on the photo-excited carrier concentration because of phonon-plasmon coupling in those semiconductors. Charge carrier generation and recombination processes such as photon absorption, radiative recombination, impact ionization and Auger recombinations, have been implemented. The associated generation and recombination rates are directly calculated with the sampled carrier distribution. Thus, the use of coefficients and lifetimes is avoided, and non equilibrium regimes were modeled. Those processes are of prime importance for Hot Carrier Solar Cells optimization. The theoretical photo-current of this kind of 3rd generation solar cell with an In0.53Ga0.47As absorber have been studied.

Page generated in 0.0855 seconds