• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 9
  • 2
  • Tagged with
  • 22
  • 22
  • 10
  • 8
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Conception logique et topologique en technologie MOS

Thuau, Ghislaine 07 October 1983 (has links) (PDF)
La méthode de conception logique de cellules MOS tient compte des problèmes d'implantation (diffusion, dépôt métallique (AL) et masquage) en technologies NMOS et CMOS dans l'ordonnancement optimise des variables. La forme arborescente série-parallèle est simplifiée par compactage des transistors. Étapes de minimisation. Application aux portes complexes NMOS et CMOS et aux macro-cellules les utilisant pour des fonctions logiques. Fonctions réalisées en logique de transfert se prêtant à l'implantation automatisée. Application à la conception de circuits complexes : circuit d'extraction de racine carrée et multiplicateur. Problèmes de synchronisation et temporisation.
12

Structures Markoviennes cachées et modèles à corrélations conditionnelles dynamiques: extensions et applications aux corrélations d'actifs financiers.

Charlot, Philippe 25 November 2010 (has links) (PDF)
L'objectif de cette thèse est d'étudier le problème de la modélisation des changements de régime dans les modèles à corrélations conditionnelles dynamiques en nous intéressant plus particulièrement à l'approche Markov-switching. A la différence de l'approche standard basée sur le modèle à chaîne de Markov caché (HMM) de base, nous utilisons des extensions du modèle HMM provenant des modèles graphiques probabilistes. Cette discipline a en effet proposé de nombreuses dérivations du modèle de base permettant de modéliser des structures complexes. Cette thèse se situe donc à l'interface de deux disciplines: l'économétrie financière et les modèles graphiques probabilistes. Le premier essai présente un modèle construit à partir d'une structure hiérarchique cachée markovienne qui permet de définir différents niveaux de granularité pour les régimes. Il peut être vu comme un cas particulier du modèle RSDC (Regime Switching for Dynamic Correlations). Basé sur le HMM hiérarchique, notre modèle permet de capter des nuances de régimes qui sont ignorées par l'approche Markov-Switching classique. La seconde contribution propose une version Markov-switching du modèle DCC construite à partir du modèle HMM factorisé. Alors que l'approche Markov-switching classique suppose que les tous les éléments de la matrice de corrélation suivent la même dynamique, notre modèle permet à tous les éléments de la matrice de corrélation d'avoir leur propre dynamique de saut. Dans la dernière contribution, nous proposons un modèle DCC construit à partir d'un arbre de décision. L'objectif de cet arbre est de relier le niveau des volatilités individuelles avec le niveau des corrélations. Pour cela, nous utilisons un arbre de décision Markovien caché, qui est une extension de HMM.
13

Méthodes d'apprentissage statistique pour le scoring

Depecker, Marine 10 December 2010 (has links) (PDF)
Cette thèse porte sur le développement d'une méthode non-paramétrique pour l'apprentissage supervisé de règles d'ordonnancement à partir de données étiquetées de façon binaire. Cette méthode repose sur le partitionnement récursif de l'espace des observations et généralise la notion d'arbre de décision au problème de l'ordonnancement, les règles de score produites pouvant être représentées graphiquement par des arbres binaires et orientés. Afin de proposer une méthode d'apprentissage flexible, nous introduisons une procédure permettant, à chaque itération de l'algorithme, de scinder l'espace des observations selon diverses règles, adaptatives et complexes, choisies en fonction du problème considéré. De plus, pour lutter contre le phénomène de sur-apprentissage, nous proposons deux procédures de sélection de modèle, fondées sur la maximisation de l'ASC empirique pénalisée par une mesure de la complexité du modèle. Enfin, dans le but de réduire l'instabilité des arbres d'ordonnancement, inhérente à leur mode de construction, nous adaptons deux procédures d'agrégation de règles de prédiction ré-échantillonnées : le bagging (Breiman, 1996) et les forêts aléatoires (Random Forests, Breiman, 2001). Une étude empirique comparative entre différentes configurations de l'algorithme et quelques méthodes de l'état de l'art est présentée, ainsi que l'application à la problématique industrielle de l'objectivation des prestations d'un véhicule automobile. De plus, nous exploitons cette méthode de scoring pour introduire une heuristique de test d'homogénéité entre deux populations, permettant de généraliser les tests de rangs au cas multi-dimensionnel.
14

Forêts Aléatoires: De l'Analyse des Mécanismes de Fonctionnement à la Construction Dynamique

Bernard, Simon 02 December 2009 (has links) (PDF)
Les travaux de cette thèse se situent dans le domaine de l'apprentissage automatique et concernent plus particulièrement la paramétrisation des forêts aléatoires, une technique d'ensembles de classifieurs utilisant des arbres de décision. Nous nous intéressons à deux paramètres importants pour l'induction de ces forêts: le nombre de caractéristiques choisies aléatoirement à chaque noeud et le nombre d'arbres. Nous montrons d'abord que la valeur du premier paramètre doit être choisie en fonction des propriétés de l'espace de description, et proposons dans ce cadre un nouvel algorithme nommé Forest-RK exploitant ces propriétés. Nous montrons ensuite qu'avec un processus statique d'induction de Forêts, certains arbres provoquent une diminution des performances de l'ensemble, en dégradant le compromis force/ corrélation. Nous en déduisons un algorithme d'induction dynamique particulièrement performant en comparaison avec les procédures d'induction statique.
15

Induction automatique : aspects théoriques, le système ARBRE, applications en médecine

Crémilleux, Bruno 12 February 1991 (has links) (PDF)
L'objectif de ce travail est d'étudier l'induction en tant qu'outil exploratoire de bases d'exemples. L'induction automatique fournit une description tenant compte de l'ensemble des individus de la base d'exemples et en extrait la connaissance nécessaire à la résolution d'un problème. Il existe de nombreux algorithmes d'induction employant différents critères pragmatiques pour sélectionner une variable. Une formalisation mathématique du problème de la sélection d'une variable est proposée. Elle permet d'une part de définir une famille de "bons" critères reposant sur le choix d'une fonction strictement concave. D'autre part, les systèmes d'induction incertaine décrits dans la littérature emploient des techniques d'élagage dont le but est la construction d'arbres de classement. Une méthode d'élagage liée à un indice de qualité et adaptée à notre usage de l'induction incertaine est proposée. Elle montre en quoi la construction et l'élagage d'un arbre relèvent des mêmes concepts théoriques (l'indice de qualité fait intervenir les résultats des calculs entrepris lors de la construction de l'arbre). Un système d'induction (ARBRE) mettant enoeuvre ces résultats théoriques a été développé. il met en évidence les spécifications qui, à notre avis, sont indispensables pour un système en domaine incertain. Il permet une exploration immédiate de base d'exemples sans connaissance préalable du domaine, et représente la connaissance acquise sous la forme d'arbres d'induction. Trois problèmes médicaux réels montrent l'intérêt de l'usage d'un tel système, adapté à tout domaine où la connaissance est incertaine.
16

Commande prédictive hybride et apprentissage pour la synthèse de contrôleurs logiques dans un bâtiment. / Hybrid Model Predictive Control and Machine Learning for development of logical controllers in buildings

Le, Duc Minh Khang 09 February 2016 (has links)
Une utilisation efficace et coordonnée des systèmes installés dans le bâtiment doit permettre d’améliorer le confort des occupants tout en consommant moins d’énergie. Ces objectifs à optimiser sont pourtant antagonistes. Le problème résultant peut être alors vu comme un problème d’optimisation multicritères. Par ailleurs, pour répondre aux enjeux industriels, il devra être résolu non seulement dans une optique d’implémentation simple et peu coûteuse, avec notamment un nombre réduit de capteurs, mais aussi dans un souci de portabilité pour que le contrôleur résultant puisse être implanté dans des bâtiments d’orientation différente et situés dans des lieux géographiques variés.L’approche choisie est de type commande prédictive (MPC, Model Predictive Control) dont l’efficacité pour le contrôle du bâtiment a déjà été illustrée dans de nombreux travaux, elle requiert cependant des efforts de calcul trop important. Cette thèse propose une méthodologie pour la synthèse des contrôleurs, qui doivent apporter une performance satisfaisante en imitant les comportements du MPC, tout en répondant à des contraintes industriels. Elle est divisée deux grandes étapes :1. La première étape consiste à développer un contrôleur MPC. De nombreux défis doivent être relevés tels que la modélisation, le réglage des paramètres et la résolution du problème d’optimisation.2. La deuxième étape applique différents algorithmes d’apprentissage automatique (l’arbre de décision, AdaBoost et SVM) sur une base de données obtenue à partir de simulations utilisant le contrôleur prédictif développé. Les grands points levés sont la construction de la base de données, le choix de l’algorithme de l’apprentissage et le développement du contrôleur logique.La méthodologie est appliquée dans un premier temps à un cas simple pour piloter un volet,puis validée dans un cas plus complexe : le contrôle coordonné du volet, de l’ouvrant et dusystème de ventilation. / An efficient and coordinated control of systems in buildings should improve occupant comfort while consuming less energy. However, these objectives are antagonistic. It can then be formulated as a multi-criteria optimization problem. Moreover, it should be solved not only in a simple and cheap implementation perspective, but also for the sake of adaptability of the controller which can be installed in buildings with different orientations and different geographic locations.The MPC (Model Predictive Control) approach is shown well suited for building control in the state of the art but it requires a big computing effort. This thesis presents a methodology to develop logical controllers for equipments in buildings. It helps to get a satisfactory performance by mimicking the MPC behaviors while dealing with industrial constraints. Two keys steps are required :1. In the first step, an optimal controller is developed with hybrid MPC technique. There are challenges in modeling, parameters tuning and solving the optimization problem.2. In the second step, different Machine Learning algorithms (Decision tree, AdaBoost, SVM) are tested on database which is obtained with the simulation with the MPC controller. The main points are the construction of the database, the choice of learning algorithm and the development of logic controller.First, our methodology is tested on a simple case study to control a blind. Then, it is validatedwith a more complex case : development of a coordinated controller for a blind, natural ventilationand mechanical ventilation.
17

Hétérogénéités régionales et politiques macroéconomiques dans une zone monétaire le cas de l'UEMOA / Regional heterogeneities and macroeconomic policies in a monetary area the case of the WAEMU

Diallo, Hamidou 18 December 2018 (has links)
Cette thèse tire les enseignements de la zone Euro qui représente la phase la plus avancée de l’intégration économique au sein de l’Union Européenne. Cependant, force est de constater que la zone euro affiche des lacunes en termes de mécanismes d’ajustement alternatifs. Ainsi malgré les avancées considérables, cette intégration économique et institutionnelle semble insuffisante pour absorber les chocs asymétriques sur les États. Nous avons utilisé diverses approches (baromètres de convergence, classification par arbre de décision et modèle de Merton) pour évaluer l’efficacité des politiques économiques au sein de l’UEMOA. Nous avons étudié, à partir de données empiriques allant de 1994 à 2015, l’hétérogénéité des principaux agrégats macroéconomiques entre les pays de la zone et leurs évolutions dans le temps. Contrairement aux attentes, des différences existent encore entre les pays. Selon l’objectif de politique macroéconomique mesuré (croissance économique, inflation, chômage), nos résultats révèlent que les changements dans les performances des groupes constitués sont expliqués soit par des migrations entre les groupes, soit par les changements à l’intérieur des groupes. Finalement, nos investigations montrent que l’élargissement à la CEDEAO amplifie ces divergences. Nos résultats montrent enfin une bonne performance de la règle de Taylor comparativement à l’inflation cible depuis 2003. Cette règle serait une "conduite de base" adaptable à la politique de la future banque centrale après avoir levé la difficulté à déterminer les valeurs de référence de l’équation dans ces espaces économiques hétérogènes. / This paper draws lessons from the Eurozone which represents the most advanced stage of economic integration in the European Union. However the alternative adjustment mechanisms in place there prove to be insufficient to absorb asymmetric shocks endured by member states. We used various methods such as convergence barometers, decision tree classification, and Merton model in order to assess the effectiveness of the economic policies in place within the WAEMU . We studied, through empirical data from 1994 to 2015, the heterogeneity of the main macroeconomic aggregates between the countries of the area and it’s evolution over time. Contrary to expectations, discrepancies still exist between countries. In accordance with the goal of macroeconomic policy measured, our results reveal that either the effects of migration between groups, or the changes in performance within groups give an account of the changes in performance inside groups. Our investigations eventually brings to light that the expansion to the ECOWAS amplifies the divergences.Lastly, our results show that the Taylor rule has been well put to use in comparison to targeted inflation since 2003. This rule can be regarded as a "basic rule" adaptable to the policy of the future central bank after having lifted the difficulty in determining the reference values in these heterogeneous economic areas.
18

Arbres de décisions symboliques, outils de validations et d'aide à l'interprétation / Symbolic decision trees, tools for validation and interpretation assistance

Seck, Djamal 20 December 2012 (has links)
Nous proposons dans cette thèse la méthode STREE de construction d'arbres de décision avec des données symboliques. Ce type de données permet de caractériser des individus de niveau supérieur qui peuvent être des classes ou catégories d’individus ou des concepts au sens des treillis de Galois. Les valeurs des variables, appelées variables symboliques, peuvent être des ensembles, des intervalles ou des histogrammes. Le critère de partitionnement récursif est une combinaison d'un critère par rapport aux variables explicatives et d'un critère par rapport à la variable à expliquer. Le premier critère est la variation de la variance des variables explicatives. Quand il est appliqué seul, STREE correspond à une méthode descendante de classification non supervisée. Le second critère permet de construire un arbre de décision. Il s'agit de la variation de l'indice de Gini si la variable à expliquer est nominale et de la variation de la variance si la variable à expliquer est continue ou bien est une variable symbolique. Les données classiques sont un cas particulier de données symboliques sur lesquelles STREE peut aussi obtenir de bons résultats. Il en ressort de bonnes performances sur plusieurs jeux de données UCI par rapport à des méthodes classiques de Data Mining telles que CART, C4.5, Naive Bayes, KNN, MLP et SVM. STREE permet également la construction d'ensembles d'arbres de décision symboliques soit par bagging soit par boosting. L'utilisation de tels ensembles a pour but de pallier les insuffisances liées aux arbres de décisions eux-mêmes et d'obtenir une décision finale qui est en principe plus fiable que celle obtenue à partir d'un arbre unique. / In this thesis, we propose the STREE methodology for the construction of decision trees with symbolic data. This data type allows us to characterize individuals of higher levels which may be classes or categories of individuals or concepts within the meaning of the Galois lattice. The values of the variables, called symbolic variables, may be sets, intervals or histograms. The criterion of recursive partitioning is a combination of a criterion related to the explanatory variables and a criterion related to the dependant variable. The first criterion is the variation of the variance of the explanatory variables. When it is applied alone, STREE acts as a top-down clustering methodology. The second criterion enables us to build a decision tree. This criteron is expressed as the variation of the Gini index if the dependant variable is nominal, and as the variation of the variance if thedependant variable is continuous or is a symbolic variable. Conventional data are a special case of symbolic data on which STREE can also get good results. It has performed well on multiple sets of UCI data compared to conventional methodologies of Data Mining such as CART, C4.5, Naive Bayes, KNN, MLP and SVM. The STREE methodology also allows for the construction of ensembles of symbolic decision trees either by bagging or by boosting. The use of such ensembles is designed to overcome shortcomings related to the decisions trees themselves and to obtain a finaldecision that is in principle more reliable than that obtained from a single tree.
19

Rare dileptonic B meson decays at LHCb

Morda, Alessandro 28 September 2015 (has links)
Les désintégrations rares B0(s)→ll sont générées par des courants neutres avec changement de la saveur. Pour cette raison, ainsi qu'à cause de la suppression d'hélicité, leurs taux de désintégration sont très petits dans le Modèle Standard (MS), mais la présence de particules virtuelles de Nouvelle Physique peut radicalement modifier cette prédiction. Une partie du travail original présenté dans cette thèse est dédié à l'optimisation de l'algorithme d'Analyse Multi Varié (MVA) pour la recherche de la désintégration B0(s)→μμ avec l'échantillon collecté par l'expérience LHCb. Cet échantillon a été combiné avec celui collecté par l'expérience CMS et pour la première fois la désintégration B0(s)→μμ a été observée. En vue d'améliorer la sensibilité au mode B0(s)→μμ de nouvelles études ont également été menées pour augmenter la performance des analyses multivariées. Une autre partie du travail original présenté dans cette thèse concerne la définition d'une chaine de sélection pour la recherche des désintégrations B0(s)→τ τ dans l'état final où les deux τ vont en trois π chargées et un τ est étudié. La présence des deux ν dans l'état final de la désintégration rend difficile une reconstruction des impulsions des deux τ. Cependant, la possibilité de mesurer les deux vertex de désintégration des τ ainsi que le vertex d'origine du candidat B, permet d'imposer des contraintes géométriques qui peuvent être utilisées dans la reconstruction des impulsions des deux τ. En particulier, un nouvel algorithme pour la reconstruction complété, événement par événement, de ces impulsions et de leurs variables associées est présenté et discuté. / The B0(s)→ll decays are generated by Flavor Changing Neutral Currents, hence they can proceed only through loop processes. For this reason, and because of an additional helicity suppression, their branching ratios are predicted to be very small in the Standard Model (SM). A part of the original work presented in this thesis has been devoted to the optimization of the Multi Variate Analysis classifier for the search of the B0(s)→μμ with the full dataset collected at LHCb. This dataset has also been combined with the one collected from CMS to obtain the first observation of B0(s)→μμ has been obtained. In view of the update of the analysis aiming to improve the sensitivity for the B0(s)→μμ mode, a new isolation variable, exploiting a topological vertexing algorithm, has been developed and additional studies for a further optimization of the MVA classifier performances have been done. The presence of two ν in the final state of the decay makes the reconstruction of the τ momenta of the two τ. Nevertheless the possibility of measuring the two decay vertexes of the τ, as well as the B candidate production vertex, allows to impose geometrical constraints that can be used in the reconstruction of the τ momenta. In particular, a new algorithm for the full reconstruction of each event of these momenta and of related variables has been presented and discussed.
20

Prise en compte économique du long terme dans les choix énergétiques relatifs à la gestion des déchets radioactifs / Economic analysis of long-term energy choices related to the radioactive waste management

Doan, Phuong Hoai Linh 07 December 2017 (has links)
Actuellement, bien que la plupart des pays nucléaires converge vers la même solution technique: le stockage profond pour la gestion des déchets radioactifs de haute activité et à vie longue, les objectifs calendaires divergent d'un pays à l'autre. Grâce au calcul économique, nous souhaitons apporter des éléments de réponse à la question suivante : En termes de temporalité, comment les générations présentes, qui bénéficient de la production d'électricité nucléaire, doivent-elles supporter les charges de la gestion des déchets radioactifs en tenant compte des générations futures ? Cette thèse se propose d'analyser spécifiquement la décision française en tenant compte de son contexte. Nous proposons un ensemble d'outils qui permet d'évaluer l'Utilité du projet de stockage profond en fonction des choix de temporalité. Notre thèse étudie également l'influence en retour des choix de stockage sur le cycle du combustible nucléaire. Au-delà, nous prenons en compte les interactions entre le stockage profond et les choix de parc nucléaire et de cycle du combustible qui constituent un « système complet ». / Nowadays, the deep geological repository is generally considered as the reference solution for the definitive management of spent nuclear fuel/high-level waste, but different countries have decided different disposal deployment schedules. Via the economic calculation, we hope to offer some answers to the following question: In terms of disposal time management, how should the present generations, benefiting from the nuclear power generation, bear the costs of radioactive waste management, while taking into account future generations? This thesis proposes to analyze specifically the French decision in its context. We propose a set of tools to evaluate the Utility of the deep geological repository project according to the deployment schedule choices. Our thesis also studies the influence of disposal choices on the nuclear fuel cycle. Beyond, we also take into account the interactions between the deep geological repository, nuclear fleet and cycle choices which constitute a "complete system".

Page generated in 0.0611 seconds