• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 130
  • 52
  • 7
  • 1
  • Tagged with
  • 187
  • 116
  • 106
  • 79
  • 65
  • 36
  • 33
  • 24
  • 23
  • 18
  • 16
  • 16
  • 16
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Le concept de finalité pour éclairer le travail du manager : une lecture philosophique à partir du cas de la Française des Jeux / The concept of purpose to enlighten the manager’s work : a philosophical interpretation based on the Française des Jeux case

Guéry, Bernard 23 November 2015 (has links)
Ce travail a pour but de montrer quelles logiques de la finalité sont en jeu dans le travail du manager. Nous avons distingué deux façons d’aborder la finalité. La première, proche des notions d’objectif, d’intérêt, d’utilité, constitue le soubassement des façons d’aborder classiquement le travail du manager. Nous avons fait émerger, en nous appuyant sur la pensée d’Aristote, Thomas d’Aquin, et Spaemann, une conception alternative de la finalité, qui diffère de l’objectif et de l’intérêt en ce qu’elle n’est pas construite. Ce concept de finalité permet de voir autrement trois dimensions essentielles du travail du manager : le management par objectif, le faisceau d’exigences contradictoires dont le manager est le point focal, et le dilemme qui se pose à lui entre éthique et efficacité. Enfin, une enquête de terrain permet de montrer que cette logique alternative de la finalité, rattachée à l’éthique des vertus, trouve une certaine place dans le discours des managers de la FDJ, aux côtés du conséquentialisme, qui consacre l’acception utilitaire de la finalité, et du déontologisme qui évacue le recours à la finalité. / This thesis aim is to show which notion of purpose is at stake in the manager’s work. It differentiates two ways to address the concept of purpose. The first one, close to the notions of objective, interest, utility, forms the foundations of a classical vision of the manager’s work. However, a second one, based on Aristotle, Thomas Aquinas and Spaemann’s philosophies, arose. This alternative conception differs from objective and interest as it is not elaborated by the subject. It allows a different view on three essential dimensions of the manager’s work: the management by objectives, the body of contradictory requirements that built up on the manager and the dilemma between ethics and efficiency. Finally, a field survey showed that this alternative conception of purpose, linked to virtue-based ethics, has a certain place in the FDJ’s managers’ message, together with consequentialism, which expresses the utilitarian conception of purpose, and deontological ethics, which evacuates any purpose.
162

Optimisation du dimensionnement d’une chaîne de conversion électrique directe incluant un système de lissage de production par supercondensateurs : application au houlogénérateur SEAREV / Sizing optimization of a direct electrical conversion chain including a supercapacitor-based power output smoothing system : application to the SEAREV wave energy converter

Aubry, Judicaël 03 November 2011 (has links)
Le travail présenté dans cette thèse porte sur l'étude du dimensionnement d'une chaine de conversion électrique en entrainement direct d'un système direct de récupération de l'énergie des vagues (searev). Cette chaine de conversion est composée d'une génératrice synchrone à aimants permanents solidaire d'un volant pendulaire, d'un convertisseur électronique composé de deux ponts triphasés à modulation de largeur d'impulsion, l'un contrôlant la génératrice, l'autre permettant d'injecter l'énergie électrique au réseau. En complément, un système de stockage de l'énergie (batterie de supercondensateurs) est destiné au lissage de la puissance produite. Le dimensionnement de tous ces éléments constitutifs nécessite une approche d'optimisation sur cycle, dans un contexte de fort couplage multi-physique notamment entre les parties hydrodynamique et électromécanique. Dans un premier temps, l'ensemble génératrice-convertisseur, dont le rôle est d'amortir le mouvement d'un volant pendulaire interne, est optimisé en vue de minimiser le coût de production de l'énergie (coût du kWh sur la durée d'usage). Cette optimisation sur cycle est réalisée en couplage fort avec le système houlogénérateur grâce à la prise en compte conjointe de variables d'optimisation relatives à l'ensemble convertisseur-machine mais aussi à la loi d'amortissement du volant pendulaire. L'intégration d'une stratégie de défluxage, intéressante pour assurer un fonctionnement en écrêtage de la puissance, permet, dès l'étape de dimensionnement, de traiter l'interaction convertisseur-machine. Dans un second temps, la capacité énergétique du système de stockage de l'énergie fait l'objet d'une optimisation en vue de la minimisation de son coût économique sur cycle de vie. Pour ce faire, nous définissons des critères de qualité de l'énergie injectée au réseau, dont un lié au flicker, et nous comparons des stratégies de gestion de l'état de charge tout en tenant compte du vieillissement en cyclage des supercondensateurs dû à la tension et à leur température. Dans un troisième temps, à partir de données d'états de mer sur une année entière, nous proposons des dimensionnements de chaines de conversion électrique qui présentent les meilleurs compromis en termes d'énergie totale récupérée et de coût d'investissement. / The work presented in this thesis sets forth the study of the sizing of a direct-drive electrical conversion chain for a direct wave energy converter (SEAREV). This electrical chain is made up of a permanent magnet synchronous generator attached to a pendular wheel and a power-electronic converter made up of two three-phase pulse width modulation bridge, one controlling the generator, the other allowing injecting electrical energy into the grid. In addition, an energy storage system (bank of supercapacitors) is intended to smooth the power output. The sizing of all these components needs an operating cycle optimization approach, in a system context with strong multi-physics coupling, more particularly between hydrodynamical and electromechanical parts. At first, the generator-converter set, whose role is to damp the pendular movement of an internal wheel, is optimized with a view to minimize the cost of energy (kWh production cost). This optimization, based on torque-speed operating profiles, is carried out considering a strong coupling with the wave energy converter thanks to the consideration as design variables, some relatives to the generator-converter sizing but also some relatives to the damping law of the pendular wheel. In addition, the consideration of a flux-weakening strategy, interesting to ensure a constant power operation (levelling), allows, as soon as the sizing step, to deal with the generator-converter interaction. In a second step, the rated energy capacity of the energy storage system is being optimized with a view of the minimization of its economical life-cycle cost. To do this, we define quality criteria of the power output, including one related to the flicker, and we compare three energy managment rules while taking into account the power cycling aging of the supercapacitors due to the voltage and their temperature. In a third step, from yearly sea-states data, we provide sizings of the direct-drive electrical conversion chain that are the best trades-offs in terms of total electrical produced energy and economical investment cost.
163

Images du temps dans les manuels scolaires : recherche-création pour comprendre les rapports entre représentations et savoirs en physique

Roy, Marie-Maude 09 1900 (has links)
Mémoire en recherche-création, associé à un programme de maîtrise individualisé dirigé en cotutelle. Département de physique et département de communication. / Les milieux de production et de diffusion des savoirs sont marqués par une omniprésence des modalités visuelles de représentation, et la physique n’y fait pas exception. Ce mémoire de recherche-création en physique et communication explore la place et le fonctionnement de l’image, et de la relation texte-image, dans des dispositifs de médiation des connaissances appartenant à cette discipline scientifique. Après un retour historique sur la notion de temps en physique, je poursuis en dirigeant l’attention vers les images du temps objectif tout particulièrement. Le temps objectif, par la pluralité de ses compréhensions et représentations en physique, mais aussi par sa relation particulière aux images que l’on assume atemporelles, s’arrime bien aux motifs de ce travail. Huit manuels de physique standards sont analysés pour comprendre et catégoriser les types et les fonctions des images. Pour ce faire, j’effectue d’abord une analyse sémiotique des images. Avec les résultats, je développe une classification de six catégories d’images, ce qui me permet d’ordonner et de mettre en valeur leur richesse sémiotique. J’analyse ensuite les textes (titres et passages textuels référant aux images) par deux méthodes : 1) une analyse quantifié avec l’écriture d’un programme Python qui automatise la recherche de mots clés et 2) une lecture proche de ces textes pour en soutirer la façon dont les auteurs qualifient leurs images. J’incorpore une dimension créative supplémentaire à ma démarche en réalisant deux visualisations des concepts et thèmes émergents de l’analyse. Je propose ainsi une interprétation des résultats par une carte des images du temps objectif et une image qui aborde l’ambiguïté du discours des auteurs, la subordination du langage textuel ainsi que la négociation du statut de l’image entre modalité de représentation dévaluée et dispositif de présentation objectif. Tout au long de ce travail, j’intègre les questionnements de ma recherche dans ma propre démarche, en produisant de nombreuses figures pour analyser et interpréter les concepts, ce qui me permet d’expérimenter moi-même avec le visuel en tant que modalité de production de savoirs. À travers la poursuite d’une meilleure compréhension du fonctionnement épistémologique des images en physique, je propose des pistes méthodologiques pour travailler au croisement d’une science naturelle, de la communication et la culture visuelle. / Knowledge production and dissemination environments are marked by the omnipresence of visual modes of representation, and physics is no exception. This research-creation project in physics and communication explores the place and functioning of the image, and of the text-image relationship, in knowledge mediation devices belonging to this scientific discipline. After a historical overview on the concept of time in physics, I continue by directing attention to the images of objective time in particular. Objective time, by the plurality of its understandings and representations in physics, but also by its particular relationship to images that we assume to be timeless, fits well with the reasons for this work. Eight standard physics textbooks are analyzed to understand and categorize the types and functions of images. To do this, I first perform a semiotic analysis of the images. With the results, I develop a classification of six categories of images, which allows me to order and highlight their semiotic richness. I then analyze the texts (titles and text segments referring to the images) by two methods: 1) a quantified analysis with the writing of a Python program which automates the research of keywords and 2) a close reading of these texts to extract the way in which the authors qualify their images. I incorporate an additional creative dimension to my approach by making two visualizations of the concepts and emerging themes of the analysis. I thus propose an interpretation of the results by a map of objective time images and an image that addresses the ambiguity of the authors’ discourse, the subordination of textual language as well as the negotiation of the status of the image between devalued representation mode and device objective presentation. Throughout this work, I integrate the questions of my research into my own approach, producing numerous figures to analyze and interpret the concepts, which allows me to experiment with the visual as a modality of knowledge production. Through the pursuit of a better understanding of the epistemological functioning of images in physics, I propose methodological tracks to work at the intersection of natural science, communication and visual culture.
164

L'ordre public immatériel en droit public français / Immaterial public order in French public law

Peyroux-Sissoko, Marie-Odile 27 November 2017 (has links)
Notion centrale des rapports entre l’État et les individus, l'ordre public mis en œuvre par la police administrative est traditionnellement identifié comme étant matériel. Essentiel à l'équilibre entre maintien de la paix sociale et garantie des droits et libertés individuels, il y est particulièrement fait recours lorsqu'est en cause la sécurité. La législation (lato sensu) récente en matière d'état d'urgence le rappelle. Mais l'ordre public n'est pas uniquement matériel, limité à la sécurité, à la tranquillité et à la salubrité publiques. Notion classique du droit public, l'ordre public ne cesse d'évoluer. Il est en effet possible de tirer de divers phénomènes épars l'existence d'un ordre public immatériel dont l'émergence et l'utilisation visent à répondre à des déséquilibres apparus dans l'État de droit. Permettant notamment la protection de valeurs objectives à partir desquelles la société est ordonnée, l'ordre public immatériel vise à rééquilibrer les rapports entre le collectif et l'individuel. Il est en ce sens une notion fonctionnelle. Il est ainsi possible de définir l'ordre public immatériel et de construire un régime juridique qui lui soit adapté. Impuissant à restreindre les libertés dans la vie privée, il s'exprime dans le cadre de l'espace public auquel il est cantonné, ce qui limite d'autant les risques d'intrusion de l'État. Il peut être vu comme une notion autonome. Cette formalisation permet d'identifier plus facilement l'ordre public immatériel. Surtout, elle laisse entendre qu'il pourrait s'imposer durablement dans l'ordre juridique français. / A key notion in the relationship between the State and individuals, public order implemented by the administrative authorities is normally considered as material. Essential to the balance between maintaining social peace and ensuring respect for individual rights and freedoms, public order is implemented especially where security is involved. Recent legislation (in the broad sense) introducing the state of emergency is a case in point. However, public order is not merely material or restricted to matters of public security, peace or health. Public order, a traditional notion in public law, continues to evolve. From the various different phenomena, it is indeed possible to deduce the existence of an immaterial public order, the emergence and implementation of which are intended to offset the disequilibrium arising from the rule of law. The purpose of immaterial public order, which ensures the protection of objective values around which society is organised, is to restore the balance between the public and the individual. In that sense, it is a functional notion. It is therefore possible to define immaterial public order and build a legal system adapted to it. Immaterial public order, which is powerless to restrict freedoms in private life, expresses itself in the public domain to which it is confined, thereby limiting the risks of State intervention. lt can be seen as a notion in its own right. As a result of this formalisation, immaterial public order can be more readily identified. Above all, formalisation suggests that it could become a permanent feature of the French legal system.
165

Local Search, data structures and Monte Carlo Search for Multi-Objective Combinatorial Optimization Problems / Recherche Locale, structures de données et Recherche Monte-Carlo pour les problèmes d'optimisation combinatoire Multi-Objectif

Cornu, Marek 18 December 2017 (has links)
De nombreux problèmes d'optimisation combinatoire considèrent plusieurs objectifs, souvent conflictuels. Cette thèse s'intéresse à l'utilisation de méthodes de recherche locale, de structures de données et de recherche Monte-Carlo pour la recherche de l'ensemble des solutions efficaces de tels problèmes, représentant l'ensemble des meilleurs compromis pouvant être réalisés en considération de tous les objectifs.Nous proposons une nouvelle méthode d'approximation appelée 2-Phase Iterated Pareto Local Search based on Decomposition (2PIPLS/D) combinant les concepts de recherche locale Pareto (PLS) et de décomposition. La PLS est une descente de recherche locale adaptée au multi-objectif, et la décomposition consiste en la subdivision du problème multi-objectif en plusieurs problèmes mono-objectif. Deux méthodes d'optimisation mono-objectif sont considérées: la recherche locale itérée et la recherche Monte-Carlo imbriquée. Deux modules principaux sont intégrés à 2PIPLS/D. Le premier généralise et améliore une méthode existante et génère un ensemble initial de solutions. Le second réduit efficacement l'espace de recherche et permet d'accélérer la PLS sans négliger la qualité de l'approximation générée. Nous introduisons aussi deux nouvelles structures de données gérant dynamiquement un ensemble de solutions incomparables, la première est spécialisée pour le cas bi-objectif et la seconde pour le cas général.2PIPLS/D est appliquée au Problème du Voyageur de Commerce bi-objectif et tri-objectif et surpasse ses concurrents sur les instances testées. Ensuite, 2PIPLS/D est appliquée à un nouveau problème avec cinq objectifs en lien avec la récente réforme territoriale d'agrandissement des régions françaises. / Many Combinatorial Optimization problems consider several, often conflicting, objectives. This thesis deals with Local Search, data structures and Monte Carlo Search methods for finding the set of efficient solutions of such problems, which is the set of all best possible trade-offs given all the objectives.We propose a new approximation method called 2-Phase Iterated Pareto Local Search based on Decomposition (2PIPLS/D) combining the notions of Pareto Local Search (PLS) and Decomposition. PLS is a local search descent adapted to Multi-Objective spaces, and Decomposition consists in the subdivision of the Multi-Objective problem into a number of Single-Objective problems. Two Single-Objective methods are considered: Iterated Local Search and Nested Monte Carlo Search. Two main components are embedded within the 2PIPLS/D framework. The first one generalizes and improves an existing method generating an initial set of solutions. The second one reduces efficiently the search space and accelerates PLS without notable impact on the quality of the generated approximation. We also introduce two new data structures for dynamically managing a set of incomparable solutions. The first one is specialized for the bi-objective case, while the second one is general.2PIPLS/D is applied to the bi-objective and tri-objective Traveling Salesman Problem and outperforms its competitors on tested instances. Then, 2PIPLS/D is instantiated on a new five-objective problem related to the recent territorial reform of French regions which resulted in the reassignment of departments to new larger regions.
166

Towards Understanding Generalization in Gradient-Based Meta-Learning

Guiroy, Simon 08 1900 (has links)
Dans ce mémoire, nous étudions la généralisation des réseaux de neurones dans le contexte du méta-apprentissage, en analysant divers propriétés des surface leurs fonctions objectifs. La recherche en apprentissage automatique portant sur les surfaces de fonctions objectifs des réseaux de neurones ayant aidé à comprendre leur généralisation en apprentissage supervisé standard, nous proposons l'étude de telles surfaces dans le but d'approfondir nos connaissances sur la généralisation en méta-apprentissage. Nous introduisons d'abord la littérature sur les fonctions objectifs des réseaux de neurones à la Section \ref{sec:intro:objective_landscapes}, puis celle portant sur le méta-apprentissage à la Section \ref{sec:intro:meta-learning}, pour enfin terminer notre introduction avec le méta-apprentissage par descente de gradient, très similaire à l'entraînement des réseaux de neurones par descente de gradient stochastique et pour une tâche unique. Nous présentons par la suite notre travail sur les fonctions objectifs en méta-apprentissage au Chapitre \ref{chap:prof_forcing}, lequel nous avons soumis à la conférence NeurIPS 2019 en tant qu'article scientifique. Au moment d'écrire ce mémoire, et au meilleur de notre connaissance, ce travail est le premier à étudier empiriquement les surfaces des fonctions objectifs en méta-apprentissage, particulièrement dans le contexte de l'apprentissage profond, et nous mettons notamment en lumière certaines propriétés de ces surfaces qui apparaissent liées à la généralisation des réseaux de neurones à de nouvelles tâches. Nous démontrons empiriquement qu'alors que progresse la phase de méta-entraînement, pour les solutions aux nouvelles tâches obtenues via quelques itérations de descente de gradient, la courbure de la fonction objective décroit monotoniquement, la valeur de la fonction objective diminue, tandis que la distance euclidienne avec la solution ``méta-entraînement" augmente. Cependant, nous observons que la courbure des minima continue de décroître même lorsque le sur-apprentissage devient apparent et que la généralisation commence à se dégrader, indiquant que la courbure des minima semble peu corrélée à la généralisation en méta-apprentissage par descente de gradient. De plus, nous montrons empiriquement que la généralisation aux nouvelles tâches semble plutôt liée à la cohérence de leurs trajectoires d'adaptation dans l'espace des paramètres, mesurée par la similarité cosinus moyenne entre les trajectoires. Nous montrons également que la cohérence des gradients ''meta-test", mesurée par le produit scalaire moyen entre les vecteurs de gradients spécifiques aux nouvelles tâches, évalué à solution meta-entraînement, est également corrélée à la généralisation. Nous basant sur ces observations, nous proposons un nouveau terme de régularisation pour l'algorithme de méta-apprentissage Model Agnostic Meta-Learning (MAML). / In this master's thesis, we study the generalization of neural networks in gradient-based meta-learning by analyzing various properties of the objective landscapes. Meta-learning, a challenging paradigm where models not only have to learn a task but beyond that, are trained for ``learning to learn" as they must adapt to new tasks and environments with very limited data about them. With research on the objective landscapes of neural networks in classical supervised having provided some answers regarding their ability to generalize for new data points, we propose similar analyses aimed at understanding generalization in meta-learning. We first introduce the literature on objective landscapes of neural networks in Section \ref{sec:intro:objective_landscapes}. We then introduce the literature of meta-learning in Section \ref{chap:prof_forcing}, concluding our introduction with the approach of gradient-based meta-learning, a meta-learning setup that bears strong similarities to the traditional supervised learning setup through stochastic gradient-based optimization. At the time of writing of this thesis, and to the best of our knowledge, this is the first work to empirically study the objective landscapes in gradient-based meta-learning, especially in the context of deep learning. We notably provide some insights on some properties of those landscapes that appear correlated to the generalization to new tasks. We experimentally demonstrate that as meta-training progresses, the meta-test solutions, obtained after adapting the meta-train solution of the model, to new tasks via few steps of gradient-based fine-tuning, become flatter, lower in loss, and further away from the meta-train solution. We also show that those meta-test solutions become flatter even as generalization starts to degrade, thus providing experimental evidence against the correlation between generalization and flat minima in the paradigm of gradient-based meta-leaning. Furthermore, we provide empirical evidence that generalization to new tasks is correlated with the coherence between their adaptation trajectories in parameter space, measured by the average cosine similarity between task-specific trajectory directions, starting from a same meta-train solution. We also show that coherence of meta-test gradients, measured by the average inner product between the task-specific gradient vectors evaluated at meta-train solution, is also correlated with generalization. Based on these observations, we propose a novel regularizer for the Model Agnostic Meta-Learning (MAML) algorithm and provide experimental evidence for its effectiveness.
167

Towards using intelligent techniques to assist software specialists in their tasks

Ben Sghaier, Oussama 11 1900 (has links)
L’automatisation et l’intelligence constituent des préoccupations majeures dans le domaine de l’Informatique. Avec l’évolution accrue de l’Intelligence Artificielle, les chercheurs et l’industrie se sont orientés vers l’utilisation des modèles d’apprentissage automatique et d’apprentissage profond pour optimiser les tâches, automatiser les pipelines et construire des systèmes intelligents. Les grandes capacités de l’Intelligence Artificielle ont rendu possible d’imiter et même surpasser l’intelligence humaine dans certains cas aussi bien que d’automatiser les tâches manuelles tout en augmentant la précision, la qualité et l’efficacité. En fait, l’accomplissement de tâches informatiques nécessite des connaissances, une expertise et des compétences bien spécifiques au domaine. Grâce aux puissantes capacités de l’intelligence artificielle, nous pouvons déduire ces connaissances en utilisant des techniques d’apprentissage automatique et profond appliquées à des données historiques représentant des expériences antérieures. Ceci permettra, éventuellement, d’alléger le fardeau des spécialistes logiciel et de débrider toute la puissance de l’intelligence humaine. Par conséquent, libérer les spécialistes de la corvée et des tâches ordinaires leurs permettra, certainement, de consacrer plus du temps à des activités plus précieuses. En particulier, l’Ingénierie dirigée par les modèles est un sous-domaine de l’informatique qui vise à élever le niveau d’abstraction des langages, d’automatiser la production des applications et de se concentrer davantage sur les spécificités du domaine. Ceci permet de déplacer l’effort mis sur l’implémentation vers un niveau plus élevé axé sur la conception, la prise de décision. Ainsi, ceci permet d’augmenter la qualité, l’efficacité et productivité de la création des applications. La conception des métamodèles est une tâche primordiale dans l’ingénierie dirigée par les modèles. Par conséquent, il est important de maintenir une bonne qualité des métamodèles étant donné qu’ils constituent un artéfact primaire et fondamental. Les mauvais choix de conception, ainsi que les changements conceptuels répétitifs dus à l’évolution permanente des exigences, pourraient dégrader la qualité du métamodèle. En effet, l’accumulation de mauvais choix de conception et la dégradation de la qualité pourraient entraîner des résultats négatifs sur le long terme. Ainsi, la restructuration des métamodèles est une tâche importante qui vise à améliorer et à maintenir une bonne qualité des métamodèles en termes de maintenabilité, réutilisabilité et extensibilité, etc. De plus, la tâche de restructuration des métamodèles est délicate et compliquée, notamment, lorsqu’il s’agit de grands modèles. De là, automatiser ou encore assister les architectes dans cette tâche est très bénéfique et avantageux. Par conséquent, les architectes de métamodèles pourraient se concentrer sur des tâches plus précieuses qui nécessitent de la créativité, de l’intuition et de l’intelligence humaine. Dans ce mémoire, nous proposons une cartographie des tâches qui pourraient être automatisées ou bien améliorées moyennant des techniques d’intelligence artificielle. Ensuite, nous sélectionnons la tâche de métamodélisation et nous essayons d’automatiser le processus de refactoring des métamodèles. A cet égard, nous proposons deux approches différentes: une première approche qui consiste à utiliser un algorithme génétique pour optimiser des critères de qualité et recommander des solutions de refactoring, et une seconde approche qui consiste à définir une spécification d’un métamodèle en entrée, encoder les attributs de qualité et l’absence des design smells comme un ensemble de contraintes et les satisfaire en utilisant Alloy. / Automation and intelligence constitute a major preoccupation in the field of software engineering. With the great evolution of Artificial Intelligence, researchers and industry were steered to the use of Machine Learning and Deep Learning models to optimize tasks, automate pipelines, and build intelligent systems. The big capabilities of Artificial Intelligence make it possible to imitate and even outperform human intelligence in some cases as well as to automate manual tasks while rising accuracy, quality, and efficiency. In fact, accomplishing software-related tasks requires specific knowledge and skills. Thanks to the powerful capabilities of Artificial Intelligence, we could infer that expertise from historical experience using machine learning techniques. This would alleviate the burden on software specialists and allow them to focus on valuable tasks. In particular, Model-Driven Engineering is an evolving field that aims to raise the abstraction level of languages and to focus more on domain specificities. This allows shifting the effort put on the implementation and low-level programming to a higher point of view focused on design, architecture, and decision making. Thereby, this will increase the efficiency and productivity of creating applications. For its part, the design of metamodels is a substantial task in Model-Driven Engineering. Accordingly, it is important to maintain a high-level quality of metamodels because they constitute a primary and fundamental artifact. However, the bad design choices as well as the repetitive design modifications, due to the evolution of requirements, could deteriorate the quality of the metamodel. The accumulation of bad design choices and quality degradation could imply negative outcomes in the long term. Thus, refactoring metamodels is a very important task. It aims to improve and maintain good quality characteristics of metamodels such as maintainability, reusability, extendibility, etc. Moreover, the refactoring task of metamodels is complex, especially, when dealing with large designs. Therefore, automating and assisting architects in this task is advantageous since they could focus on more valuable tasks that require human intuition. In this thesis, we propose a cartography of the potential tasks that we could either automate or improve using Artificial Intelligence techniques. Then, we select the metamodeling task and we tackle the problem of metamodel refactoring. We suggest two different approaches: A first approach that consists of using a genetic algorithm to optimize set quality attributes and recommend candidate metamodel refactoring solutions. A second approach based on mathematical logic that consists of defining the specification of an input metamodel, encoding the quality attributes and the absence of smells as a set of constraints and finally satisfying these constraints using Alloy.
168

Les perspectives de ciblage de l'inflation dans les pays de l'Union Economique et Monétaire Ouest Africaine (UEMOA) / Prospects of inflation targeting in the West African Economic and Monetary Union (WAEMU) countries

Sall, Abdoul Khadry 08 December 2016 (has links)
La présente thèse porte sur « Les Perspectives de Ciblage de l'Inflation dans les Pays de l'UEMOA » dontl'opportunité pourrait être bien saisie à la suite de la nouvelle réforme institutionnelle de l'UMOA et de laBCEAO. Cette réforme doit s'accompagner d'une stratégie opérationnelle explicite dans la mesure où sesinnovations majeures sont très proches d'une politique de ciblage de l'inflation. Pour cela, nous évaluons lapolitique monétaire de la BCEAO axée en partie sur un régime de change fixe depuis les indépendances.Ainsi, après avoir montré la nécessité pour les Banque Centrale d’ancrer les anticipations inflationnistesdans les pays de l'UEMOA et l'apport potentiel de l'annonce d'un objectif d'inflation dans la maîtrise du tauxd'inflation (Chapitre 1), nous montrons que la politique de change fixe n'a pas été à l'origine des tauxd'inflation relativement contenus dans la l'Union, mais pire, elle procure de mauvaises résultats en termesd'une croissance économique élevée et soutenue (Chapitre 2). En cela, nous recommandons pour l’Unionun cadre de type d’une combinaison d’un régime de change intermédiaire et d’une stratégie de ciblage del’inflation. C’est ainsi qu’une cible d’inflation a été déterminée et, elle apparaît différente aussi bien d’un paysà l’autre que de l’objectif de 2% annoncé par le Comité de Politique Monétaire de la BCEAO (Chapitre 3).Nous terminons en déterminant la règle de ciblage d'inflation, et montrons que la meilleure règle optimaleque les autorités monétaires devraient adopter dans un cadre de ciblage de l'inflation concilie l’ancragenominal et la régulation conjoncturelle (Chapitre 4). / This thesis focuses on evaluating the "Prospects of Inflation Targeting in the WAEMU countries" in the wakeof the new institutional reform followed by the WAMU and the BCEAO. This reform must be accompanied byan explicit operational strategy insofar as its major innovations are very close to a policy of inflation targeting.Accordingly, we assess the impact of monetary policy of the BCEAO that focused on fixed exchange ratesince independence. In this respect, we manifest the inability of the fixed exchange rate policy to anchorinflation expectations in the WAEMU countries and the potential contribution regarding the announcement oftarget in controlling inflation (Chapter 1). In addition, we demonstrate, on the one hand, that the fixedexchange rate policy was not the cause of inflation contained in the WAEMU, and on the other, it providespoor results in terms of high and sustained economic growth (Chapter 2). Consequently, we recommend aframework of combination of an intermediate exchange rate regime and an inflation targeting strategy forWAEMU countries. Hence, an inflation target has been determined and it appears to be different from onecountry to another, against the 2% target announced by the Monetary Policy Committee of the BCEAO(Chapter 3). Finally, we define the inflation targeting rule, and show that the best optimal rule that monetaryauthorities adopt in an inflation targeting framework should ideally, reconciles nominal anchor and economicregulation (Chapter 4).
169

Neural Network Modeling for Prediction under Uncertainty in Energy System Applications. / Modélisation à base de réseaux de neurones dédiés à la prédiction sous incertitudes appliqué aux systèmes energétiques

Ak, Ronay 02 July 2014 (has links)
Cette thèse s’intéresse à la problématique de la prédiction dans le cadre du design de systèmes énergétiques et des problèmes d’opération, et en particulier, à l’évaluation de l’adéquation de systèmes de production d’énergie renouvelables. L’objectif général est de développer une approche empirique pour générer des prédictions avec les incertitudes associées. En ce qui concerne cette direction de la recherche, une approche non paramétrique et empirique pour estimer les intervalles de prédiction (PIs) basés sur les réseaux de neurones (NNs) a été développée, quantifiant l’incertitude dans les prédictions due à la variabilité des données d’entrée et du comportement du système (i.e. due au comportement stochastique des sources renouvelables et de la demande d'énergie électrique), et des erreurs liées aux approximations faites pour établir le modèle de prédiction. Une nouvelle méthode basée sur l'optimisation multi-objectif pour estimer les PIs basée sur les réseaux de neurones et optimale à la fois en termes de précision (probabilité de couverture) et d’information (largeur d’intervalle) est proposée. L’ensemble de NN individuels par deux nouvelles approches est enfin présenté comme un moyen d’augmenter la performance des modèles. Des applications sur des études de cas réels démontrent la puissance de la méthode développée. / This Ph.D. work addresses the problem of prediction within energy systems design and operation problems, and particularly the adequacy assessment of renewable power generation systems. The general aim is to develop an empirical modeling framework for providing predictions with the associated uncertainties. Along this research direction, a non-parametric, empirical approach to estimate neural network (NN)-based prediction intervals (PIs) has been developed, accounting for the uncertainty in the predictions due to the variability in the input data and the system behavior (e.g. due to the stochastic behavior of the renewable sources and of the energy demand by the loads), and to model approximation errors. A novel multi-objective framework for estimating NN-based PIs, optimal in terms of both accuracy (coverage probability) and informativeness (interval width) is proposed. Ensembling of individual NNs via two novel approaches is proposed as a way to increase the performance of the models. Applications on real case studies demonstrate the power of the proposed framework.
170

L'autorité des règles de conflit de lois : réflexion sur l'incidence des considérations substantielles / The authority of choice-of-law rules : essay on the impact of substantive considerations

Moya, Djoleen 13 December 2018 (has links)
Les règles de conflit de lois n’ont pas toutes la même autorité. Les parties, et même le juge, peuvent être autorisés à passer outre à la désignation opérée par la règle de conflit. Les parties sont parfois libres d’écarter par convention la loi objectivement désignée (règles de conflit supplétives), parfois tenues par la désignation opérée, qui s’impose à elles (règles de conflit impératives). Le juge est tantôt tenu, tantôt libre de relever d’office l’internationalité du litige, et d’en déduire l’application de la règle de conflit. Le choix d’envisager ensemble des questions aussi variées peut étonner, mais c’est celui de la jurisprudence. L’autorité des règles de conflit y est définie de manière conjointe, à l’égard des parties comme du juge, à l’aune de considérations substantielles. Ainsi, parce qu’une demande en recherche de paternité relève, en droit substantiel, d’une matière d’ordre public, et qu’elle intéresse l’état des personnes, réputé indisponible, la règle de conflit qui lui est applicable sera impérative et mise en œuvre, au besoin d’office, par le juge. Inversement, si la prétention relève d’une matière largement supplétive ou vise des droits disponibles, la règle de conflit applicable sera supplétive, et le juge ne sera pas tenu de la relever d’office. Ce sont donc des considérations substantielles qui définissent, en jurisprudence, l’autorité des règles de conflit à l’égard des parties comme du juge.Cependant, ce régime n’est plus celui du droit international privé européen. D’abord, les règlements européens n’ont défini l’autorité des règles de conflit qu’à l’égard des parties, laissant à chaque Etat membre le soin de déterminer leur autorité à l’égard du juge. Ensuite, la définition européenne de l’impérativité des règles de conflit fait abstraction de toute considération substantielle, en retenant une supplétivité de principe pour l’ensemble des règles de conflit unifiées à l’échelle européenne. La jurisprudence a-t-elle raison de définir l’autorité des règles de conflits exclusivement à l’aune de considérations substantielles ? Non, car cela revient à nier que l’effet juridique des règles de conflit est imputé selon des considérations propres à la justice conflictuelle. Pour autant, on ne saurait, à l’instar du législateur européen, exclure toute considération substantielle. Le présupposé des règles de conflit vise des questions de droit substantiel. Les règles de conflit sont donc construites en contemplation de considérations substantielles. Dès lors, si ces dernières ne sauraient dicter à elles seules l’autorité des règles de conflit, on ne saurait, non plus, en faire totalement abstraction. / Choice-of-law rules do not all have the same authority. The parties, and even the judge, may be allowed to override the designation made by the conflict rule. The parties are sometimes free to depart, by convention, from the designated law (suppletory choice-of-law rules), sometimes bound by the designation made (imperative choice-of-law rules). The judge is sometimes obliged, sometimes free to raise ex officio the internationality of the dispute, and to deduce from it the application of the choice-of-law rule. Considering together such varied questions may be surprising, but it is the approach adopted by French case law. The authority of choice-of-law rules is defined jointly, according to substantive considerations. As a matter of example, an affiliation proceeding is, in French substantive law, a matter of public policy regarding someone’s family status, and deemed to concern an unwaivable right. Therefore, the applicable choice-of-law rule will be imperative and applied ex officio by the judge. Conversely, if the claim falls within a largely suppletory subject matter or relates to waivable rights, the applicable choice-of-law rule will be suppletory, and the judge will not be required to apply it ex officio. Therefore, the authority of choice-of-law rules is defined, with respect to both the parties and the judge, according to substantive considerations.However, this regime is no longer that of European private international law. Firstly, the European regulations have only defined the authority of their choice-of-law rules with respect to the parties, leaving it up to each Member State to determine their authority over the judge. Secondly, the European definition of their authority over the parties disregards any substantive consideration, and retains a whole set of suppletory choice-of-law rules, regardless of the subject-matter. Is case law justified in defining the authority of choice-of-law rules solely on the basis of substantive considerations ? No, because choice-of-law rules designate the applicable law according to choice-of-law considerations. However, one cannot, like the European legislator, exclude any substantive consideration. The supposition of choice-of-law rules concerns substantive law issues. Choice-of-law rules are, thus, devised according to substantive considerations. Therefore, if these alone cannot define the authority of choice-of-law rules, they cannot be totally ignored either.

Page generated in 0.0365 seconds