• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 282
  • 109
  • 25
  • 1
  • 1
  • Tagged with
  • 425
  • 205
  • 99
  • 42
  • 39
  • 38
  • 38
  • 37
  • 36
  • 35
  • 32
  • 31
  • 30
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Apprentissage de règles associatives temporelles pour les séquences temporelles de symboles / Learning temporal association rules on Symbolic time sequences

Guillame-Bert, Mathieu 23 November 2012 (has links)
L'apprentissage de modèles temporels constitue l'une des grandes problématiques de l'Exploration de Données (Data Mining). Dans cette thèse, nous avons développé un nouveau modèle temporel appelé TITA Rules (Règle associative temporelle basé sur des arbres d'intervalles). Ce modèle permet de décrire des phénomènes ayant un certain degré d'incertitude et/ou d'imprécision. Ce modèle permet entre autres d'exprimer la synchronicité entre évènements, les contraintes temporelles disjonctives et la négation temporelle. De par leur nature, les TITA Rules peuvent êtes utilisées pour effectuer des prédictions avec une grande précision temporel. Nous avons aussi développé un algorithme capable de découvrir et d'extraire de manière efficace des TITA Rules dans de grandes bases de données temporelles. Le cœur de l'algorithme est basé sur des techniques de minimisation d'entropie, de filtrage par Apriori et par des analyses de co-dépendance. Note modèle temporelle et notre algorithme ont été appliqués et évalués sur plusieurs jeux de données issues de phénomènes réels et de phénomènes simulés. La seconde partie de cette thèse à consisté à étudier l'utilisation de notre modèle temporel sur la problématique de la Planification Automatique. Ces travaux ont mené au développement d'un algorithme de planification automatique. L'algorithme prend en entrée un ensemble de TITA Rules décrivant le fonctionnement d'un système quelconque, une description de l'état initial du système, et un but à atteindre. En retour, l'algorithme calcule un plan décrivant la meilleure façon d'atteindre le but donné. Par la nature même des TITA Rules, cet algorithme est capable de gérer l'incertain (probabilités), l'imprécision temporelle, les contraintes temporelles disjonctives, ainsi que les événements exogènes prédictibles mais imprécis. / The learning of temporal patterns is a major challenge of Data mining. We introduce a temporal pattern model called Temporal Interval Tree Association Rules (Tita rules or Titar). This pattern model can be used to express both uncertainty and temporal inaccuracy of temporal events. Among other things, Tita rules can express the usual time point operators, synchronicity, order, and chaining,disjunctive time constraints, as well as temporal negation. Tita rules are designed to allow predictions with optimum temporal precision. Using this representation, we present the Titar learner algorithm that can be used to extract Tita rules from large datasets expressed as Symbolic Time Sequences. This algorithm based on entropy minimization, apriori pruning and statistical dependence analysis. We evaluate our technique on simulated and real world datasets. The problem of temporal planning with Tita rules is studied. We use Tita rules as world description models for a Planning and Scheduling task. We present an efficient temporal planning algorithm able to deal with uncertainty, temporal inaccuracy, discontinuous (or disjunctive) time constraints and predictable but imprecisely time located exogenous events. We evaluate our technique by joining a learning algorithm and our planning algorithm into a simple reactive cognitive architecture that we apply to control a robot in a virtual world.
292

Intégration des effets de site dans les méthodes d'estimation probabiliste de l'aléa sismique / Integration of Site Effects into Probabilistic Seismic Hazard Assessment.Integration of site effects into probabilistic seismic hazard methods.

Aristizabal, Claudia 19 March 2018 (has links)
Les travaux de cette thèse s'inscrivent dans l'objectif général de fournir des recommandations sur la façon d'intégrer les effets du site dans l'évaluation probabiliste des risques sismiques, mieux connue sous le nom de PSHA, une méthodologie connue et utilisée à l'échelle mondiale pour estimer l'aléa et le risque sismiques à l'échelle régionale et locale. Nous passons donc en revue les méthodes disponibles dans la littérature pour obtenir la courbe d'aléa sismique en surface d'un site non-rocheux, en commençant par les méthodes les plus simples et plus génériques (partiellement probabiliste), jusqu'aux méthodes site-spécifiques (partiellement et entièrement probabilistes) qui nécessitent une caractérisation du site de plus en plus poussée, rarement disponible sauf cas exceptionnel comme par exemple le site test d'Euroseistest. C'est justement sur l'exemple de ce site que sont donc comparées un certain nombre de ces méthodes, ainsi qu'une nouvelle.La spécificité et la difficulté de ces études PSHA "site-spécifiques" vient du caractère non-linéaire de la réponse des sites peu rigides, ainsi que du fait que le rocher de référence contrôlant cette réponse est souvent très rigide. Les aspects "ajustement rocher dur" et "convolution" de l'aléa sismique au rocher avec la fonction d'amplification ou la fonction transfert (empirique ou numérique) d’un site font donc l'objet d'une attention particulière dans ces études comparatives. Un cadre général est présenté sur la façon de prendre en compte simultanément les caractéristiques spécifiques au site, la variabilité aléatoire complète ou réduite ("single station sigma"), les ajustements hôte-cible et le comportement linéaire / non linéaire d'un site, où nous expliquons toutes les étapes, corrections, avantages et difficultés que nous avons trouvés dans le processus et les différentes façons de les mettre en oeuvre.Cette étude comparative est divisée en deux parties: la première porte sur les méthodes non site-spécifiques et les méthodes hybrides site-spécifique (évaluation probabiliste de l'aléa au rocher et déterministe de la réponse de site), la seconde porte sur deux approches prenant en compte la convolution aléa rocher / réponse de site de façon probabiliste. Un des résultats majeurs de la première est l'augmentation de l'incertitude épistémique sur l'aléa en site meuble comparé à l'aléa au rocher, en raison du cumul des incertitudes associées à chaque étape. Un autre résultat majeur commun aux deux études est l'impact très important de la non-linéarité du sol dans les sites souples, ainsi que de la façon de les prendre en compte: la variabilité liée à l'utilisation de différents codes de simulation NL apparaît plus importante que la variabilité liée à différentes méthodes de convolution 100% probabilistes. Nous soulignons l'importance d'améliorer la manier d’inclure les effets du site dans les méthodes de l’estimation de l’aléa sismique probabiliste ou PSHA, et nous soulignons aussi l'importance d'instrumenter des sites actifs avec des sédiments meubles, comme l'Euroseistest, afin de tester et valider les modèles numériques.Finalement, on présente un résumé des résultats, des conclusions générales, de la discussion sur les principaux problèmes méthodologiques et des perspectives d'amélioration et de travail futur.Mots-clés: Effets du site, incertitude épistémique, PSHA, single station sigma, ajustements hôte-cible, effets linéaires et non linéaires, réponse de site / The overall goal of this research work is of provide recommendations on how to integrate site effects into Probabilistic Seismic Hazard Assessment, better known as PSHA, a well-known and widely used methodology. Globally used to estimate seismic hazard and risk at regional and local scales. We therefore review the methods available in the literature to obtain the seismic hazard curve at the surface of a soft soil site, starting with the simplest and most generic methods (partially probabilistic), up to the full site-specific methods (partially and fully probabilistic), requiring an excellent site-specific characterization, rarely available except exceptional cases such as the case of Euroseistest site. It is precisely on the example of this site that are compared a number of these methods, as well as a new one. And it is precisely at the Euroseistest that we performed an example of application of the different methods as well as a new one that we propose as a result of this work.The specificity and difficulty of these "site-specific" PSHA studies comes from the non-linear nature of the response of the soft sites, as well as from the fact that the reference rock controlling this response is often very rigid. The "rock to hard rock adjustment" and "convolution" aspects of the rock seismic hazard, together with the amplification function or the transfer function (empirical or numerical) of a site are therefore the subject of particular attention in these studies. comparative studies. A general framework is presented on how to simultaneously take into account the site-specific characteristics, such as the complete or reduced random variability ("single station sigma"), host-to -target adjustments and the linear / nonlinear behavior of a site, where we explain all the followed steps, the different corrections performed, the benefits and difficulties that we found in the process and the ways we sort them and discussing them when the answer was not straight forward.This comparative study is divided into two parts: the first deals with non-site-specific methods and site-specific hybrid methods (probabilistic evaluation of rock hazard and deterministic of the site response). The second deals with two approaches taking into account the convolution of rock hazard and the site response in a probabilistically way. One of the major results of the first is the increase of the epistemic uncertainty on the soft site hazard compared to the rock hazard, due to acumulation of uncertainties associated to each step. Another major common result to both studies is the very important impact of non-linearity on soft sites, as well as the complexity on how to account for them: the variability associated with the use of different non-linear simulation codes appears to be greater than the method-to-method variability associated with the two different full convolution probabilistic methods. We emphasize on the importance of improving the way in which the site effects are included into probabilistic seismic hazard methods, PSHA. And we also emphasize on the importance of instrumenting active sites with soft sediments, such as the Euroseistest, to test and validate numerical models.Finally, a summary of the results, the general conclusions, discussion of key methodological issues, and perspectives for improvement and future work are presented.Keywords: Site Effects, Epistemic Uncertainty, PSHA, single station sigma, host to target adjustments, linear and nonlinear site effects, soil site response.
293

La gestion paysagère des ravageurs : exploration des verrous et leviers d'une innovation agroécologique par la modélisation participative.

Salliou, Nicolas 23 May 2017 (has links) (PDF)
L’agroécologie implique la conception de systèmes agricoles intégrant autant que possible les services écosystémiques. Aux produits chimiques souvent employés contre les ravageurs de cultures peut être privilégié la régulation par leurs ennemis naturels. Des résultats en écologie indiquent que des paysages agricoles dont la composition est riche en habitats semi-naturels (bois, forets, prairies, etc) les favorisent en leur fournissant abris, sites de pontes et nourriture. Il serait donc possible de mettre en place une Gestion Paysagère des Ravageurs (GPR), c’est-à-dire de concevoir et d’aménager des paysages agricoles en faveur de ces habitats afin de favoriser les ennemis naturels et le contrôle biologique. Toutefois, l’implémentation d’une telle innovation potentielle par les acteurs de ces paysages reste largement à explorer. Dans cette thèse, dans un esprit de recherche-action, nous avons pris le parti d’explorer la conception de tels paysages régulateurs de ravageurs en s’impliquant avec des acteurs locaux et scientifiques. Nous avons initié une démarche de recherche participative avec des acteurs agricoles d’une région du Tarn-et-Garonne spécialisée dans l’arboriculture fruitière, intensive en traitements chimiques. A partir de leurs représentations et de leurs connaissances nous avons cherché à déterminer quels étaient les facteurs favorables ou non à la GPR. En particulier, nous avons qualifié les conditions dans lesquelles le paysage et les ennemis naturels étaient construit socialement par ces acteurs comme des ressources pourvoyeuses de services écosystémiques de régulation. Nous avons cherché également à identifier si ces acteurs étaient liés entre eux par des dépendances pouvant nécessiter une gestion coordonnée du paysage. Nous avons exploré la possibilité de la gestion paysagère par plusieurs cycles de modélisations participatives. La thèse a ainsi : mis à jour et qualifié la diversité des modèles mentaux des acteurs locaux sur leurs stratégies de gestion des ravageurs, co-construit des modèles Bayésien participatifs afin d’explorer via des scénarios les incertitudes autour de la question de la régulation biologique des ravageurs et, enfin, réalisé la coconstruction d’un modèle multi-agents autour de le la dynamique de population du ravageur invasif Drosophila suzukii et de sa potentielle gestion paysagère. Nous avons pu ainsi déterminer qu’en l’état actuel des représentations des acteurs, qu’ils soient scientifiques ou locaux, la composition du paysage en éléments semi-naturels leur apparaît comme faiblement reliée à un service écosystémique de régulation des ravageurs, quand bien même ce paysage est souvent favorable à la biodiversité fonctionnelle. Actuellement, faute de bénéfices agricoles clairement identifiés, les acteurs impliqués sont en conséquence peu dépendants entre eux et le besoin de se coordonner pour mettre en place une GPR est faible. La plupart des agriculteurs indiquent plutôt une nette préférence pour les solutions individuelles vis-à-vis des ravageurs, par l’utilisation de pesticides et de filets protecteurs entourant les cultures. Ce focus individuel suggère qu’innover dans l’intégration de l’activité des ennemis naturels pourrait être plus aisé au niveau de la végétation naturelle des exploitations individuelles, comme peut l’être l’inter-rang des vergers. Par ailleurs, ces résultats font apparaître le besoin d’études scientifiques liant écologie et économie qui chercheraient à mesurer explicitement les bénéfices obtenus par les acteurs agricoles par le biais de paysages favorables aux ennemis naturels. Des résultats positifs de telles études seraient mobilisateurs pour de futures recherches participatives dans ce domaine. Enfin, cette thèse participative et exploratoire nous a permis également d’identifier de nouveaux terrains et questions de recherches dans le domaine de la GPR qui pourront être poursuivis.
294

Contributions to static and adjustable robust linear optimization / Contributions à l’optimisation linéaire robuste statique et ajustable

Costa Santos, Marcio 25 November 2016 (has links)
L'incertitude a été toujours présente dans les problèmes d'optimisation. Dans ce travail, nous nous intéressons aux problèmes d'optimisation multi-niveaux où l'incertitude apparaît très naturellement. Les problèmes d'optimisation multi-niveaux avec incertitude ont suscité un intérêt à la fois théorique et pratique. L'optimisation robuste fait partie des méthodes les plus étudiées pour traiter ces problèmes. En optimisation robuste, nous cherchons une solution qui optimise la fonction objective pour le pire scénario appartenant à un ensemble d'incertitude donné. Les problèmes d'optimisation robuste multi-niveaux sont difficiles à résoudre, même de façon heuristique. Dans cette thèse, nous abordons les problèmes d'optimisation robuste à travers le prisme des méthodes de décomposition. Ces méthodes décomposent le problème en un problème maître (MP) et plusieurs problèmes satellites de séparation (AP). Dans ce contexte, les solutions et les relaxations heuristiques ont une importance particulière. Même pour les problèmes d'optimisation combinatoires, les relaxations sont importantes pour analyser l'écart de l'optimalité des solutions heuristiques. Un autre aspect important est l'utilisation des heuristiques comme integrés dans une méthode exacte. Les principales contributions de ce travail sont les suivantes. Premièrement, nous proposons une nouvelle relaxation pour les problèmes multi-niveaux basée sur l’approche dite d’information parfaite dans le domaine de l’optimisation stochastique. L'idée principale derrière cette méthode est d'éliminer les contraintes de non anticipativité du modèle pour obtenir un problème plus simple. Nous pouvons ensuite fournir des algorithmes combinatoires ad-hoc et des formulations de programmation mixte en nombres entiers compactes pour ce problème. Deuxièmement, nous proposons de nouveaux algorithmes de programmation dynamique pour résoudre les problèmes satellites apparaissant dans une classe spécifique de problèmes robustes pour un ensemble d'incertitude de type budget. Ce type d'incertitude est basé sur le nombre maximum d'écarts autorisés et leur taille. Ces algorithmes peuvent être appliqués à des problèmes de lot-sizing et à des problèmes de tournées de véhicules. Enfin, nous proposons un modèle robuste pour un problème lié à l’installation équitable de capteurs. Ce modèle fait le lien entre l'optimisation robuste et l'optimisation stochastique avec contraintes probabilistes ambigües. / Uncertainty has always been present in optimization problems, and it arises even more severely in multistage optimization problems. Multistage optimization problems underuncertainty have attracted interest from both the theoretical and the practical level.Robust optimization stands among the most established methodologies for dealing with such problems. In robust optimization, we look for a solution that optimizes the objective function for the worst possible scenario, in a given uncertainty set. Robust multi-stage optimization problems are hard to solve even heuristically. In this thesis, we address robust optimization problems through the lens of decompositions methods. These methods are based on the decomposition of the robust problem into a master problem (MP) and several adversarial separation problems (APs). The master problem contains the original robust constraints, however, written only for finite numbers of scenarios. Additional scenarios are generated on the y by solving the APs. In this context, heuristic solutions and relaxations have a particular importance. Similarly to combinatorial optimization problems, relaxations are important to analyze the optimality gap of heuristic solutions. Heuristic solutions represent a substantial gain from the computational viewpoint, especially when used to solve the separation problem. Because the adversarial problems must be solved several times, good heuristic solution may avoid the exact solution of the APs. The main contributions of this work are three-fold. First, we propose a new relaxation for multi-stage problems based on the approach named perfect information in the field of stochastic optimization. The main idea behind this method is to remove nonanticipativity constraints from the model to obtain a simpler problem for which we can provide ad-hoc combinatorial algorithms and compact mixed integer programming formulations. Second, we propose new dynamic programming algorithms to solve the APs for robust problems involving budgeted uncertainty, which are based on the maximum number of deviations allowed and on the size of the deviations. These algorithms can be applied to lot-sizing problems and vehicle routing problems among others. Finally, we study the robust equitable sensor location problem. We make the connection between the robust optimization and the stochastic programming with ambiguous probabilistic constraints. We propose linear models for several variants of the problem together withnumerical results.
295

Interstitialités et virtualité - une approche dialogique des anamorphoses et des images doubles dans l’art contemporain / Interstitialities and virtuality : a dialogical approach to anamorphoses and double images in contemporary art.

Limare, Sophie 16 November 2012 (has links)
Cette recherche, inscrite dans le champ de l’esthétique et de l’histoire de l’art, a pour objectif de rendre compte de la multiplicité et de la polysémie des productions artistiques du XXIe siècle relevant de l’anamorphose et de l’image double. Ces œuvres instables ont la faculté de conjuguer le flux et l’immobilité, tout en permettant de « saisir » la virtualité par le biais de l’entrevision. Constitutives d’ambiguïtés irréductibles, elles réactualisent les détournements de la perspective issus de la Renaissance et produisent des images immatérielles sans nécessairement faire appel aux nouvelles technologies caractérisant l’art numérique. En s’appuyant notamment sur la pensée philosophique de Marcello Vitali Rosati, précisant que le virtuel est la dynamicité de l’interstice, il est posé comme hypothèse de cette investigation que l’analyse de l’ « entre-deux » permettra d’appréhender la virtualité dans la richesse de sa complexité. / This research project in the field of aesthetics aims at accounting for the multiplicity and polysemy of 21st century works of art pertaining to the idea of anamorphosis and double image. These unstable works of art have the power to combine flux and stasis while allowing the spectator to “seize” virtuality through in between-vision. In carrying intractable ambiguities, they revive the Renaissance uses of perspective and illusion and produce immaterial images without necessarily resorting to state- of- the- art digital technology. Drawing on the philosophical works of Marcello Vitali Rosati positing the virtual as being the dynamics of the interstice, the working assumption of this research is that the analysis of “in-betweeness” shall help to get more insight into virtuality in all its richness and complexity.
296

Robust energy and climate modeling for policy assessment / Améliorer la robustesse de l’évaluation des politiques climatique et énergétique

Nicolas, Claire 01 June 2016 (has links)
La plupart des exercices d’analyse de politiques climatiques ou énergétiques font appelà des modèles dits "d’évaluation intégrée" (MEIs). Ces modèles économie-énergie-climat sont des modèles numériques pluridisciplinaires destinés à étudier lesquestions liées au changement climatique et à sa gestion. Socles d’une accumulationde connaissance, ils ont une visée prospective et aident à traduire les débatsqualitatifs des instances de décisions nationales et internationales en un ensemble dedonnées quantitatives, scientifiquement vérifiables. Leur faible capacité à prendre encompte les incertitudes inhérentes à tout exercice de prospective mais aussi leur tropgrande complexité expliquent pourquoi ces MEIs sont si souvent décriés et leurutilisation remise en question.Ce constat a guidé nos travaux dont l’objectif était de contribuer à améliorer larobustesse des MEIs, afin de renforcer la pertinence de leur utilisation pour l’analysede l’impact de politiques économiques sur le climat-énergie. Nous avons d’abordexaminé comment ces modèles participent aux débats sur le changement climatique etcomment améliorer leur utilisation. Nous avons retracé la genèse de ces modèles etleur évolution et analysé les principales critiques qui leur sont adressées. Dans unsecond temps, nous nous sommes focalisés sur l’un des principaux reproches faits auxMEIs : le traitement de l’incertitude. Sur la base de ces analyses, nous avons mis enoeuvre une approche récente de traitement des problèmes d’incertitude paramétrique:l’optimisation robuste, méthode encore très peu utilisée dans le cadre d’étudesprospectives. / Energy-economy and energy-economy-environment models are widely used to assessenergy and climate policies. Developed during the last forty years, these models allowthe study of the interactions between the energy-transport system, the economy andthe climate system. These interactions are very complex as they involve linkages,feedback loops and delays that are not perfectly known and that take place over a longtime horizon.This complexity along with the large uncertainties weighing on the model parametersand main assumptions explain why the use of models in the policy debate, (where themodels address issues on climate change scenarios and on energy planning), is largelycriticized.Based on this observation, our work aimed primarily at increasing the robustness ofthese models, to reinforce the relevance of their use to evaluate economic policyimpacts. At first, we examine how these models should be used to contributeeffectively to the climate and energy policy analysis debate. We review the evolution ofthe modeling practice and question it, discussing its relevance. We then focus on theuncertainty treatment and on the basis of this review, we implement an alternativeway of considering parameter uncertainty when "modeling the future" using robustoptimization.
297

Élaboration d'un modèle de découverte et de composition des services web mobiles / Implementation of a mobile web services discovery and composition model

Ben Njima, Cheyma 06 July 2017 (has links)
Au cours des dernières décennies, Internet a connu une révolution et une croissance exponentielle.A la suite de cette croissance, un grand nombre de services web et d’applications ont émergé pour répondre aux différents besoins des consommateurs. En même temps, l’industrie du réseau mobile est devenue omniprésente, ce qui rend la plupart des utilisateurs inséparables de leurs terminaux mobiles. La combinaison de la technologie mobile et des services web fournit un nouveau paradigme appelé services web mobiles. Ainsi, la consommation des services web a` partir des appareils mobiles émerge en proposant plusieurs facilites´ aux utilisateurs et en imposant plus de manipulations de ces services.En effet, afin que les utilisateurs trouvent des services répondant a` leurs besoins, un mécanisme de découverte est nécessaire, par ailleurs, les demandes sont devenues non seulement plus complexes mais aussi plus dynamiques, un service unique qui offre une fonctionnalité simple et primitive est devenu insuffisant pour satisfaire les besoins et les exigences complexes. Par conséquent, la combinaison de multiples services pour fournir un service composite est de plus en plus utilisée demandée. Nous parlons ainsi des mécanismes de découverte et de composition des services web mobiles. Ces deux paradigmes sont mutuellement liés et complémentaires.La découverte et la composition des services web dans un environnement mobile soulèvent plusieurs défis qui n’existent pas dans un environnement classique (non mobile). Parmi ces défis se trouve les contraintes limitées de l’appareil mobile, appelé dans ce travail contexte statique, ainsi que le changement de contexte qui est duˆ principalement a` la mobilité du dispositif, appelé contexte dynamique.Ainsi, l’objet de la présente thèse est de proposer un Framework de composition de services web mobile englobant deux approches complémentaires. Une première approche proposée est consacrée a` la découverte des services web mobiles appelée MobiDisc et une deuxième qui propose une solution a` la problématique de composition dans un contexte dynamique. Notre première approche exploite le contexte statique avec les propriétés de QoS et les préférences´ utilisateurs dans les descriptions sémantiques des services et de la requête utilisateur afin d’augmenter l’exactitude du processus de découverte. Quand a` l’approche de composition, elle met l’accent sur le contexte dynamique qui peut modifier le résultat de la composition. L’objectif est de déterminer la sensibilité des services au contexte dynamique et de générer des plans de composition pour l’utilisateur tries´ selon leurs valeurs de sensibilité globale lui permettant de choisir la meilleure composition. / Over the last two decades, Internet has grown exponentially. causing the emergence of web ser-vices and applications that meet the different needs of the consumers. During the same period, the mobile network industry has become ubiquitous, making most users inseparable from their mobile devices. So the combination of mobile technology and web services provides a new paradigm named mobile web services. Thus, the consumption of web services from mobile devices emerges by offering several facilities to users and requiring greater manipulation of these services such as discovery, composition and execution.Indeed, in order for users to find services that meet their requirements, a discovery mechanism is needed. Since requests have become not only more complex, but also more dynamic, a single service that offers simple and primitive functionality has become insufficient to satisfy the complex requirements. Therefore, the combination of multiple services to provide a composite service is more and more requested. We talk about mobile web service discovery and composition. These two paradigms are mutually linked and complementary.The discovery and composition of web services in a mobile environment raise several challenges that do not exist in a traditional (non-mobile) environment. Among these challenges are the limited constraints of the mobile device, called in this work static context, as well as the change of context which is due mainly to the mobility of the device which called dynamic context.In this thesis we propose a framework for the composition of mobile web services encompassing two complementary approaches. A first proposed approach called MobiDisc, speaking about the discovery of mobile web services and a second that proposes a solution to the problem of composition in a dynamic context. Our first approach uses the static context with QoS properties and user preferences in the semantic descriptions of services and the user query to increase the accuracy of the discovery process. As for the second compositional approach, it focuses on the dynamic context that can modify the composition result. The objective is to determine the sensitivity of the services to the dynamic context and to generate composition plans to the user ordered according to a sensitivity value.
298

Validation and robust optimization of deep drawing process by simulation in the presence of uncertainty / Validation et optimisation robuste d’un procédé d’emboutissage par simulation en contexte incertain

Nguyen, Von Dim 26 February 2015 (has links)
L’objectif ultime de ce travail de thèse est d’évaluer la possibilité de valider et d’optimiser un processus de fabrication en utilisant la simulation numérique en tenant compte des incertitudes irréductibles sur le procédé, les matériaux et la géométrie du produit fabriqué. La prise en compte des incertitudes nécessite de quantifier les effets des variations des paramètres du modèle sur les sorties de celui-ci, en propageant ces variations via la simulation numérique pour évaluer leurs effets sur les sorties. Dans ce travail nous avons proposé une procédure pour déterminer le seuil de sensibilité du modèle numérique afin de construire des plans d’expériences numériques cohérents avec ce seuil. Nous avons également montré que, compte tenu des incertitudes sur les matériaux et la géométrie du produit, il est possible d’optimiser certains paramètres du procédé pour contrôler les effets des incertitudes sur les variations dimensionnelles et morphologiques du produit. Pour cela, nous avons proposé une procédure d’optimisation basée sur un algorithme NSGA-II et une méta-modélisation du procédé. L’application à l’emboutissage d’une tôle en U, retour élastique inclus, montre qu’il s’agit d’un problème de conception robuste pour lequel nous obtenons l’ensemble des compromis entre l’écart à la moyenne et l’écart type d’une fonction « performance » du procédé correctement choisie. Finalement l’analyse de ces résultats nous permet de quantifier le lien entre la notion de robustesse d’une solution optimisée du procédé et les critères de mesure de la qualité du produit / The ultimate objective of this thesis is to evaluate the possibility to validate and optimize a manufacturing process using numerical simulation and taking into account the irreducible uncertainties in the process, materials and geometry of manufactured product. Taking into account the uncertainties requires quantifying the effects of variations of model parameters on the outputs, by propagating these variations via computer simulation to assess their effects on the outputs. In this work, we have proposed a procedure to determine the sensitivity threshold of the numerical model to build numerical Design of Experiments consistent with this threshold. We have also shown that, given the uncertainties in the materials and the geometry of the product, it is possible to optimize certain process parameters to control the effects of uncertainties on the dimensional and morphological variations of the product. For this, we have proposed an optimization procedure based on NSGA-II algorithm and a meta-modeling of the process. The application for deep drawing of a U-shaped sheet metal part, springback included shows that it is a robust design problem for which we get all the compromise between the deviation from the mean and standard deviation of a "performance" depending on the process correctly chosen. Finally, the analysis of these results allows us to quantify the relationship between the notion of robustness of an optimized solution of the process and criteria for measuring the quality of the product
299

Caractérisation et prédiction probabiliste des variations brusques et importantes de la production éolienne / Characterization and probabilistic forecasting of wind power production ramps

Bossavy, Arthur 06 December 2012 (has links)
L'énergie éolienne est aujourd'hui la source d'énergie renouvelable en plus forte expansion. Le caractère variable et partiellement contrôlable de sa production complexifie la gestion du système électrique. L'utilisation dans divers processus de décision, de prédictions du niveau de production à des horizons de 2-3 jours, permet une meilleure intégration de cette ressource. Certaines situations donnent néanmoins lieu à des performances de prédiction insatisfaisantes. Des erreurs dans la prédiction de l'instant d'apparition de variations brusques et importantes de la production, peuvent être responsables d'importants déséquilibres énergétiques, et avoir un impact négatif sur la gestion du système électrique. L'objectif de cette thèse est de proposer des approches permettant d'une part de caractériser ces variations, et d'autre part de prédire et d'estimer l'incertitude dans l'instant de leur apparition. Dans un premier temps, nous étudions différentes formes de caractérisation de ces variations. Nous proposons un modèle de rupture permettant de représenter le caractère aléatoire dans la proximité des ruptures d'un signal, tout en tenant compte des aspects borné et non-stationnaire du processus de production. A partir de simulations issues de ce modèle, nous réalisons une étude paramétrique destinée à évaluer et comparer les performances de différents filtres et approches multi-échelles de détection. Dans un deuxième temps, nous proposons une approche de prédiction probabiliste de l'instant d'apparition d'une rupture, reposant sur l'utilisation de prévisions météorologiques ensemblistes. Leur conversion en puissance fournit différents scénarii de la production, à partir desquels sont agrégées les prédictions de l'instant d'apparition d'une rupture. L'incertitude associée est représentée à l'aide d'intervalles de confiance temporels et de probabilités estimées conditionnellement. Nous évaluons la fiabilité et la finesse de ces estimations sur la base de mesures de production provenant de différentes fermes éoliennes. / Today, wind energy is the fastest growing renewable energy source. The variable and partially controllable nature of wind power production causes difficulties in the management of power systems. Forecasts of wind power production 2-3 days ahead can facilitate its integration. Though, particular situations result in unsatisfactory prediction accuracy. Errors in forecasting the timing of large and sharp variations of wind power can result in large energy imbalances, with a negative impact on the management of a power system. The objective of this thesis is to propose approaches to characterize such variations, to forecast their timing, and to estimate the associated uncertainty. First, we study different alternatives in the characterization of wind power variations. We propose an edge model to represent the random nature of edge occurrence, along with representing appropriately the bounded and non-stationary aspects of the wind power production process. From simulations, we make a parametric study to evaluate and compare the performances of different filters and multi-scale edge detection approaches. Then, we propose a probabilistic forecasting approach of edge occurrence and timing, based on numerical weather prediction ensembles. Their conversion into power provides an ensemble of wind power scenarios from which the different forecast timings of an edge are combined. The associated uncertainty is represented through temporal confidence intervals with conditionally estimated probabilities of occurrence. We evaluate the reliability and resolution of those estimations based on power measurements from various real world case studies.
300

La vraisemblance en matière pénale

Le Drevo, Delphine 30 June 2017 (has links)
Si la manifestation de la vérité apparaît comme l’un des objectifs centraux du procès pénal, confronté à l’obstacle du doute, le droit doit bien souvent se contenter de vraisemblance. Pressés par les nécessités d’agir et de décider, les acteurs de la justice pénale ne pourront pas toujours attendre d’être absolument certains de leur opinion. Afin d’éviter l’écueil de l’immobilisme - qui serait préjudiciable à l’intérêt de la société - ou celui de la précipitation – qui serait préjudiciable à l’intérêt de l’individu -, le droit pénal organise une réaction fondée sur une réalité vraisemblable. La vraisemblance contribue ainsi à la réalisation prudente et efficace du droit pénal. Il faut alors admettre que si la vraisemblance n’est pas une notion spécifiquement juridique, il n’en demeure pas moins que le droit lui reconnaît des effets. L’ambition de cette étude est de démontrer que la vraisemblance innerve l’ensemble de la matière pénale et permet d’y introduire les garanties suffisantes d’objectivité dont elle a besoin, car seule l’existence hautement probable d’une réalité infractionnelle permet de forger le seuil de vraisemblance à partir duquel ce standard va pouvoir produire des effets de droit. Il est alors question d’identifier ces effets de droit, d’en démontrer les ressorts et de déterminer les possibilités de surpassement du doute qu’offre cette notion / If the manifestation of truth appears as one of the central objectives of the criminal trial, confronted with the obstacle of doubt, the law must often be satisfied with verisimilitude. Pressed by the necessity to act and decide, the actors of the criminal justice system can not always wait to be absolutely certain of their opinion. In order to avoid the pitfall of immobilism - which would be prejudicial to the interests of society - or that of precipitation - which would be detrimental to the interest of the individual - the criminal law organizes a reaction based on a plausible reality. The likelihood thus contributes to the prudent and effective realization of criminal law. It must be recognized, then, that while verisimilitude is not a legal concept, the fact remains that the law recognizes its effects. The ambition of this study is to demonstrate that the likelihood serves as a basis for the whole of penal matters and allows the necessary guarantees of objectivity to be introduced, since only a certain degree of conviction allows for the threshold of Likelihood that this standard will produce legal effects. It is then a question of identifying these legal effects, of demonstrating the springs and of determining the possibilities of overcoming the doubt that this notion offers. Likelihood is indeed a formidable tool for overcoming doubt, to which the law assigns two predominant roles : an operative role in the first place, by authorizing the investigating and investigating authorities to act in spite of their doubts. A probative role then, to the extent that the existence of certain facts presents such a likelihood that they benefit from a presumption of truth

Page generated in 0.5957 seconds