• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 318
  • 91
  • 22
  • 2
  • Tagged with
  • 440
  • 198
  • 105
  • 73
  • 65
  • 54
  • 52
  • 48
  • 44
  • 41
  • 38
  • 38
  • 37
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Optimisation des profils de consommation pour minimiser les coûts économique et énergétique sur cycle de vie des systèmes photovoltaïques autonomes et hybrides - Evaluation de la technologie Li-ion

Thiaux, Yaël 08 July 2010 (has links) (PDF)
Dans l'optique de mieux dimensionner, sur l'ensemble de leur cycle de vie, les systèmes photovoltaïques autonomes et hybrides, les travaux menés dans le cadre de cette thèse ont concerné deux principales voies. Tout d'abord, l'action sur le profil de consommation, permettant de se rapprocher du comportement solaire idéal du consommateur, a été étudiée. A même service énergétique rendu au consommateur, des gains importants, que ce soit en termes de coûts économiques ou énergétiques sur cycle de vie ont pu être mis en avant notamment par la minimisation du recours au stockage. Parallèlement, une technologie d'accumulateurs Li-ion, innovante dans le cadre de ces systèmes, a été évaluée sur la base du coût énergétique primaire global du système sur son cycle de vie, donc incluant le vieillissement de ses composants. Les résultats ont montré qu'en raison d'une meilleure durée de vie et de plus faibles pertes énergétiques, cette technologie fait figure à moyen terme de concurrent sérieux de la technologie Plomb-Acide universellement utilisée à l'heure actuelle. Ces travaux concernant des systèmes à petites échelles préfigurent ce qu'il sera possible de faire à plus grande échelle dans les « réseaux intelligents » qui permettront d'exploiter plus massivement les ressources renouvelables comme le soleil et le vent, très largement disponibles.
232

Systèmes agraires et Soutenabilité, un enjeu pour la préservation d'une eau de qualité en Bretagne, un problème d'évaluation

Douguet, Jean-Marc 21 June 2001 (has links) (PDF)
La Bretagne, région agricole française est confrontée a un problème de soutenabilité. Du fait d'une croissance forte de l'agriculture à la fin du XXième siècle, de fortes pressions se sont exercée sur le milieu naturel, en particulier sur l'eau. La dégradation de la qualité de l'environnement a engendré de fortes répercussions tant aux niveaux écologique, économique que social. La préservation de la qualité de l'eau est devenue un enjeu majeur pour le développement économique, social et culturel de la Bretagne. La qualité de l'eau y est considérée comme un capital naturel critique au sens où de son maintien dépend le processus de soutenabilité. Notre analyse repose sur une évaluation des modes de production agricole compatibles avec une optique forte de la soutenabilité. Conceptualisée à partir d'une approche en termes de production jointe élargie au domaine écologique et appliquée au cas le la Bretagne à travers le modèle M3ED-AGRI, notre démarche vise en une analyse structurelle des systèmes de production agricole. Le modèle M3ED-AGRI constitue le support à une analyse coût-efficacité permettant de caractériser et de classer diverses alternatives d'évolution de l'agriculture. Insérer dans les contextes local, régional, national et international, les scénarios d'évolution permettent la mise en évidence des implications et les justifications quant au choix des alternatives. Traduite au niveau local, la démarche repose sur l'utilisation d'indicateurs insérés dans un outil informatique interactif afin de favoriser l'insertion des acteurs sociaux dans le processus d'évaluation. De la sorte, il est possible de délimiter les marges de manoeuvre et les motivations de chacun ainsi que de favoriser l'apprentissage social.
233

Fédération de données semi-structurées avec XML

Dang-Ngoc, Tuyet-Tram 18 June 2003 (has links) (PDF)
Contrairement aux données traditionnelles, les données semi-structurées sont irrégulières : des données peuvent manquer, des concepts similaires peuvent être représentés par différents types de données, et les structures même peuvent être mal connues. Cette absence de schéma prédéfini, permettant de tenir compte de toutes les données du monde extérieur, présente l'inconvénient de complexifier les algorithmes d'intégration des données de différentes sources. Nous proposons une architecture de médiation basée entièrement sur XML. L'objectif de cette architecture de médiation est de fédérer des sources de données distribuées de différents types. Elle s'appuie sur le langage XQuery, un langage fonctionnel conçu pour formuler des requêtes sur des documents XML. Le médiateur analyse les requêtes exprimées en XQuery et répartit l'exécution de la requête sur les différentes sources avant de recomposer les résultats. L'évaluation des requêtes doit se faire en exploitant au maximum les spécificités des données et permettre une optimisation efficace. Nous décrivons l'algèbre XAlgebre à base d'opérateurs conçus pour XML. Cette algèbre a pour but de construire des plans d'exécution pour l'évaluation de requêtes XQuery et traiter des tuples d'arbres XML. Ces plans d'exécution doivent pouvoir être modélisés par un modèle de coût et celui de coût minimum sera sélectionné pour l'exécution. Dans cette thèse, nous définissons un modèle de coût pour les données semi-structurées adapté à notre algèbre. Les sources de données (SGBD, serveurs Web, moteur de recherche) peuvent être très hétérogènes, elles peuvent avoir des capacités de traitement de données très différentes, mais aussi avoir des modèles de coût plus ou moins définis. Pour intégrer ces différentes informations dans l'architecture de médiation, nous devons déterminer comment communiquer ces informations entre le médiateur et les sources, et comment les intégrer. Pour cela, nous utilisons des langages basés sur XML comme XML-Schema et MathML pour exporter les informations de métadonnées, de formules de coûts et de capacité de sources. Ces informations exportées sont communiquées par l'intermédiaire d'une interface applicative nommée XML/DBC. Enfin, des optimisations diverses spécifiques à l'architecture de médiation doivent être considérées. Nous introduisons pour cela un cache sémantique basé sur un prototype de SGBD stockant efficacement des données XML en natif.
234

Analyses épidémiologiques et socioéconomiques de la situation des psychothérapies en France, en vue de propositions sur les politiques de remboursement des psychothérapies

Dezetter, Anne 19 January 2012 (has links) (PDF)
Les psychothérapies structurées sont des traitements des troubles de santé mentale recommandées par les guides de bonne pratique internationaux et dont l'efficacité et leur impact positif sur les coûts pour les régimes de santé ont été largement démontrés. Toutefois, actuellement en France, les psychothérapies effectuées par les professionnels de santé mentale non médecins exerçant en libéral, ne sont pas remboursées. L'évaluation financière de la prise en charge des psychothérapies a été effectuée à partir de la méthodologie du programme anglais Improving Access for Psychological Therapies 2005. Le coût de la séance a été estimé à 41€, le taux de remboursement par le régime obligatoire à 70% et 60% pour soigner les personnes de 18 à 75 ans souffrant de troubles de santé mentale courants chroniques et/ou sévères. Le coût de la prise en charge psychothérapeutique annuelle s'élèverait à 514 millions d'euros (entre 308 et 347 M€ pour le régime obligatoire), pour traiter 1,033 million de français, soit 2,3% de la population. Pour 1€ investi dans le traitement psychothérapeutique, le ratio coût-bénéfice s'élèverait, selon la symptomatologie, entre 1,14€ et 1,95€ épargnés par ce traitement. La France dispose des 14.300 professionnels nécessaires et habilités à effectuer des psychothérapies, pour traiter cette population.
235

Optimisation évolutionnaire multi-objectif parallèle : application à la combustion Diesel

Yagoubi, Mouadh 03 July 2012 (has links) (PDF)
Avec la sévérisation des réglementations environnementales sur les émissions polluantes (normes Euro) des moteurs d'automobiles, la nécessité de maitriser les phénomènes de combustion a motivé le développement de la simulation numérique comme outil d'aide à la conception. Tenant compte de la complexité des phénomènes à modéliser, et de l'antagonisme des objectifs à optimiser, l'optimisation évolutionnaire multi-objectif semble être la mieux adaptée pour résoudre ce type de problèmes. Cependant, l'inconvénient principal de cette approche reste le coût très élevé en termes de nombre d'évaluations qui peut devenir très contraignant dans le contexte des optimisations réelles caractérisées par des évaluations très coûteuseL'objectif principal de ce travail de thèse est de réduire le coût global des optimisations du monde réel, en explorant la parallélisation des algorithmes évolutionnaires multi-objectifs, et en utilisant les techniques de réduction du nombre d'évaluations (méta-modèles).Motivés par le phénomène d'hétérogénéité des coûts des évaluations, nous nous proposons d'étudier les schémas d'évolution stationnaires asynchrones dans une configuration parallèle de type " maître-esclave ". Ces schémas permettent une utilisation plus efficace des processeurs sur la grille de calcul, et par conséquent de réduire le coût global de l'optimisation.Ce problème a été attaqué dans un premier temps d'un point de vue algorithmique, à travers une adaptation artificielle des algorithmes évolutionnaires multi-objectifs au contexte des optimisations réelles caractérisées par un coût d'évaluation hétérogène. Dans un deuxième temps, les approches développées et validées dans la première partie sur des problèmes analytiques, ont été appliquées sur la problématique de la combustion Diesel qui représente le contexte industriel de cette thèse. Dans ce cadre, deux types de modélisations ont été utilisés: la modélisation phénoménologique 0D et la modélisation multidimensionnelle 3D. La modélisation 0D a permis par son temps de retour raisonnable (quelques heures par évaluation) de comparer l'approche stationnaire asynchrone avec celle de l'état de l'art en réalisant deux optimisations distinctes. Un gain de l'ordre de 42 % a été réalisé avec l'approche stationnaire asynchrone. Compte tenu du temps de retour très coûteux de la modélisation complète 3D (quelques jours par évaluation), l'approche asynchrone stationnaire déjà validée a été directement appliquée. L'analyse physique des résultats a permis de dégager un concept intéressant de bol de combustion permettant de réaliser un gain en termes d'émissions polluantes.
236

Sélection de modèle : une approche décisionnelle

Boisbunon, Aurélie 14 January 2013 (has links) (PDF)
Cette thèse s'articule autour de la problématique de la sélection de modèle, étudiée dans le contexte de la régression linéaire. L'objectif est de déterminer le meilleur modèle de prédiction à partir de données mesurées, c'est-à-dire le modèle réalisant le meilleur compromis entre attache aux données et complexité du modèle. La contribution principale consiste en la dérivation de critères d'évaluation de modèles basés sur des techniques de théorie de la décision, plus précisément l'estimation de coût. Ces critères reposent sur une hypothèse distributionnelle plus large que l'hypothèse classique gaussienne avec indépendance entre les observations : la famille des lois à symétrie sphérique. Cette famille nous permet à la fois de nous affranchir de l'hypothèse d'indépendance et d'ajouter une plus grande robustesse puisque nos critères ne dépendent pas de la forme spécifique de la distribution. Nous proposons également une méthode de comparaison des critères dérivés au travers d'une mesure de type Erreur quadratique (MSE), qui permet de déterminer si un critère d'évaluation de modèle est meilleur qu'un autre. La seconde contribution attaque le problème de la construction des différents modèles comparés. Les collections de modèles considérées sont celles issues des méthodes de régularisation parcimonieuses, de type Lasso. En particulier, nous nous sommes intéressés à la Pénalité Concave Minimax (MCP), qui garde la sélection du Lasso tout en corrigeant son biais d'estimation. Cette pénalité correspond cependant à un problème non différentiable et non convexe. La généralisation des outils habituels de sous-différentielles grâce aux différentielles de Clarke a permis de déterminer les conditions d'optimalité et de développer un algorithme de chemin de régularisation pour le MCP. Enfin, nous comparons nos propositions avec celles de la littérature au travers d'une étude numérique, dans laquelle nous vérifions la qualité de la sélection. Les résultats montrent notamment que nos critères obtiennent des performances comparables à ceux de la littérature, et que les critères les plus couramment utilisés en pratique (validation croisée) ne sont pas toujours parmi les plus performants.
237

Almost sure optimal stopping times : theory and applications.

Landon, Nicolas 04 February 2013 (has links) (PDF)
Résumé : Cette thèse comporte 8 chapitres. Le chapitre 1 est une introduction aux problématiques rencontrées sur les marchés énergétiques : fréquence d'intervention faible, coûts de transaction élevés, évaluation des options spread. Le chapitre 2 étudie la convergence de l'erreur de couverture d'une option call dans le modèle de Bachelier, pour des coûts de transaction proportionnels (modèle de Leland-Lott) et lorsque la fréquence d'intervention devient infinie. Il est prouvé que cette erreur est bornée par une variable aléatoire proportionnelle au taux de transaction. Cependant, les démonstrations de convergence en probabilité demandent des régularités sur les sensibilités assez restrictives en pratique. Les chapitres suivants contournent ces obstacles en étudiant des convergences presque sûres. Le chapitre 3 développe tout d'abord de nouveaux outils de convergence presque sûre. Ces résultats ont de nombreuses conséquences sur le contrôle presque sûr de martingales et de leur variation quadratique, ainsi que de leurs incréments entre deux temps d'arrêt généraux. Ces résultats de convergence trajectorielle sont connus pour être difficiles à obtenir sans information sur les lois. Par la suite, nous appliquons ces résultats à la minimisation presque sûre de la variation quadratique renormalisée de l'erreur de couverture d'une option de payoff général (cadre multidimensionnel, payoff asiatique, lookback) sur une large classe de temps d'intervention. Une borne inférieure à notre critère est trouvée et une suite minimisante de temps d'arrêt optimale est exhibée : il s'agit de temps d'atteinte d'ellipsoïde aléatoire, dépendant du gamma de l'option. Le chapitre 4 étudie la convergence de l'erreur de couverture d'une option de payoff convexe (dimension 1) en prenant en compte des coûts de transaction à la Leland-Lott. Nous décomposons l'erreur de couverture en une partie martingale et une partie négligeable, puis nous minimisons la variation quadratique de cette martingale sur une classe de temps d'atteintes générales pour des Deltas vérifiant une certaine EDP non-linéaire sur les dérivées secondes. Nous exhibons aussi une suite de temps d'arrêt atteignant cette borne. Des tests numériques illustrent notre approche par rapport à une série de stratégies connues de la littérature. Le chapitre 5 étend le chapitre 3 en considérant une fonctionnelle des variations discrètes d'ordre Y et de Z de deux processus d'Itô Y et Z à valeurs réelles, la minimisation étant sur une large classe de temps d'arrêt servant au calcul des variations discrètes. Borne inférieure et suite minimisant sont obtenues. Une étude numérique sur les coûts de transaction est faite. Le chapitre 6 étudie la discrétisation d'Euler d'un processus multidimensionnel X dirigé par une semi-martingale d'Itô Y . Nous minimisons sur les temps de la grille de discrétisation un critère quadratique sur l'erreur du schéma. Nous trouvons une borne inférieure et une grille optimale, ne dépendant que des données observables. Le chapitre 7 donne un théorème limite centrale pour des discrétisations d'intégrale stochastique sur des grilles de temps d'atteinte d'ellipsoïdes adaptées quelconque. La corrélation limite est conséquence d'asymptotiques fins sur les problèmes de Dirichlet. Dans le chapitre 8, nous nous intéressons aux formules d'expansion pour les options sur spread, pour des modèles à volatilité locale. La clé de l'approche consiste à conserver la propriété de martingale de la moyenne arithmétique et à exploiter la structure du payoff call. Les tests numériques montrent la pertinence de l'approche.
238

Contribution aux systèmes tolérants aux défauts : Synthèse<br />d'une méthode de reconfiguration et/ou de restructuration<br />intégrant la fiabilité des composants

Guenab, Fateh 20 February 2007 (has links) (PDF)
Le travail présenté dans ce mémoire de thèse porte sur les systèmes tolérants aux défauts, plus<br />précisément la synthèse d'une méthode de reconfiguration et/ou de restructuration intégrant<br />la fiabilité des composants. La tâche de reconfiguration permet d'amener le système dans un<br />état de fonctionnement permettant d'assurer des performances désirées tout en préservant la<br />stabilité. Sous l'hypothèse qu'il existe plusieurs structures de fonctionnement résultant de la<br />déconnexion des sous systèmes défaillants, chaque structure impose des nouvelles conditions<br />de fonctionnement et par conséquent une nouvelle valeur de la fiabilité et du coût. Parmi<br />ces structures, une structure optimale doit être choisie. Dans un contexte multicritères, ce<br />travail propose de déterminer la structure optimale en intégrant les performances du système,<br />la fiabilité et le coût.<br />– La première méthode proposée traite uniquement les performances statiques conduisant à<br />considérer la fiabilité et le coût des composants. La détermination de la structure optimale<br />se fonde sur une estimation en ligne de la fiabilité et des coûts des composants.<br />– Une seconde méthode utilisant les performances des régulateurs est ensuite développée. La<br />méthode pseudo inverse PIM est utilisée pour synthétiser les régulateurs. Des modifications<br />de la méthode PIM sont proposées afin d'assurer la stabilité du système et d'atteindre des<br />objectifs dynamiques définis. Un indice de performances dynamiques est intégré dans le critère<br />de choix de la structure optimale.<br />– Les deux méthodes développées sont intégrées afin de définir une stratégie tolérante aux défauts.<br />Elle est appliquée sur un système hydraulique et thermique à 3 cuves.
239

Conception d'un système d'aide à l'ordonnancement tenant<br />compte des impératifs économiques

Ihsen, Saad 12 July 2007 (has links) (PDF)
Nos travaux concernent la mise en œuvre de méthodologies pour la résolution et l'optimisation de la production en tenant compte des impératifs économiques, jouant aujourd'hui un rôle déterminant dans la conduite de la production industrielle. Pour le problème du job-shop flexible dans lequel les interactions entre les critères sont supposées disponibles, cinq critères ont été retenus : le Makespan, la charge critique, la charge totale, la pénalité de retards/avance et le coût de la production. Dans ce sens, nous avons, d'abord, traité le problème de décision et d'évaluation d'une solution et introduit ensuite trois approches intégrées, basées sur les algorithmes génétiques, améliorant les approches évolutionnistes existant dans la littérature : la méthode statique basée sur l'intégrale de Choquet, la méthode approchée basée sur le concept Paréto-optimalité ainsi que la méthode basée sur le concept de ε-dominance Paréto-optimalité. Les approches adoptées consistent à générer une variété de solutions optimales diversifiées dans l'espace de recherche de solutions, et d'aider le décideur, quand il ne peut pas donner une préférence particulière à l'une des fonctions objectif. Les résultats proposés, obtenus globalement pour l'ensemble des critères, ont été comparés, avec succès, avec ceux obtenus par d'autres approches existantes sur plusieurs benchmarks de complexités distinctes.
240

Modélisation et optimisation de problèmes de synchronisation dans les documents hypermédia

Bachelet, Bruno 24 February 2003 (has links) (PDF)
Les formats actuels de diffusion de documents sur Internet apportent sans conteste de nouvelles possibilités par rapport aux supports traditionnels. Mais les exigences deviennent toujours plus grandes et de nouveaux langages font régulièrement leur apparition pour tenter d'améliorer encore la structure et l'interactivité des documents. Parmi ces langages, certains offrent la possibilité d'animer et synchroniser des composants multimédia. Mais la variété de ces composants (audio, vidéo, texte, image...) font de l'animation un problème compliqué. L'auteur d'un document synchronisé fournit une liste de contraintes temporelles sur les composants de manière à décrire le déroulement de la présentation. Ces composants ont chacun une durée de présentation qui est flexible dans une certaine limite. Tout le problème consiste à trouver un bon ajustement des durées pour que la présentation se déroule au plus proche de ce que souhaite l'auteur tout en évitant les pauses. <br /><br />Le problème peut se modéliser, après quelques restrictions, comme un problème de tension de coût minimal dans un graphe. Pour le résoudre avec des coûts convexes linéaires par morceaux, nous avons étudié différentes approches (programmation linéaire, mise à conformité - out-of-kilter, mise à l'échelle du dual - cost-scaling). Nous proposons également une adaptation de la mise à conformité pour des coûts convexes dérivables. Toutes ces méthodes sont comparées sur des aspects théoriques et pratiques, en considérant des graphes quelconques. <br /><br />Les graphes représentant les contraintes temporelles sont en réalité très structurés et très proches de la classe des graphes appelés série-parallèles, et les méthodes élaborées pour une structure de graphe quelconque ne s'avèrent pas toujours très efficaces. Nous proposons une méthode polynômiale, en opérations, plus adaptée pour résoudre le problème sur des graphes série-parallèles, et que nous appelons agrégation. Mais ces graphes, bien que très proches de la réalité, restent encore une idéalisation. Nous proposons de mesurer l'aspect série-parallèle d'un graphe en définissant la notion de graphe presque série-parallèle, basée sur la décomposition du graphe en composantes série-parallèles. En exploitant l'efficacité de la méthode d'agrégation sur cette décomposition, nous proposons une méthode dite de reconstruction permettant de résoudre le problème pour des graphes presque série-parallèles plus efficacement que les méthodes étudiées précédemment. <br /><br />Lors de cette étude, nous avons développé une bibliothèque de composants réutilisables pour les problèmes de graphes. Nous expliquons en quoi ce type de développement ne peut pas toujours suivre les règles classiques du génie logiciel. Nous montrons comment le paradigme objet peut néanmoins être employé pour la création d'outils efficaces de recherche opérationnelle. Et nous proposons des patrons de conception pour élaborer des composants logiciels (algorithmes et structures de données) génériques, c'est-à-dire indépendants des structures de données qu'ils manipulent et des algorithmes qu'ils emploient, tout en étant fortement extensibles, et cela avec une perte d'efficacité minimale.

Page generated in 0.0817 seconds