• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2203
  • 1101
  • 837
  • 6
  • 3
  • 1
  • Tagged with
  • 4152
  • 4152
  • 3642
  • 1786
  • 1786
  • 1775
  • 592
  • 584
  • 520
  • 486
  • 474
  • 462
  • 462
  • 458
  • 390
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
311

Champs de densité d'énergie pour la vibroacoustique basse et moyenne fréquence des structures complexes utilisant un modèle numérique stochastique : application à la partition structurale des automobiles

Kassem, Morad 10 December 2009 (has links) (PDF)
Ce travail de recherche s'inscrit dans le cadre de l'analyse vibroacoustique des structures complexes. Il propose une nouvelle approche énergétique utilisant le champ de densité d'énergie afin de simplifier une telle analyse. Cette approche est basée sur un modèle numérique stochastique construit à l'aide de l'approche probabiliste non paramétrique des incertitudes de modélisation et de paramètres. L'approche énergétique stochastique développée correspond à une nouvelle représentation du système vibroacoustique en terme des grandeurs énergétiques aléatoires. Un modèle vibroacoustique énergétique moyen est alors construit en prenant la moyenne statistique des grandeurs énergétiques. On dispose alors d'un modèle énergétique moyen pour analyser la vibroacoustique des systèmes complexes dans la bande des basses et des moyennes fréquences alors que la méthode SEA ne permet pas d'analyser cette bande de fréquence. L'analyse des propriétés des grandeurs énergétiques moyennes utilisées pour la construction du modèle vibroacoustique énergétique permet de construire une version simplifiée conduisant à un modèle énergétique simplifié pour lequel une méthodologie de partition structurale par zone est établie. Une application de cette approche énergétique et de la méthodologie de partition structurale par zone est présentée pour une voiture constituée d'une structure automobile couplée avec sa cavité acoustique interne
312

Artificial Intelligence Models for Large Scale Buildings Energy Consumption Analysis

Zhao, Haixiang 28 September 2011 (has links) (PDF)
The energy performance in buildings is influenced by many factors, such as ambient weather conditions, building structure and characteristics, occupancy and their behaviors, the operation of sub-level components like Heating, Ventilation and Air-Conditioning (HVAC) system. This complex property makes the prediction, analysis, or fault detection/diagnosis of building energy consumption very difficult to accurately and quickly perform. This thesis mainly focuses on up-to-date artificial intelligence models with the applications to solve these problems. First, we review recently developed models for solving these problems, including detailed and simplified engineering methods, statistical methods and artificial intelligence methods. Then we simulate energy consumption profiles for single and multiple buildings, and based on these datasets, support vector machine models are trained and tested to do the prediction. The results from extensive experiments demonstrate high prediction accuracy and robustness of these models. Second, Recursive Deterministic Perceptron (RDP) neural network model is used to detect and diagnose faulty building energy consumption. The abnormal consumption is simulated by manually introducing performance degradation to electric devices. In the experiment, RDP model shows very high detection ability. A new approach is proposed to diagnose faults. It is based on the evaluation of RDP models, each of which is able to detect an equipment fault.Third, we investigate how the selection of subsets of features influences the model performance. The optimal features are selected based on the feasibility of obtaining them and on the scores they provide under the evaluation of two filter methods. Experimental results confirm the validity of the selected subset and show that the proposed feature selection method can guarantee the model accuracy and reduces the computational time.One challenge of predicting building energy consumption is to accelerate model training when the dataset is very large. This thesis proposes an efficient parallel implementation of support vector machines based on decomposition method for solving such problems. The parallelization is performed on the most time-consuming work of training, i.e., to update the gradient vector f. The inner problems are dealt by sequential minimal optimization solver. The underlying parallelism is conducted by the shared memory version of Map-Reduce paradigm, making the system particularly suitable to be applied to multi-core and multiprocessor systems. Experimental results show that our implementation offers a high speed increase compared to Libsvm, and it is superior to the state-of-the-art MPI implementation Pisvm in both speed and storage requirement.
313

Critères de test et génération de séquences de tests pour des systèmes réactifs synchrones modélisés par des équations flots de données et contrôlés par des automates étendus,

Junke, Christophe 09 January 2012 (has links) (PDF)
Nous nous intéressons aux approches formelles pour le développement de systèmes réactifs critiques. Le langage synchrone Lustre pour la spécification de tels systèmes a subit des évolutions majeurs au cours des dernières années en intégrant dans sa sémantique à base flots de données synchrones des constructions de plus haut-niveau appelées automates de modes (dans le langage Scade 6). Ceux-ci mettent en œuvre l'activation de modes de calculs en fonction des états et des transitions de l'automate, et reposent pour cela sur la sémantique des horloges du langage Lustre. En particulier, nous étudiions la prise en compte des horloges et des automates de modes dans l'outil de génération de tests GATeL dédié à l'origine au langage Lustre mono-horloge (flots de données purs). GATeL génère automatiquement des séquences de tests pour un modèle à partir d'un objectif de test décrit en Lustre à travers une exploration en arrière des dépendances entre flots et selon des teniques de résolution de contraintes. Nous présentons ces différents domaines et la mise en oeuvre des modifications apportées à l'outil pour prendre en compte les automates de modes. Enfin, nous définissons des critères de couverture structurelle pour les automates de modes et montrons alors comment, en les traduisant de manière automatique sous forme d'objectifs de tests, GATeL permet de générer des séquences couvrant ces critères.
314

Détermination de propriétés des glaciers polaires par modélisation numérique et télédétection,

Morlighem, Mathieu 22 December 2011 (has links) (PDF)
Les calottes polaires, ou inlandsis, sont parmi les principaux contributeurs à la montée des océans. Ces systèmes dynamiques gagnent de la masse par accumulation de neige, et en perdent par fonte au contact de l'océan et à la surface, ainsi que par le vêlage d'icebergs. Depuis plus de trois décennies, les observations ont montré que les calottes polaires de l'Antarctique et du Groenland perdent plus de masse qu'ils n'en gagnent. L'évolution des glaciers suite à ce déséquilibre de masse est devenue aujourd'hui l'une des problématiques les plus importantes des implications du changement climatique. Le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC) a identifié la contribution des glaciers comme l'un des facteurs clés d'incertitude de prédiction de l'élévation du niveau des mers. La modélisation numérique est le seul outil efficace pour répondre à cette question. Cependant, modéliser l'écoulement de glace à l'échelle du Groenland ou de l'Antarctique représente un défi à la fois scientifique et technique. Deux aspects clés de l'amélioration de la modélisation des glaciers sont abordés dans cette thèse. Le premier consiste à déterminer certaines propriétés non mesurables de la glace par méthode inverse. La friction ou la rigidité des barrières de glace, sont des paramètres qui ne peuvent être mesurés directement et doivent donc être déduits à partir d'observations par télédétection. Nous appliquons ici ces inversions pour trois modèles d'écoulement de glace de complexité croissante: le modèle bidimensionnel de MacAyeal/Morland, le modèle dit d'ordre supérieur de Blatter/Pattyn et le modèle full-Stokes. Les propriétés ainsi calculées sont ensuite utilisées pour initialiser des modèles grande-échelle et pour déterminer le degré de complexité minimum nécessaire pour reproduire correctement la dynamique des glaciers. Le second aspect abordé dans ce travail est l'amélioration de la consistance des données pour la modélisation numérique. Les données disponibles sont souvent issues de campagnes de mesures s'étalant sur plusieurs années et dont résolutions spatiales varient, ce qui rend leur utilisation pour des simulations numériques difficiles. Nous présentons ici un algorithme basé sur la conservation de la masse et les méthodes inverses pour construire des épaisseurs de glace qui sont consistantes avec les mesures de vitesse. Cette approche empêche la redistribution artificielle de masse qu'engendrent généralement les autres méthodes de cartographie de l'épaisseur de glace, ce qui améliore considérablement l'initialisation des modèles d'écoulement de glace. Les avancées présentées ici sont des étapes importantes afin de mieux caractériser de manière précise les glaciers et de modéliser leur évolution de manière réaliste.
315

Etude de la croissance de Chlorella vulgaris en photobioréacteur batch et continu, en présence de concentrations élevées de CO2,

Clement-larosière, Barbara 23 January 2012 (has links) (PDF)
Face à la montée de la prise de conscience des enjeux écologiques actuels, la recherche se tourne vers le développement des bioprocédés pour développer de nouvelles solutions aux problèmes environnementaux. Cette thèse porte sur l'étude de la faisabilité d'un procédé de capture de CO2 à partir de la culture de la microalgue Chlorella vulgaris en photobioréacteur continu. Ce travail a permis d'identifier l'algue C. vulgaris comme une candidate prometteuse pour cette application. En effet C. vulgaris présente une capacité de production de biomasse et de fixation de CO2 très intéressante pour cette application. Les études menées lors de ce travail de thèse ont également permis de mettre à jour les interactions complexes entre les cellules algales et le CO2 présent à de fortes concentrations. De même, elles ont apporté un approfondissement à la compréhension des verrous existants pour le développement d'un procédé de captage du CO2 et de la nécessité de prendre en compte tous les paramètres de culture (lumière, concentration en nitrate). A partir des études menées, il a été possible de proposer un modèle pour la croissance de C. vulgaris en photobioréacteur continu. Bien que de futures études soient encore nécessaires pour être en mesure de parfaitement modéliser le comportement de l'algue lors de cultures en photobioréacteur, ce modèle présente une bonne corrélation avec les expérimentations. Enfin une étude de pré-dimensionnement a été proposée qui a permis de mettre en lumière les nombreux points d'interrogations encore existants avant d'être en mesure d'adapter le procédé de laboratoire à une échelle industrielle
316

Home Health Care Operations Management : Applying the districting approach to Home Health Care,

Benzarti, Emna 20 April 2012 (has links) (PDF)
Within the framework of economic constraints and demographic changes which the health care sector is confronted to, the Home Health Care (HHC) which has been created sixty years ago, has known an important growth during this last decade. The main objective of this alternative to the traditional hospitalization consists in solving the problem of hospitals' capacity saturation by allowing earlier discharge of patients from hospital or by avoiding their admission while improving or maintaining the medical, psychological and social welfare of these patients. In this thesis, we are interested in the operations management within the HHC structures. In the first part of this thesis, we develop a qualitative analysis of the operations management in the HHC context. More specifically, we identify the complexity factors that operations management has to face up within this type of structures. For each complexity factor, we discuss how it can affect the organization of the care delivery. These factors pertain to the diversity of the services proposed, the location of care delivery, the uncertainty sources, etc. Thereafter, we survey operations management based models proposed in the literature within the HHC context. Based on this literature review, we identify several emerging issues, relevant from an organizational point of view, that have not been studied in the literature and thus represent unexplored opportunities for operations management researchers. In the second part of this thesis, we are interested in the partitioning of the area where the HCC structure operates into districts. This districting approach fits the policies of improvement of the quality of care delivered to patients and the working conditions of care givers as well as costs' reduction. We begin by proposing a classification of the different criteria that may be considered in the districting problem. We then propose two mathematical formulations for the HHC districting problem for which we consider criteria such as the workload balance, compactness, compatibility and indivisibility of basic units. After that, we present a numerical analysis of the computational experiments carried out on randomly generated instances to validate these two models. We also present two possible exploitations of these models and propose two extensions to these basic formulations. After formulating the problem with a static approach, we also develop a dynamic extension which allows the integration of the different variations that can be observed within the activities of an HHC structure from period to period. We then introduce a new partitioning criterion that concerns the continuity of care evaluated on the basis of two sub-criteria. Depending on the preferences of the decision-makers concerning the sub-criteria related to the continuity of care in the districting problem, we then distinguish three scenarios for which we propose the associated mathematical formulations.
317

Elicitation des Préférences pour des Modèles d'Agrégation basés sur des Points de référence : Algorithmes et Procédures

Zheng, Jun 14 June 2012 (has links) (PDF)
L'Aide Multicritère à la Décision (AMCD) vise à aider un décideur (DM) confronté à un problème de décision impliquant plusieurs objectifs contradictoires. Les préférences du DM jouent un rôle important au sein du processus d'aide à la décision, puisque les recommandations ne sont pertinentes et acceptables que si le système de valeurs du DM est pris en considération. Un outil d'élicitation des préférences est donc nécessaire pour aider l'analyste à intégrer les préférences du DM de façon appropriée dans les modèles de décision. Nous sommes intéressés par le développement d'outils d'élicitation des préférences pour deux modèles d'agrégation basés sur des points de référence à savoir Electre Tri et une méthode de Rangement basé sur des Points de Référence multiples (RPM). Tout d'abord, nous considérons Electre Tri en utilisant la règle d'affectation optimiste. Nous proposons un outil d'élicitation des préférences, qui infère les paramètres de préférence de ce modèle à partir d'exemples d'affectation du DM, et analyse également la robustesse des affectations résultant de la nature imprécise de l'information préférentiel. En second lieu, un outil d'élicitation des préférences est développé pour le problème de sélection de portefeuille formulée comme des problèmes de tri contraint en utilisant Electre Tri. Les préférences du DM à la fois au niveau individuel et au niveau du portefeuille sont considérés pour infère le modèle Electre Tri. Le modèle élicité évalue intrinsèquement les individus et sélectionne simultanément un portefeuille satisfaisant comme un groupe. Troisièmement, nous nous intéressons à l'élicitation des préférences pour le modèle RPM, qui détermine un pré-ordre comparant des alternatives avec des points de référence. Nous proposons un outil qui infère un modèle RPM parcimonieux à partir de comparaisons par paires du DM. Enfin, trois web services implémentent des outils d'élicitation des préférences pour Electre Tri et ont été intégrées au logiciel de Decision Deck. Les outils d'élicitation des préférences proposés consistent en des algorithmes qui résolvent des programmes linéaires en nombres mixtes. Des expériences numériques approfondies ont été réalisées pour étudier la performance et le comportement des outils d'élicitation proposées. Ces expériences éclairent sur l'applicabilité pratique de ces outils. De plus, les outils ont été appliqués avec succès à trois cas.
318

Compression de maillages de grande taille

Courbet, Clément 05 January 2011 (has links) (PDF)
Il y a une décennie, le contenu numérique virtuel était limité à quelques applications - majoritairementles jeux vidéos, les films en 3D et la simulation numérique. Aujourd'hui, grâce à l'apparition de cartes graphiques performantes et bon marché, les objets 3D sont utilisés dans de nombreuses applications. A peu près tous les terminaux possédant des capacités d'affichage - des clusters de visualisation haute performance jusqu'aux smart phones - intègrent maintenant une puce graphique qui leur permet de faire du rendu 3D. Ainsi, les applications 3D sont bien plus variées qu'il y a quelques années. On citera par exemple la réalité virtuelle et augmentée en temps réel ou les mondes virtuels 3D. Dans ce contexte, le besoin de méthodes efficaces pour la transmission et la visualisation des données 3D est toujours plus pressant. De plus, la taille des maillages 3D ne cesse de s'accroître avec la précision de la représentation. Par exemple, les scanners 3D actuels sont capables de numériser des objets du monde réel avec une précision de seulement quelques micromètres, et génèrent des maillages contenant plusieurs centaines de millions d''el'ements. D'un autre côté, une précision accrue en simulation numérique requiert des maillages plus fins, et les méthodes massivement parallèles actuelles sont capables de travailler avec des milliards de mailles. Dans ce contexte, la compression de ces données - en particulier la compression de maillages - est un enjeu important. Durant la décennie passée, de nombreuses méthodes ont été développées pour coder les maillages polygonaux. Néanmoins, ces techniques ne sont plus adaptées au contexte actuel, car elles supposentque la compression et la d'ecompression sont des processus sym'etriques qui ont lieu sur un mat'erielsimilaire. Dans le cadre actuel, au contraire, le contenu 3D se trouve cr'e'e, compressé et distribué par des machines de hautes performances, tandis que l'exploitation des données - par exemple, la visualisation - est effectuée à distance sur des périphériques de capacité plus modeste - éventuellement mobiles - qui ne peuvent traiter les maillages de grande taille dans leur int'egralité. Ceci fait de lacompression de maillage un processus intrinsèquement asymétrique.Dans cette thèse, notre objectif est d'étudier et de proposer des méthodes pour la compression de maillages de grande taille. Nous nous intéressons plus particulièrement aux méthodes d'accès aléatoire, qui voient la compression comme un problème intrinsèquement asymétrique. Dans ce modèle, le codeur a accès à des ressources informatiques importantes, tandis que la décompression estun processus temps réel (souple) qui se fait avec du matériel de plus faible puissance. Nous décrivons un algorithme de ce type et l'appliquons au cas de la visualisation interactive. Nous proposons aussi un algorithme streaming pour compresser des maillages hexaèdriques de très grande taille utilisés dans le contexte de la simulation numérique. Nous sommes ainsi capables decompresser des maillages comportant de l'ordre de 50 millions de mailles en moins de deux minutes, et en n'utilisant que quelques mégaoctets de mémoire vive. Enfin, nous proposons, indépendamment de ces deux algorithmes, un cadre théorique général pour améliorer la compression de géométrie. Cet algorithme peut être utilisé pour développer des méthodes de prédiction pour n'importe quel algorithme basé sur un paradigme prédictif - ce qui est la cas dela majorité des méthodes existantes. Nous dérivons ainsi des schémas de prédictions compatibles avec plusieurs méthodes de la littérature. Ces schémas augmentent les taux de compression de 9% enmoyenne. Sous des hypothèses usuelles, nous utilisons aussi ces résultats pour prouver l'optimalité de certains algorithmes existants.
319

Approche non locale en plasticité cristalline : application à l'étude du comportement mécanique de l'acier AISI 316LN en fatigue oligocyclique.

Schwartz, Julien 15 June 2011 (has links) (PDF)
Si l'amorçage des fissures de fatigue est aujourd'hui bien compris dans le cas de monocristaux de métaux purs, ce phénomène s'avère plus complexe à cerner et à prédire dans le cas d'alliages métalliques polycristallins tels que l'acier AISI 316LN.D'un point de vue expérimental, notre étude s'est concentrée sur la caractérisation du comportement mécanique et l'étude, à différentes échelles, des phénomènes liés à l'amorçage des fissures de fatigue oligocyclique dans l'acier 316LN. Pour des niveaux de déformation appliquée de Δε/2 = 0,3 et 0,5%, l'adoucissement cyclique observé au cours des essais coïncide avec l'organisation des dislocations sous forme de bandes. Ces bandes sont liées à l'activation des systèmes de plus haut facteur de Schmid. Elles portent la majeure partie de la déformation et provoquent en surface des intrusions et extrusions favorisant l'apparition et la coalescence de fissures.D'un point de vue modélisation, nous avons proposé un nouveau modèle de plasticité cristalline intégrant des dislocations géométriquement nécessaires (GND) directement calculées à partir du second gradient de la rotation élastique. Implémenté dans les codes d'éléments finis AbaqusTM et Cast3mTM, ce modèle s'inspire des travaux sur le monocristal en transformations finies de Peirce et al. (1983) et de Teodosiu et al. (1993). Adapté au cas des polycristaux par Hoc (1999) et Erieau (2003), il a été enrichi par l'introduction GND selon la théorie proposée par Acharya et Bassani (2000). Les simulations réalisées sur des différents types d'agrégats (2D extrudé et 3D) montrent que la prise en compte de GND permet :- de reproduire les effets de taille de grains au niveau macroscopique et local,- de décrire plus finement les champs de contraintes calculés.Ces simulations ont permis de mettre en évidence l'influence des matrices d'élasticité et d'écrouissage sur les valeurs et l'évolution des contraintes macroscopique effective et cinématique moyenne et le rôle important des conditions aux limites lors des calculs d'agrégats.
320

Dimensionnement des Centres d'Appels avec Incertitude sur les Paramètres d'Arrivées

Liao, Shuang Qing 01 July 2011 (has links) (PDF)
Au cours des dernières années, les centres d'appels ont été introduits avec succès par de nombreuses entreprises axées sur les services comme les banques et les compagnies d'assurance. Ils deviennent le principal point de contact avec les clients, et une partie intégrante de la majorité des sociétés. L'émergence à grande échelle des centres d'appels a créé une source féconde de problèmes de gestion des opérations. Dans cette thèse, nous nous concentrons sur la question de dimensionnement et définition des emplois du temps dans les centres d'appels. L'objectif de notre travail consiste à développer des analyses qualitatives ainsi que quantitatives, afin de déduire des recommandations utiles aux managers.Nous analysons quatre problèmes qui tiennent compte de l'incertitude sur les paramètres d'arrivée des appels. Le processus d'arrivée des appels est supposé suivre un processus non stationnaire et doublement stochastique avec un taux moyen d'arrivée aléatoire.Dans le premier modèle, nous considérons un centre d'appels avec une seule vacation possible. Les agents traitent en même temps des appels entrants et des tâches de back-office. Ceci permet d'avoir une certaine souplesse pour modifier en temps réel la capacité instantanée de traitement des appels entrants. Nous analysons l'impact de la flexibilité offerte par les charges de travail de back-office.Dans le deuxième modèle, nous considérons un centre d'appels avec plusieurs vacations possibles. Les agents traitent seulement des appels entrants. Dans ce modèle, le dimensionnement initialement établi peut être corrigé au cours de la journée de travail. Nous proposons une approche de programmation stochastique en deux étapes et une approche de programmation réglable robuste pour résoudre le problème d'optimisation. En particulier, nous analysons et montrons l'avantage supplémentaire d'utiliser le réglage dynamique sur les coûts de dimensionnement du centre d'appels. Dans le troisième modèle, nous considérons un autre type d'incertitude supplémentaire, qui est l'incertitude sur la distribution de probabilité d'un paramètre aléatoire. Nous proposons une approche combinant la programmation stochastique et la programmation distributionnellement robuste, et nous évaluons son rendement. Le dernier problème de dimensionnement d'un centre d'appels pour lequel le manager se propose de satisfaire un niveau de service global pour toute la journée au lieu d'un niveau de service objectif par période. Nous permettons également la mise à jour du dimensionnement au cours de la journée. Dans notre analyse, nous montrons en particulier les avantages de l'ajout de la flexibilité de mise à jour, et soulignons l'impact d'avoir une contrainte de service niveau globale sur les performances.

Page generated in 0.0801 seconds