• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 478
  • 147
  • 59
  • 5
  • 1
  • Tagged with
  • 684
  • 298
  • 238
  • 176
  • 153
  • 98
  • 77
  • 74
  • 73
  • 70
  • 58
  • 50
  • 50
  • 37
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Modélisation et optimisation d'un centre d'appels téléphoniques : étude du processus d'arrivée

Channouf, Nabil January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
102

Analyse de sensibilité globale et polynômes de chaos pour l'estimation des paramètres : application aux transferts en milieu poreux

Fajraoui, Noura 21 January 2014 (has links) (PDF)
La gestion des transferts des contaminants en milieu poreux représentent une préoccupation croissante et revêtent un intérêt particulier pour le contrôle de la pollution dans les milieux souterrains et la gestion de la ressource en eau souterraine, ou plus généralement la protection de l'environnement. Les phénomènes d'écoulement et de transport de polluants sont décrits par des lois physiques traduites sous forme d'équations algébro-différentielles qui dépendent d'un grand nombre de paramètres d'entrée. Pour la plupart, ces paramètres sont mal connus et souvent ne sont pas directement mesurables et/ou leur mesure peut être entachée d'incertitude. Ces travaux de thèse concernent l'étude de l'analyse de sensibilité globale et l'estimation des paramètres pour des problèmes d'écoulement et de transport en milieux poreux. Pour mener à bien ces travaux, la décomposition en polynômes de chaos est utilisée pour quantifier l'influence des paramètres sur la sortie des modèles numériques utilisés. Cet outil permet non seulement de calculer les indices de sensibilité de Sobol mais représente également un modèle de substitution (ou métamodèle) beaucoup plus rapide à exécuter. Cette dernière caractéristique est alors exploitée pour l'inversion des modèles à partir des données observées. Pour le problème inverse, nous privilégions l'approche Bayésienne qui offre un cadre rigoureux pour l'estimation des paramètres. Dans un second temps, nous avons développé une stratégie efficace permettant de construire des polynômes de chaos creux, où seuls les coefficients dont la contribution sur la variance du modèle est significative, sont retenus. Cette stratégie a donné des résultats très encourageants pour deux problèmes de transport réactif. La dernière partie de ce travail est consacrée au problème inverse lorsque les entrées du modèle sont des champs stochastiques gaussiens spatialement distribués. La particularité d'un tel problème est qu'il est mal posé car un champ stochastique est défini par une infinité de coefficients. La décomposition de Karhunen-Loève permet de réduire la dimension du problème et également de le régulariser. Toutefois, les résultats de l'inversion par cette méthode fournit des résultats sensibles au choix à priori de la fonction de covariance du champ. Un algorithme de réduction de la dimension basé sur un critère de sélection (critère de Schwartz) est proposé afin de rendre le problème moins sensible à ce choix.
103

CxtBAC: Une famille de Modèles de Contrôle d'Accès Sensible au Contexte pour les Environnements Pervasifs

De Ribamar Martins Bringel Filho, José 22 October 2011 (has links) (PDF)
Dans les environnements pervasifs, le constant changement du contexte d'utilisation des applications et des services distribués (i.e., des ressources) impose de nouvelles exigences pour la définition des solutions de contrôle d'accès. Celles-ci concernait notamment la sensibilité au contexte et la mise en œuvre distribuée des politiques d'accès. Pour prendre en compte ces besoins, nous proposons une famille de modèles de contrôle d'accès, appelé CxtBAC (Context-Based Access Control), qui se compose de huit modèles conceptuels et permet d'explorer les informations contextuelles caractérisant les entités suivantes : le propriétaire de la ressource, l'environnement, l'utilisateur et la ressource elle-même. Contrairement aux propositions existantes, basées sur le modèle RBAC (Role-Based Access Control), la famille de modèle proposé est centrée sur la notion de contexte et non de rôle. Par conséquent, les décisions d'accès aux ressources protégées sont prises en considérant les informations contextuelles qui caractérisent la situation des entités impliquées. Pour décrire les règles d'accès, les permissions sont associées à des contextes d'accès et les utilisateurs sont associés dynamiquement à ces dernières. Les modèles proposés sont indépendants du langage de spécification de la politique de sécurité. Dans le cadre de cette thèse, nous proposons une solution pour la mise en ?uvre basée sur un formalisme d'ontologies.
104

Impact de la variabilité des données météorologiques sur une maison basse consommation. Application des analyses de sensibilité pour les entrées temporelles.

Goffart, Jeanne 12 December 2013 (has links) (PDF)
Ce travail de thèse s'inscrit dans le cadre du projet ANR FIABILITE qui porte sur la fiabilité des logiciels de simulation thermique dynamique et plus particulièrement sur les sources potentielles de biais et d'incertitude dans le domaine de la modélisation thermique et énergétique des bâtiments basse consommation. Les sollicitations telles que les occupants, la météo ou encore les scénarios de consommation des usages font partie des entrées les plus incertaines et potentiellement les plus influentes sur les performances d'un bâtiment basse consommation. Il est nécessaire pour pouvoir garantir des performances de déterminer les dispersions de sortie associées à la variabilité des entrées temporelles et d'en déterminer les variables responsables pour mieux réduire leur variabilité ou encore concevoir le bâtiment de manière robuste. Pour répondre à cette problématique, on se base sur les indices de sensibilité de Sobol adaptés aux modèles complexes à grandes dimensions tels que les modèles de bâtiment pour la simulation thermique dynamique. La gestion des entrées fonctionnelles étant un verrou scientifique pour les méthodes d'analyse de sensibilité standard, une méthodologie originale a été développée dans le cadre de cette thèse afin de générer des échantillons compatibles avec l'estimation de la sensibilité. Bien que la méthode soit générique aux entrées fonctionnelles, elle a été validée dans ce travail de thèse pour le cas des données météorologiques et tout particulièrement à partir des fichiers météo moyens (TMY) utilisés en simulation thermique dynamique. Les deux aspects principaux de ce travail de développement résident dans la caractérisation de la variabilité des données météorologiques et dans la génération des échantillons permettant l'estimation de la sensibilité de chaque variable météorologique sur la dispersion des performances d'un bâtiment. A travers différents cas d'application dérivés du modèle thermique d'une maison basse consommation, la dispersion et les paramètres influents relatifs à la variabilité météorologique sont estimés. Les résultats révèlent un intervalle d'incertitude sur les besoins énergétiques de l'ordre de 20% à 95% de niveau de confiance, dominé par la température extérieure et le rayonnement direct.
105

Modélisation de la dégradation de la production de puissance d'une pile à combustible suite aux sollicitations mécaniques

Akiki, Tilda 03 March 2011 (has links) (PDF)
Ce travail a été réalisé dans le cadre du projet Systèmes Mécaniques Adaptatifs (SMA)du laboratoire mécatronique M3M de l'UTBM impliqué dans l'institut FCLAB de recherche sur les systèmes pile à combustible et du projet de l'équipe de recherche "Modélisation Multiphysique ", en cours de constitution, du département Sciences et Technologies de l'USEK. Les PEMFC font l'objet de nombreuses recherches pour augmenter leurs performances et diminuer leur coût mais la plupart des études se concentrent sur leurs aspects physicochimiques.Cette thèse par contre se propose de mettre en évidence l'influence, sur la production d'énergie, des sollicitations mécaniques statiques, dynamiques voire thermiques (serrages, vibrations, frottements, ...) comme phénomènes couplés relevant du domaine multiphysique (interactions fluide-structure, électrique ...). En premier, une analyse des différents paramètres de modèles dépendant des aspects mécaniques a été effectuée et les principaux paramètres à étudier dans le cadre de cette thèse ont été sélectionnés : porosité, perméabilité et coefficients de diffusion de la GDL, conductivité électrique du contact GDL/PB et volume des canaux après compression de la cellule. Ensuite, un modèle partiel de représentation mécanique de la GDL d'une PEMFC du côté cathode a été mis en oeuvre afin de déterminer la déformation de la GDL comprimée par une force répartie sur la PB. Sur la base des contraintes mécaniques calculées dans la GDL, les champs locaux de porosité, de perméabilité et de résistance électrique de contact GDL/PB sont obtenus. D'autre part, une modélisation 3D de type volumes finis pour l'étude de la pression du fluide à l'interface GDL/PB a été élaborée. L'analyse a permis de déterminer le champ local de pression d'oxygène sur l'interface GDL/PB du côté cathode. Les champs locaux de porosité et de perméabilité de la GDL, de résistance électrique de contact GDL/PB et de pression d'interface GDL/PB sont alors introduits dans le modèle multiphysique 2D d'une cellule de pile PEMFC. Une étude détaillée du comportement de la pile et de la modification de sa performance a pu être réalisée. Les résultats ont été présentés sous forme de courbes de polarisation et de densité de puissance. Finalement tous les résultats ont été rassemblés pour une analyse d'influence et de sensibilité afin d'identifier les paramètres qui auront le plus d'influence sur les variables simulées. Cette étude peut s'avérer un outil fort utile à la prise de décision concernant la géométrie de la dent des PB, la nature des PB, ...
106

Optimisation de l'approche de représentativité et de transposition pour la conception neutronique de programmes expérimentaux dans les maquettes critiques.

Dos santos, Nicolas 30 September 2013 (has links) (PDF)
Le travail mené au cours de cette thèse s'est intéressé à l'étude de la propagation des sources d'incertitudes (données nucléaires, paramètres technologiques, biais de calcul) sur les paramètres intégraux, et à la mise au point d'une méthode d'optimisation multi-critères basée sur l'approche de représentativité et de transposition, permettant de réduire cette incertitude a priori sur une grandeur ciblée (keff , distribution de puissance,...) dès la phase de conception d'un nouveau programme expérimental. La première partie de cette thèse s'est intéressée aux schémas de calcul pour la détermination des profils de sensibilité des paramètres intégraux aux données nucléaires pour différentes échelles de modélisation (cellule, assemblage et cœur), et à leur optimisation multi-filière (REL et RNR). Un schéma de calcul simplifié, basé sur les théories des perturbations standard et généralisée, permet dès à présent la propagation de ces incertitudes sur un large type de grandeur intégrale. Ces travaux ont notamment permis de vérifier la bonne représentativité des réseaux UOX et MOX mis en œuvre dans l'expérience EPICURE par rapport aux REP actuels avec chargement mixte, et de mettre en évidence l'importance de certaines données nucléaires dans l'effet de bascule des nappes de puissance dans les grands cœurs de réacteurs. La seconde partie du travail s'est focalisée sur la mise en place d'outils et de méthodes d'aide à la conception des programmes expérimentaux dans les maquettes critiques. Ces méthodes sont basées sur une approche d'optimisation multi-paramétrée de la représentativité en utilisant simultanément différentes grandeurs d'intérêt. Enfin, une étude originale a été réalisée sur la prise en compte des corrélations entre informations intégrales dans le processus de transposition. La prise en compte de ces corrélations, couplée à la méthode de transposition multi-paramétrée permet l'optimisation de nouvelles configurations expérimentales, répondant au mieux aux besoins de qualification complémentaires des outils de calcul.
107

Thermique et aéraulique des bâtiments : une contribution spécifique, sa validation et ses applications

Boyer, Harry 06 December 1999 (has links) (PDF)
La première partie présente le contexte de l'activité recherche dont le thème principal est celui de la thermique et de l'énergétique des bâtiments. En tant que responsable de l'Equipe génie civil au sein du Laboratoire de Génie Industriel, j'évoque la structuration progressive d'un environnement recherche vis à vis de différents aspects. La contribution spécifique en modélisation thermo-aéraulique et multi-modèle du bâtiment est ensuite abordée (code de calcul CODYRUN), en insistant sur les prolongements donnés à ce travail, tant en matière de modélisation, de validation (méthodologie, expérimentation) et d'application à grande échelle de nos travaux dans le cadre d'un label applicable aux Départements d'Outremer Français. A court et moyen terme, l'analyse de sensibilité et d'incertitude appliquées à notre domaine constituent une première perspective intéressante et forment ainsi le deuxième chapitre. Une revue des méthodes et de leur application dans notre domaine a débouché d'une part sur l'intégration à notre code de calcul de l'analyse d'incertitude statistique, à des fins de validation. D'autre part, une contribution méthodologique originale est présentée pour l'analyse paramétrique, basée sur la propagation de signaux déterministes dans un modèle (de bâtiment, par ex.) pour en déterminer les coefficients de sensibilité. Des confrontations probantes des résultats de cette méthode avec celle statistique sont alors présentées. Enfin, les applications du formalisme de l'Automatique des systèmes d'état forment la dernière partie. Après une présentation des outils mathématiques et des applications classiques (analyse et réduction modale), un développement spécifique a été conduit autour d'un de nos supports expérimentaux, avec pour objectif atteint de cerner les modifications à apporter à CODYRUN en vue de l'intégration d'algorithmes de réduction, dans une optique d'analyse et de diminution du temps calcul. Au rang des perspectives long terme, la théorie des observateurs appliquée à la mesure ainsi que l'utilisation des modèles réduits en vue de la commande de systèmes de traitement d'air clôturent ce chapitre.
108

Metodologias para análise de incertezas paramétricas em conversores de potência

Ferber De Vieira Lessa, Moisés 18 December 2013 (has links) (PDF)
Le développement de la technologie des semi-conducteurs dans les trente dernières années a augmenté le nombre des nouvelles applications dans lesquelles les dispositifs d'électronique de puissance sont utilisés. L'augmentation de la rapidité de commutation des transistors a permis que la conversion de puissance se produise de façon de plus en plus performante. Cet avantage apporte un nouveau challenge dans la phase de conception, lié à la Compatibilité Électromagnétique. En effet, les impulsions rapides de tension et courant dans les convertisseurs de puissance sont une source d'émissions électromagnétiques conduites indésirables. Des méthodologies de modélisation précises, qui prennent en compte une grande partie des effets parasites, ont été développées pour évaluer le niveau de ces émissions conduites. Lorsque ces méthodologies sont confrontées aux mesures, les résultats sont en concordance dans une large gamme de fréquence, elles peuvent donc être considérées comme des outils fiables de pronostic. Néanmoins, la plupart des paramètres du modèle d'un système électronique ne peuvent pas réellement être déterminés précisément : les conditions d'opération sont souvent mal connues (variations de température ou d'humidité) ; les paramètres caractéristiques des composants présentent une certaine dispersion de production ; des interférences externes sont imprévisibles. Dans ce contexte, il est intéressant de développer des méthodologies de modélisation qui soient capables de prendre en compte des incertitudes paramétriques. Dans cette thèse, deux méthodologies d'analyse d'incertitudes, adaptées aux convertisseurs de puissance, sont proposées. Les incertitudes paramétriques sont modélisées en utilisant des fonctions de densité de probabilité et l'objectif de l'analyse proposée est de déterminer les moments statistiques, la fonction de densité de probabilité ou la limite supérieure probabiliste des émissions conduites d'un convertisseur de puissance quelconque. Des techniques pour aborder les difficultés liées aux non-linéarités, au temps de simulation important et au nombre élevé de dimensions sont discutées. Les méthodologies proposées sont appliquées à des problèmes test et à des problèmes réels, et les résultats sont comparés aux méthodologies classiques. La précision des résultats des méthodologies proposées est similaire aux techniques classiques, mais le temps de calcul est considérablement réduit. Finalement, ce travail ouvre des possibilités de développements nouveaux pour l'analyse des incertitudes des systèmes non-linéaires et à grande échelle.
109

Modélisation des réseaux électriques ferroviaires alimentés en courant alternatif

Fayet, Pierre 15 February 2008 (has links) (PDF)
L'étude des réseaux électriques ferroviaires alimentés en courant alternatif nécessite de déterminer les valeurs crêtes et moyennes pouvant être atteintes par les variables électriques au cours du temps lors de la circulation d'un trafic donné sur les différentes lignes qui composent le domaine d'étude. Une modélisation de ces réseaux permet de déterminer ces ordres de grandeur et répond donc aux besoins des utilisateurs souhaitant étudier précisément leur dimensionnement et leur fonctionnement. Les travaux qui sont présentés proposent une décomposition du système ferroviaire en sous systèmes simples dont la modélisation est détaillée, en soulignant les spécificités propres à la nature du sujet, en particulier la représentation de la ligne de transport d'énergie. L'intégration de l'ensemble de ces modèles dans le but de représenter le fonctionnement d'un réseau ferroviaire complet est exposée, en incluant intersections, voies d'évitement, etc. Parallèlement à la modélisation, plusieurs études de sensibilité sont effectuées afin de tester et valider les choix faits lors de la modélisation des systèmes et dans le but d'identifier les paramètres ayant une incidence réelle sur le dimensionnement des réseaux. L'architecture du logiciel pour lequel les modèles ont été développés ainsi que de nombreux résultats de simulation obtenus sur des exemples sont présentés. Enfin, des essais ont été mis en œuvre sur un cas concret dans le but de valider le logiciel.
110

Modélisation des procédés pour la correction des effets de proximity en lithographie électronique / Process modeling for proximity effect correction in electron beam lithography

Figueiro, Thiago Rosa 19 January 2015 (has links)
Depuis l'apparition du premier circuit intégré, le nombre de composants constituant une puce électronique n'a cessé d'augmenter tandis que les dimensions des composants ont continuellement diminué. Pour chaque nouveau nœud technologique, les procédés de fabrication se sont complexifiés pour permettre cette réduction de taille. L'étape de lithographie est une des étapes la plus critique pour permettre la miniaturisation. La technique de lithographie qui permet la production en masse est la lithographie optique par projection. Néanmoins cette technologie approche de ses limites en résolution et l'industrie cherche de nouvelles techniques pour continuer à réduire la taille des composants. Les candidats sont l'écriture en plusieurs passes, la lithographie EUV, l'écriture directe, la nano-impression ou l'auto-organisation dirigée. Même si ces alternatives reposent sur des principes très différents, chacune a en commun l'utilisation de la lithographie électronique à un moment ou à un autre de leur réalisation. La lithographie électronique est sujette à des phénomènes spécifiques qui impactent la résolution finale, tels la diffusion des électrons, le « fogging », la diffusion d'acide, la CMP etc… La solution choisie par l'industrie pour tenir compte de tous ces phénomènes est de les prévoir puis de les compenser. Cette correction nécessite de les prédire à l'aide de modélisation, la précision de ces modèles décrivant les procédés étant primordiale. Dans cette thèse, les concepts de base permettant de développer un modèle sont présentés. L'évaluation de la qualité des données, la méthodologie de choix d'un modèle ainsi que la validation de ce model sont introduites. De plus, les concepts d'analyse de sensibilité locale et globale seront définis. L'état de l'art des stratégies utilisées ou envisagées pour les procédés lithographiques actuels ou futurs sont énoncés, chacune des principales étapes lithographiques étant détaillée. Les modèles tenant compte de la physique et de la chimie impactant sur la résolution après écriture par e-beam sont étudiés. De plus, les modèles compacts permettant de prédire les résultats obtenus par e-beam seront détaillés, pour finalement décrire les limitations des stratégies actuelles. De nouveaux modèles compactes sont proposés en introduisant de nouvelles familles de fonctions telles que les fonctions Gamma ou les fonctions de Voigt. De plus, l'utilisation des fonctions d'interpolations de type Spline sont également proposés. Un modèle résine d'utilisation souple a également été développé pour tenir compte de la plupart des comportements expérimentaux observés en évaluant les dimensions de motifs d'un dessin en utilisant des métriques appropriés. Les résultats obtenus en utilisant de telles méthodes montrent une amélioration de la précision de la modélisation, notamment en ce qui concerne les motifs critiques. D'autres modèles spécifiques permettant de décrire les effets d'extrême longue portée ou permettant de compenser les déviations entre deux procédés sont également décrits dans ce travail. Le choix du jeu de motifs de calibration est critique pour permettre à l'algorithme de calibration d'obtenir des valeurs robustes des paramètres du modèle. Plusieurs stratégies utilisées dans la littérature sont brièvement décrites avant l'introduction d'une technique qui utilise l'analyse de sensibilité globale basée sur la variance afin de sélectionner les types de géométries optimales pour la calibration. Une stratégie permettant la sélection de ces motifs de calibration est détaillée. L'étude de l'impact du procédé et des incertitudes de mesures issue de la métrologie est également abordée, ce qui permet d'énoncer les limites à attendre du modèle sachant que les mesures peuvent être imprécises. Finalement, des techniques permettant de s'assurer de la qualité d'un modèle sont détaillées, telle l'utilisation de la validation croisée. La pertinence de ces techniques est démontrée pour quelques cas réel. / Since the development of the first integrated circuit, the number of components fabricated in a chip continued to grow while the dimensions of each component continued to be reduced. For each new technology node proposed, the fabrication process had to cope with the increasing complexity of its scaling down. The lithography step is one of the most critical for miniaturization due to the tightened requirements in both precision and accuracy of the pattern dimension printed into the wafer. Current mass production lithography technique is optical lithography. This technology is facing its resolution limits and the industry is looking for new approaches, such as Multi-patterning (MP), EUV lithography, Direct Write (DW), Nano-imprint or Direct Self-Assembly (DSA). Although these alternatives present significant differences among each other, they all present something in common: they rely on e-beam writers at some point of their flow. E-beam based lithography is subject to phenomena that impact resolution such as are electron scattering, fogging, acid diffusion, CMP loading, etc. The solution the industry adopted to address these effects is to predict and compensate for them. This correction requires predicting the effects, which is achieved through modeling. Hence the importance of developing accurate models for e-beam process. In this thesis, the basic concepts involving modeling are presented. Topics such as data quality, model selection and model validation are introduced as tools for modeling of e-beam lithography. Moreover, the concepts of local and global sensitivity analysis were also presented. Different strategies of global sensitivity analysis were presented and discussed as well as one of the main aspects in its evaluation, which is the space sampling approach. State-of-the-art strategies for todays and future lithography processes were presented and each of their main steps were described. First Principle models that explain the physics and chemistry of the most influential steps in the process resolution were also discussed. Moreover, general Compact models for predicting the results from e-beam lithography were also presented. Finally, some of the limitations of the current approach were described. New compact models described as Point-Spread-Function (PSF) are proposed based on new distributions, such as Gamma and Voigt. Besides, a technique using Splines for describing a PSF is also proposed. Moreover, a flexible resist model able to integrate most of the observed behavior was also proposed, based on evaluating any pattern on the layout using metrics. Results using such method further improved the any of the PSF distribution approach on the critical features that were limiting the future technology nodes. Other specific models and strategies for describing and compensating for extreme-long-range effects and for matching two different fabrication processes are also proposed and described in this work. The calibration layout is a key factor for providing the calibration algorithm with the experimental data necessary to determine the values of each of the parameters of the model. Several strategies from the literature were briefly described before introducing one of the main propositions of this thesis, which is employing variance-based global sensitivity analysis to determine which patterns are more suitable to be used for calibration. A complete flow for selecting patterns for a calibration layout was presented. A study regarding the impact of process and metrology variability over the calibration result was presented, indicating the limits one may expect from the generated model according to the quality of the data used. Finally, techniques for assuring the quality of a model such as cross-validation were also presented and demonstrated in some real-life situations.

Page generated in 0.0507 seconds