• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 111
  • 47
  • 6
  • 4
  • 4
  • 1
  • Tagged with
  • 176
  • 74
  • 53
  • 46
  • 30
  • 29
  • 25
  • 20
  • 19
  • 18
  • 18
  • 16
  • 16
  • 16
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

ETUDE DES PHENOMENES DE DEGRADATION DE TYPE<br />NEGATIVE BIAS TEMPERATURE INSTABILITY (NBTI)<br />DANS LES TRANSISTORS MOS SUBMICRONIQUES DES<br />FILIERES CMOS AVANCEES

Denais, Mickael 09 September 2005 (has links) (PDF)
La miniaturisation croissante des circuits intégrés entraîne une augmentation de la complexité des procédés de<br />fabrication où chaque nouvelle étape peut influer la fiabilité du composant. Les fabricants de semi-conducteurs<br />doivent garantir un niveau de fiabilité excellent pour garantir les performances à long terme du produit final.<br />Pour cela il est nécessaire de caractériser et modéliser les différents mécanismes de défaillance au niveau du<br />transistor MOSFET. Ce travail de thèse porte spécifiquement sur les mécanismes de dégradation de type «<br />Negative Bias Temperature Instability» communément appelé NBTI.<br />Basé sur la génération d'états d'interface, la génération de charges fixes et de piégeage de trous dans l'oxyde, le<br />modèle de dégradation proposé permet de prédire les accélérations en température et en champ électrique,<br />d'anticiper les phénomènes de relaxation, tout en restant cohérent avec les caractères intrinsèques de chaque<br />défauts et les modifications des matériaux utilisés.<br />Ce travail de thèse ouvre le champ à de nouvelles techniques d'analyse basées sur l'optimisation des méthodes<br />de tests et d'extraction de paramètres dans les oxydes ultra minces en évitant les phénomènes de relaxation qui<br />rendent caduques les techniques conventionnelles. Ainsi, une nouvelle technique dite « à la volée » a été<br />développée, et permet d'associer à la fois la mesure et le stress accéléré à l'aide de trains d'impulsions<br />appropriés.<br />Finalement, une nouvelle méthodologie est développée pour tenir compte des conditions réelles de<br />fonctionnement des transistors, et une approche novatrice de compensation du NBTI est proposée pour des<br />circuits numériques et analogiques.
132

Théorèmes de point fixe et principe variationnel d'Ekeland

Dazé, Caroline 02 1900 (has links)
Le principe de contraction de Banach, qui garantit l'existence d'un point fixe d'une contraction d'un espace métrique complet à valeur dans lui-même, est certainement le plus connu des théorèmes de point fixe. Dans plusieurs situations concrètes, nous sommes cependant amenés à considérer une contraction qui n'est définie que sur un sous-ensemble de cet espace. Afin de garantir l'existence d'un point fixe, nous verrons que d'autres hypothèses sont évidemment nécessaires. Le théorème de Caristi, qui garantit l'existence d'un point fixe d'une fonction d'un espace métrique complet à valeur dans lui-même et respectant une condition particulière sur d(x,f(x)), a plus tard été généralisé aux fonctions multivoques. Nous énoncerons des théorèmes de point fixe pour des fonctions multivoques définies sur un sous-ensemble d'un espace métrique grâce, entre autres, à l'introduction de notions de fonctions entrantes. Cette piste de recherche s'inscrit dans les travaux très récents de mathématiciens français et polonais. Nous avons obtenu des généralisations aux espaces de Fréchet et aux espaces de jauge de quelques théorèmes, dont les théorèmes de Caristi et le principe variationnel d'Ekeland. Nous avons également généralisé des théorèmes de point fixe pour des fonctions qui sont définies sur un sous-ensemble d'un espace de Fréchet ou de jauge. Pour ce faire, nous avons eu recours à de nouveaux types de contractions; les contractions sur les espaces de Fréchet introduites par Cain et Nashed [CaNa] en 1971 et les contractions généralisées sur les espaces de jauge introduites par Frigon [Fr] en 2000. / The Banach contraction principle, which certifies that a contraction of a complete metric space into itself has a fixed point, is for sure the most famous of all fixed point theorems. However, in many case, the contraction we consider is only defined on a subset of a complete metric space. Of course, to certify that such a contraction has a fixed point, we need to add some restrictions. The Caristi theorem, which certifies the existence of a fixed point of a function of a complete metric space into itself satisfying a particular condition on d(x,f(x)), was later generalized to multivalued functions. By introducing different types of inwardness assumptions, we will be able to state some fixed point theorems for multivalued functions defined on a subset of a metric space. This is related to the recent work of French and Polish mathematicians. We were able to generalize some theorems to Fréchet spaces and gauge spaces such as the Caristi theorems and the Ekeland variational principle. We were also able to generalize some fixed point theorems for functions that are only defined on a subset of a Fréchet space or a gauge space. To do so, we used new types of contractions; contractions on Fréchet spaces introduced by Cain and Nashed [CaNa] in 1971 and generalized contractions on gauge spaces introduced by Frigon [Fr] in 2000.
133

Passage à l'échelle pour les contraintes d'ordonnancement multi-ressources

Letort, Arnaud 28 October 2013 (has links) (PDF)
La programmation par contraintes est une approche régulièrement utilisée pour résoudre des problèmes combinatoires d'origines diverses. Dans cette thèse nous nous focalisons sur les problèmes d'ordonnancement cumulatif. Un problème d'ordonnancement consiste à déterminer les dates de débuts et de fins d'un ensemble de tâches, tout en respectant certaines contraintes de capacité et de précédence. Les contraintes de capacité concernent aussi bien des contraintes cumulatives classiques où l'on restreint la somme des hauteurs des tâches intersectant un instant donné, que des contraintes cumulatives colorées où l'on restreint le nombre maximum de couleurs distinctes prises par les tâches. Un des objectifs récemment identifiés pour la programmation par contraintes est de traiter des problèmes de grandes tailles, habituellement résolus à l'aide d'algorithmes dédiés et de métaheuristiques. Par exemple, l'utilisation croissante de centres de données virtualisés laisse apparaitre des problèmes d'ordonnancement et de placement multi-dimensionnels de plusieurs milliers de tâches. Pour atteindre cet objectif, nous utilisons l'idée de balayage synchronisé considérant simultanément une conjonction de contraintes cumulative et des précédences, ce qui nous permet d'accélérer la convergence au point fixe. De plus, de ces algorithmes de filtrage nous dérivons des procédures gloutonnes qui peuvent être appe- lées à chaque noeud de l'arbre de recherche pour tenter de trouver plus rapidement une solution au problème. Cette approche permet de traiter des problèmes impliquant plus d'un million de tâches et 64 resources cumulatives. Ces algorithmes ont été implémentés dans les solveurs de contraintes Choco et SICStus, et évalués sur divers problèmes de placement et d'ordonnancement.
134

Choice of contract maturity with applications to international and mortgage lending

Touna Mama, Albert Le Grand January 2008 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
135

Postures et mutations du plan-séquence fixe, du cinéma des premiers temps à YouTube

Séguin-Tétreault, Mathieu 06 1900 (has links)
Privilégiant une approche généalogique et intertextuelle, cette étude interroge le dispositif du plan-séquence fixe à travers ses moments phares dans l’histoire du cinéma et démontre que son usage vise autant à renouer avec le cinéma des premiers temps qu’à poursuivre les préoccupations des cinéastes expérimentaux. Chez Andy Warhol, le plan-séquence fixe s’inscrit dans un rapport de redécouverte et d’enchantement du cinéma des premiers temps. Avec Jeanne Dielman, Chantal Akerman prolonge les traits du modernisme bazinien et de l’avant-garde new-yorkaise. Avec l’avènement de la vidéosurveillance, il se transforme en une esthétique carcérale qui pose dès lors des problèmes éthiques et esthétiques (voyeurisme, degré zéro de la mise en scène, etc.), questionnés dans les documentaires News from Home et Délits flagrants. Forme commune et majeure dans le cinéma d’auteur contemporain de même que dans la culture populaire et amateur (web film, série télé, etc.), le plan-séquence fixe permet d’analyser un ensemble de pratiques et de réalités du cinéma, de l’usine Lumière à YouTube. / Favouring an approach at once genealogical and intertextual, this study explores the practice of the "static sequence shot" (plan-séquence caméra fixe) in cinema. It offers an overview of its significant moments in film history. It tries to show how its use since the 70's can be seen as a reappraisal of early cinema technique, and can also find strong echos in the works of experimental filmmakers, in particular structural filmmaking. For Andy Warhol, the static sequence shot was both a rediscovery and an enchantment of early cinema. In Jeanne Dielman Chantal Akerman's static shots extended Bazinian Modernism into the New York Avant-garde. Since the 80's, with the advent of video surveillance, the static sequence shot becomes associated with a carceral apparatus, posing ethical and aesthetic issues (voyeurism, degree zero mechanisms, etc.). These issues are at the core of the documentary films News from Home and Délits flagrants. Today, we can witness that the static sequence shot has become increasingly important and almost dominant in certain branches of auteur cinema as well as in contemporary popular media culture (web films, T.V. series, etc.) This master's thesis thus claims it allows us to analyse current as well as early practices of cinema, from the Lumière' s factory to YouTube. / Pour respecter les droits d'auteur, la version électronique de ce mémoire a été dépouillée de ses documents visuels. La version intégrale du mémoire a été déposée au Service de la gestion des documents et des archives de l'Université de Montréal.
136

De la forme des généalogies en phylogénie et en génétique des populations

Blum, Michael G B 21 October 2005 (has links) (PDF)
Dans la majeure partie de cette thèse, nous nous sommes consacrés à l'étude de la forme des arbres phylogénétiques et plus particulièrement à leur déséquilibre. Une phylogénie est dite déséquilibrée, si la plupart des noeuds internes (les ancêtres communs) séparent l'arbre en deux sous-arbres de tailles sensiblement différentes. Les deux modèles de phylogénies aléatoires les plus classiques sont le modèle de Yule qui suppose que toutes les espèces ont la même probabilité de spéciation, et le modèle uniforme qui suppose que toutes les phylogénies de même taille sont équiprobables. Dans ces deux modèles, nous avons pu identifier les distributions limites des mesures de déséquilibre les plus utilisées par les biologistes. Les démonstrations sont inspirées de méthodes apparues récemment dans l'analyse des algorithmes. En génétique des populations, nous avons montré que le déséquilibre des généalogies de gènes est le signal d'un phénomène culturel : l'héritage de la fertilité. Nous avons mis en évidence la présence de ce trait culturel dans les populations de chasseurs-cueilleurs en utilisant le déséquilibre de généalogies reconstruites à partir d'ADN mitochondrial. Dans une dernière partie, la théorie de la coalescence a été appliquée à la génétique spatiale. Trois méthodes d'inférence d'un paramètre de dispersion spatiale ont été proposées. La vitesse de dispersion des ours bruns de Scandinavie a été estimée par une de ces trois méthodes.
137

Propriétés asymptotiques de la distribution d'un échantillon dans le cas d'un plan de sondage informatif

Bonnéry, Daniel 24 November 2011 (has links) (PDF)
Étant donné un modèle de super-population (des variables aléatoires sont générées indépendamment et selon une même loi initiale sur une population) et un plan de sondage informatif, une loi de probabilité limite et une densité de probabilité limite des observations sur l'échantillon sont définies correspondant à des tailles de population et d'échantillon tendant vers l'infini. Le processus aléatoire de sélection peut induire une dépendance entre les observations sélectionnés. Un cadre asymptotique et des conditions faibles sur le processus de sélection sont donnés, sous lesquels les propriétés asymptotiques classiques sont conservées malgré la dépendance des données : la convergence uniforme de la fonction de répartition empirique. Par ailleurs, nous donnons la vitesse de convergence de l'estimateur à noyau de la densité vers la densité limite de l'échantillon. Ces résultats constituent des indications selon lesquelles il est parfois possible de considérer que les réalisations sur l'échantillon sont id et suivent approximativement la densité limite définie, notamment dans une perspective d'inférence sur le modèle de super-population. Par exemple, étant donné un modèle paramétrique on peut définir la vraisemblance approchée de l'échantillon comme produit de densités limites et un estimateur de maximum de vraisemblance approchée, dont on établit la normalité asymptotique . La dernière partie traite de tirage équilibré : des algorithmes de calcul de probabilités d'inclusion minimisant une approximation de la variance de l'estimateur de Horvitz-Thompson d'un total sont proposés.
138

Planification de manoeuvres à poussée forte vs à poussée faible pour le maintien à poste de satellites géostationnaires

Losa, Damiana 09 February 2007 (has links) (PDF)
Les travaux de thèse traitent du problème de la planification de manoeuvres pour le maintien à poste de satellites géostationnaires équipés de tuyères électriques (à poussée faible). Nous évaluons l'opportunité de substituer une telle planification à celle traditionnellement utilisée pour les satellites géostationnaires équipés de tuyères chimiques (à poussée forte). Dès son apparition, la technologie des systèmes de propulsion à poussée faible a rencontré un vif intérêt auprès des agences et des sociétés spatiales. Grâce à sa haute impulsion spécifique (qui implique une basse consommation de carburant), cette technologie est devenue très compétitive par rapport à la technologie traditionnelle des propulseurs chimiques à poussée forte, surtout dans les phases de transfert et rendez-vous des missions spatiales. Pendant la définition des missions à poussée faible, les analyses de faisabilité des phases de transfert et rendez-vous (via la solution de problèmes d'optimisation de trajectoire) ont été réalisées avec des solutions d'optimisation alternatives. En effet, pendant ces phases, il est nécessaire d'activer les systèmes de propulsion à faible poussée sur des longues portions du temps de transfert. Par conséquent, les problèmes d'optimisation de trajectoire à poussée forte (typiquement formulés en temps discret) ont été remplacés par des problèmes d'optimisation de trajectoire à poussée faible formulés en temps continu et résolus par des techniques de contrôle en temps continu. Le premier objectif de cette thèse est de comprendre quel est l'impact de la technologie à faible poussée lors de l'analyse de faisabilité de la phase de maintien à poste de satellites géostationnaires. Nous étudions en particulier l'impact de l'utilisation des systèmes de propulsion à faible poussée sur la planification de manoeuvres et sur la boucle entière de maintien à poste géostationnaire. L'étude consiste à déduire si la planification de manoeuvres à poussée faible est compétitive au regard des stratégies classiques de planification couramment employées pour des manoeuvres à poussée forte. Généralement, les stratégies classiques à long terme pour le maintien à poste sont déduites de modèles de propagation d'orbite simplifiés (en fonctions des paramètres orbitaux moyennés) par la conjonction des trois facteurs suivants : la forte poussée des propulseurs, la dimension de la fenêtre de maintien à poste pas très contraignante ainsi que la possibilité d'exécuter des manoeuvres à basse fréquence. Dans le cadre de cette thèse, compte tenu du faible niveau des poussées et des contraintes strictes en position (fenêtres de maintien à poste petites), nous considérons comme plus appropriés l'hypothèse d'une plus haute fréquence de manoeuvres et l'utilisation d'un modèle de propagation d'orbite en fonction de paramètres osculateurs. Pour la planification de manoeuvres, nous proposons une solution par approche directe : le problème de maintien à poste en tant que problème de contrôle optimal est discrétisé et traduit en un problème d'optimisation paramétrique. Deux techniques différentes d'optimisation sont proposées : l'optimisation sous contraintes à horizon fixe et celle à horizon glissant. Cette deuxième technique est appliquée aux équations linéarisées du mouvement préalablement transformées via un changement de variable à la Lyapunov sur l'état des déviations des paramètres équinoxiaux osculateurs. Cette transformation de Lyapunov définit des nouveaux paramètres orbitaux. Elle rend le processus de planification plus compréhensible du point de vue du contrôle et plus facile à implémenter d'un point de vue numérique, grâce aux concepts de platitude et inclusion différentielles. Les résultats de la planification de manoeuvres à poussée faible sont obtenus dans un premier temps en fonction des changements de vitesse, dans un deuxième temps en fonction des forces engendrées par les tuyères des systèmes de propulsion classiques. Le but est de déterminer la solution la plus efficace en conditions nominales et en cas de panne d'un des propulseurs. Le problème du positionnement simultané de plusieurs satellites dans une même grande fenêtre de maintien à poste n'est pas adressé explicitement. Il est implicitement résolu en proposant une technique fine de contrôle pour maintenir chaque satellite à poste dans une fenêtre de dimension très petite.
139

Learning-Based Matheuristic Solution Methods for Stochastic Network Design

Sarayloo, Fatemeh 09 1900 (has links)
No description available.
140

Contributions au traitement spatio-temporel fondé sur un modèle autorégressif vectoriel des interférences pour améliorer la détection de petites cibles lentes dans un environnement de fouillis hétérogène Gaussien et non Gaussien / Contribution to space-time adaptive processing based on multichannel autoregressive modelling of interferences to improve small and slow target’s detection in non homogenous Gaussian and non-Gaussian clutter

Petitjean, Julien 06 December 2010 (has links)
Cette thèse traite du traitement adaptatif spatio-temporel dans le domaine radar. Pour augmenter les performances en détection, cette approche consiste à maximiser le rapport entre la puissance de la cible et celle des interférences, à savoir le bruit thermique et le fouillis. De nombreuses variantes de cet algorithme existent, une d’entre elles est fondée sur une modélisation autorégressive vectorielle des interférences. Sa principale difficulté réside dans l’estimation des matrices autorégressives à partir des données d’entrainement ; ce point constitue l’axe de notre travail de recherche. En particulier, notre contribution porte sur deux aspects. D’une part, dans le cas où l’on suppose que le bruit thermique est négligeable devant le fouillis non gaussien, les matrices autorégressives sont estimées en utilisant la méthode du point fixe. Ainsi, l’algorithme est robuste à la distribution non gaussienne du fouillis.D’autre part, nous proposons une nouvelle modélisation des interférences différenciant le bruit thermique et le fouillis : le fouillis est considéré comme un processus autorégressif vectoriel, gaussien et perturbé par le bruit blanc thermique. Ainsi, de nouvelles techniques d'estimation des matrices autorégressives sont proposées. La première est une estimation aveugle par bloc reposant sur la technique à erreurs dans les variables. Ainsi, l’estimation des matrices autorégressives reste robuste pour un rapport faible entre la puissance de la cible et celle du fouillis (< 5 dB). Ensuite, des méthodes récursives ont été développées. Elles sont fondées sur des approches du type Kalman : filtrage de Kalman étendu et filtrage par sigma point (UKF et CDKF), ainsi que sur le filtre H∞.Une étude comparative sur des données synthétiques et réelles, avec un fouillis gaussien ou non gaussien, est menée pour révéler la pertinence des différents estimateurs en terme de probabilité de détection. / This dissertation deals with space-time adaptive processing in the radar’s field. To improve the detection’s performances, this approach consists in maximizing the ratio between the target’s power and the interference’s one, i.e. the thermal noise and the clutter. Several variants of its algorithm exist, one of them is based on multichannel autoregressive modelling of interferences. Its main problem lies in the estimation of autoregressive matrices with training data and guides our research’s work. Especially, our contribution is twofold.On the one hand, when thermal noise is considered negligible, autoregressive matrices are estimated with fixed point method. Thus, the algorithm is robust against non-gaussian clutter.On the other hand, a new modelling of interferences is proposed. The clutter and thermal noise are separated : the clutter is considered as a multichannel autoregressive process which is Gaussian and disturbed by the white thermal noise. Thus, new estimation’s algorithms are developed. The first one is a blind estimation based on errors in variable methods. Then, recursive approaches are proposed and used extension of Kalman filter : the extended Kalman filter and the Sigma Point Kalman filter (UKF and CDKF), and the H∞ filter. A comparative study on synthetic and real data with Gausian and non Gaussian clutter is carried out to show the relevance of the different algorithms about detection’s probability.

Page generated in 0.025 seconds