• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4053
  • 1539
  • 419
  • 14
  • 9
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 6114
  • 2864
  • 1411
  • 713
  • 530
  • 526
  • 496
  • 479
  • 469
  • 463
  • 442
  • 359
  • 352
  • 349
  • 345
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Le modèle de Potts bidimensionnel

Jacobsen, Jesper Lykke 29 November 2002 (has links) (PDF)
Nous présentons quelques développements récents dans le domaine du modèle de Potts et du modèle O(N) bidimensionnels. Quelques mots clefs : Dualité des modèles de Potts couplés. Polynôme chromatique, nombres de Beraha. Polynôme de Tutte, diagramme de phase du modèle de Potts. Polymères compacts, coloriages de Tait, modèle de Flory pour la fusion d'une protéine, phase de Goldstone du modèle O(N). Couplage du modèle O(N) à la gravité quantique, méandres, noeuds, entrelacs. Modèle de Potts ferromagnétique désordonné, verre de jauge. Modèles de Potts couplés, théories conformes parafermioniques.
52

La réponse d'un modèle régional du climat aux erreurs du pilote

Diaconescu, Emilia Paula January 2006 (has links) (PDF)
Un Modèle Régional du Climat (MRC) est un important outil d'analyse pour les projections sur les changements climatiques et les implications engendrées à l'échelle régionale. Dans ce cas, le MRC est piloté à ses frontières par des données qui proviennent d'un Modèle de Circulation Générale Couplé (MCGC) qui, évidemment, contiennent des erreurs. Nous cherchons à savoir si le MRC amplifie ou atténue ces erreurs, et quelles répercussions ces erreurs à grande échelle ont sur les petites échelles générées par le MRC. Cette étude analyse la réponse d'un MRC aux erreurs contenues dans les données de pilotage en utilisant le protocole expérimental appelé « Grand Frère ». Elle permet de séparer les erreurs dues au pilotage des autres erreurs du modèle et d'évaluer les petites échelles développées par un MRC. Un climat de référence est établi comme le résultat d'une simulation d'un MRC à haute résolution effectuée sur un grand domaine: il est nommé le Grand Frère Parfait (GFP). Pour introduire d'une manière contrôlée des erreurs dans les données du pilote, un ensemble de simulations d'un MRC a été réalisé sur des domaines de plus en plus grands et avec une résolution plus faible : ces simulations sont nommées les Grands Frères Imparfaits (GFI). Les données de sorties du GFI sont utilisées, après le filtrage de petites échelles, pour piloter un autre ensemble de simulations du MRC sur un domaine plus petit, nommées Petits Frères (PF). Les différences entre les statistiques climatiques des simulations du GFI et celles du GFP illustrent les erreurs contenues dans les données de pilotage. La comparaison entre les statistiques climatiques des simulations du PF et celles du GFP permet d'évaluer les erreurs du MRC imputables au pilotage avec des données imparfaites. Les résultats d'expériences effectuées sur un domaine de l'est de l'Amérique du Nord pour la saison d'hiver montrent que le PF reproduit les erreurs des grandes échelles de son GFI et corrige partiellement les erreurs de petites échelles causées par la résolution grossière du pilote. Donc, pour la période et les domaines utilisés dans cette étude, le MRC est fortement dépendant de la qualité des données de pilotage. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Modèle Régional du Climat, Données de pilotage, Expérience Grand Frère, Petites échelles, Conditions aux frontières latérales.
53

Étude de la variabilité interne des modèles pilotés : application de la technique d'ensemble au modèle régional canadien de climat

Alexandru, Rodica-Adelina 11 1900 (has links) (PDF)
À cause des non-linéarités dans les processus atmosphériques, les modèles de circulation générale de l'atmosphère (MCG) sont sensibles aux conditions initiales (CI). Autrement dit, les MCG peuvent générer plusieurs solutions de la circulation atmosphérique si un petit changement affecte les CI du modèle. La divergence de ces solutions devient importante en quelques jours de simulations en limitant de cette façon l'habilité des prévisions atmosphériques à une période limitée de temps. Comme une conséquence de l'existence de la variabilité interne, n'importe quel climat peut être décomposé en deux termes: le signal, associé au forçage externe, qui est indépendant des CI, et le «bruit» dû à la variabilité interne qui est générée par cette sensibilité du modèle aux CI. Contrairement aux MCG qui couvrent entièrement le globe et qui possèdent une large variabilité interne, les Modèles Régionaux de Climat (MRC) sont limités et pilotés à leurs frontières latérales par les données qui proviennent d'un MCG. La variabilité interne sera influencée dans ce cas par toutes les contraintes et les conditions qui définissent les MRC comme par exemple, les conditions aux frontières latérales (CFL), la taille ou la position géographique du domaine. Cette étude analyse la variabilité interne du Modèle Régional Canadien de Climat (MRCC) et les possibles conséquences sur les analyses statistiques des simulations saisonnières. Dans ce but, des ensembles de 20 simulations qui diffèrent légèrement dans leurs CI ont été générés avec le MRCC pour différentes tailles du domaine sur une période saisonnière de trois mois. Le degré de variabilité interne du modèle a été apprécié selon le degré d'écart entre les simulations durant la période d'intégration. Les résultats montrent que la variabilité interne du MRCC, estimée statistiquement comme la variance entre les 20 simulations de l'ensemble, dépend fortement des événements synoptiques. Cette dépendance est notamment observée dans les variations de la variance enregistrées durant la période d'intégration. Selon notre étude, ces variations ont une distribution géographique qui dépend de la variable étudiée. L'évolution temporelle des patrons synoptiques montre que les maximums des variances pour les deux champs étudiés, la précipitation (le maximum au sud des États-Unis) et la hauteur du géopotentiel à 850 mb (le maximum vers le nord-est du domaine) sont reliés entre eux. Les évènements de forte précipitation du sud des États-Unis (qui correspondent au maximum de l'écart entre les simulations de la précipitation) engendrent aussi un écart des simulations du champ de la hauteur du géopotentiel. Cet écart entre les simulations du champ de la hauteur du géopotentiel se développe dans les circulations cycloniques et atteint son maximum vers le nord-est (où la variance est maximale), avant de quitter le domaine. Utilisée comme une mesure de la variabilité interne à l'échelle saisonnière, la variance entre les moyennes saisonnières des membres de l'ensemble montre des valeurs importantes pour la statistique saisonnière du champ simulé sur les grands domaines. Cela suggère qu'une seule simulation pourrait produire des erreurs significatives dans l'estimation de la moyenne saisonnière du champ simulé, spécialement pour le champ de la précipitation. Notre expérience montre que les réductions de la taille du domaine diminuent la variabilité interne du modèle dans les aires convectives trouvées comme des aires de forte variabilité interne, mais une importante variation dans la distribution géographique et l'amplitude de la variabilité interne a été détectée à l'intérieur du domaine avec les réductions successives du domaine. Finalement, certains de nos résultats sont reliés au comportement complexe des simulations de l'ensemble durant la période d'intégration, en relevant l'habileté du modèle à générer des solutions bimodales des champs simulés sur les grands domaines d'intégration. La division de l'ensemble en deux groupes différents de simulations a généré pour une période courte de simulation deux estimations différentes du même champ simulé. Les résultats ont montré que cette division de l'ensemble coïncide avec la période durant laquelle la variabilité interne du modèle est maximale. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : modèle régional de climat, ensemble de simulations, variabilité interne.
54

Un test du modèle d'évaluation par arbitrage sur la base de données de firmes individuelles

Le, Thi Bich Hanh 07 1900 (has links) (PDF)
Suite à une revue de la littérature consacrée à la théorie moderne du portefeuille et aux tests empiriques du modèle d'évaluation des actifs financiers (MÉDAF) et du modèle d'évaluation des actifs par arbitrage (MÉA), nous avons constaté que lors des tests du MÉDAF et du MÉA, les actifs sont le plus souvent regroupés en portefeuilles. Cette méthode présente plusieurs problèmes économétriques. Ainsi, la procédure de regroupement des actifs en portefeuilles provoque la perte des informations sur les actifs individuels. Black (1972), Fama et MacBeth (1973), Fama et French (1992, 1993) ont mené des tests empiriques considérables. Black (1972) et Fama et MacBeth (\973) ont procédé à divers tests du Modèle d'Évaluation Des Actifs Financiers (MÉDAF). Les résultats obtenus à l'issue de ces tests ont démontré la validité du modèle. Pourtant, plusieurs critiques comme Litzenberger et Ramaswamy (1979), de Lo et MacKinlay (1990), et de Berk (1995, 1998) se sont élevées pour remettre en question le modèle et la méthode utilisée pour traiter les données recueillies. Fama et French (1992, 1993) eux-mêmes ont finalement rejeté le MÉDAF et proposé un modèle qui constitue une extension du MÉDAF. Ce modèle de Fama et French (1992, 1993) améliore grandement le MÉDAF, mais la méthode mise en œuvre lors des tests empiriques présente encore certaines limites. L'objectif de ce mémoire est de procéder à un test du modèle d'évaluation par arbitrage sans regrouper les actifs pour éviter les écueils rencontrés dans le cadre d'une démarche où ils sont regroupés. Le modèle testé dans ce mémoire est un modèle d'évaluation par arbitrage à trois facteurs, soit : le taux de croissance mensuel de la production industrielle, le taux d’inflation et le taux de chômage. Nous avons également pris en compte les variables instrumentales pour intégrer un plus grand nombre d'informations de marché clans le modèle. À la lumière des résultats obtenus, nous affirmons que le modèle est inadéquat. La moyenne de l'interception des régressions en coupe transversale n'est pas significativement différente de zéro. Ce résultat indique que le modèle doit intégrer d'autres facteurs. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : modèle d'évaluation des actifs financiers, modèle d'évaluation par arbitrage, modèle à facteurs, théorie moderne du portefeuille.
55

Identification de paramètres dans la fabrication de matériaux composites

Nguyen, Phuong Chi 12 April 2011 (has links) (PDF)
Ce travail est une contribution à l'étude du comportement de certains matériaux composites. Nous formalisons les observations expérimentales du point de vue mathématique, et menons une étude " critique " des différents modèles utilisés pour proposer des techniques génériques d'identification de paramètres dans ce contexte. Le manuscrit se divise en trois chapitres. Le chapitre 1 rappelle les principes élémentaires et le contexte mécanique de cette étude. On y présentera les hypothèses simplificatrices faites par la suite et les modèles de lois de comportement utilisés et testés. Le chapitre 2 est consacré à la modélisation du problème inverse avec utilisation du modèle de Grosberg et à son étude théorique et numérique. Le chapitre 3 reprend la démarche du chapitre précédent avec le modèle de Dahl. Outre la méthode numérique utilisée précédemment, nous utilisons une approche contrôle optimal et présentons des résultats plus rigoureux obtenus avec AMPL.
56

Simplification et morphisme en temps réel de modèles articulés

Houle, Jocelyn January 2000 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
57

Création d'un modèle de valeurs de travail avec items validés auprès d'experts du domaine de l'orientation

Busque-Carrier, Mathieu January 2015 (has links)
Ce mémoire porte sur l'élaboration et la validation d'une liste d'items servant à mesurer les valeurs de travail. Après avoir fait la recension des différents modèles de valeurs de travail disponibles dans la littérature scientifique, il est possible d'identifier certains problèmes à leur sujet. En effet, plusieurs modèles de valeurs de travail ne semblent pas exhaustifs, certains sont obsolètes ou n'ont pas fait l'objet d'études empiriques satisfaisantes pour soutenir leur validité. Les modèles de valeurs de travail recensés s'inscrivent dans le courant de la psychologie vocationnelle. Cette recension a aussi permis d'identifier des questionnaires d'évaluation psychométrique permettant de mesurer les modèles théoriques recensés. Ces éléments ont permis de créer un modèle de valeurs de travail comprenant un total de 24 valeurs de travail. Pour chacune de ces valeurs de travail, six items ont été rédigés. Dans le but d'évaluer la pertinence et la clarté de ces items, neuf personnes expertes provenant de différents domaines tels que le développement de carrière, la psychométrie et la psychologie de la motivation ont rempli un questionnaire en ligne afin d'évaluer les items qui ont été rédigés. Elles étaient aussi invitées à identifier des facettes de valeurs de travail qui n'auraient pas été évaluées et à reformuler les items qui nécessitaient plus de clarté. Dans le but d'identifier le niveau de pertinence des valeurs de travail, l'index de validité de contenu et le Free marginal multirater Kappa ont été calculés. Pour ce qui est de la pertinence des items, l'index de validité de contenu a été calculé. Pour évaluer le niveau de clarté des valeurs de travail, le pourcentage d'accord des experts ainsi que le Free marginal multirater Kappa ont été calculés. Pour la clarté des items, le pourcentage d'accord des experts a été calculé. Au niveau de la pertinence des items, les résultats montrent que 127 des 144 items (88,1 %) rédigés sont de bons indicateurs de leur valeur de travail respective. De plus, le niveau d'accord interjuge sur la pertinence de huit des valeurs de travail est substantiel ou presque parfait. Treize valeurs de travail ont obtenu un niveau d'accord interjuge modéré au sujet de la pertinence des items, ce qui signifie que ces valeurs de travail nécessiteraient des modifications mineures. Trois valeurs de travail ont quant à elles obtenu un niveau d'accord interjuge passable ou faible, ce qui signifie que des modifications majeures devraient leur être portées, selon les experts. Au niveau de la clarté des items, 52 des 144 items (36,1 %) ont été évalués comme étant des items clairement formulés et ne nécessitant aucune modification. En ce qui a trait à la clarté des valeurs de travail, il semble que neuf valeurs de travail nécessiteraient des modifications mineures, tandis que quinze valeurs de travail nécessiteraient des modifications majeures pour améliorer leur clarté. Les experts fournissent aussi des propositions de facettes qui auraient pu être évaluées ainsi que des propositions de reformulations d'items. Les résultats obtenus permettent d'identifier plusieurs lacunes des items élaborés en plus de proposer des pistes d'améliorations. Ces éléments permettront d'améliorer la qualité des items. Ces modifications permettront éventuellement de créer un questionnaire d'évaluation psychométrique qui pourra faire l'objet d'une recherche, afin notamment de vérifier la structure factorielle du modèle théorique. Ainsi, le modèle théorique serait actuel, tendrait à être exhaustif et serait validé empiriquement. Ces travaux permettraient donc d'obtenir un modèle théorique et un outil d'évaluation psychométrique qui répondraient aux trois lacunes qui ont été précédemment identifiées au sujet des modèles de valeurs de travail actuellement disponibles.
58

Accessibilité géographique potentielle à l'ostéodensitométrie pour la population féminine à risque du Québec

Beaudoin, Mathieu January 2007 (has links)
L’ostéoporose est un problème grandissant de santé publique au Canada, particulièrement dans le contexte d’une population vieillissante. Cette maladie touche jusqu’à une femme sur quatre et un homme sur huit. Elle est caractérisée par une densité osseuse faible qui augmente la fragilité des os. Son développement est souvent asymptomatique et la maladie ne sera détectée qu’à la suite de complications morbides, particulièrement à la suite d’une fracture de fragilisation. Les lignes de conduite publiées recommandent l’utilisation de l’ostéodensitométrie pour la confirmation du diagnostic d’ostéoporose et le suivi de la maladie. Ce test est particulièrement recommandé pour les populations à risque, par exemple pour les femmes âgées de plus de 65 ans ayant subi une fracture de fragilisation. Par contre, les fournisseurs d’ostéodensitométrie sont concentrés dans les régions urbaines et son utilisation varie grandement d’un milieu à l’autre. L’accès à ce service est une contrainte majeure à son utilisation. Le but principal de ce projet est de mesurer l’accessibilité géographique à l’ostéodensitométrie pour la population féminine à risque au Québec. La variable principale est l’indice d’accessibilité adapté de Piché et Côté, basé sur le modèle gravitationnel. La population étudiée est composée des femmes de 65 ans et plus ayant subi une fracture de fragilisation au Québec entre le 1er janvier 1999 et le 31 décembre 2000. Le modèle gravitationnel prend en compte des mesures de l’offre et de la demande de service. Il prend aussi en compte la distance qui sépare les populations des centres de services. Une mesure de distance utilisée est le coût de transport en temps (minutes) du chemin minimal sur le réseau routier entre le centroïde démographique du territoire et le centre de services. Deux découpages territoriaux à deux échelles différentes sont utilisés pour l’agrégation des données, soient les 169 territoires de CLSC et les 18 Régions socio-sanitaires présents en 2000. Les analyses sont de deux ordres. La première série d’analyses vise à décrire les mesures d’accès calculées à partir de l’indice d’accessibilité adapté de Piché et Côté et à les comparer à d’autres variables, telles que l’utilisation réelle des tests ou une mesure de besoin. La seconde série vise à tester la robustesse du modèle gravitationnel utilisé et à estimer sa performance d’un point de vue théorique et logique, au-delà des associations statistiques. Pour y arriver, des simulations de scénarios hypothétiques sont effectuées pour vérifier si le modèle réagit dans le sens attendu. Les résultats démontrent une association statistiquement significative entre la mesure d’accès géographique calculée à partir du modèle gravitationnel et l’utilisation réelle du test d’ostéodensitométrie, ainsi qu’une relation inversement proportionnelle entre l’utilisation réelle du test et la distance qui sépare les populations des centres de services.
59

Damage behavior of glass subjected to static contact and impact loading / Endommagement du verre dû à l’indentation et à l’impact

Ismail, Jewan 09 July 2010 (has links)
Dans une première partie de cette thèse, l’indentation du verre par des sphères rigides a été analysée numériquement. Un modèle d’endommagement continu anisotrope a été implanté dans un code de calculs par éléments finis pour étudier l’endommagement du verre. Trois zones ont été mises en évidence : la première est liée à la fissure conique, la deuxième à la fissure médiane et la troisième à la déformation permanente. Les directions des fissures prédites via le critère de densité d’énergie minimale ont été trouvées en très bon accord avec ceux déterminées expérimentalement dans la littérature. Le modèle utilisé dans l’analyse statique a été étendu aux cas dynamiques dans une deuxième partie de cette thèse. Une attention particulière a été portée sur la fissure conique. Un modèle d’endommagement simplifié (seulement gouverné par la contrainte principale maximale) couplé à la technique de désactivation des éléments a été utilisé pour suivre la propagation de la fissureconique sans présumer du site d’initiation. Dans une dernière partie de cette thèse, le phénomène d’érosion du verre a été étudié expérimentalement (par sablage) et numériquement. Le modèle implanté a été utilisé pour expliquer les observations expérimentales, en particulier la dépendance de l’enlèvement de matière vis-à-vis de la taille des projectiles, la distance inter-projectiles, la vitesse d’impact, l’angle d’impact et le nombre d’impacts. En modélisant plusieurs tailles et vitesse de projectiles en accord avec les paramètres expérimentaux connus, la simulation numérique d’un seul impact a prédit une quantité de matière enlevée en très bon accord avec celui mesuré expérimentalement par profilométrie. / In a first part of this thesis, the indentation of glass bulk was numerically analyzed using small-sized rigid spheres loaded normally. An anisotropic continuum damage mechanics (CDM) model was implemented into a finite element program to study the damage pattern in glass. The CDM-based model pointed out three explicit sites for damage initiation: the first for cone crack, the second for median crack and the third for permanent deformation. The directions of crack propagation predicted via the criterion of minimum strain energy density were found in very good agreement with those experimentally obtained in the literature. The CDM framework used in the static modeling was extended to the dynamic cases in a second part of this thesis. A particular attention was paid to the cone crack pattern. A simplified CDM-based model (only governed by the maximum principal stress) coupled with the vanishing element technique was employed to follow the cone crack propagation without presuming the initiation site. In the last part of this thesis, the phenomenon of glass erosion was studied from experimental (sandblasting) and numerical approaches. The implemented CDMbased model was used to explain the experimental observations, especially the dependence of material removal on projectile size, inter-projectile spacing, velocity, angle and number of impacts. By modeling various projectile sizes and velocities according to those used in the experiments, the numerical simulation of a single impact predicted an amount of material removal in very good agreement with that measured experimentally using a profilometer.
60

New methods for biological sequence alignment / De nouvelles méthodes pour l'alignement des séquences biologiques

Gîrdea, Marta 10 December 2010 (has links)
L'alignement de séquences biologiques est une technique fondamentale en bioinformatique, et consiste à identifier des séries de caractères similaires (conservés) qui apparaissent dans le même ordre dans les deux séquences, et à inférer un ensemble de modifications (substitutions, insertions et suppressions) impliquées dans la transformation d'une séquence en l'autre. Cette technique permet de déduire, sur la base de la similarité de séquence, si deux ou plusieurs séquences biologiques sont potentiellement homologues, donc si elles partagent un ancêtre commun, permettant ainsi de mieux comprendre l'évolution des séquences. Cette thèse aborde les problèmes de comparaison de séquences dans deux cadres différents: la détection d'homologies et le séquençage à haut débit. L'objectif de ce travail est de développer des méthodes d'alignement qui peuvent apporter des solutions aux deux problèmes suivants: i) la détection d'homologies cachées entre des protéines par comparaison de séquences protéiques, lorsque la source de leur divergence sont les mutations qui changent le cadre de lecture, et ii) le mapping de reads SOLiD (séquences de di-nucléotides chevauchantes codés par des couleurs) sur un génome de référence. Dans les deux cas, la même idée générale est appliquée: comparer implicitement les séquences d'ADN pour la détection de changements qui se produisent à ce niveau, en manipulant, en pratique, d'autres représentations (séquences de protéines, séquences de codes di-nucléotides) qui fournissent des informations supplémentaires et qui aident à améliorer la recherche de similarités. Le but est de concevoir et d'appliquer des méthodes exactes et heuristiques d'alignement, ainsi que des systemes de scores, adaptés à ces scénarios. / Biological sequence alignment is a fundamental technique in bioinformatics, and consists of identifying series of similar (conserved) characters that appear in the same order in both sequences, and eventually deducing a set of modifications (substitutions, insertions and deletions) involved in the transformation of one sequence into the other. This technique allows one to infer, based on sequence similarity, if two or more biological sequences are potentially homologous, i.e. if they share a common ancestor, thus enabling the understanding of sequence evolution.This thesis addresses sequence comparison problems in two different contexts: homology detection and high throughput DNA sequencing. The goal of this work is to develop sensitive alignment methods that provide solutions to the following two problems: i) the detection of hidden protein homologies by protein sequence comparison, when the source of the divergence are frameshift mutations, and ii) mapping short SOLiD reads (sequences of overlapping di-nucleotides encoded as colors) to a reference genome. In both cases, the same general idea is applied: to implicitly compare DNA sequences for detecting changes occurring at this level, while manipulating, in practice, other representations (protein sequences, sequences of di-nucleotide codes) that provide additional information and thus help to improve the similarity search. The aim is to design and implement exact and heuristic alignment methods, along with scoring schemes, adapted to these scenarios.

Page generated in 0.0314 seconds