111 |
Modélisation des paramètres de pénétrance incomplète et de phénocopie d'une méthode de cartographie fine d'une maladie complexeVahey, Sarah January 2008 (has links) (PDF)
Les méthodes de cartographie fine sont des modèles qui estiment la position d'un allèle mutant pouvant causer une maladie dans un groupe d'individus. Le travail de Larribe et al. (2002, 2003), MapArg, n'a pas tenu compte des paramètres de pénétrance jusqu'à maintenant. Ce mémoire démontre les effets de ces paramètres, soit la pénétrance et la phénocopie, sur la performance de MapArg, dans des populations haploïdes. De plus, deux méthodes que nous avons développées seront ensuite incorporées à MapArg dans le but d'améliorer son efficacité si il y a pénétrance et/ou phénocopie. Les résultats démontrent que la phénocopie peut avoir une influence négative sur l'efficacité de MapArg. La pénétrance ne semble pas avoir d'effet majeur sur MapArg. La première méthode développée est un modèle simple qui n'apporte pas d'amélioration majeure de MapArg par rapport à ce même modèle sans ajustement. Par contre, cela procure un point de départ pour les développements futurs dans les populations diploïdes. La deuxieme méthode améliore l'efficacité de MapArg sous certaines conditions,
en particulier, si la taille de l'échantillon est assez grande. La deuxieme méthode fonctionne également très bien pour les données réelles de la Fibrose Kystique (Kerem et al., 1989). ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Phénocopie, Pénétrance, Pénétrance incomplète, Cartographie fine.
|
112 |
Conception d'échantillonneurs-bloqueurs dans la technologie MOS submicroniqueDjanou, Claudel Grégoire January 2008 (has links) (PDF)
L'échantillonneur-bloqueur est un dispositif central des systèmes de conversion analogique-numérique. Son utilisation dans des domaines d'applications sensibles comme le domaine biomédical place des exigences élevées sur la performance de l'échantillonneur. Les distorsions d'injection de charges, d'erreur d'échantillonnage et celle due aux variations de la constante de temps sont trois sources de non-linéarité qu'il est primordial d'évaluer pendant la conception. La modélisation analytique est l'une des méthodes employées afin d'estimer la distorsion du dispositif d'échantillonnage. Cependant, les méthodes analytiques courantes sont complexes ou ne tiennent pas compte des capacités parasites du commutateur analogique. La conception par la mise en oeuvre de procédures de caractérisation de la distorsion à l'aide de simulateurs analogiques de la famille SPICE donne une bonne estimation de la distorsion mais aboutit à des cycles de conception longs et fastidieux. Dans ce document, nous proposons deux méthodes d'évaluation de la distorsion de l'échantillonneur-bloqueur. Dans un premier temps, nous présenterons un nouveau modèle analytique simple de la distorsion. Notre modèle met en oeuvre l'approximation en série de Taylor afin de caractériser complètement les trois sources de distorsion de l'échantillonneur-bloqueur, incluant l'effet de substrat et les capacités parasites du commutateur analogique. Une autre contribution dans ce mémoire est de proposer un logiciel de simulation comportementale d'aide à la conception des échantillonneurs-bloqueurs dans le procédé MOS submicronique 0.18 µm. Ce logiciel permet de réduire le cycle de conception et d'évaluer efficacement la distorsion de
l'échantillonneur-bloqueur. Afin d'atteindre cet objectif, nous avons intégré le modèle BSIM3 du transistor au logiciel que nous avons développé en langage Java. Nous verrons avec des exemples d'application comment les paramètres de chacune des sources de distorsion agissent sur la gamme dynamique de l'échantillonneur-bloqueur par les méthodes que nous proposons. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Échantillonneur-blogueur, Distorsion, CMOS, Modélisation comportementale.
|
113 |
Intervenir pour résoudre les problèmes environnementaux : essai sur la compréhension et la méthodologie de l'interventionLhémery, Mélanie January 2006 (has links) (PDF)
Depuis la moitié du XXe siècle, les écrits alarmistes n'ont cessé de se multiplier, avertissant
des innombrables problèmes environnementaux qui menacent l'ensemble de la biosphère. Cinquante ans plus tard, ces écrits restent d'actualité. En effet, en dépit d'une certaine volonté de changer la situation (par exemple la signature du protocole de Kyoto sur les changements climatiques ou le développement de la gestion environnementale en entreprise), les changements demeurent trop lents par rapport à la rapidité de l'accroissement des problèmes environnementaux. De plus, la connaissance de la nature de ces problèmes demeure partielle du fait de leur complexité. Ajoutons que la complexification croissante des systèmes dans lesquels l'humain évolue (systèmes sociaux, systèmes écologiques, systèmes économiques) met au défi les scientifiques d'étudier et d'approfondir des phénomènes où interagissent une multitude de facteurs, où se combinent des principes de régulation et de déséquilibre, où se mêlent contingence et déterminisme, création et destruction, ordre et désordre. Dans un tel
contexte, il semble difficile de résoudre un problème environnemental, sa complexité ne
pouvant -par définition -être parfaitement connue. Le but de cette recherche était d'accélérer et daméliorer le processus de résolution de problèmes environnementaux. L'objectif était de développer une méthodologie spécifique à la résolution des problèmes environnementaux en intégrant de nouvelles connaissances et en mettant l'accent sur l'élaboration d'un outil d'aide à la décision. Pour ce faire, nous avons tout d'abord défini la notion de problème environnemental en
intégrant un ensemble de connaissances qui lui sont liées, à savoir la complexité. Nous avons,
ensuite, développé une méthodologie de la résolution des problèmes environnementaux en se
basant, d'une part, sur la littérature existante de la résolution de problèmes (issue majoritairement des sciences de la gestion), et d'autre part, en intégrant les connaissances requises de l'approche et de la méthode systémique. Enfin, l'élaboration de cet outil s'est faite en développant et en confrontant une typologie des problèmes environnementaux et une typologie des interventions. Nous avons pu construire une grille de synthèse qui permet, ainsi, de faciliter la prise de décision en fonction de l'évolution d'un écosystème dans le temps et en fonction de la solution la plus adéquate. Ces résultats montrent que l'élaboration d'une méthodologie apparaît essentielle pour améliorer le processus de résolution des problèmes environnementaux, de même que l'outil d'aide à la prise de décision, qui demande, néanmoins, à être amélioré. De plus, certaines solutions seraient à privilégier parmi d'autres, puisqu'elles engendreraient une faible incertitude quant aux risques de conséquences non désirées sur le long terme. Ces résultats mettent également en avant la nécessité d'adopter une attitude plus prospective pour résoudre les problèmes environnementaux futurs, plutôt que de simplement réagir aux évènements dans le présent. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Problèmes environnementaux, Complexité, Méthodologie, Prospective, Résolution de problème.
|
114 |
L'exploitation de l'auto-similarité pour la prédiction du trafic InternetChtioui, Maher January 2006 (has links) (PDF)
Les recherches qui se font pour modéliser l'évolution de trafic Internet sur une grande échelle de temps et pour développer des modèles de prédictions à court et à long terme constituent les domaines les plus intéressés par les chercheurs en technologies de l'information. En effet, pour compléter et affiner la caractérisation du trafic introduite par les premières études et recherches, il est fort utile de modéliser de façon nouvelle et efficace le trafic Internet. Jusqu'à présent, les ingénieurs et chercheurs en réseau utilisaient des modèles Mathématiques et Statistiques pour modéliser les processus de trafic. Pour ce, il faudrait proposer de nouveaux modèles de trafic réalistes. On peut notamment citer le trafic réseau le plus réaliste en intégrant les notions d'auto-similarité et de dépendance à long terme LRD. En utilisant des outils mathématiques, on a commencé par chercher le type du processus à partir des historiques de l'information et savoir le type de trafic pour des différentes échelles de temps, ceci exige une grande collection de mesures sur une longue durée de temps. Ce que nous a permit de montrer que le trafic dans un réseau Internet est exposé à des fortes périodicités et des variabilités aux multiples échelles de temps. Une autre contribution importante, décrite en détail dans ce mémoire, consiste à utiliser les résultats des simulations de trafic Internet plus réalistes afin d'appliquer des algorithmes de prédiction sur ces séries simulées. Quatre algorithmes ont été testés dans ce cadre intégrant des modèles mathématiques afin d'offrir des preuves et des validations du bon fonctionnement des solutions proposées, pour en sortir à la fin, le meilleur algorithme qui permet de donner un taux d'erreurs minimum ainsi qu'une grande simplicité dans son application.
|
115 |
Intercomparaison de trois modèles dynamiques canadiens de prévision numérique saisonnière du climatYazidi, Hatem January 2006 (has links) (PDF)
Le principal objectif de ce mémoire consiste en l'évaluation de trois modèles dynamiques canadiens de prévision numérique saisonnière du climat. Ayant conscience de l'influence de l'océan sur la qualité des prévisions numériques saisonnières nous vérifierons au cours de ce travail l'hypothèse de base suivante: la persistance de l'anomalie de la température de la surface de l'océan Pacifique (SSTA) communique à l'atmosphère un certain degré de prévisibilité. Afin de vérifier cette hypothèse un ensemble de vingt-six années de simulations effectuées par chacun des modèles a été étudié. Ensuite, pour tenter d'améliorer la qualité des prévisions saisonnières, nous avons calculé la moyenne d'ensemble des trois modèles. Nous appellerons désormais cette technique multimodèle. Pour estimer la réponse de chacun des modèles aux effets du forçage de l'océan nous avons commencé par séparer les années prévues en deux catégories: les années caractérisées par une forte SSTA (années EPSO) et celles caractérisées par une faible SSTA (années NEPSO). Ensuite, nous avons étudié la prévision des modèles des deux derniers mois de la saison. Ceci nous permet de distinguer l'influence des conditions aux limites. Nos résultats montrent que durant les saisons d'hiver et printemps boréales les trois modèles ainsi que le multimodèle semblent bien reproduire les patrons de la circulation dynamique au sein de l'atmosphère (GZ500). On peut également y voir un potentiel pour l'amélioration de la qualité des prévisions à longue échéance. En outre, nous avons remarqué que la région tropicale est généralement mieux prévue par les modèles que les extra-tropiques. Enfin, nous avons remarqué que les modèles présentent une habileté à prévoir les champs atmosphériques au-dessus de certaines régions du globe en dehors des tropiques. Parmi ces régions nous citons le Pacifique Nord/Amérique du Nord dans le cas de GZ500 et la route des dépressions du Pacifique « Storm Track » dans le cas des précipitations. Le « Storm Track » du Pacifique influence le climat de l'est de l'Asie ainsi que celui de l'Amérique du Nord. L'habileté de nos modèles à prévoir le « Storm Track » du Pacifique n'avait pas été observée dans des études précédentes. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Prévision numérique saisonnière moyenne d'ensemble.
|
116 |
Analyse, modélisation et simulation de l'impulsion au sol dans les activités physiques.Durocher, Carole 06 September 2005 (has links) (PDF)
L'impulsion est une phase déterminante de la performance sportive. Ce travail s'intéresse ainsi à la mesure indirecte par l'acquisition de mouvements, des forces mises en jeu lors de la phase de contact avec le sol. Cette mesure fait généralement intervenir les tables anthropométriques basées sur des moyennes. Ce travail cherche à individualiser les paramètres segmentaires plutôt que d'utiliser ces tables. La résultante des forces ainsi déterminée est modélisée par des splines cubiques permettant la comparaison de son évolution. Pour cela, on utilise des paramètres qui prennent en compte la forme de la courbe. Ces deux techniques sont utilisées pour permettre la simulation de nouvelles impulsions. Cette simulation repose sur l'adaptation de nouveaux mouvements à partir d'impulsions déjà acquises. Les points caractéristiques qui modélisent l'impulsion sont alors optimisés pour adapter la performance à de nouvelles contraintes.
|
117 |
Approche statistique de calibration des systèmes bonus-malus en assurance automobileInoussa, Rofick Ayindé 01 1900 (has links) (PDF)
Ce mémoire fait une étude détaillée de la modélisation du nombre de réclamations en assurance automobile à l'aide des systèmes bonus-malus, méthode de tarification a posteriori utilisée par les actuaires pour déterminer la prime des assurés en fonction de leur expérience sinistre. Deux approches de calibration des systèmes bonus-malus sont proposées dans le cadre du mémoire. L'estimation des primes relatives d'un système bonus-malus selon l'approche classique passe par deux étapes distinctes : l'estimation des paramètres d'une distribution de l'hétérogénéité lors de la tarification a priori, et ensuite l'approximation de l'hétérogénéité par un système bonus-malus. Une nouvelle approche d'estimation d'un système bonus-malus en une seule étape est développée, en utilisant des outils statistiques. Cette approche statistique permet d'estimer les relativités bonus-malus directement à l'aide des modèles de régression en utilisant la méthode du maximum de vraisemblance. Des critères statistiques classiques permettent ainsi de sélectionner le meilleur système bonus-malus alors que des métriques moins précises devraient être utilisées lors d'une calibration classique.
______________________________________________________________________________
MOTS-CLÉS DE L’AUTEUR : Nombre de réclamations, Tarification a priori, Tarification a posteriori, Systèmes bonus-malus, Hétérogénéité, Modèles de régression, Maximum de vraisemblance.
|
118 |
Comportement hydraulique des milieux faillésRafini, Silvain January 2008 (has links) (PDF)
Les milieux discontinus se caractérisent par une substitution totale ou partielle de la porosité primaire par une porosité secondaire portée par les fractures et failles. Les écoulements y sont souvent marqués par une forte ségrégation due aux contrastes de conductivité avec la matrice environnante, ainsi qu'entre les discontinuités. L'appréhension de leur géométrie constitue un enjeu majeur en hydrogéologie des milieux discontinus. La distinction entre milieux fracturés et milieux faillés est cruciale en modélisation hydraulique du fait que ceux-ci s'abordent de manières diamétralement opposées: les milieux fracturés forment des réseaux dont les propriétés hydrauliques macroscopiques sont envisagées à travers un schéma d'homogénéité statistique (fractal ou euclidien), privilégiant typiquement une représentation stochastique dans un continuum équivalent. Inversement, les failles sont des structures hydrauliques de grande dimension à l'échelle du réservoir et en nombre restreint. Elles doivent être considérées intrinsèquement dans les modèles d'écoulement comme des unités hydrauliques majeures bi-ou tridimensionnelles discrètes en interaction continue avec la matrice environnante, au sein desquelles les écoulements sont explicitement représentés de manière déterministe. C'est l'approche privilégiée dans cette thèse. L'incapacité des modèles hydrauliques conventionnels à reproduire les comportements transmis par les milieux discontinus est reconnue depuis plusieurs décennies. Les auteurs ont recherché des extensions de ces modèles, dont la plus notable est le modèle Generalized Radial Flow (Barker, 1988) qui introduit le paramètre dimension d'écoulement n et le concept de comportement non-radial (i.e., n ≠ 2). Ce modèle reproduit efficacement les signaux transmis par les milieux discontinus, toutefois sa signification physique est incertaine et les conditions hydrodynamiques associées au développement de dimensions non-radiales demeurent énigmatiques. Il en résulte une très faible applicabilité du modèle GRF malgré le très fort potentiel diagnostique renfermé par le paramètre n. On montre que ce paramètre décrit l'évolution géométrique de l'équipotentielle frontale au cours du test hydraulique transitoire. Le comportement non-radial serait donc produit par tout système dont la géométrie -ou les propriétés hydrauliques -produisent une évolution transitoire de cette surface admettant des modifications de forme progressives et régulières. On peut s'attendre à ce que ce phénomène soit engendré par les interactions transitoires entre une faille et sa matrice. Le premier volet de cette thèse se consacre à la vérification de cette hypothèse. La production de comportements non-radiaux n = 1,5 par le discontinuum faille verticale-matrice est démontrée par la modélisation numérique tridimensionnelle aux éléments finis. L'outil numérique a permis de contraindre quantitativement les conditions hydrodynamiques associées à ce comportement. Celui-ci découle du ralentissement du regime de diffusion au sein de la faille, engendré par l'approvisionnement matriciel. Par ailleurs, l'observation des modalités d'apparition des dimensions d'écoulement dans les milieux discontinus naturels (base de données de quarante-et-un essais de pompages) a fait ressortir des signatures complexes presque systématiquement composées de plusieurs périodes radiales et non-radiales, dont aucun modèle hydraulique existant ne peut rendre compte. Ces signatures multiphasées montrent une excellente homogénéité spatiale attestée par les tests d'interférences (six sites considérés). Un autre volet de cette thèse s'attache à explorer les moyens diagnostiques renfermés par une telle complexité et variabilité des comportements naturels à travers une approche numérique expérimentale recherchant des extensions du modèle à faille verticale analysé précédemment vers des configurations géométriques et hydrauliques moins idéalisées: faille inclinée jusqu'au stade horizontal, milieu composite (faille à l'interface), anisotropie. Plusieurs comportements élémentaires ont été élaborés, très bien corroborés par les signatures naturelles dont une interprétation avancée en termes de conditions d'écoulement discontinu est rendue possible. Ces résultats constituent une amélioration significative des modèles hydrauliques en milieux faillés, toutefois on montre que le potentiel diagnostique du paramètre dimension d'écoulement demeure très faiblement exploité. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Aquifères, Failles, Essais de pompages, Modélisation numérique.
|
119 |
Calcul de la capacité de pylônes à treillis avec une approche stabilitéBouchard, Pierre-Luc January 2013 (has links)
De par leur grande résistance et leur faible poids propre, les pylônes à treillis s’avèrent être une structure de choix pour transporter l’électricité sur les grandes distances qui séparent les lieux de production des centres urbains. Dans la pratique, le design de ces structures se fait généralement par une analyse linéaire élastique en considérant des connexions rotulées et des membrures soumises uniquement à des efforts axiaux. Le manque de précision de cette méthode oblige la réalisation d’essais grandeur réelle pour s’assurer que le pylône est sécuritaire et économique. Cette opération est coûteuse et retarde l’avancement des projets. Le but ultime de ce travail de recherche est de développer une procédure numérique simple et accessible aux ingénieurs de la pratique afin d'améliorer la prédiction de la capacité et du mode de rupture des pylônes à treillis. Au niveau de la modélisation, les cornières ont été modélisées par des éléments poutre de Timoshenko avec gauchissement. Les connexions sont, quant à elles, représentées par des éléments discrets affectés aux extrémités des barres et dont le comportement est linéaire élastique. Les rigidités en translation sont infiniment rigides alors que celles en rotation sont déterminées par une modélisation volumique. Enfin, les excentricités sont prises en compte par des liens rigides entre le centre de gravité et le point d’attache. Du côté de la méthode de calcul, la contrainte critique de flambement élastique F[indice inférieur e] est déterminée par une analyse de flambement linéaire plutôt que par la méthode des longueurs effectives. Ensuite, la résistance de la barre est calculée en suivant la même procédure que les normes. Plusieurs modes sont ainsi analysés de manière à couvrir les différentes configurations d’attache d’une cornière dans un pylône. La méthode ainsi développée a été comparée aux résultats d’essais expérimentaux sur 12 pylônes ainsi qu’aux résultats calculés avec différentes normes de conception. Il en ressort que la méthode prédit bien la résistance et donne des résultats comparables aux normes. Les barres avec un faible élancement comme les membrures jambes sont les mieux prédites. La procédure élaborée permet donc d’augmenter la précision du calcul de la capacité ultime et du mode de rupture des pylônes. Cette amélioration est d’intérêt car elle répond aux besoins de l’industrie des lignes de transport d'électricité, des partenaires industriels du projet et de la chaire de recherche Hydro-Québec/RTE - Structures et mécanique des lignes de transport d'énergie électrique. En effet, elle pourrait éventuellement permettre de diminuer les coûts de construction en réduisant le recours aux essais pleine échelle et en donnant des outils aux ingénieurs pour optimiser leur design. Elle facilitera également la réalisation d’essais hybrides.
|
120 |
Impact du taux d'amortissement visqueux élastique des ponts routiers sur les résultats d'analyses sismiques linéaires et non linéairesRobert-Veillette, Xavier January 2013 (has links)
Les événements sismiques ont une période de récurrence assez faible, mais, lorsqu'ils surviennent, ils peuvent affecter grandement l'intégrité des structures de génie civil et la sécurité des gens qui les utilisent. Beaucoup de recherche se fait présentement à travers le monde dans le domaine du génie parasismique clans le but de limiter les dommages aux structures dans le cas de l'avènement d'un événement sismique. Les normes de dimensionnement des ponts comprennent de plus en plus de spécifications à cet effet. Pour faire évoluer les normes, il est essentiel d'améliorer la compréhension du comportement des ouvrages soumis à des charges dynamiques. Plusieurs méthodes d'analyse sont recommandées dans la norme canadienne de conception des ponts pour tenter de prédire le comportement des ponts. Il y a entre autres la méthode unimodale, la méthode statique non linéaire (du spectre de capacité) et l'analyse dynamique temporelle. Une propriété importante des structures qui doit. être intégrée dans chacune de ces méthodes est l'amortissement. Toutes les structures dissipent de l'énergie sous forme d'amortissement lorsqu'elles subissent un séisme. Cet amortissement est très souvent mal caractérisé dans les modèles d'éléments finis utilisés pour prédire la réponse des ponts à une excitation dynamique. Lorsqu'une structure évolue dans son domaine linéaire, on représente l'amortissement réel par un amortissement visqueux (qui est proportionnel à la vitesse), appelé amortissement élastique. Une valeur de 5 % de l'amortissement critique est intégrée dans les spectres d'aléa sismique qui sont fournis par la Commission géologique du Canada et utilisés lors du dimensionnement parasismique. Toutefois, selon des mesures effectuées par différents chercheurs, cette valeur d'amortissement serait trop élevée dans le cas des ponts. L'objectif principal de ce projet de recherche est d'évaluer l'influence du taux d'amortissement visqueux élastique des ponts sur les résultats de différents types d'analyses sismiques par le biais d'une étude de cas. Pour ce faire, la caractérisation dynamique d'un pont en béton armé situé à Lennoxville (Québec) a été effectuée à l'aide d'essais sous vibrations ambiantes et forcées. Des taux d'amortissement variant entre 0, 7 % et 2,4 % ont été mesurés, ce qui est inférieur à la valeur communément utilisée de 5 %. Un modèle numérique de la structure utilisant le logiciel Opensees a ensuite été calibré en fonction des résultats de ces essais. Trois méthodes d'analyse sismique ont été utilisées pour comparer la réponse du pont à l'étude à différents tremblements de terre, en variant le taux d'amortissement visqueux élastique entre 1 % et 5 %. Plusieurs autres paramètres ont également été variés dans les analyses. Les résultats permettent de conclure que le choix du taux d'amortissement élastique peut avoir une influence importante sur les déplacements subis par la structure. Par exemple, si on prend en compte un taux d'amortissement de 1 % au lieu de 5 %, on observe une augmentation moyenne des déplacements maximums pouvant varier entre 30 % et 65 %, selon la période de vibration fondamentale de la structure.
|
Page generated in 0.1006 seconds