• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 503
  • 220
  • 97
  • 4
  • 3
  • 1
  • Tagged with
  • 825
  • 342
  • 198
  • 126
  • 121
  • 120
  • 109
  • 95
  • 91
  • 90
  • 87
  • 83
  • 80
  • 76
  • 74
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Évaluation de la validité des modèles de risque pour prédire l’incidence des gastroentérites d’origine hydrique au Québec

Shemilt, Michèle 23 April 2018 (has links)
Les analyses de risque microbiologique, dont l'ÉQRM (évaluation quantitative du risque microbien) proposent de nouvelles techniques pour évaluer les conséquences sanitaires liées à la contamination microbiologique de l'eau potable. Ces modèles intègrent les données physico-chimiques et microbiologiques des usines de traitement d'eau pour quantifier un risque à la santé. Le projet visait à évaluer le lien entre le risque estimé selon un modèle ÉQRM et l’incidence de giardiase observée. Les banques de données des maladies à déclaration obligatoire et d’INFO-SANTÉ ont été utilisées pour comparer le résultat de l’analyse de risque à celui des analyses épidémiologiques. Les municipalités considérées les plus à risque par l'ÉQRM ont une incidence de gastroentérite et de parasitoses plus élevée. Cependant, l'ampleur du risque prédit ne correspond pas à celui observé. Il est souhaitable que les modèles d’ÉQRM incorporent des données populationnelles pour prédire avec une plus grande exactitude le risque épidémiologique.
122

Étude du bruit de grenaille dans un conducteur simple: observation d'enchevêtrement, de compression d'état à deux modes et du quatrième cumulant des fluctuations statistiques dans le courant émis par une jonction tunnel

Forgues, Jean-Charles January 2015 (has links)
La constante miniaturisation des dispositifs électroniques rend essentiel le contrôle et la compréhension des fluctuations dans le courant les traversant, c'est-à-dire du bruit électronique. Étudié depuis près de 90 ans, ce phénomène omniprésent se trouve limité par les lois de la mécanique quantique à une valeur minimale, la limite de bruit quantique. Quantifier ces fluctuations pose plusieurs problèmes expérimentaux. Principalement, toute mesure électronique est basée sur le passage d'un grand nombre d'électrons dont le comportement est presque aléatoire. Faire ressortir les mécanismes sous-jacents à l'émission du bruit requiert donc une étude statistique poussée de la distribution de probabilité du passage d'électrons, passant entre autres par la mesure du quatrième cumulant de cette distribution. Cet indicateur de l'écart entre les valeurs observées et les valeurs attendues pour un phénomène aléatoire n'était accessible jusqu'à maintenant qu'en comptant un à un les passages d'électrons, ce qui n'est réalisable que pour des dispositifs spécifiques. D'un autre point de vue, diminuer le niveau de bruit sous la limite quantique est un but fort souhaitable pour le développement de technologies électroniques de pointe. Un phénomène du nom de compression d'états démontre la possibilité de connaître une partie des informations disponibles avec une précision supérieure à la limite quantique au dépit de l'autre partie, qui sera noyée dans un bruit plus grand pour respecter cette limite. L'observation de la compression d'états nécessite donc d'atteindre le niveau de bruit minimal et d'enregistrer avec précision les niveaux de bruit de chaque paramètre observé. De surcroît, le domaine de la cryptographie serait fort d'utiliser un outil constitué de deux objets liés entre eux d'une façon non-classique. Ainsi, lire la valeur d'un paramètre A sur un objet limite les valeurs accessibles par le paramètre B du deuxième et vice-versa, ce qui permet de savoir si l'objet a été observé par un troisième observateur. La situation décrite en est une d'enchevêtrement, où la mécanique classique ne peut pas expliquer le lien entre les deux objets étudiés. Une telle manifestation n'est observable que sur des paires d'objets créés simultanément. La préparation identique de plusieurs paires permet une étude statistique des informations de chaque objet et toute corrélation entre eux ne pouvant s'expliquer par la mécanique classique, telle que la compression d'états à deux modes, est indicatrice d'enchevêtrement. Ce texte propose de sonder ces quantités en étudiant un dispositif dont le bruit de grenaille est simple à modéliser, la jonction tunnel. Lorsqu'elle est éloignée de son état d'équilibre par des tensions cc et ca, le courant qu'émet une jonction tunnel présente des fluctuations sur un spectre continu de fréquences. Cette thèse vise à démontrer que l'étude des corrélations entre les fluctuations présentes à deux fréquences distinctes permet la mesure du quatrième cumulant de la distribution statistique du bruit de grenaille. Cet ouvrage a aussi pour but d'utiliser divers outils développés dans le domaine de l'optique quantique afin de démontrer l'existence de compression d'états à deux modes dans ces fluctuations, démontrant ainsi la présence d'états enchevêtrés dans le bruit généré.
123

Développement d'une technologie NMOS pour la conception de fonctions électroniques avancées

Bérubé, Benoit-Louis January 2010 (has links)
Ce mémoire de maîtrise présente le développement d'une technologie NMOS utilisée en enseignement au 1er et 2e cycle et comme preuve de concepts en recherche à l'Université de Sherbrooke. Le développement est basé sur la technologie JOPE à 6 masques utilisée en enseignement depuis les années 90. Le but de ce projet est d'optimiser ce procédé pour augmenter la reproductibilité des circuits et la densité d'intégration. Les problèmes de JOPE sont une forte résistivité de couche du polySi, une grande résistivité des contacts aluminium/polySi et aluminium/zone active ainsi qu'une grande fluctuation de la tension de seuil des transistors. Le procédé de fabrication JOPE a été optimisé pour créer JOPE2 afin d'améliorer les propriétés physiques des composantes et atteindre les objectifs fixés. Des circuits ont été fabriqués contenant des structures de caractérisations et des circuits numériques et analogiques conçus avec une règle de longueur de grille minimale de 2 [micro]m. La résistivité du polySi de JOPE2 est diminuée d'un facteur 5 en augmentant la température de déposition de la couche par LPCVD et en ajoutant une implantation ionique dédiée en plus de celle déjà prévue avec le procédé autoaligné pour les sources/drains. De cette façon, la résistivité des contacts aluminium à polySi est diminuée d'un facteur 10. La résistivité des contacts aluminium à zone active est diminuée d'un facteur 20 en augmentant la dose d'implantation ionique des sources/drains. JOPE2, tout comme JOPE, présente une variation importante de la tension de seuil causée par les charges d'interfaces Si/SiO[indice inférieur 2] et la variation de la résistivité du substrat utilisée (1 à 10 [oméga]-cm). Le faible rendement du procédé, évalué à 47 %, est causé par la faible stabilité des contacts, la grande densité de défauts et les limitations en ce qui a trait à l'alignement des masques. Pour faire suite à ce projet, un procédé NMOS à 3 [micro]m est recommandé afin d'augmenter le rendement en diminuant l'impact des défauts, améliorant la stabilité des contacts et en augmentant la qualité de l'alignement. De plus, pour augmenter la stabilité de la tension de seuil il est recommandé d'utiliser des tranches hautes résistivité. Le procédé recommandé devrait permettre de fabriquer des circuits complexes basés sur des transistors NMOS avec un rendement de 80 %.
124

Mesure de l'impact de la marque de provenance Aliments du Québec sur la valeur des produits

Rodier, Francine January 2010 (has links)
Au Québec, un emploi sur huit est lié au secteur agroalimentaire. L'industrie joue un rôle important dans l'économie de la plupart des régions, tant en regard de l'emploi que de l'activité économique. Reconnaissant l'importance de promouvoir les produits québécois sur le marché interne, les intervenants du milieu agroalimentaire ont créé l'organisme Aliments du Québec. Parmi les stratégies adoptées pour accroître les parts de marché des produits québécois figure l'identification des produits à l'aide de la marque de provenance Aliments du Québec. Malgré les avantages économiques découlant de l'achat local, par manque de preuves scientifiques, l'organisme Aliments du Québec n'est pas en mesure de justifier quantitativement les investissements requis pour des démarches d'identification. Or, la connaissance de cette valeur, si elle s'avère positive, faciliterait l'adoption de la marque de provenance Aliments du Québec par les producteurs, les transformateurs et les distributeurs du Québec. L'objectif de la présente étude est donc de pallier à cette lacune en estimant la valeur de la marque Aliments du Québec auprès des responsables des achats alimentaires, et ce, dans un contexte d'achat réel. Notre recension des écrits a montré que, malgré la rareté des expérimentations en milieu réel et surtout l'absence d'études de cette ampleur dans le secteur agroalimentaire, la présence d'une marque signalant la provenance d'un produit alimentaire est susceptible d'influencer sa valeur aux yeux du consommateur et, de ce fait, sa propension à payer ou sa demande pour le produit. Cette revue de la littérature nous a permis de formuler des hypothèses à l'effet que l'identification de provenance Aliments du Québec devrait accroître la valeur d'un produit et que cet effet devrait être supérieur dans le cas des produits issus de catégories peu différenciées et arborant des marques dont le capital est faible. Pour tester ces hypothèses, nous avons eu recours à une expérimentation en magasin qui s'est déroulée sur une période de 39 semaines. Un plan factoriel 2 x 2 x 2 a été utilisé, soit deux stratégies d'identification (présence ou absence du logo Aliments du Québec), deux niveaux de similarité des produits dans la catégorie (faible et fort) et deux niveaux de force de la marque du produit sur lequel la marque de provenance Aliments du Québec est apposée (faible et forte). Nous avons utilisé la part de marché comme variable dépendante. Cette variable a été préférée à la quantité vendue parce qu'elle permet de contrôler les événements exceptionnels pouvant affecter les ventes de l'ensemble d'une catégorie de produits (ex. : la période des Fêtes). L'étude a été réalisée dans quatre magasins d'alimentation membres de la bannière IGA (Sobey's), l'une des trois principales bannières du Québec. Les magasins participants devaient fournir des données quant aux prix de vente et aux quantités vendues pour l'ensemble des marques présentes dans les 16 catégories de produits ciblés, et ce, pour une période de 27 semaines précédant l'expérimentation et pour les 12 semaines d'expérimentation. Le protocole expérimental s'est déroulé en deux temps. Au cours de la première période, qui s'est échelonnée sur les 27 premières semaines, aucune manipulation n'a été effectuée dans les 4 magasins. Au cours de la deuxième période, c'est-à-dire lors des semaines 28 à 39, nous avons effectué des manipulations en magasin. Dans deux des quatre magasins, nous avons identifié les marques cibles à l'aide de commères de 15 cm arborant la marque de provenance Aliments du Québec. En plus des données de ventes quotidiennes fournies par les marchands, un relevé hebdomadaire des produits présents, des ruptures, des quantités disponibles, des positions, des promotions et des prix a été effectué durant la période expérimentale. Des photos ont également été prises afin de permettre des vérifications a posteriori. Afin d'augmenter la validité externe des résultats observés et être en mesure d'isoler l'impact de la marque de provenance sur la valeur des produits, les catégories de produits retenues pour l'étude devaient répondre à quatre critères. Premièrement, il devait s'agir de catégories où la similarité entre les produits est forte ou faible. Deuxièmement, les catégories de produits retenues devaient correspondre à un marché mature et non saisonnier afin de réduire les variations dans les ventes attribuables à des facteurs externes. Troisièmement, il devait s'agir de catégories de produits d'achat fréquent afin de pouvoir observer les effets dans un délai raisonnable. Quatrièmement, la catégorie de produits devait présenter une variation dans les prix des produits à travers le temps afin de pouvoir estimer la courbe de demande pour les marques retenues. Les marques cibles retenues pour l'étude ont, pour leur part, été sélectionnées à partir de deux critères. D'abord, il devait s'agir de marques ayant une faible ou forte équité. Ensuite, les marques retenues devaient satisfaire les critères d'admissibilité pour l'usage de la marque de provenance Aliments du Québec ou de la marque de provenance Aliment préparé au Québec. Notre approche prévoyait le calcul de parts de marché. Il a donc été nécessaire d'identifier la concurrence directe. Cette identification s'est déroulée selon une démarche qualitative en deux temps. Dans un premier temps, nous avons effectué un relevé, dans les 4 sites expérimentaux, de toutes les marques offertes dans les 16 catégories de produits ciblées lors du pré-test. Dans un deuxième temps, nous avons identifié la concurrence directe des 16 marques cibles en 3 étapes. Dans une première étape, un relevé des marques présentes dans les 16 catégories a été soumis aux gestionnaires des 4 magasins afin d'en vérifier d'éventuelles omissions. Dans une deuxième étape, la chercheure principale a procédé à une analyse de la concurrence directe qui a consisté à faire des sous-groupes au sein des 16 catégories de produits. Dans une troisième étape, deux experts en marketing ont validé la classification effectuée. La variable dépendante a été mesurée par une procédure en trois étapes. Lors de la première, nous avons estimé, à l'aide de régressions, la courbe de demande pour les 16 marques cibles à partir des données recueillies lors des 27 premières semaines. À la seconde étape, en utilisant la courbe de demande estimée, nous avons fait des prédictions sur les parts de marché des marques cibles pour les semaines 28 à 39, en l'absence d'identification Aliments du Québec. À la troisième étape, nous avons calculé l'écart entre les parts de marché observées et les parts de marché prévues pour chaque marque cible. Si l'écart était plus élevé dans le cas des marques cibles identifiées par une commère Aliments du Québec, nous avons alors conclu que la marque Aliments du Québec ajoute de la valeur à un produit alimentaire. L'analyse des résultats a permis de confirmer que la présence de la marque de provenance Aliments du Québec augmente la valeur du produit et que ces résultats sont valables, peu importe le niveau de différenciation des produits dans la catégorie et la force de sa marque. Ces résultats sont également demeurés stables en tenant compte du magasin, de la catégorie de produits, de la semaine expérimentale, du nombre de commères et des activités promotionnelles. En moyenne, pour l'ensemble des 15 catégories de produits analysées, lorsqu'un produit est identifié par la marque Aliments du Québec, sa part de marché est de 2,8 points de pourcentage plus élevée que lorsque celui-ci n'est pas identifié par la marque Aliments du Québec. Plusieurs implications managériales découlent de cette recherche. Ces résultats se répercutent d'abord sur l'organisme Aliments du Québec, qui est désormais mieux outillé pour justifier les investissements requis pour des démarches d'identification des produits, et ce, peu importe la partie prenante. Ensuite, les résultats se répercutent sur les distributeurs alimentaires du Québec qui ont avantage à identifier les produits québécois qui répondent aux exigences de l'organisme, et ce, peu importe la localisation de leur magasin et le temps de l'année. L'identification Aliments du Québec est ainsi susceptible de contribuer à sécuriser l'espace tablette des produits québécois chez ces distributeurs. Nos résultats suggèrent aussi que les producteurs et transformateurs ont avantage à apposer l'identification Aliments du Québec sur leurs emballages afin d'augmenter la valeur de leurs produits aux yeux des consommateurs. Nos résultats envoient aussi un signal aux gouvernements qui auraient avantage à investir dans la marque de provenance Aliments du Québec puisqu'elle peut contribuer au développement du secteur agroalimentaire québécois. Bien que certaines limites inhérentes aux expérimentations en contexte réel comme les coûts et les inconvénients aux marchands soient également présentes ici, cette recherche ouvre d'autres pistes. En effet, des études ultérieures pourraient s'intéresser à l'évolution de la valeur d'une marque de provenance dans le temps, mais elles pourraient aussi avoir recours à une méthodologie semblable avec d'autres certifications, divers types de visuels ou différents types de magasins.
125

Cryptanalyses statistiques des algorithmes de chiffrement à clef secrète.

Gérard, Benoît 09 December 2010 (has links) (PDF)
Les travaux exposés dans ce document portent essentiellement sur l'étude des cryptanalyses statistiques des chiffrements par blocs. Certains des résultats présentés sont cependant suffisamment généraux pour pouvoir être utilisés dans d'autres contextes comme les chiffrements à flot, les attaques par canaux cachés, ... Après avoir donné quelques notions de base nécessaires à la compréhension du document, l'on s'intéresse aux deux grandes familles de cryptanalyses statistiques : les cryptanalyses linéaires et cryptanalyses différentielles. Un état de l'art est effectué afin de pouvoir appréhender les différentes problématiques liées à ces cryptanalyses. Dans un second temps, le document présente les travaux effectués durant ces trois années de thèse. Ceux-ci portent en majorité sur l'analyse de la complexité en données et de la probabilité de succès des cryptanalyses statistiques. Est aussi présenté un algorithme de décodage des codes linéaires qui peut être utilisé pour retrouver la clef lors d'une cryptanalyse linéaire. Notons que deux attaques sont proposées sur des schémas de chiffrement reconnus. Une cryptanalyse linéaire multiple sur la totalité du DES et une cryptanalyse différentielle multiple sur 18 tours du chiffrement PRESENT. Ces deux attaques sont, à ce jour, les meilleures attaques connues de leur catégorie sur ces chiffrements. Enfin, un appendice contient tous les détails techniques et preuves calculatoires permettant d'obtenir les résultats importants de ce document.
126

Précision d'extrapolation des éphémérides des objets du système solaire. Application aux satellites de Saturne.

Desmars, Josselin 26 June 2009 (has links) (PDF)
La précision globale des éphémérides est déterminée à la fois par la précision du modèle dynamique (précision interne) et par la qualité (précision et distribution) des observations utilisées pour l'ajustement du modèle (précision externe). La précision interne est bien estimée et de bonne qualité. En revanche, la précision externe est mal connue et tend à dégrader la qualité globale de l'éphéméride. L'un des moyens d'estimer la précision d'une éphéméride est la comparaison aux observations (O-C) qui n'est toutefois valable que pendant une période d'observations. En dehors de ces périodes, l'estimation de la précision reste difficile. L'objectif de ce travail est donc de mettre en lumière des méthodes statistiques qui permettent d'estimer la précision d'une éphéméride au cours du temps. Notre étude porte en particulier sur deux des huit satellites principaux de Saturne mais le cas d'un astéroîde est également étudié. Nous montrons que l'une des méthodes, le bootstrap, possède une implémentation simple et permet cette estimation en utilisant des hypothèses minimales sur la distribution des erreurs d'observations. La détermination de cette précision permet de mieux appréhender la manière d'utiliser les observations pour ajuster des théories. L'impact de la mission Gaia sur la précision des éphémérides peut également être mesurée. Un catalogue d'observations des satellites de Saturne, dont l'utilisation ne s'est pas limitée à l'ajustement du modèle, a été compilé. La longue période couverte par cette base de données autorise ainsi une mesure des forces de marées de Saturne, à travers la détection de l'accélération séculaire de la longitude moyenne de certains satellites.
127

Approchabilité, Calibration et Regret dans les Jeux à Observations Partielles

Perchet, Vianney 25 June 2010 (has links) (PDF)
Cette thèse s'intéresse aux jeux statistiques avec observations partielles. Ces jeux ne sont pas la formalisation d'une intéraction stratégique entre deux joueurs parfaitement rationnels, mais entre un joueur et la nature (ou l'environnement). On donne ce nom au second joueur car aucune hypothèse n'est faite sur ses paiements, ses objectifs ou sa rationalité. Les observations du joueur sont dites complètes s'il observe les choix de la nature, i.e. si il apprend a posteriori soit quelle est, à chaque étape, l'action choisie par cette dernière soit au moins son propre paiement. On s'intéressera au cadre où cette hypothèse est aaiblie et où l'on suppose que le joueur n'a que des observations partielles : il ne reçoit à chaque étape qu'un signal aléatoire dont la loi dépend de l'action de la nature. L'objectif principal de cette thèse est de généraliser des notions largement utilis ées dans les jeux avec observations complètes au cadre des jeux avec observations partielles. Nous allons en eet, dans un premier temps, construire des stratégies qui n'ont pas de regret interne et dans un deuxième temps nous allons caractériser les ensembles approchables.
128

Un algorithme pour l'ordonnancement de tâches temps-réel sur des ressources non-préemptives

Jorry, Alain 11 October 1976 (has links) (PDF)
Ce document est la synthèse des travaux menés pour la résolution d'un problème d'ordonnancement, celui posé par le système temps-réel spectre (divers types de ressources, plusieurs ressources par type, relations de précedence, arrivées échelonnées, dates critiques...) La méthode utilisée pour parvenir a la solution et les réflexions successives y sont décrites et analysées. de plus, ce travail décrit l'algorithme solution depuis sa définition jusqu'à sa programmation, en passant par la démonstration de sa validité.
129

Contributions a l'analyse de la variance et aux plans d'experience

Ph Am Dinh, Tuan 18 December 1970 (has links) (PDF)
.
130

Notion de liberté en statistique mathématique

Soler, Jean-Louis 12 January 1970 (has links) (PDF)
.

Page generated in 0.1068 seconds