• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 3
  • Tagged with
  • 10
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Les gangs de rue : vers une compréhension du processus d'identification des membres juvéniles par des policiers, des cliniciens et des étudiants universitaires de la région de Montréal

Hamel, Claudia January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
2

Les gangs de rue : vers une compréhension du processus d'identification des membres juvéniles par des policiers, des cliniciens et des étudiants universitaires de la région de Montréal

Hamel, Claudia January 2007 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
3

Optimisation et performance des bétons incorporant de la poudre de verre comme un remplacement partiel du ciment Portland

Abdalla, Aly Hussein January 2012 (has links)
L'utilisation des ajouts cimentaires tel que, la fumée de silice, les cendres volantes et les laitiers est une activité courante au Canada en raison des conditions climatiques sévères. Au Québec, ces matériaux ne sont pas disponibles, ce qui implique leur transport sur des distances considérables. La poudre de verre est un matériau pouzzolanique fabriqué au Québec et présente ainsi l'avantage de remplacer partiellement ces matériaux cimentaires. Il est rapporté qu'un taux de remplacement partiel de 20% du ciment portland par la poudre de verre a des effets bénéfiques sur le développement des propriétés mécaniques et sur la durabilité du béton. Le taux d'incorporation optimal de la poudre de verre peut varier en fonction du rapport E/L, le dosage en liant et leur interaction. Il est difficile de déterminer l'effet de l'interaction entre lés paramètres de formulation sur les propriétés du béton par les méthodes conventionnelles. Alors, un plan factoriel composite à deux niveaux a été conçu pour déterminer l'effet des trois facteurs, ainsi que de leurs interactions sur les résistances en compression et la perméabilité aux ions chlore aux différents âges. Les facteurs modélisés dans ce plan factoriel sont; le rapport E/L, le taux d'incorporation de verre et le dosage en liant (kg/m [indice supérieur 3] ). Tous les modèles statistiques sont valides pour des rapports E/L entre 0,35 et 0,60, des pourcentages de la poudre de verre entre 10% et 40% et des dosages en liant entre 335 kg/m [indice supérieur 3] et 415 kg/m [indice supérieur 3]. Des mélanges de validation sont utilisés pour évaluer la fiabilité des modèles proposés. Le rapport entre les valeurs prédites et les valeurs mesurées se situe entre 0,83 et 1,15 ce qui indique une bonne fiabilité des modèles proposés. Le rapport E/L est le paramètre qui a le plus d'influence sur la résistance en compression à tous les âges et sur la perméabilité aux ions chlores à 28 jours. Par contre, le taux d'incorporation de la Poudre de verre a le plus d'influence sur la perméabilité aux ions chlore à 56, 91 et 180 jours grâce à la réactivité pouzzolanique de la poudre de verre. Des courbes iso-réponses sont établis pour comprendre l'évolution des propriétés du béton en fonction des différents paramètres de formulation. Elles montrent que l'incorporation de 20% de la poudre de verre aux bétons formulés avec un rapport E/L de 0,45 procure une perméabilité aux ions chlores inférieure à 1500 Coulombs à 56 jours. Cette valeur de perméabilité peut être obtenue à 56 jours en remplaçant 30% du ciment par la poudre de verre quelque soit le rapport E/L considéré. Une valeur de la résistance en compression à 28 jours de 35 MPa peut être obtenue en utilisant des bétons formulés avec un rapport E/L de 0,45 et incorporant 20% de poudre de verre. Cette valeur de la résistance à 28 jours peut être obtenue aussi avec des bétons formulés avec un rapport E/L de 0,42 et contenant 30% de poudre de verre. Des mélanges binaires et ternaires proportionnés avec un rapport E/L de 0,45 et incorporant de la poudre de verre affichent des bonnes propriétés mécaniques, ainsi que des bonnes caractéristiques de durabilité dans les milieux agressifs. Ces bétons développent des gains significatifs des propriétés mécaniques entre 28 et 91 jours. L'utilisation de la poudre de verre comme un ajout cimentaire alternatif présente une avenue très intéressante pour avoir des bétons durables et économiques.
4

Détermination de la contribution relative des composants d'un vélo de route sur la transmission de vibration

Lépine, Julien January 2013 (has links)
Les cyclistes peuvent rouler plusieurs heures sur des routes d'une qualité souvent médiocre. L’amélioration du confort des vélos de route est donc un critère de conception important dans l’industrie du cycle. Le fait que l’humain joue un double rôle de récepteur de vibration et de composant dynamique important sur un vélo complexifie l’étude du confort cycliste. De ce fait, les fabricants de vélos n’ont actuellement pas d'idée précise sur ce qui influence réellement le confort et cela limite leur capacité d'améliorer le confort de leurs produits. L’objectif de ce mémoire est de trouver les composants qui ont le plus d'influence sur le niveau d'accélération, de force et puissance transmises aux mains et aux fesses du cycliste. Cet objectif est atteint en trois étapes, qui ont fait chacune l’objet d’articles de journaux inclus dans ce mémoire. La première étape est le développement d'une technique pour reproduire l’excitation de la route en laboratoire. Cette étape comprend d'abord la mesure de vibration sur un vélo roulant sur une route très granulaire (bitume usé sans crevasses et sans nids de poules). Il y est ensuite question de la méthode de reproduction avec des excitateurs linéaires reproduisant la vibration de la route sous les roues d'un vélo avec un cycliste. La deuxième étape est l’élaboration d'un protocole expérimental conçu pour réduire au maximum les incertitudes reliées à l’interaction du cycliste sur le vélo et aux conditions d'essais. Ce protocole optimise la position du cycliste et des conditions d’essais pour augmenter la répétabilité des mesures des vibrations transmises aux mains et aux fesses du cycliste. Malgré ces précautions concernant la répétabilité, le système vélo-cycliste n'est pas déterministe. Une approche statistique rigoureuse doit donc être utilisée pour analyser les essais. La troisième étape est la campagne de mesure qui répond directement à l’objectif de ce mémoire. Elle se résume en une première série d’essais qui détermine pour chaque composant identifié (cadre, fourche, roues, cintre et potence) les pièces offertes sur le marché qui transmettent le plus et le moins de vibrations. À partir des pièces sélectionnées, une seconde série d'essais permet de déterminer ensuite la contribution relative de ces composants sur le niveau de vibrations transmises au cycliste. La détermination de la contribution relative des composants d’un vélo de route sur le niveau de vibrations transmises de la route au cycliste permet ainsi d'identifier les composants les plus influents sur le confort des vélos et de guider le partenaire au projet, Cervélo, dans la conception orientée vers l’amélioration du confort des vélos de demain.
5

Comment améliorer la dérive des résonateurs à quartz pour applications spatiales ?

Delmas, Bruno 09 November 2009 (has links) (PDF)
Depuis près d'un siècle, les résonateurs à quartz à ondes de volume sont utilisés pour stabiliser les oscillateurs électriques. Cette longévité est due aux propriétés exceptionnelles du quartz et aux progrès constants de la technique. Pour les applications spatiales, il n'est généralement pas possible d'intervenir sur le composant. La dérive en fréquence doit alors être réduite et contrôlée sur des dizaines d'années. Cette variation systématique de la fréquence de résonance au cours du temps est due à l'évolution de plusieurs phénomènes physiques dont nous avons fait la synthèse et une analyse quantitative. Le premier de nos deux axes d'études porte sur l'étude des contraintes mécaniques dans la lame de quartz. Un travail bibliographique nous a permis d'étudier les spécificités de différentes formes de résonateur pour comprendre l'effet des contraintes mécaniques et les moyens de limiter la variation de fréquence induite. Les outils de modélisation actuels nous ont aidés à mettre au point une géométrie apportant une nette réduction de l'effet force-fréquence, confirmée par les mesures des premiers prototypes. L'autre axe d'étude est expérimental et prote sur un procédé essentiel communément appelé "pré-vieillissement". Les nombreuses contraintes de cette étude, telles que le temps, nous ont imposées une organisation méthodique de l'expérimentation. Ainsi, les plans factoriels fractionnaires nous ont permis de limiter les moyens techniques tout en obtenant les effets de chaque paramètre définissant le pré-vieillissement. Les résultats convergent vers la même conclusion que celle faite lors de l'étude quantitative des phénomènes physiques produisant le vieillissement.
6

Time-lapse (4D) seismic interpretation methodologies based on kriging analysis : application to the Senlac (onshoreCanada) and Marlim ( offshore Brazil) heavy oilfields / Méthodologies d'Interprétation par Analyse Krigeante des données sismiques 4D réservoir. Applications aux huiles lourdes de Senlac (Canada) et au champ Marlim (Brésil)

Borges De Salles Abreu, Carlos Eduardo 07 March 2008 (has links)
L’objectif de la thèse est de développer une méthodologie permettant d’obtenir une interprétation quantitative des données de sismique répétée (sismique 4D). Une étape essentielle consiste à évaluer la répétitivité des données, puis à filtrer les bruits indésirables, qui peuvent masquer ou détériorer la signature 4D. Une méthodologie basée sur des outils géostatistiques a été développée. Deux fenêtres temporelles des cubes sismiques étudiés sont choisies, l’une au-dessus du réservoir - où aucun effet 4D n’est attendu - et l’autre incluant le réservoir. Une analyse statistique et variographique conduite sur ces différentes fenêtres permet de proposer une décomposition des variogrammes en structures communes ou indépendantes, qui sont ensuite interprétées en termes de bruit, de signature géologique ou 4D. Les structures interprétées comme indépendantes de la géologie ou de la production sont ensuite filtrées à l’aide de la technique du krigeage factoriel proposée par Matheron en 1982. La méthodologie a été testée sur deux cas réels. Le premier concerne un champ d’huiles lourdes canadien, sur lequel trois campagnes sismiques ont été enregistrées, avant et pendant la production obtenue à l’aide d’injection de vapeur. Le bruit interprété comme tel sur les 3 campagnes a été filtré à l’aide la méthode décrite plus haut ; une analyse en termes de faciès sismiques non supervisée a ensuite été conduite sur les données brutes et filtrées afin d’évaluer l’intérêt du filtrage. Finalement, une interprétation des décalages en temps observés entre campagnes a été proposée. Le deuxième cas réel concerne un champ turbiditique profond dans l’offshore du Brésil, sur lequel deux campagnes sismiques 3D ont été acquises, avant et après le début de la production obtenue par injection d’eau. Le bruit présent sur les deux campagnes a été filtré à l’aide de la technique du krigeage factoriel, et la qualité de ce filtrage a pu être évaluée par comparaison avec d’autres techniques couramment utilisées / This thesis research aims at investigating seismic interpretation methodologies and techniques that will help on better characterizing time-lapse, or 4D, seismic signatures. These techniques and methodologies are used to evaluate the time-lapse repeatability and then to filter out undesirable artefacts that are non-related to the production, while enhancing the 4D signature. To achieve these goals, a methodology based on geostatistical tools, was developed. Typically, at least two time-interval windows are considered: one above and the other comprising the reservoir of interest. A statistical and variographic analysis, conducted on both windows and on all surveys, leads to an interpretation step where common or independent structures – in the variographic sense- can be pointed out. The structures interpreted as not related to the geology or to the production mechanism are filtered from the data by a multivariate factorial cokriging technique, based on the concept of Kriging Analysis developed by Matheron in 1982. Two real case time-lapse studies were used to test the methodology. The first case is a Canadian onshore heavy oil reservoir submitted to steam injection, where three different time-lapse surveys were shot to monitor the steam-chamber evolution. The noise present in the three surveys was first filtered using the technique described above; next, an unsupervised seismic facies analysis was conducted on both raw and filtered data in order to evaluate the filtering technique, and finally an interpretation, in terms of reservoir properties changes, of the time-shit observed between the campaigns was proposed. In the second case, the seismic data was acquired on a deepwater turbiditic oilfield from Brazil at two different times of reservoir life, before and after production and water injection. The two seismic surveys were filtered using the factorial kriging technique; the quality of the filtering was, in this case, evaluated by comparison with more common techniques
7

L'influence du point de vente sur le capital d'une marque : une approche par les données du panel / The Impact of Store on Brand Equity : A Panel-based Approach

Kaswengi Mbwiti, Joseph 20 November 2012 (has links)
De manière générale, la qualité d’un circuit de distribution peut-elle influencer le capital d’une marque ?C’est la principale question que nous traitons dans cette recherche. De nombreuses recherches ont étépubliées sur les déterminants du capital marque. Cependant, peu de choses ont été dites sur le rôle de ladistribution. De plus, une grande partie des recherches ont considéré l’image du point de vente comme unconcept global ou unidimensionnel. Or, la majorité des recherches affirme que l’image du point de vente estun construit multidimensionnel.Le but de cette recherche est d’étudier la relation entre la qualité de la distribution et le capital de la marquequi y est référencée. Nous développons un modèle qui met en relation les dimensions du magasin (l’imageprix, la variété de l’assortiment, la qualité de MDD, la qualité des produits, la qualité de service etl’accessibilité du magasin) et le capital marque, mesuré à l’aide des constantes qui, sont considéréescomme la mesure de l’utilité incrémentale de la marque. Nous utilisons les variables de contrôle telles que lacatégorie de produits. Nous élaborons un modèle factoriel dynamique en utilisant les données de panel sur4500 ménages, 12 magasins appartenant à de chaines différentes en France sur une période de cinq ans etdemi (2004-2009). Les résultats montrent que les effets de l’image du magasin sur le capital marque varientselon l’enseigne, le format de magasin, les catégories de produits, les marques et les caractéristiques desconsommateurs.D’un point de vue théorique, cette recherche permet d’identifier les dimensions les plus pertinentes del’image d’un point de vente ainsi que leurs conditions d’efficacité. D’un point de vue méthodologique, nousutilisons un modèle factoriel dynamique qui n’a pas encore été utilisé sur la mesure du capital marque. D’unpoint de vue managérial, cette recherche permettra aux responsables de marques de mieux apprécierl’influence d’un magasin sur la valeur de leurs marques. / Does a store format quality can generally influence brand equity? This is the main question we address inthis research. Numerous studies have been published on brand equity drivers. However, little has been saidabout the role of distribution. In addition, much research has conceptualized store image as a global or onedimensionalconcept. However, according to the research majority, store image is a multidimensionalconstruct.The purpose of this research is to investigate the relationship between distribution quality and brand equity.We develop a model that connects store image dimensions (price image, assortment variety, private labelquality, product quality, service quality, and location) and brand equity, measured thanks to the interceptswhich are considered as a brand incremental utility measure. The model controls for the variables such asthe product category. We adopt a dynamic factor model using panel data on 4500 households, 12 storesbelonging to different chains in France over a period of five years and a half (2004-2009). The results showthat store image effects on the brand equity depend on the store name, store format, product categories,brands and consumer characteristics.From a theoretical perspective, this research identifies the most relevant store image dimensions as well astheir efficiency conditions. From a methodological point of view, we use a dynamic factor model that has notyet been used on brand equity measurement. From a managerial standpoint, this research may help brandmanagers to better assess the store impact on their brands value.
8

Region-based approximation to solve inference in loopy factor graphs : decoding LDPC codes by the Generalized Belief Propagation / Approximation basée régions pour résoudre l'inférence dans les graphes factoriels à boucles : application au décodage des codes LDPC par le Generalized Belief Propagation

Sibel, Jean-Christophe 07 June 2013 (has links)
Dans cette thèse, nous étudions le problème de l'inférence bayésienne dans les graphes factoriels, en particulier les codes LDPC, quasiment résolus par les algorithmes de message-passing. Nous réalisons en particulier une étude approfondie du Belief Propagation (BP) dont la question de la sous-optimalité est soulevée dans le cas où le graphe factoriel présente des boucles. A partir de l'équivalence entre le BP et l'approximation de Bethe en physique statistique qui se généralise à l'approximation basée régions, nous détaillons le Generalized Belief Propagation (GBP), un algorithme de message-passing entre des clusters du graphe factoriel. Nous montrons par des expériences que le GBP surpasse le BP dans les cas où le clustering est réalisé selon les structures topologiques néfastes qui empêchent le BP de bien décoder, à savoir les trapping sets. Au-delà de l'étude des performances en termes de taux d'erreur, nous confrontons les deux algorithmes par rapport à leurs dynamiques face à des événements d'erreur non triviaux, en particulier lorsqu'ils présentent des comportements chaotiques. Par des estimateurs classiques et originaux, nous montrons que l'algorithme du GBP peut dominer l'algorithme du BP. / This thesis addresses the problem of inference in factor graphs, especially the LDPC codes, almost solved by message-passing algorithms. In particular, the Belief Propagation algorithm (BP) is investigated as a particular message-passing algorithm whose suboptimality is discussed in the case where the factor graph has a loop-like topology. From the equivalence between the BP and the Bethe approximation in statistical physics that is generalized to the region-based approximation, is detailed the Generalized Belief Propagation algorithm (GBP), a message-passing algorithm between clusters of the factor graph. It is experimentally shown to surpass the BP in the cases where the clustering deals with the harmful topological structures that prevents the BP from rightly decoding any LDPC code, namely the trapping sets. We do not only confront the BP and the GBP algorithms according to their performance from the point of view of the channel coding with the error-rate, but also according to their dynamical behaviors for non-trivial error-events for which both algorithms can exhibit chaotic beahviors. By means of classical and original dynamical quantifiers, it is shown that the GBP algorithm can overcome the BP algorithm.
9

Etude de l'effet de facteurs environnementaux sur les processus biogéochimiques de mobilisation du Pb, Zn, Cd, As et Hg dans les sols - Modélisation empirique de la mobilité et phytodisponibilité des ETM

Joubert, Antoine 12 March 2008 (has links) (PDF)
La pollution des sols par les Eléments Traces Métalliques est un problème majeur car, contrairement aux autres milieux, le sol possède une plus faible capacité à s'épurer. Les différents modèles empiriques exprimant la solubilité et le coefficient de distribution Kd de ces polluants inorganiques dans les sols ne tiennent pas compte de l'influence des facteurs environnementaux. Le travail de thèse a consisté à étudier l'effet de facteurs environnementaux, dits « sensibles au changement global », sur la mobilité de Cd, Pb, Zn, As et Hg dans les sols, à l'aide d'un plan factoriel fractionnaire 2^(4-1). Onze échantillons de sol représentatifs de 3 sites d'études industriels et agricoles des bassins de la Meuse et de l'Ebre ont été étudiés dans le cadre du projet européen AQUATERRA. Le comportement de As n'est pas significativement corrélé à la nature intrinsèque des échantillons de sol mais à l'augmentation de la température et à une condition anoxique. Ces facteurs stimulent les activités microbiennes de solubilisation de As tels que réduction dissolutive microbienne des oxyhydroxydes de Fe et la réduction de As(V). La forte implication de l'activité microbienne permet de modéliser la mobilité de As en fonction des facteurs environnementaux, pour l'ensemble des 11 échantillons de sol. A l'inverse, le comportement de Cd, Pb et particulièrement Zn, est très significativement corrélé à la nature des échantillons de sol et notamment le pH du sol. Enfin, la phytodisponibilité de Cd, Pb, Zn et As a été estimée, à l'aide d'un système à compartiment, et modélisée de manière empirique, afin de permettre une meilleure compréhension des phénomènes de transfert sol-plante.
10

Modélisation de la Volatilité Implicite, Primes de Risque d’Assurance, et Stratégies d’Arbitrage de Volatilité / Implied Volatility Modelling, Tail Risk Premia, and Volatility Arbitrage Strategies

Al Wakil, Anmar 11 December 2017 (has links)
Les stratégies de volatilité ont connu un rapide essor suite à la crise financière de 2008. Or, les récentes performances catastrophiques de ces instruments indiciels ont remis en question leurs contributions en couverture de portefeuille. Mes travaux de thèse visent à repenser, réinventer la philosophie des stratégies de volatilité. Au travers d'une analyse empirique préliminaire reposant sur la théorie de l'utilité espérée, le chapitre 1 dresse le diagnostic des stratégies traditionnelles de volatilité basées sur la couverture de long-terme par la réplication passive de la volatilité implicite. Il montre que, bien que ce type de couverture bat la couverture traditionnelle, elle s'avère inappropriée pour des investisseurs peu averses au risque.Le chapitre 2 ouvre la voie à une nouvelle génération de stratégies de volatilité, actives, optionnelles et basées sur l'investissement factoriel. En effet, notre décomposition analytique et empirique du smile de volatilité implicite en primes de risque implicites, distinctes et investissables permet de monétiser de manière active le portage de risques d'ordres supérieurs. Ces primes de risques mesurent l'écart de valorisation entre les distributions neutres au risque et les distributions physiques.Enfin, le chapitre 3 compare notre approche investissement factoriel avec les stratégies de volatilité employées par les hedge funds. Notre essai montre que nos stratégies de primes de risque d'assurance sont des déterminants importants dans la performance des hedge funds, tant en analyse temporelle que cross-sectionnelle. Ainsi, nous mettons en évidence dans quelle mesure l'alpha provient en réalité de la vente de stratégies d'assurance contre le risque extrême. / Volatility strategies have flourished since the Great Financial Crisis in 2008. Nevertheless, the recent catastrophic performance of such exchange-traded products has put into question their contributions for portfolio hedging and diversification. My thesis work aims to rethink and reinvent the philosophy of volatility strategies.From a preliminary empirical study based on the expected utility theory, Chapter 1 makes a diagnostic of traditional volatility strategies, based on buy-and-hold investments and passive replication of implied volatility. It exhibits that, although such portfolio hedging significantly outperforms traditional hedging, it appears strongly inappropriate for risk-loving investors.Chapter 2 paves the way for a new generation of volatility strategies, active, option-based and factor-based investing. Indeed, our both analytical and empirical decomposition of implied volatility smiles into a combination of implied risk premia, distinct and tradeable, enables to harvest actively the compensation for bearing higher-order risks. These insurance risk premia measure the pricing discrepanciesbetween the risk-neutral and the physical probability distributions.Finally, Chapter 3 compares our factor-based investing approach to the strategies usually employed in the hedge fund universe. Our essay clearly evidences that our tail risk premia strategies are incremental determinants in the hedge fund performance, in both the time-series and the cross-section of returns. Hence, we exhibit to what extent hedge fund alpha actually arises from selling crash insurance strategies against tail risks.

Page generated in 0.0702 seconds