• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 585
  • 184
  • 2
  • Tagged with
  • 773
  • 773
  • 489
  • 237
  • 106
  • 100
  • 97
  • 91
  • 90
  • 85
  • 83
  • 77
  • 73
  • 62
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Modelling and model-based optimization of N-removal WRRFs : reactive settling, conventional & short-cut N-removal processes

Kirim, Gamze 09 November 2022 (has links)
La détérioration des ressources en eau et la grande quantité d'eau polluée générée dans les sociétés industrialisées donnent une importance fondamentale aux procédés de traitement des eaux usées pour préserver les ressources, conformément à l'objectif 6 des 17 objectifs de développement durable des Nations Unies. Le rejet de nutriments tels que l'ammoniac par les eaux usées est un problème important, l'élimination de l'azote (N) est donc l'un des processus critiques de toute station de récupération des ressources en eau (StaRRE). L'objectif de ce projet de recherche doctoral est d'améliorer la compréhension des mécanismes d'élimination de l'azote dans le traitement biologique des eaux usées grâce à la modélisation, et d'optimiser les StaRRE existantes pour réduire la consommation d'énergie et de ressources. Dans ce cadre, 3 études différentes ont été réalisées. Tout d'abord, un modèle de décanteur réactif unidimensionnel a été développé. Celui-ci prédit le comportement de décantation de boues à des concentrations élevées de boues ainsi que les conversions biocinétiques dans le processus de décantation secondaire (DS). Il a été constaté qu'une description précise des réactions biocinétiques dans la DS impose des défis de calibration élevés pour le modèle de décantation, car ce dernier doit capturer les profils de concentration complets de la biomasse active dans la couverture de boues. Le modèle calibré a pu prédire avec précision les profils de concentration des effluents et du lit de boues dans la DS. Le modèle développé peut être utilisé pour le contrôle et la simulation des StaRRE afin d'obtenir de meilleures prédictions des concentrations d'effluents et des boues de retour, et aussi de calculer correctement le bilan massique d'azote d'une StaRRE. Deuxièmement, un modèle à l'échelle de l'usine a été mis en place pour un système de pré-dénitrification conventionnel pour la StaRRE pilEAUte à l'échelle pilote. Une méthodologie de calibration du modèle par étapes a été adoptée en fusionnant les principaux protocoles de calibration de modèle, tout en mettant l'accent sur le modèle biocinétique. Le modèle de la StaRRE pilEAUte, y compris le décanteur réactif développé, a été calibré et validé pour simuler les variables de modèle sélectionnées, puis utilisé pour une analyse de scénarios plus approfondie de l'optimisation de la consommation d'énergie et des ressources. Les résultats de l'analyse des scénarios ont montré le potentiel d'optimisation du système conventionnel d'élimination d'azote grâce à la réduction de l'aération et du retour interne des nitrates. Ils ont également démontré que la dénitrification dans le décanteur secondaire peut avoir une contribution significative à la capacité globale d'élimination d'azote d'une StaRRE lorsque la liqueur mixte peut traverser le lit de boues. Troisièmement, l'étude visait à évaluer l'applicabilité des stratégies de commande continu et intermittent du rapport de l'ammoniac par rapport aux NOX-N (commande AvN) sur la StaRRE pilEAUte. Les stratégies de commande de l'aération par AvN sont appliquées en amont d'un réacteur de désammonification, qui est un processus d'élimination efficace d'azote avec un besoin de ressources réduit (en termes d'aération et carbone) par rapport aux systèmes conventionnels. Les deux stratégies de commande testées pourraient être réalisées grâce à une commande automatique. Cependant, le maintien du rapport AvN dans l'effluent à la valeur souhaitée (1) dépend fortement des conditions opérationnelles telles que les variations de l'affluent, le temps de rétention des boues et la fiabilité des capteurs. Même si la recherche est guidée par les études de StaRRE à l'échelle pilote, les méthodologies développées pour démontrer et modéliser les processus et les conditions opérationnelles économes en énergie et en ressources sont applicables et transférables à d'autres études de cas à plein échelle. / Deterioration of water resources and the large amount of polluted water generated in industrialized societies gives fundamental importance to waste water treatment processes to preserve resources in accordance with goal 6 of the 17 sustainable development goals of the United Nations. Discharge of nutrients such as ammonia with waste water is a significant issue, thus nitrogen (N) removal is one of the critical processes of any water resource recovery facilities (WRRF). The objective of this PhD research project was to improve the understanding of N-removal mechanisms in biological treatment of wastewater through modelling and to optimize existing WRRFs to reduce energy and resource consumption. Within this context, 3 different studies were carried out. First, a one dimensional reactive settler model was developed that predicts the settling behaviour at high sludge concentrations together with biokinetic conversions in the secondary settling process. It was found that an accurate description of biokinetic reactions in the SST puts high calibration requirements on the settling model as it must properly capture the full concentration profiles of active biomass in the sludge blanket. The calibrated model was able to accurately predict the effluent and sludge blanket concentration profiles in the SST. The developed model can be used for control and simulation of WRRFs for better predictions of SST effluent and underflow concentrations and also properly calculate the nitrogen mass balance of a WRRF. Second, a plant-wide model was set up for a conventional pre-denitrification system for the pilot-scale pilEAUte WRRF. A step-wise model calibration methodology was adopted by merging main existing model calibration protocols while placing emphasis on the biokinetic model. The pilEAUte model, including the developed reactive settler, was calibrated and validated to simulate the selected model variables and used for further scenario analysis for energy and resource optimization. The scenario analysis results showed the optimization potential of conventional N removal systems through application of reduced aeration and internal nitrate recycling. It also demonstrated that denitrification in the secondary settler can contribute significantly to the overall N removal capacity of the WRRF when mixed liquor can pass through the sludge blanket. Third, it was aimed to evaluate the applicability of continuous and intermittent Ammonia vs NOₓ-N (AvN) control strategies on the pilEAUte WRRF. The AvN aeration control strategies are applied prior to a deammonification stage which is a short-cut N removal process with reduced resource (aeration and carbon) requirements in comparison to conventional systems. Both strategies could be achieved through automatic control. However, keeping the AvN ratio in the effluent on the desired value highly depends on operational conditions such asinfluent variations, sludge retention time and the sensor's measurement reliability.
52

Évaluation du risque lié aux inondations par modélisation hydrodynamique du ruisseau Pratt

Roy-Poulin, Gabriel 01 February 2021 (has links)
Ce mémoire présente les travaux de recherche ayant trait à la modélisation hydrodynamique du ruisseau Pratt et à l’évaluation du risque lié aux inondations à Coaticook. Quatre chapitres composent ce document. Le contexte de la recherche y est d’abord présenté. L’état des connaissances concernant le cours d’eau complexe qu’est le ruisseau Pratt est synthétisé, notamment son historique d’inondations, ses aspects hydrologiques et hydrauliques ainsi que les solutions envisagées jusqu’ici pour régler les problématiques d’inondations. La construction d’un bassin de rétention et l’érection de murs au centre-ville sont favorisées. Par la suite, la méthodologie employée pour développer des modèles hydrodynamiques 1D et 2D sur HECRAS 5.0 est présentée. Les différentes simulations effectuées pour évaluer le risque lié aux inondations de même que la façon dont ces résultats ont été exploités sont ensuite détaillées. La démarche d’évaluation du dommage moyen annuel (DMA) à l’aide de l’aléa des inondations, de l’exposition des bâtiments et de leur vulnérabilité y est notamment décrite. Le troisième chapitre du mémoire contient les résultats de l’étude. Les étendues d’inondation de même que la cartographie des zones inondables pour trois situations et pour les récurrences de 2, 20 et 100 ans sont présentées. Des séries de cartes exploitant des indicateurs de danger potentiel se trouvent également dans cette section. Enfin, les résultats du calcul du DMA pour différents scénarios sont montrés. Selon ces résultats, le DMA lié aux inondations de la ville de Coaticook se trouverait actuellement entre 145 k $-et 228 k $-an. La construction d’un bassin de rétention pourrait toutefois abaisser ces valeurs de plus de 80 %. Finalement, différentes analyses sont exposées dans le dernier chapitre du mémoire. Un jugement sur la légitimité des résultats qui comprennent des incertitudes importantes est d’abord avancé. Ceux-ci sont estimés réalistes, malgré certaines ambiguïtés. L’écoulement du ruisseau Pratt lors d’inondation est ensuite apprécié à l’aide d’une caractérisation de la propagation des inondations et d’une analyse des résultats de modélisation. Les risques liés aux inondations et la pertinence des mesures de mitigations sont finalement analysés. Techniquement, les risques pourraient être grandement diminués à l’aide du bassin de rétention et de l’érection des murs. La première solution pourrait d’ailleurs être rentable si son coût de construction demeure inférieur à 2,4 M $ -voire 3,7 M $ -en considérant les impacts potentiels des changements climatiques sur le régime hydrologique du ruisseau Pratt. Des risques supplémentaires peuvent toutefois accompagner la mise en place de ses mesures. Ces derniers sont décrits à la fin du quatrième chapitre de ce mémoire.
53

Modélisation de poutres en béton armé endommagées par chargements cycliques : comportement en flexion et en cisaillement

Houde, Marie-Josée 12 April 2018 (has links)
Le but de ce projet de recherche est de développer un outil de modélisation du comportement d’éléments en béton armé selon une discrétisation par couches. En flexion, la modélisation repose sur la capacité de prédire d’une part le comportement d’une section fissurée et d’autre part, le comportement global d’une poutre fléchie. Un endommagement relié à l’historique de chargement est également pris en compte par l’apparition de déformations permanentes et l’imposition d’une diminution de la rigidité des matériaux. L’outil offre alors la possibilité d’établir des seuils d’alarme par la mise à jour de l’indice de fiabilité d’une structure, ce qui constitue un atout significatif à la télésurveillance. Une portion expérimentale permet de confronter les résultats obtenus de la modélisation à des essais en laboratoire sous chargements statiques et cycliques sur des poutres instrumentées. La comparaison entre les résultats expérimentaux et la prédiction du modèle démontre une très bonne concordance, autant sous chargements statiques que cycliques, malgré une prédiction un peu conservatrice des indicateurs de performance à la rupture. Ce phénomène est toutefois favorable dans l’optique de poser des seuils d’alarme en télésurveillance. Finalement, le modèle permet de construire une enveloppe de rupture incluant l’interaction des efforts de cisaillement et de flexion. L’utilisation de la théorie des champs de compression modifiée permet le suivi de l’inclinaison des fissures et de la déformation des étriers à l’ultime. Bref, le modèle assemblé s’avère un outil de prédiction efficace du comportement réel d’éléments fléchis et cisaillés en béton armé. / The objective of this research project is to develop a modeling tool (layer by layer) for the behavior of reinforced concrete members. For flexure, the model relies on the capacity to predict the behavior of a cracked section and also the behavior of the entire bent beam. Damage related to historic loading also applies, including permanent deformations and a diminished rigidity to the material. It is therefore possible to set up an alarm threshold by upgrading the reliability index of the structure which constitutes a complementary tool to telesurveillance or monitoring. An experimental program was setup to obtain results to validate the model with static and cyclic loading of instrumented beams. The comparison between the experimental results and the model predictions shows an excellent agreement for the static loading behavior, even though it is on the safe side of the performance index indicators. The phenomenon is nonetheless favourable for the proposed telesurveillance alarm threshold. Finally, the model can generate a rupture envelop including the interaction between the shear force and bending moment. The use of the modified compression field theory allows the follow-up of the crack inclination and the deformation in the stirrups at rupture. In summary, this prediction tool reveals to be a very useful one to simulate the behavior of reinforced concrete members subjected to shear and bending.
54

Évaluation de l'efficacité de lignes de production avec machines multi-états et stocks intermédiaires

Belmansour, Ahmed-Tidjani 18 April 2018 (has links)
Cette thèse développe des modèles d'évaluation de performance d'une ligne de production composée de machines non fiables sujettes à plusieurs modes de défaillances, ou pouvant opérer en fonctionnement dégradé. Ces machines sont dites multi-états et sont séparées par de stocks intermédiaires de capacités finies. On considère que le fonctionnement dégradé affecte uniquement le taux de production nominal des machines de la ligne et non la qualité des pièces produites. Un modèle continu est utilisé pour décrire le débit d'une machine et le niveau d'un stock. Chaque mode de défaillance est caractérisé par ses propres temps de bon fonctionnement et de réparation. Ces temps sont considérés comme des variables aléatoires exponentiellement distribuées. Les modèles proposés permettent l'évaluation de performances de longues lignes de production en procédant par agrégation de machines. Cette technique consiste à évaluer les paramètres d'une machine équivalente pouvant se substituer à un ensemble constitué d'un stock et des deux machines qui l'encadrent. Ainsi, une machine équivalente à la ligne complète est évaluée de proche en proche. Afin de valider les modèles proposés, les résultats analytiques obtenus sont comparés avec des résultats de simulation. Pour cela, nous avons développé un outil de simulation appelé « ProdLineSim ». Dans le cas de machines sujettes à plusieurs modes de défaillances, les résultats de simulation ont montré qu'en tenant compte de manière explicite des différents modes de défaillances de chaque machine, la méthode proposée permet une évaluation de performance plus précise qu'en ne considérant, pour chaque machine, qu'un seul mode de défaillance. Dans le cas de machines pouvant opérer en fonctionnement dégradé, les résultats de simulation ont aussi montré qu'en tenant compte de manière explicite de ce fonctionnement dégradé, la méthode proposée permet une évaluation de performance plus précise.
55

Toward coherent accounting of uncertainty in hydrometeorological modeling

Thiboult, Antoine 23 April 2018 (has links)
La considération adéquate des différentes sources d’incertitude est un aspect crucial de la prévision hydrométéorologique. La prévision d’ensemble, en fournissant des informations sur la probabilité d’occurrence des sorties du modèle, représente une alternative séduisante à la prévision déterministe traditionnelle. De plus, elle permet de faire face aux différentes sources d’incertitude qui se trouvent le long de la chaîne de modélisation hydrométéorologique en générant des ensembles là où ces incertitudes se situent. Le principal objectif de cette thèse est d’identifier un système qui soit capable d’appréhender les trois sources principales d’incertitude que sont la structure du modèle hydrologique, ses conditions initiales et le forçage météorologique, dans le but de fournir une prévision qui soit à la fois précise, fiable et économiquement attractive. L’accent est mis sur la cohérence avec laquelle les différentes incertitudes doivent être quantifiées et réduites. Notamment, celles-ci doivent être considérées explicitement avec une approche cohésive qui fasse en sorte que chacune d’entre elles soit traitée adéquatement, intégralement et sans redondance dans l’action des divers outils qui composent le système. Afin de répondre à cette attente, plusieurs sous-objectifs sont définis. Le premier se penche sur l’approche multimodèle pour évaluer ses bénéfices dans un contexte opérationnel. Dans un second temps, dans le but d’identifier une implémentation optimale du filtre d’ensemble de Kalman, différents aspects du filtre qui conditionnent ses performances sont étudiés en détail. L’étape suivante rassemble les connaissances acquises lors des deux premiers objectifs en réunissant leurs atouts et en y incluant la prévision météorologique d’ensemble pour construire un système qui puisse fournir des prévisions à la fois précises et fiables. Il est attendu que ce système soit en mesure de prendre en compte les différentes sources d’incertitude de façon cohérente tout en fournissant un cadre de travail pour étudier la contribution des différents outils hydrométéorologiques et leurs interactions. Enfin, le dernier volet porte sur l’identification des relations entre les différents systèmes de prévisions précédemment créés, leur valeur économique et leur qualité de la prévision. La combinaison du filtre d’ensemble de Kalman, de l’approche multimodèle et de la prévision météorologique d’ensemble se révèle être plus performante qu’aucun des outils utilisés séparément, à la fois en précision et fiabilité et ceci en raison d’unemeilleure prise en compte de l’incertitude que permet leur action complémentaire. L’ensemble multimodèle, composé par 20 modèles hydrologiques sélectionnés pour leurs différences structurelles, est capable de minimiser l’incertitude liée à la structure et à la conceptualisation, grâce au rôle spécifique que jouent les modèles au sein de l’ensemble. Cette approche, même si utilisée seule, peut conduire à des résultats supérieurs à ceux d’un modèle semi-distribué utilisé de façon opérationnelle. L’identification de la configuration optimale du filtre d’ensemble de Kalman afin de réduire l’incertitude sur les conditions initiales est complexe, notamment en raison de l’identification parfois contre-intuitive des hyper-paramètres et des variables d’état qui doivent être mises à jour, mais également des performances qui varient grandement en fonction du modèle hydrologique. Cependant, le filtre reste un outil de première importance car il participe efficacement à la réduction de l’incertitude sur les conditions initiales et contribue de façon importante à la dispersion de l’ensemble prévisionnel. Il doit être malgré tout assisté par l’approche multimodèle et la prévision météorologique d’ensemble pour pouvoir maintenir une dispersion adéquate pour des horizons dépassant le court terme. Il est également démontré que les systèmes qui sont plus précis et plus fiables fournissent en général une meilleure valeur économique, même si cette relation n’est pas définie précisément. Les différentes incertitudes inhérentes à la prévision hydrométéorologique ne sont pas totalement éliminées, mais en les traitant avec des outils spécifiques et adaptés, il est possible de fournir une prévision d’ensemble qui soit à la fois précise, fiable et économiquement attractive. / A proper consideration of the different sources of uncertainty is a key point in hydrometeorological forecasting. Ensembles are an attractive alternative to traditional deterministic forecasts that provide information about the likelihood of the outcomes. Moreover, ensembles can be generated wherever a source of uncertainty takes place in the hydrometeorological modeling chain. The global objective of this thesis is to identify a system that is able to decipher the three main sources of uncertainty in modeling, i.e. the model structure, the hydrological model initial conditions and the meteorological forcing uncertainty, to provide accurate, reliable, and valuable forecast. The different uncertainties should be quantified and reduced in a coherent way, that is to say that they should be addressed explicitly with a cohesive approach that ensures to handle them adequately without redundancy in the action of the different tools that compose the system. This motivated several sub-objectives, the first one of which focusing on the multimodel approach to identify its benefits in an operational framework. Secondly, the implementation and the features of the Ensemble Kalman Filter (EnKF) are put under scrutiny to identify an optimal implementation. The next step reunites the knowledge of the two first goals by merging their strengths and by adding the meteorological ensembles to build a framework that issues accurate and reliable forecasts. This system is expected to decipher the main sources of uncertainty in a coherent way and provides a framework to study the contribution of the different tools and their interactions. Finally, the focus is set on the forecast economic value and provides an attempt to relate the different systems that have been built to economic value and forecast quality. It is found that the combination of the EnKF, the multimodel, and ensemble forcing, allows to issue forecasts that are accurate and nearly reliable. The combination of the three tools outperforms any other used separately and the uncertainties that were considered are deciphered thanks to their complementary actions. The 20 dissimilar models that compose the multimodel ensemble are able to minimize the uncertainty related to the model structure, thanks to the particular role they play in the ensemble. Such approach has the capacity to outperform more a complex semi-distributed model used operationally. To deal optimally with the initial condition uncertainty, the EnKF implementation may be complex to reach because of the unintuitive specification of hyper-parameters and the selection of the state variable to update, and its varying compatibility with hydrological model. Nonetheless, the filter is a powerful tool to reduce initial condition uncertainty and contributes largely to the predictive ensemble spread. However, it needs to be supported by a multimodel approach and ensemble meteorological forcing to maintain adequate ensemble dispersion for longer lead times. Finally, it is shown that systems that exhibit better accuracy and reliability have generally higher economic value, even if this relation is loosely defined. The different uncertainties inherent to the forecasting process may not be eliminated, nonetheless by explicitly accounting for them with dedicated and suitable tools, an accurate, reliable, and valuable predictive ensemble can be issued.
56

Élaboration de modèles pour l'interprétation des données obtenues avec le pénétromètre à cône dynamique

Boutet, Mélanie 13 April 2018 (has links)
La présente étude porte essentiellement sur l'élaboration de modèles qui mettent en relation, d'une part, les propriétés de résistance des sols (résistance au cisaillement obtenue au scissomètre) et, d'autre part, les propriétés résilientes (modules rétro-calculés à partir d'essais de déflexion) avec les valeurs d'indice de pénétration obtenues au pénétromètre à cône dynamique (DCP). Des essais de terrain ont été effectués sur dix sites couvrant une gamme étendue de sols cohérents représentatifs du contexte géologique québécois ainsi qu'au Site Expérimental Routier de l'Université Laval (SERUL) sur chacune des quatre fosses présentant un sol d'infrastructure différent. Des essais de laboratoire ont également été réalisés sur cinq sols pulvérulents reconstitués. Les résultats obtenus sur le terrain et en laboratoire ont été comparés et analysés afin de définir la relation entre la résistance et la résilience pour différents types de sols ainsi que d'effectuer plusieurs regroupements. En réalisant une analyse statistique avec trois différents niveaux d'interprétation, des relations robustes faisant intervenir des variables explicatives ont été développées. Un minimum d'information sur le sol testé est nécessaire pour le premier niveau, la classification du sol est requise pour l'utilisation des modèles du deuxième niveau alors que des paramètres qui tiennent compte des caractéristiques des sols sont requis pour le troisième niveau. Pour les sols à grains fins, ces paramètres sont la densité sèche, l'indice de plasticité et l'indice de liquidité alors que pour les sols à grains grossiers, ceux-ci sont la densité et l'indice de plasticité ou la teneur en eau.
57

Synthèse, optimisation et prototypage d'une main robotique sous-actionnée à cinq doigts

Demers, Louis. 18 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2011-2012 / Cette thèse présente les travaux de recherche doctorale en génie mécanique de Louis- Alexis Allen Demers effectués au Laboratoire de robotique de l’Université Laval sous la supervision du professeur Clément Gosselin. Cette étude comporte la synthèse, l’optimisation et le prototypage d’une main robotique sous-actionnée à cinq doigts. Le principe du sousactionnement mécanique est utilisé pour développer une main robotique qui a des capacités de préhension similaires à la main humaine, tout en limitant le nombre d’actionneurs requis pour la commander. Cette main a des dimensions semblables à la main humaine de manière à ce qu’elle soit fonctionnelle dans un milieu conçu pour les humains. De plus, une adaptation de la prise de la main est possible, autant en modifiant la force de préhension que la position des doigts et du pouce. L’analyse statique d’un doigt sous-actionné est d’abord effectuée. Plus particulièrement, les conditions permettant d’atteindre une prise stable pour laquelle toutes les forces de contact sont positives sont obtenues. Ainsi, les valeurs optimales pour les dimensions des poulies sont déterminées en fonction des longueurs des phalanges et des distributions élémentaires de forces établies. En utilisant ces deux distributions complémentaires efficacement, l’éjection de l’objet à saisir par un doigt à trois phalanges et deux réseaux de tendons est évitée. Par la suite, le problème général de positionnement d’un axe de rotation permettant d’obtenir des poses initiale et finale imposées est résolu. Cette analyse géométrique permet de concevoir un système de rotation du pouce afin d’obtenir les différentes configurations typiques de la main humaine. Un système d’abduction des doigts soit complètement plan, soit un hybride sphérique-plan est ensuite couplé à ce mécanisme. Ces architectures sont analysées afin de s’assurer d’obtenir les amplitudes d’abduction imposées ainsi que de minimiser l’erreur de coordination entre les métacarpiens. En dernier lieu, les différents mécanismes conçus dans cette thèse sont fabriqués, en plus d’un prototype de poignet et de système de sous-actionnement entre les doigts. Le prototype de main intégrant toutes ces parties est finalement utilisé pour prendre différents types d’objets. / This thesis presents the doctoral research in Mechanical Engineering of Louis-Alexis Allen Demers completed at the Laboratoire de robotique of Université Laval under the supervision of Prof. Clément Gosselin. This project covers the synthesis, optimization and prototyping of a five-finger robotic hand. The principles of mechanical underactuation are used to develop a robotic hand that has grasping capabilities similar to that of the human hand, while limiting the number of actuators required to control it. This hand has dimensions similar to those of the human hand in order to be functional in an environment designed for humans. In addition, an adaptation of the hand grip is possible, either by changing the grasping force or by varying the position of the fingers and thumb. A static analysis of an underactuated finger is first performed. In particular, the conditions for achieving stable grasp in which all contact forces are positive are obtained. Thus, the optimal values for the dimensions of the pulleys as a function of the lengths of the phalanges and the primary force distributions established are determined. Using these two complementary distributions effectively, the ejection of the object to be grasped by a finger with three phalanges and two tendon networks is avoided. Then, the general problem of positioning an axis of rotation to obtain initial and final prescribed poses is solved. This geometric analysis allows to design a system of rotation of the thumb in order to obtain the various typical configurations of the human hand. A system of abduction of the fingers, first completely planar, than a hybrid planar-spherical mechanism is then coupled with this mechanism. These architectures are analyzed in order to ensure that they can provide the prescribed abduction amplitudes and that the coordination error between the metacarpals is minimized. Finally, the various mechanisms designed in this thesis are built, in addition to a prototype of a wrist and the mechanism of underactuation between the fingers. The prototype hand integrating all these parts is ultimately used to grasp different types of objects.
58

Modèle quadratique de Treynor-Mazuy et régimes de marché : une étude empirique du comportement des portefeuilles dans un contexte canadien

Gaudreau, Éric 13 April 2018 (has links)
Le modèle quadratique de Treynor et Mazuy (1966) est utilisé depuis longtemps pour mesurer l'habileté d'un gestionnaire à anticiper le marché. Certains auteurs ont toutefois démontré que le coefficient du terme quadratique (gamma) peut être positif sans pour autant que le gestionnaire n'ait eu à anticiper avec succès les fluctuations du marché. L'étude actuelle fait pour sa part ressortir le manque d'information sur la nature de la sousperformance d'un portefeuille présentant un gamma négatif. En élevant la prime de rendement d'un portefeuille au carré, le modèle traite les rendements excédentaires négatifs et positifs de la même façon, ignorant ainsi l'asymétrie qui existe entre les différents régimes de marché. L' étude du rendement de 21 portefeuilles d' actions canadiennes entre décembre 1998 et janvier 2006 réaffirme que le modèle de Treynor et Mazuy (1966) ne peut être utilisé pour identifier avec certitude les gestionnaires ayant anticipé avec succès les baisses de marché.
59

Analyse des chutes de bloc dans le domaine subaquatique

Turmel, Dominique 13 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2008-2009 / Le comportement des chutes de blocs en milieu aérien est étudié depuis déjà plusieurs décennies. Ce phénomène peut aussi survenir en milieu sous-marin et atteindre ou endommager, par exemple, des barrières récifales ou des pipelines sous-marin. Une seule étude sur ce sujet, celle de Beranger et al (1998), a déjà été réalisée dans l'objectif de modéliser le comportement des chutes de blocs dans le milieu sous-marin. Le présent projet vise à permettre une analyse comparative des chutes de blocs en milieu aérien avec les chutes de blocs en milieu sous-marin. À cet effet, une étude des différentes forces s'exerçant sur le bloc en milieu sous-marin a été effectuée. À l'aide de ces éléments, un modèle numérique a été créé afin de comprendre les différences entre les deux milieux. Une expérience menée sur le terrain a par ailleurs permis de confirmer la validité du modèle numérique développé, pour la phase de chute libre.
60

Analyse de la reconstruction 3D par stéréo multivue dans l'optique des défis de l'appariement

Dubé, Julie. 16 April 2018 (has links)
Le sujet de la reconstruction 3D par stéréo multivue a été tant étudié, tellement de méthodes ont été développées qu'il n'est pas toujours facile de s'y retrouver. Qu'est-ce qui fait qu'un algorithme est plus efficace qu'un autre? Pour répondre à cette question, il faut être en mesure de reconnaître les caractéristiques fondamentalement intéressantes d'un algorithme. Dans le but d'acquérir ce savoir, nous allons décortiquer les différentes étapes de la reconstruction d'un objet, en partant par la base de la stéréo: l'appariement. Trouver des positions dans différentes images qui correspondent au même point de la surface comprend plusieurs défis: la visibilité (quel point est vu dans quelle image?), l'ambiguïté (quel ensemble de pixels correspond à un point de la surface?), la variation d'apparence angulaire (la couleur d'un point de la surface peut changer selon le point de vue) et la discrétisation de l'apparence (une image est un échantillonnage de l'apparence d'une partie de la surface). Apparier implique de pouvoir évaluer que la variation de couleur angulaire d'un point est cohérente avec le modèle de réflectance de l'objet. Pour évaluer la photo-cohérence, un critère de comparaison, des contraintes sur la surface et une façon d'emmagasiner les données sont nécessaires. Compte tenu des problèmes d'appariement, la photo-cohérence n'est pas suffisante pour trouver la surface. Pour trouver les meilleurs appariements, les algorithmes de reconstruction intègrent donc les façons d'évaluer la photo-cohérence aux autres hypothèses sur la surface (ex: lisse, cohérente aux silhouettes).

Page generated in 0.4973 seconds