• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 681
  • 322
  • 49
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1053
  • 347
  • 218
  • 207
  • 203
  • 167
  • 144
  • 144
  • 116
  • 100
  • 91
  • 84
  • 77
  • 76
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
431

Approche évolutionnaire pour la planification d'itinéraires dans un environnement dynamique

Barkaoui, Mohamed 16 April 2018 (has links)
Le problème de planification d'itinéraires dans un environnement dynamique est un problème complexe. Ce problème est d'autant plus difficile que les décisions doivent se prendre dans un temps limité, en se basant sur des informations incertaines et qui évoluent dans le temps. Nous nous sommes intéressés aux méthodes métaheuristiques, et plus particulièrement aux algorithmes génétiques pour résoudre ce problème. Plusieurs approches habituellement proposées pour ce problème sont purement prescriptives et ne garantissent que la convergence vers une solution réalisable au détriment de l'optimalité. De plus, les approches basées sur les algorithmes génétiques souffrent toutes du problème de calibrage des paramètres, une étape importante quand quelqu'un décide de les utiliser. Notre thèse s'inscrit dans le cadre de cette nouvelle direction de recherche et puise sa motivation plus particulièrement dans la volonté de répondre à quelques-unes des problématiques rencontrées dans des applications temps-réel. Nous proposons une approche générique utilisant un processus évolutionnaire à deux niveaux pour régler le problème de calibrage de combinaisons d'opérateurs dans les algorithmes génétiques. Nous avons développé une stratégie d'attente qui exploite des connaissances probabilistes sur les événements futurs afin de produire des solutions robustes et de meilleure qualité en temps réel. De plus, dans le cas des problèmes de transport utilisant des flottes de véhicules (pour la distribution des biens et services), l'approche proposée reflète la réalité de façon plus adéquate en considérant différentes situations observées en pratique comme des temps de voyage variables, et en intégrant des stratégies et mécanismes appropriés pour chacune des situations identifiées. Nous avons présenté une vision plus large du concept de diversion et nous avons introduit une condition d'acceptation d'une diversion dans la planification d'itinéraires en temps réel. Afin de faire face aux pressions temporelles inhérentes à un contexte dynamique, nous avons opté pour des implantations parallèles afin d'accélérer les temps de réponse. Enfin, des tests numériques ont été réalisés à l'aide de simulations utilisant une adaptation des instances de problèmes de Solomon pour le problème de tournées de véhicules avec fenêtres de temps (VRPTW). Dans ce problème, il s'agit d'affecter des requêtes de clients qui arrivent en temps réel à une flotte de véhicules en mouvement. Ce processus implique aussi la construction simultanée d'un ensemble d'itinéraires planifiés qui satisfont la demande, tout en respectant diverses contraintes. Afin de minimiser les biais, le même jeu de données utilisé dans la littérature pour le VRPTW dynamique a été employé pour réaliser notre étude. Les résultats numériques confirment la pertinence des différentes stratégies que nous avons développées et la supériorité de notre approche de planification d'itinéraires en temps réel comparativement à d'autres méthodes proposées dans la littérature.
432

Multi-criteria optimization algorithms for high dose rate brachytherapy

Cui, Songye 08 November 2019 (has links)
L’objectif général de cette thèse est d’utiliser les connaissances en physique de la radiation, en programmation informatique et en équipement informatique à la haute pointe de la technologie pour améliorer les traitements du cancer. En particulier, l’élaboration d’un plan de traitement en radiothérapie peut être complexe et dépendant de l’utilisateur. Cette thèse a pour objectif de simplifier la planification de traitement actuelle en curiethérapie de la prostate à haut débit de dose (HDR). Ce projet a débuté à partir d’un algorithme de planification inverse largement utilisé, la planification de traitement inverse par recuit simulé (IPSA). Pour aboutir à un algorithme de planification inverse ultra-rapide et automatisé, trois algorithmes d’optimisation multicritères (MCO) ont été mis en oeuvre. Suite à la génération d’une banque de plans de traitement ayant divers compromis avec les algorithmes MCO, un plan de qualité a été automatiquement sélectionné. Dans la première étude, un algorithme MCO a été introduit pour explorer les frontières de Pareto en curiethérapie HDR. L’algorithme s’inspire de la fonctionnalité MCO intégrée au système Raystation (RaySearch Laboratories, Stockholm, Suède). Pour chaque cas, 300 plans de traitement ont été générés en série pour obtenir une approximation uniforme de la frontière de Pareto. Chaque plan optimal de Pareto a été calculé avec IPSA et chaque nouveau plan a été ajouté à la portion de la frontière de Pareto où la distance entre sa limite supérieure et sa limite inférieure était la plus grande. Dans une étude complémentaire, ou dans la seconde étude, un algorithme MCO basé sur la connaissance (kMCO) a été mis en oeuvre pour réduire le temps de calcul de l’algorithme MCO. Pour ce faire, deux stratégies ont été mises en oeuvre : une prédiction de l’espace des solutions cliniquement acceptables à partir de modèles de régression et d’un calcul parallèle des plans de traitement avec deux processeurs à six coeurs. En conséquence, une banque de plans de traitement de petite taille (14) a été générée et un plan a été sélectionné en tant que plan kMCO. L’efficacité de la planification et de la performance dosimétrique ont été comparées entre les plans approuvés par le médecin et les plans kMCO pour 236 cas. La troisième et dernière étude de cette thèse a été réalisée en coopération avec Cédric Bélanger. Un algorithme MCO (gMCO) basé sur l’utilisation d’un environnement de développement compatible avec les cartes graphiques a été mis en oeuvre pour accélérer davantage le calcul. De plus, un algorithme d’optimisation quasi-Newton a été implémenté pour remplacer le recuit simulé dans la première et la deuxième étude. De cette manière, un millier de plans de traitement avec divers compromis et équivalents à ceux générés par IPSA ont été calculés en parallèle. Parmi la banque de plans de traitement généré par l’agorithme gMCO, un plan a été sélectionné (plan gMCO). Le temps de planification et les résultats dosimétriques ont été comparés entre les plans approuvés par le médecin et les plans gMCO pour 457 cas. Une comparaison à grande échelle avec les plans approuvés par les radio-oncologues montre que notre dernier algorithme MCO (gMCO) peut améliorer l’efficacité de la planification du traitement (de quelques minutes à 9:4 s) ainsi que la qualité dosimétrique des plans de traitements (des plans passant de 92:6% à 99:8% selon les critères dosimétriques du groupe de traitement oncologique par radiation (RTOG)). Avec trois algorithmes MCO mis en oeuvre, cette thèse représente un effort soutenu pour développer un algorithme de planification inverse ultra-rapide, automatique et robuste en curiethérapie HDR. / The overall purpose of this thesis is to use the knowledge of radiation physics, computer programming and computing hardware to improve cancer treatments. In particular, designing a treatment plan in radiation therapy can be complex and user-dependent, and this thesis aims to simplify current treatment planning in high dose rate (HDR) prostate brachytherapy. This project was started from a widely used inverse planning algorithm, Inverse Planning Simulated Annealing (IPSA). In order to eventually lead to an ultra-fast and automatic inverse planning algorithm, three multi-criteria optimization (MCO) algorithms were implemented. With MCO algorithms, a desirable plan was selected after computing a set of treatment plans with various trade-offs. In the first study, an MCO algorithm was introduced to explore the Pareto surfaces in HDR brachytherapy. The algorithm was inspired by the MCO feature integrated in the Raystation system (RaySearch Laboratories, Stockholm, Sweden). For each case, 300 treatment plans were serially generated to obtain a uniform approximation of the Pareto surface. Each Pareto optimal plan was computed with IPSA, and each new plan was added to the Pareto surface portion where the distance between its upper boundary and its lower boundary was the largest. In a companion study, or the second study, a knowledge-based MCO (kMCO) algorithm was implemented to shorten the computation time of the MCO algorithm. To achieve this, two strategies were implemented: a prediction of clinical relevant solution space with previous knowledge, and a parallel computation of treatment plans with two six-core CPUs. As a result, a small size (14) plan dataset was created, and one plan was selected as the kMCO plan. The planning efficiency and the dosimetric performance were compared between the physician-approved plans and the kMCO plans for 236 cases. The third and final study of this thesis was conducted in cooperation with Cédric Bélanger. A graphics processing units (GPU) based MCO (gMCO) algorithm was implemented to further speed up the computation. Furthermore, a quasi-Newton optimization engine was implemented to replace simulated annealing in the first and the second study. In this way, one thousand IPSA equivalent treatment plans with various trade-offs were computed in parallel. One plan was selected as the gMCO plan from the calculated plan dataset. The planning time and the dosimetric results were compared between the physician-approved plans and the gMCO plans for 457 cases. A large-scale comparison against the physician-approved plans shows that our latest MCO algorithm (gMCO) can result in an improved treatment planning efficiency (from minutes to 9:4 s) as well as an improved treatment plan dosimetric quality (Radiation Therapy Oncology Group (RTOG) acceptance rate from 92.6% to 99.8%). With three implemented MCO algorithms, this thesis represents a sustained effort to develop an ultra-fast, automatic and robust inverse planning algorithm in HDR brachytherapy.
433

A fluid-structure interaction partitioned algorithm applied to flexible flapping wing propulsion

Olivier, Mathieu 20 April 2018 (has links)
Cette thèse concerne l’étude des ailes oscillantes flexibles et des méthodes numériques qui s’y rattachent. De ce fait, la thèse est divisée en deux parties. La première contribution concerne le développement d’un algorithme de couplage fluide-structure qui prend en charge les interactions entre un solide élastique en grands déplacements et un fluide incompressible. L’algorithme est basé sur une approche partitionnée et permet d’utiliser des codes numériques de mécanique des fluides et de mécanique des solides existants. L’utilisation d’un terme de compressibilité artificiel dans l’équation de continuité du fluide combinée à des choix algorithmiques judicieux permet d’utiliser cette méthode de couplage efficacement avec un code de mécanique des fluides utilisant une méthode de projection de type SIMPLE ou PISO. La seconde contribution est l’étude de l’effet de flexibilité des ailes sur le vol à ailes battantes. Deux principaux régimes de vol sont mis en évidence concernant la déformation de l’aile : déformation causée par la pression et déformation causée par l’inertie. Les effets de ces régimes sur la topologie de l’écoulement et sur les performance de l’aile en propulsion sont discutés. Il est montré que les cas avec des déformations causées par la pression présentent généralement des efficacités plus élevées avec une flexibilité modérée. Il en est de même pour la force de poussée lorsque l’amplitude de tangage est faible. D’autre part, lorsque les déformations sont causées par l’inertie, les performances de l’aile sont généralement réduites. Certains cas montrent une augmentation marginale des performances lorsque le synchronisme des déformations est optimal, mais ces cas représentent davantage une exception que la norme. Il est également démontré que la flexibilité peut être utilisée comme mécanisme de tangage passif tout en conservant des performances intéressantes. Enfin, un modèle d’aile oscillante flexible non contraint est présenté. Il est démontré que le mouvement de déviation observé dans la nature est une conséquence d’un phénomène aérodynamique de mise en drapeau. / This thesis concerns the study of flexible flapping wings and the related numerical methods. It thus contains two distinct themes. The first contribution is the implementation of an efficient fluid-structure interaction algorithm that handles the interaction of an elastic solid undergoing large displacement with an incompressible fluid. The algorithm is based on the partitioned approach and allows state-of-the-art fluid and structural solvers to be used. Stabilization with artificial compressibility in the fluid continuity equation along with judicious algorithmic choices make the method suitable to be used with SIMPLE or PISO projection fluid solvers. The second contribution is the study of the effects of wing flexibility in flapping flight. The different regimes, namely inertia-driven and pressure-driven wing deformations are presented along with their effects on the topology of the flow and, eventually, on the performance of the flapping wing in propulsion regime. It is found that pressure-driven deformations can increase the thrust efficiency if a suitable amount of flexibility is used. Thrust increases are also observed when small pitching amplitude cases are considered. On the other hand, inertia-driven deformations generally deteriorate aerodynamic performances of flapping wings unless meticulous timing is respected, making them less practical. It is also shown that wing flexibility can act as a passive pitching mechanism while keeping decent thrust and efficiency. Lastly, a freely-moving flexible flapping wing model is presented. It is shown that the deviation motion found in natural flyers is a consequence of a feathering mechanism.
434

Multi-Criteria path planning with terrain visibility constraints : the optimal searcher path problem with visibility

Morin, Michael 16 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2010-2011 / Comment utiliser la théorie de la recherche et la planification de chemins pour formuler et résoudre un problème de détection dans le contexte de la recherche et sauvetage en milieu terrestre considérant des aspects pratiques tels que les contraintes de visibilité découlant du terrain? Pour répondre à cette question, nous présentons une nouvelle formulation introduisant les contraintes de visibilité du chercheur (le problème de planification du chemin optimal du chercheur avec visibilité ou OSPV). De plus, nous présentons une extension multicritère du problème. Dans un premier temps, l'efficacité du plan de recherche est quantifiée par la probabilité de retrouver l'objet recherché; un programme en nombres entiers mixte est comparé à Ant Search, notre adaptation de l'optimisation par colonies de fourmis. Ensuite, l'extension multicritère intègre les aspects de sécurité du chercheur et de complexité du plan; Ant Search est alors étendu pour introduire Pareto Ant Search et Lexicographie Ant Search.
435

Stratégie de rotation sectorielle fonction des relations de causalité entre les forces économiques et boursières

Walker, David 02 February 2024 (has links)
La compréhension des interactions entre les forces économiques et boursières revêt une importance fondamentale pour les gestionnaires de portefeuille ainsi que pour les autorités monétaires. Les forces économiques exercent une influence sur les valorisations boursières, voir Chen, Roll et Ross (1986). Les taux de croissance des forces économiques et boursières sont interdépendants et leurs covariances dépendent de régimes en commun, voir Guidolin et Ono (2006), Hubrich et Telow (2014). Dans une nouvelle perspective, cette thèse considère que leurs taux de croissance évoluent en fonction de la structure causale des régimes exogènes de tendance haussière et baissière spécifiques à ces forces. Les relations de causalité qui lient leurs régimes sont découvertes par l'apprentissage de la structure et des paramètres d'un réseau bayésien. Une stratégie de rotation sectorielle consiste à moduler dans le temps les poids d'un portefeuille alloués aux secteurs boursiers, voir Chong et Phillips (2015). Le phénomène d'asymétrie de la volatilité de Black (1976) veut qu'une relation négative lie la croissance de la volatilité aux rendements boursiers. Par le biais d'un réseau bayésien, cette thèse exploite le pouvoir prévisionnel qu'exerce les régimes endogènes de volatilité d'indicateurs économique et boursier sur leurs régimes exogènes de tendance courants, connus ex post. Elle soutient qu'il est possible de construire une stratégie de rotation sectorielle profitable en exploitant le phénomène d'asymétrie de volatilité et les relations de causalité entre les forces économiques et boursières dans un problème de construction de portefeuille résolu par optimisation de scénarios. Des preuves de la surperformance d'une stratégie d'investissement active au-delà d'un indice de référence, dans un contexte d'investissement réel hors échantillon de calibration, supportent la thèse formulée. Des contributions secondaires de nature économiques et techniques sont réalisées aux fils des étapes nécessaires à la démonstration de la thèse principale. Différemment de Pagan et Sossounov (2003), un nouvel indicateur de crise et de croissance boursière, exempt de biais sectoriels, est construit à partir des phases exogènes de tendance coïncidentes à des indices de secteurs boursiers. Ces derniers sont communément regroupés en fonction de leur niveau de risque et de sensibilités à l'activité économique et à l'indice global de marché, voir Denoiseux et coll. (2017). Une méthode inédite de regroupement de secteurs est développée à partir de caractéristiques communes à leurs régimes exogènes : ils présentent des profils similaires d'association avec ceux des indicateurs économiques et leurs distributions de rendement par régime exogène disposent de propriétés uniques. La méthode usuelle de détection du phénomène d'asymétrie de la volatilité (PAV) repose sur un coefficient d'asymétrie significatif, lorsqu'intégré dans une expression GARCH de la variance conditionnelle, voir Glosten, Jagannathan et Runkle (1993). Une technique novatrice d'investigation du PAV, adaptée à des données à faible fréquence, est développée à partir de mesures d'association entre les phases endogènes à forte/faible volatilité et exogènes de tendance baissière/haussière. Le régime endogène de volatilité d'un indicateur qui satisfait au PAV constitue un indicateur avancé de son régime exogène de tendance courant. Un nouveau système d'équations est développé de manière à calibrer un modèle autorégressif, dont le terme d'erreur suit une mixture de lois normales, à partir d'un algorithme « Expected Maximization ». Ce modèle est exploité de manière à représenter les spécificités de l'anormalité des taux de croissance segmentés par régime exogène. Les corrélations des actifs se resserrent en période de recul boursier (Login et Solnik (2002)). Un algorithme est construit de manière à évaluer la segmentation optimale des corrélations, entre les taux de croissance de deux variables, parmi les combinaisons d'états de leur régime exogène. Une nouvelle procédure de sélection et de paramétrisation d'un algorithme d'apprentissage de la structure d'un réseau bayésien est développée en fonction des niveaux de risque optimaux des erreurs de type I et II, dans un contexte représentatif du problème. La procédure est utilisée afin de découvrir les liens de causalité entre les régimes de tendance et de volatilité des forces économiques et boursières. L'ensemble de ces outils permettent de modéliser dans une simulation de Monte-Carlo, la dépendance de la densité de probabilité des taux de croissance des indicateurs et de leurs corrélations aux phases exogènes de tendance, régies par un réseau bayésien dynamique.
436

Autocorrection en temps réel pour la spectroscopie à double peigne de fréquences optiques

Tourigny-Plante, Alex 23 October 2023 (has links)
Titre de l'écran-titre (visionné le 24 juillet 2023) / Cette maîtrise a pour objectif de développer et implanter un algorithme sur FPGA afin de faire l'acquisition et l'autocorrection d'interférogrammes provenant d'un interféromètre à double peigne de fréquences optiques. Les signaux optiques de chacun des peignes sont asservis au moyen de plateformes FPGA qui effectuent des boucles d'asservissement de phase de type PLL. Les phases résiduelles non corrigées sont transmises à la plateforme de correction. L'algorithme de correction consiste en une étape de précorrection à l'aide des signaux de phase précédemment transmis, puis en une étape d'autocorrection. Cette dernière est basée sur l'extraction des paramètres de correction à partir du signal lui-même, au moyen de corrélations croisées sur les portions centrales des interférogrammes. Les sources optiques étant suffisamment stabilisées, une correction de phase et une troncature sont suffisantes pour moyenner de façon cohérente les interférogrammes à l'intérieur d'un FPGA. Cela permet d'enregistrer plus longtemps et ainsi améliorer le rapport signal sur bruit de la mesure. Des mesures spectroscopiques de H¹²C¹⁴N sont prises an de valider les résultats de l'algorithme. Un SNR de 50923 est atteint avec un temps de mesure de 55.4 secondes. La figure de mérite est calculée à 5.55 × 10⁶ et est à une facteur 5 de la valeur maximale théorique pour les conditions expérimentales. La mesure spectroscopique correspond à la courbe théorique provenant de la base de données HITRAN avec une différence de l'ordre de 0.49%, provenant principalement des asymétries de Fano.
437

An integrated decision analytic framework of machine learning with multi-criteria decision making for patient prioritization in elective surgeries

Jamshidi Shahvar, Nima 13 December 2023 (has links)
Objectif: De nombreux centres de santé à travers le monde utilisent des critères d'évaluation des préférences cliniques (CPAC) pour donner la priorité aux patients pour accéder aux chirurgies électives. Le processus de priorisation clinique du patient utilise à cette fin les caractéristiques du patient et se compose généralement de critères cliniques, d'expériences de patients précédemment hospitalisés et de commentaires sur les réseaux sociaux. Le but de la hiérarchisation des patients est de déterminer un ordre précis pour les patients et de déterminer combien chaque patient bénéficiera de la chirurgie. En d'autres termes, la hiérarchisation des patients est un type de problème de prise de décision qui détermine l'ordre de ceux qui ont le plus bénéficié de la chirurgie. Cette étude vise à développer une méthodologie hybride en intégrant des algorithmes d'apprentissage automatique et des techniques de prise de décision multicritères (MCDM) afin de développer un nouveau modèle de priorisation des patients. L'hypothèse principale est de valider le fait que l'intégration d'algorithmes d'apprentissage automatique et d'outils MCDM est capable de mieux prioriser les patients en chirurgie élective et pourrait conduire à une plus grande précision. Méthode: Cette étude vise à développer une méthodologie hybride en intégrant des algorithmes d'apprentissage automatique et des techniques de prise de décision multicritères (MCDM) afin de développer un modèle précis de priorisation des patients. Dans un premier temps, une revue de la littérature sera effectuée dans différentes bases de données pour identifier les méthodes récemment développées ainsi que les facteurs de risque / attributs les plus courants dans la hiérarchisation des patients. Ensuite, en utilisant différentes méthodes MCDM telles que la pondération additive simple (SAW), le processus de hiérarchie analytique (AHP) et VIKOR, l'étiquette appropriée pour chaque patient sera déterminée. Dans la troisième étape, plusieurs algorithmes d'apprentissage automatique seront appliqués pour deux raisons: d'abord la sélection des caractéristiques parmi les caractéristiques communes identifiées dans la littérature et ensuite pour prédire les classes de patients initialement déterminés. Enfin, les mesures détaillées des performances de prédiction des algorithmes pour chaque méthode seront déterminées. Résultats: Les résultats montrent que l'approche proposée a atteint une précision de priorisation assez élevée(~70 %). Cette précision a été obtenue sur la base des données de 300 patients et elle pourrait être considérablement améliorée si nous avions accès à plus de données réelles à l'avenir. À notre connaissance, cette étude présente la première et la plus importante du genre à combiner efficacement les méthodes MCDM avec des algorithmes d'apprentissage automatique dans le problème de priorisation des patients en chirurgie élective. / Objective: Many healthcare centers worldwide use Clinical Preference Assessment criteria (CPAC) to prioritize patients for accessing elective surgeries [44]. The patient's clinical prioritization process uses patient characteristics for this purpose and usually consists of clinical criteria, experiences of patients who have been previously hospitalized, and comments on social media. The sense of patient prioritization is to determine an accurate ordering for patients and how much each patient will benefit from the surgery. This research intends to build a hybrid approach for creating a new patient prioritizing model by combining machine learning algorithms with multi-criteria decision-making (MCDM) methodologies. The central hypothesis is to validate that the integration of machine learning algorithms and MCDM tools can better prioritize elective surgery patients and lead to higher accuracy. Method: As a first step, a literature review was performed in different databases to identify the recently developed methods and the most common criteria in patient prioritization. Then, using various MCDM methods, including simple additive weighting (SAW), analytical hierarchy process (AHP), and VIKOR, the appropriate label for each patient was determined. As the third step, several machine learning algorithms were applied to predict each patient's classes. Finally, we established the algorithms' precise prediction performance metrics for each approach. Results: The results show that the proposed approach has achieved relatively high prioritization accuracy (~70%). This accuracy has been obtained based on the data from 300 patients, and it could be significantly improved if we have access to more accurate data in the future. To the best of our knowledge, this research is the first of its type to demonstrate the effectiveness of combining MCDM methodologies with machine learning algorithms in patient prioritization problems in elective surgery.
438

Vision numérique avec peu d'étiquettes : segmentation d'objets et analyse de l'impact de la pluie

Tremblay, Maxime 27 January 2024 (has links)
Un besoin ayant toujours existé dans le domaine de la vision numérique est celui d'avoir accès à des ensembles d'images annotées. Les avancements scientifiques et technologiques ont exacerbé les besoins en données étiquetées; un modèle d'apprentissage profond peut nécessiter des milliers, voire des centaines de milliers (dépendamment de la complexité du problème), d'images étiquetées. Cela peut causer un problème puisque générer de grands ensembles de données étiquetées est une tâche longue et ardue. Est-il possible de travailler en vision numérique sans avoir à collecter et étiqueter des ensembles de données de plus en plus grands ? Dans le cadre de cette thèse, nous tentons de répondre à cette question sur deux fronts différents. Premièrement, nous avons développé une approche de détection et segmentation d'objets nécessitant peu de données d'entraînement. Cette approche, inspirée des modèles par les bag-of-words, modélise l'apparence et la forme des objets de façon éparse; la modélisation de la forme se fait par l'entremise d'un nouveau descripteur de forme. Deuxièmement, nous nous sommes penchés sur le fait que certains ensembles de données sont difficilement capturables et étiquetables. Nous nous sommes concentrés sur un exemple particulier, c'est-à-dire générer un ensemble d'images de scènes extérieures avec de la pluie dont les annotations consistent au taux de précipitation (mm/h). Notre solution consiste à augmenter des images réelles avec de la pluie synthétique. Si ces images augmentées sont suffisamment réalistes, il est possible d'expérimenter sur celles-ci comme si elles étaient des images de pluie réelle. Dans nos expérimentations, nous avons évalué l'effet de la pluie sur différents algorithmes de vision numérique et nous avons augmenté la robustesse de ceux-ci sur des images contenant de la vraie pluie.
439

Développement et expérimentation d'algorithmes de réorientation pour un robot sériel en chute libre

Bettez-Bouchard, Jean-Alexandre 24 April 2018 (has links)
Ce mémoire présente 2 types de méthodes pour effectuer la réorientation d’un robot sériel en chute libre en utilisant les mouvements internes de celui-ci. Ces mouvements sont prescrits à partir d’algorithmes de planification de trajectoire basés sur le modèle dynamique du robot. La première méthode tente de réorienter le robot en appliquant une technique d’optimisation locale fonctionnant avec une fonction potentielle décrivant l’orientation du système, et la deuxième méthode applique des fonctions sinusoïdales aux articulations pour réorienter le robot. Pour tester les performances des méthodes en simulation, on tente de réorienter le robot pour une configuration initiale et finale identiques où toutes les membrures sont alignées mais avec le robot ayant complété une rotation de 180 degrés sur lui-même. Afin de comparer les résultats obtenus avec la réalité, un prototype de robot sériel plan flottant possédant trois membrures et deux liaisons rotoïdes est construit. Les expérimentations effectuées montrent que le prototype est capable d’atteindre les réorientations prescrites si peu de perturbations extérieures sont présentes et ce, même si le contrôle de l’orientation est effectué en boucle ouverte. / This master’s thesis presents two different types of methods to reorient a free-floating serial manipulator with internal motion using path planning algorithms based on a dynamic model of the manipulator. The first method attempts to reorient the robot with a local optimisation technique using a potential function describing the global orientation of the robot, while the second method applies sinusoidal functions to the joints of the robot in order to reorient it. The proposed methods are tested with a robot that starts from a pose in which all the links are aligned and ends with the same configuration but with the robot having completed a 180 degrees rotation. To verify the simulation results against a real robot, a prototype of a planar robot with three bodies and two revolute joints is built. The experiments conducted show that the prototype is able to achieve the prescribed reorientation if almost no external torque is applied to the system, even though the control of the orientation is implemented in an open-loop mode.
440

Assemblage d'ADN avec graphes de de Bruijn sur FPGA

Poirier, Carl 24 April 2018 (has links)
Ce mémoire est consacré à la parallélisation d'un algorithme d'assemblage d'ADN de type de novo sur différentes plateformes matérielles, soit les processeurs multicoeurs et les accélérateurs de type FPGA. Plus précisément, le langage OpenCL est utilisé pour accélérer l'algorithme dont il est question, et de permettre un comparatif direct entre les les plateformes. Cet algorithme est d'abord introduit, puis son implémentation originale, développée pour une exécution sur une grappe de noeuds, est discutée. Les modifications apportées à l'algorithme dans le but de faciliter la parallélisation sont ensuite divulgées. Ensuite, le coeur du travail est présenté, soit la programmation utilisant OpenCL. Finalement, les résultats sont présentés et discutés.

Page generated in 0.0579 seconds