11 |
Développement d'algorithmes d'estimation de la pose d'objets saisis par un préhenseur robotiqueCôté, Marianne 24 April 2018 (has links)
Les préhenseurs robotiques sont largement utilisés en industrie et leur déploiement pourrait être encore plus important si ces derniers étaient plus intelligents. En leur conférant des capacités tactiles et une intelligence leur permettant d’estimer la pose d’un objet saisi, une plus vaste gamme de tâches pourraient être accomplies par les robots. Ce mémoire présente le développement d’algorithmes d’estimation de la pose d’objets saisis par un préhenseur robotique. Des algorithmes ont été développés pour trois systèmes robotisés différents, mais pour les mêmes considérations. Effectivement, pour les trois systèmes la pose est estimée uniquement à partir d’une saisie d’objet, de données tactiles et de la configuration du préhenseur. Pour chaque système, la performance atteignable pour le système minimaliste étudié est évaluée. Dans ce mémoire, les concepts généraux sur l’estimation de la pose sont d’abord exposés. Ensuite, un préhenseur plan à deux doigts comprenant deux phalanges chacun est modélisé dans un environnement de simulation et un algorithme permettant d’estimer la pose d’un objet saisi par le préhenseur est décrit. Cet algorithme est basé sur les arbres d’interprétation et l’algorithme de RANSAC. Par la suite, un système expérimental plan comprenant une phalange supplémentaire par doigt est modélisé et étudié pour le développement d’un algorithme approprié d’estimation de la pose. Les principes de ce dernier sont similaires au premier algorithme, mais les capteurs compris dans le système sont moins précis et des adaptations et améliorations ont dû être appliquées. Entre autres, les mesures des capteurs ont été mieux exploitées. Finalement, un système expérimental spatial composé de trois doigts comprenant trois phalanges chacun est étudié. Suite à la modélisation, l’algorithme développé pour ce système complexe est présenté. Des hypothèses partiellement aléatoires sont générées, complétées, puis évaluées. L’étape d’évaluation fait notamment appel à l’algorithme de Levenberg-Marquardt.
|
12 |
Trending in the Right Direction: Using Google Trends Data as a Measure of Public Opinion During a Presidential ElectionWolf, Jordan Taylor 19 June 2018 (has links)
During the 2016 presidential election, public opinion polls consistently showed a lead in the popular vote and Electoral College for Hillary Clinton over Donald Trump. Following Trump's surprise victory, the political pundits and public at large began to question the accuracy of modern public opinion polling. Fielding a representative sample, convoluted and opaque methodologies, the sheer amount of polls, and both the media's and general public's inability to interpret poll results are among the flaws of the polling industry. An alternative or supplement to traditional polling practices is necessary. This thesis seeks to investigate whether Google Trends can be effectively used as a measure of public opinion during presidential elections. This study gathers polling data from the 2016 presidential election from states that were considered swing states. Specifically, this study examines six total polls, three from states that swung in the way the polls predicted they would – Nevada and Virginia – and three from states that swung against the prediction – Michigan, Wisconsin, and Pennsylvania. Answers to the "Most Important Issue" question in each poll are compared to their corresponding topics in Google Trends by calculating Pearson product moment correlations for each pair. Results indicated that in states that swung as predicted, Google Trends was an effective supplement to traditional public opinion polls. In states that did not swing as predicted, Google Trends was not an effective supplement. Implications of these results and future considerations for the polling industry and Google are discussed. / Master of Arts / During the 2016 presidential election, public opinion polls consistently showed a lead in the popular vote and Electoral College for Hillary Clinton over Donald Trump. Following Trump’s surprise victory, the political pundits and public at large began to question the accuracy of modern public opinion polling due to the number of issues that were made apparent during this election cycle. An alternative or supplement to traditional polling practices is necessary. This thesis seeks to investigate whether Google Trends can be effectively used as a measure of public opinion during presidential elections. This study looks at answers to the “Most Important Issue” question in polls in states that swung as predicted and states that swung against their predictions. The answers to this question in each poll are compared to their corresponding topics in Google Trends to determine how similar public opinion was in polls to what people in those states were searching on Google over the same period of time. Results indicated that in states that swung as predicted, Google Trends was an effective supplement to traditional public opinion polls. In states that did not swing as predicted, Google Trends was not an effective supplement. Implications of these results and future considerations for the polling industry and Google are discussed.
|
13 |
Histoire évolutive de la galaxie spirale NGC 5430Chrétien, Lorraine 24 April 2018 (has links)
La galaxie spirale barrée NGC 5430 est particulière en ce sens qu’elle présente un noeud Wolf-Rayet très lumineux et des bras asymétriques. Des spectres longue-fente le long de la barre et dans le bras déformé ainsi que des données SpIOMM couvrant l’ensemble de la galaxie ont été analysées. L’absorption stellaire sous-jacente a été soustraite des spectres longue-fente à l’aide d’un ajustement de modèles théoriques de populations stellaires fait avec le programme GANDALF. L’absorption a un impact très important sur le calcul de l’extinction ainsi que sur les différents diagnostics propres aux régions HII et aux populations stellaires jeunes. Enfin, cette étude montre que NGC 5430 comporte une composante gazeuse ionisée diffuse sur toute son étendue et qu’il est important d’en tenir compte afin d’appliquer correctement les diagnostics. Un des scénarios évolutifs proposés au terme de cette étude est que le noeud Wolf-Rayet constitue le restant d’une petite galaxie ou d’un nuage intergalactique qui serait entré en collision avec NGC 5430. Une structure englobant le noeud Wolf-Rayet se déplace à une vitesse considérablement inférieure (50 - 70 km s-1) à celle attendue à une telle distance du centre de la galaxie (200 - 220 km s-1). De plus, le noeud Wolf-Rayet semble très massif puisque l’intensité maximale du continu stellaire de cette région est semblable à celle du noyau et est de loin supérieure à celle de l’autre côté de la barre. Le nombre d’étoiles Wolf-Rayet (2150) est aussi considérable. Il n’est toutefois pas exclu que la différence de vitesses observée témoigne d’un écoulement de gaz le long de la barre, qui alimenterait la formation stellaire du noeud Wolf-Rayet ou du noyau. / The barred spiral galaxy NGC 5430 is unique in that it presents a very bright Wolf-Rayet node and asymmetric arms. Long-slit spectra along the bar and in the irregular arm as well as SpIOMM data covering the entire galaxy were analyzed. The underlying absorption was subtracted from the long-slit spectra using the program GANDALF that combines several models of stellar populations. The analysis revealed that the absorption has a very significant impact on the calculation of extinction and on the different diagnosis used to study HII regions and young stellar populations. Finally, this work shows that NGC 5430 has a diffuse ionized gas component superposed over its disk and that it is important to take it into account in order to apply the appropriate diagnosis. A proposed evolutionary scenario is that the Wolf-Rayet node harbors the remains of a small galaxy or an intergalactic cloud that would have collided with NGC 5430. A structure encompassing the Wolf-Rayet node moves at a considerably lower velocity (50 - 70 km s-1) than expected at such a distance from the center of the galaxy (200 - 220 km s-1). Furthermore, the Wolf-Rayet node seems very massive since the maximum intensity of the stellar continuum in this region is similar to that of the nucleus and is far superior to that of an equidistant region on the other side of the bar. The number of Wolf-Rayet stars in the knot also seems very large (2150). It is however not excluded that the observed difference in velocity testifies of a gas flow along the bar, which would nourish star formation at the Wolf-Rayet node or at the galaxy center. v
|
14 |
Spam campaign detection, analysis, and formalizationSheikhalishahi, Mina 24 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2016-2017 / Les courriels Spams (courriels indésirables ou pourriels) imposent des coûts annuels extrêmement lourds en termes de temps, d’espace de stockage et d’argent aux utilisateurs privés et aux entreprises. Afin de lutter efficacement contre le problème des spams, il ne suffit pas d’arrêter les messages de spam qui sont livrés à la boîte de réception de l’utilisateur. Il est obligatoire, soit d’essayer de trouver et de persécuter les spammeurs qui, généralement, se cachent derrière des réseaux complexes de dispositifs infectés, ou d’analyser le comportement des spammeurs afin de trouver des stratégies de défense appropriées. Cependant, une telle tâche est difficile en raison des techniques de camouflage, ce qui nécessite une analyse manuelle des spams corrélés pour trouver les spammeurs. Pour faciliter une telle analyse, qui doit être effectuée sur de grandes quantités des courriels non classés, nous proposons une méthodologie de regroupement catégorique, nommé CCTree, permettant de diviser un grand volume de spams en des campagnes, et ce, en se basant sur leur similarité structurale. Nous montrons l’efficacité et l’efficience de notre algorithme de clustering proposé par plusieurs expériences. Ensuite, une approche d’auto-apprentissage est proposée pour étiqueter les campagnes de spam en se basant sur le but des spammeur, par exemple, phishing. Les campagnes de spam marquées sont utilisées afin de former un classificateur, qui peut être appliqué dans la classification des nouveaux courriels de spam. En outre, les campagnes marquées, avec un ensemble de quatre autres critères de classement, sont ordonnées selon les priorités des enquêteurs. Finalement, une structure basée sur le semiring est proposée pour la représentation abstraite de CCTree. Le schéma abstrait de CCTree, nommé CCTree terme, est appliqué pour formaliser la parallélisation du CCTree. Grâce à un certain nombre d’analyses mathématiques et de résultats expérimentaux, nous montrons l’efficience et l’efficacité du cadre proposé. / Spam emails yearly impose extremely heavy costs in terms of time, storage space, and money to both private users and companies. To effectively fight the problem of spam emails, it is not enough to stop spam messages to be delivered to end user inbox or be collected in spam box. It is mandatory either to try to find and persecute the spammers, generally hiding behind complex networks of infected devices, which send spam emails against their user will, i.e. botnets; or analyze the spammer behavior to find appropriate strategies against it. However, such a task is difficult due to the camouflage techniques, which makes necessary a manual analysis of correlated spam emails to find the spammers. To facilitate such an analysis, which should be performed on large amounts of unclassified raw emails, we propose a categorical clustering methodology, named CCTree, to divide large amount of spam emails into spam campaigns by structural similarity. We show the effectiveness and efficiency of our proposed clustering algorithm through several experiments. Afterwards, a self-learning approach is proposed to label spam campaigns based on the goal of spammer, e.g. phishing. The labeled spam campaigns are used to train a classifier, which can be applied in classifying new spam emails. Furthermore, the labeled campaigns, with the set of four more ranking features, are ordered according to investigators priorities. A semiring-based structure is proposed to abstract CCTree representation. Through several theorems we show under some conditions the proposed approach fully abstracts the tree representation. The abstract schema of CCTree, named CCTree term, is applied to formalize CCTree parallelism. Through a number of mathematical analysis and experimental results, we show the efficiency and effectiveness of our proposed framework as an automatic tool for spam campaign detection, labeling, ranking, and formalization.
|
15 |
L'échantillonnage équilibré par la méthode du cube et la méthode rejectiveOusmane Ida, Ibrahima 24 April 2018 (has links)
Au cours de ces dernières années, les techniques d’échantillonnage équilibré ont connu un regain d’intérêt. En effet, ces techniques permettent de reproduire la structure de la population dans des échantillons afin d’améliorer l’efficacité des estimations. La reproduction de cette structure est effectuée par l’introduction des contraintes aux plans de sondage. Encore récemment, des nouvelles procédures d’échantillonnage équilibré ont été proposées. Il s’agit notamment de la méthode du cube présentée par Deville et Tillé (2004) et de l’algorithme réjectif de Fuller (2009). Alors que la première est une méthode exacte de sélection, la seconde est une approche approximative qui admet une certaine tolérance dans la sélection. Alors, après une brève présentation de ces deux méthodes dans le cadre d’un inventaire de pêcheurs, nous comparons à l’aide de simulations Monte Carlo, les plans de sondage produits par ces deux méthodes. Aussi, cela a été l’occasion pour nous de vérifier si ces méthodes modifient les probabilités de sélection des unités. / In recent years, balanced sampling techniques have experienced a renewed interest. They allow to reproduce the structure of the population in samples in order to improve the efficiency of survey estimates. New procedures have been proposed. These include the cube method, an exact method presented by Deville and Tillé (2004), and an approximate method, the Fuller (2009) rejective algorithm. After a brief presentation of these methods as part of an angler survey, we compare using Monte Carlo simulations, the survey designs produced by these two sampling algorithms. We also use this as an opportunity to check whether these methods modify the inclusion probabilities.
|
16 |
Understanding the impact of different cheese-making strategies on Mozzarella cheese propertiesBanville, Vincent 24 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2016-2017 / Le fromage Mozzarella entre dans la composition de plusieurs mets populaires d’Amérique du Nord. L’aptitude de ce fromage à être râpé et ses propriétés caractéristiques de cuisson en font un ingrédient idéal. Ces qualités sont attribuées principalement aux propriétés physiques particulières de ce fromage sous certaines conditions de cisaillement et de température. Le but de ce projet était d’évaluer l’impact de différentes stratégies couramment mises en oeuvre dans l’industrie fromagère sur la composition, la microstructure et les propriétés physiques du fromage. Diverses stratégies ont été étudiées : les conditions de filage du caillé lors du procédé de « pasta filata », l’addition de protéines sériques dénaturées, le contrôle de la minéralisation et le vieillissement du fromage. Les résultats ont démontré que le contrôle de l’intensité mécanique et thermique fournie lors du filage permettait respectivement de réduire les pertes de solides et d’améliorer la répartition de la phase aqueuse dans la matrice fromagère. L’aptitude au râpage du fromage peut être optimisée en combinant l’utilisation de plusieurs stratégies dont la réduction du calcium colloïdal, un temps de vieillissement adéquat et un râpage à basse température. Par ailleurs, des changements aux facteurs mentionnés précédemment sont apportés lors de l’ajout de protéines sériques dénaturées, ces dernières ayant un impact sur la composition et la structure du fromage. Des modèles prédictifs de l’aptitude au râpage ont été développés en sélectionnant uniquement les descripteurs de composition et de texture pertinents. La perception sensorielle du fromage cuit sur pizza et les propriétés physiques du fromage fondu ont été considérablement influencées par l'évolution physico-chimique du fromage au cours du vieillissement. L’utilisation d’une nouvelle approche pour la caractérisation des propriétés rhéologiques du fromage fondu sous fortes contraintes a permis d’établir de bonnes relations avec les descripteurs sensoriels de texture. Ce travail a permis de valider l’hypothèse que l’utilisation d’une ou plusieurs stratégies simples et accessibles pouvait être mise de l’avant afin d’optimiser les propriétés physiques du fromage Mozzarella. Cela contribue à une meilleure compréhension des facteurs pouvant être contrôlés afin de développer des fromages avec des attributs spécifiques, lorsqu’utilisés comme ingrédient. / Mozzarella cheese is expected to perform various key attributes when used as a food ingredient. The shreddability and the melting properties of cheese during and after baking are mainly governed by the physical properties of cheese when subjected to external factors such as shear and temperature. Therefore, the goal of this project was to evaluate the impact of cheese-making strategies commonly used in the dairy processing industry on the cheese composition, microstructure, and physical properties. Various strategies were studied: pasta filata process conditions, addition of denatured whey protein (WP-D) to milk, control of curd mineralization, and cheese aging. Results showed that controlling the mechanical and thermal intensity during the pasta filata process can lead to reduced cheese solid losses and a better distribution of water within cheese microstructure, respectively. The ability of cheese to be shredded can be increased using a combination of multiple factors such as lowering colloidal calcium phosphate associated with casein, proper aging, and by reducing cheese temperature before shredding. However, an optimisation of the previous factors should be done if WP-D is added because of its impact on cheese composition and structure. Predictive models to assess cheese shreddability were built using only few relevant compositional and textural descriptors. Sensory perception of baked cheese texture and physical properties of melted cheese were dramatically influenced by the physico-chemical evolution of cheese during aging. Melted cheese texture was satisfactorily related to different sensory attributes using a novel approach to determine the rheological properties under the large stress experienced during mastication. This work validated the hypothesis that simple cheese-making strategies, alone or combined, can be used to optimize the cheese physical properties. This contributes to a better understanding of the factors that can be controlled to improve or develop cheese ingredient with specific attributes.
|
17 |
Spatio-temporal coverage optimization of sensor networksAkbarzadeh, Vahab 24 April 2018 (has links)
Les réseaux de capteurs sont formés d’un ensemble de dispositifs capables de prendre individuellement des mesures d’un environnement particulier et d’échanger de l’information afin d’obtenir une représentation de haut niveau sur les activités en cours dans la zone d’intérêt. Une telle détection distribuée, avec de nombreux appareils situés à proximité des phénomènes d’intérêt, est pertinente dans des domaines tels que la surveillance, l’agriculture, l’observation environnementale, la surveillance industrielle, etc. Nous proposons dans cette thèse plusieurs approches pour effectuer l’optimisation des opérations spatio-temporelles de ces dispositifs, en déterminant où les placer dans l’environnement et comment les contrôler au fil du temps afin de détecter les cibles mobiles d’intérêt. La première nouveauté consiste en un modèle de détection réaliste représentant la couverture d’un réseau de capteurs dans son environnement. Nous proposons pour cela un modèle 3D probabiliste de la capacité de détection d’un capteur sur ses abords. Ce modèle inègre également de l’information sur l’environnement grâce à l’évaluation de la visibilité selon le champ de vision. À partir de ce modèle de détection, l’optimisation spatiale est effectuée par la recherche du meilleur emplacement et l’orientation de chaque capteur du réseau. Pour ce faire, nous proposons un nouvel algorithme basé sur la descente du gradient qui a été favorablement comparée avec d’autres méthodes génériques d’optimisation «boites noires» sous l’aspect de la couverture du terrain, tout en étant plus efficace en terme de calculs. Une fois que les capteurs placés dans l’environnement, l’optimisation temporelle consiste à bien couvrir un groupe de cibles mobiles dans l’environnement. D’abord, on effectue la prédiction de la position future des cibles mobiles détectées par les capteurs. La prédiction se fait soit à l’aide de l’historique des autres cibles qui ont traversé le même environnement (prédiction à long terme), ou seulement en utilisant les déplacements précédents de la même cible (prédiction à court terme). Nous proposons de nouveaux algorithmes dans chaque catégorie qui performent mieux ou produits des résultats comparables par rapport aux méthodes existantes. Une fois que les futurs emplacements de cibles sont prédits, les paramètres des capteurs sont optimisés afin que les cibles soient correctement couvertes pendant un certain temps, selon les prédictions. À cet effet, nous proposons une méthode heuristique pour faire un contrôle de capteurs, qui se base sur les prévisions probabilistes de trajectoire des cibles et également sur la couverture probabiliste des capteurs des cibles. Et pour terminer, les méthodes d’optimisation spatiales et temporelles proposées ont été intégrées et appliquées avec succès, ce qui démontre une approche complète et efficace pour l’optimisation spatio-temporelle des réseaux de capteurs. / Sensor networks consist in a set of devices able to individually capture information on a given environment and to exchange information in order to obtain a higher level representation on the activities going on in the area of interest. Such a distributed sensing with many devices close to the phenomena of interest is of great interest in domains such as surveillance, agriculture, environmental monitoring, industrial monitoring, etc. We are proposing in this thesis several approaches to achieve spatiotemporal optimization of the operations of these devices, by determining where to place them in the environment and how to control them over time in order to sense the moving targets of interest. The first novelty consists in a realistic sensing model representing the coverage of a sensor network in its environment. We are proposing for that a probabilistic 3D model of sensing capacity of a sensor over its surrounding area. This model also includes information on the environment through the evaluation of line-of-sight visibility. From this sensing model, spatial optimization is conducted by searching for the best location and direction of each sensor making a network. For that purpose, we are proposing a new algorithm based on gradient descent, which has been favourably compared to other generic black box optimization methods in term of performance, while being more effective when considering processing requirements. Once the sensors are placed in the environment, the temporal optimization consists in covering well a group of moving targets in the environment. That starts by predicting the future location of the mobile targets detected by the sensors. The prediction is done either by using the history of other targets who traversed the same environment (long term prediction), or only by using the previous displacements of the same target (short term prediction). We are proposing new algorithms under each category which outperformed or produced comparable results when compared to existing methods. Once future locations of targets are predicted, the parameters of the sensors are optimized so that targets are properly covered in some future time according to the predictions. For that purpose, we are proposing a heuristics for making such sensor control, which deals with both the probabilistic targets trajectory predictions and probabilistic coverage of sensors over the targets. In the final stage, both spatial and temporal optimization method have been successfully integrated and applied, demonstrating a complete and effective pipeline for spatiotemporal optimization of sensor networks.
|
18 |
Développement d'une méthode de diagnostic des systèmes de drainage dans la production de cannebergesBulot, Diane 23 April 2018 (has links)
Contrairement à la croyance populaire, la canneberge ne pousse pas dans l’eau et la gamme de potentiel matriciel de l’eau dans le sol optimale pour la croissance des plants se situe entre −3.0 et −7.5 kPa. Un sol gorgé d’eau et mal aéré diminue la capacité des plants à prélever les nutriments dans le sol et peut augmenter les maladies racinaires. Il est donc primordial d’entretenir un système de drainage efficace afin de maintenir les plants dans un environnement optimal. L’objectif de ce projet était le développement d’une méthode de diagnostic des systèmes de drainage souterrain dans la production de canneberges. Les hypothèses étaient : (a) les variabilités spatiales verticale et horizontale des propriétés hydrodynamiques du sol influence l’efficacité d’un système de drainage et (b) l’étude de données tensiométriques et de l’évolution de la hauteur de la nappe en fonction du temps permet de déterminer l’efficacité d’un système de drainage. Aux étés 2013 et 2014, un dispositif expérimental de suivi de la nappe (puits d’observation, tensiomètres, sondes de pression) a été mis en place sur 21 champs. En parallèle, 960 échantillons de sol ont été prélevés sur huit champs et rapportés en laboratoire afin d’estimer la variabilité spatiale des propriétés hydrodynamiques du sol. Les analyses des données obtenues de vitesse de rabattement de la nappe, conductivité hydraulique à saturation, masse volumique, porosité, rendement, granulométrie, paramètres de rétention en eau et teneurs en eau du sol ont permis de mettre en évidence leur influence sur le rendement et l’efficacité de drainage. En se basant sur des courbes de rabattement de la nappe, la vitesse de rabattement de la nappe et le profil de charge, une charte de diagnostic a pu être développée. Cette charte de diagnostic, à l’issue de quatre grandes questions directrices, permet l’identification d’un possible problème de drainage. / Efficient drainage systems are essential in the development of more intelligent precision irrigation methods in cranberry production. Most cranberry fields are equipped with subsurface drainage systems used for excess water removal and water table control. In fact, cranberry reveals high sensitivity to wet conditions with an important decrease in crop yields caused almost exclusively by dysfunctional drainage systems. Previous works have highlighted the need to improve existing drainage systems. The main objective of this study was to develop a real-time method for assessment of subsurface drainage system performance. The hypotheses were : (a) the vertical and horizontal spatial variability of the hydrodynamic soil properties influence underground drainage system efficiency and (b) the study of tensiometric data and changes in the water table height versus time, allows us to assess drainage system efficiency. During the 2013 and 2014 crop seasons, real-time experimental devices (observation wells, tensiometers, and pressure sensors) were installed in 21 fields (13 in Manseau and eight in the Lac-St-Jean region, Québec, Canada) in order to monitor the water table and soil matric potential. In order to assess the relationship between drainage efficiency and soil properties, 960 undisturbed soil cores were collected over eight fields and brought back to the laboratory for hydrodynamic soil properties characterization. Data obtained from water table drawdown speed, saturated hydraulic conductivity, bulk density, porosity, granulometry, water retention parameters and water contents allowed to highlight their influence on crop yields and drainage efficiency. Based on water table drawdown curve, water table drawdown speed and water height profile, a diagnostic diagram was developed. This diagnostic charter, based on four guiding questions, allows for the identification of drainage problems.
|
19 |
Analyse de sensibilité d'un multimodèle hydrologiqueMalenfant, Charles 24 April 2018 (has links)
Les enjeux hydrologiques modernes, de prévisions ou liés aux changements climatiques, forcent l’exploration de nouvelles approches en modélisation afin de combler les lacunes actuelles et d’améliorer l’évaluation des incertitudes. L’approche abordée dans ce mémoire est celle du multimodèle (MM). L’innovation se trouve dans la construction du multimodèle présenté dans cette étude : plutôt que de caler individuellement des modèles et d’utiliser leur combinaison, un calage collectif est réalisé sur la moyenne des 12 modèles globaux conceptuels sélectionnés. Un des défis soulevés par cette approche novatrice est le grand nombre de paramètres (82) qui complexifie le calage et l’utilisation, en plus d’entraîner des problèmes potentiels d’équifinalité. La solution proposée dans ce mémoire est une analyse de sensibilité qui permettra de fixer les paramètres peu influents et d’ainsi réduire le nombre de paramètres total à caler. Une procédure d’optimisation avec calage et validation permet ensuite d’évaluer les performances du multimodèle et de sa version réduite en plus d’en améliorer la compréhension. L’analyse de sensibilité est réalisée avec la méthode de Morris, qui permet de présenter une version du MM à 51 paramètres (MM51) tout aussi performante que le MM original à 82 paramètres et présentant une diminution des problèmes potentiels d’équifinalité. Les résultats du calage et de la validation avec le « Split-Sample Test » (SST) du MM sont comparés avec les 12 modèles calés individuellement. Il ressort de cette analyse que les modèles individuels, composant le MM, présentent de moins bonnes performances que ceux calés indépendamment. Cette baisse de performances individuelles, nécessaire pour obtenir de bonnes performances globales du MM, s’accompagne d’une hausse de la diversité des sorties des modèles du MM. Cette dernière est particulièrement requise pour les applications hydrologiques nécessitant une évaluation des incertitudes. Tous ces résultats mènent à une amélioration de la compréhension du multimodèle et à son optimisation, ce qui facilite non seulement son calage, mais également son utilisation potentielle en contexte opérationnel. / Contemporary hydrological challenges, such as forecasting and climate change impact evaluations, are forcing the exploration of new modeling approaches to address current gaps and improve the assessment of uncertainties. The approach discussed in this Master’s thesis is referred as multimodel (MM). The main innovation in this study lies in this multimodel construction: rather than individually calibrating the models and use their deterministic combination, a collective calibration is performed on the average of the 12 lumped conceptual models. One of the challenges of this innovative approach is the large number of parameters (82) complicating the computational cost and ease of use, in addition to potential equifinality problems. The first part of the solution proposed is based on a sensitivity analysis to determine the least significant parameters and thereby reduce the total number of parameters to be calibrated. The second part is based on an optimisation with calibration and validation to evaluate the performance of MM and its reduced version. Both lead to improve MM understanding. Sensitivity analysis is performed with the Morris method, which reveal a version of the MM with 51 parameters (MM51) just as efficient as the original MM with 82 parameters and with decreased potential equifinality problems. Results of the calibration and validation with the "Split-Sample Test" (SST) of MM are compared with the 12 models calibrated individually. It emerges from this analysis that the MM individual models have reduced performances compared to the ones when calibrated separately. This decrease in individual performances, essential for an good overall MM performance, comes with an increase in diversity for the MM outputs. The latter is an important component of hydrological applications with uncertainty evaluation. These results lead to a better understanding of the multimodel and its optimisation, which facilitate not only the calibration, but also its potential use in an operational context.
|
20 |
Recouvrements à base de dextrane pour applications médicalesMichel, Eléonore 24 April 2018 (has links)
L’ingénierie des biomatériaux a connu un essor prodigieux ces dernières décennies passant de matériaux simples à des structures plus complexes, particulièrement dans le domaine cardiovasculaire. Cette évolution découle de la nécessité des biomatériaux de permettre la synergie de différentes propriétés, dépendantes de leurs fonctions, qui ne sont pas forcément toutes compatibles. Historiquement, les premiers matériaux utilisés dans la conception de dispositifs médicaux étaient ceux présentant le meilleur compromis entre les propriétés physico-chimiques, mécaniques et biologiques que nécessitait leur application. Cependant, il se peut qu’un tel dispositif possède les bonnes propriétés physico-chimiques ou mécaniques, mais que sa biocompatibilité soit insuffisante induisant ainsi des complications cliniques. Afin d’améliorer ces propriétés biologiques tout en conservant les propriétés de volume du matériau, une solution est d’en modifier la surface. L’utilisation d’un revêtement permet alors de moduler la réponse biologique à l’interface biomatériau-hôte et de diminuer les effets indésirables. Ces revêtements sont optimisés selon deux critères principaux : la réponse biologique et la réponse mécanique. Pour la réponse biologique, les deux approches principales sont de mettre au point des revêtements proactifs qui engendrent l’adhérence, la prolifération ou la migration cellulaire, ou passifs, qui, principalement, sont inertes et empêchent l’adhérence de composés biologiques. Dans certains cas, il est intéressant de pouvoir favoriser certaines cellules et d’en limiter d’autres, par exemple pour lutter contre la resténose, principalement due à la prolifération incontrôlée de cellules musculaires lisses qui conduit à une nouvelle obstruction de l’artère, suite à la pose d’un stent. La recherche sur les revêtements de stents vise, alors, à limiter la prolifération de ces cellules tout en facilitant la ré-endothélialisation, c’est-à-dire en permettant l’adhérence et la prolifération de cellules endothéliales. Dans d’autres cas, il est intéressant d’obtenir des surfaces limitant toute adhérence cellulaire, comme pour l’utilisation de cathéter. Selon leur fonction, les cathéters doivent empêcher l’adhérence cellulaire, en particulier celle des bactéries provoquant des infections, et être hémocompatibles, principalement dans le domaine vasculaire. Il a été démontré lors d’études précédentes qu’un copolymère à base de dextrane et de poly(méthacrylate de butyle) (PBMA) répondait aux problématiques liées à la resténose et qu’il possédait, de plus, une bonne élasticité, propriété mécanique importante due à la déformation que subit le stent lors de son déploiement. L’approche de ce projet était d’utiliser ce copolymère comme revêtement de stents et d’en améliorer l’adhérence à la surface en formant des liens covalents avec la surface. Pour ce faire, cela nécessitait l’activation de la partie dextrane du copolymère afin de pouvoir le greffer à la surface aminée. Il était important de vérifier pour chaque étape l’influence des modifications effectuées sur les propriétés biologiques et mécaniques des matériaux obtenus, mais aussi d’un point de vue de la chimie, l’influence que cette modification pouvait induire sur la réaction de copolymérisation. Dans un premier temps, seul le dextrane est considéré et est modifié par oxydation et carboxyméthylation puis greffé à des surfaces fluorocarbonées aminées. L’analyse physico-chimique des polymères de dextrane modifiés et de leur greffage permet de choisir une voie de modification préférentielle qui n’empêchera pas ultérieurement la copolymérisation. La carboxyméthylation permet ainsi d’obtenir un meilleur recouvrement de la surface tout en conservant la structure polysaccharidique du dextrane. Le greffage du dextrane carboxyméthylé (CMD) est ensuite optimisé selon différents degrés de modification, tenant compte aussi de l’influence que ces modifications peuvent induire sur les propriétés biologiques. Finalement, les CMD précédemment étudiés, avec des propriétés biologiques définies, sont copolymérisés avec des monomères de méthacrylate de butyle (BMA). Les copolymères ainsi obtenus ont été ensuite caractérisés par des analyses physico-chimiques, biologiques et mécaniques. Des essais préliminaires ont montrés que les films de copolymères étaient anti-adhérents vis-à-vis des cellules, ce qui a permis de trouver de nouvelles applications au projet. Les propriétés élastiques et anti-adhérentes présentées par les films de copolymères CMD-co-PBMA, les rendent particulièrement intéressants pour des applications comme revêtements de cathéters. / The last decades have witnessed the remarkable growth of biomaterial science and engineering field, especially for cardiovascular applications, for which devices have evolved from simple material to complex structures. This development has stemmed from the necessity for biomaterials to exhibit different properties, related to their function, which are not always inherently compatible. Historically, the first materials selected for medical devices conception were the ones exhibiting the best compromise between all the physicochemical, mechanical and biological requirements. Nevertheless, while physicochemical and mechanical properties are often handily combined, the development of materials which also possess suitable biological properties have proved to be much more challenging, leading to clinical complications. Surface modification represents a valid solution to improve the biological performances of medical devices while maintaining the bulk properties of the material. Biomaterial coatings may modulate the biological response at the biomaterial-host interface and decreases the undesirable effects. Coatings have been optimized in regards to two main aspects: the biological response and the mechanical response. For the biological response, the two main approaches consist in 1) inducing cell adhesion, proliferation or migration with pro-active coatings and 2) using inert material, mostly, and avoiding the adhesion of any biological components with passive coatings. In certain cases, it is interesting to be able to favor particular cells and to limit others, for example to avoid restenosis, which is mostly due to the uncontrolled proliferation of smooth muscle cells leading to the re-obstruction of the artery, after stent implantation. So, researchers’ aim are stent coatings capable of limiting this cell proliferation along with facilitating the re-endothelialization, which means allowing the adhesion and the proliferation of endothelial cells. In other cases, it is interesting to obtain surfaces limiting any cell adhesion, as for catheter use. Depending on their function, catheters should be able to avoid cell adhesion, in particular bacteria adhesion that leads to infections, and to be hemocompatible, particularly in the vascular field. Previous studies showed that a copolymer made of dextran and poly(butyl methacrylate) (PBMA) demonstrated such biological properties and a good resistance to deformation, which is an important parameter related to the deformation implied in a stent implantation. In this project, the approach was to use this copolymer as a stent coating and to increase its adhesion to surface by providing covalent bonds with the surface. To do so, the dextran part of the copolymer firstly needed to be activated in order to be grafted to the surface. Thus, it was important to ascertain the influence of the multiple modifications on the biological and mechanical properties of the resulting materials at each step, but also towards a chemical point of view, the influence that these modifications may have on the subsequent copolymerization. Firstly, only dextran has been considered and was modified by oxidation and carboxymethylation reactions and grafted to fluorocarbon surfaces. Physicochemical analyses were used to validate a way of dextran modification which allowed the grafting without hindering the subsequent copolymerization. The modification by carboxymethylation led to a better surface coverage and kept the polysaccharide’s structure. Then, the grafting of carboxymethyl dextran (CMD) was optimized according to different degrees of modification, also considering the influence these modifications could have on biological properties. Finally, the previous studied CMD, with defined biological properties, were copolymerized with butyl methacrylate monomers (BMA). The resulting copolymers were then characterized by physicochemical, biological and mechanical analyses. Preliminary results showed that copolymers films were anti-adhesive to cells, which allowed to find new applications to the project. Elastic and anti-adhesive properties of the CMD-co-PBMA copolymers films, make them particularly interesting for catheter coatings application.
|
Page generated in 0.0328 seconds