Spelling suggestions: "subject:"arbres"" "subject:"marbres""
291 |
Prévision de la profondeur de la nappe phréatique d'un champ de canneberges à l'aide de deux approches de modélisation des arbres de décisionBrédy, Jhemson 22 January 2020 (has links)
La gestion intégrée de l’eau souterraine constitue un défi majeur pour les activités industrielles, agricoles et domestiques. Dans certains systèmes agricoles, une gestion optimisée de la nappe phréatique représente un facteur important pour améliorer les rendements des cultures et l’utilisation de l'eau. La prévision de la profondeur de la nappe phréatique (PNP) devient l’une des stratégies utiles pour planifier et gérer en temps réel l’eau souterraine. Cette étude propose une approche de modélisation basée sur les arbres de décision pour prédire la PNP en fonction des précipitations, des précédentes PNP et de l'évapotranspiration pour la gestion de l’eau souterraine des champs de canneberges. Premièrement, deux modèles: « Random Forest (RF) » et « Extreme Gradient Boosting (XGB) » ont été paramétrisés et comparés afin de prédirela PNP jusqu'à 48 heures. Deuxièmement, l’importance des variables prédictives a été déterminée pour analyser leur influence sur la simulation de PNP. Les mesures de PNP de trois puits d'observation dans un champ de canneberges, pour la période de croissance du 8 juillet au 30 août 2017, ont été utilisées pour entraîner et valider les modèles. Des statistiques tels que l’erreur quadratique moyenne, le coefficient de détermination et le coefficient d’efficacité de Nash-Sutcliffe sont utilisés pour mesurer la performance des modèles. Les résultats montrent que l'algorithme XGB est plus performant que le modèle RF pour prédire la PNP et est sélectionné comme le modèle optimal. Parmi les variables prédictives, les valeurs précédentes de PNP étaient les plus importantes pour la simulation de PNP, suivie par la précipitation. L’erreur de prédiction du modèle optimal pour la plage de PNP était de ± 5 cm pour les simulations de 1, 12, 24, 36 et 48 heures. Le modèle XGB fournit des informations utiles sur la dynamique de PNP et une simulation rigoureuse pour la gestion de l’irrigation des canneberges. / Integrated ground water management is a major challenge for industrial, agricultural and domestic activities. In some agricultural production systems, optimized water table management represents a significant factor to improve crop yields and water use. Therefore, predicting water table depth (WTD) becomes an important means to enable real-time planning and management of groundwater resources. This study proposes a decision-tree-based modelling approach for WTD forecasting as a function of precipitation, previous WTD values and evapotranspiration with applications in groundwater resources management for cranberry farming. Firstly, two models-based decision trees, namely Random Forest (RF) and Extrem Gradient Boosting (XGB), were parameterized and compared to predict the WTD up to 48-hours ahead for a cranberry farm located in Québec, Canada. Secondly, the importance of the predictor variables was analyzed to determine their influence on WTD simulation results. WTD measurements at three observation wells within acranberry field, for the growing period from July 8, 2017 to August 30, 2017, were used for training and testing the models. Statistical parameters such as the mean squared error, coefficient of determination and Nash-Sutcliffe efficiency coefficient were used to measure models performance. The results show that the XGB algorithm outperformed the RF model for predictions of WTD and was selected as the optimal model. Among the predictor variables, the antecedent WTD was the most important for water table depth simulation, followed by the precipitation. Base on the most important variables and optimal model, the prediction error for entire WTD range was within ± 5 cm for 1-, 12-, 24-, 26-and 48-hour prediction. The XGB model can provide useful information on the WTD dynamics and a rigorous simulation for irrigation planning and management in cranberry fields.
|
292 |
Phénologie et modèles prévisionnels d'éclosion printanière pour trois arthropodes ravageurs en plantation commerciale d'arbres de Noël dans un contexte de changements climatiquesDoherty, Jean-François 24 April 2018 (has links)
Le puceron des pousses du sapin Mindarus abietinus et le tétranyque de l’épinette Oligonychus ununguis sont deux ravageurs d’importance économique pour l’industrie des arbres de Noël au Québec. Les changements climatiques en cours pourraient affecter leur biologie et physiologie de telle sorte que leurs dommages sur les sapins cultivés augmenteront dans les prochaines décennies. Afin d’étudier les interactions entre M. abietinus, son arbre-hôte et la température ambiante, j’ai suivi des populations du puceron pendant trois étés dans des sapinières commerciales du sud du Québec. Entre autres, j’ai montré qu’il est possible de séparer correctement les générations chevauchantes de filles ailées et aptères du cycle vital complexe de M. abietinus, ce qui m’a permis d’observer une proportion de filles aptères plusieurs fois supérieure à ce qui était connu auparavant. Dans une expérience en plantation de sapin baumier, j’ai montré qu’un milieu réchauffé causerait une augmentation significative du taux de croissance des colonies de M. abietinus sur les pousses, en comparaison avec les colonies sous conditions naturelles actuelles. Ces résultats supportent l’hypothèse qu’un climat plus chaud, causé par les changements anthropogéniques, pourrait favoriser des densités plus élevées de M. abietinus, ce qui pourrait augmenter ses dommages esthétiques sur le sapin. Dans une expérience de laboratoire, la durée du développement en fonction de la température des œufs de ces deux ravageurs et de ceux d’une autre espèce, la cochenille des aiguilles du pin Chionaspis pinifoliae, a été mesurée en milieu contrôlé, ce qui m’a permis d’élaborer des modèles prévisionnels linéaires et non linéaires du taux de développement des œufs hivernés postdiapausants nouveaux pour le Québec. Finalement, en suivant la masse fraîche d’œufs hivernants de M. abietinus tout au long de leur diapause de plusieurs mois, j’ai observé un accroissement de la masse au printemps, impliquant l’eau comme possible facteur de déclenchement de l’embryogenèse. / The balsam twig aphid Mindarus abietinus and the spruce spider mite Oligonychus ununguis are two pests of economic importance for the Christmas tree industry in Québec. Current climate change could affect their biology and physiology in such a way that, if their local densities in commercial fir plantations grow in the future, potential damage to cultivated firs could increase substantially. In order to study the interactions between M. abietinus, its host tree, and ambient temperature, I followed populations of the aphid during three consecutive summers in commercial fir plantations of southern Québec. I found it possible to separate overlapping generations of different morphs of this aphid in growing colonies on fir shoots, which allowed to record a proportion of wingless daughters several times larger than previously known for this aphid in its complex life cycle. Based on a field experiment, a warmer environment surrounding the aphids on balsam fir shoots increased spring colony growth rates significantly, when compared to unaltered colonies on neighbouring trees. These results support the hypothesis that a warmer climate, caused by anthropogenic change, would promote higher densities of M. abietinus on fir shoots, which could increase esthetic damage to Christmas trees. In a laboratory experiment, I studied the effect of ambient temperature on postdiapause development of the overwintering eggs of both aphid and mite species, along with that of another conifer-feeding pest, the pine needle scale Chionaspis pinifoliae, which led to parametrise new linear and nonlinear development rate models for postdiapause egg development of all three species. Finally, by following fresh mass of M. abietinus overwintering eggs throughout their diapause of several months, it was possible to observe a substantial increase in size and mass of these eggs in early spring, suggesting that water could trigger diapause termination and/or initiate embryogenesis of the first active stage.
|
293 |
Réinventer l'espace forestier : ethnographie d'initiatives collectives de forêts nourricières et de plantations climatiques dans le Bas-Saint-Laurent, QuébecGiroux-Works, Nakeyah 24 January 2024 (has links)
Titre de l'écran-titre (visionné le 22 janvier 2024) / Cette thèse porte un regard anthropologique sur des initiatives collectives de plantation de végétaux réalisées dans la région du Bas-Saint-Laurent, Québec. Les initiatives étudiées mènent 1) à la création d'aménagements comestibles appelés « forêts nourricières » ou 2) à la réalisation de plantations d'arbres à des fins de compensation carbone volontaire, que j'ai nommées des « plantations climatiques ». Portées par différents groupes d'acteurs de la société civile (citoyens, professeurs, municipalités, organismes environnementaux, etc.), ces initiatives misent sur des approches de la conservation et de la valorisation environnementale basées sur des actions collaboratives, des attitudes de convivialité et de solidarité, et des économies déployées dans une perspective de transition socio-écologique. En m'appuyant sur une ethnographie multisites, j'explique comment la réalisation de ces projets agroforestiers se basent sur des idéaux de la forêt et des besoins en matière de lutte contre les changements climatiques, de protection de la biodiversité, de verdissement et de résilience alimentaire. L'approche de l'écologie politique permet de situer les contextes d'émergence de ces deux types d'initiatives, de rendre compte des dynamiques de pouvoir qui accompagnent leur création, et d'exposer leurs implications pour la construction et l'appropriation de l'espace forestier bas-laurentien. Cette thèse contribue à élargir les thématiques de recherche investies en anthropologie de la forêt au Québec, qui touchent généralement les aires protégées étatiques, l'industrie forestière et les questions autochtones. Elle met en lumière des modes d'exploitation des arbres et des plantes qui impliquent de valoriser, d'une part, des produits autres que le bois et, d'autre part, des espaces environnementaux « non productifs », comme des friches et des terrains déboisés, en mobilisant des imaginaires forestiers. Également, cette thèse vient poursuivre les recherches anthropologiques documentant les nouvelles manières de vivre et de s'engager sur le territoire rural du Bas-Saint-Laurent, en se penchant sur les aspirations socio-environnementales, locales et régionales, qui justifient les actions des groupes d'acteurs étudiées. / This thesis takes an anthropological look at collective vegetation planting initiatives carried out in the Bas-Saint-Laurent region, Quebec. The initiatives studied lead to the creation of 1) edible arrangements called "food forests" or 2) tree plantations for voluntary carbon offset purposes, which I have named "climatic plantations". Carried out by various groups of civil society actors (citizens, professors, municipalities, environmental organizations, etc.), these initiatives rely on approaches to conservation and environmental enhancement based on collaborative actions, attitudes of conviviality and solidarity, and economies deployed in a perspective of socio-ecological transition. Based on a multi-site ethnography, I explain how the realization of these agroforestry projects is based on the ideals and needs of the forest in terms of combating climate change, protecting biodiversity, greening and food resilience. The approach of political ecology allows to situate the contexts of emergence of these two types of initiatives, to account for the power dynamics that accompany their creation, and to expose their implications for the construction and appropriation of the Bas-Saint-Laurent forest area. This thesis contributes to broadening the research themes invested in anthropology of the forest in Quebec, which generally touch on state protected areas, the forestry industry and indigenous issues. It highlights modes of exploitation of trees and plants that involve valuing products other than wood and "non-productive" environmental spaces, such as fallow and lands, by drawing on forest-inspired imaginaries. Also, this thesis continues anthropological research documenting new ways of living and engaging in the rural territory of Bas-Saint-Laurent, focusing on socio-environmental aspirations, local and regional, which justify the actions of the groups of actors studied.
|
294 |
Généralisation des Jeux Combinatoires et Applications aux Langages LogiquesLoddo, Jean-Vincent 16 December 2002 (has links) (PDF)
La théorie des jeux a développé, à ses débuts, une vocation pour les sciences sociales et économiques, avec des applications disparates, comme par exemple le traitement de données médicales. Elle apparaît aujourd'hui comme un paradigme de concepts et de techniques très général, dont le potentiel reste encore à exploiter en informatique. Dans cette thèse nous étudions une branche particulière, la théorie des jeux combinatoires (à deux joueurs), pour en tirer bénéfice dans le domaine, très actif, des sémantiques formelles des langages de programmation. D'un jeu, nous pouvons séparer l'aspect syntaxique, inhérent aux dénouements possibles des matchs, de l'aspect sémantique, inhérent aux prévisions sur le gagnant et la quantification de son gain (en termes d'un enjeu quelconque, tel que l'argent ou le préstige). Pour modeliser la notion de gain, la structure d'évaluation choisie ne doit pas forcément être celle des booléens (gagné ou perdu), ou celle des entiers naturels ou relatifs. Il suffit qu'elle vérifie des propriétés, assez faibles, garantissant l'existence d'une sémantique même lorsque le jeu donne lieu à des matchs infinis, comme dans le cas du jeu de la bisimulation entre processus concurrents, et du jeu de la programmation logique. Dans ce travail, nous étudions la caractérisation sémantique d'un langage logique (avec ou sans contrainte) en termes de jeu à deux joueurs. Au-delà du modèle intuitif des jeux, dont la valeur pédagogique mériterait d'être approfondie, une telle interprétation permet de réutiliser un des algorithmes les plus utilisés dans la théorie des jeux combinatoire, Alpha-Bêta, comme moteur de résolution pour les langages logiques. Les résultats récents et spectaculaires obtenus par les programmes d'échecs (souvenons-nous de la défaite du champion du monde Kasparov contre le programme Deep Blue d'IBM) témoignent d'une forme d'intelligence artificielle développée dans ces programmes qui peut être transposée et exploitée dans la résolution des langages logiques. La résolution d'interrogations existentielles conjonctives dans une théorie de clauses de Horn du premier ordre est en particulier concernée. En effet, la capacité d'Alpha-Bêta à simplifier le calcul ou, en d'autres termes, sa capacité à éliminer les coups inintéressants, n'est pas intimement liée à un type de jeu ou à un type de gain particuliers, mais demande juste des propriétés algébriques qui sont satisfaites dans le jeu de la programmation logique. La correction d'Alpha-Bêta est prouvée de façon formelle pour un éventail de structures très large. Les valeurs calculées pourront être aussi bien des entiers naturels, comme dans le cas du jeu d'échecs, que des substitutions ou des contraintes, comme dans le cas des langages logiques.
|
295 |
Caractérisation multibande de galaxies par hiérarchie de modèles et arbres de composantes connexesPerret, Benjamin 17 November 2010 (has links) (PDF)
Cette thèse propose une méthode de caractérisation morphologique multibande des galaxies. Ces dernières ont commencé à évoluer et à interagir très tôt dans l'histoire de l'Univers: leurs formes dans les différentes parties du spectre électromagnétique représentent donc un traceur important de cette histoire. Ce travail propose une organisation hiérarchique de modèles, allant de la description des structures dominantes (bulbe et disque) aux composantes les plus fines (bras spiraux, anneaux, ...). Elle permet d'aboutir à une description des galaxies de haut niveau sémantique, chaque modèle réalisant une décomposition multibande de l'image en composantes astrophysiques interprétables par les astronomes. Les modélisations proposées innovent par l'intégration d'un filtre adaptatif appliqué sur les observations, dont les paramètres sont estimés conjointement avec ceux des composantes de la galaxie. L'estimation des paramètres des modèles est effectuée dans un contexte bayésien et résolue à l'aide d'algorithmes d'optimisation stochastique (algorithmes de Monte Carlo par chaines de Markov). La rapidité des algorithmes est améliorée grâce à des techniques d'échelles et de directions adaptatives, ainsi qu'à une version multi-températures du recuit simulé. En outre, les développements concernant la théorie des arbres de composantes connexes permettent la mise au point d'algorithmes non paramétriques multibandes, efficaces et robustes pour la réalisation des pré-traitements nécessaires à la mise en oeuvre de la décomposition en structures. Cela a notamment abouti à des avancées dans la théorie des hyperconnexions et des représentations sous forme d'arbres de composantes hyperconnexes. Les performances des méthodes proposées ont été évaluées sur un ensemble conséquent d'environ 1 500 galaxies et discutées avec les astronomes: elles montrent clairement la pertinence et la robustesse de la méthode. Ces résultats ouvrent la voie à de nouvelles classifications prenant en compte la signature multibande des galaxies spatialement résolues.
|
296 |
Intégration de la Sûreté de Fonctionnement dans les Processus d'Ingénierie SystèmeGuillerm, Romaric 15 June 2011 (has links) (PDF)
L'intégration de diverses technologies, notamment celles de l'informatique et l'électronique, fait que les systèmes conçus de nos jours sont de plus en plus complexes. Ils ont des comportements plus élaborés et plus difficiles à prévoir, ont un nombre de constituants en interaction plus important et/ou réalisent des fonctions de plus haut niveau. Parallèlement à cette complexification des systèmes, la compétitivité du marché mondial impose aux développeurs de systèmes des contraintes de coût et de délais de plus en plus strictes. La même course s'opère concernant la qualité des systèmes, notamment lorsque ceuxci mettent en jeu un risque en vies humaines ou un risque financier important. Ainsi, les développeurs sont contraints d'adopter une approche de conception rigoureuse pour répondre aux exigences du système souhaité et satisfaire les diverses contraintes (coût, délais, qualité, sûreté de fonctionnement,...). Plusieurs démarches méthodologiques visant à guider la conception de système sont définies par l'intermédiaire de normes d'Ingénierie Système. Notre travail s'appuie sur la norme EIA-632, qui est largement employée, en particulier dans les domaines aéronautique et militaire. Il consiste à améliorer les processus d'ingénierie système décrits par l'EIA-632, afin d'intégrer une prise en compte globale et explicite de la sûreté de fonctionnement. En effet, jusqu'à présent la sûreté de fonctionnement était obtenue par la réutilisation de modèles génériques après avoir étudié et développé chaque fonction indépendamment. Il n'y avait donc pas de prise en compte spécifique des risques liés à l'intégration de plusieurs technologies. Pour cette raison, nous proposons de nous intéresser aux exigences de Sûreté de Fonctionnement au niveau global et le plus tôt possible dans la phase de développement, pour ensuite les décliner aux niveaux inférieurs, ceci en s'appuyant sur les processus de la norme EIA-632 que nous étoffons. Nous proposons également une méthode originale de déclinaison d'exigences de sûreté de fonctionnement à base d'arbres de défaillances et d'AMDEC, ainsi qu'un modèle d'information basé sur SysML pour appuyer notre approche. Un exemple issu du monde aéronautique permet d'illustrer nos propositions.
|
297 |
Recherche de Supersymétrie à l’aide de leptons de même charge électrique dans l’expérience ATLASTrépanier, Hubert 08 1900 (has links)
La théorie de la Supersymétrie est étudiée ici en tant que théorie complémentaire au Modèle Standard, sachant que celui-ci n'explique qu'environ 5% de l'univers et est incapable de répondre à plusieurs questions fondamentales en physique des particules. Ce mémoire contient les résultats d'une recherche de Supersymétrie effectuée avec le détecteur ATLAS et utilisant des états finaux contenant entre autres une paire de leptons de même charge électrique ou trois leptons. Les données proviennent de collisions protons-protons à 13 TeV d'énergie dans le centre-de-masse produites au Grand Collisionneur de Hadrons (LHC) en 2015. L'analyse n'a trouvé aucun excès significatif au-delà des attentes du Modèle Standard mais a permis tout de même de poser de nouvelles limites sur la masse de certaines particules supersymétriques. Ce mémoire contient aussi l'étude exhaustive d'un bruit de fond important pour cette analyse, soit le bruit de fond provenant des électrons dont la charge est mal identifiée. L'extraction du taux d'inversion de charge, nécessaire pour connaître combien d'événements seront attribuables à ce bruit de fond, a démontré que la probabilité pour que la charge d'un électron soit mal identifiée par ATLAS variait du dixième de pourcent à 8-9% selon l'impulsion transverse et la pseudorapidité des électrons. Puis, une étude fut effectuée concernant l'élimination de ce bruit de fond via l'identification et la discrimination des électrons dont la charge est mal identifiée. Une analyse multi-variée se servant d'une méthode d'apprentissage par arbres de décision, basée sur les caractéristiques distinctives de ces électrons, montra qu'il était possible de conserver un haut taux d'électrons bien identifiés (95%) tout en rejetant la grande majorité des électrons possédant une charge mal identifiée (90-93%). / Since the Standard Model only explains about 5% of our universe and leaves us with a lot of open questions in fundamental particle physics, a new theory called Supersymmetry is studied as a complementary model to the Standard Model. A search for Supersymmetry with the ATLAS detector and using final states with same-sign leptons or three leptons is presented in this master thesis. The data used for this analysis were produced in 2015 by the Large Hadron Collider (LHC) using proton-proton collisions at 13 TeV of center-of-mass energy. No excess was found above the Standard Model expectations but we were able to set new limits on the mass of some supersymmetric particles. This thesis describes in detail the topic of the electron charge-flip background, which arises when the electric charge of an electron is mis-measured by the ATLAS detector. This is an important background to take into account when searching for Supersymmetry with same-sign leptons. The extraction of charge-flip probabilities, which is needed to determine the number of charge-flip events among our same-sign selection, was performed and found to vary from less than a percent to 8-9% depending on the transverse momentum and the pseudorapidity of the electron. The last part of this thesis consists in a study for the potential of rejection of charge-flip electrons. It was performed by identifying and discriminating those electrons based on a multi-variate analysis with a boosted decision tree method using distinctive properties of charge-flip electrons. It was found that we can reject the wide majority of mis-measured electrons (90-93%) while keeping a very high level of efficiency for well-measured ones (95%).
|
298 |
The use of artificial intelligence algorithms to guide surgical treatment of adolescent idiopathic scoliosisPhan, Philippe 01 1900 (has links)
La scoliose idiopathique de l’adolescent (SIA) est une déformation tri-dimensionelle du rachis. Son traitement comprend l’observation, l’utilisation de corsets pour limiter sa progression ou la chirurgie pour corriger la déformation squelettique et cesser sa progression. Le traitement chirurgical reste controversé au niveau des indications, mais aussi de la chirurgie à entreprendre. Malgré la présence de classifications pour guider le traitement de la SIA, une variabilité dans la stratégie opératoire intra et inter-observateur a été décrite dans la littérature. Cette variabilité s’accentue d’autant plus avec l’évolution des techniques chirurgicales et de l’instrumentation disponible.
L’avancement de la technologie et son intégration dans le milieu médical a mené à l’utilisation d’algorithmes d’intelligence artificielle informatiques pour aider la classification et l’évaluation tridimensionnelle de la scoliose. Certains algorithmes ont démontré être efficace pour diminuer la variabilité dans la classification de la scoliose et pour guider le traitement.
L’objectif général de cette thèse est de développer une application utilisant des outils d’intelligence artificielle pour intégrer les données d’un nouveau patient et les évidences disponibles dans la littérature pour guider le traitement chirurgical de la SIA.
Pour cela une revue de la littérature sur les applications existantes dans l’évaluation de la SIA fut entreprise pour rassembler les éléments qui permettraient la mise en place d’une application efficace et acceptée dans le milieu clinique. Cette revue de la littérature nous a permis de réaliser que l’existence de “black box” dans les applications développées est une limitation pour l’intégration clinique ou la justification basée sur les évidence est essentielle.
Dans une première étude nous avons développé un arbre décisionnel de classification de la scoliose idiopathique basé sur la classification de Lenke qui est la plus communément utilisée de nos jours mais a été critiquée pour sa complexité et la variabilité inter et intra-observateur. Cet arbre décisionnel a démontré qu’il permet d’augmenter la précision de classification proportionnellement au temps passé à classifier et ce indépendamment du niveau de connaissance sur la SIA.
Dans une deuxième étude, un algorithme de stratégies chirurgicales basé sur des règles extraites de la littérature a été développé pour guider les chirurgiens dans la sélection de l’approche et les niveaux de fusion pour la SIA. Lorsque cet algorithme est appliqué à une large base de donnée de 1556 cas de SIA, il est capable de proposer une stratégie opératoire similaire à celle d’un chirurgien expert dans prêt de 70% des cas. Cette étude a confirmé la possibilité d’extraire des stratégies opératoires valides à l’aide d’un arbre décisionnel utilisant des règles extraites de la littérature.
Dans une troisième étude, la classification de 1776 patients avec la SIA à l’aide d’une carte de Kohonen, un type de réseaux de neurone a permis de démontrer qu’il existe des scoliose typiques (scoliose à courbes uniques ou double thoracique) pour lesquelles la variabilité dans le traitement chirurgical varie peu des recommandations par la classification de Lenke tandis que les scolioses a courbes multiples ou tangentielles à deux groupes de courbes typiques étaient celles avec le plus de variation dans la stratégie opératoire.
Finalement, une plateforme logicielle a été développée intégrant chacune des études ci-dessus. Cette interface logicielle permet l’entrée de données radiologiques pour un patient scoliotique, classifie la SIA à l’aide de l’arbre décisionnel de classification et suggère une approche chirurgicale basée sur l’arbre décisionnel de stratégies opératoires. Une analyse de la correction post-opératoire obtenue démontre une tendance, bien que non-statistiquement significative, à une meilleure balance chez les patients opérés suivant la stratégie recommandée par la plateforme logicielle que ceux aillant un traitement différent.
Les études exposées dans cette thèse soulignent que l’utilisation d’algorithmes d’intelligence artificielle dans la classification et l’élaboration de stratégies opératoires de la SIA peuvent être intégrées dans une plateforme logicielle et pourraient assister les chirurgiens dans leur planification préopératoire. / Adolescent idiopathic scoliosis (AIS) is a three-dimensional deformity of the spine. Management of AIS includes conservative treatment with observation, the use of braces to limit its progression or surgery to correct the deformity and cease its progression. Surgical treatment of AIS remains controversial with respect to not only indications but also surgical strategy. Despite the existence of classifications to guide AIS treatment, intra- and inter-observer variability in surgical strategy has been described in the literature.
Technological advances and their integration into the medical field have led to the use of artificial intelligence (AI) algorithms to assist with AIS classification and three-dimensional evaluation. With the evolution of surgical techniques and instrumentation, it is probable that the intra- and inter-observer variability could increase. However, some AI algorithms have shown the potential to lower variability in classification and guide treatment.
The overall objective of this thesis was to develop software using AI tools that has the capacity to integrate AIS patient data and available evidence from the literature to guide AIS surgical treatment.
To do so, a literature review on existing computer applications developed with regards to AIS evaluation and management was undertaken to gather all the elements that would lead to usable software in the clinical setting. This review highlighted the fact that many applications use a non-descript “black box” between input and output, which limits clinical integration where management based on evidence is essential.
In the first study, we developed a decision tree to classify AIS based on the Lenke scheme. The Lenke scheme was popular in the past, but has recently been criticized for its complexity leading to intra and inter-observer variability. The resultant decision tree demonstrated an ability to increase classification accuracy in proportion to the time spent classifying. Importantly, this increase in accuracy was independently of previous knowledge about AIS.
In the second study, a surgical strategy rule-based algorithm was developed using rules extracted from the literature to guide surgeons in the selection of the approach and levels of fusion for AIS. When this rule-based algorithm was tested against a database of 1,556 AIS cases, it was able to output a surgical strategy similar to the one undertaken by an expert surgeon in 70% of cases. This study confirmed the ability of a rule-based algorithm based on the literature to output valid surgical strategies.
In the third study, classification of 1,776 AIS patients was undertaken using Kohonen Self-Organizing-Maps (SOM), which is a kind of neural network that demonstrates there are typical AIS curve types (i.e: single curves and double thoracic curves) for which there is little variability in surgical treatment when compared to the recommendations from the Lenke scheme. Other curve types (i.e: multiple curves or in transition zones between typical curves) have much greater variability in surgical strategy.
Finally, a software platform integrating all the above studies was developed. The interface of this software platform allows for: 1) the input of AIS patient radiographic measurements; 2) classification of the curve type using the decision tree; 3) output of surgical strategy options based on rules extracted from the literature. A comparison of surgical correction obtained by patients receiving surgical treatment suggested by the software showed a tendency to obtain better balance -though non-statistically significant - than those who were treated differently from the surgical strategies outputted by the software.
Overall, studies from this thesis suggest that the use of AI algorithms in the classification and selection of surgical strategies for AIS can be integrated in a software platform that could assist the surgeon in the planning of appropriate surgical treatment.
|
299 |
Limite d'échelle de cartes aléatoires en genre quelconque / Scaling Limit of Arbitrary Genus Random MapsBettinelli, Jérémie 26 October 2011 (has links)
Au cours de ce travail, nous nous intéressons aux limites d'échelle de deux classes de cartes. Dans un premier temps, nous regardons les quadrangulations biparties de genre strictement positif g fixé et, dans un second temps, les quadrangulations planaires à bord dont la longueur du bord est de l'ordre de la racine carrée du nombre de faces. Nous voyons ces objets comme des espaces métriques, en munissant leurs ensembles de sommets de la distance de graphe, convenablement renormalisée. Nous montrons qu'une carte prise uniformément parmi les cartes ayant n faces dans l'une de ces deux classes tend en loi, au moins à extraction près, vers un espace métrique limite aléatoire lorsque n tend vers l'infini. Cette convergence s'entend au sens de la topologie de Gromov--Hausdorff. On dispose de plus des informations suivantes sur l'espace limite que l'on obtient. Dans le premier cas, c'est presque sûrement un espace de dimension de Hausdorff 4 homéomorphe à la surface de genre g. Dans le second cas, c'est presque sûrement un espace de dimension 4 avec une frontière de dimension 2, homéomorphe au disque unité de R^2. Nous montrons en outre que, dans le second cas, si la longueur du bord est un petit~o de la racine carrée du nombre de faces, on obtient la même limite que pour les quadrangulations sans bord, c'est-à-dire la carte brownienne, et l'extraction n'est plus requise. / In this work, we discuss the scaling limits of two particular classes of maps. In a first time, we address bipartite quadrangulations of fixed positive genus g and, in a second time, planar quadrangulations with a boundary whose length is of order the square root of the number of faces. We view these objects as metric spaces by endowing their sets of vertices with the graph metric, suitably rescaled.We show that a map uniformly chosen among the maps having n faces in one of these two classes converges in distribution, at least along some subsequence, toward a limiting random metric space as n tends to infinity. This convergence holds in the sense of the Gromov--Hausdorff topology on compact metric spaces. We moreover have the following information on the limiting space. In the first case, it is almost surely a space of Hausdorff dimension 4 that is homeomorphic to the genus g surface. In the second case, it is almost surely a space of Hausdorff dimension 4 with a boundary of Hausdorff dimension 2 that is homeomorphic to the unit disc of R^2. We also show that in the second case, if the length of the boundary is little-o of the square root of the number of faces, the same convergence holds without extraction and the limit is the same as for quadrangulations without boundary, that is the Brownian map.
|
300 |
Autour des représentations modulo p des groupes réductifs p-adiques de rang 1 / Mod p representations of p-adic reductive groups of rank 1Abdellatif, Ramla 02 December 2011 (has links)
Soit p un nombre premier. Cette thèse est une contribution à la théorie des représentations modulo p des groupes réductifs p-adiques, jusque là essentiellement centrée sur le groupe linéaire général GL(n) défini sur un corps local non archimédien F complet pour une valuation discrète, de caractéristique résiduelle p et de corps résiduel fini. L’originalité de nos travaux réside notamment dans le fait qu’ils concernent d’autres groupes : nous nous intéressons en effet à la description des classes d’isomorphisme des représentations modulo p de groupes formés des F-points d’un groupe réductif connexe défini, quasi-déployé de rang semi-simple égal à 1 sur F. Une place particulière est accordée au groupe spécial linéaire SL(2) et au groupe unitaire quasi-déployé non ramifié en trois variables U(2,1). Dans ces deux cas, nous montrons que les classes d’isomorphisme des représentations lisses irréductibles admissibles à coefficients dans un corps algébriquement clos de caractéristique p se scindent en deux familles : les représentations non supersingulières et les représentations supersingulières. Nous décrivons complètement les représentations non supersingulières, et montrons que la notion de supersingularité est équivalence à la notion de supercuspidalité apparaissant dans la théorie complexe. Nous donnons aussi une description explicite des représentations supersingulières de SL(2,Q_{p}), ce qui nous permet de définir dans ce cas une correspondance de Langlands locale semi-simple modulo p compatible à celle construite par Breuil pour GL(2). Nous généralisons ensuite les méthodes utilisées jusqu’alors pour obtenir la description des représentations non supercuspidales de G(F) lorsque G est un groupe réductif connexe défini, quasi-déployé, et rang semi-simple égal à 1 sur F. Elle fait apparaître trois familles deux à deux disjointes de représentations : les caractères, les représentations de la série principale et celles de la série spéciale. Nous terminons par une classification des modules à droite simples sur la pro-p-algèbre de Hecke-Iwahori H de SL(2,F). On déduit en particulier que l’application qui envoie une représentation lisse modulo p de SL(2,F) sur son espace de vecteurs invariants sous l’action du pro-p-sous-groupe d'Iwahori induit une bijection entre l’ensemble des classes d’isomorphisme des représentations lisses irréductibles non supersingulières de SL(2,F) et l’ensemble des classes d’isomorphisme des H-modules à droite simples non supersinguliers. Cette bijection s’étend aux objets supersinguliers lorsque l’on suppose que F = Q_{p}, ce qui est de bon augure dans la recherche d’une équivalence de catégories analogue à celle obtenue par Ollivier dans le cadre de la théorie existant pour GL(2, Q_{p}). / Let p be a prime number. This thesis is a contribution to the theory of mod p representations of p-adic reductive groups, which was until now mainly focused on the general linear group GL(n) defined over a non-archimedean local field F complete with respect to a discrete valuation and with finite residue class field of characteristic p. Our work is original as it deals with other groups : we indeed look for a classification of isomorphism classes of modulo p representations of groups formed by the F-points of a connected reductive group defined, quasi-split and of semi-simple rank 1 over F. A special place is devoted to the special linear group SL(2) and to the unramified quasi-split unitary group. In these two cases, we prove that the isomorphism classes of irreducible smooth representations over an algebraically closed field of characteristic p split into two families : supersingular and non-supersingular representations. We give a complete description of non-supersingular representations and prove that supersingularity is equivalent to the notion of supercuspidality that appears in the complex theory. We also make explicit the supersingular representations of SL(2,Q_{p}), what allows us to define a mod p semi-simple local Langlands correspondence that is compatible to the one built by Breuil for GL(2). We then generalize the methods used above to classify the isomorphism classes of non-supercuspidal representations of G(F) for G a connected reductive group which is defined, quasi-split and of semi-simple rank 1 over F. This classification is made up of three pairwise disjoint families : characters, representations of the principal series, and representations of the special series. We finally come back to SL(2) as we give an exhaustive classification of isomorphism classes of simple right modules on the pro-p-Iwahori-Hecke algebra H of SL(2,F). It implies that the map sending a smooth mod p representation of SL(2,F) on its vector space of invariants vectors under the action of the pro-p-Iwahori subgroup induces a bijection between non-supersingular irreducible smooth representations of SL(2,F) and non-supersingular simple right H-modules. This bijection extends to supersingular objects when F = Q_{p}, what is the first step in the search for an equivalence of categories similar to the one built by Ollivier in the setting of mod p representations of GL(2, Q_{p}).
|
Page generated in 0.0262 seconds