• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 422
  • 171
  • 72
  • 2
  • 1
  • 1
  • Tagged with
  • 721
  • 336
  • 296
  • 278
  • 254
  • 246
  • 243
  • 144
  • 133
  • 92
  • 90
  • 82
  • 79
  • 69
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
561

Paramètres physiques des ambiances architecturales

Miguet, Francis 13 October 2000 (has links) (PDF)
Parmi les diverses entités que l'architecte est amené à manipuler au cours du processus de conception, les « ambiances » constituent un domaine éminemment complexe, constitué des interactions que l'usager perçoit entre les phénomènes physiques et les formes de l'environnement construit. La lumière naturelle s'inscrit précisément dans ce cadre, où la variabilité individuelle vient s'ajouter à l'aspect dynamique des phénomènes. Or s'il est manifeste que les architectes s'attachent de manière permanente au travail sur la forme, ils ne semblent pas toujours traiter avec la même rigueur la disponibilité en lumière naturelle et les interactions diffuses. La complexité des notions abordées et le manque d'outils de simulation en sont sans doute les raisons majeures. Nous proposons donc, en nous appuyant sur des travaux préalables du laboratoire CERMA de l'École d'Architecture de Nantes, le développement d'un nouvel outil logiciel susceptible d'évaluer de manière performante la lumière naturelle au sein du projet architectural et urbain, à partir d'une maquette numérique tridimensionnelle de l'espace étudié. Si certains travaux concernant l'évaluation de la lumière naturelle dans les espaces intérieurs existent déjà, en revanche les espaces extérieurs restent, en dehors d'aspects relatifs à l'ensoleillement, rarement envisagés ; notre premier objectif est donc de considérer indifféremment espaces intérieurs et espaces extérieurs, et de les soumettre de manière globale aux conditions d'éclairement qui résultent de l'ensemble constitué du soleil et de la voûte céleste. Celles-ci sont basées sur des modèles de distribution statistiques. Notre perception de la lumière provenant exclusivement de sa réflexion sur les matériaux, ceux-ci jouent un rôle essentiel dans les échanges entre les différentes surfaces de l'environnement. Le second objectif est donc de prendre en compte ces réflexions complexes, au travers de vitrages éventuellement. Il est atteint en adoptant un traitement informatique s'inspirant de la théorie des échanges radiatifs établie par les thermiciens il y a plus d'un demi-siècle, reprise et instrumentée dans des recherches plus récentes (années 80) sur l'image numérique. En dernier lieu sont proposés quelques exemples d'application dans le domaine lumineux, mettant en évidence les potentialités d'analyse de l'outil développé ; ils sont complétés par les perspectives qu'offrent les modalités de traitement utilisées, notamment dans le champ de la micro-climatologie urbaine.
562

Construction flexible des boucles de contrôles autonomes pour les applications à large échelle

Nzekwa, Russel 05 July 2013 (has links) (PDF)
Les logiciels modernes sont de plus en plus complexes. Ceci est dû en partie à l'hétérogénéité des solutions misent en oeuvre, au caractère distribué des architectures de déploiement et à la dynamicité requise pour de tels logiciels qui devraient être capable de s'adapter en fonction des variations de leur contexte d'évolution. D'un autre coté, l'importance grandissante des contraintes de productivité dans le but de réduire les coûts de maintenance et de production des systèmes informatiques a favorisé l'émergence de nouveaux paradigmes pour répondre à la complexité des logiciels modernes. L'informatique des systèmes autonomes (Autonomic computing) s'inscrit dans cette perspective. Elle se propose entre autres de réduire le coût de maintenance des systèmes informatiques en développant des logiciels dits autonomes, c'est à dire dotés de la capacité de s'auto-gérer moyennant une intervention limité d'un opérateur humain. Toutefois, le développement de logiciels autonomes soulèvent de nombreux défis scientifiques et technologiques. Par exemple, l'absence de visibilité de la couche de contrôle dans les applications autonomes rend difficile leur maintenabilité, l'absence d'outils de vérification pour les architectures autonomes est un frein pour l'implémentation d'applications fiables, enfin, la gestion transparente des propriétés non-fonctionnelles et la traçabilité entre le design et l'implémentation sont autant de défis que pose la construction de logiciels autonomes flexibles. La principale contribution de cette thèse est CORONA. CORONA est un canevas logiciel qui vise à faciliter le développement de logiciels autonomes flexibles. Dans cet objectif, CORONA s'appuie sur un langage de description architecturale qui réifie les éléments qui forment la couche de contrôle dans les systèmes autonomes. CORONA permet l'intégration transparente des propriétés non-fonctionnelles dans la description architecturale des systèmes autonomes. il fournit aussi dans sa chaîne de compilation un ensemble d'outils qui permet d'effectuer des vérifications sur l'architecture des systèmes autonomes. Enfin, la traçabilité entre le design et l'implémentation est assurée par un mécanisme de génération des skeletons d'implémentation à partir d'une description architecturale. Les différentes propriétés de CORONA sont illustrées par trois cas d'utilisation.
563

Méthodologie et outils pour la simulation multiagent dans des univers virtuels

Galland, Stéphane 11 December 2013 (has links) (PDF)
La modélisation de la dynamique des piétons, des cyclistes et des conducteurs de véhicules est d'un grand intérêt théorique et pratique. Au cours des deux dernières décennies, la Recherche dans un large éventail de domaines tels que l'infographie, la physique, la robotique, les sciences sociales, la sécurité et les systèmes de formation a créé des simulations impliquant des individus de type hétérogènes. Deux grands types de simulation d'individus dans un univers virtuel peuvent généralement être distingués selon qu'elles cherchent à atteindre : un haut niveau de réalisme de comportement (simulation pour la sécurité ou les sciences sociales) ou une visualisation de haute qualité (productions de films, de jeux vidéos, d'outils de réalité virtuelle). Dans la première catégorie, les résultats de simulation sont généralement cohérents avec les observations réalisées sur la population réelle et peuvent servir de base à des études théoriques pour l'évaluation et la prévision du comportement des individus. Dans la seconde catégorie, les modèles de comportement ne sont pas la priorité et ne correspondent pas quantitativement au monde réel. Cependant, les individus sont des personnages en 3D entièrement animés et les utilisateurs de l'application peuvent avoir un degré élevé d'interaction avec les éléments de la simulation. Les recherches et les applications récentes tendent à unifier ces deux domaines, en particulier dans le domaine des systèmes de formation où les deux aspects sont nécessaires pour une formation efficace. Dans ce cadre, les systèmes multiagents sont utilisés pour modéliser les populations d'individus. Ils forment un paradigme prometteur pour la conception de logiciels complexes. En effet, ce paradigme propose de nouvelles stratégies pour analyser, concevoir et implémenter de tels systèmes. Les systèmes multiagents sont considérés comme des sociétés composées d'entités autonomes et indépendantes, appelées agents, qui interagissent en vue de résoudre un problème ou de réaliser collectivement une tâche. Les systèmes multiagents peuvent être considérés comme un outil viable pour la modélisation et la simulation de systèmes complexes, et notamment les systèmes de simulation d'individus dans un univers virtuel. Nous proposons un métamodèle organisationnel et holonique permettant de modéliser ces systèmes multiagents. L'approche organisationnelle permet de décomposer le système en unités comportementales appelées rôles. L'approche holonique permet de composer le système en un ensemble d'agents, eux-mêmes, pouvant être décomposés en un ensemble d'agents, et ainsi de suite. Ce métamodèle est utilisé comme la base de notre processus méthodologique, appelé ASPECS, qui guide les scientifiques et les experts d'un domaine dans la modélisation et la construction d'un modèle d'un SMA représentant un système complexe. Sur la base du métamodèle organisationnel et holonique, nous proposons des modèles d'environnement et de groupes d'individus constituant un système de grande échelle spatiale et avec une large population d'individus. Ces modèles sont utilisés pour la simulation d'individus et de foules dans des univers virtuels. L'une des particularités intéressantes de nos modèles est leur conception multiniveau. Nous proposons des modèles de décomposition hiérarchique dynamique pour l'environnement et pour la population. Durant le processus de simulation, il devient alors possible de sélectionner les niveaux permettant d'atteindre le meilleur compromis entre la qualité des résultats produits par la simulation et les performances de calculs pour obtenir ces résultats. Les modèles présentés dans ce mémoire ont été appliqués à la simulation de foule et de trafic dans le cadre de contrats de recherche dont certains sont abordés dans ce document : simulation du réseau urbain de bus de Belfort, simulation de foules dans un centre ville de Belfort, simulation du covoiturage dans les Flandres.
564

Introduction de raisonnement dans un outil industriel de gestion des connaissances

Carloni, Olivier 24 November 2008 (has links) (PDF)
Le travail de thèse présenté dans ce document porte sur la conception d'un service de validation et d'enrichissement d'annotations pour un outil industriel de gestion des connaissances basé sur le langage des Topic Maps (TM). Un tel service nécessitant la mise en oeuvre de raisonnements sur les connaissances, il a été nécessaire de doter le langage des TM d'une sémantique formelle. Ceci a été réalisé par l'intermédiaire d'une transformation réversible des TM vers le formalisme logique des graphes conceptuels qui dispose d'une représentation graphique des connaissances (les TM pouvant facilement en être munie d'une). La solution a été mise en oeuvre dans deux applications, l'une conçue pour la veille médiatique et l'autre pour la promotion de ressources touristiques. Schématiquement, des annotations sont extraites automatiquement des documents selon le domaine concerné (actualité/économie ou tourisme) puis ajoutées à la base de connaissances. Elles sont ensuite fournies au service d'enrichissement et de validation qui les complète de nouvelles connaissances et décide de leur validité, puis retourne à la base de connaissance le résultat de l'enrichissement et de la validation.
565

Ordonnancement des systemes flexibles de production sous contraintes de disponibilite des ressources / Scheduling flexible production systems under resource availability constraints

Azem, Sadia 22 June 2010 (has links)
La majeure partie des travaux sur les problèmes d’ordonnancement se placent dans le contexte où les ressources sont disponibles en permanence. Ce qui en réalité n’est pas toujours le cas. Nous nous plaçons dans le contexte d’indisponibilités connues ; nous nous intéressons plus particulièrement aux problèmes de type job shop avec des périodes d’indisponibilité flexibles et des tâches pouvant éventuellement être interrompues par les périodes d’indisponibilité. L’intégration de ces contraintes rend les problèmes d’ordonnancement nettement plus difficiles à résoudre. La flexibilité que nous considérons peut être relative à au moins l’un des points suivants : déplacement de la période d’indisponibilité dans une fenêtre de temps, modification de la durée de la période d’indisponibilité, interruption d’une tâche par une période d’indisponibilité, ensuite reprise avec une éventuelle pénalité.Dans cette thèse, nous avons proposé des modèles mathématiques pour le problème. En plus de la résolution des problèmes considérés, le but de ces modélisations est de permettre d’analyser l'impact des différentes contraintes et d'évaluer la qualité des méthodes approchées que nous proposons. Ces dernières permettent de construire très rapidement un ordonnancement en se basant sur des règles de priorité. Les solutions sont aussi utilisées pour notre approche basée sur la génération de colonnes. Cette approche s’adapte bien à différents fonctions objectif et permet d'intégrer relativement facilement plusieurs contraintes. De nombreuses expérimentations ont été menées pour valider les méthodes proposées. / In most of the machine scheduling literature, resources are assumed to be continuously available which is not always true. We deal with the context of unavailability known a priori; we are particularly interested in job-shop scheduling problems with flexible unavailability periods and tasks that can eventually be interrupted by unavailability periods. Integrating these constraints increase the complexity of the scheduling problems. We deal with flexibility that is related to at least one of the following points: moving the unavailability period in a time window, modification of the duration of the unavailability period, interruption of a task by an unavailability period, then resumed with a possible penalty.In this thesis, we propose mathematical models for the problem. In addition to the resolution of the considered problems, the aim of this modeling is to allow for the analysis of the impact of different constraints and evaluation of the quality of the approximate methods and the column generation approach we develop. The approximate methods construct in very short time a schedule based on priority rules. The solutions are also used in our column generation approach. This approach adapts well to various objective functions and allows relatively easily for the integration of several constraints. Many experiments have been performed to validate the designed methods.
566

Fonctions du brevet et stratégies d’agents : matériaux pour une économie des systèmes sectoriels de brevets / Functions of the patent and strategies of agents : materials for an economy of the sectoral systems of patent

Bah, Mamadou 25 November 2009 (has links)
Dans un contexte d’économie des connaissances, le brevet est utilisé de différentes manières par les pouvoirs publics et les inventeurs pour l’incitation à l’innovation, la protection et la diffusion des connaissances. Le but est de cette thèse de faire une analyse du système de brevet. Pour ce faire, nous proposons une nouvelle approche du brevet qui prend en compte, les spécificités sectorielles. Nous appelons ainsi cette approche, système sectoriel de brevets. Partant de l’analyse standard fondée sur le principe du « one size fits for all », nous élaborons une grille d’analyse qui tient compte de la nature des connaissances à protéger. Le processus d’apprentissage, la base de connaissances, les opportunités technologiques, la spécificité du savoir et les conditions générales d’appropriation, sont les constitutifs de la grille. Ils permettent de classer les technologies en deux types : technologies complexes et technologies discrètes. De cette classification, nous en déduisons les stratégies et les usages sectoriels de brevets. Nous montrons que, dans les technologies discrètes, cas de la pharmacie et des biotechnologies, les brevets protègent efficacement les inventeurs, et les stratégies de brevets dominantes sont de type fencing, evergreening. Tandis que, pour les technologies complexes, cas de l’électronique et des logiciels, le brevet est considéré comme étant peu efficace. De ce fait, il est complété par d’autres moyens de protection comme la complexité technologique, l’avance technologique, le secret, le copyright, pour lutter contre l’imitation, l’invention autour. Les stratégies de brevets font apparaître des phénomènes de type patent thicket. / In a context of knowledge economy, patents are used in different ways by the government and inventors the incentive for innovation, protection and dissemination of knowledge. The aim of this thesis is to analyze the patent system. To do this, we propose a new approach to the patent which takes into account sectoral specificities. We thus call this approach, sectoral system of patents. Starting from the standard analysis, based on the principle of "one size fits for all", we develop an analytical framework that takes into account the nature of knowledge to protect. The process of learning, knowledge base, technological opportunities, the specificity of knowledge and general conditions of appropriability, are the base of the model. They allow to classify the technologies into two types : complex technologies and discrete technologies. In this classification, we deduce strategies and sectoral uses of patents. We show that in discrete technologies, like the pharmaceutical industry and biotechnologies, patents effectively protect inventors and the dominants types of patent strategies are fencing and evergreening. While for complex technologies, electronics and software, the patent is considered inefficient. Thus, it is supplemented by other means of protection such as technological complexity, technological advance, the secret, copyright, to fight against copying the invention around. The patent strategies reveal phenomena such patent thicket, bulks.
567

Étude du vocabulaire traitant d'un fait d'actualité internationale : cas du dossier nucléaire iranien dans la presse écrite québécoise et française

Horki, Bouchra January 2009 (has links)
Dans le cadre de ce mémoire, nous nous sommes intéressée au vocabulaire utilisé par la presse francophone, à savoir française et québécoise, lorsqu'elle traite d'un fait d'actualité internationale. L'objectif de la présente étude exploratoire est de vérifier si l'information diffusée par la presse écrite quotidienne au Québec, concernant le dossier nucléaire iranien, est différente de celle diffusée par la presse écrite quotidienne française. Cette vérification a été faite à partir d'un corpus de textes publiés par deux quotidiens québécois, La Presse et Le Devoir, et deux quotidiens français, Le Monde et Le Figaro. Le but de notre recherche était de procéder à l'analyse du vocabulaire employé par ces quatre quotidiens lorsqu'ils diffusent l'information touchant le dossier nucléaire iranien. Nous nous sommes intéressée à la sélection et à la distribution des mots-clés composant le discours de ces quotidiens diffusés au Québec et en France. Nous avions posé l'hypothèse suivante : l'information internationale diffusée au public québécois est différente de celle diffusée en France, et cette différence est perceptible par le vocabulaire employé. Pour considérer cette question de recherche, nous avons constitué un corpus composé de tous les articles publiés par deux quotidiens français, Le Figaro et Le Monde, et par deux quotidiens québécois, La Presse et Le Devoir traitant du dossier nucléaire iranien, entre le 14 et le 31 janvier 2006. Ces articles ont été soumis à une analyse statistique textuelle effectuée à l'aide du logiciel Alceste. Le vocabulaire employé pour la diffusion des informations touchant le dossier nucléaire iranien s'est avéré différent dans les quotidiens français et québécois. Ces différences sont effectivement perceptibles par le degré d'importance donnée aux mots constituant ce vocabulaire et par leur distribution dans les textes de chaque quotidien étudié. Notre étude se distingue des démarches d'analyse dans lesquelles la subjectivité du chercheur n'est pas suffisamment contrôlée aux endroits névralgiques du processus de recherche. Grâce à l'analyse statistique des données textuelles appliquée à notre corpus, nous sommes en mesure d'appuyer notre interprétation des textes sur des données factuelles. L'étude de la distribution des formes (mots) dans les textes nous a permis de retracer puis de décrire les différentes tendances inscrites dans un corpus traitant d'un même fait d'actualité. En d'autres termes, cette étude de la distribution des formes nous a permis de mettre en évidence des sous thèmes, des dimensions, des pôles du discours, des tendances préférentielles dans le traitement de la même information. Ainsi, Le Figaro s'est intéressé davantage au volet économique et militaire du dossier iranien; La Presse, à la proposition russe d'enrichir l'uranium iranien sur son propre sol et à l'aspect technique et scientifique de la technologie nucléaire; Le Devoir, aux efforts diplomatiques et à la technologie nucléaire, et enfin, Le Monde, qui s'est particulièrement intéressé au discours de Chirac et à l'inflexion de la doctrine de dissuasion française, a pu rendre compte de toutes les facettes du sujet. Notre hypothèse se confirme donc : l'information, concernant le dossier nucléaire iranien, diffusée au public québécois est différente de celle diffusée en France, et cette différence est perceptible par le vocabulaire employé.
568

Utilisation de la visualisation interactive pour l’analyse des dépendances dans les logiciels

Bouvier, Simon 08 1900 (has links)
La compréhension de la structure d’un logiciel est une première étape importante dans la résolution de tâches d’analyse et de maintenance sur celui-ci. En plus des liens définis par la hiérarchie, il existe un autre type de liens entre les éléments du logiciel que nous appelons liens d’adjacence. Une compréhension complète d’un logiciel doit donc tenir compte de tous ces types de liens. Les outils de visualisation sont en général efficaces pour aider un développeur dans sa compréhension d’un logiciel en lui présentant l’information sous forme claire et concise. Cependant, la visualisation simultanée des liens hiérarchiques et d’adjacence peut donner lieu à beaucoup d’encombrement visuel, rendant ainsi ces visualisations peu efficaces pour fournir de l’information utile sur ces liens. Nous proposons dans ce mémoire un outil de visualisation 3D qui permet de représenter à la fois la structure hiérarchique d’un logiciel et les liens d’adjacence existant entre ses éléments. Notre outil utilise trois types de placements différents pour représenter la hiérarchie. Chacun peut supporter l’affichage des liens d’adjacence de manière efficace. Pour représenter les liens d’adjacence, nous proposons une version 3D de la méthode des Hierarchical Edge Bundles. Nous utilisons également un algorithme métaheuristique pour améliorer le placement afin de réduire davantage l’encombrement visuel dans les liens d’adjacence. D’autre part, notre outil offre un ensemble de possibilités d’interaction permettant à un usager de naviguer à travers l’information offerte par notre visualisation. Nos contributions ont été évaluées avec succès sur des systèmes logiciels de grande taille. / Understanding the structure of software is an important first step in solving tasks of analysis and maintenance on it. However, in addition to the links defined by the hierarchy, there exists another type of links between elements of software that are called adjacency links. A complete understanding of software must take account of all these types of links. Visualization tools are generally effective in helping a developer in his understanding of software by presenting the information in a clear and concise manner. However, viewing these two types of links generate in general a lot of visual clutter, making these visualizations inefficient to provide useful information on these links. We propose in this M.Sc. thesis a 3D visualization tool that can represent both the hierarchical structure of an application and the adjacency relationships between its elements. Our tool uses three different types of layout to represent the hierarchy. Each layout can support efficiently the display of adjacency links. To represent adjacency links, we propose a 3D version of the Hierarchical Edge Bundles algorithm. We also use a metaheuristic algorithm to improve our layouts to further reduce visual clutter in the adjacency links. Moreover, our tool provides a set of interaction possibilities that allows a user to navigate through the information provided by our visualization. Our contributions have been evaluated successfully on large software systems.
569

Intégration de services de raisonnement automatique basés sur les logiques de description dans les applications d’entreprise

Bergeron, Jacques 04 1900 (has links)
Ce mémoire présente un patron d’architecture permettant, dans un contexte orientéobjet, l’exploitation d’objets appartenant simultanément à plusieurs hiérarchies fonctionnelles. Ce patron utilise un reasoner basé sur les logiques de description (web sémantique) pour procéder à la classification des objets dans les hiérarchies. La création des objets est simplifiée par l’utilisation d’un ORM (Object Relational Mapper). Ce patron permet l’utilisation effective du raisonnement automatique dans un contexte d’applications d’entreprise. Les concepts requis pour la compréhension du patron et des outils sont présentés. Les conditions d’utilisation du patron sont discutées ainsi que certaines pistes de recherche pour les élargir. Un prototype appliquant le patron dans un cas simple est présenté. Une méthodologie accompagne le patron. Finalement, d’autres utilisations potentielles des logiques de description dans le même contexte sont discutées. / This master thesis presents a software architectural pattern for use in an object oriented environment to simultaneously access objects in multiple functional hierarchies. A Description Logics (Semantic Web) reasoner is used to classify the objects in the hierarchies. Object creation is simplifed by the use of an ORM - Object Relational Mapper. The pattern effectively allows automatic reasoning procedures to be used in an enterprise application context. All concepts required to understand the architectural pattern and the tools are presented. Usage conditions for the pattern are discussed and research projects are presented to widen the pattern’s applicability. A prototype applying the pattern on a simple problem is presented. A methodology is also presented. Finally, other potential uses of Description Logics based automatic reasoning procedures are discussed.
570

The use of artificial intelligence algorithms to guide surgical treatment of adolescent idiopathic scoliosis

Phan, Philippe 01 1900 (has links)
La scoliose idiopathique de l’adolescent (SIA) est une déformation tri-dimensionelle du rachis. Son traitement comprend l’observation, l’utilisation de corsets pour limiter sa progression ou la chirurgie pour corriger la déformation squelettique et cesser sa progression. Le traitement chirurgical reste controversé au niveau des indications, mais aussi de la chirurgie à entreprendre. Malgré la présence de classifications pour guider le traitement de la SIA, une variabilité dans la stratégie opératoire intra et inter-observateur a été décrite dans la littérature. Cette variabilité s’accentue d’autant plus avec l’évolution des techniques chirurgicales et de l’instrumentation disponible. L’avancement de la technologie et son intégration dans le milieu médical a mené à l’utilisation d’algorithmes d’intelligence artificielle informatiques pour aider la classification et l’évaluation tridimensionnelle de la scoliose. Certains algorithmes ont démontré être efficace pour diminuer la variabilité dans la classification de la scoliose et pour guider le traitement. L’objectif général de cette thèse est de développer une application utilisant des outils d’intelligence artificielle pour intégrer les données d’un nouveau patient et les évidences disponibles dans la littérature pour guider le traitement chirurgical de la SIA. Pour cela une revue de la littérature sur les applications existantes dans l’évaluation de la SIA fut entreprise pour rassembler les éléments qui permettraient la mise en place d’une application efficace et acceptée dans le milieu clinique. Cette revue de la littérature nous a permis de réaliser que l’existence de “black box” dans les applications développées est une limitation pour l’intégration clinique ou la justification basée sur les évidence est essentielle. Dans une première étude nous avons développé un arbre décisionnel de classification de la scoliose idiopathique basé sur la classification de Lenke qui est la plus communément utilisée de nos jours mais a été critiquée pour sa complexité et la variabilité inter et intra-observateur. Cet arbre décisionnel a démontré qu’il permet d’augmenter la précision de classification proportionnellement au temps passé à classifier et ce indépendamment du niveau de connaissance sur la SIA. Dans une deuxième étude, un algorithme de stratégies chirurgicales basé sur des règles extraites de la littérature a été développé pour guider les chirurgiens dans la sélection de l’approche et les niveaux de fusion pour la SIA. Lorsque cet algorithme est appliqué à une large base de donnée de 1556 cas de SIA, il est capable de proposer une stratégie opératoire similaire à celle d’un chirurgien expert dans prêt de 70% des cas. Cette étude a confirmé la possibilité d’extraire des stratégies opératoires valides à l’aide d’un arbre décisionnel utilisant des règles extraites de la littérature. Dans une troisième étude, la classification de 1776 patients avec la SIA à l’aide d’une carte de Kohonen, un type de réseaux de neurone a permis de démontrer qu’il existe des scoliose typiques (scoliose à courbes uniques ou double thoracique) pour lesquelles la variabilité dans le traitement chirurgical varie peu des recommandations par la classification de Lenke tandis que les scolioses a courbes multiples ou tangentielles à deux groupes de courbes typiques étaient celles avec le plus de variation dans la stratégie opératoire. Finalement, une plateforme logicielle a été développée intégrant chacune des études ci-dessus. Cette interface logicielle permet l’entrée de données radiologiques pour un patient scoliotique, classifie la SIA à l’aide de l’arbre décisionnel de classification et suggère une approche chirurgicale basée sur l’arbre décisionnel de stratégies opératoires. Une analyse de la correction post-opératoire obtenue démontre une tendance, bien que non-statistiquement significative, à une meilleure balance chez les patients opérés suivant la stratégie recommandée par la plateforme logicielle que ceux aillant un traitement différent. Les études exposées dans cette thèse soulignent que l’utilisation d’algorithmes d’intelligence artificielle dans la classification et l’élaboration de stratégies opératoires de la SIA peuvent être intégrées dans une plateforme logicielle et pourraient assister les chirurgiens dans leur planification préopératoire. / Adolescent idiopathic scoliosis (AIS) is a three-dimensional deformity of the spine. Management of AIS includes conservative treatment with observation, the use of braces to limit its progression or surgery to correct the deformity and cease its progression. Surgical treatment of AIS remains controversial with respect to not only indications but also surgical strategy. Despite the existence of classifications to guide AIS treatment, intra- and inter-observer variability in surgical strategy has been described in the literature. Technological advances and their integration into the medical field have led to the use of artificial intelligence (AI) algorithms to assist with AIS classification and three-dimensional evaluation. With the evolution of surgical techniques and instrumentation, it is probable that the intra- and inter-observer variability could increase. However, some AI algorithms have shown the potential to lower variability in classification and guide treatment. The overall objective of this thesis was to develop software using AI tools that has the capacity to integrate AIS patient data and available evidence from the literature to guide AIS surgical treatment. To do so, a literature review on existing computer applications developed with regards to AIS evaluation and management was undertaken to gather all the elements that would lead to usable software in the clinical setting. This review highlighted the fact that many applications use a non-descript “black box” between input and output, which limits clinical integration where management based on evidence is essential. In the first study, we developed a decision tree to classify AIS based on the Lenke scheme. The Lenke scheme was popular in the past, but has recently been criticized for its complexity leading to intra and inter-observer variability. The resultant decision tree demonstrated an ability to increase classification accuracy in proportion to the time spent classifying. Importantly, this increase in accuracy was independently of previous knowledge about AIS. In the second study, a surgical strategy rule-based algorithm was developed using rules extracted from the literature to guide surgeons in the selection of the approach and levels of fusion for AIS. When this rule-based algorithm was tested against a database of 1,556 AIS cases, it was able to output a surgical strategy similar to the one undertaken by an expert surgeon in 70% of cases. This study confirmed the ability of a rule-based algorithm based on the literature to output valid surgical strategies. In the third study, classification of 1,776 AIS patients was undertaken using Kohonen Self-Organizing-Maps (SOM), which is a kind of neural network that demonstrates there are typical AIS curve types (i.e: single curves and double thoracic curves) for which there is little variability in surgical treatment when compared to the recommendations from the Lenke scheme. Other curve types (i.e: multiple curves or in transition zones between typical curves) have much greater variability in surgical strategy. Finally, a software platform integrating all the above studies was developed. The interface of this software platform allows for: 1) the input of AIS patient radiographic measurements; 2) classification of the curve type using the decision tree; 3) output of surgical strategy options based on rules extracted from the literature. A comparison of surgical correction obtained by patients receiving surgical treatment suggested by the software showed a tendency to obtain better balance -though non-statistically significant - than those who were treated differently from the surgical strategies outputted by the software. Overall, studies from this thesis suggest that the use of AI algorithms in the classification and selection of surgical strategies for AIS can be integrated in a software platform that could assist the surgeon in the planning of appropriate surgical treatment.

Page generated in 0.055 seconds