• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 6
  • 3
  • Tagged with
  • 29
  • 11
  • 9
  • 8
  • 8
  • 8
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Flexible querying of RDF databases : a contribution based on fuzzy logic / Interrogation flexible de bases de données RDF : une contribution basée sur la logique floue

Slama, Olfa 22 November 2017 (has links)
Cette thèse porte sur la définition d'une approche flexible pour interroger des graphes RDF à la fois classiques et flous. Cette approche, basée sur la théorie des ensembles flous, permet d'étendre SPARQL qui est le langage de requête standardisé W3C pour RDF, de manière à pouvoir exprimer i) des préférences utilisateur floues sur les données (par exemple, l'année de publication d'un album est récente) et sur la structure du graphe (par exemple, le chemin entre deux amis doit être court) et ii) des préférences utilisateur plus complexes, prenant la forme de propositions quantifiées floues (par exemple, la plupart des albums qui sont recommandés par un artiste, sont très bien notés et ont été créés par un jeune ami de cet artiste). Nous avons effectué des expérimentations afin d'étudier les performances de cette approche. L'objectif principal de ces expérimentations était de montrer que le coût supplémentaire dû à l'introduction du flou reste limité/acceptable. Nous avons également étudié, dans un cadre plus général, celui de bases de données graphe, la question de l'intégration du même type de propositions quantifiées floues dans une extension floue de Cypher qui est un langage déclaratif pour l'interrogation des bases de données graphe classiques. Les résultats expérimentaux obtenus montrent que le coût supplémentaire induit par la présence de conditions quantifiées floues dans les requêtes reste également très limité dans ce cas. / This thesis concerns the definition of a flexible approach for querying both crisp and fuzzy RDF graphs. This approach, based on the theory of fuzzy sets, makes it possible to extend SPARQL which is the W3C-standardised query language for RDF, so as to be able to express i) fuzzy user preferences on data (e.g., the release year of an album is recent) and on the structure of the data graph (e.g., the path between two friends is required to be short) and ii) more complex user preferences, namely, fuzzy quantified statements (e.g., most of the albums that are recommended by an artist, are highly rated and have been created by a young friend of this artist). We performed some experiments in order to study the performances of this approach. The main objective of these experiments was to show that the extra cost due to the introduction of fuzziness remains limited/acceptable. We also investigated, in a more general framework, namely graph databases, the issue of integrating the same type of fuzzy quantified statements in a fuzzy extension of Cypher which is a declarative language for querying (crisp) graph databases. Some experimental results are reported and show that the extra cost induced by the fuzzy quantified nature of the queries also remains very limited.
22

Conception et évaluation des méthodes et des systèmes d'aide a la décision pour une médecine personnalisée / Conception and evaluation of methods and decision support systems for personnalized medicine

Douali, Nassim 02 April 2015 (has links)
La sécurité est une première étape essentielle dans l'amélioration de la qualité des soins. Devant l’importance de ces erreurs qui menacent 12 millions de patients aux USA chaque année ; plusieurs travaux ont essayé de trouver des solutions pour réduire les erreurs médicales et les effets indésirables des médicaments : La médecine basée sur la preuve, la médecine personnalisée et les systèmes d’aide à la décision médicale. Les sociétés savantes élaborent de façon périodique des recommandations de bonnes pratiques pour aboutir à instaurer une médecine basée sur la preuve. Ces recommandations sont considérées comme des outils efficaces pour faire pont entre la pratique médicale des praticiens et les preuves scientifiques.La simple diffusion de GBPC n’a qu’un impact limité sur les pratiques cliniques.Plusieurs études ont montré que l’informatisation de ces guides en les intégrant dans le Workflow clinique permet d’améliorer l’adhérence des médecins à ces recommandations. Les guides de bonnes pratiques cliniques ne couvrent pas les caractéristiques individuelles des patients. Un des objectifs d’amélioration des soins et de la réduction des effets indésirables des patients est la personnalisation de la prise en charge. Cette personnalisation nécessite l’utilisation de toutes les informations (cliniques, biologiques, génétiques, radiologiques, sociales..) pour caractériser le profil du patient. Nous avons développé une méthode de raisonnement hybride, CBFCM, capable d’utiliser des connaissances et des données hétérogènes. L’implémentation de la méthode a été faite avec des outils du web sémantique. Nous avons développé un environnement Open Source pour la modélisation et la formalisation des connaissances médicales (recommandations..). Nous avons validé la méthode avec plusieurs études dans le domaine des infections urinaires mais aussi dans d’autres domaines (pneumologie, stéatose hépatique non alcoolique, diabète gestationnel..). L’intégration des données génétiques, cliniques et biologiques nous a permis d’améliorer la prédiction de certaines maladies (NASH). / Several studies have tried to find ways to reduce medical and adverse drug errors:The evidence-based medicine, personalized medicine and clinical decision support systems. Many recommandations are developped periodically to improve a best practices. These recommendations are considered effective tools to bridge between medical practitioners and practice of scientific evidence. The use of the Clinical Practice Guidelines has a limited impact on clinical practice. Several studies showed that the computerization of these guides by integrating them into the clinical workflow improves adherence of physicians to these recommendations.One of the aims of improving care and reducing adverse effects of patients is personalizing care. This customization requires the use of all the information (clinical, biological, genetic, radiological, social..) to characterize the profile of the patient.We have developed a method of hybrid reasoning "Case Based Fuzzy CognitiveMaps" able to use knowledge and heterogeneous data. The implementation of themethod was made with semantic web technologies. We have developed an open source environment for modeling and formalization of medical knowledge.We validated the method with several studies in the field of urinary tract infections,but also in other areas (respiratory, nonalcoholic fatty liver disease, gestational diabetes..). The integration of genetic, clinical and laboratory data have allowed us to improve the prediction of certain diseases (NASH).
23

Susceptibilité du bassin de Barcelonnette (Alpes du Sud, France) aux 'mouvements de versant' : cartographie morphodynamique, analyse spatiale et modélisation probabiliste

Thiery, Yannick 17 December 2007 (has links) (PDF)
Des méthodologies d'analyse spatiale probabiliste fondées sur les SIG ont été développées pour cartographier la susceptibilité et l'aléa aux ‘mouvements de versant' à méso-échelle (1/50 000ème-1/25 000ème), mais peu ou pas à l'échelle du 1/10 000ème, échelle de la cartographie réglementaire des risques. En France, le zonage des PPR est basé sur une approche ‘expert' jugée assez subjective en raison des erreurs d'appréciation de l'expert. Ainsi, cette recherche a pour objectif de tester la validité de méthodes d'analyse spatiale et de modélisations probabilistes à cette échelle du 1/10 000ème. La démarche repose, en complément d'un zonage de type ‘expert', sur la sélection de trois méthodes d'analyse spatiale par SIG fondées sur les Logiques floues, la Théorie de l'évidence et les Régressions logistiques. Ces trois méthodes étant sensibles aux variables à introduire (variables à modéliser et variables prédictives), la procédure comporte trois étapes : acquisition des variables à partir d'une cartographie morphodynamique, choix des variables par une analyse de sensibilité, comparaison des résultats pour déterminer la méthode la plus adaptée. Une néo-variable prédictive ayant un sens ‘géomorphologique' et combinant plusieurs variables augmente la performance de chaque approche. Les meilleurs résultats acquis dans le bassin de Barcelonnette sont transposés sur un site secondaire pour tester leur validité. Un passage vers l'aléa est tenté par des modèles numériques à base physique. Cette thèse montre qu'il est possible d'obtenir des résultats performants à condition d'avoir une procédure de calage rigoureuse et d'introduire une vision experte dans le processus de calcul.
24

CARACTERISATION DE TEXTURES ET SEGMENTATION POUR LA RECHERCHE D'IMAGES PAR LE CONTENU

Hafiane, Adel 12 December 2005 (has links) (PDF)
Dans cette thèse nous avons élaboré puis automatisé une chaîne complète de recherche d'image par le contenu. Ceci nous a permis de définir une "sémantique limitée" relative à la satisfaction de l'utilisateur quant à la réponse du système. Notre approche est locale c'est-à-dire basée sur les régions de l'image. La décomposition en entités visuelles permet d'exhiber des interactions entres celles-ci et du coup faciliter l'accès à un niveau d'abstraction plus élevé. Nous avons considéré plus particulièrement trois points de la chaîne : l'extraction de régions fiables, leur caractérisation puis la mesure de similarité. Nous avons mis au point une méthode de type C-moyennes floues avec double contrainte spatiale et pyramidale. La classification d'un pixel donné est contrainte à suivre le comportement de ses voisins dans le plan de l'image et de ses ancêtres dans la pyramide. Pour la caractérisation des régions deux méthodes ont été proposées basées sur les courbes de Peano. La première repose sur un principe grammatical et la deuxième manipule le spectre par l'utilisation des filtres de Gabor. La signature de l'image requête ou cible consiste en une liste d'entités visuelles. La mesure de similarité entre entités guide l'appariement. Nous avons élaboré une méthode basée sur la mise en correspondance dans les deux sens, requête vers cible et vice versa, afin de donner indépendamment une grande priorité aux éléments qui se préfèrent mutuellement. Chaque partie du système a été testée et évaluée séparément puis ramenée à l'application CBIR. Notre technique a été évaluée sur des images aériennes (et ou satellitaires). Les résultats en terme de "rappel-précision" sont satisfaisants comparé notamment aux méthodes classiques type matrice de co-occurrence des niveaux de gris et Gabor standard. Pour ouvrir sur de futures extensions et montrer la généralité de notre méthode, la conclusion explique sa transposition à la recherche de situations en conduite automobile, au prix d'une adaptation limitée des paramètres.
25

Relations spatiales et raisonnement spatial pour l'interprétation des images d'observation de la Terre utilisant un modèle structurel.

Vanegas Orozco, Maria Carolina 13 January 2011 (has links) (PDF)
L'amélioration de la résolution des images satellites optiques permet de distinguer les différents objets qui composent une scène. Néanmoins il reste difficile d'extraire les caractéristiques ou les régions qui sont pertinentes pour la description d'une scène. L'interprétation de ce type de données requiert donc l'introduction d'outils qui permettent de discriminer les objets d'intérêt du reste de l'image. Dans cette thèse nous proposons des outils de raisonnement spatial qui aident à l'interprétation des images satellites. D'abord nous nous intéressons aux relations spatiales qui peuvent être utiles pour l'interprétation des images satellites. Nous nous concentrons sur les relations spatiales suivantes : entourer, alignement, parallélisme et des relations entre lignes et régions. Pour chacune de ces relations nous introduisons des modèles formels, qui considèrent la sémantique des relations et le leur contexte d'utilisation. Ensuite nous proposons une utilisation des modèles de relations spatiales pour des tâches de haut niveau: nous introduisons un système d'interprétation qui est capable de trouver les instanciations d'un modèle structurel dans une image. Le problème d'interprétation d'une image est formulé comme un problème de satisfaction de contraintes floues. Nous proposons des algorithmes de propagation adaptés aux relations complexes telles que l'alignement, et qui prennent en compte les difficultés de détection des objets dans les images. Ce système a été testé sur des scènes contenant des ports et des aéroports et les résultats montrent l'intérêt d'incorporer cette méthodologie dans un système d'interprétation d'image plus complet.
26

Extraire et valider les relations complexes en sciences humaines : statistiques, motifs et règles d'association

Cadot, Martine 12 December 2006 (has links) (PDF)
Cette thèse concerne la fouille de données en sciences humaines. Cette branche récente de l'intelligence artificielle consiste en un ensemble de méthodes visant à extraire de la connaissance à partir de données stockées sur des supports informatiques. Parmi celles-ci, l'extraction de motifs et de règles d'association est une méthode de traitement des données qui permet de représenter de façon symbolique la structure des données, comme le font les méthodes statistiques classiques, mais qui, contrairement à celles-ci, reste opérationnelle en cas de données complexes, volumineuses. Toutefois ce modèle informatique des données, construit à partir de comptages de cooccurrences, n'est pas directement utilisable par les chercheurs en sciences humaines : il est essentiellement dédié aux données dichotomiques (vrai/faux), ses résultats directs, très morcelés, sont difficiles à interpréter, et sa validité peut paraître douteuse aux chercheurs habitués à la démarche statistique. Nous proposons des techniques que nous avons construites puis expérimentées sur des données réelles dans le but de réduire les difficultés d'utilisation que nous venons de décrire : 1) un test de randomisation à base d'échanges en cascade dans la matrice sujets x propriétés permet d'obtenir les liaisons statistiquement significatives entre deux propriétés, 2) une extension floue de la méthode d'extraction classique des motifs, qui produit des règles d'association floues généralisant les règles binaires et proches des règles floues définies par les chercheurs poursuivant les travaux de Zadeh, 3) MIDOVA, un algorithme extrayant les interactions n-aires entre variables - problème peu connu, peu abordé en informatique, et abordé avec de fortes limitations en statistiques - et 4) des méta-règles pour nettoyer le jeu de règles d'association de ses principales contradictions et redondances.
27

Temporal planning with fuzzy constraints and preferences / Planification temporelle avec les contraintes floues et préférences

Jobczyk, Krystian 19 December 2017 (has links)
La planification temporelle constitue conceptuellement une partie du raisonnement temporelle et il appartient au domaine de recherche de l'intelligence artificielle. La planification temporelle peut être considérée comme une extension de la planification classique par les aspects temporels de l'action. La planification temporelle est généralement complété par des préférences ou des types différents decontraintes imposées à l'exécution des actiones. Il existe de nombreuses approches à ce problème. D'une part, il existe différents paradigmes pour la planification temporelle, par example: la planification par un recherche d'une solution optimale dans des graphes de planification (STRIPS), la planification via la satisfiabilité ou la planification pardes processus de Markov. Ces approches sont mutuellement incompatibles. D'autre part, la planification temporelle exige une sujet-spécification – comme il est défini d'une manière méthodologique. Selon cette situation, cette thèse vise à proposer une analyse approfondi de la planification avec des contraintes floues qui contient quelques remèdes à ces difficultés. À savoir, deux approches à la représentation et la modélisation de ces questions sont mises.Dans la première (chapitre 2, chapitre 3) - les relations floues d'Allen en tant que contraintes temporelles floues sont représentés par des normes de convolutions dans un espace de Banach des fonctions intégrables de Lebesgue. Cela nous permet de nous immergerles relations d'Allen dans les contextes computationnels de la planification temporelle (basée sur STRIPS et sur la procedure de Davis-Putnam) et d'élucider leur nature quantitative. Cette approche est développée dans un contexte des problèmes par systèmes multi-agents comme un sujet de cette approche. Dans les chapitres 4 et 5 les contraintes temporelles floues avec flou – introduit par préférences - sont représentées en termes logiques de la logique préférentielle de Halpern-Shoham. Cela nous permet d'adopter ces resultats dans une construction du contrôleur du plan. Cette approche est développée dans un contexte du problème du voyageur de commerce. Enfin, une tentative de réconcilier ces deux lignes de représentation des contraintes temporelles floues a été proposée dans le dernier chapitre. / Temporal planning forms conceptually a part of temporal reasoning and it belongs to research area of Artificial Intelligence and it may be seen as an extension of classical planning by temporal aspects of acting. Temporal planing is usually complemented by considering preferences or different types of temporal constraints imposed on execution of actions. There exist many approaches to this issue. One one hand, there are different paradigms to temporal planning, such as: planning via search in graphs (STRIPS), planning via satisfiability or planning in terms of Markov processes. These approaches are mutually incompatible. In addition, temporal planning requires a subject-specification as it is rather defined in a methodological way. On the other hand, temporal constraints are represented and modeled in different ways dependently on their quantitative or qualitative nature. In particular, Allen’s relations between temporal intervals – an important class of temporal constraints – do not have any quantitative aspects and cannot be considered in computational contexts. According to this situation, this PhD-thesis is aimed at the proposing a depth-analysis of temporal planning with fuzzy constraints which contains some remedies on these difficulties. Namely, two approaches to the representation and modeling of these issues are put forward. In the first one (chapter 2, chapter 3) – fuzzy Allen’s relations as fuzzy temporal constraints are represented by norms of convolutions in a Banach space of Lebesgue integrable functions. It allows us immerse Allen’s relations in the computational contexts of temporal planning (based on STRIPS and on DavisPutnam procedure) and to elucidate their quantitative nature. This approach is developed in a context of Multi-Agent Problem as a subject basis of this approach. In the second one (chapter 4, chapter 5) – fuzzy temporal constrains with fuzziness introduced by preferences are represented in a logical terms of Preferential Halpern-Shoham Logic. It allows us to adopt these result in a construction of the plan controller. This approach is developed in a context of Temporal Traveling Salesman Problem as a subject basis of this approach. Finally, an attempt to reconcile these two lines of representation of fuzzy temporal constraints was also proposed.
28

Agrégation de relations valuées par la méthode de Borda, en vue d'un rangement: considérations axiomatiques

Marchant, Thierry 15 October 1996 (has links)
<p align="justify">Depuis 20 à 30 ans, l'aide multicritère à la décision est apparue. L'expansion de cette nouvelle discipline s'est marquée dans la littérature essentiellement par un foisonnement de nouvelles méthodes multicritères d'aide à la décision et par des applications de celles-ci à des problèmes "réels". Pour la plupart de ces méthodes, il n'y pas ou peu de fondements théoriques. Seul le bon sens a guidé les créateurs de ces méthodes.</p><p><p align="justify">Depuis une dizaine d'années, le besoin de bases théoriques solides se fait de plus en plus sentir. C'est dans cette perspective que nous avons réalisé le présent travail. Ceci étant dit, nous n'allons pas vraiment nous occuper de méthodes multicritères à la décision dans ce travail, mais seulement de fragments de méthodes. En effet, les méthodes multicritères d'aide à la décision peuvent généralement être décomposées en trois parties (outre la définition de l'ensemble des alternatives et le choix des critères):</p><p><p align="justify"><ol><li>Modélisation des préférences: pendant cette étape, les préférences du décideur sont modélisées le long de chaque critère.<p><li>Agrégation des préférences: un modèle global de préférences est construit au départ des modèles obtenus critère par critère à la fin de la phase précédente.<p><li>Exploitation des résultats de l'agrégation: du modèle global de préférences issu de la phase 2, on déduit un choix, un rangement, une partition, selon les besoins.</ol></p><p><p align="justify">Jusqu'à présent, à cause de la difficulté du problème, peu de méthodes ont été axiomatisées de bout en bout; la plupart des travaux ne s'intéressent qu'à une ou deux des trois étapes que nous venons de décrire.</p><p><p align="justify">Nous nous sommes intéressés à une méthode bien connue: la méthode de Borda. Elle accepte comme données de départ des relations binaires. Elle intervient donc après la phase de modélisation des préférences. Le résultat de cette méthode est un rangement. Elle effectue donc les opérations correspondant aux étapes 2 et 3. Dans la suite de ce travail nous appellerons méthode de rangement toute méthode effectuant les étapes 2 et 3 pour aboutir à un rangement. Etant donné que les méthodes de rangement, celle de Borda en particulier, sont utilisées également en choix social, nous puiserons abondamment dans le vocabulaire, les outils et les résultats du choix social. Les résultats présentés seront valides en choix social, mais nous nous sommes efforcés de les rendre aussi pertinents que possible en aide multicritère à la décision.</p><p><p align="justify">Dans le chapitre II, après quelques définitions et notations, nous présentons quelques méthodes de rangement classiques, y compris la méthode de Borda, et quelques résultats majeurs de la littérature. Nous généralisons une caractérisation des méthodes de scorage due à Myerson (1995).</p><p><p align="justify">Nous nous tournons ensuite vers les relations valuées. La raison en est la suivante: elles sont utilisées depuis longtemps dans plusieurs méthodes multicritères et, depuis peu, elles le sont aussi en choix social (p.ex. Banerjec 1994) car elles permettent de modéliser plus finement les préférences des décideurs confrontés à des informations incertaines, imprécises, contradictoires, lacunaires, Nous commençons donc le chapitre III par des notations et définitions relatives aux relations valuées.</p> <p align="justify">Ensuite, nous présentons quelques méthodes de rangement opérant au départ de relations valuées. C'est-à-dire des méthodes de rangement qui agissent non pas sur des relations nettes, mais sur des relations valuées et qui fournissent comme précédemment un rangement des alternatives. N'ayant trouvé dans la littérature aucune méthode de ce type, toutes celles que nous présentons sont neuves ou des généralisations de méthodes existantes; comme par exemple, les méthodes de scorage généralisées, que nous caractérisons en généralisant encore une fois le résultat de Myerson.</p><p><p align="justify">Nous présentons enfin ce que nous appelons la méthode de Borda généralisée, qui est une des généralisations possibles de la méthode de Borda au cas valué. Nous basant sur un article de Farkas et Nitzan (1979), nous montrons que contrairement à ce qui se passait dans le cas particulier envisagé par Farkas et Nitzan (agrégation d'ordres totaux), la méthode de Borda généralisée (et sa particularisation au cas net) n'est pas toujours équivalente à la méthode proximité à l'unanimité. Cette dernière méthode classe chaque alternative en fonction de l'importance des changements qu'il faudrait faire subir à un ensemble de relations pour que l’alternative considérée gagne à l'unanimité. Nous identifions quelques cas où l'équivalence est vraie.</p><p><p align="justify">Ensuite, nous reprenons un résultat de Debord (1987). Il s'agit d'une caractérisation de la méthode de Borda en tant que méthode de choix appliquée à des préordres totaux. Nous la généralisons de deux façons au cas de la méthode de Borda en tant que méthode de rangement appliquée à des relations valuées. Lorsqu'on applique la méthode de Borda, on est amené à calculer une fonction à valeurs réelles sur l'ensemble des alternatives.</p><p><p align="justify">La valeur prise par cette fonction pour une alternative s'appelle le score de Borda de cette alternative. Ensuite, on range les alternatives par ordre décroissant de leur score de Borda. La tentation est grande - et beaucoup y succombent (peut-être avec raison) d'utiliser le score de Borda non seulement pour calculer le rangement mais aussi pour estimer si l'écart entre deux alternatives est important ou non (voir par exemple Brans 1994). Cette approche n'a, à notre connaissance, jamais été étudiée d'un point de vue théorique. Nous présentons deux caractérisations de la méthode de Borda utilisée à cette fin.</p><p><p align="justify">Dans la dernière partie du chapitre III, nous abandonnons la démarche qui visait à caractériser une méthode par un ensemble de propriétés le plus petit possible. Nous comparons 12 méthodes sur base d'une vingtaine de propriétés. Les résultats de cette partie sont résumés dans quelques tableaux.</p><p><p align="justify">Ce travail aborde donc la méthode de Borda et sa généralisation au cas valué sous différents angles. Il livre une série de résultats qui, espérons-le, devraient permettre de mieux comprendre la méthode de Borda et peut-être de l'utiliser à meilleur escient. Toutefois, quoique notre objectif ait été de présenter des résultats pertinents en aide multicritère à la décision (et nous avons fait des progrès dans ce sens), il reste du chemin à faire. Nous sommes probablement encore trop proche du choix social. Ceci constitue donc une voie de recherche intéressante, de même que l'étude d'autres méthodes de rangement et l'étude de méthodes complètes d'aide multicritère à la décision: modélisation du problème (identification du ou des décideur(s), des alternatives et des critères), modélisation des préférences, agrégation des préférences et exploitation des résultats de l'agrégation.</p><p><p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
29

GPU-enhanced power flow analysis / Calcul de Flux de Puissance amélioré grâce aux Processeurs Graphiques

Marin, Manuel 11 December 2015 (has links)
Cette thèse propose un large éventail d'approches afin d'améliorer différents aspects de l'analyse des flux de puissance avec comme fils conducteur l'utilisation du processeurs graphiques (GPU). Si les GPU ont rapidement prouvés leurs efficacités sur des applications régulières pour lesquelles le parallélisme de données était facilement exploitable, il en est tout autrement pour les applications dites irrégulières. Ceci est précisément le cas de la plupart des algorithmes d'analyse de flux de puissance. Pour ce travail, nous nous inscrivons dans cette problématique d'optimisation de l'analyse de flux de puissance à l'aide de coprocesseur de type GPU. L'intérêt est double. Il étend le domaine d'application des GPU à une nouvelle classe de problème et/ou d'algorithme en proposant des solutions originales. Il permet aussi à l'analyse des flux de puissance de rester pertinent dans un contexte de changements continus dans les systèmes énergétiques, et ainsi d'en faciliter leur évolution. Nos principales contributions liées à la programmation sur GPU sont: (i) l'analyse des différentes méthodes de parcours d'arbre pour apporter une réponse au problème de la régularité par rapport à l'équilibrage de charge ; (ii) l'analyse de l'impact du format de représentation sur la performance des implémentations d'arithmétique floue. Nos contributions à l'analyse des flux de puissance sont les suivantes: (ii) une nouvelle méthode pour l'évaluation de l'incertitude dans l'analyse des flux de puissance ; (ii) une nouvelle méthode de point fixe pour l'analyse des flux de puissance, problème que l'on qualifie d'intrinsèquement parallèle. / This thesis addresses the utilization of Graphics Processing Units (GPUs) for improving the Power Flow (PF) analysis of modern power systems. Currently, GPUs are challenged by applications exhibiting an irregular computational pattern, as is the case of most known methods for PF analysis. At the same time, the PF analysis needs to be improved in order to cope with new requirements of efficiency and accuracy coming from the Smart Grid concept. The relevance of GPU-enhanced PF analysis is twofold. On one hand, it expands the application domain of GPU to a new class of problems. On the other hand, it consistently increases the computational capacity available for power system operation and design. The present work attempts to achieve that in two complementary ways: (i) by developing novel GPU programming strategies for available PF algorithms, and (ii) by proposing novel PF analysis methods that can exploit the numerous features present in GPU architectures. Specific contributions on GPU computing include: (i) a comparison of two programming paradigms, namely regularity and load-balancing, for implementing the so-called treefix operations; (ii) a study of the impact of the representation format over performance and accuracy, for fuzzy interval algebraic operations; and (iii) the utilization of architecture-specific design, as a novel strategy to improve performance scalability of applications. Contributions on PF analysis include: (i) the design and evaluation of a novel method for the uncertainty assessment, based on the fuzzy interval approach; and (ii) the development of an intrinsically parallel method for PF analysis, which is not affected by the Amdahl's law.

Page generated in 0.089 seconds