• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 44
  • 5
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 55
  • 11
  • 9
  • 8
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

La ville d'Antioche à l'époque Ottomane : (depuis la conquête de la Syrie par Sélim I en 1516)

Yapicioğlu, Can 13 December 2012 (has links)
La ville d'Antioche fut parmi les villes qui aspiraient une prédominance à la culture, à l'éloquence, à l'enseignement, à l'art mais aussi à l'artisanat et au commerce. Un lieu privilégié de la rencontre avec le reste du monde hellénique et, en même temps, la porte de l'Asie profonde, une ville puissante du Proche-Orient, une base administrative et militaire de premier ordre.Le but est de décrire une ville ottomane formée de quelques quartiers, sa campagne, sa population hétérogène qui vivent essentiellement de l'agriculture, de l'artisanat et du commerce. Une situation décrite dans les registres ottomans conçus au départ pour recenser les foyers fiscaux, les lieux habités, les activités de la population et la production locale, afin de fixer les impôts à récolter. Ce travail est renforcé par des récits de voyage qui décrivent une situation différente, mélancolique et nostalgique à la fois. L'intérêt est de peindre un tableau de la ville tout en essayant de comprendre sa viabilité dans l'espace ottoman. Associés aux sources ottomanes, les textes des voyageurs sont précieux pour un rapprochement des éléments essentiels de l'histoire de la ville.Enfin, pour mieux comprendre la situation de la ville à l'époque ottomane, survoler l'époque mamelouk nous est indispensable. Nous avons ajouté un chapitre sur la chute de la Principauté latine d'Antioche, la division administrative de la Syrie du Nord, la description de la ville par les chroniques et récits de voyage, les bouleversements et la situation générale sous les Mamelouks. Ce chapitre sert de guide afin de tracer un tableau fidèle et jeter la lumière sur une foule de points demeurés obscurs. / The city of Antioch was among the cities that aspired to a predominance culture, eloquence, education, art, but also crafts and trade. A privileged place of encounter with the rest of the Hellenic world, and at the same time, the door of deep Asia, a powerful city of the Middle East, administrative and military order first base.Meanwhile, this work is enhanced by travel stories that describe a different, melancholic and nostalgic at the same time position. The advantage of this formula is to paint a picture of the city while trying to understand the viability of the Ottoman space. Associated with the Ottoman sources, the texts of travelers are valuable for a reconciliation of the essential elements of the history of the city.In this thesis, the goal is not to show again the saga of the metropolis, but to describe an Ottoman town consisted of a few neighborhoods, countryside, its heterogeneous population that lives mainly on agriculture, crafts and trade. A situation described in the Ottoman records originally designed to identify tax households, populated places, the activities of the local population and production, to set taxes to collect.Finally, to better understand the situation of the city in the Ottoman era, fly over the previous period, the Mamluk era, is indispensable. That is why we have added a chapter on the fall of the Latin Principality of Antioch, the administrative division of the northern Syria, the description of the city and tales from travel disruption and the general situation in the Mamluks. This chapter, we consider it useful and interesting to our thesis serves as a guide to draw a fair and shed light on a host of issues remained unclear.
12

Ingénierie des connaissances pour l’épidémiologie et l’aide à la décision en santé publique : Analyse des besoins potentiels et expérimentations dans le contexte du registre français des maladies rénales / Knowledge engineering for epidemiology and decision making in public healthepidemiology : Analysis of needs and experimentations in the context of the French registry of kidney disease

Belhadj, Ihssen 01 December 2014 (has links)
Construire des terminologies de maladies est un enjeu majeur dans le développement des systèmes d’information épidémiologiques et d’aide à la décision de santé publique qui soient efficients et durables. A partir du contexte du registre français de l'Insuffisance Rénale Terminale, une analyse des besoins de représentation des termes de maladies a été réalisée mettant en évidence le problème aigu et occulté de continuité statistique dans les bases de données et de connaissances. La « continuité terminologique » est proposée comme une réponse au besoin de continuité statistique. Une méthode générative de construction de Ressources Termino-Ontologiques a été conçue et expérimentée. Plutôt que de s’intéresser à l’ensemble des termes qui sont nécessaires pour décrire un domaine, nous nous sommes concentré uniquement sur la modélisation d'un sous ensemble de connaissances élémentaires sur les maladies. Cette méthode générative produit simultanément des termes normalisés (Nomenclature artificielle) et leur représentation sémantique/conceptuelle formelle se basant sur le formalisme des Graphes Conceptuels (GC). Les opérations de généralisation/spécialisation des GC sont utilisées pour déduire l’organisation poly-hiérarchique La continuité terminologique doit être considéré comme étant un critère majeur dans la construction de terminologies de maladies au même titre que la couverture terminologique. Les approches génératives contribuent à améliorer la continuité terminologique, car elles imposent cette contrainte de créer chaque nouveau terme sur des bases formelles avec des propriétés définitoires nécessairement sémantiquement définis dans une ontologie existante. / Expressing terms referring to pathological conceptualization is an important issue toward the development of clinical research and public health decision support systems. From the context of the French Registry of End Stage Renal Disease, requirements for disease terms representation are anlysed highlighting the acute and hidden problem of statistical continuity in disease data and knowledge representation. The underpinned assumption relies on the idea of ensuring terminological continuity through agenerative method of building Ontology Based Terminological systems. Rather than looking at all the terms that are necessary to describe a domain, we focused solely on the modeling of basic and definitional knowledge about disease. A set ontological rules for diseases hierachies were defined. Eperiments have been designed and implemented taking advantage of GC formalism and a logic programming toll called prolog-GC. The results confimed that such method allow performing two major activities that are carried out in the conventional building process of medical terminologies : refinement of disease terms granularity and consistency improvement. Terminological continuity needs to be considered as major criteria in disease terminological building. Generative approaches helps to improve the terminological continuity as imposes to create news terms of the bases of existing ones formal definitions.
13

Exploration des liens entre la synthèse de haut niveau (HLS) et la synthèse au niveau transferts de registres (RTL)

VIJAYARAGHAVAN, V. 29 December 1996 (has links) (PDF)
Le sujet traité dans cette thèse, concerne les liens entre la synthèse de haut niveau (HLS: High Level Synthesis) et la synthèse au niveau transfert de registres (RTL: Register Transfer Level). Il s'agit d'une adaptation de l'architecture résultat de la synthèse de haut niveau par transformation en une description (au niveau) RTL acceptée par les outils industriels actuels. Les objectifs visés par cette transformation, sont: accroître la flexibilité et l'efficacité, permettre la paramétrisation de l'architecture finale. A partir d'une description comportamentale décrite dans un language de description de materiel (la synthèse de haut niveau) génère une architecture au niveau transfert de registres, comprenant un contrôleur et un chemin de données. Le contrôleur et le chemin de données peuvent être synthétisés par des outils de synthèse RTL et logique existant pour réaliser un ASIC ou un FPGA. Cependant, pour des raisons d'efficacité, il est préférable de synthétiser le chemin de données par un compilateur de chemin de données. Nous allons dans un premier temps concevoir une méthode que nous appelerons personnalisation. Elle permet aux concepteurs d'adapter l'architecture générée aux outils de synthèse RTL et à toute structure particulière requise. Ensuite, nous définirons une méthode appelée Décomposition. Cette dernière fournira un moyen de décomposer un chemin de données en plusieurs sous chemins de données réguliers, pouvant être synthetisés de manière efficace par un compilateur de chemin de données. Enfin, nous présenterons la génération de chemins de données génériques, destinés à la réalisation d'architectures paramétrables au niveau RTL. Cet algorithme a été implanté dans le generateur de code VHDL à partir de la structure de données intermédiaire utilisée par AMICAL, un outil de synthèse de haut niveau.
14

Étude des problèmes de <i>spilling</i> et <i>coalescing</i> liés à l'allocation de registres en tant que deux phases distinctes

Bouchez, Florent 30 April 2009 (has links) (PDF)
Le but de l'allocation de registres est d'assigner les variables d'un programme aux registres ou de les " spiller " en mémoire s'il n'y a plus de registre disponible. La mémoire est bien plus lente, il est donc préférable de minimiser le spilling. Ce problème est difficile il est étroitement lié à la colorabilité du programme. Chaitin et al. [1981] ont modélisé l'allocation de registres en le coloriage du graphe d'interférence, qu'ils ont prouvé NP-complet, il n'y a donc pas dans ce modèle de test exact qui indique s'il est nécessaire ou non de faire du spill, et si oui quoi spiller et où. Dans l'algorithme de Chaitin et al., une variable spillée est supprimée dans tout le programme, ce qui est inefficace aux endroits où suffisamment de registres sont encore disponibles. Pour palier ce problème, de nombreux auteurs ont remarqué que l'on peut couper les intervalles de vie des variables grâce à l'insertion d'instructions de copies, ce qui crée des plus petits intervalles et permet de spiller les variables sur des domaines plus réduits. La difficulté est alors de choisir les bons endroits où couper les intervalles. En pratique, on obtient de meilleurs résultats si les intervalles sont coupés en de très nom- breux points [Briggs, 1992; Appel and George, 2001], on attend alors du coalescing qu'il enlève la plupart de ces copies, mais s'il échoue, le bénéfice d'avoir un meilleur spill peut être annulé. C'est pour cette raison que Appel and George [2001] ont créé le " Coalescing Challenge ". Récemment (2004), trois équipes ont découvert que le graphe d'interférence d'un programme sous la forme Static Single Assignment (SSA) sont cordaux. Colorier le graphe devient alors facile avec un schéma d'élimination simpliciel et la communauté se demande si SSA simplifie l'allocation de registres. Nos espoirs étaient que, comme l'était le coloriage, le spilling et le coalescing deviennent plus facilement résolubles puisque nous avons à présent un test de coloriage exact. Notre premier but a alors été de mieux comprendre d'où venait la complexité de l'allocation de registres, et pourquoi le SSA semble simplifier le problème. Nous sommes revenus à la preuve originelle de Chaitin et al. [1981] pour mettre en évidence que la difficulté vient de la présence d'arcs critiques et de la possibilité d'effectuer des permutations de couleurs ou non. Nous avons étudié le problème du spill sous SSA et différentes versions du problème de coalescing : les cas généraux sont NP-complets mais nous avons trouvé un résultat polynomial pour le coalescing incrémental sous SSA. Nous nous en sommes servis pour élaborer de nouvelles heuristiques plus efficaces pour le problème du coalescing, ce qui permet l'utilisation d'un découpage agressif des intervalles de vie. Ceci nous a conduit à recommander un meilleur schéma pour l'allocation de reg- istres. Alors que les tentatives précédentes donnaient des résultats mitigés, notre coa- lescing amélioré permet de séparer proprement l'allocation de registres en deux phases indépendantes : premièrement, spiller pour réduire la pression registre, en coupant po- tentiellement de nombreuses fois ; deuxièmement, colorier les variables et appliquer le coalescing pour supprimer le plus de copies possible. Ce schéma devrait être très efficace dans un compilateur de type agressif, cepen- dant, le grand nombre de coupes et l'augmentation du temps de compilation nécessaire pour l'exécution du coalescing sont prohibitifs à l'utilisation dans un cadre de com- pilation just-in-time (JIT). Nous avons donc créé une nouvelle heuristique appelée " déplacement de permutation ", faite pour être utilisée avec un découpage selon SSA, qui puisse remplacer notre coalescing dans ce contexte.
15

Anàlisi comunicativa i pragmàtica dels registres d’infermeria

Tarruella i Farré, Mireia 21 March 2012 (has links)
Aquest treball presenta una anàlisi de les pràctiques discursives que els professionals d’infermeria empren en la documentació clínica. La recerca aplica conceptes de pragmàtica en aspectes de la dixi i d’enunciats de caire referencial, entre altres elements discursius. L’elaboració del corpus documental ACOPRI, nom que deriva de l’acrònim de Anàlisi COmunicativa i Pragmàtica de Registres d’Infermeria ha estat el pas previ indispensable per poder dur a terme l’anàlisi. El corpus ACOPRI consta de 1320 enunciats procedents de fulls d’observacions d’infermeria recopilats a nou centres sanitaris. En aquesta memòria es recullen finalment propostes pel que fa als usos expressius, pel que fa a la llegibilitat, a l’eficàcia informativa i a la seguretat jurídica. Els requeriments legals i professionals dels registres professionals sanitaris és el que situa el context d’aplicació de l’anàlisi. El discurs professional elaborat lliurement evidencia elements i expressions que poden ser analitzades a partir de conceptes de la perspectiva pragmàtica i de la teoria de la comunicació. Aquest marc teòric proporciona la fonamentació científica de l’anàlisi i permet argumentar propostes de millora de l’escriptura professional que repercuteixen en la visió de la professió, del professional i de les persones ateses. Aquests escrits, entesos com a actes comunicatius, informen de la visió que el professional té d’un mateix i de l’entorn. L’emissor, el destinatari, el referent, el context, elements díctics i la informació pragmàtica i la interpretació són elements teòrics de l’estudi. L’aplicació d’aquests als escrits professionals i la informació que això proporciona permet valorar la relació entre el professional i l’usuari i entre el professional i l’entorn, la concepció del temps i l’espai de l’emissor i l’acompliment d’aspectes legals. La seguretat tant del pacient com de l’usuari, a través de l’anàlisi dels registres és, també, un dels objectius de l’estudi. Identificar algunes locucions i unitats lèxiques molt emprades però que la seva interpretació no està consensuada és el pas previ per a poder elaborar propostes d’estandardització de les mateixes. Algunes d’aquestes unitats lèxiques responen a abreviatures i sigles. Aquest és un treball interdisciplinar, en el qual la infermeria i la pragmàtica es nodreixen mútuament. La perspectiva pragmàtica aporta el fonament teòric per a l’anàlisi d’uns textos que els professionals d’infermeria tenen l’obligació legal i professional d’escriure. L’anàlisi de la comunicació escrita infermera des de la pragmàtica fonamenta científicament els resultats. La consideració d’elements pragmàtics com la intenció comunicativa o les possibilitats d’interpretació en el moment de l’escriptura mostra les possibilitats d’interrelació entre ambdues disciplines. Aquesta tesi doctoral, mitjançant una nova perspectiva d’anàlisi, intenta aportar propostes per a la millora de la comunicació escrita de la professió infermera i proposa una reflexió per part dels professionals sobre la visualització de la professió a través dels escrits. / This thesis presents an analysis of discursive practices that nursing professionals use in clinical documentation. Research applies pragmatic concepts to aspects of deixis and statements of referential nature, among other discursive elements. This study is based on 1320 statements proceeding from nursing observation sheets compiled at nine health centres that comprise the linguistic corpus ACOPRI. The legal and professional requirements of the professional health records are what set the application context of the analysis. The professional discourse developed freely evidences elements and expressions that can be analyzed from concepts of the pragmatic perspective and the theory of communication. This theoretical framework provides the scientific foundation of the analysis and it allows to reason improvement proposals of professional writing that have an impact in the vision of the profession, the professional and the people attended. These writings, understood as communicative acts, inform about the vision that the professional has of himself and the environment. The issuer, the recipient, the referent, the context, deictic elements, pragmatic information and interpretation are theoretical elements of the study. The application of these to professional writings and the information that this provides allows evaluating the relationship between the professional and the user and between the professional and the environment, the conception of time and space of the issuer and the accomplishment of legal aspects. The safety of both patient and user, through the analysis of the records is, also, one of the objectives of the study and standardization proposals are developed of some commonly used expressions and abbreviations and acronyms. This is an interdisciplinary work, in which nursing and pragmatism nourish each other. The pragmatic perspective provides the theoretical foundation for the analysis of texts that professional nurses have the legal and professional obligation to write. The analysis of written nursing communication from pragmatism bases scientifically the results. This PhD thesis, by means of a new analytical perspective, attempts to provide proposals for the improvement of written communication of the nursing profession and it proposes a reflection on behalf of the professionals on the visualization of the profession through its writings.
16

ARTICULATION DES REGISTRES GRAPHIQUE ET SYMBOLIQUE POUR L'ETUDE DES EQUATIONS DIFFERENTIELLES AVEC CABRI GEOMETRE. Analyse des difficultés des étudiants et du rôle du logiciel

Moreno Gordillo, Julio Antonio 02 May 2006 (has links) (PDF)
L'enseignement des équations différentielles privilégie l'approche algébrique, malgré l'existence des approches numérique et qualitative. Dans l'approche algébrique le lien entre les registres symbolique et graphique est quasi inexistant, et il passe éventuellement par l'expression symbolique des solutions. En revanche, l'approche qualitative requiert d'une interaction forte entre ces registres, ce qui demande la mobilisation de connaissances de divers cadres : fonctions, géométrie analytique, analyse, etc. Cette interaction nécessite des raisonnements sur des fonctions dont on ne connaît pas l'expression symbolique. Les efforts actuels pour changer le paradigme algébrique dominant font appel aux outils informatiques. Or, des logiciels comme Cabri Géomètre permettent de créer des contextes d'exploration de phénomènes graphiques liés aux équations différentielles. Notre étude porte sur les difficultés des étudiants de CAPES à construire des liens entre les registres graphique et symbolique, ainsi que les apports du logiciel pour développer ces liens. Au chapitre 1, nous passons en revue quelques travaux de référence. A l'aide de certains outils théoriques, nous clarifions la problématique pour articuler ces registres. Puis, nous étudions les potentialités du logiciel pour l'étude des équations différentielles. Au chapitre 2, nous présentons le dispositif expérimental conçu pour vérifier nos hypothèses. Nous consacrons ensuite deux chapitres à l'étude des expériences réalisées. Au chapitre 5, nous tirons un bilan de ces expériences et nous exposons les difficultés rencontrées par les étudiants, ainsi que les apports du logiciel. Enfin, nous concluons en revenant sur les questions initiales, et sur les éléments de réponse, avant de proposer les perspectives de notre travail.
17

INTEGRATION DE LA GEOMETRIE DYNAMIQUE DANS L'ENSEIGNEMENT DE LA GEOMETRIE POUR FAVORISER UNE LIAISON ECOLE PRIMAIRE-COLLEGE : UNE INGENIERIE AU COLLEGE SUR LA NOTION DE PROPRIETE.

Coutat, Sylvia 24 October 2006 (has links) (PDF)
Cette recherche s'intéresse à l'apprentissage de la notion de propriété géométrique en début de collège en tant que relation de subordination entre les contraintes (données) et une conclusion. Les choix dans la structure de cet enseignement reposent sur un travail de distinction entre les données et la conclusion dans un énoncé. Cette distinction est nécessaire pour le réinvestissement des propriétés dans le raisonnement déductif. A partir des travaux de Vygotsky sur la médiation sémiotique et les travaux de Rabardel et Trouche sur l'instrumentation, nous avons conçu des situations didactiques intégrant un logiciel de géométrie dynamique, pour introduire la notion de propriété. L'outil déplacement du logiciel est utilisé pour réaliser les données d'une propriété. Les objets géométriques sur lesquels travaillent les élèves sont des constructions « molles », issues du déplacement, dans lesquelles les nouvelles caractéristiques des figures sont éphémères. Le processus de médiation sémiotique est amorcé au cours de la construction, par l'élève, de l'instrument Déplacement, il se poursuit au cours des échanges collectifs avec l'enseignant. La construction du lien entre les données et la conclusion s'appuie sur l'utilisation du dynamisme de l'environnement et sur l'interaction entre les registres visuels et discursifs. Nous avons étudié comment les élèves s'approprient la relation entre les données et la conclusion à travers l'étude de :<br />¬ la construction de l'instrument déplacement que nous visons lors des activités avec Cabri<br />¬ l'articulation entre les registres graphiques et discursifs en lien avec le processus de médiation sémiotique
18

Traitement de l'information issue d'un réseau de surveillance de la paralysie cérébrale : qualité et analyse des données / Information processing in a network of cerebral palsy : data quality and analysis

Sellier, Elodie 18 June 2012 (has links)
Le réseau européen de paralysie cérébrale nommé Surveillance of Cerebral Palsy in Europe (SCPE) est né de la volonté de différents registres européens de s’associer afin d’harmoniser leurs données et de créer une base de données commune. Aujourd’hui il compte 24 registres dont 16 actifs. La base contient plus de 14000 cas d’enfants avec paralysie cérébrale (PC) nés entre 1976 et 2002. Elle permet de fournir des estimations précises sur les taux de prévalence de la PC, notamment dans les différents sous-groupes d’enfants (sous groupes d’âge gestationnel ou de poids de naissance, type neurologique de PC). La thèse s’est articulée autour de la base de données commune du réseau SCPE. Dans un premier temps, nous avons réalisé un état des lieux de la qualité des données de la base commune, puis développé de nouveaux outils pour l’amélioration de la qualité des données. Nous avons notamment mis en place un retour d’informations personnalisé aux registres registre suite à chaque soumission de données et écrit un guide d’aide à l’analyse des données. Nous avons également mené deux études de reproductibilité de la classification des enfants. La première étude incluait des médecins visualisant des séquences vidéos d’enfants avec ou sans PC. La deuxième étude incluait différents professionnels travaillant dans les registres qui avaient à leur disposition une description écrite de l’examen clinique des enfants. L’objectif de ces études originales était d’évaluer si face à un même enfant, les différents professionnels le classaient de la même manière pour le diagnostic de PC, le type neurologique et la sévérité de l’atteinte motrice. Les résultats ont montré une reproductibilité excellente pour les pédiatres ayant visualisé les vidéos et bonne pour les professionnels ayant classé les enfants à partir de la description écrite. Dans un second temps, nous avons réalisé des travaux sur l’analyse des données à partir de deux études : l’analyse de la tendance du taux de prévalence de la PC chez les enfants nés avec un poids >2499g entre 1980 et 1998 et l’analyse du taux de prévalence de la PC associée à l’épilepsie chez les enfants nés entre 1976 et 1998. Ces travaux ont porté principalement sur les méthodes d’analyse des tendances dans le temps du taux de prévalence, et sur la prise en compte des interactions tendance-registre. / Several European Cerebral Palsy (CP) registers formed a collaborativenetwork of Cerebral Palsy in order to harmonize their data and to establish acommon database. At the present time, the network gathers 24 CP registers,with 16 being active. The common database includes more than 14000 casesof children with CP, born between 1976 and 2002. Thanks to this largedatabase, the network can provide reliable estimates of prevalence rates ofchildren with CP, especially in the different CP subgroups (according togestational age or birthweight, neurological subtype).Our work was based on the SCPE common database. Firstly, we performeda survey on the data quality of the common database. Then we developednew tools to improve the quality of data. We provide now the registers witha feedback after the submission of their data and we wrote a data useguideline. We also conducted two studies to evaluate the reliability of theclassification of children with CP. The first study included pediatriciansseeing video-sequences of children with or without CP. The second studyincluded different professionals working in registers and who were given thewritten clinical description of the same children. The aim of these originalstudies was to evaluate whether the professionals classified a same child inthe same way concerning the diagnosis of CP, the neurological subtype andthe severity of gross and fine motor function. Results showed that interraterreliability was excellent for pediatricians seeing video-sequences andsubstantial for professionals reading the clinical description.Secondly, we worked on the analysis of data through two studies : theanalysis of the trend in prevalence rate of children with CP with abirthweight >2499g and born between 1980 and 1998 and the analysis of thetrend in prevalence rate of children with CP and epilepsy born between 1976and 1998. This work focused on the methods of trend analysis and on takinginto account the interaction between trend and register.
19

Verification formelle et optimisation de l’allocation de registres / Formal Verification and Optimization of Register Allocation

Robillard, Benoît 30 November 2010 (has links)
La prise de conscience générale de l'importance de vérifier plus scrupuleusement les programmes a engendré une croissance considérable des efforts de vérification formelle de programme durant cette dernière décennie. Néanmoins, le code qu'exécute l'ordinateur, ou code exécutable, n'est pas le code écrit par le développeur, ou code source. La vérification formelle de compilateurs est donc un complément indispensable à la vérification de code source.L'une des tâches les plus complexes de compilation est l'allocation de registres. C'est lors de celle-ci que le compilateur décide de la façon dont les variables du programme sont stockées en mémoire durant son exécution. La mémoire comporte deux types de conteneurs : les registres, zones d'accès rapide, présents en nombre limité, et la pile, de capacité supposée suffisamment importante pour héberger toutes les variables d'un programme, mais à laquelle l'accès est bien plus lent. Le but de l'allocation de registres est de tirer au mieux parti de la rapidité des registres, car une allocation de registres de bonne qualité peut conduire à une amélioration significative du temps d'exécution du programme.Le modèle le plus connu de l'allocation de registres repose sur la coloration de graphe d'interférence-affinité. Dans cette thèse, l'objectif est double : d'une part vérifier formellement des algorithmes connus d'allocation de registres par coloration de graphe, et d'autre part définir de nouveaux algorithmes optimisants pour cette étape de compilation. Nous montrons tout d'abord que l'assistant à la preuve Coq est adéquat à la formalisation d'algorithmes d'allocation de registres par coloration de graphes. Nous procédons ainsi à la vérification formelle en Coq d'un des algorithmes les plus classiques d'allocation de registres par coloration de graphes, l'Iterated Register Coalescing (IRC), et d'une généralisation de celui-ci permettant à un utilisateur peu familier du système Coq d'implanter facilement sa propre variante de cet algorithme au seul prix d'une éventuelle perte d'efficacité algorithmique. Ces formalisations nécessitent des réflexions autour de la formalisation des graphes d'interférence-affinité, de la traduction sous forme purement fonctionnelle d'algorithmes impératifs et de l'efficacité algorithmique, la terminaison et la correction de cette version fonctionnelle. Notre implantation formellement vérifiée de l'IRC a été intégrée à un prototype du compilateur CompCert.Nous avons ensuite étudié deux représentations intermédiaires de programmes, dont la forme SSA, et exploité leurs propriétés pour proposer de nouvelles approches de résolution optimale de la fusion, l'une des optimisations opéréeslors de l'allocation de registres dont l'impact est le plus fort sur la qualité du code compilé. Ces approches montrent que des critères de fusion tenant compte de paramètres globaux du graphe d'interférence-affinité, tels que sa largeur d'arbre, ouvrent la voie vers de nouvelles méthodes de résolution potentiellement plus performantes. / The need for trustful programs led to an increasing use of formal verication techniques the last decade, and especially of program proof. However, the code running on the computer is not the source code, i.e. the one written by the developper, since it has to betranslated by the compiler. As a result, the formal verication of compilers is required to complete the source code verication. One of the hardest phases of compilation is register allocation. Register allocation is the phase within which the compiler decides where the variables of the program are stored in the memory during its execution. The are two kinds of memory locations : a limited number of fast-access zones, called registers, and a very large but slow-access stack. The aim of register allocation is then to make a great use of registers, leading to a faster runnable code.The most used model for register allocation is the interference graph coloring one. In this thesis, our objective is twofold : first, formally verifying some well-known interference graph coloring algorithms for register allocation and, second, designing new graph-coloring register allocation algorithms. More precisely, we provide a fully formally veri ed implementation of the Iterated Register Coalescing, a very classical graph-coloring register allocation heuristics, that has been integrated into the CompCert compiler. We also studied two intermediate representations of programs used in compilers, and in particular the SSA form to design new algorithms, using global properties of the graph rather than local criteria currently used in the litterature.
20

Prévalence et facteurs associés aux données manquantes des registres de consultations médicales des médecins des centres de santé communautaires de Bamako

Ly, Birama Apho 18 April 2018 (has links)
Objectifs Cette étude avait pour but d’estimer la prévalence des données manquantes dans les registres de consultations médicales tenus par les médecins des Centres de santé communautaire (CSCOM) de Bamako et d’identifier, à partir de la théorie du comportement planifié, les facteurs qui prédisent l’intention des médecins de faire la collecte exhaustive des données dans leurs registres. Méthode Une étude transversale exploratoire a été conduite, incluant 3072 consultations médicales et 32 médecins aléatoirement choisis. Les données ont été collectées entre janvier et février 2011 à travers une fiche de dépouillement et un questionnaire portant sur les caractéristiques sociodémographiques et professionnelles des médecins et sur les construits de la théorie du comportement planifié. Des statistiques descriptives, des corrélations et des analyses de régression ont été effectuées. Résultats Toutes les variables contenues dans les registres de consultations médicales comportent des données manquantes. Toutefois, seules quatre variables (symptôme, diagnostic, traitement et observation) ont des prévalences élevées de données manquantes. La variable observation a la prévalence la plus élevée avec 95,6 % de données manquantes. Par ailleurs, l’intention des médecins de faire la collecte exhaustive des données est prédite par la norme subjective et le nombre d’années de service. Conclusion Les résultats de cette étude contribueront à faire avancer les connaissances sur les données manquantes en identifiant les stratégies possibles à mettre en œuvre pour améliorer la qualité de l’information sanitaire recueillie au niveau des CSCOM. Ils permettront, aussi, de mieux informer les décisions concernant l’allocation des ressources. / Objective This study aims to estimate the prevalence of missing data in the medical consultation registries held by physicians working in Bamako community health Centers (COMHC) and to identify the factors which predict physicians’ intention to collect completely the data in their registries, based on the Theory of Planned Behaviour (TPB). Method A exploratory cross-sectional study was conducted, including a random sample of 3072 medical consultations and 32 physicians. Data were collected between January and February 2011 through a standardized extraction form and a questionnaire measuring physicians’ sociodemographic and professional characteristics as well as constructs from the Theory of Planned Behaviour (TPB). Descriptive statistics, correlations and linear regression were performed. Results All the variables contained in the medical consultations registries have missing data. However, only four variables (symptom, diagnosis, treatment and observation) have a high prevalence of missing data. The variable observation has the highest prevalence with 95.6% of missing data. Physician’s intention to collect completely the data is predicted by their subjective norm and the number of years of practice. Conclusion The results of this study should contribute to advance knowledge on the prevalence of missing data and possible strategies to improve the quality of health information collected from the CSCOM. This information can possibly allow to better inform the decisions concerning resource allocation.

Page generated in 0.0656 seconds