• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 73
  • 27
  • 2
  • 1
  • Tagged with
  • 97
  • 35
  • 33
  • 33
  • 25
  • 25
  • 22
  • 21
  • 20
  • 17
  • 16
  • 16
  • 14
  • 13
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Le canon de Scanderbeg au coeur du coutumier albanais / The Canon of Scanderbeg in the heart of Common law

Mecorrapaj - Cani, Xhyher 26 January 2011 (has links)
Le Canon de Scanderbeg n'est libellé ni proclamé par aucun organe législatif ou exécutif de l'État, il n'est décrété par aucun monarque et n'est imposé par aucun envahisseur : le droit coutumier est né de la nécessité de régler la vie des communautés rurales sur le plan judiciaire en l’absence de lois.Un rôle important y est accordé aux Anciens dans la gestion de la vie de la communauté rurale. Jusqu’à la création de l'État albanais, les us et les coutumes ont fonctionné comme des organes régissant les rapports entre personnes, entre membres d’une famille, d’une tribu, d’une région et entre les régions.Au fil du temps, ils sont devenus des normes, donnant naissance au droit coutumier albanais. L'évolution du droit coutumier non écrit s'est reflétée au cours des siècles dans les normes coutumières.Le Canon de Scanderbeg est conçu comme une unité organique comportant des éléments convergents et divergents avec les autres Canons. Cette diversité y a été représentée en une mosaïque de nuances définies en termes spécifiques.Le coutumier de Scanderbeg est riche en normes qui embrassent plusieurs aspects de la vie du peuple ; leur diversité témoigne de l'ancienneté de son usage.Bien qu’il offre l’aspect d’une unité organique indépendante, le Coutumier de Scanderbeg, au même titre que les autres coutumiers du peuple albanais, se rattache d'une part à une plus grande unité et d'autre part se subdivise à son tour en plusieurs subdivisions plus petites.Il confirme l’idée que les différents coutumiers du peuple albanais ont un grand nombre de points de contact entre eux ; cela justifie la thèse de l'existence d'un patrimoine commun comme une unité plus haute, que l'on peut appeler le droit coutumier du peuple albanais.Le Canon de Scanderbeg est donc considéré comme un corpus juris appliqué jusqu'à une période récente dans les régions placées sous la domination des Kastriotes, en particulier les régions de Mat, Krujë, Dibër, Kurbnesh, Bendë, Tamadhë et Martanesh.Le Canon de Scanderbeg comprend 225 pages ; il est reparti en 7 parties, 33 chapitres, 241 articles et 3534 paragraphes. Cette œuvre traite de l'organisation de la vie en famille, des droits et des devoirs de ses membres, des règles concernant le domicile et le patrimoine, du droit au patrimoine et à l'héritage, de la division de la famille, de la vente et l'achat d'une maison, des institutions de l'hospitalité et de la parole donnée, de l'organisation et de la cohabitation au niveau du voisinage et au niveau régional.Elle évoque aussi la hiérarchie et le fonctionnement de la vie au sein de la famille, de la tribu, du village, de la bannière, de la région, ainsi que des droits et des devoirs de l'individu et de la collectivité. Les normes coutumières de la vendetta, de la justice privée, des institutions, des garanties, du serment et de la réconciliation font l’objet de chapitres particuliers. On y trouve aussi des normes qui définissent la position des institutions religieuses, de l'église et de la mosquée. / The research on the canon law is an important aspect of the study of the history of Albanian people, particularly of their culture. Its evolution over the centuries has also been expressed in unwritten norms, inherited generation after generation, which reflect the socio-economic situation of different regions during the past periods and which in Albania were given the name of Greek-Byzantine origin”kanun” (canon).We know the Canon of Scanderbeg, the Canon of Dukagini, the Canon of Malsia e Madhe and of the Laberia. As early as the beginning of the XIXth century in the context of the research on the research on the Albanian history, language and culture, the first studies undertaken by foreign albanologists on the ethnocultural traditions became apparent.Among them, there were travelers and diplomats, as; Lik, Pukvil, A. Bue, Hekard, who fokuced genuine on the customary law. By the middle of the 19tth century an important step was made in this direction by the Austrian consul J.G Han who made known to the scientific world, the customary law and its institutions, the ancient character of which, as he pointed and was closely linked which the origin of the Albanian people.Han made an introduction of the law of the Mountains of the Canon of Scanderbeg which operated in Mat and Diber. In this wide territory lay in the past the principality of the Kastriots, whose memory, besides the documents is also preserved in numerous legends and toponyms, which Albanian people devoted to Scanderbeg. In this territory there exists a very detailed variant of the Canon, which Albanian people call the Canon of Scanderbeg. This canon contains similar fundamental principles of canonical law, but in the traces of its development, we also come across alien influences, especially those of the Sheriat.
22

Production et transmission des données de suivi des patients atteints de maladies chroniques dans un contexte de télémédecine et intégration dans un système d'information pour l'aide à la décision / Production and transmission of chronic disease patients monitoring data in a context of telemedicine and integration into an information system for decision support

Finet, Philippe 15 December 2017 (has links)
Le vieillissement de la population s'accompagne de l'augmentation du nombre de patients souffrant de maladies chroniques. Ceci entraîne une augmentation du nombre de visites et d'examens à l'hôpital. La télémédecine peut apporter un bénéfice tant en matière de qualité et de sécurité des soins qu'en matière de réduction des dépenses de santé. Elle apparaît comme une piste prometteuse, mais encore insuffisamment déployée. Nous avons déterminé les pathologies chroniques les plus fréquentes compatibles avec la télémédecine, à savoir l'insuffisance cardiaque, le diabète, l'insuffisance respiratoire et l'insuffisance rénale. Cette étude a mis en exergue la présence d'un ensemble de comorbidités associées à ces quatre pathologies et montré la nécessité d'une prise en charge globale du patient. Un état de l'art des différentes expériences de télémédecine dans le monde pour ces maladies a mis en évidence que les différentes applications proposées sont partiellement redondantes et ne sont pas interopérables entre elles. Ainsi, les patients peuvent réaliser deux fois la même mesure pour le même examen médical, mais pour deux pathologies différentes. Ces deux problèmes peuvent induire des développements redondants pour chaque application de télémédecine, des risques de diminution de l'efficience des applications de télémédecine lors de leur déploiement, ainsi que des risques d'aggravation de la santé du patient dès lors que l'action d'un professionnel de santé sur une pathologie peut avoir des répercussions sur une autre pathologie. Par ailleurs, cette étude a fait apparaître les besoins communs à ces pathologies. Nos travaux ont donc consisté à développer une architecture générique permettant à différentes applications de télémédecine spécifiques à une pathologie chronique de partager un plateau technique commun. L'originalité de ce travail porte d'une part sur l'étude des normes et des standards de communication nécessaires à l'interopérabilité de l'infrastructure envisagée, et d'autre part sur une modélisation des données relatives aux signes vitaux analysés et à leur contexte. En effet, ces dernières contiennent toutes les informations pouvant influer sur l'interprétation des résultats, telles que la date et l'horaire de la mesure réalisée, la nature de la donnée acquise et les caractéristiques des capteurs utilisés. Pour valider notre modèle d'application de télésurveillance des maladies chroniques, nous avons réalisé deux expérimentations. La première, menée en collaboration avec la société AZNetwork, a consisté à mettre en œuvre une plate-forme digitale de recueil et d'archivage des données médicales pour les seniors dans le cadre du projet Silver@Home. La seconde expérimentation réalisée en partenariat avec le réseau de soins TELAP sur le projet Domoplaies a permis d'étendre notre modèle à un système d'échanges d'information médicale entre les professionnels de santé. Ces travaux constituent une proposition de modèle d'application de télémédecine qui est non seulement conforme au Cadre d'Interopérabilité des Systèmes d'Information de Santé (CI-SIS) de l'Agence des Systèmes d'Information Partagés de Santé (ASIP Santé), mais qui constitue une proposition d'extension de ce dernier à l'acquisition des données au domicile du patient. / The current trend in aging population leads to an increasing number of chronic diseases cases and consequently, to an increase of the number of medical examinations and hospital stays. Telemedicine system can contribute to both increase or maintain care quality and safety, as well as to reduce costs. In spite of this potential, telemedicine deployment is currently limited. We identified the most frequent chronic diseases consistent with telemedicine, namely heart failure, diabetes, respiratory failure and kidney failure. This study highlighted a number of comorbidities associated to these four diseases, reflecting the need for overall patient care. A state of the art report on worldwide Telemedicine experiments for the four chronic diseases showed that the current applications are partially redundant and hardly interoperable. Thus, the same measure can be performed twice for the same medical examination, but for two different diseases. These two problems can induce redundant developments, a risk of a decreased efficiency of a telemedicine application during its deployment, as well as risks of making the patient health worse when the intervention of a healthcare professional can have an impact on another chronic disease. Furthermore, this study revealed common requirements for these chronic diseases and their specific features. We developed a generic architecture that allows different telemedicine applications associated with specific diseases to share a common technical platform. The original aspects of this work are first, a study of communication standards to achieve an interoperable system, and, on the other hand second, a health data model for the patient's vital signs. This model contains all the necessary information to interpret the results, such as the date and time of the measurement, the acquired data format and the sensor characteristics. To validate our telemedicine application model, we conducted two experiments. The first one was a collaboration with AZNetwork company. It consisted in the development of a digital platform to collect and archive seniors' data in the context of the Silver@Home project. The second experiment was a partnership with the TELAP network on the Domoplaies project. It allowed us to extend our telemedicine model to a medical data exchange system among healthcare providers. This led us to propose a telemedicine application model, which is not only in conformity with the Health Information Systems Interoperability Framework (HIS-IF) of the "Agence des Systèmes d'Information Partagés de Santé" (ASIP Santé), but also constitutes a proposed extension of this framework to the patient's home.
23

Decidability and complexity of simulation preorder for data-centric Web services / Décidabilité et complexité de la relation de simulation des services Web orientés données

Akroun, Lakhdar 08 December 2014 (has links)
Dans cette thèse nous nous intéressons au problème d’analyse des spécifications des protocoles d’interactions des services Web orientés données. La spécification de ce type de protocoles inclut les données en plus de la signature des opérations et des contraintes d’ordonnancement des messages. L’analyse des services orientés données est complexe car l’exécution d’un service engendre une infinité d’états. Notre travail se concentre autour du problème d’existence d’une relation de simulation quand les spécifications des protocoles des services Web sont représentés en utilisant un système à transition orienté données. D’abord nous avons étudié le modèle Colombo [BCG+05]. Dans ce modèle, un service (i) échange des messages en utilisant des variables ; (ii) modifie une base de donnée partagée ; (iii) son comportement est modélisé avec un système à transition. Nous montrons que tester l’existence de la relation de simulation entre deux services Colombo non bornée est indécidable. Puis, nous considérons le cas où les services sont bornés. Nous montrons pour ce cas que le test de simulation est (i) exptime-complet pour les services Colombo qui n’accèdent pas à la base de donnée (noté ColomboDB=∅), et (ii) 2exptime-complet quand le service peut accéder à une base de donnée bornée (Colombobound). Dans la seconde partie de cette thèse, nous avons défini un modèle générique pour étudier l’impact de différents paramètres sur le test de simulation dans le contexte des services Web orientés données. Le modèle générique est un système à transition gardé qui peut lire et écrire à partir d’une base de donnée et échanger des messages avec son environnement (d’autres services ou un client). Dans le modèle générique toutes les actions sont des requêtes sur des bases de données (modification de la base de données, messages échangés et aussi les gardes). Dans ce contexte, nous avons obtenu les résultats suivant : (i) pour les services gardés sans mise à jour, le test de simulation est caractérisé par rapport à la décidabilité du test de satisfiabilité du langage utilisé pour exprimer les gardes augmenté avec une forme restrictive de négation, (ii) pour les services sans mise à jour mais qui peuvent envoyer comme message le résultat d’une requête, nous avons trouvé des conditions suffisantes d’indécidabilité et de décidabilité par rapport au langage utilisé pour exprimer l’échange de messages, et (iii) nous avons étudié le cas des services qui ne peuvent que insérer des tuples dans la base de donnée. Pour ce cas, nous avons étudié la simulation ainsi que la weak simulation et nous avons montré que : (a) la weak simulation est indécidable quand les requêtes d’insertion sont des requêtes conjonctives, (b) le test de simulation est indécidable si la satisfiabilité du langage de requête utilisé pour exprimer les insertions augmenté avec une certaine forme de négation est indécidable. Enfin, nous avons étudié l’interaction entre le langage utilisé pour exprimer les gardes et celui utilisé pour les insertions, nous exhibons une classe de service où la satisfiabilité des deux langages est décidable alors que le test de simulation entre les services qui leur sont associés ne l’est pas. / In this thesis we address the problem of analyzing specifications of data-centric Web service interaction protocols (also called data-centric business protocols). Specifications of such protocols include data in addition to operation signatures and messages ordering constraints. Analysis of data-centric services is a complex task because of the inherently infinite states of the underlying service execution instances. Our work focuses on characterizing the problem of checking a refinement relation between service interaction protocol specifications. More specifically, we consider the problem of checking the simulation preorder when service business protocols are represented using data-centric state machines. First we study the Colombo model [BCG+05]. In this framework, a service (i) exchanges messages using variables; (ii) acts on a shared database; (iii) has a transition based behavior. We show that the simulation test for unbounded Colombo is undecidable. Then, we consider the case of bounded Colombo where we show that simulation is (i) exptime-complete for Colombo services without any access to the database (noted ColomboDB=∅), and (ii) 2exptime-complete when only bounded databases are considered (the obtained model is noted Colombobound). In the second part of this thesis, we define a generic model to study the impact of various parameters on the simulation test in the context of datacentric services. The generic model is a guarded transition system acting (i.e., read and write) on databases (i.e., local and shared) and exchanging messages with its environment (i.e., other services or users). The model was designed with a database theory perspective, where all actions are viewed as queries (i.e modification of databases, messages exchanges and guards). In this context, we obtain the following results (i) for update free guarded services (i.e., generic services with guards and only able to send empty messages) the decidability of simulation is fully characterized w.r.t decidability of satisfiability of the query language used to express the guards augmented with a restrictive form of negation, (ii) for update free send services (i.e., generic services without guards and able to send as messages the result of queries over local and shared database), we exhibit sufficient conditions for both decidability and undecidability of simulation test w.r.t the language used to compute messages payloads, and (iii) we study the case of insert services (i.e., generic services without guards and with the ability of insert the result of queries into the local and the shared database). In this case, we study the simulation as well as the weak simulation relations where we show that: (i) the weak simulation is undecidable when the insertions are expressed as conjunctive queries, (ii) the simulation is undecidable if satisfiability of the query language used to express the insertion augmented with a restricted form of negation is undecidable. Finally, we study the interaction between the queries used as guards and the ones used as insert where we exhibit a class of services where satisfiability of both languages is decidable while simulation is undecidable.
24

Knowledge flows through patent citation data / Les flux de connaissances à travers les données de citations de brevet

Pillu, Hugo 18 December 2009 (has links)
Dans cette thèse, nous analysons les différents aspects des externalités de connaissance et la façon dont les citations de brevet peuvent être utilisées comme un indicateur de ces flux. La première partie de cette thèse examine la littérature traditionnelle sur les externalités de connaissance, et cela d'un point de vue à la fois qualitatif et quantitatif (la forme quantitative est réalisée grâce à une méta-analyse). Nous insistons sur les conséquences résultant de l'utilisation de différents canaux de mesure de ces externalités, précisément nous nous attardons sur les hypothèses sous-jacentes et sur leurs implications en termes d'estimations empiriques. Ce point est important car ces canaux sont la principale source d'hétérogénéité des résultats empiriques. Dans la seconde partie, nous explorons des données de brevets et de citations de brevet encore peu étudiées (ces données sont extraites de la base de données Patstat pour les offices de brevets du G5, de l'OEB et de l'OMPI). Cette analyse est à nouveau réalisée à la fois en termes qualitatifs et quantitatifs. La troisième partie, dans un premier temps, examine de façon empirique les caractéristiques des flux de connaissance entre et au sein des inventeurs des pays du G5 et cela pour 13 secteurs industriels. Dans un deuxième temps, cette partie propose et valide la création d'un indicateur de stocks de connaissance qui prend en compte les externalités de connaissance internationales. Cet indicateur se révèle particulièrement utile puisque les indicateurs traditionnels ne sont pas toujours disponibles (comme les indicateurs basés sur les dépenses de R&D). Enfin, l'indicateur précédemment créé sera appliqué à une étude de cas consacrée à l'analyse des déterminants de l'innovation pour les technologies énergétiques efficientes. / In this dissertation, we analyze the different aspects of knowledge spillovers with special emphasis on the use of patent citations as an indicator of knowledge flows. The first part of the thesis reviews the traditional knowledge spillovers literature both with a qualitative and a quantitative view (the quantitative form is done through a meta-analysis). A particular focus is placed on the consequences of using the different channels reflecting different weighted functions, i.e. about the underlying assumptions and the implications in terms of estimates. This point is important since these channels are the main source of heterogeneity in the analysis of knowledge spillovers. In the second part, we shed some light on patent and patent citation data that have not been much studied (taken from the Patstat database for the G5 patent offices plus the EPO and the WIPO). Once again this analysis is conducted both in qualitative and quantitative terms. The third part, in a first time, investigates empirically the diffusion pattern of knowledge between and within the G5 inventors for 13 manufacturing sectors. In a second time, it proposes and validates the creation of an input-based indicator of knowledge that takes into account international knowledge spillovers. This indicator can be very helpful since traditional indicators are not always available (such as R&D indicators). Finally, the previously created indicator will be applied in a case study dedicated to analyze the determinants of innovation for energy efficient technologies.
25

Tissue database of autofluorescence response to improve intra-operative diagnosis of primitive brain tumors / Base de données sur le signal d'autofluorescence des tissus pour améliorer le diagnostic per-opératoire des tumeurs cérébrales

Poulon, Fanny 26 September 2018 (has links)
Le premier traitement standard pour les tumeurs cérébrales est la résection chirurgicale. Dans cette procédure un enjeu important demeure, l'identification des berges tumorales pour assurer une résection totale et éviter le risque de récidive pour le patient. A ce jour aucune technique d'imagerie peropératoire est capable de résoudre l'infiltration tumorale du tissu sain. La norme pour le diagnostic des berges tumorales est l'analyse histologique des biopsies. Une méthode ex vivo qui requiert un à plusieurs jours pour fournir ler apport pathologique final, un lapse de temps qui peut s'avérer fatal pour le patient. La microscopie optique a récemment été développer vers une utilisation clinique peropératoire pour répondre à cet enjeu. Dans travail, la technique de microscopie à deux-photons a été préférée pouressayer de répondre à cette problématique. Cette méthode donne accès à deux contrastes d'imagerie, la génération de seconde harmonique et l’émission de fluorescence, qui peuvent être combinés à des mesures quantitatives, tel que la spectroscopie et le temps de vie de fluorescence. Combiner ces quatre modalités de détection donnera une information complète sur la structure et le métabolisme de la région observée. Pour soutenir le développement technique vers une sonde endomicroscopique visant une utilisation peropératoire, les données en résultants doivent être fiables, et se montrer d'un intérêt pour le chirurgien. Par conséquent, une base de données sur le signal d'autofluorescence des tissus a été construite et présentée dans ce manuscrit, avec des algorithmes capables de discriminer de façon fiable les régions tumorales des régions saines. Des algorithmes qui ont montré le potentiel d'être automatisé dans une configuration clinique, afin de fournir une réponse en temps-réel au chirurgien. / The first standard approach for brain tumor treatment is the surgical resection. In this protocol an important challenge remains, the identification of tumor margins to ensure a complete resection and avoid risk of tumor recurrence. Nowadays no intra-operative means of contrast are able to resolve infiltrated regions from healthy tissue. The standard for tumor margin diagnosis is the histological analysis of biopsies. An ex vivo method that requires one to several days to issue a final pathological reports, a time lapse that could be fatal to the patient. Optical microscopy have recently been developed towards an intra-operative clinical use to answer this challenge. In this work, the technique of two-photon microscopy based on the autofluorescence of tissue have been favored. This technique gives access to two imaging contrasts, the second-harmonic generation and emission of fluorescence, and can be combined to quantitative measurements, such as spectroscopy and fluorescence lifetime. The combination of these four modalities of detection will give a complete structural and metabolic information on the observed region. To support the technical development towards an endomicroscopic probe, the resulted data have to be reliable and proved to be of interest for the surgeon. Consequently, an extensive database of the autofluorescence response of brain tumor tissue have been constructed and presented in this manuscript, with algorithms able to discriminate with reliability tumoral from healthy regions. Algorithms that have shown potential to be automatized in a clinical setting, in order to give a real-time answer to the surgeons.
26

Spatio-Temporal Adaptive Sampling Techniques for Energy Conservation in Wireless Sensor Networks / Techniques d'échantillonnage spatio-temporelles pour la conservation de l'énergie dans les réseaux de capteurs sans fil

Kandukuri, Somasekhar Reddy 07 October 2016 (has links)
La technologie des réseaux de capteurs sans fil démontre qu'elle peut être très utile dans de nombreuses applications. Ainsi chaque jour voit émerger de nouvelles réalisations dans la surveillance de notre environnement comme la détection des feux de forêt, l'approvisionnement en eau. Les champs d'applications couvrent aussi des domaines émergents et sensibles pour la population avec les soins aux personnes âgées ou les patients récemment opérés dans le cadre. L'indépendance des architectures RCSFs par rapport aux infrastructures existantes permet aux d'être déployées dans presque tous les sites afin de fournir des informations temporelles et spatiales. Dans les déploiements opérationnels le bon fonctionnement de l'architecture des réseaux de capteurs sans fil ne peut être garanti que si certains défis sont surmontés. La minisation de l'énergie consommée en fait partie. La limitation de la durée de vie des nœuds de capteurs est fortement couplée à l'autonomie de la batterie et donc à l'optimisation énergétique des nœuds du réseau. Nous présenterons plusieurs propositions à ces problèmes dans le cadre de cette thèse. En résumé, les contributions qui ont été présentées dans cette thèse, abordent la durée de vie globale du réseau, l'exploitation des messages de données redondantes et corrélées et enfin le fonctionnement nœud lui-même. Les travaux ont conduit à la réalisation d'algorithmes de routage hiérarchiques et de filtrage permettant la suppression des redondances. Ils s'appuient sur les corrélations spatio-temporelles des données mesurées. Enfin, une implémentation de ce réseau de capteurs multi-sauts intégrant ces nouvelles fonctionnalités est proposée. / Wireless sensor networks (WSNs) technology have been demonstrated to be a usefulmeasurement system for numerous bath indoor and outdoor applications. There is avast amount of applications that are operating with WSN technology, such asenvironmental monitoring, for forest fire detection, weather forecasting, water supplies, etc. The independence nature of WSNs from the existing infrastructure. Virtually, the WSNs can be deployed in any sort of location, and provide the sensor samples accordingly in bath time and space. On the contrast, the manual deployments can only be achievable at a high cost-effective nature and involve significant work. ln real-world applications, the operation of wireless sensor networks can only be maintained, if certain challenges are overcome. The lifetime limitation of the distributed sensor nodes is amongst these challenges, in order to achieve the energy optimization. The propositions to the solution of these challenges have been an objective of this thesis. ln summary, the contributions which have been presented in this thesis, address the system lifetime, exploitation of redundant and correlated data messages, and then the sensor node in terms of usability. The considerations have led to the simple data redundancy and correlated algorithms based on hierarchical based clustering, yet efficient to tolerate bath the spatio-temporal redundancies and their correlations. Furthermore, a multihop sensor network for the implementation of propositions with more features, bath the analytical proofs and at the software level, have been proposed.
27

Utilisation des réseaux de neurones pour examiner la fragmentation des roches à l'explosif et établir son influence sur la rentabilité de l'exploitation dans les carrières

Nourry, Denis 07 November 2002 (has links) (PDF)
...
28

Reconstruction d'images en tomographie scintigraphique cardiaque par fusion de données

Coutand, Frédérique 06 December 1996 (has links) (PDF)
La méthode proposée dans ce manuscrit consiste a utiliser la fusion de données anatomiques pour améliorer la quantification des images reconstruites en tomographie d'émission monophotonique (t.e.m.p.). Les données anatomiques (déduites d'autres modalités) sont utilisées afin d'obtenir une modélisation paramétrique (par des fonctions spline) des organes de la coupe a reconstruire. Dans la pratique, on utilise deux types d'images: premièrement des images en transmission qui servent a obtenir les contours des organes tels que le thorax et les poumons. Deuxièmement, des images en émission qui donnent une prelocalisation de l'activité et une première estimation des contours du ventricule gauche, qui sont améliorés au cours du processus de reconstruction. Le modèle géométrique nous permet de mieux caractériser la formation des données scintigraphiques et ainsi d'améliorer le problème direct. Les principales originalités de ces travaux consistent a restreindre le champ de la reconstruction uniquement aux régions actives et d'utiliser un maillage adapte aux contours des régions a reconstruire (pour éviter des erreurs de volume partiel). La réduction du nombre d'inconnus permet de mieux conditionner le problème inverse et ainsi de réduire le nombre de projections nécessaires à la reconstruction. La méthode de reconstruction qui est proposée repose sur une double estimation ; estimation de la distribution de radioactivité a l'intérieur de notre modèle géométrique, et estimation des paramètres optimaux de ce modèle. les reconstructions 2D à partir de données simulées puis enregistrées sur fantôme, ont permis de valider le principe de la méthode et montrent une nette amélioration de la quantification des images scintigraphiques
29

Préparation non paramétrique des données pour la fouille de données multi-tables / Non-parametric data preparation for multi-relational data mining

Lahbib, Dhafer 06 December 2012 (has links)
Dans la fouille de données multi-tables, les données sont représentées sous un format relationnel dans lequel les individus de la table cible sont potentiellement associés à plusieurs enregistrements dans des tables secondaires en relation un-à-plusieurs. Afin de prendre en compte les variables explicatives secondaires (appartenant aux tables secondaires), la plupart des approches existantes opèrent par mise à plat, obtenant ainsi une représentation attribut-valeur classique. Par conséquent, on perd la représentation initiale naturellement compacte mais également on risque d'introduire des biais statistiques. Dans cette thèse, nous nous intéressons à évaluer directement les variables secondaires vis-à-vis de la variable cible, dans un contexte de classification supervisée. Notre méthode consiste à proposer une famille de modèles non paramétriques pour l'estimation de la densité de probabilité conditionnelle des variables secondaires. Cette estimation permet de prendre en compte les variables secondaires dans un classifieur de type Bayésien Naïf. L'approche repose sur un prétraitement supervisé des variables secondaires, par discrétisation dans le cas numérique et par groupement de valeurs dans le cas catégoriel. Dans un premier temps, ce prétraitement est effectué de façon univariée, c'est-à-dire, en considérant une seule variable secondaire à la fois. Dans un second temps, nous proposons une approche de partitionnement multivarié basé sur des itemsets de variables secondaires, ce qui permet de prendre en compte les éventuelles corrélations qui peuvent exister entre variables secondaires. Des modèles en grilles de données sont utilisés pour obtenir des critères Bayésiens permettant d'évaluer les prétraitements considérés. Des algorithmes combinatoires sont proposés pour optimiser efficacement ces critères et obtenir les meilleurs modèles.Nous avons évalué notre approche sur des bases de données multi-tables synthétiques et réelles. Les résultats montrent que les critères d'évaluation ainsi que les algorithmes d'optimisation permettent de découvrir des variables secondaires pertinentes. De plus, le classifieur Bayésien Naïf exploitant les prétraitements effectués permet d'obtenir des taux de prédiction importants. / In multi-relational data mining, data are represented in a relational form where the individuals of the target table are potentially related to several records in secondary tables in one-to-many relationship. In order take into account the secondary variables (those belonging to a non target table), most of the existing approaches operate by propositionalization, thereby losing the naturally compact initial representation and eventually introducing statistical bias. In this thesis, our purpose is to assess directly the relevance of secondary variables w.r.t. the target one, in the context of supervised classification.We propose a family of non parametric models to estimate the conditional density of secondary variables. This estimation provides an extension of the Naive Bayes classifier to take into account such variables. The approach relies on a supervised pre-processing of the secondary variables, through discretization in the numerical case and a value grouping in the categorical one. This pre-processing is achieved in two ways. In the first approach, the partitioning is univariate, i.e. by considering a single secondary variable at a time. In a second approach, we propose an itemset based multivariate partitioning of secondary variables in order to take into account any correlations that may occur between these variables. Data grid models are used to define Bayesian criteria, evaluating the considered pre-processing. Combinatorial algorithms are proposed to efficiently optimize these criteria and find good models.We evaluated our approach on synthetic and real world multi-relational databases. Experiments show that the evaluation criteria and the optimization algorithms are able to discover relevant secondary variables. In addition, the Naive Bayesian classifier exploiting the proposed pre-processing achieves significant prediction rates.
30

Compilation du silicium‎ : application à la compilation de partie contrôle

Varinot, Patrick 02 February 1987 (has links) (PDF)
.

Page generated in 0.2285 seconds