• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 2
  • Tagged with
  • 10
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Utilisation des ontologies dans le contexte de l’Imagerie par Résonance Magnétique / Using ontologies in Magnetic resonance imaging

Lasbleiz, Jérémy 19 December 2013 (has links)
L’imagerie médicale et en particulier l’Imagerie par Résonance Magnétique (IRM) occupe une place de choix dans les décisions médicales. Malgré des techniques et des pratiques d’examens comparables les industriels du secteur utilisent un vocabulaire différent pour décrire les événements de l’expérience IRM. Les ontologies permettent de résoudre cette problématique. En les intégrant dans un système informatique nous avons choisi de proposer des solutions innovantes pour trois situations quotidiennes : l’annotation d’examen, la reconnaissance et la correction d’artéfact et l’aide à la prescription d’examen. Les connaissances du domaine IRM sont issues de la littérature et de la pratique quotidienne. DICOM, élément incontournable à l’échange de données en imagerie médicale, a été le point de départ de l’élaboration de l’ontologie. Les connaissances sur les artéfacts en IRM sont en partie issues d’une collaboration avec l’université de Texas A&M Temple. Pour l’aide à la prescription d’examen nous avons choisi une situation clinique représentative la demande d’IRM dans le cadre des traumatismes du genou. Les statistiques proviennent d’une étude réalisée dans le service de médecine du sport du CHU de Rennes. Les systèmes élaborés permettent aux utilisateurs d’utiliser les ontologies sans y être confronté et permettent l’analyse de l’entête DICOM d’une image, l’annotation de l’image, la comparaison d’une image IRM pour la correction d’artéfact et l’aide à la prescription d’IRM est sous la forme d’un serveur web permettant à l’utilisateur de connaître en fonction des signes cliniques présents, la probabilité d’avoir une lésion lors de la réalisation de l’IRM. Nous avons démontré la possibilité d’utilisation des ontologies pour améliorer l’exercice quotidien des praticiens. Les techniques utilisées montre la possibilité d’utiliser les ontologies en les associant aux images et aux probabilités. Le système choisi, interface permettra l’évolution vers une technologie de type webservice. / Magnetic resonance imaging (MRI) is a key examination in medical decision making. Despite MRI technics are slightly similar, each industrial has developed his own vocabulary to describe the MRI experience. Ontologies have been developed to help in such situations. We have decided to create IT solutions using ontology for three daily radiological situations: exams annotation, MRI artifacts recognition and correction and exam appropriateness. The domain knowledge is extracted from literature and everyday practice. DICOM, as key element for data exchange in radiology, has been used to create the ontology.  Concerning MRI artifacts, a part of the knowledge comes from a collaborative work with the university of Texas A&M Temple. Concerning exam appropriateness, we have chosen a representative clinical situation: interest of knee MRI in case of knee trauma. The statistical data are coming from a clinical study done in the CHU of Rennes. Our systems allow users to take benefits of ontology without facing it. They give a DICOM header analysis, proposed an image annotation, compare image to correct MRI artifacts and help physicians to judge MRI appropriateness in case of knee trauma. We have demonstrated that ontologies could be used to improve daily practice in radiology and that ontologies could be associated to image and statistical data. Future of this work could be a system transformation into a web service.
2

Proposition d'une méthode basée sur la création et l'utilisation d'artéfacts afin de résoudre des problèmes dans les cours d'introduction à la programmation

Bélisle, Pierre January 2006 (has links) (PDF)
Nous pouvons voir le développement d'un logiciel selon deux perspectives. La première concerne le développement, par un programmeur ou une petite équipe de programmeurs, d'un petit logiciel, avec un utilisateur et un seul ordinateur. C'est ce qu'on appelle de la programmation à petite échelle (programming in the small). Ce genre de développement s'enseigne dans les cours de programmation en informatique (computer science). La deuxième perspective consiste à faire de la programmation à grande échelle avec plusieurs équipes de programmeurs, plusieurs fonctionnalités, plusieurs utilisateurs et même, parfois, plusieurs ordinateurs et serveurs. C'est ce qu'on appelle le génie logiciel (software engineering), qui s'enseigne dans des baccalauréats en génie logiciel. Même si beaucoup de progrès a été fait en génie logiciel, il reste qu'il existe encore des lacunes dans l'enseignement de cette discipline. Les difficultés se situent, entre autres, dans les cours d'introduction à la programmation. Il y a plusieurs façons d'enseigner le développement de logiciels. Cependant, peu importe celle qui est employée, la transition entre la programmation à petite échelle et la programmation à grande échelle n'est pas facile. Nous désirons donc créer une méthode qui favorise la résolution de problèmes, tout en facilitant la transition ultérieure vers les grands projets. Nous croyons également que la transition serait plus facile si ladite méthode de développement utilisait des principes de génie logiciel déjà utilisés et reconnus. C'est pourquoi nous avons tenu compte d'un corpus de connaissances en génie logiciel (Abran et aL, 2001) dans la construction de la méthode.
3

La coordination dans les organisations temporaires à forte intensité de connaissances : variations autour d’un projet de type “complex product systems” / Coordinating in knowledge–intensive forms of Organizing : essays on a complex product systems project

Benmerikhi, Mohamed 17 September 2019 (has links)
Si la coordination a été largement abordée dans les organisations et les projets, elle l’a été beaucoup moins dans les projets de type complex product systems (COPS). Dans cette thèse sur travaux, nous mobilisons une approche qualitative longitudinale d'étude de cas unique pour aborder différentes questions de recherche. Théoriquement, nous décrivons le caractère multi-niveaux de la coordination plaidant en faveur d'une combinaison de mécanismes de coordination émergents et planifiés. Nous montrons ensuite, empiriquement, comment, considéré comme un artefact, un référentiel de connaissance dans la gestion de projet (le Guide PMBOK), assure la coordination de ses communautés de pratiques dispersées géographiquement. Ainsi, nous caractérisons la relation entre communautés de pratique et artefact comme étant mutuellement constitutive et co-évolutive. Ensuite, au niveau des acteurs projet, nous explorons le processus de développement des interdépendances en montrant que combler les écarts de connaissances engendre des changements dynamiques dans les interdépendances entre acteurs et celles entre tâches. Ceci nous a permis de mettre en évidence un flux réciproque de causalité entre taches et entre acteurs. Enfin, nous montrons que les barrières de connaissances entravant la coordination sont caractéristiques des projets COPS et nous expliquons comment les acteurs projet les surmontent à l'aide de différents artefacts imbriqués à leurs actions. Cette analyse nous permet de fournir un appui empirique à l’idée que les processus émergents de création de connaissance offrent une explication complémentaire aux problèmes de coordination. Ainsi, notre thèse présente une compréhension novatrice de la coordination dans les projets COPS avec des contributions qui s’inscrivent dans la littérature du management de projet ainsi que dans celle du management stratégique. / Although coordinating was addressed extensively in organizations and projects, it is much less studied in complex product systems (COPS) projects. Using a knowledge perspective, this compilation thesis addresses different research issues inherent to the process of coordinating using a qualitative longitudinal single case study design. Theoretically, we depict the multi-level character of coordination arguing in favour of a blend of emergent and planned coordination mechanisms. We then empirically demonstrate how, viewed as an artefact, a project management practice standard (the PMBOK Guide) ensures the coordination of spatially dispersed communities of practice. Thus, we characterize such relationship between an artefact and communities of practice as one of mutual constitution and co-evolution. We zoom in to a project participants level to depict the process of developing interdependencies by closing knowledge gaps. This results in dynamic shifts in actor and task interdependencies showing a flow of causality reciprocally between actors and tasks. Finally, we show that knowledge barriers to coordination are characteristic of COPS projects, and we outline how project participants overcome them using different artefacts imbricated with social action. This analysis provides empirical support for the idea that emergent processes of knowledge creation offer a complementary explanation for coordination problems. Thus, the present thesis provides a novel understanding of coordinating in COPS projects with notable contributions to the literature in project management as well as that on strategic management.
4

Utilisation de la tomodensitométrie à deux énergies pour le calcul de dose en curiethérapie à bas débit

Côté, Nicolas 08 1900 (has links)
Dans la pratique actuelle de la curiethérapie à bas débit, l'évaluation de la dose dans la prostate est régie par le protocole défini dans le groupe de travail 43 (TG-43) de l'American Association of Physicists in Medicine. Ce groupe de travail suppose un patient homogène à base d'eau de même densité et néglige les changements dans l'atténuation des photons par les sources de curiethérapie. En considérant ces simplifications, les calculs de dose se font facilement à l'aide d'une équation, indiquée dans le protocole. Bien que ce groupe de travail ait contribué à l'uniformisation des traitements en curiethérapie entre les hôpitaux, il ne décrit pas adéquatement la distribution réelle de la dose dans le patient. La publication actuelle du TG-186 donne des recommandations pour étudier des distributions de dose plus réalistes. Le but de ce mémoire est d'appliquer ces recommandations à partir du TG-186 pour obtenir une description plus réaliste de la dose dans la prostate. Pour ce faire, deux ensembles d'images du patient sont acquis simultanément avec un tomodensitomètre à double énergie (DECT). Les artéfacts métalliques présents dans ces images, causés par les sources d’iode, sont corrigés à l'aide d’un algorithme de réduction d'artefacts métalliques pour DECT qui a été développé dans ce travail. Ensuite, une étude Monte Carlo peut être effectuée correctement lorsque l'image est segmentée selon les différents tissus humains. Cette segmentation est effectuée en évaluant le numéro atomique effectif et la densité électronique de chaque voxel, par étalonnage stoechiométrique propre au DECT, et en y associant le tissu ayant des paramètres physiques similaires. Les résultats montrent des différences dans la distribution de la dose lorsqu'on compare la dose du protocole TG-43 avec celle retrouvée avec les recommandations du TG-186. / In current low dose rate brachytherapy practice, dose evaluation within the prostate is govern by the protocol defined by the task group 43 (TG-43) of the American Association of Physicist in Medicine. This task group assumes a homogeneous water based patient with invariable density. They also disregard the changes in photon attenuation through neighbouring brachytherapy sources. With the introduction of these simplifications, dose calculations are easily solved using an equation proposed in this protocol. Although this task group helped create a uniform practice of brachytherapy treatments between hospitals, it does not properly described the actual dose distribution within the patient. The current publication of TG-186 gives recommendations to study these dose distribution more realistically. The purpose of this Master's thesis is to apply these recommendations from TG-186 to obtain a more realistic description of the dose. In order to proceed, two sets of patient images are acquired with a dual energy computed tomography (DECT). These images are corrected for metallic artifacts, which are highly present in the scanned images, using DECT metallic artifact reduction algortithm, developped in this work. Afterwords, a Monte Carlo study can be performed by properly identifying the environment with human tissues. This segmentation is performed by evaluating the effective atomic number and electronic density of each voxel using a DECT stoichiometric calibration, and allocating the tissue having the closest resemblance to these physical parameters. The results show clear differences in dose distribution when comparing TG-43 protocole with TG-186 recommendations.
5

L'artéfact comme lieu de l'intersubjectivité : rôle de l'objet et développement de la conscience de soi dans une perspective matérielle

Bordeleau-Payer, Marie-Laurence January 2009 (has links) (PDF)
Suivant une perspective matérialiste, ce mémoire cherche à éclairer, à travers des horizons théoriques différents, les mécanismes psychiques en jeu lors de la rencontre entre le sujet et les formes objectivées de la culture. De manière plus précise, ce travail souhaite mettre en lumière les liens existants entre certaines conceptions hégéliennes du développement de la subjectivité humaine dans son rapport avec la réalité objective et objectale en démontrant que la conscience de soi n'advient que dans un rapport -aliénant -avec ce qui est autre. Ainsi, le processus d'objectivation du sujet de même que la subjectivation de l'objet sont les mouvements sur lesquels nous nous attardons tout particulièrement dans l'intention de reconnaître comment le pouvoir réflexif de l'artéfact émerge à travers une relation dialectique propre au lien social. D'autre part, puisque les objets d'usage sont désormais omniprésents et qu'ils agissent à titre de médiation entre le sujet et son environnement, il est question d'établir un parallèle entre l'usage des mots et l'usage des choses en affirmant comment la signification du signifiant de la reconnaissance détient un caractère « fluide », lequel relève d'une dynamique intersubjective. En ce sens, il s'agit de voir de quelle manière la culture matérielle participe du projet de formation de soi en raison notamment de l'autorité symbolique qu'elle détient. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Subjectivation, Objectivation, Culture matérielle, Intersubjectivité, Ordre symbolique, Artéfact, Conscience de soi, Aliénation, Dialectique.
6

Proposition d'un modèle pour la représentation de contexte d'exécution de simulations informatiques à des fins de reproductibilité / Proposing a representation model of computational simulations’ execution context for reproducibility purposes

Congo, Faïçal Yannick Palingwendé 19 December 2018 (has links)
La reproductibilité en informatique est un concept incontournable au 21ème siècle. Les évolutions matérielles des calculateurs font que le concept de reproductibilité connaît un intérêt croissant au sein de la communauté scientifique. Pour les experts en simulation, ce concept est indissociable de celui de vérification, de confirmation et de validation, que ce soit pour la crédibilité des résultats de recherches ou pour l’établissement de nouvelles connaissances. La reproductibilité est un domaine très vaste. Dans le secteur computationnel et numérique, nous nous attacherons, d’une part, à la vérification de la provenance et de la consistance des données de recherches. D’autre part, nous nous intéressons à la détermination précise des paramètres des systèmes d’exploitation, des options de compilation et de paramétrage des modèles de simulation permettant l’obtention de résultats fiables et reproductibles sur des architectures modernes de calcul. Pour qu’un programme puisse être reproduit de manière consistante il faut un certain nombre d’information de base. On peut citer entre autres le système d’exploitation, l’environnement de virtualisation, les diverses librairies utilisées ainsi que leurs versions, les ressources matérielles utilisées (CPU, GPU, accélérateurs de calcul multi coeurs tel que le précédent Intel Xeon Phi, Mémoires, ...), le niveau de parallélisme et éventuellement les identifiants des threads, le statut du ou des générateurs pseudo-aléatoires et le matériel auxquels ils accèdent, etc. Dans un contexte de calcul scientifique, même évident, il n’est actuellement pas possible d’avoir de manière cohérente toutes ces informations du fait de l’absence d’un modèle standard commun permettant de définir ce que nous appellerons ici contexte d'exécution. Un programme de simulation s'exécutant sur un ordinateur ou sur un noeud de calcul, que ce soit un noeud de ferme de calcul (cluster), un noeud de grille de calcul ou de supercalculateur, possède un état et un contexte d'exécution qui lui sont propres. Le contexte d'exécution doit être suffisamment complet pour qu’à partir de celui-ci, hypothétiquement,l'exécution d’un programme puisse être faite de telle sorte que l’on puisse converger au mieux vers un contexte d’exécution identique à l’original dans une certaine mesure. Cela, en prenant en compte l'architecture de l’environnement d’exécution ainsi que le mode d'exécution du programme. Nous nous efforçons, dans ce travail, de faciliter l'accès aux méthodes de reproductibilité et de fournir une méthode qui permettra d’atteindre une reproductibilité numérique au sens strict. En effet, de manière plus précise, notre aventure s’articule autour de trois aspects majeurs. Le premier aspect englobe les efforts de collaboration, qui favorisent l'éveil des consciences vis à vis du problème de la reproductibilité, et qui aident à implémenter des méthodes pour améliorer la reproductibilité dans les projets de recherche. Le deuxième aspect se focalise sur la recherche d’un modèle unifiant de contexte d'exécution et un mécanisme de fédération d’outils supportant la reproductibilité derrière une plateforme web pour une accessibilité mondiale. Aussi, nous veillons à l’application de ce deuxième aspect sur des projets de recherche. Finalement, le troisième aspect se focalise sur une approche qui garantit une reproductibilité numérique exacte des résultats de recherche. / Computational reproducibility is an unavoidable concept in the 21st century. Computer hardware evolutions have driven a growing interest into the concept of reproducibility within the scientificcommunity. Simulation experts press that this concept is strongly correlated to the one ofverification, confirmation and validation either may it be for research results credibility or for theestablishment of new knowledge. Reproducibility is a very large domain. Within the area ofnumerical and computational Science, we aim to ensure the verification of research dataprovenance and integrity. Furthermore, we show interest on the precise identification ofoperating systems parameters, compilation options and simulation models parameterizationwith the goal of obtaining reliable and reproducible results on modern computer architectures.To be able to consistently reproduce a software, some basic information must be collected.Among those we can cite the operating system, virtualization environment, the softwarepackages used with their versions, the hardware used (CPU, GPU, many core architectures suchas the former Intel Xeon Phi, Memory, …), the level of parallelism and eventually the threadsidentifiers, the status of pseudo-random number generators, etc. In the context of scientificcomputing, even obvious, it is currently not possible to consistently gather all this informationdue to the lack of a common model and standard to define what we call here execution context.A scientific software that runs in a computer or a computing node, either as a cluster node, a gridcluster or a supercomputer possesses a unique state and execution context. Gatheringinformation about the latter must be complete enough that it can be hypothetically used toreconstruct an execution context that will at best be identical to the original. This of course whileconsidering the execution environment and the execution mode of the software. Our effortduring this journey can be summarized as seeking an optimal way to both ease genuine access toreproducibility methods to scientists and aim to deliver a method that will provide a strictscientific numerical reproducibility. Moreover, our journey can be laid out around three aspects.The first aspect involves spontaneous efforts in collaborating either to bring awareness or toimplement approaches to better reproducibility of research projects. The second aspect focusesin delivering a unifying execution context model and a mechanism to federate existingreproducibility tools behind a web platform for World Wide access. Furthermore, we investigateapplying the outcome of the second aspect to research projects. Finally, the third aspect focusesin completing the previous one with an approach that guarantees an exact numerical reproducibility of research results.
7

Utilisation des ontologies dans le contexte de l'Imagerie par Résonance Magnétique

Lasbleiz, Jérémy 19 December 2013 (has links) (PDF)
L'imagerie médicale et en particulier l'Imagerie par Résonance Magnétique (IRM) occupe une place de choix dans les décisions médicales. Malgré des techniques et des pratiques d'examens comparables les industriels du secteur utilisent un vocabulaire différent pour décrire les événements de l'expérience IRM. Les ontologies permettent de résoudre cette problématique. En les intégrant dans un système informatique nous avons choisi de proposer des solutions innovantes pour trois situations quotidiennes : l'annotation d'examen, la reconnaissance et la correction d'artéfact et l'aide à la prescription d'examen. Les connaissances du domaine IRM sont issues de la littérature et de la pratique quotidienne. DICOM, élément incontournable à l'échange de données en imagerie médicale, a été le point de départ de l'élaboration de l'ontologie. Les connaissances sur les artéfacts en IRM sont en partie issues d'une collaboration avec l'université de Texas A&M Temple. Pour l'aide à la prescription d'examen nous avons choisi une situation clinique représentative la demande d'IRM dans le cadre des traumatismes du genou. Les statistiques proviennent d'une étude réalisée dans le service de médecine du sport du CHU de Rennes. Les systèmes élaborés permettent aux utilisateurs d'utiliser les ontologies sans y être confronté et permettent l'analyse de l'entête DICOM d'une image, l'annotation de l'image, la comparaison d'une image IRM pour la correction d'artéfact et l'aide à la prescription d'IRM est sous la forme d'un serveur web permettant à l'utilisateur de connaître en fonction des signes cliniques présents, la probabilité d'avoir une lésion lors de la réalisation de l'IRM. Nous avons démontré la possibilité d'utilisation des ontologies pour améliorer l'exercice quotidien des praticiens. Les techniques utilisées montre la possibilité d'utiliser les ontologies en les associant aux images et aux probabilités. Le système choisi, interface permettra l'évolution vers une technologie de type webservice.
8

Aide à la prise de décision stratégique : détection de données pertinentes de sources numériques sur Internet / Support strategic decision making : detection of relevant data from digital sources on the Internet

Buitrago Hurtado, Alex Fernando 22 October 2014 (has links)
Le domaine de notre recherche est la décision stratégique au sein des organisations. Plus précisément il s'agit de l'aide à la prise de décision stratégique et de la problématique de l'acquisition des informations utiles pour de telles décisions. D'un côté les ‘informations de terrain' issus des contacts entre personnes, des réunions professionnelles, etc. demeurent essentielles pour les dirigeants. D'un autre côté les journaux quotidiens nationaux et internationaux fournissent un volume considérable de données que l'on peut qualifier de données brutes (Raw data). Mais, outre ces sources classiques, le recueil des informations a évolué de façon considérable avec l'avènement des technologies de l'information et notamment de l'Internet pour ce qui concerne dans notre recherche. Nous avons choisi le domaine concernant l'acquisition des informations de terrain fournies par les journaux nationaux quotidiens : les journaux quotidiens colombiens pour ce qui concernera notre étude empirique. Pour acquérir cette information nous avons proposé sur la base d'une recherche du type « Action Design Research », de concevoir, de construire et d'expérimenter un artéfact permettant de détecter des signaux faibles potentiels issus des données extraites d'Internet et qui aideraient les dirigeants de l'entreprise à découvrir et comprendre leur environnement. L'artéfact a été conçu et construit en deux phases utilisant des concepts théoriques liés à la surcharge de données, à la veille stratégique notamment la VAS-IC® (Veille Anticipative Stratégique – Intelligence Collective) et sur les caractéristiques souhaitables des systèmes informatisés d'aide à la décision stratégique. Après sa construction, l'artéfact a été expérimenté sur un terrain permettant d'évaluer son effectivité. Cette expérimentation a permis d'améliorer nos connaissances sur la pertinence des données numériques dans le processus de la prise de la décision. Les décideurs impliqués ont également pu d'intégrer des nouvelles pratiques adaptées à leurs besoins d'information. / Our research area is around the strategic decision within organizations. More precisely, it is applicable as an aid for strategic decision-making and detecting useful information for such decisions. On the one hand, the ‘information from the field' from the contacts between individuals, business meetings, etc. is always essential for managers. On the other hand, national and international newspapers can provide a considerable volume of data that can be defined as the raw data. However, besides these classical sources, gathering information has changed dramatically with the advent of information technology and particularly internet that is related to our research. We chose the area for the acquisition of ‘information from the field' provided by the national daily newspapers: the Colombian newspaper which concerns to our empirical study. In order to detect weak signals of potential internet base issues which help managers to discover and understand their environment, we proposed a research based on “Action Design Research” type and then applied for designing, building and testing an artifact to gain the required information. The artifact has been designed and built in two phases that is included of using theoretical concepts about the data overload, environmental scanning particularly the “anticipatory and collective environmental scanning model” (VAS-IC®) and the desirable characteristics of strategic decision making support systems. After its construction, the artifact applied to real experimentation that has allowed us to evaluate its effectiveness. Afterwards, we improved our knowledge about the relevance of digital data in the decision making process. The results of all the involved decision makers have been able to integrate these new practices into their information needs.
9

Raison pratique et création réflexive : l'artéfact au-delà du champ étendu de l'art / Practical reason and reflexive practice : the artefact beyond the expanded field of art

Pedrosa, Nuno 12 September 2015 (has links)
Cette thèse, qui met en relation réflexion théorique et création artistique, entend comprendre pourquoi au cours de la contemplation d’une oeuvre d’art notre attention dépasse rarement ses qualités formelles, esthétiques ou conceptuelles.Contrairement à d’autres artefacts que nous rencontrons au quotidien, nous identifions les œuvres d’art au fait qu’elles ne satisfont pas des fins utilitaires. Leur place dans le musée ou la galerie en atteste et conduit à faire en sorte qu'elles n’ont pas d'autre rôle que d’attirer notre attention sur leurs caractéristiques propres. Cette thèse oppose à ce constat un mode de réception qui repose sur l’articulation de l’artefact à un environnement social. Cela suppose un mode de création et d’expression basé sur la fabrication d’instruments ou dispositifs susceptibles d'interpeller le spectateur. / This thesis, which combines theoretical analysis with artistic creation, attempts to understand the reason why, when contemplating works of art, we rarely look beyond their aesthetic, formal or conceptual qualities. Unlike many other objects that we encounter in our lives, works of art are recognizable by the fact that they serve no practical purpose. Their idle existence in galleries and museums confirms this and ensures that works of art fulfill no other function than that of drawing our attention to their inherent qualities. That being the case, this thesis proposes a way of appreciating art that relies on the articulation between an artefact and a social setting. This assumes a way of creating art and expressing ourselves that is grounded on the fabrication of instruments or devices predisposed to engage the beholder.
10

Réduction des artéfacts de tuteur coronarien au moyen d’un algorithme de reconstruction avec renforcement des bords : étude prospective transversale en tomodensitométrie 256 coupes

Chartrand-Lefebvre, Carl 08 1900 (has links)
Les artéfacts métalliques entraînent un épaississement artéfactuel de la paroi des tuteurs en tomodensitométrie (TDM) avec réduction apparente de leur lumière. Cette étude transversale prospective, devis mesures répétées et observateurs avec méthode en aveugle, chez 24 patients consécutifs/71 tuteurs coronariens a pour objectif de comparer l’épaisseur de paroi des tuteurs en TDM après reconstruction par un algorithme avec renforcement des bords et un algorithme standard. Une angiographie coronarienne par TDM 256 coupes a été réalisée, avec reconstruction par algorithmes avec renforcement des bords et standard. L’épaisseur de paroi des tuteurs était mesurée par méthodes orthogonale (diamètres) et circonférentielle (circonférences). La qualité d’image des tuteurs était évaluée par échelle ordinale, et les données analysées par modèles linéaire mixte et régression logistique des cotes proportionnelles. L’épaisseur de paroi des tuteurs était inférieure avec l’algorithme avec renforcement des bords comparé à l’algorithme standard, avec les méthodes orthogonale (0,97±0,02 vs 1,09±0,03 mm, respectivement; p<0,001) et circonférentielle (1,13±0,02 vs 1,21±0,02 mm, respectivement; p<0,001). Le premier causait moins de surestimation par rapport à l’épaisseur nominale comparé au second, avec méthodes orthogonale (0,89±0,19 vs 1,00±0,26 mm, respectivement; p<0,001) et circonférentielle (1,06±0,26 vs 1,13±0,31 mm, respectivement; p=0,005) et diminuait de 6 % la surestimation. Les scores de qualité étaient meilleurs avec l’algorithme avec renforcement des bords (OR 3,71; IC 95% 2,33–5,92; p<0,001). En conclusion, la reconstruction des images avec l’algorithme avec renforcement des bords génère des parois de tuteurs plus minces, moins de surestimation, et de meilleurs scores de qualité d’image que l’algorithme standard. / Metallic artifacts can result in an artificial thickening of the coronary stent wall which can significantly impair computed tomography (CT) imaging in patients with coronary stents. The purpose of this study is to assess the in vivo visualization of coronary stent wall and lumen with an edge-enhancing CT reconstruction kernel, as compared to a standard kernel. This is a prospective cross-sectional study of 24 consecutive patients with 71 coronary stents, using a repeated measure design and blinded observers, approved by the Local Institutional Review Board. 256-slice CT angiography was used, as well as standard and edge-enhancing reconstruction kernels. Stent wall thickness was measured with orthogonal and circumference methods, averaging wall thickness from stent diameter and circumference measurements, respectively. Stent image quality was assessed on an ordinal scale. Statistical analysis used linear and proportional odds models. Stent wall thickness was inferior using the edge-enhancing kernel compared to the standard kernel, either with the orthogonal (0.97±0.02 versus 1.09±0.03 mm, respectively; p<0.001) or circumference method (1.13±0.02 versus 1.21±0.02 mm, respectively; p<0.001). The edge-enhancing kernel generated less overestimation from nominal thickness compared to the standard kernel, both with orthogonal (0.89±0.19 versus 1.00±0.26 mm, respectively; p<0.001) and circumference (1.06±0.26 versus 1.13±0.31 mm, respectively; p=0.005) methods. The average decrease in stent wall thickness overestimation with an edge-enhancing kernel was 6%. Image quality scores were higher with the edge-enhancing kernel (odds ratio 3.71, 95% CI 2.33–5.92; p<0.001). In conclusion, the edge-enhancing CT reconstruction kernel generated thinner stent walls, less overestimation from nominal thickness, and better image quality scores than the standard kernel.

Page generated in 0.4194 seconds