• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2768
  • 906
  • 403
  • 12
  • 5
  • 4
  • 2
  • 1
  • Tagged with
  • 4136
  • 1297
  • 979
  • 902
  • 735
  • 732
  • 700
  • 633
  • 598
  • 577
  • 504
  • 393
  • 384
  • 375
  • 349
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1241

Tumeurs cérébrales et rayonnement Synchrotron. Développement méthodologique pour la radiothérapie par minifaisceaux et suivi du traitement par imagerie fonctionnelle

Deman, Pierre 08 February 2012 (has links) (PDF)
En 2006 Dilmanian et al. ont proposé une méthode d'irradiation par rayonnement synchrotron innovante appelée minifaisceaux. L'irradiation de tumeur par minifaisceaux monochromatiques consiste en un motif fractionné spatialement de faisceaux de rayons X submillimétriques produits par un synchrotron. Afin d'obtenir une dose homogène dans le volume cible, deux incidences orthogonales sont entrecroisées. Le tissu sain environnant ne subit que l'irradiation fractionnée, entre les faisceaux la dose n'est dûe qu'au diffusé et l'énergie déposée y est donc 10 à 15 fois inférieure à celle déposée sur les axes des faisceaux. Cela permet un effet protecteur des tissus sains tout en distribuant de fortes doses à la tumeur. Cette thèse porte sur le développement de la méthode expérimentale des minifaisceaux monochromatiques, ce qui comprend le contrôle de la géométrie d'irradiation, la dosimétrie expérimentale et l'étude Monte Carlo correspondante. Afin d'évaluer son efficacité, des études précliniques ont été réalisées sur un modèle de tumeur cérébrale implantée chez le rat (F98). Un suivi de traitement est réalisé par de l'imagerie anatomique et fonctionnelle afin d'évaluer son efficacité. L'imagerie de perfusion cérébrale (menant aux volumes et débits sanguin cérébrales, au temps de transit moyen) est d'après la littérature un moyen efficace de pronostique du résultat du traitement. Les paramètres clés de la vascularisation cérébrale sont principalement étudiés par imagerie IRM, du fait de l'innocuité de ce type d'imagerie. La Synchrotron Radiation Computed Tomography (SRCT) est une modalité d'imagerie dont les performances sont proches des limites théoriques dans l'obtention de mesures absolues des concentrations d'agent de contraste et peut être utilisé en tant que gold-standard. Les modèles pharmacocinétiques utilisés nécessitent comme paramètre d'entrée des concentrations d'agent de contraste en fonction du temps. La relation entre le signal obtenu par IRM et la concentration d'agent de contraste est très complexe et difficilement quantitative. Une comparaison des mesures de perfusion effectuées par IRM et par SRCT a été effectuée afin de calibrer les mesures IRM.
1242

Estimation rapide en surface de la triaxialité des contraintes et de la plasticité : application aux disques et aux aubes de turbine de turboréacteurs

Darlet, Adrien 21 January 2014 (has links) (PDF)
Le présent travail de doctorat vise à proposer une méthode de post-traitement de la plasticité, à partir de deux calculs éléments finis en élasticité, afin de déterminer la durée de vie de structures avec concentration de contraintes, comme les disques ou les aubes de turbines. Leur dimensionnement en fatigue avec des calculs éléments finis en plasticité conduit à des temps de calcul longs, voir prohibitifs. Les méthodes de types Neuber et l'analyse par changement d'échelles sont des alternatives beaucoup moins couteuses en temps de calcul. En effet, ces méthodes permettent d'estimer la plasticité localisée uniquement à l'aide de calculs éléments finis en élasticité. Néanmoins, lorsque l'état de contrainte est multiaxial, le post-traitement de la plasticité est très imprécis. Cette imprécision provient d'une mauvaise estimation de la triaxialité des contraintes. Les méthodes de type Neuber ont été d'abord enrichies par une description plus précise de la triaxialité des contraintes. Elles ont ensuite été validées sur des structures soumises à des chargements monotones. Cependant, cette méthodologie n'est pas adaptée pour les chargements multiaxiaux alternés. Pour remédier à ce problème, une approche fondée sur les lois de changement d'échelles a été développée. Les zones de plasticité confinée sont considérées comme des inclusions. Cette approche est également enrichie par une meilleure description de la triaxialité des contraintes. Le post-traitement de la plasticité obtenue sur les bords libres de structures soumises à des chargements alternés est précis. Cette méthode a finalement été appliquée sur les cas d'un disque et d'une aube de turbine.
1243

Traitement spatial des interférences cyclostationnaires pour les radiotélescopes à réseau d'antennes phasé

Feliachi, Rym 12 April 2010 (has links) (PDF)
Cette thèse est une contribution à l'amélioration des observations pour les radiotélescopes à réseaux phasés en présence d'interférences. L'originalité de cette thèse repose sur l'utilisation de la séparation spatiale entre les sources cosmiques et les brouilleurs issus des télécommunications en se basant sur la cyclostationnarité de ces derniers. Cette thèse s'inscrit dans le cadre du projet européen SKADS pour l'amélioration des techniques de suppression d'interférences en radioastronomie pour les futurs instruments d'observations.Nous avons proposé trois techniques de traitement d'interférences : la détection,l'estimation et la soustraction, et le filtrage spatial. Les performances des techniques proposées ont été évaluées à travers des simulations sur des données synthétiqueset/ou réelles, et comparées aux techniques existantes.
1244

Définition et implantation matérielle d'un estimateur de mouvement configurable pour la compression vidéo adaptative

Elhamzi, Wajdi 04 February 2013 (has links) (PDF)
L'objectif de cette thèse est la conception d'une plateforme de compression vidéo de nouvelle génération à haut degré d'adaptation vis-à-vis de l'environnement. Ce besoin d'adaptabilité a plusieurs origines. D'une part les systèmes actuels visent à s'adapter à la diversité et l'hétérogénéité des médias et des terminaux actuels. D'autre part, l'exploitation de l'information contenue dans une scène vidéo dépend de l'application visée et des besoins des utilisateurs. Ainsi, l'information peut être exploitée de manière complètement inhomogène spatialement ou temporellement. En effet, l'exploitation spatiale de la scène peut être irrégulière par définition, par la définition automatique ou manuelle de zones d'intérêts dans l'image. La qualité de la vidéo, donc de la compression, doit pouvoir s'adapter afin de limiter la quantité de donnée à transmettre. Cette qualité est donc dépendante de l'évolution de la scène vidéo elle-même. Une architecture matérielle configurable a été proposée dans cette thèse permettant de supporter différents algorithmes de recherche en offrant une précision subpixélique.La synthèse des travaux menés dans ce domaine et la comparaison objective des résultats obtenus par rapport à l'état de l'art. L'architecture proposée est synthétisée à base d'un FPGA Virtex 6 FPGA, les résultats obtenus pourraient traiter l'estimation du mouvement pixélique avec un flux vidéo haute définition (HD 1080), respectivement à 13 images par seconde en utilisant la stratégie de recherche exhaustive (108K Macroblocs/s) et jusqu'à 223 images par seconde avec la recherche selon un grille en diamant (1,8 M Macroblocs /s). En outre le raffinement subpixélique en quart-pel est réalisé à Macroblocs 232k/ s
1245

The real time product quality intelligent forecasting and analysis system

Ma, Kui 09 1900 (has links) (PDF)
Catalytic cracking fractional colurnn is the most important production device for refining enterprises in China. Its main products are car gasoline and diesel fuel. The yield and quality of these two kinds of products decide directly the economie efficiency of enterprises. In order to increase the economic efficiency of enterprises, it is needed to better adjust and control the quality of car gasoline and diesel fuel. Because fluidized catalytic cracking unit (FCCU) is in closed state, it is impossible to observe actual production process manually. But if people cannot timely master product quality condition, it is impossible to adjust effectively the technological parameters in order to control product quality. But at present, it takes four hours to obtain quality level of products if using the method of manual sampling testing. If it is as this, production process cannot, based on the analyzed results, be timely adjusted. Therefore, developing the real-time product quality intellect forecasting and analysis system of fractional column and realizing forecasting and analysis on-line have important theoretic meaning and value in engineering application. This system can real-timely forecast product quality of fractional colurnn, and can also real-timely analyze the factors affecting the products. So, the adjustment oftechnological parameters is more targeted, and shortens adjustment time, and increases efficiency. It is no doubt that the economic efficiency will increase. The thesis, taking fractional colurnn of fluidized catalytic cracking unit (FCCU) as research target, with the aim of forecasting product quality level of fractional column, establishes quality forecasting model through the method of neural network, and speculates the critical technological parameters that are hard to measure or impossible to measure at all through the technological parameters that are easy to measure. The system first finishes interactive interface between control system and operator with the functions of dynamic display and real-time data acquisition through configuration software DCS (Distributed Control System), which can supervise, control, activate and manage the whole system. Then it will realize product quality forecasting of fractional colurnn through the method of combining utility function based on average level and neural network. Finally it will realize the analysis of factors affecting product quality through the method of combining fuzzy technology and neural network. The thesis, through system configuration and using neural network technology to forecast product quality of fractional colurnn and analyze the factors affecting product quality, combines fuzzy technology and neural network which play their respective advantages to finish the display and control of operation state of fractionation system and realize real-time forecasting and analysis. The online forecasting system of product quality of catalytic cracking fractional colurnn based on the method mentioned above is developed for many small and medium petrochemical enterprises. The aim is to transform the equipments under the present condition of small and medium petrochemical enterprises with no change in the hardware of the original DCS (Distributed Control System) of refining enterprises. Therefore, this system has many advantages such as small investment, short transformation time and easy realization, etc. Currently, this system has been tried on the fluidized catalytic cracking unit (FCCU) in Tianjin First Petrochemical Plant in China. The operating result shows that the value and laboratory value of dry point of car gasoline and solidifying point of diesel fuel forecasted real-timely in this model have better goodness of fit, satisfying the requirements of product quality index. The test result shows that the technical path and method using neural network technology to forecast product quality put forward in the thesis is feasible. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Catalytic cracking, Fractional column, Neural network
1246

Contribution à l'évaluation d'algorithmes de traitement d'images

Rosenberger, Christophe 07 December 2006 (has links) (PDF)
J'ai obtenu mon Doctorat en 1999 sur le thème de la segmentation d'images. Depuis septembre 2000, je suis maître de conférences à l'ENSI de Bourges. J'enseigne des cours de traitement d'images et d'intelligence artificielle au niveau Master. Je suis depuis le 1er septembre 2006, le responsable des relations européennes et internationales au sein de cet établissement. Je suis rattaché au Laboratoire Vision Robotique (UPRES EA 2078) et à l'équipe Signal, Image et Vision. Je suis le responsable du groupe Interprétation au sein de cette équipe regroupant 3 maîtres de conférences, un ATER et 2 doctorants. Mes activités de recherche principales sont la modélisation 3D d'objets, la détection/reconnaissance d'objets et l'évaluation d'algorithmes de traitement d'images. Ce manuscrit concerne ce dernier thème correspondant à mon activité majeure de recherche. J'ai participé au co-encadrement de 4 doctorants dont deux spécifiquement sur ce thème (les deux ayant soutenu) et deux étudiants de Master recherche. J'ai valorisé mes activités de recherche au travers de plusieurs publications : 1 chapitre de livre international, 6 revues internationales, 2 revues nationales, 53 conférences internationales et 10 conférences nationales. Je suis titulaire du Contrat d'encadrement doctoral et de recherche (PEDR) depuis le 1er octobre 2005. J'ai été sollicité pour effectuer de nombreuses expertises (projets ANVAR, référé d'articles et projets ANR). J'ai participé à de nombreux contrats industriels afin de contribuer au budget de fonctionnement du groupe Interprétation. Ce manuscrit comporte 2 parties. La première correspond à une synthèse de mes activités pédagogiques, administratives et recherche. La seconde présente un résumé des mes activités de recherche dans le domaine de l'évaluation d'algorithmes de traitement d'images. Elle est constituée de trois chapitres. Le premier a pour objectif de positionner la problématique de l'évaluation d'algorithmes de traitement d'images. Les différentes approches utilisées dans la littérature y sont présentées. J'ai développé une méthodologie visant à analyser des approches d'évaluation et à en faciliter leurs conceptions et utilisations. Cette démarche est déclinée au travers de deux algorithmes de traitement d'images. Le troisième chapitre de ce manuscrit présente les travaux sur l'évaluation de résultats de compression d'images ultrasonores dans lesquels j'ai été impliqué. Le thème de l'évaluation de la segmentation d'images que j'ai initié au sein du laboratoire est abordée dans le quatrième chapitre. Je conclus ce document par mon projet de recherche.
1247

Arbre de partition binaire : Un nouvel outil pour la représentation hiérarchique et l'analyse des images hyperspectrales

Valero, Silvia 09 December 2011 (has links) (PDF)
Une image hyperspectrale est formée par un ensemble de bandes spectrales contenant les informations correspondantes à un intervalle du spectre électromagnétique. Le grand avantage de l'imagerie hyperspectrale par rapport l'imagerie traditionnelle est la capacité de mesurer le rayonnement électromagnétique dans le visible et dans d'autres longueurs d'onde. Cette caractéristique permet la détection des différences subtiles existantes parmi les plusieurs objets composant une image. Le traitement de ces images aussi volumineuses nécessite le développement d'algorithmes avancés qui permettent une exploitation optimale des données hyperspectrales. La représentation traditionnelle de ces images est un ensemble de mesures spectrales, ou spectres, une pour chaque pixel de l'image. Le principal inconvénient de cette représentation est que le pixel est l'unité la plus fondamentale des images numériques. Une analyse individuelle des spectres formant une image hyperspectrale fournit une information qui n'est pas optimale. Dans ce cadre, il est nécessaire d'établir des connexions entre les pixels d'une image hyperspectral afin de distinguer des formes dans l'image qui caractérisent leur contenu. Les représentations basées sur des régions fournissent un moyen de réaliser un premier niveau d'abstraction permettant une réduction du nombre d'éléments à traiter et une obtention des informations sémantiques du contenu de l'image. Ce type de représentations fournit une nette amélioration par rapport la représentation classique basée sur des pixels individuels. Sous le titre "La représentation et le traitement des images hyperspectrales en utilisant l'arbre binaire de partitions", cette thèse propose la construction d'une nouvelle représentation hiérarchique d'images hyperspectrales basée sur des régions : l'arbre binaire des partitions (ou BPT, sigles en anglais). Cette nouvelle représentation peut être interprétée comme un ensemble de régions de l'image dans une structure arborescente. L'arbre binaire de partitions peut être utilisé pour représenter : (i) la décomposition d'une image en plusieurs régions ayant un contenu sémantique et (ii) les différentes relations d'inclusion des régions dans la scène. L'arbre binaire de partitions est basée sur la construction d'un algorithme itératif de fusion de régions. La construction du BPT a été étudiée dans cette thèse par l'étude de différents modèles de représentation d'une région hyperspectrale et de différentes distances de similitude entre deux régions hyperspectrales. Cette recherche a été nécessaire en face la grande dimensionalité et complexité des données qui font nécessaire la définition d'un modèle de région et d'une distance de similarité spécifiques. Grâce à la structure en forme d'arbre, le BPT permet la définition d'un grand nombre de techniques pour un traitement avancé des images hyperspectrales. Ces techniques sont typiquement basées sur l'élagage de l'arbre grâce auquel les régions les plus intéressantes pour une application donnée sont extraites. Cette thèse se concentre sur trois applications particulières : la segmentation, la classification et la détection d'objets dans les images hyperspectrales. Les résultats expérimentaux obtenus sur différentes jeux de données montrent les qualités de la représentation BPT.
1248

L'exposition et la prévention de la réponse dans la thérapie cognitive comportementale du trouble obsessionnel-compulsif: Utilité et efficacité de la réalité virtuelle

Laforest, Mylène 30 May 2014 (has links)
Le trouble obsessionnel-compulsif (TOC) se caractérise par la présence de pensées, images ou impulsions qui provoquent une détresse (obsessions) qui est habituellement soulagée par des rituels mentaux ou comportementaux (compulsions). De nos jours, le traitement reconnu comme étant le plus efficace est la thérapie cognitive comportementale (TCC), et plus particulièrement la technique d’exposition et de prévention de la réponse (EX/PR). Dans la plupart des études ainsi que dans les contextes pratiques, les individus souffrant du TOC sont habituellement traités par l’exposition in vivo, c’est-à-dire qu’ils sont exposés à des stimuli contaminés réels. Toutefois, ce traitement comporte des limites. Les études récentes démontrent l’efficacité des environnements virtuels à induire une réaction d’anxiété chez les phobiques ainsi que son potentiel comme outil dans le cadre d’exposition dans le traitement de troubles anxieux (Robillard et al., 2003). Dans un premier temps, une recension des écrits portant sur la possibilité de l’utilisation de cette technologie dans le traitement du TOC est effectuée et la question de la contribution de la réalité virtuelle dans la TCC du TOC est explorée. Dans un deuxième temps, nous examinons l’efficacité d’un environnement virtuel à induire une détresse chez les personnes souffrant d’un TOC (n = 12) à sous-type de contamination en comparant les résultats aux mesures subjectives et objectives à ceux d’un groupe contrôle (n = 20). Les résultats aux ANOVAs à mesures répétées ont démontré une réaction d’anxiété significativement plus élevée chez le groupe souffrant du TOC comparé au groupe contrôle. Dans un troisième temps, nous examinons à l’aide d’un devis à niveaux de bases multiples en fonction des individus l’efficacité d’un traitement cognitif comportemental d’une durée de 12 sessions avec exposition in virtuo quant à la réduction des symptômes chez trois participantes souffrant d’un TOC à sous-type principal de contamination. Des analyses de séries chronologiques ont été menées sur les données et ont révélées une amélioration statistiquement significative chez les participantes. Ces études préparent le terrain pour des études contrôlées effectuées à partir d’un échantillon plus large en plus de montrer le potentiel de la réalité virtuelle dans le traitement de troubles anxieux chroniques et complexes.
1249

Système de Questions/Réponses dans un contexte de Business Ingelligence

Kuchmann-Beauger, Nicolas 15 February 2013 (has links) (PDF)
Le volume et la complexité des données générées par les systèmes d'information croissent de façon singulière dans les entrepôts de données. Le domaine de l'informatique décisionnelle (aussi appelé BI) a pour objectif d'apporter des méthodes et des outils pour assister les utilisateurs dans leur tâche de recherche d'information. En effet, les sources de données ne sont en général pas centralisées, et il est souvent nécessaire d'interagir avec diverses applications. Accéder à l'information est alors une tâche ardue, alors que les employés d'une entreprise cherchent généralement à réduire leur charge de travail. Pour faire face à ce constat, le domaine "Enterprise Search" s'est développé récemment, et prend en compte les différentes sources de données appartenant aussi bien au réseau privé d'entreprise qu'au domaine public (telles que les pages Internet). Pourtant, les utilisateurs de moteurs de recherche actuels souffrent toujours de du volume trop important d'information à disposition. Nous pensons que de tels systèmes pourraient tirer parti des méthodes du traitement naturel des langues associées à celles des systèmes de questions/réponses. En effet, les interfaces en langue naturelle permettent aux utilisateurs de rechercher de l'information en utilisant leurs propres termes, et d'obtenir des réponses concises et non une liste de documents dans laquelle l'éventuelle bonne réponse doit être identifiée. De cette façon, les utilisateurs n'ont pas besoin d'employer une terminologie figée, ni de formuler des requêtes selon une syntaxe très précise, et peuvent de plus accéder plus rapidement à l'information désirée. Un challenge lors de la construction d'un tel système consiste à interagir avec les différentes applications, et donc avec les langages utilisés par ces applications d'une part, et d'être en mesure de s'adapter facilement à de nouveaux domaines d'application d'autre part. Notre rapport détaille un système de questions/réponses configurable pour des cas d'utilisation d'entreprise, et le décrit dans son intégralité. Dans les systèmes traditionnels de l'informatique décisionnelle, les préférences utilisateurs ne sont généralement pas prises en compte, ni d'ailleurs leurs situations ou leur contexte. Les systèmes état-de-l'art du domaine tels que Soda ou Safe ne génèrent pas de résultats calculés à partir de l'analyse de la situation des utilisateurs. Ce rapport introduit une approche plus personnalisée, qui convient mieux aux utilisateurs finaux. Notre expérimentation principale se traduit par une interface de type search qui affiche les résultats dans un dashboard sous la forme de graphes, de tables de faits ou encore de miniatures de pages Internet. En fonction des requêtes initiales des utilisateurs, des recommandations de requêtes sont aussi affichées en sus, et ce dans le but de réduire le temps de réponse global du système. En ce sens, ces recommandations sont comparables à des prédictions. Notre travail se traduit par les contributions suivantes : tout d'abord, une architecture implémentée via des algorithmes parallélisés et qui prend en compte la diversité des sources de données, à savoir des données structurées ou non structurées dans le cadre d'un framework de questions-réponses qui peut être facilement configuré dans des environnements différents. De plus, une approche de traduction basée sur la résolution de contrainte, qui remplace le traditionnel langage-pivot par un modèle conceptuel et qui conduit à des requêtes multidimensionnelles mieux personnalisées. En outre, en ensemble de patrons linguistiques utilisés pour traduire des questions BI en des requêtes pour bases de données, qui peuvent être facilement adaptés dans le cas de configurations différentes. Enfin, nous avons implémenté une application pour iPhone/iPad et une interface de type "HTML" qui démontre la faisabilité des différentes approches développées grâce à un ensemble de mesures d'évaluations pour l'élément principal (le composant de traduction) et un scénario d'évaluation pour le framework dans sa globalité. Dans ce but, nous introduisons un ensemble de requêtes pouvant servir à évaluer d'autres système de recherche d'information dans le domaine, et nous montrons que notre système se comporte de façon similaire au système de référence WolframAlpha, en fonction des paramètres d'évaluation.
1250

Contribution à la reconstruction 3D des membres inférieurs reconstruits à partir des radios biplanes pour l'application à la planification et au suivi des chirurgies

Quijano, Sergio 19 July 2013 (has links) (PDF)
Pour comprendre et diagnostiquer les pathologies qui affectent l'organisation spatialede notre squelette, il est essentiel d'aborder ces problématiques en 3D. Le CT-Scan et l'IRMsont des modalités d'imagerie couramment utilisées en milieu clinique pour étudier en 3D notresystème musculosquelettique. La plupart de ces systèmes d'imagerie proposent une acquisitioncouchée sur laquelle les effets gravitaires ne sont pas pris en compte. Le CT-Scan est unemodalité particulièrement irradiante et l'IRM est plus spécifiquement dédiée à l'étude des tissusmous. Le système EOS permet de reconstruire en 3D les os à partir d'une paire deradiographies biplanes à faible dose d'irradiation. En plus, le système EOS propose uneacquisition en position debout, prenant en compte les effets gravitaires. Cette thèse contribue àl'amélioration des méthodes de reconstruction 3D des membres inférieurs à partir des radiosbiplanes. Dans le cadre de thèse on a proposé et évalué : 1) Une méthode de reconstruction3D des membres inférieurs s'appuyant sur des modèles paramétrés et des inférencesstatistiques. 2) Une méthode d'auto-amélioration de la reconstruction 3D des membresinférieurs en utilisant du traitement d'images local et le recalcul d'inférences statistiques. 3)Enfin, des méthodes utilisant des critères de similarité d'images et des critères morphologiquespour détecter de manière automatique le côté médial et latéral du fémur et du tibia. Le but estd'éviter l'inversion par l'opérateur de condyles fémoraux et plateaux tibiaux, affectant la valeurdes paramètres cliniques, surtout les torsions. La méthode de reconstruction proposée dans lecadre de cette thèse est intégrée dans le logiciel sterEOS® et utilisée dans une soixantained'hôpitaux au monde. Les méthodes développées dans le cadre de cette thèse ont permis deprogresser vers la reconstruction semi-automatisée, précise et robuste du membre inférieur

Page generated in 0.066 seconds