• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2776
  • 908
  • 407
  • 12
  • 5
  • 4
  • 2
  • 1
  • Tagged with
  • 4150
  • 1301
  • 980
  • 903
  • 735
  • 732
  • 700
  • 633
  • 598
  • 578
  • 504
  • 393
  • 386
  • 375
  • 349
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1661

Prédiction des facteurs de risque conduisant à l’emphysème chez l’homme par utilisation de techniques diagnostiques / Prediction of risk factors leading to human emphysema by diagnostic technique

Emam, Mohammed 11 May 2012 (has links)
Les broncho-pneumopathies chroniques obstructives (BPCO) constituent un groupe de maladies des poumons caractérisées par le blocage du passage de l’air, rendant la respiration de plus en plus difficile. L’emphysème et la bronchite chronique sont les deux principales affections parmi les BPCO, mais les BPCO peuvent également être provoquées par les dégâts causés par des bronchites chroniques asthmatiques. L’emphysème pulmonaire est une maladie pulmonaire caractérisée par l’élargissement des espaces aériens distaux en amont des bronchioles terminales non respiratoires, accompagné de la destruction des parois alvéolaires. Ces modifications du parenchyme pulmonaire sont pathognomoniques de l’emphysème. La bronchite chronique est une forme de bronchite caractérisée par une production excessive d’expectoration, entraînant l’apparition d’une toux chronique et l’obstruction des voies respiratoires. Dans toutes ces affections, les dégâts causés aux voies respiratoires finissent par affecter les échanges gazeux dans les poumons. L’emphysème est généralement diagnostiqué de façon indirecte, sur la base d’un examen clinique, d’explorations de la fonction respiratoire (EFR), et d’une évaluation visuelle subjective des scanners des tomodensitogrammes. Ces tests présentent une valeur limitée dans les cas d’emphysème léger ou modéré. La présente étude aborde la possibilité d’appliquer une démarche d’analyse non linéaire à la répartition de la densité de l’air au sein de l’arbre des voies respiratoires des poumons à un quelconque niveau des ramifications. Les images sources de tomodensitométrie (TDM) du poumon sont traitées en deux phases, afin de produire un coefficient fractal de répartition de la densité de l’air. Au cours de la première phase, les valeurs brutes de pixel des images sources correspondant à toutes les densités d’air possibles sont traitées par un outil logiciel, mis au point pour construire une image cible. On y parvient par suppression en cascade des éléments indésirables (SCEI) : une étape de prétraitement dans l’analyse de l’image source. Celle-ci permet d’identifier les valeurs de densité d’air au sein de l’arbre des voies respiratoires, tout en éliminant toutes les valeurs non relatives à la densité de l’air. La seconde phase consiste en une réduction itérative de la résolution (RIR). Chaque réduction de la résolution produit un nouvel histogramme. Chaque histogramme ainsi produit comporte un certain nombre de pics, chacun d’entre eux correspondant à un ensemble de densités d’air. La courbe mettant en relation chaque réduction de la résolution avec le nombre de pics correspondant, obtenus à la résolution concernée, est tracée. Ceci permet de calculer la dimension fractale par une régression linéaire sur un graphique log – log. / Chronic Obstructive Pulmonary Disease (COPD) refers to a group of lung diseases that block airflow and make it increasingly difficult for you to breathe. Emphysema and chronic bronchitis are the two main conditions that make up COPD, but COPD can also refer to damage caused by chronic asthmatic bronchitis. Pulmonary emphysema is defined as a lung disease characterized by “abnormal enlargement of the air spaces distal to the terminal, non-respiratory bronchiole, accompanied by destructive changes of the alveolar walls”. These lung parenchymal changes are pathognomonic for emphysema. Chronic bronchitis is a form of bronchitis characterized by excess production of sputum leading to a chronic cough and obstruction of air flow. In all cases, damage to your airways eventually interferes with the exchange of oxygen and carbon dioxide in your lungs. Habitual techniques of emphysema’s diagnosis are based on indirect features, such as clinical examination; Pulmonary Function Tests (PFT) and subjective visual evaluation of CT scans. These tests are of limited value in assessing mild to moderate emphysema. The presented work discusses the possibility of applying a nonlinear analysis approach on air density distribution within lung airways tree at any level of branching. Computed Tomography (CT) source images of the lung are subjected to two phases of treatment in order to produce a fractal coefficient of the air density distribution. In the first phase, raw pixel values from source images, corresponding to all possible air densities, are processed by a software tool, developed in order to, construct a product image. This is done through Cascading Elimination of Unwanted Elements (CEUE): a preprocessing analysis step of the source image. It identifies values of air density within the airways tree, while eliminating all non-air-density values. Then, during the second phase, in an iterative manner, a process of Resolution Diminution Iterations (RDI) takes place. Every resolution reduction produces a new resultant histogram. A resultant histogram is composed of a number of peaks, each of which corresponding to a cluster of air densities. A curve is plotted for each resolution reduction versus the number of peaks counted at this particular resolution. It permits the calculation of the fractal dimension from the regression slope of log-log power law plot.
1662

Recherche d'optimisation énergétique d'un réacteur plasma froid de traitement d'effluents gazeux chargés en composés organiques volatils à pression atmosphérique. / Energetic optimization of cold plasma process for VOC charged industrial gaseous effluent treatment

Mericam bourdet, Nicolas 19 March 2012 (has links)
Ce travail s’inscrit dans le processus de développement d’un dispositif de traitement de composés organiques volatils (COV) par plasma non-thermique. L’application industrielle des dispositifs de dépollution par plasma froid se heurte à deux limitations majeures que sont une consommation énergétique importante et la formation de sous-produits. Deux axes d’amélioration de l’efficacité énergétique du procédé à décharges sur barrière diélectrique sont explorés dans ce travail de thèse : le mode de dépôt d’énergie dans la décharge et le couplage du réacteur plasma avec un dispositif catalytique. Concernant le premier axe, l’étude a montré que dans le cas des réacteurs DBD étudiés, le paramètre gouvernant la réactivité chimique du plasma à pression atmosphérique était la densité d’énergie, qu’il s’agisse de production d’ozone ou d’élimination d’un COV de la phase gazeuse. L’étude chimique des sous-produits de dégradation par décharge a été conduite pour trois molécules cibles : l’éthanol, l’acétone et la méthyléthylcétone. Dans le cas de l’éthanol, un schéma cinétique 0D est proposé, montrant l’importance de la dissociation dans les mécanismes de dégradation du COV. Pour le second axe exploré, le réacteur plasma a été couplé à un catalyseur. Deux formulations de catalyseurs ont été utilisées, avec et sans métaux précieux. Dans les deux cas, l’activation du catalyseur à basse température par couplage avec le réacteur plasma est démontrée. La dernière partie de l’étude présente les résultats obtenus sur un réacteur plasma à échelle pilote visant à estimer l’impact de l’augmentation des capacités de traitement d’un réacteur DBD sur l’efficacité énergétique du procédé. / This work deals with the development of a VOC removal method by non-thermal plasma which has several advantages including flexibility, compactness and limited investment costs. Further development of this technology needs to overcome major drawbacks such as high energy consumption for high flow rate treatment and the presence of by-products. The first part of the study focuses on the method of discharge energy deposition and the search for optimization of the process energy efficiency. Development of experimental and measurement tools, in particular for the determination of the electrical power injected into the discharge were carefully carried out. The effect of voltage waveform, signal frequency and electrode shape were investigated. The results show that no energy efficiency improvement could be brought by variation of these parameters and that only energy density is important in the gas treatment process. The second part of the study was devoted to the study of conversion of three pollutants (acetone, ethanol and methylethylketone). Formation of by-products was analyzed and a kinetic scheme is proposed for ethanol conversion. To decrease the level of by-products at the reactor outlet, the association between cold plasma and catalysis was investigated. Catalysis was found to allow an improvement in the oxidation of the pollutants and of the discharge by-products. The last part of this work focused on results obtained with a large flow rate plasma reactor to confirm extension of laboratory scale results to larger equipment. Results confirmed that the extension of low flow rate experimental results is possible.
1663

Cyclic Hoist Scheduling Problems in Classical and Sustainabl / Ordonnancement cyclique des ressources de transport dans les ateliers de traitement de surface, dans des contextes traditionnel et durable

Lei, Weidong 08 December 2014 (has links)
Les ateliers de traitement de surface automatisés, qui utilisent des robots de manutention commandés par ordinateur pour le transport de la pièce, ont été largement mis en place dans différents types d'entreprises industrielles, en raison de ses nombreux avantages par rapport à un mode de production manuel, tels que : une plus grande productivité, une meilleure qualité des produits, et l’impact sur les rythmes de travail. Notre recherche porte sur trois types de problèmes d'ordonnancement associés à ces systèmes, appelés Hoist Scheduling Problems, caractérisés par des contraintes de fenêtres de temps de traitement: (I) un problème à une seule ressource de transport où l’objectif est de minimiser le temps de cycle; (II) un problème bi-objectif avec une seule ressource de transport où il faut minimiser le temps de cycle et la consommation de ressources de traitement (et par conséquent le coût de production); et (III) un problème d'ordonnancement cyclique mono-objectif mais multi-robots.En raison de la NP-complétude des problèmes étudiés et de nombreux avantages de les outils de type quantum-inspired evolutionary algorithm (QEA), nous proposons d'abord un QEA hybride comprenant un mécanisme de décodage amélioré et une procédure réparation dédiée pour trouver le meilleur temps de cycle pour le premier problème. Après cela, afin d'améliorer à la fois la performance économique et environnementale qui constituent deux des trois piliers de la stratégie de développement durable de nos jours déployée dans de nombreuses industries, nous formulons un modèle mathématique bi-objectif pour le deuxième problème en utilisant la méthode de l'intervalle interdit. Ensuite, nous proposons un QEA bi-objectif couplé avec une procédure de recherche locale pour minimiser simultanément le temps de cycle et les coûts de production, en générant un ensemble de solutions Pareto-optimales pour ce problème. Quant au troisième problème, nous constatons que la plupart des approches utilisées dans les recherches actuelles, telles que la programmation entière mixte (MIP), peuvent conduire à l’obtention d’une solution non optimale en raison de la prise en compte courante d’une hypothèse limitant l’exploration de l’espace de recherche et relative aux mouvements en charge des robots. Par conséquent, nous proposons une approche de MIP améliorée qui peut garantir l'optimalité des solutions obtenues pour ce problème, en relaxant l'hypothèse mentionnée ci-dessus.Pour chaque problème, une étude expérimentale a été menée sur des cas industriels ainsi que sur des instances générées aléatoirement. Les résultats obtenus montrent que l’efficacité des algorithmes d'ordonnancement proposés, ce qui justifie les choix que nous avons faits. / Automated treatment surface facilities, which employ computer-controlled hoists for part transportation, have been extensively established in various kinds of industrial companies, because of its numerous advantages over manual system, such as higher productivity, better product quality, and reduced labor intensity. Our research investigates three typical hoist scheduling problems with processing time windows in treatment surface facilities, which are: (I) cyclic single-hoist scheduling problem to minimize the cycle time; (II) cyclic single-hoist scheduling problem to minimize the cycle time and processing resource consumption (and consequently production cost); and (III) cyclic multi-hoist scheduling problem to minimize the cycle time.Due to the NP-completeness of the studied problems and numerous advantages of quantum-inspired evolutionary algorithm (QEA), we first propose a hybrid QEA with improved decoding mechanism and repairing procedure to find the best cycle time for the first problem. After that, to enhance with both the economic and environmental performance, which constitute two of the three pillars of the sustainable strategy nowadays deployed in many industries, we formulate a bi-objective mathematical model for the second problem by using the method of prohibited interval. Then we propose a bi-objective QEA with local search procedure to simultaneously minimize the cycle time and production cost, and we find a set of Pareto-optimal solutions for this problem. As for the third problem, we find that most existing approaches, such as mixed integer programming (MIP) approach, may identify a non-optimal solution to be an optimal one due to an assumption related to the loaded hoist moves which is made in many existing researches. Consequently, we propose an improved MIP approach for this problem by relaxing the above-mentioned assumption. Our approach can guarantee the optimality of its obtained solutions.For each problem, experimental study on industrial instances and random instances has been conducted. Computational results demonstrate that the proposed scheduling algorithms are effective and justify the choices we made.
1664

Nouvelles méthodes de synthèse de texture ; application à la prédiction et à l'inpainting d'images

Turkan, Mehmet 19 December 2011 (has links) (PDF)
Cette thèse présente de nouvelles méthodes de synthèse de texture basées sur l'exemple pour les problèmes de prédiction d'images (c'est à dire, codage prédictif) et d'inpainting d'images. Les principales contributions de cette étude peuvent aussi être vues comme des extensions du template matching. Cependant, le problème de synthèse de texture tel que nous le définissons ici se situe plutôt dans un contexte d'optimisation formalisée sous différentes contraintes. Le problème de prédiction d'images est d'abord situé dans un contexte de représentations parcimonieuses par l'approximation du template sous contraintes de parcimonie. La méthode de prédiction proposée avec les dictionnaires adaptés localement montrent de meilleures performances par rapport aux dictionnaires classiques (tels que la transformée en cosinus discrète (TCD)), et à la méthode du template matching. Le problème de prédiction d'images est ensuite placé dans un cadre d'apprentissage de dictionnaires en adaptant les méthodes traditionnelles d'apprentissage pour la prédiction de l'image. Les observations expérimentales montrent une meilleure performance comparativement à des méthodes de prédiction parcimonieuse et des prédictions intra de type H.264/AVC. Enfin un cadre neighbor embedding est proposé pour la prédiction de l'image en utilisant deux méthodes de réduction de dimensionnalité: la factorisation de matrice non négative (FMN) et le locally linear embedding (LLE). Ce cadre est ensuite étendu au problème d'inpainting d'images. Les évaluations expérimentales démontrent l'efficacité des idées sous-jacentes pour la compression via la prédiction d'images et l'inpainting d'images.
1665

Conception et validation d'un processeur programmable de traitement du signal à faible consommation et à faible empreinte silicium : application à la vidéo HD sur téléphone mobile

Thevenin, Mathieu 16 October 2009 (has links) (PDF)
Les capteurs CMOS sont de plus en plus présents dans les produits de grande consommation comme les téléphones portables. Les images issues de ces capteurs nécessitent divers traitements numériques avant d'être affichées. Aujourd'hui, seuls des composants dédiés sont utilisés pour maintenir un niveau de consom- mation électrique faible. Toutefois leur flexibilité est fortement limitée et elle ne permet pas l'intégration de nouveaux algorithmes de traitement d'image. Ce manuscrit présente la conception et la validation de l'archi- tecture de calcul eISP entièrement programmable et originale capable de supporter la vidéo HD 1080p qui sera intégrée dans les futures générations de téléphones portables.
1666

Techniques de traitement des données sismiques OBC dans le domaine tau-p 2D-3D

Soudani, Mohamed Tahar Amine 30 June 2006 (has links) (PDF)
Le travail de recherche présenté dans ce mémoire est dédié au filtrage des multiples de la tranche deau sur les données sismiques OBC (Ocean Bottom Cable).<br />Ces multiples générés par les réflexions successives entre la surface de l'eau et le fond marin détériorent considérablement la qualité des images sismiques.<br /><br /> Nous proposons dans ce document une méthode robuste de filtrage de ces multiples par "sommation PZ" dans le domaine (Tau,p).<br />Nous commençons par modéliser les enregistrements de l'hydrophone et du géophone en OBC dans le domaine des ondes planes harmoniques.<br />Nous montrons que ces modèles s'expriment en fonction des arrivées primaires et des multiples de la colonne d'eau.<br />Cette modélisation nous permet de proposer un algorithme de filtrage des multiples qui tient compte non seulement de la physique de propagation des ondes mais aussi des caractéristiques de l'acquisition: couplage et orientation des géophones, réponses impulsionnelles des capteurs, bruits.<br /><br /> Après la validation sur des données synthétiques, la nouvelle approche est appliquée sur des données réelles 2D dans le cadre d'une séquence de traitement.<br />Nous montrons que cette approche est robuste en présence de bruit et donne de meilleurs résultats en comparaison avec des séquences standards.<br /><br /> Nous généralisons à la fin de ce document la séquence de traitement au cas des acquisitions OBC 3D grâce à la transformation (Tau,p)3D.<br />Cette généralisation n'est pas immédiate et nécessite des étapes supplémentaires dans la séquence de traitement tel que l'interpolation des données en 3D.<br />La comparaison de la séquence 3D aux séquences standards révèle que la nouvelle approche améliore significativement les résultats
1667

Régularisation d´images sur des surfaces non-planes

Lopez Perez, Lucero Diana 15 December 2006 (has links) (PDF)
Nous nous intéressons aux approches par EDP pour la régularisation d´images scalaires et multivaluées définies sur des supports non plans et à leurs applications à des problèmes de traitement des images. Nous étudions la relation entre les méthodes existantes et les comparons en termes de performance et complexité d´implémentation. Nous développons de nouvelles méthodes numériques pour traiter des opérateurs de type divergence utilisés dans les méthodes de régularisation par EDPs sur des surfaces triangulées. Nous généralisons la technique de régularisation du Flot de Beltrami pour le cas des images définies sur des surfaces implicites et explicites. Des implémentations sont proposées pour ces méthodes, et des expériences sont exposées. Nous montrons aussi une application concrète de ces méthodes à un problème de cartographie rétinotopique.
1668

Estimation de la structure de morceaux de musique par analyse multi-critères et contrainte de régularité

Sargent, Gabriel 21 February 2013 (has links) (PDF)
Les récentes évolutions des technologies de l'information et de la communication font qu'il est aujourd'hui facile de consulter des catalogues de morceaux de musique conséquents. De nouvelles représentations et de nouveaux algorithmes doivent de ce fait être développés afin de disposer d'une vision représentative de ces catalogues et de naviguer avec agilité dans leurs contenus. Ceci nécessite une caractérisation efficace des morceaux de musique par l'intermédiaire de descriptions macroscopiques pertinentes. Dans cette thèse, nous nous focalisons sur l'estimation de la structure des morceaux de musique : il s'agit de produire pour chaque morceau une description de son organisation par une séquence de quelques dizaines de segments structurels, définis par leurs frontières (un instant de début et un instant de fin) et par une étiquette représentant leur contenu sonore.La notion de structure musicale peut correspondre à de multiples acceptions selon les propriétés musicales choisies et l'échelle temporelle considérée. Nous introduisons le concept de structure "sémiotique" qui permet de définir une méthodologie d'annotation couvrant un vaste ensemble de styles musicaux. La détermination des segments structurels est fondée sur l'analyse des similarités entre segments au sein du morceau, sur la cohérence de leur organisation interne (modèle "système-contraste") et sur les relations contextuelles qu'ils entretiennent les uns avec les autres. Un corpus de 383 morceaux a été annoté selon cette méthodologie et mis à disposition de la communauté scientifique.En termes de contributions algorithmiques, cette thèse se concentre en premier lieu sur l'estimation des frontières structurelles, en formulant le processus de segmentation comme l'optimisation d'un coût composé de deux termes~: le premier correspond à la caractérisation des segments structurels par des critères audio et le second reflète la régularité de la structure obtenue en référence à une "pulsation structurelle". Dans le cadre de cette formulation, nous comparons plusieurs contraintes de régularité et nous étudions la combinaison de critères audio par fusion. L'estimation des étiquettes structurelles est pour sa part abordée sous l'angle d'un processus de sélection d'automates à états finis : nous proposons un critère auto-adaptatif de sélection de modèles probabilistes que nous appliquons à une description du contenu tonal. Nous présentons également une méthode d'étiquetage des segments dérivée du modèle système-contraste.Nous évaluons différents systèmes d'estimation automatique de structure musicale basés sur ces approches dans le cadre de campagnes d'évaluation nationales et internationales (Quaero, MIREX), et nous complétons cette étude par quelques éléments de diagnostic additionnels.
1669

Sécurisation des smart cards par masquage de signal informationnel sur canal secondaire

Chaillan, Fabien 13 December 2006 (has links) (PDF)
Les cartes à puce, mondialement appelées Smart Cards, sont de véritables ordinateurs embarqués dont le but est d'effectuer des opérations de cryptographie et de stocker des données confidentielles, telles que des sommes d'argent, des informations biométriques, des droits d'accès. Il n'est donc pas étonnant que les pirates tentent de s'accaparer ces données, par des failles où la carte laisse fuir des informations capitales, appelées canaux secondaires. Le but de cette thèse est de concevoir des techniques de traitement du signal de masquage de signaux de consommation de courant. Un premier chapitre introductif présente l'univers de la carte à puce ainsi que les enjeux de sa sécurisation. Cela permet de fixer l'objectif à atteindre qui est de concevoir des techniques de masquage des signaux compatibles avec la technologie Smart Card. Le second chapitre présente l'étude et la caractérisation statistique d'un système dynamique chaotique servant à la genèse de nombres pseudo-aléatoires. Le chapitre suivant présente la méthode de masquage par décomposition des signaux, consistant à remplacer les échantillons du signal à masquer par les coefficients de son développement de Karhunen-Loève. Enfin, un dernier chapitre présente une autre technique de masquage des signaux où le modèle utilisé pour la consommation de courant est paramétrique. Le paramètre est estimé selon le critère du maximum de vraisemblance par une technique originale basée sur le couplage du filtrage adapté stochastique utilisé en détection avec l'algorithme Expectation-Maximization. Toutes les techniques sont validées à l'aide de signaux réels.
1670

Accurate 3D Shape and Displacement Measurement using a Scanning Electron Microscope

Cornille, Nicolas 20 June 2005 (has links) (PDF)
Avec le développement actuel des nano-technologies, la demande en matière d'étude du comportement des matériaux à des échelles micro ou nanoscopique ne cesse d'augmenter. Pour la mesure de forme ou de déformation tridimensionnelles à ces échelles de grandeur, l'acquisition d'images à partir d'un Microscope Électronique à Balayage (MEB) couplée à l'analyse par corrélation d'images numériques s'est avérée une technique intéressante. Cependant, un MEB est un outil conçu essentiellement pour de la visualisation et son utilisation pour des mesures tridimensionnelles précises pose un certain nombre de difficultés comme par exemple le calibrage du système et la correction des fortes distorsions (spatiales et temporelles) présentes dans les images. De plus, le MEB ne possède qu'un seul capteur et les informations tridimensionnelles souhaitées ne peuvent pas être obtenues par une approche classique de type stéréovision. Cependant, l'échantillon à analyser étant monté sur un support orientable, des images peuvent être acquises sous différents points de vue, ce qui permet une reconstruction tridimensionnelle en utilisant le principe de vidéogrammétrie pour retrouver à partir des seules images les mouvements inconnus du porte-échantillon.<br /><br />La thèse met l'accent sur la nouvelle technique de calibrage et de correction des distorsions développée car c'est une contribution majeure pour la précision de la mesure de forme et de déformations 3D aux échelles de grandeur étudiées. Elle prouve que, contrairement aux travaux précédents, la prise en compte de la dérive temporelle et des distorsions spatiales d'images est indispensable pour obtenir une précision de mesure suffisante. Les principes permettant la mesure de forme par vidéogrammétrie et le calcul de déformations 2D et 3D sont aussi présentés en détails. Dans le but de valider nos travaux et démontrer en particulier la précision de mesure obtenue, des résultats expérimentaux issus de différentes applications sont présentés tout au long de la thèse. Enfin, un logiciel rassemblant différentes applications de vision par ordinateur a été developpé.

Page generated in 0.0925 seconds