• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 798
  • 252
  • 84
  • 13
  • 4
  • 4
  • 3
  • 2
  • 1
  • Tagged with
  • 1162
  • 252
  • 200
  • 162
  • 123
  • 93
  • 87
  • 85
  • 76
  • 70
  • 66
  • 65
  • 64
  • 62
  • 59
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
391

Mise en place d'une chaîne complète d'analyse de l'arbre trachéo-bronchique à partir d'examen(s) issus d'un scanner-CT : de la 3D vers la 4D

Balacey, Hugo 28 February 2013 (has links)
Afin de répondre au problème de santé publique que représente l'asthme, l'imagerie tomodensitométrique associé aux traitements informatiques permettent la quantification et le suivi des dommages subis par les bronches. Le but de l'imagerie bronchique, lors d'un examen de type scanner-CT est de disposer de mesures fiables et reproductibles des différents paramètres bronchiques qui sont des marqueurs de l'importance de la pathologie et de son évolution sous traitements. Ces marqueurs correspondent à deux mesures LA ( Lumen Area) et WA ( Wall Area) prises sur des coupes perpendiculaires à la bronche. La mise en place d'une chaîne de traitements constitué de maillons d'extraction et de squelettisation de l'arbre trachéo-bronchique permet l'obtention de tels mesures. Durant cette thèse nous nous sommes focalisés sur la création d'une chaîne de traitements en proposant une contribution sur chacun des maillons. Notre chaîne est modulable et adaptée au travail en 4D (différentes phases respiratoires) et à fait l'objet d'une implémentation logiciel intitulée Neko4D. / [Abstract not provided]
392

Estimation des données manquantes par la métrologie virtuelle pour l'amélioration du régulateur Run-To-Run dans le domaine des semi-conducteurs / Estimation of missing data by virtual metrology for the improvement of the Run-To-Run controller in the field of semiconductors

Jebri, Mohamed Ali 26 January 2018 (has links)
La thématique abordée porte sur la métrologie virtuelle (VM) pour estimer les données manquantes durant les processus de fabrications des semi-conducteurs. L'utilisation de la métrologie virtuelle permet également de fournir les mesures logicielles (estimations) des sorties pour alimenter les régulateurs run-to-run (R2R) mis en place pour le contrôle de la qualité des produits fabriqués. Pour remédier aux problèmes liés au retard de mesures causé par l'échantillonnage statique imposé par la stratégie et les équipements mis en place, notre contribution dans cette thèse est d'introduire la notion de l'échantillonnage dynamique intelligent. Cette stratégie est basée sur un algorithme qui prend en compte la condition de voisinage permettant d'éviter la mesure réelle même si l'échantillonnage statique l'exige. Cela permet de réduire le nombre de mesures réelles, le temps du cycle et le coût de production. Cette approche est assurée par un module de métrologie virtuelle (VM) que nous avons développé et qui peut être intégré dans une boucle de régulation R2R. Les résultats obtenus ont été validés sur des exemples académiques et sur des données réelles fournies par notre partenaire STMicroelectronics de Rousset concernant un processus chemical mechanical planarization (CMP). Ces données réelles ont permis également de valider les résultats obtenus de la métrologie virtuelle pour les fournir ensuite aux régulateurs R2R (ayant besoin de l'estimation de ces données). / The addressed work is about the virtual metrology (VM) for estimating missing data during semiconductor manufacturing processes. The use of virtual metrology tool also makes it possible to provide the software measurements (estimations) of the outputs to feed the run-to-run (R2R) controllers set up for the quality control of the manufactured products.To address these issues related to the delay of measurements caused by the static sampling imposed by the strategy and the equipments put in place, our contribution in this thesis is to introduce the notion of the dynamic dynamic sampling. This strategy is based on an algorithm that considers the neighborhood condition to avoid the actual measurement even if the static sampling requires it. This reduces the number of actual measurements, the cycle time and the cost of production. This approach is provided by a virtual metrology module (VM) that we have developed and which can be integrated into an R2R control loop. The obtained results were validated on academic examples and on real data provided by our partner STMicroelectronics of Rousset from a chemical mechanical planarization (CMP) process. This real data also enabled the results obtained from the virtual metrology to be validated and then supplied to the R2R regulators (who need the estimation of these data).
393

Echantillonnage compressé le long de trajectoires physiquement plausibles en IRM / Compressed sensing along physically plausible sampling trajectories in MRI

Chauffert, Nicolas 28 September 2015 (has links)
L'imagerie par résonance magnétique (IRM) est une technique d'imagerie non invasive et non ionisante qui permet d'imager et de discriminer les tissus mous grâce à une bonne sensibilité de contraste issue de la variation de paramètres physiques (T$_1$, T$_2$, densité de protons) spécifique à chaque tissu. Les données sont acquises dans l'espace-$k$, correspondant aux fréquences spatiales de l'image. Des contraintes physiques et matérielles contraignent le mode de fonctionnement des gradients de champ magnétique utilisés pour acquérir les données. Ainsi, ces dernières sont obtenues séquentiellement le long de trajectoires assez régulières (dérivée et dérivée seconde bornées). En conséquence, la durée d'acquisition augmente avec la résolution recherchée de l'image. Accélérer l'acquisition des données est crucial pour réduire la durée d'examen et ainsi améliorer le confort du sujet, diminuer les coûts, limiter les distorsions dans l'image~(e.g., dues au mouvement), ou encore augmenter la résolution temporelle en IRM fonctionnelle. L'échantillonnage compressif permet de sous-échantillonner l'espace-$k$, et de reconstruire une image de bonne qualité en utilisant une hypothèse de parcimonie de l'image dans une base d'ondelettes. Les théories d'échantillonnage compressif s'adaptent mal à l'IRM, même si certaines heuristiques ont permis d'obtenir des résultats prometteurs. Les problèmes rencontrés en IRM pour l'application de cette théorie sont i) d'une part, les bases d'acquisition~(Fourier) et de représentation~(ondelettes) sont cohérentes ; et ii) les schémas actuellement couverts par la théorie sont composés de mesures isolées, incompatibles avec l'échantillonnage continu le long de segments ou de courbes. Cette thèse vise à développer une théorie de l'échantillonnage compressif applicable à l'IRM et à d'autres modalités. D'une part, nous proposons une théorie d'échantillonnage à densité variable pour répondre au premier point. Les échantillons les plus informatifs ont une probabilité plus élevée d'être mesurés. D'autre part, nous proposons des schémas et concevons des trajectoires qui vérifient les contraintes d'acquisition tout en parcourant l'espace-$k$ avec la densité prescrite dans la théorie de l'échantillonnage à densité variable. Ce second point étant complexe, il est abordé par une séquence de contributions indépendantes. D'abord, nous proposons des schémas d'échantillonnage à densité variables le long de courbes continues~(marche aléatoire, voyageur de commerce). Ensuite, nous proposons un algorithme de projection sur l'espace des contraintes qui renvoie la courbe physiquement plausible la plus proche d'une courbe donnée~(e.g., une solution du voyageur de commerce). Nous donnons enfin un algorithme de projection sur des espaces de mesures qui permet de trouver la projection d'une distribution quelconque sur l'espace des mesures porté par les courbes admissibles. Ainsi, la courbe obtenue est physiquement admissible et réalise un échantillonnage à densité variable. Les résultats de reconstruction obtenus en simulation à partir de cette méthode dépassent ceux associées aux trajectoires d'acquisition utilisées classiquement~(spirale, radiale) de plusieurs décibels (de l'ordre de 3~dB) et permettent d'envisager une implémentation prochaine à 7~Tesla notamment dans le contexte de l'imagerie anatomique haute résolution. / Magnetic Resonance Imaging~(MRI) is a non-invasive and non-ionizing imaging technique that provides images of body tissues, using the contrast sensitivity coming from the magnetic parameters (T$_1$, T$_2$ and proton density). Data are acquired in the $k$-space, corresponding to spatial Fourier frequencies. Because of physical constraints, the displacement in the $k$-space is subject to kinematic constraints. Indeed, magnetic field gradients and their temporal derivative are upper bounded. Hence, the scanning time increases with the image resolution. Decreasing scanning time is crucial to improve patient comfort, decrease exam costs, limit the image distortions~(eg, created by the patient movement), or decrease temporal resolution in functionnal MRI. Reducing scanning time can be addressed by Compressed Sensing~(CS) theory. The latter is a technique that guarantees the perfect recovery of an image from undersampled data in $k$-space, by assuming that the image is sparse in a wavelet basis. Unfortunately, CS theory cannot be directly cast to the MRI setting. The reasons are: i) acquisition~(Fourier) and representation~(wavelets) bases are coherent and ii) sampling schemes obtained using CS theorems are composed of isolated measurements and cannot be realistically implemented by magnetic field gradients: the sampling is usually performed along continuous or more regular curves. However, heuristic application of CS in MRI has provided promising results. In this thesis, we aim to develop theoretical tools to apply CS to MRI and other modalities. On the one hand, we propose a variable density sampling theory to answer the first inpediment. The more the sample contains information, the more it is likely to be drawn. On the other hand, we propose sampling schemes and design sampling trajectories that fulfill acquisition constraints, while traversing the $k$-space with the sampling density advocated by the theory. The second point is complex and is thus addressed step by step. First, we propose continuous sampling schemes based on random walks and on travelling salesman~(TSP) problem. Then, we propose a projection algorithm onto the space of constraints that returns the closest feasible curve of an input curve~(eg, a TSP solution). Finally, we provide an algorithm to project a measure onto a set of measures carried by parameterizations. In particular, if this set is the one carried by admissible curves, the algorithm returns a curve which sampling density is close to the measure to project. This designs an admissible variable density sampler. The reconstruction results obtained in simulations using this strategy outperform existing acquisition trajectories~(spiral, radial) by about 3~dB. They permit to envision a future implementation on a real 7~T scanner soon, notably in the context of high resolution anatomical imaging.
394

Suivi d'objets d'intérêt dans une séquence d`images : des points saillants aux mesures statistiques

Garcia, Vincent 11 December 2008 (has links) (PDF)
Le problème du suivi d'objets dans une vidéo se pose dans des domaines tels que la vision par ordinateur (vidéo-surveillance par exemple) et la post-production télévisuelle et cinématographique (effets spéciaux). Il se décline en deux variantes principales : le suivi d'une région d'intérêt, qui désigne un suivi grossier d'objet, et la segmentation spatio-temporelle, qui correspond à un suivi précis des contours de l'objet d'intérêt. Dans les deux cas, la région ou l'objet d'intérêt doivent avoir été préalablement détourés sur la première, et éventuellement la dernière, image de la séquence vidéo. Nous proposons dans cette thèse une méthode pour chacun de ces types de suivi ainsi qu'une implémentation rapide tirant partie du Graphics Processing Unit (GPU) d'une méthode de suivi de régions d'intérêt développée par ailleurs. La première méthode repose sur l'analyse de trajectoires temporelles de points saillants et réalise un suivi de régions d'intérêt. Des points saillants (typiquement des lieux de forte courbure des lignes isointensité) sont détectés dans toutes les images de la séquence. Les trajectoires sont construites en liant les points des images successives dont les voisinages sont cohérents. Notre contribution réside premièrement dans l'analyse des trajectoires sur un groupe d'images, ce qui améliore la qualité d'estimation du mouvement. De plus, nous utilisons une pondération spatio-temporelle pour chaque trajectoire qui permet d'ajouter une contrainte temporelle sur le mouvement tout en prenant en compte les déformations géométriques locales de l'objet ignorées par un modèle de mouvement global. La seconde méthode réalise une segmentation spatio-temporelle. Elle repose sur l'estimation du mouvement du contour de l'objet en s'appuyant sur l'information contenue dans une couronne qui s'étend de part et d'autre de ce contour. Cette couronne nous renseigne sur le contraste entre le fond et l'objet dans un contexte local. C'est là notre première contribution. De plus, la mise en correspondance par une mesure de similarité statistique, à savoir l'entropie du résiduel, d'une portion de la couronne et d'une zone de l'image suivante dans la séquence permet d'améliorer le suivi tout en facilitant le choix de la taille optimale de la couronne. Enfin, nous proposons une implémentation rapide d'une méthode de suivi de régions d'intérêt existante. Cette méthode repose sur l'utilisation d'une mesure de similarité statistique : la divergence de Kullback-Leibler. Cette divergence peut être estimée dans un espace de haute dimension à l'aide de multiples calculs de distances au k-ème plus proche voisin dans cet espace. Ces calculs étant très coûteux, nous proposons une implémentation parallèle sur GPU (grâce à l'interface logiciel CUDA de NVIDIA) de la recherche exhaustive des k plus proches voisins. Nous montrons que cette implémentation permet d'accélérer le suivi des objets, jusqu'à un facteur 15 par rapport à une implémentation de cette recherche nécessitant au préalable une structuration des données.
395

Mesures de similarité statistiques et estimateurs par k plus proches voisins : une association pour gérer des descripteurs de haute dimension en traitement d'images et de vidéos

Debreuve, Eric 08 July 2009 (has links) (PDF)
Mesures de similarité statistiques et estimateurs par k plus proches voisins : une association pour gérer des descripteurs de haute dimension en traitement d'images et de vidéos
396

Stratégie et performance des agriculteurs dans un enjeu d'agriculture durable

Planchais, Gaël 30 September 2008 (has links) (PDF)
L'histoire de l'agriculture est très liée à celle de l'Homme et surtout à l'évolution des populations. La modernisation de l'agriculture s'est fortement répercutée sur son environnement écologique avec une pollution de plus en plus croissante (surtout à partir des années 1970).<br />Aujourd'hui, avec l'alternative du développement durable, la réflexion autour des problématiques liées à l'environnement sont omniprésentes et interpellent l'agriculture sur les questions relatives à l'eau, l'air, le sol, la biodiversité.<br />Cette recherche, qui est basée sur plusieurs théories, reste essentiellement centrée sur la théorie des parties prenantes, qui invite tous les acteurs (agriculteurs, consommateurs, Etat, collectivités locales...) à participer à cette évolution vers une agriculture multifonctionnelle et durable.<br />L'interrogation fondamentale est : l'agriculture durable est-elle aussi voire plus performante que l'agriculture conventionnelle ?<br />La recherche s'est appuyée sur des agriculteurs qui ont choisi de mettre en place des mesures en faveur de l'environnement dans un contrat territorial d'exploitation (entre 2000 et 2002). L'engagement, pour cinq ans, est un exemple concret d'agriculture durable. Il a servi de support pour cette thèse pour analyser la stratégie des agriculteurs dans cet enjeu d'agriculture durable, d'autant plus que ce contrat était une innovation en la matière.<br />La méthodologie consiste, à partir d'un questionnaire, a étudier les motivations qui ont conduit les agriculteurs à signer un contrat. En parallèle, une base de données sur les informations économiques et financières de ces exploitations, a été exploitée.
397

L'office du juge administratif des référés : Entre mutations et continuité jurisprudentielle

Piasecki, Julien 13 December 2008 (has links) (PDF)
Depuis que Motulsky lui a consacré une réflexion décisive, le concept d'office du juge est couramment utilisé en doctrine.Toutefois, la juridiction administrative n'a eu recours à cette notion et ne l'a utilisée dans ses décisions que depuis quelques années. Nous retrouvons désormais régulièrement la notion d'office du juge dans le cadre des porcédures de référé. En effet, le contentieux administratif a connu une profonde réforme de ses procédures de référé avec la loi n°2000-597 du 30 juin 2000 relative au référé devant les juridictions administratives. D'anciennes procédures, comme le sursis à exécution devenu le référé-suspension, ou le référé-conservatoire, ont été modernisées ; et en parallèle le législateur a créé une nouvelle procédure - le référé-liberté - appelée à jouer un rôle de premier plan dans la protection des libertés fondamentales. D'autres procédures de référé ont également bénéficié de cette réforme pour connaître une certaine modernisation comme ce fut notamment le cas pour le référé-provision. La rénovation des procédures de référé d'urgence a ainsi marqué le point de départ d'une évolution de l'office du juge administratif des référés et le recours à la notion d'office du juge des référés a permis de justifier son intervention. Cette mutation de l'office du juge des référrés a tout de même préservé une certaine continuité jurisprudentielle. L'office du juge administratif des référés conditionne tous les aspects des procédures de référé. en effet, cette notion intéresse à la fois les conditions d'intervention du juge des référés et les mesures qu'il ordonne, mais également la façon dont sont contrôlées ses ordonnances.
398

Propriétés diélectriques des gels isolants : application aux composants d'électronique de puissance

Do, Minh Tuan 26 March 2008 (has links) (PDF)
Ce travail apporte une meilleure compréhension des propriétés diélectriques des gels isolants dans le contexte particulier de son utilisation en électronique de puissance. Différentes techniques de mesures qui, pour la plupart ont été développées dans la caractérisation des liquides isolants (visualisation de streamers, détection optique des décharges, mesure de la charge apparente) ont été utilisées. Une méthode optique permettant des mesures de décharges partielles sous tension nonsinusoïdale (ondes à front raide) a été développée. Des décharges dans des cavités et les décharges attribuées à l'effet couronne ont été identifiées. Un régime de décharges réversibles et un régime de dégradation où les propriétés d'auto-cicatrisation du matériau sont réduites ont été mis en évidence. La fréquence des décharges augmente considérablement avec la température. Elles pourraient contribuer à l'accélération du vieillissement des assemblages à long terme. Les décharges partielles apparaissent plus facilement sous tension impulsionnelle qu'en alternatif. La visualisation des phénomènes générés sous champ élevé (génération et propagation de “streamers”) permet de mieux caractériser les mécanismes mis en jeu. Les mesures conventionnelles de décharges partielles en alternatif selon la norme CEI ne sont pas pertinentes dans le cas de la caractérisation du gel sous contraintes impulsionnelle. Une étude du claquage du gel silicone dans diverses configurations d'électrodes (tailles, formes) en fonction de la température et de la forme de l'onde de tension montre qu'il dépend de la surface des électrodes. Le gel se rapproche beaucoup plus d'un liquide non polaire que d'un solide.
399

IMMUNISATION EN BOUCLE FERMEE - APPLICATION AU SOUS-MARIN DOUBLE COQUE<br>Identification de l'aimantation à partir de mesures du champ magnétique proche

Vuillermet, Yannick 18 December 2008 (has links) (PDF)
Un sous-marin, à coques ferromagnétiques, crée une anomalie du champ magnétique terrestre. Comme elle varie en fonction du champ inducteur et des contraintes mécaniques, il doit être capable de l'évaluer en temps réel afin de pouvoir la compenser à l'aide de boucles de courants : c'est l'immunisation en boucle fermée. Sa mise en oeuvre nécessite de connaître l'aimantation du navire à chaque instant. Or, si l'induit est déterministe, il n'en est rien du permanent qui dépend de l'histoire magnétique des tôles. Son évaluation repose sur la mesure du champ magnétique dans l'air et sur la résolution d'un problème inverse. Le manque d'espace dans un sous-marin contraint les capteurs à être très proches des coques. Après une étude du problème direct, nous proposons dans ce travail une formulation magnétostatique du problème inverse adaptée à cette contrainte et validée par des mesures sur un modèle réduit de sous-marin double coque.
400

Caractérisation multi-axiale du comportement et de la micro-structure d'un semi-cristallin : Application au cas du P.E.T

Marco, Yann 27 June 2003 (has links) (PDF)
La maîtrise des procédés de mise en forme des polymères reste difficile du fait des couplages forts entre les sollicitations thermomécaniques complexes et la micro-stucture du matériau. Nous nous intéressons dans cette étude au cas représentatif du P.E.T. et du procédé d'étirage-soufflage. Nos objectifs sont de caractériser expérimentalement ces couplages pour améliorer leur compréhension et de valider des modèles de comportement représentatifs les prenant en compte, en particulier pour des sollicitations multi-axiales. Les différents éléments développés (machine multi-axiale, éprouvettes cruciformes, logiciel d'inter-corrélation d'image) associés à une caractérisation micro-structurale (densimétrie, dichroïsme IR, diffraction X) nous donnent accès à une large base de données mécaniques et micro-structurelles, obtenues pour des sollicitations variées et représentatives du procédé. Nous l'utilisons pour valider les modélisations existantes et proposer des pistes pour leur amélioration.

Page generated in 0.0427 seconds