• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 114
  • 78
  • 11
  • 2
  • Tagged with
  • 212
  • 92
  • 46
  • 33
  • 33
  • 33
  • 33
  • 32
  • 32
  • 30
  • 26
  • 25
  • 24
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Ce que le « dispositif » fait au travailleur « sans-papiers » : analyser l'emploi et les rapports à l'emploi de migrants dits « sans-papiers », originaires de la vallée du fleuve Sénégal, à Paris, au prisme de la régularisation exceptionnelle au titre du travail / What the "scheme" does to the undocumented worker : analyse the employment and employment relationships of undocumented workers from the Senegal valley, through the prism of the exceptional legalization through working

Zougbede, Emeline 23 November 2016 (has links)
La présente recherche entend analyser les emplois occupés par des migrants dits « sans-papiers », originaires majoritairement de la vallée du fleuve Sénégal, à Paris, à la lumière des processus de régularisation par le travail dont ils sont l'objet. En mobilisant les notions d'« identités de papiers » (Dardy [1991] 1998 ; Noiriel, 1998, 2007 ; Bruno, 2010) et d'« interstices de jeu », la thèse, basée sur une approche sociologique qualitative et inductive, cherche à mettre à jour les mécanismes et logiques à l’œuvre dans la mise au travail d'une population particulière qui est celle d'étrangers en situation irrégulière. Aussi, l'absence d'un titre de séjour en règle a-t-il pour effet la mise en relation de ces migrants avec des secteurs d'emploi déterminés dans un espace économique particulier, et pour lesquels les emplois observés relèvent du marché du travail dit secondaire, voire exogène, aux formes d'emploi précaires et instables. Si les migrants rencontrés acceptent ces emplois précaires et quelque peu dévalorisés, c'est parce que le travail (et le salariat qu'il permet) définit les situations migratoires observées. Pour autant, l'adéquation entre une offre et une demande de travail tire en partie sa légitimité de l'État français. Aussi, les processus de régularisation par le travail en viennent-ils à déterminer partiellement la rencontre entre cette offre et cette demande de travail, la justifier en la normalisant pour partie. Du reste, si l’État en vient à légitimer cette rencontre, c'est aussi au moyen d'une récupération au profit d'une « instrumentation » (Lascoumes, 2003) de la figure du « Travailleur Sans-papiers », énoncée et revendiquée par la grève de 2008-2010. En somme, l'observation des situations d'emploi (notamment dans la répétition des postes occupés et des formes d'emploi) amène à considérer la constitution d'une population au travail, permise par la reconnaissance par l’État de la figure du « Travailleur Sans-papiers ». Les procès de régularisation au titre du travail dessinent la figure du « Travailleur Sans-papiers » et décident si l'étranger en situation irrégulière peut être régularisé par le travail ou non, par le jeu de catégorisations que produit l’État. Et la thèse défendue est la suivante : l'emploi des migrants dits « sans-papiers » s'arrime à des logiques économiques qui assurent la mise en place et la permanence de formes d'emploi particulières. Ces formes d'emploi se nourrissent de la précarité des postes occupés et de la relation salariale contractée. Dans le cas des migrants rencontrés, elles renvoient à la production de formes d'infra-citoyenneté, sous-tendues par des logiques politiques (dans la gestion des flux migratoires et des politiques de main-d’œuvre) que la régularisation par le travail vient couronner. La figure du « Travailleurs Sans-papiers » telle que l'a promue la grève de 2008-2010, mais reprise dans les processus de régularisation au titre du travail, est alors l'archétype du travailleur régularisable et le travail des sans-papiers en est sa logique-même. Ils sont tous deux déterminés par un dispositif singulier de biopolitique. / This research deals with the employment of undocumented people from the Senegal valley, in Paris and the legalization processes. Mobilizing the two concepts of "identify of papers" Dardy [1991] 1998; Noiriel, 1998, 2007; Bruno, 2010) and "interstices of game", this doctoral thesis, based on an sociological and inductive approach, highlights the mechanisms and logics that are inherent to putting undocumented people into work. From there, the lack of residence permit implies the inscription of these migrants in specific sectors of activities. Therefore, employments are registered in the secondary labour market, if not an exogenous market, where employment and its forms are very precarious. If migrants take these jobs, it is because work is the key parameter in the migratory situations. The balance between supply and demand of labour draws its legitimacy from the French State. Indeed, leglization processes determine this balance, and justify it by normalizing it. The legitimacy of French State is allowed by a recovery and "instrumentation" (Lascoumes, 2003) of the figure of "Undocumented Worker", which was first introduced during the strike of 2008-2010. In other words, the employment situations lead to discuss of the production of a specific labour force by the State. The legalization processes are based on the figure of "Undocumented Worker" and by this manner elect the alien in an irregular situation who will be regularized. This lead to formulate the following argument: the employment of undocumented migrants is due to economic logics which establish specific forms to putting undocumented people into work. This is guaranteed by precariousness of status employments, enables to produce forms of a low citizenship that political logics reinforce. Thus, the legalization process supports this perspective. The figure of "Undocumented Worker", from the strike of 2008-2010, is used by the French State to justify the legalization process by work. All these elements are included by a manner of governing that is attached to a particular scheme of biopolitic.
82

Approche parcimonieuse pour l’imagerie 3D haute résolution de surface équivalente radar. / Sparse approach for high resolution 3D radar cross section imaging.

Benoudiba-Campanini, Thomas 13 July 2018 (has links)
La SER (Surface Équivalente Radar) est une grandeur caractérisant le pouvoir rétrodiffuseurd’une cible soumise à un champ électromagnétique. Dans de nombreuses applications,il est capital d’analyser et de contrôler la SER. L’imagerie 3D est l’outil adapté pourlocaliser et caractériser en trois dimensions les principaux contributeurs à la SER. Cependant,ce traitement est un problème de synthèse de Fourier qui n’est pas inversible car il y aplus d’inconnues que de données. Les méthodes conventionnelles telles que le Polar FormatAlgorithm, consistant en un reformatage des données avec complétion de zéro suivi d’unetransformée de Fourier inverse rapide, fournissent des résultats de qualité limitée.Dans ce travail, nous proposons une nouvelle méthode haute résolution. Elle est dénomméeSPRITE (pour SParse Radar Imaging TEchnique) et permet d’accroître considérablementla qualité des cartes de rétro-diffusion estimées. Elle repose sur une régularisation duproblème consistant en la prise en compte d’informations a priori de parcimonie et d’uneinformation de support. La solution est alors définie comme le minimiseur d’un critère pénaliséet contraint. L’optimisation est assurée par l’algorithme primal-dual ADMM (AlternatingDirection Method of Multiplier) dont une adaptation aux spécificités du problème mène à descalculs efficaces à l’aide de transformées de Fourier rapides.Finalement, la méthode est évaluée sur des données synthétiques et réelles. Comparativementà la méthode conventionnelle, la résolution est drastiquement accrue. Les images 3Dproduites sont alors un outil particulièrement adapté à l’analyse et au contrôle de SER. / The RCS (Radar Cross Section) is a quantity which characterizes the scattering power ofa target exposed to an electromagnetic field. Its analysis and control are important in manyapplications. 3D imaging is a suitable tool to accurately locate and characterize in 3D themain contributors to the RCS. However, this is a non-invertible Fourier synthesis problembecause the number of unknowns is larger than the number of data. Conventional methodssuch as the Polar Format Algorithm, which consists of data reformatting including zeropaddingfollowed by a fast inverse Fourier transform, provide results of limited quality.In this work, we propose a new high resolution method, named SPRITE (for SParse RadarImaging TEchnique), which considerably increases the quality of the estimated RCS maps. Itis based on a regularization scheme that accounts for information of sparsity and support. Thesolution is then defined as the minimizer of a penalized and constrained criterion. Optimizationis ensured by an appropriate adaptation of the ADMM (Alternating Direction Methodof Multiplier) algorithm that is able to quickly perform calculations using fast Fourier transforms.Finally, the method is evaluated on both simulated and real data. Compared to the conventionalmethod, the resolution is significantly increased and the images can support a betterRCS analysis and control.
83

New formulation of optical flow for turbulence estimation

Chen, Xu 08 October 2015 (has links)
Le flot optique est un outil, prometteur et puissant, pour estimer le mouvement des objets de différentes natures, solides ou fluides. Il permet d’extraire les champs de vitesse à partir d’une séquence d’images. Dans cette étude, nous développons la méthode du flot optique pour récupérer, d’une manière précise, le champ de vitesse des mouvements turbulents incompressibles. L’estimation de turbulence consiste à minimiser une fonction d’énergie composée par un terme d’observation et un terme de régularisation. L’équation de transport d’un scalaire passif est alors employée pour représenter le terme d’observation. Cependant, dans le cas où le nombre de Reynolds est grand, et, à cause des contraintes optiques, l’image n’est pas pleinement résolue pour prendre en compte la physique de toutes les échelles de la turbulence. Pour compléter les informations manquantes liées aux physiques des petites échelles, nous adoptons une démarche similaire à celle de Large Eddy Simulation (LES), et, proposons d’utiliser le modèle mixte afin de tenir compte de l’interaction entre les grandes échelles et celles non-résolues. Quant au terme de régularisation, il se repose sur l’équation de continuité des fluides incompressibles. Les tests à l’aide des images synthétiques et expérimentales de la turbulence bi-dimensionnelle - des données des cas test de la communauté du flot optique -, ont non seulement validé notre démarche, mais montrent une amélioration significative des qualités des champs de vitesses extraites. Le cas du flot optique, en 3D, relève encore du défi dans le cas de l’estimation des champs de vitesse de la turbulence. D’une part, contrairement au 2D où il existe des cas tests bien établis, il n’existe pas, à notre connaissance, des séquences d’images 3D référentielles permettant de tester notre démarche et méthode. D’autre part, l’augmentation du coût d’estimation demande des algorithme adaptés. Ainsi, nous sommes amené à utiliser la simulation numérique directe d’écoulement turbulent en présence d’un scalaire passif, pour générer des données de scalaires afin d’évaluer la performance du flot optique. Nous prêtons également attention à l’effet du nombre de Schmidt qui caractérise la relation entre la diffusion moléculaire scalaire et la dissipation de turbulence. Les tests sont ensuite effectués avec cette base de données numériques. Les résultats montrent que la précision de l’estimation augmente avec des nombres de Schmidt plus élevés. Par ailleurs, l’influence du terme de régularisation est aussi étudié au travers deux équations qui se différencient par l’ordre spatial des dérivées partielles. Les résultats numériques montrent que l’équation avec un terme de régularisation de seconde-ordre est meilleure que celle de premier-ordre. / The method of optical flow is a powerful tool for motion estimation. It is able to extract the dense velocity field from image sequence. In this study, we employ this method to retrieve precisely the incompressible turbulent motions. For 2D turbulence estimation, it consists in minimizing an objective function constituted by an observation term and a regularization one. The observation term is based on the transport equation of a passive scalar field. For non-fully resolved scalar images, we propose to use the mixed model in large eddy simulation (LES) to determine the interaction between large-scale motions and the unresolved ones. The regularization term is based on the continuity equation of 2D incompressible flows. Evaluation of the proposed formulation is done over synthetic and experimental images. In addition, we extend optical flow to three dimensional and multiple scalar databases are generated with direct numerical simulation (DNS) in order to evaluate the performance of optical flow in the 3D context. We propose two formulations differing by the order of the regularizer. Numerical results show that the formulation with second-order regularizer outperforms its first-order counterpart. We also draw special attention to the effect of Schmidt number, which characterizes the ratio between the molecular diffusion of the scalar and the dissipation of the turbulence. Results show that the precision of the estimation increases as the Schmidt number increases. Overall, optical flow has showcased its capability of reconstructing the turbulent flow with excellent accuracy. This method has all the potential and attributes to become an effective flow measurement approach in fluid mechanics community.
84

Construction automatique d'images de pseudo-âges géologiques à partir d'images sismiques par minimisation d'énergie / Automatic construction of relative geologic time images from seismic images by energy minimization

Mounirou Arouna Lukman, Moctar 26 November 2018 (has links)
A partir d’un ensemble de données interprétées et issues d’une analyse préalable par un opérateur expert (horizons, failles), l’objectif de la thèse est de proposer une segmentation d’une image sismique sous-jacente en parfaite cohérence avec les lois de la géologie. L’originalité de la démarche consistera à développer des techniques de segmentation d’images sismiques, entre autres basées sur des approches de type contours actifs, contraintes par des données interprétées en supplément de propriétés intrinsèques calculées par des procédés automatiques à partir de la donnée traitée sans nécessiter une quelconque supervision contrairement aux travaux existants. Un deuxième axe consistera à ordonnancer automatiquement les horizons (surfaces) interprétés et analyser finement chaque intervalle (le lieu existant entre deux horizons), en prenant en compte son contenu (amplitude, orientation, etc.). Tout cela aboutissant à la reconstruction du pseudo-temps géologique. / The objective of the thesis is to propose a segmentation of an underlying seismic image in perfect coherence with the results of a preliminary analysis by an expert (horizons, faults). laws of geology. The originality of the approach will be to develop techniques for segmenting seismic images, among others based on active contour type approaches, constrained by data interpreted in addition to intrinsic properties calculated by automatic processes from the data processed without requiring any supervision in contrast to existing work. A second axis will be to automatically schedule the horizons (surfaces) interpreted and to analyze each interval (the place between two horizons) finely, taking into account its content (amplitude, orientation, etc.). All this resulted in the reconstruction of the geological pseudo-time.
85

Sur des techniques déterministes et stochastiques appliquées aux problèmes d'identification

Dousteyssier-Buvat, Hélène 19 September 1995 (has links) (PDF)
Ce travail porte sur les aspects numériques de la résolution de problèmes inverses non linéaires gouvernés par des équations aux dérivées partielles, à l'aide des techniques du contrôle optimal. Nous nous sommes limités dans cette thèse à l'étude de deux problèmes: identification du coefficient de diffusion de la chaleur, identification de sources non linéaires dans des e.d.p. elliptiques. Ces deux problèmes sont résolus numériquement à l'aide d'une approche lagrangienne, les fonctions sont identifiées par leurs coefficients dans une base de B-splines cubiques. Ces problèmes étant mal posés, on étudie des techniques de choix du paramètre de régularisation de Tikhonov, comme les méthodes de validation croisée. On résout ensuite ces deux problèmes dans une base d'ondelettes, ce qui nous permet, par le biais d'un changement de base approprié, de réduire le caractère mal posé de ces problèmes, et de mener à bien l'identification sans terme de régularisation. Dans les problèmes réels, la solution exacte étant généralement inconnue, lorsqu'on dispose d'un estimateur, il n'est a priori pas possible de savoir s'il s'agit d'un «bon» estimateur. On peut remédier à ce problème à l'aide des courbures de la surface des réponses, qui nous permettent de quantifier le degré de non linéarité de la surface au voisinage de l'estimateur obtenu et de justifier l'usage des méthodes séquentielles quadratiques utilisées pour l'identification
86

Des algorithmes rapides pour la validation croisée sur des problèmes d'approximation non linéaires

Deshpande, Lalita-Narhar 04 October 1990 (has links) (PDF)
.
87

Voronoi Centred Radial Basis Functions

Samozino, Marie 11 July 2007 (has links) (PDF)
Cette thèse s'inscrit dans la problématique de la reconstruction de surfaces à partir de nuages de points. Les récentes avancées faites dans le domaine de l'acquisition de formes 3D à l'aide de scanners donnent lieu à de nouveaux besoins en termes d'algorithmes de reconstruction. Il faut être capable de traiter de grands nuages de points bruités tout en donnant une représentation compacte de la surface reconstruite.<br>La surface est reconstruite comme le niveau zéro d'une fonction. Représenter une surface implicitement en utilisant des fonctions de base radiales (Radial Basis Functions) est devenu une approche standard ces dix dernières années. Une problématique intéressante est la réduction du nombre de fonctions de base pour obtenir une représentation la plus compacte possible et réduire les temps d'évaluation.<br>Réduire le nombre de fonctions de base revient à réduire le nombre de points (centres) sur lesquels elles sont centrées. L'objectif que l'on s'est fixé consiste à sélectionner un "petit" ensemble de centres, les plus pertinents possible. Pour réduire le nombre de centres tout en gardant un maximum d'information, nous nous sommes affranchis de la correspondance entre centres des fonctions et points de donnée, qui est imposée dans la quasi-totalité des approches RBF. Au contraire, nous avons décidé de placer les centres sur l'axe médian de l'ensemble des points de donnée et de montrer que ce choix était approprié.<br>Pour cela, nous avons utilisé les outils donnés par la géométrie algorithmique et approximé l'axe médian par un sous-ensemble des sommets du diagramme de Voronoi des points de donnée. Nous avons aussi proposé deux approches différentes qui échantillonnent de manière appropriée l'axe médian pour adapter le niveau de détail de la surface reconstruite au budget de centres alloué par l'utilisateur.
88

Les méthodes de régularisation optimale et leurs applications en tomographie : nouveaux algorithmes performants de reconstruction d'images

Girard, Didier 29 October 1984 (has links) (PDF)
.
89

MÉTHODES MARKOVIENNES EN ESTIMATION SPECTRALE NON PARAMETRIQUES. APPLICATION EN IMAGERIE RADAR DOPPLER

CIUCIU, Philippe 05 October 2000 (has links) (PDF)
Nous étudions Le problème de l'estimation spectrale dans la situation défavorable où très peu de données sont disponibles, et nous l'abordons sous l'angle de la synthèse de Fourier. Dans ce cadre, l'estimation spectrale s'identifie à un problème inverse linéaire sous-déterminé. Il convient de le régulariser sur la base d'informations a priori portant sur la forme du spectre, en définissant un critère composé d'une fonction de pénalisation et d'un terme d'attache aux données. Le minimiseur global de ce critère définit le spectre solution. Cette fonction de pénalisation est associée spécifiquement à chaque forme spectrale; sont étudiés les spectres impulsionnels, réguliers, et mélangés, où un fond continu se superpose à un spectre de raies. L'accent est mis sur la construction de fonctions de pénalisation convexes d'une part, car elles garantissent le caractère bien posé du problème régularisé et facilitent le calcul de la solution, et circulaires d'autre part, ie qui ne dépendent que des modules des coefficients de Fourier recherchés. De plus, nous retenons une fonction séparable pour estimer des raies, un terme markovien pour le cas régulier et une énergie composite pour le cas mélangé. Le choix d'une pénalisation convexe nous amène pour les cas régulier et mélangé, à considérer une fonction non différentiable en zéro. Le recours à une stratégie de Non Différentiabilité Graduelle permet d'obtenir une solution à faible coût calculatoire. Sur le plan algorithmique, la méthode IRLS s'avère la plus efficace mais ne s'applique qu'à l'estimation de raies. Nous proposons donc des généralisations aux autres cas reposant sur l'interprétation semi-quadratique augmentée de la pénalisation. La méthode de relaxation par blocs résultante est convergente et compétitive avec un algorithme de gradient pseudo-conjugué. Enfin, l'intérêt et l'efficacité des méthodes développées sont illustrés sur signaux synthétiques et réels dans le cadre de l'imagerie radar Doppler.
90

Methode de r'egularisation entropique et application au calcul de la fonction de distribution des ondes

Prot, Olivier 01 July 2005 (has links) (PDF)
La détermination des directions de propagation d'une onde électromagnétique, à partir des mesures du champ, est un problème "mal-posé". En utilisant le concept de fonction de distribution des ondes (FDO), cela revient 'a "inverser" un opérateur linéaire non-bijectif. Nous avons développé une méthode de régularisation entropique pour résoudre ce problème. L'utilisation de l'entropie est numériquement avantageuse et permet de déterminer une solution contenant l'information minimale requise par la donnée. Une généralisation de la méthode a ensuite été étudiée. Le calcul effectif de la FDO a été effectué d'abord dans le cas du vide sur des données synthétiques, puis sur des données provenant du satellite FREJA. La méthode est automatique, robuste et permet de déterminer des solutions stables. Les résultats obtenus sont en accord avec ceux obtenus par d'autres méthodes. Ils sont toutefois plus diffus, ce qui est préférable dans la situation considérée.

Page generated in 0.3535 seconds