• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 665
  • 191
  • 75
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 962
  • 353
  • 283
  • 190
  • 149
  • 103
  • 94
  • 91
  • 89
  • 89
  • 86
  • 86
  • 83
  • 82
  • 70
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Le raisonnement comme compétence sociale : une comparaison expérimentale avec les théories intellectualistes / Reasoning as a social competence : an experimental comparison with the intellectualist theories

Trouche, Emmanuel 15 September 2016 (has links)
La majorité des recherches en sciences cognitives suppose que la fonction du raisonnement humain est d'aider l'individu à avoir de meilleures croyances et à prendre de meilleures décisions, en particulier grâce à des mécanismes mentaux d'inférences logiques. En 2011, Dan Sperber et Hugo Mercier ont proposé une vision alternative du raisonnement humain. La fonction du raisonnement serait argumentative : le raisonnement serait ce qui permet aux individus de produire et d'évaluer des arguments en contextes dialogiques. Cette thèse a d'une part pour objectif de proposer une comparaison théorique entre les théories standards du raisonnement et la théorie argumentative du raisonnement. D'autre part, elle apporte un soutien empirique a la théorie argumentative à travers différents paradigmes expérimentaux (i.e., résolution de problème individuelle, production et évaluation d'arguments individuelles, résolution de problème et échange d'arguments en groupe). Cette thèse défend non seulement la valeur explicative de la théorie argumentative du raisonnement, mais caractérise également les mécanismes cognitifs du raisonnement humain, de part leurs fonctions, leurs biais, et les contextes qui les déclenchent / Most research in cognitive science assumes that the function of human reasoning is to help individual to improve their beliefs and make better decisions, in particular through mental mechanisms of logical inference. In 2011, Dan Sperber and Hugo Mercier put forward an alternative view of human reasoning. The function of reasoning would be argumentative: reasoning would be what enables individuals to produce and evaluate arguments in dialogical contexts. This PhD thesis aims at proposing a theoretical comparison between standard theories of reasoning and the argumentative theory of reasoning. Furthermore, it provides empirical support for the latter by using different experimental paradigms (i.e., individual problem solving, production and evaluation of arguments in solitary contexts, problem solving and arguments exchange in group). This thesis not only defends the explanatory value of the argumentative theory but also characterizes the cognitive mechanisms of human reasoning by their functions, their biases, and their triggering contexts
182

Managers in disputes and use of alternative dispute resolution in France

Borbély, Adrian 19 December 2012 (has links)
Cette thèse explore les facteurs de résistance aux Modes Alternatifs de Règlement des Conflits (MARC) présents au sein des entreprises françaises, en particulier dans les interactions entre gestionnaires et professionnels du droit en situation de litige d’entreprise. Cet ouvrage se compose de trois articles académiques qui proposent des avancées théoriques, notamment en transposant la théorie de l’agence dans les services professionnels, et deux études empiriques. La première lève le voile sur la diversité et le caractère dynamique des relations gestionnaires-juristes et propose des leviers organisationnels visant à promouvoir une gestion efficace des litiges. La seconde lie les comportements individuels des gestionnaires, en particulier en relation avec leurs conseils juridiques, avec l’utilisation et le succès des MARC. Ensemble, ces articles mettent en lumière la notion de coproduction et invitent à seconcentrer sur le comportement des clients de la résolution des litiges d’entreprise. Ils suggèrent que, les MARC se trouvant à la frontière de la sphère de compétence des juristes français, des pratiques efficaces de résolution des litiges nécessitent que les clients s’adaptent, voire des efforts de changement organisationnel. Ces études contribuent à la théorie de la gestion des conflits et participent à la promotion d’une résolution efficace des litiges au sein des entreprises françaises. / This dissertation explores resistance factors toward Alternative Dispute Resolution (ADR) that can be observed in French companies, more precisely in relation with the micro interactions between managers and lawyers as they respond to business disputes. It consists of three academic papers that feature new theory developments, transposition of agency theory in professional services, and two supporting empirical studies. The first one unveils the diverse and dynamic nature of manager-lawyer interaction schemes and offers potential organizational levers to promote efficient dispute resolution practices. The second relates manager individual behavior in disputes, especially in relationship to lawyers, with the successful use of ADR. As a whole, this thesis places at the forefront the notion of coproduction and invites to focus on client behavior in business dispute resolution. It suggests that, as ADR lies at the borders of the French lawyers’ sphere of competency, efficient dispute resolution may require adaptation on the clients’ side, as well as organizational redesign. These studies aim to offer new insights for conflict management theory and reflections for the further promotion of efficient resolution of disputes in France.
183

Inverse problems in medical ultrasound images - applications to image deconvolution, segmentation and super-resolution / Problèmes inverses en imagerie ultrasonore - applications déconvolution image, ségmentation et super résolution

Zhao, Ningning 20 October 2016 (has links)
L'imagerie ultrasonore est une modalité d'acquisition privilégiée en imagerie médicale en raison de son innocuité, sa simplicité d'utilisation et son coût modéré d'utilisation. Néanmoins, la résolution limitée et le faible contraste limitent son utilisation dans certaines d'applications. C'est dans ce contexte que différentes techniques de post-traitement visant à améliorer la qualité de telles images sont proposées dans ce manuscrit. Dans un premier temps, nous proposons d'aborder le problème conjoint de la déconvolution et de la segmentation d'images ultrasonores en exploitant l'interaction entre ces deux problèmes. Le problème, énoncé dans un cadre bayésien, est résolu à l'aide d'un algorithme MCMC en raison de la complexité de la loi a posteriori des paramètres d'intérêt. Dans un second temps, nous proposons une nouvelle méthode rapide de super-résolution fondée sur la résolution analytique d'un problème de minimisation l2-l2. Il convient de remarquer que les deux approches proposées peuvent être appliquées aussi bien à des images ultrasonores qu'à des images naturelles ou constantes par morceaux. Enfin, nous proposons une méthode de déconvolution aveugle basée sur un modèle paramétrique de la réponse impulsionelle de l'instrument ou du noyau de flou. / In the field of medical image analysis, ultrasound is a core imaging modality employed due to its real time and easy-to-use nature, its non-ionizing and low cost characteristics. Ultrasound imaging is used in numerous clinical applications, such as fetus monitoring, diagnosis of cardiac diseases, flow estimation, etc. Classical applications in ultrasound imaging involve tissue characterization, tissue motion estimation or image quality enhancement (contrast, resolution, signal to noise ratio). However, one of the major problems with ultrasound images, is the presence of noise, having the form of a granular pattern, called speckle. The speckle noise in ultrasound images leads to the relative poor image qualities compared with other medical image modalities, which limits the applications of medical ultrasound imaging. In order to better understand and analyze ultrasound images, several device-based techniques have been developed during last 20 years. The object of this PhD thesis is to propose new image processing methods allowing us to improve ultrasound image quality using postprocessing techniques. First, we propose a Bayesian method for joint deconvolution and segmentation of ultrasound images based on their tight relationship. The problem is formulated as an inverse problem that is solved within a Bayesian framework. Due to the intractability of the posterior distribution associated with the proposed Bayesian model, we investigate a Markov chain Monte Carlo (MCMC) technique which generates samples distributed according to the posterior and use these samples to build estimators of the ultrasound image. In a second step, we propose a fast single image super-resolution framework using a new analytical solution to the l2-l2 problems (i.e., $\ell_2$-norm regularized quadratic problems), which is applicable for both medical ultrasound images and piecewise/ natural images. In a third step, blind deconvolution of ultrasound images is studied by considering the following two strategies: i) A Gaussian prior for the PSF is proposed in a Bayesian framework. ii) An alternating optimization method is explored for blind deconvolution of ultrasound.
184

La liberté de l'art face à la protection des croyances religieuses : étude d'un conflit de valeurs sous le prisme du droit international. / The freedom of the arts facing the protection of religious convictions : study of a conflict of values under international law

Polymenopoulou, Eleni 16 September 2011 (has links)
Notre projet de thèse suggère une lecture juridique, politique et sociale d'un conflit entre deux droits fondamentaux culturels. Plusieurs controverses existent aujourd'hui dans le monde occidental, dont l'objectif serait la légitimation éventuelle des restrictions de la liberté d'expression, et la liberté de l'art en particulier, au nom de la protection des croyances religieuses. Nous pourrions constater en effet un certain « paroxysme », qui aboutit, en dernier essor, à un conflit juridique, voire, un conflit réel. Au plan international, les premières indications de ce conflit apparussent peu ou prou au même époque que la controverse autour les « Versets sataniques » de Salman Rushdie. Quinze ans après, déclencha une autre « crise mondiale »: l'affaire des caricatures danoises, suivie, jusqu'aujourd'hui, par des dizaines de résolution du Conseil des droits de l'Homme et de l'Assemblée Générale des Nations Unies sur la diffamation des religions. Si l'on associe ce prétendu ‘conflit de valeurs' aux répercussions des attaques du 11 septembre et de la guerre contre le terrorisme, ainsi qu'aux politiques de discrimination constante à l'encontre des immigrés et les requérants d'asile en Europe, ou encore à la théorie de Huntington qui prône un supposé « conflit de civilisations », nous comprenons bien que la discussion est loin de concerner uniquement la liberté d'expression, ni, a fortiori, la liberté de l'art. Notre but est de proposer des approches « alternatives » aux conflits de droits, basées sur l'analyse des valeurs qui sont en jeu, et ciblant plutôt à la prévention de tels « conflits culturels », qu'à leur résolution formelle en faveur d'un droit ou d'un autre. / Our thesis project suggests suggests a legal, political and social reading of a conflict between two fundamental cultural rights. Several controversies exist today in the west world claiming the eventual legitimacy of the restrictions on artistic freedom, in the name of the protection of religious beliefs. We could even observe a certain ‘paroxysm' on this matter, which ends up at a legal, and virtually a real, conflict. From an international law point of view, the first indications of this kind of conflict appeared more or less during the notorious controversy around Salman Rushdie's ‘Satanic Verses”. Fifteen years later, in 2004, another ‘global crisis' appears: that of the Danish cartoons, followed by several resolutions on the subject of defamation of religions, issued by the UN Human Rights Council and the General Assembly. Associating this supposed “conflict of values” with the impact of 9/11 and the war against terrorism, as well as the discrimination politics against immigrants and asylum seekers in Europe, or even Huntington's theory concerning a pretended ‘conflict of civilisations', we realize that this ‘conflict' is not a matter concerning exclusively freedom of expression(FoE), and certainly not the freedom of the arts. Our aim is to propose alternative methods of conflict resolution techniques, based on the analysis of the values at stake and focusing on the prevention of such « cultural conflicts », rather then on their resolution, in favour of one right or the other.
185

Réponses des grands lacs périalpins aux pressions anthropiques et climatiques récentes : reconstitutions spatio-temporelles à partir d'archives sédimentaires / Responses of great perialpin lakes to recent anthropogenic and climatic forcings : spatio-temporal reconstructions from sediment archives

Jenny, Jean-Philippe 21 June 2013 (has links)
Les travaux de recherche développés durant cette thèse relèvent de la biogéochimie et de la sédimentologie appliquée aux systèmes lacustres. Ils s'inscrivent dans une démarche de rétro-observation sur la période récente (150-300 ans) avec l'objectif global d'évaluer l'implication des forçages environnementaux locaux (charge externe en nutriments, hydrologie) dans l'accentuation/atténuation des forçages globaux (climat). Nos recherches se sont concentrées sur une réponse intégratrice du système lacustre : le développement de l'état de l'hypoxie (manque d'oxygène ; [O2] <2µg L-1) dans les lacs, qui reflète l'état du système lacustre à l'échelle de l'hypolimnion. La thèse participe à un programme pluridisciplinaire, IPERRETRO ANR VMCS 008, dont les résultats sont utilisés dans ce travail pour comparer les trajectoires de 3 réponses biologiques (diatomées, cladocères, chironomes) et de la réponse de l'hypoxie dans les lacs du Léman, du Bourget et d'Annecy. Les objectifs spécifiques de ce travail de doctorat sont 1) de développer une méthode de quantification du régime de l'hypoxie au travers d'une approche spatio-temporelle (multi-site de carottage), 2) de caractériser les forçages et, 3) de recourir aux outils de modélisation statistique afin de comprendre les relations entre les forçages (globaux et locaux) et les réponses de l'écosystème lacustre dans un contexte de réchauffement climatique. Le prélèvement inédit de 81 carottes sédimentaires s'est révélé essentiel pour quantifier 2 forçages clés de l'hypoxie dans les 3 lacs : 1) les flux biogéniques et 2) le régime des crues. Nos principaux résultats montrent que l'enrichissement en phosphore dissous a conduit à un changement d'état de l'hypolimnion dès le milieu du XXe siècle. Désormais hypoxique, les écosystèmes de l'hypolimnion semblent particulièrement vulnérables face à l'augmentation croissante des températures. En revanche, l'action des crues (à l'échelle pluriannuelle, pluri-décennale et centennale) présente des effets bénéfiques sur les conditions de l'hypolimnion en favorisant périodiquement la recharge en oxygène, malgré l'état de stabilité global de l'hypoxie. D'autre part, les résultats montrent que le contexte hydrique local (~dimension des affluents) conditionne la vulnérabilité spécifique des lacs face aux changements globaux. Nous montrons qu'un lac comme Annecy (petit affluent) est plus vulnérable aux augmentations de température qu'un lac comme le Léman (gros affluent). Finalement, les trajectoires des réponses lacustres (flux biogéniques, diversité biologique et régime de l'hypoxie) indiquent que les réponses sont généralement plus immédiates dans l'hypolimnion face aux changements globaux et locaux que dans l'épilimnion. Cette différence de sensibilité des réponses, entre les « sous-systèmes », précise l'ampleur des défis pour la modélisation et la gestion intégrée des systèmes lacustres. / This Thesis is dedicated to the identification of issues (local and global stressors) that affected lakes physical and biogeological environment over the last 150 years through sediment-based palaeo-reconstructions. Our researches focussed on the recent development of hypoxia (i.e. low oxygen concentrations) which is a good indicator of lake ecosystem quality at the hypolimnetic scale. The aim is to reconstruct in 3 perialpin lakes (Geneva, Bourget, Annecy), with annual resolution, the evolution of 1) trophic level (Anthropic forcing), 2) flood regime (climate forcing) and 3) hypoxia (hypolimnetic response) in order to identify over time the role of human activity and climate on the lake ecosystem quality. A 4D approach is developed, using 80 sediment cores, to quantify for the first time the low oxygen dynamic and the flood regime from sediment archives. Statistical modelling is used to identify the relation between thermal, hydrological, trophic forcings on the response of hypoxia. 3D modelling is developed to support the results and to make results more understandable to actors of management. The principal findings gather around three topics: 1) Optimisation of spatio-temporal approach to quantify palaeoreconstruction from sediment archives based on volume calculation. Those reconstructions of hypoxia dynamic for the three lakes enable to emphasis the notion of weaken equilibrium, ecosystems vulnerability and the amplification of response following cumulative pressures. 2) New description of hypolimnetic functioning under constant increase of external pressures (with a focus on the nature of transitions between states: threshold effect, saturation effect, hypersteresis). 3) The contribution of palaeoreconstructions and statistical analyses to describe the respective influence of human activity and climate involved on the initiation of lake dysfunction, maintain or rebalancing of hypolimnetic functioning.
186

Résolution spatiale en microscopie par résonance de plasmon de surface à couplage par prisme / Spatial resolution of prism-based surface plasmon resonance microscopy

Laplatine, Loïc 27 November 2014 (has links)
La microscopie par résonance de plasmon de surface (SPR) à couplage par prisme a vu le jour à la fin des années 60. Le principal avantage de cette technique d'imagerie optique réside dans sa très grande sensibilité à de faibles variations d'indice optique ou d'épaisseurs à la surface d'un métal. De ce fait, le suivi d'interactions biologiques peut se faire en temps réel sans avoir recours à l'utilisation de marqueurs fluorescents ou enzymatiques. Depuis plus de 30 ans, la microscopie SPR s'est imposée comme la technique de référence de biodétection sans marquage. Ses champs d'application vont de la détermination de constantes d'affinité à la détection de bactéries pathogènes, en passant par la biologie cellulaire. Jusqu'à présent, on pensait la résolution spatiale limitée par la longueur de propagation des plasmons de surface. Or, de nombreux exemples ne corroborent pas cette hypothèse. Dans cette thèse, nous montrons qu'à ce phénomène de propagation se rajoute des aberrations optiques induites par l'utilisation d'un prisme pour coupler la lumière et les plasmons de surface. Nous expliquons ainsi pourquoi les résolutions expérimentales étaient souvent bien moins bonnes que celles attendues. Par l'analyse de la formation des images et la quantification des aberrations, nous aboutissons à deux nouvelles configurations optiques optimisées pour la résolution. Nous analysons ensuite quel métal offre le meilleur compromis entre longueur de propagation et sensibilité. Expérimentalement, nous obtenons une résolution comprise entre 1,5 et 4 μm suivant la direction, sur des champs de vision de plusieurs mm2, et ce, avec une sensibilité standard en biodétection. Nous sommes ainsi en mesure d'observer simultanément plusieurs milliers de cellules individuelles, eucaryotes et procaryotes. Finalement, nous développons un prototype dédié au suivi en temps réel de sécrétions de protéines par des cellules immunitaires. Les limites de la microscopie SPR et les solutions qui permettraient de faire aboutir ce type d'étude sont examinées. Des études préliminaires sont aussi menées sur l'amélioration de la détection de bactéries. / Prism-based surface plasmon resonance (SPR) microscopy is an optical imaging technique invented in the late 60s'. Its main advantage lies in its high sensitivity to optical index or thickness variations at a metal surface. Therefore, the monitoring of biological reactions can be performed in real-time without labeling agent such as fluorescence or enzymes. Over the last 30 years, SPR microscopy has become the major technique in label-free biodetection. The field of application range from the determination of affinity constant in biochemistry to the detection of pathogenic bacteria via cellular biology. Until now, the propagation length of the surface plasmons has been considered as the spatial resolution limit. However, many examples do not support this statement. In this PhD thesis, we demonstrate that the resolution is also limited by optical aberrations induced by the prism used to couple light and surface plasmons. Thus, we are able to explain why the experimental resolution was usually worse than the predicted one. The analysis of the image formation and the quantification of aberrations lead us to suggest two new optical configurations optimized for resolution. We also analyze which metal exhibits the better trade-off between propagation length and sensitivity. Experimentally, we obtain a resolution between 1.5 and 4 μm depending on the direction, on field-of-view up to several mm2, and with a standard sensitivity for biodetection (monolayer of DNA). We are then able to observe simultaneously several thousands of individual eukaryote and prokaryote cells. Finally, we develop a prototype dedicated to the real-time monitoring of protein secretion by immune cells. The limits of SPR microscopy and the solutions which could allow this kind of study are discussed. Preliminary results on the improvement of bacterial detection are also presented.
187

Biocatalyse : aldolisation, acylation et oxydation - Applications synthétiques / Biocatalysis : aldolization, acylation and oxidation - Synthetic applications

Hiault, Florence 24 November 2017 (has links)
Les travaux présentés dans ce manuscrit s’inscrivent dans le contexte général de l’essor de la biocatalyse et de son utilisation en synthèse organique. Le thème principal porte sur l’étude et le développement de différentes voies d’accès stéréosélectives à des acides alpha-aminés bêta-hydroxylés substitués. L’utilisation d’un biocatalyseur permettant d’accéder à des acides alpha-aminés bêta-hydroxylés par une aldolisation entre la glycine et divers aldéhydes, en présence de phosphate de pyridoxal, a été étudiée. Des aldéhydes aliphatiques, aromatiques et hétéroaromatiques ont pu être impliqués avec succès comme partenaires électrophiles dans ces réactions qui permettent un excellent contrôle de la configuration du carbone asymétrique créé en alpha du groupe carbonyle mais s’effectuent généralement avec des diastéréosélectivités plus modestes. Par ailleurs, un dédoublement cinétique enzymatique d’esters alpha,bêta-dihydroxylés, précurseurs d’acides alpha-aminés bêta-hydroxylés substitués en alpha, a été étudié. La méthode développée repose sur la monoacylation d’esters alpha,bêta-dihydroxylés, acycliques ou cycliques, en présence d’une lipase et d’un donneur d’acyle. De façon indépendante, la mise au point de séquences réactionnelles monotopes faisant intervenir une étape d’oxydation biocatalytique a été étudiée pour accéder à des composés aminés hautement fonctionnalisés. / The research work presented in this manuscript pertains to the field of biocatalysis and some applications in organic synthesis. The main subject is the development of stereoselective synthetic methods allowing access to substituted alpha-amino beta-hydroxy acids. The use of a biocatalyst enabling the preparation of optically enriched alpha-amino beta-hydroxy acids in a single step from glycine by an aldol reaction, in the presence of pyridoxal phosphate, was investigated. Aliphatic, aromatic and heteroaromatic aldehydes could be successfully used as electrophilic partners in such reactions that allow an excellent control of the stereocenter created at the alpha position of the carbonyl group whereas moderate levels of diastereoselectivity were generally observed. The enzymatic kinetic resolution of acyclic or cyclic alpha,beta-dihydroxy esters, which are precursors of alpha-substituted alpha-amino beta-hydroxy acids, was also achieved by monoacylation in the presence of a lipase and an acyl donor. Independently, a one-pot sequence involving a biocatalytic oxidation was developed to access highly functionalized nitrogen containing compounds.
188

Contributions au traitement radar haute résolution : détection de cibles étendues et optimisation de formes d'onde / Contribution to high resolution radar processing : extended target detection and waveform optimization

Rouffet, Timothée 07 December 2015 (has links)
Dans le domaine du radar aéroporté, les enjeux industriels actuels sont nombreux et portent,entre autres, sur l'établissement de profils distance de cibles aériennes, terrestres et maritimes pour leur identification. Cela implique en particulier la mise en oeuvre de chaînes d'émission/réception pour des modes de fonctionnement haute résolution. Dans ce contexte, les problématiques à traiter comprennent alors la conception et l'analyse de performances de détecteurs pour des modèles de cibles étendues, la conception de formes d'ondes multi-résolutions et le développement des traitements associés, l'optimisation de formes d'onde robustes au fouillis, etc. Le travail de cette thèse, qui s'intègre dans ce cadre, se décompose en deux parties. Dans un premier temps, nous traitons la détection d'une cible dite "étendue", c'est-à-dire caractérisée par plusieurs réflecteurs élémentaires prépondérants répartis sur plusieurs cases distance non nécessairement consécutives. Ce modèle est notamment approprié lorsque la résolution en distance est suffisamment fine, et s'intègre dans les problématiques d'identification de cible. Dans ce cadre, nous étudions un test de détection fondé sur le rapport de vraisemblances généralisé (GLRT) intégrant la localisation inconnue des réflecteurs, et lorsque la perturbation est du bruit blanc gaussien. En utilisant des résultats issus des statistiques d'ordre, nous déduisons des approximations de la probabilité de fausse alarme et de la probabilité de détection. Des comparaisons numériques avec des détecteurs existants sont fournies. Dans un second temps, nous étudions une forme d'onde correspondant à un train d'impulsions contenant deux codes de phase, l'un intra impulsion et l'autre inter impulsion. Pour un modèle de cible ponctuelle et un fouillis gaussien, nous proposons de sélectionner ces codes en tenant compte de différents critères tels que la maximisation de la probabilité de détection ou encore la minimisation des lobes secondaires du signal reçu après traitement. Pour un type donné de fouillis modélisé par un processus autorégressif (AR), nous abordons le problème d'optimisation multi-objectifs en utilisant les fronts de Pareto. La modélisation AR permettant de considérer plusieurs types de fouillis à partir d'un nombre réduit de paramètres, nous étudions alors la robustesse des codes de phase optimaux à des variations de fouillis. / In the field of airborne radar, one of the current industrial stakes, among others, is the identification of a target, whether airborne, terrestrial or maritime, through the establishment of its range profile. This implies to set up a transmit/receive processing for high resolution modes. In this context, the issues to be addressed include the design and the performance analysis of detectors for extended target models, the design of multi-resolution waveforms and the associated processing, the optimization of waveforms that are robust to clutter, etc. Within this frame, the work of this thesis is twofold. The first part deals with the detection of a so-called "extended" target, i.e. which is characterized by a few main scatterers spread over several range gates not necessarily consecutive. This model is appropriate when the range resolution is thin enough and it is suited for target identification issues. In this context, we study a detection test based on the generalized likelihood test (GLRT) which includes the unknown locations of the scatterers, and when the disturbance is white Gaussian noise. By using ordered statistics, we deduce approximations of the probability of false alarm and the probability of detection. Numerical comparison with existing detectors are also provided. Secondly, we study a waveform based on a pulse train which contains two phase codes: the first one is intrapulse whereas the second one is interpulse. Assuming a point target and Gaussian clutter, we propose to select these codes taking into account several criteria such as the maximization of the probability of detection or the minimization of the sidelobes of the received signal after processing. For a given type of clutter modeled by an autoregressive (AR) process, we address this multi-objective optimization problem using the Pareto fronts. Since the AR modeling makes it possible to consider several types of clutter from a reduced number of parameters, we study the robustness of optimal phase codes to clutter variations.
189

Détermination de l’exactitude d’un géoïde gravimétrique / Determination of the accuracy of gravimetric geoid

Ismail, Zahra 09 May 2016 (has links)
La détermination des modèles du géoïde avec une précision centimètrique est parmi les objectifs principaux de différents groupes de recherche. Une des méthodes les plus utilisées afin de calculer un modèle de géoïde est le Retrait-Restauration en utilisant le terrain résiduel. Cette méthode combine les informations à des courtes, moyennes et grandes longueurs d’onde via trois étapes principales en appliquant la formule de Stokes. À chaque étape nous citons les sources d’erreurs et leur influence sur la précision du calcul du géoïde. Nous intéressons surtout à la correction du terrain dans la première étape (le retrait) et l’estimation de la précision de l’intégrale de Stokes dans la deuxième étape (l’intégration). La correction du terrain consiste à enlever les hautes fréquences du signal gravimétrique via un processus de calcul donné par le contexte de la méthode de Retrait-Restauration. Nous faisons des tests sur les différents paramètres pour choisir ses valeurs correspondant à une précision d’un centimètre notamment le choix des petit et grand rayons et l’influence de la résolution du MNT. Nous étudions aussi la phase d’intégrale de Stokes en limitant à la fonction standard de Stokes, sans modifications. Les paramètres de cette étape sont étudiés en générant des données synthétiques à partir du EGM2008 (Earth Gravity Model). Nous estimons la précision de l’intégration de Stokes dans différentes zones / The determination of a geoid model with a centemetric precision is one of the main interests of several research groups. One of the most used methods in use to calculate a geoid model is the Remove-Compute-Restor procedure using the residual terrain model. This threestep method combine the information at different wavelength frequency using the integration of Stokes. At each step, we mention the error sources and its influence over the precision of calculated geoid. We are mainly interested in the terrain correction at the first step (the remove) and in the estimation of the precision of the Stokes’ integration at the second step (the compute). The terrain correction removes the high frequencies of the gravimetric signal by using a calculation procedure in the frame of the Remove-Restore procedure. We perform our tests on the different parameters to choose its values corresponding to a precision of 1 cm especially the small and large radii and the influence of the DTM resolution. We study also the step of Stokes’ integration using the standard Srokes’ function. The parameters of this phase are studied by generating synthetic data from EGM2008. We estimate the precision of Stokes’s integral at different landscapes.
190

Resolução de Problemas de Geometria Gráfica em Ambiente Computacional: o caso da interseção entre planos

FERREIRA, Bruno Leite 24 February 2011 (has links)
Submitted by Caroline Falcao (caroline.rfalcao@ufpe.br) on 2017-05-24T17:31:26Z No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) BRUNO FERREIRA-protegido - DISSERTAO.pdf: 4975980 bytes, checksum: e85d55190b5c3de6c457c5d296450623 (MD5) / Made available in DSpace on 2017-05-24T17:31:26Z (GMT). No. of bitstreams: 2 license_rdf: 811 bytes, checksum: e39d27027a6cc9cb039ad269a5db8e34 (MD5) BRUNO FERREIRA-protegido - DISSERTAO.pdf: 4975980 bytes, checksum: e85d55190b5c3de6c457c5d296450623 (MD5) Previous issue date: 2011-02-24 / Os Parâmetros Curriculares Nacionais (PCN) de Matemática pressupõem para a educação fundamental, dentro do bloco de Espaço e Forma, a interpretação e representação de posição e de movimentação no espaço. Entretanto, por diversas razões, o ensino da Geometria Gráfica, disciplina que desenvolve habilidades de visualização espacial necessárias para os requisitos citados dos PCN, tem se enfraquecido na educação básica, tendo como consequência, entre outras, levar ao ensino superior alunos com baixo nível dessa habilidade. Investigações na Área da Expressão Gráfica e da Educação Matemática levantam três tipos de dificuldades: epistemológicas, didáticas e cognitivas. Referente ao uso de tecnologias computacionais, estudos apontam que essas dificuldades podem ser superadas. Porém, o simples uso do computador não garante que ocorram aprendizagens. Nessa direção, propomos investigar os efeitos do uso de um programa de modelagem computacional por alunos de graduação para resolver uma situação problema de Geometria Gráfica Tridimensional. Como hipótese inicial, pressupomos que ao utilizarem o programa as dificuldades com relação à visualização espacial diminuem, contribuindo para os alunos resolverem o problema corretamente. Para nossa investigação, iniciamos com o estudo da Geometria Gráfica Tridimensional, enfocando a questão da representação desde a fisiologia da visão até os métodos de ensino utilizados. Após o estudo histórico e metodológico do método de Monge, enfocamos as questões didático-pedagógicas, abordando as dificuldades de aprendizagem dos alunos. Utilizamos a teoria das Situações Didáticas de Brousseau como norteadora da organização do nosso experimento, preocupando-se com a noção de meio (milieu) e sua importância na construção de situação de aprendizagem. Em nossa metodologia realizamos uma análise a priori para a escolha do programa de modelagem, bem como do problema. Foram sujeitos da pesquisa oito alunos do curso de licenciatura em Expressão Gráfica da UFPE, matriculados na disciplina de Geometria Gráfica Tridimensional I. O Conteúdo escolhido foi “interseção entre planos”. Como instrumento de coleta de dados, utilizamos um teste de visualização espacial, no início do semestre. A situação problema foi aplicada em dois ambientes, em prancheta, com uso dos instrumentos tradicionais de desenho e em laboratório de informática, usando uma ferramenta computacional selecionada, além de entrevistas semiestruturadas após cada aplicação da situação problema. Como técnica de análise utilizamos a “análise de conteúdo” a partir do levantamento de técnicas utilizadas na resolução do problema e nas fases de resolução de problemas em GGT, fases inspiradas de Barros & Santos e Polya. Como resultado, percebemos que o uso do programa de modelagem minimizou as dificuldades quanto à visualização espacial, apesar deste fato não garantir o avanço da resolução do problema em comparação com o uso dos instrumentos tradicionais de desenho. Isso se deve à dificuldade com relação ao próprio conteúdo. Em contrapartida, os alunos realizaram a fase de retrospecto em todo processo operacional, o que antes não ocorria ou somente ocorria no final da resolução. Além disso, a etapa de Exploração proporcionou a elaboração de maior número de técnicas com uso da ferramenta computacional, dando-nos a oportunidade de identificar a gênese das dificuldades dos alunos para, futuramente, elaborar metodologias que minimizem essas dificuldades, conduzindo o aluno a uma aprendizagem efetiva dos conhecimentos em jogo. / Les programmes nationaux d'enseignement (PCN) des mathématiques présuppose pour l'enseignement fondamental, dans le bloc de contenus « Espace et Forme », l'interprétation et la représentation de positions et mouvement dans l'espace. Pour diverses raisons, l'enseignement de la géométrie graphique, discipline que développe les aptitudes de visualisation spatiale nécessaire aux exigences des PCNs cités, a perdu de l'espace dans l'enseignement fondamental, permettant à des élèves ayant ces aptitudes peu développées d'accéder à l'enseignement supérieur. Des recherches dans le domaine de l'expression graphique et de l'enseignement des mathématiques mettent en évidence trois types de difficulté : épistémologiques, didactiques et cognitives. Relativement à l'utilisation de technologies informatiques, des études montrent que ces difficultés peuvent être dépassées, pourtant la simple utilisation de l'ordinateur ne garantit qu'il y ait des apprentissages. Dans ce sens, nous avons proposé d'étudier les effets de l'utilisation par des élèves d'université d'un logiciel de modelage pour résoudre une situation problème de Géométrie Graphique Tri-dimensionnelle. Comme hypothèse initiale, nous avons supposé que par l'utilisation du programme, les difficultés relatives à la visualisation spatiale diminuerai et contribuerai à ce que les élèves résolvent le problème correctement. Pour notre recherche, nous commençons par l'étude de la Géométrie Graphique, nous focalisant sur la question de la représentation graphique de la physiologie de la vision aux méthodes d'enseignement en oeuvre. Après l'étude historique et méthodologique des principes géométriques de Monge, nous avons abordé les questions didactiques-pédagogiques, nous intéressant particulièrement aux difficultés d'apprentissage des élèves. La théorie des situations didactiques de Guy Brousseau nous a servi de guide pour l'organisation de notre expérimentation, nous préoccupant particulièrement de la notion de milieu et son importance dans la construction de situation d'apprentissage. Pour notre méthodologie, nous avons réalisé une analyse a priori pour le choix du logiciel de modelage et de la situation problème. Huit élèves du cours de licenciatura en Expression Graphique de l'UFPE faisant la disciplina de Géométrie Graphique Tri-Dimensionnelle I. Le contenu choisi a été l'intersection entre plans. Comme instrument de collecte des données, nous avons utilisé un test de visualisation spatiale au début du semestre ; une situation-problème appliquée dans deux environnements : planchette avec l'utilisation des instruments classiques de dessin et en laboratoire d'informatique avec le logiciel de modelage sélectionné ; et des interviews semi-structurées après chaque mise en oeuvre de la situation problème. Comme technique d'analyse, nous avons mis en oeuvre l'analyse de contenu à partir de la mise en évidence de techniques utilisées de la résolution de problème et des phases de résolutions de problème en GGT, phases inspirées de Barros & Santos et Polya. Comme résultat, nous avons observé que l'utilisation d'un logiciel de modelage a réduit les difficultés de visualisation spatiale, mais ce fait n'a pas garanti l'avancée dans la résolution de problème en comparaison avec l'utilisation des instruments classiques de dessin. Ceci vient de la difficulté avec le contenu lui-même. En contrepartie, les élèves ont effectué la phase de rétrospective dans tout le processus opérationnel, ce qui n'est pas le cas ou seulement à la fin de la résolution dans l'environnement classique. De plus, l'étape d'exploration a provoqué l'élaboration d'un plus grand nombre de techniques dans l'environnement informatique donnant la possibilité d'identifier la genèse des difficultés des élèves et, dans le futur, élaborer des méthodes que minimisent ces difficultés, amenant les élèves à un apprentissage effectif des connaissances en jeu.

Page generated in 0.057 seconds