• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 111
  • 67
  • 22
  • 16
  • 12
  • 4
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 257
  • 50
  • 41
  • 40
  • 26
  • 24
  • 22
  • 22
  • 21
  • 19
  • 18
  • 17
  • 16
  • 16
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

De l'exception à la "normalisation" : Anthropologie de la santé reproductive confrontée au VIH au Sénégal

Sow, Khoudia 23 September 2013 (has links)
Alors que les politiques de santé sont passées au cours des dix dernières années d'un traitement de la procréation en contexte VIH comme une « exception » à un discours de « normalisation », la thèse vise à comprendre les conditions et les effets de cette évolution. L'enquête ethnographique a été conduite sur une période de dix ans auprès de personnes vivant avec le VIH sous thérapie antirétrovirale, de femmes vivant avec le VIH ayant eu une expérience de procréation, et de professionnels de santé intervenant en PTME dans deux structures de santé de la reproduction au Sénégal. Cette étude met en lumière un « système moral » de la prévention du VIH, contradictoire à certains égards, qui offre aux femmes peu de moyens socialement acceptables pour se protéger du risque VIH. La procréation peut être perçue comme une stratégie pour réaffirmer une identité féminine, tester la capacité d'un corps « normalisé » par les ARV à enfanter sans transmettre le VIH, raffermir les liens conjugaux en souffrance et réduire les risques de stigmatisation sociale. Ces logiques ne sont pas toujours comprises par des professionnels de santé « spécialistes du VIH » souvent débordés dans la prise en charge médicale et psychosociale des PvVIH, qui soutiennent peu ces processus. Les hommes vivant avec le VIH apparaissent isolés, fragiles, voire « oubliés » . Ce travail montre les multiples usages sociaux de la procréation : objet d'émulation, de résistance, de souffrance et de rivalité pour les femmes VIH et leurs conjoints. Parallèlement à la normalisation « décrétée » par les instances de santé publique, les femmes vivant avec le VIH se sont réapproprié la possibilité de procréer. / Since the last decade has seen a transition from treating childbearing in the context of HIV as an “exception” to a discourse of “normalization,” this dissertation aims to understand the conditions and effects of this change. This ethnographic survey was conducted over a period of ten years among people living with HIV receiving antiretroviral therapy, women living with HIV who experienced childbearing and healthcare professionals working in PMTCT in two reproductive health facilities in Senegal. This study sheds lights on a “moral system” for HIV prevention, contradictory in some respects, that provides women few socially acceptable means to protect themselves from the risk of HIV. Childbearing may be perceived as a strategy to reaffirm female identity, test the capacity of a body made “normal” by ARVs to give birth without transmitting HIV, strengthening strained marital bonds, and reducing the risk of social stigmatization. Men living with HIV appear isolated, fragile, unsupported, and even “forgotten” relative to childbearing while they themselves are suffering or are affected by the situations of their wives or families. Health professionals now integrate HIV counseling and testing in their practices but continue to project attitudes of “exception” about treating PLHIV and pregnant HIV-Positive women. This study shows the various social uses of childbearing : a subject leading to emulation, resistance, suffering, and rivalry for women living with HIV and their spouses. Alongside the normalization “decreed” by public health officials, women living with HIV have reclaimed the possibility to procreate.
142

Towards non-conventional face recognition : shadow removal and heterogeneous scenario / Vers la reconnaissance faciale non conventionnelle : suppression des ombres et scénario hétérogène

Zhang, Wuming 17 July 2017 (has links)
Ces dernières années, la biométrie a fait l’objet d’une grande attention en raison du besoin sans cesse croissant d’authentification d’identité, notamment pour sécuriser de plus en plus d’applications enlignes. Parmi divers traits biométriques, le visage offre des avantages compétitifs sur les autres, e.g., les empreintes digitales ou l’iris, car il est naturel, non-intrusif et facilement acceptable par les humains. Aujourd’hui, les techniques conventionnelles de reconnaissance faciale ont atteint une performance quasi-parfaite dans un environnement fortement contraint où la pose, l’éclairage, l’expression faciale et d’autres sources de variation sont sévèrement contrôlées. Cependant, ces approches sont souvent confinées aux domaines d’application limités parce que les environnements d’imagerie non-idéaux sont très fréquents dans les cas pratiques. Pour relever ces défis d’une manière adaptative, cette thèse porte sur le problème de reconnaissance faciale non contrôlée, dans lequel les images faciales présentent plus de variabilités sur les éclairages. Par ailleurs, une autre question essentielle vise à profiter des informations limitées de 3D pour collaborer avec les techniques basées sur 2D dans un système de reconnaissance faciale hétérogène. Pour traiter les diverses conditions d’éclairage, nous construisons explicitement un modèle de réflectance en caractérisant l’interaction entre la surface de la peau, les sources d’éclairage et le capteur de la caméra pour élaborer une explication de la couleur du visage. A partir de ce modèle basé sur la physique, une représentation robuste aux variations d’éclairage, à savoir Chromaticity Invariant Image (CII), est proposée pour la reconstruction des images faciales couleurs réalistes et sans ombre. De plus, ce processus de la suppression de l’ombre en niveaux de couleur peut être combiné avec les techniques existantes sur la normalisation d’éclairage en niveaux de gris pour améliorer davantage la performance de reconnaissance faciale. Les résultats expérimentaux sur les bases de données de test standard, CMU-PIE et FRGC Ver2.0, démontrent la capacité de généralisation et la robustesse de notre approche contre les variations d’éclairage. En outre, nous étudions l’usage efficace et créatif des données 3D pour la reconnaissance faciale hétérogène. Dans un tel scénario asymétrique, un enrôlement combiné est réalisé en 2D et 3D alors que les images de requête pour la reconnaissance sont toujours les images faciales en 2D. A cette fin, deux Réseaux de Neurones Convolutifs (Convolutional Neural Networks, CNN) sont construits. Le premier CNN est formé pour extraire les descripteurs discriminants d’images 2D/3D pour un appariement hétérogène. Le deuxième CNN combine une structure codeur-décodeur, à savoir U-Net, et Conditional Generative Adversarial Network (CGAN), pour reconstruire l’image faciale en profondeur à partir de son homologue dans l’espace 2D. Plus particulièrement, les images reconstruites en profondeur peuvent être également transmise au premier CNN pour la reconnaissance faciale en 3D, apportant un schéma de fusion qui est bénéfique pour la performance en reconnaissance. Notre approche a été évaluée sur la base de données 2D/3D de FRGC. Les expérimentations ont démontré que notre approche permet d’obtenir des résultats comparables à ceux de l’état de l’art et qu’une amélioration significative a pu être obtenue à l’aide du schéma de fusion. / In recent years, biometrics have received substantial attention due to the evergrowing need for automatic individual authentication. Among various physiological biometric traits, face offers unmatched advantages over the others, such as fingerprints and iris, because it is natural, non-intrusive and easily understandable by humans. Nowadays conventional face recognition techniques have attained quasi-perfect performance in a highly constrained environment wherein poses, illuminations, expressions and other sources of variations are strictly controlled. However these approaches are always confined to restricted application fields because non-ideal imaging environments are frequently encountered in practical cases. To adaptively address these challenges, this dissertation focuses on this unconstrained face recognition problem, where face images exhibit more variability in illumination. Moreover, another major question is how to leverage limited 3D shape information to jointly work with 2D based techniques in a heterogeneous face recognition system. To deal with the problem of varying illuminations, we explicitly build the underlying reflectance model which characterizes interactions between skin surface, lighting source and camera sensor, and elaborate the formation of face color. With this physics-based image formation model involved, an illumination-robust representation, namely Chromaticity Invariant Image (CII), is proposed which can subsequently help reconstruct shadow-free and photo-realistic color face images. Due to the fact that this shadow removal process is achieved in color space, this approach could thus be combined with existing gray-scale level lighting normalization techniques to further improve face recognition performance. The experimental results on two benchmark databases, CMU-PIE and FRGC Ver2.0, demonstrate the generalization ability and robustness of our approach to lighting variations. We further explore the effective and creative use of 3D data in heterogeneous face recognition. In such a scenario, 3D face is merely available in the gallery set and not in the probe set, which one would encounter in real-world applications. Two Convolutional Neural Networks (CNN) are constructed for this purpose. The first CNN is trained to extract discriminative features of 2D/3D face images for direct heterogeneous comparison, while the second CNN combines an encoder-decoder structure, namely U-Net, and Conditional Generative Adversarial Network (CGAN) to reconstruct depth face image from its counterpart in 2D. Specifically, the recovered depth face images can be fed to the first CNN as well for 3D face recognition, leading to a fusion scheme which achieves gains in recognition performance. We have evaluated our approach extensively on the challenging FRGC 2D/3D benchmark database. The proposed method compares favorably to the state-of-the-art and show significant improvement with the fusion scheme.
143

Posouvání hranic v chápání pojmu/významu "populární kultura" jejími konzumenty (na příkladu ženského publika sledujícího televizní seriály pro celou rodinu) / Changes in understanding of conception !popular culture" by the users (example of women's audience watching TV series "for the whole family" x

Fišerová, Marie January 2012 (has links)
This thesis deals with the study of popular culture for example, television series like a typical product of this culture and of research of their consumers. It deals with the shift in the understanding of the importance of the concept of popular culture for example, female audience pursuing series called series "for the whole family. With this selected audience watching the series at the time of normalization, and at the same time pursuing current series I am trying to trace the development, as well as the changes in understanding of pop culture. The aim of this thesis is to determine the movement, changes in the understanding of the concept / importance of popular culture occurred during the period of normalization to the present days. At work I deal with social and political context, defining of popular culture, everydayness and watching TV serials. This is a qualitative research on female audience through in-depth interviews.
144

Geometric guides for interactive evolutionary design

Retzepi, Theodora January 2018 (has links)
This thesis describes the addition of novel Geometric Guides to a generative Computer-Aided Design (CAD) application that supports early-stage concept generation. The application generates and evolves abstract 3D shapes, used to inspire the form of new product concepts. It was previously a conventional Interactive Evolutionary system where users selected shapes from evolving populations. However, design industry users wanted more control over the shapes, for example by allowing the system to influence the proportions of evolving forms. The solution researched, developed, integrated and tested is a more cooperative human-machine system combining classic user interaction with innovative geometric analysis. In the literature review, different types of Interactive Evolutionary Computation (IEC), Pose Normalisation (PN), Shape Comparison, and Minimum-Volume Bounding Box approaches are compared, with some of these technologies identified as applicable for this research. Using its Application Programming Interface, add-ins for the Siemens NX CAD system have been developed and integrated with an existing Interactive Evolutionary CAD system. These add-ins allow users to create a Geometric Guide (GG) at the start of a shape exploration session. Before evolving shapes can be compared with the GG, they must be aligned and scaled (known as Pose Normalisation in the literature). Computationally-efficient PN has been achieved using geometric functions such as Bounding Box for translation and scaling, and Principle Axes for the orientation. A shape comparison algorithm has been developed that is based on the principle of non-intersecting volumes. This algorithm is also implemented with standard, readily available geometric functions, is conceptually simple, accessible to other researchers and also offers appropriate efficacy. Objective geometric testing showed that the PN and Shape Comparison methods developed are suitable for this guiding application and can be efficiently adapted to enhance an Interactive Evolutionary Design system. System performance with different population sizes was examined to indicate how best to use the new guiding capabilities to assist users in evolutionary shape searching. This was backed up by participant testing research into two user interaction strategies. A Large Background Population (LBP) approach where the GG is used to select a sub-set of shapes to show to the user was shown to be the most effective. The inclusion of Geometric Guides has taken the research from the existing aesthetic focused tool to a system capable of application to a wider range of engineering design problems. This system supports earlier design processes and ideation in conceptual design and allows a designer to experiment with ideas freely to interactively explore populations of evolving solutions. The design approach has been further improved, and expanded beyond the previous quite limited scope of form exploration.
145

A longitudinal study of the oral properties of the French-English interlanguage : a quantitative approach of the acquisition of the /ɪ/-/iː/ and /ʊ/-/uː/ contrasts / Etude longitudinale des propriétés orales de l'interlangue français-anglais

Méli, Adrien 04 April 2018 (has links)
Ce travail entreprend d'évaluer l'évolution de l'acquisition phonologique par des étudiants français des contrastes anglais /ɪ/-/i:/ et /ʊ/-/u:/. Le corpus étudié provient d'enregistrements de conversations spontanées menées avec des étudiants natifs. 12 étudiants, 9 femmes et 3 hommes,ont été suivis lors de 4 sessions espacées chacune d'un intervalle de six mois. L'approche adoptée est résolument quantitative, et agnostique quant aux théories d'acquisition d'une deuxième langue (par exemple Flege 2005, Best 1995,Kuhl 2008). Afin d'estimer les éventuels changements de prononciation, une procédure automatique d'alignement et d'extraction des données acoustiques a été conçue à partir du logiciel PRAAT (Boersma 2001). Dans un premier temps, deux autres logiciels (SPPAS et P2FA, Bigi 2012 et Yuan &Liberman 2008) avaient aligné les transcriptions des enregistrements au phonème près. Plus de 90 000 voyelles ont ainsi été analysées. Les données extraites sont constituées d'informations telles que le nombre de syllabes du mot, de sa transcription acoustique dans le dictionnaire, de la structure syllabique, des phonèmes suivant et précédant la voyelle, de leur lieu et manière d'articulation, de leur appartenance ou non au même mot, mais surtout des relevés formantiques de F0, F1, F2, F3 et F4. Ces relevés formantiques ont été effectués à chaque pourcentage de la durée de la voyelle afin de pouvoir tenir compte des influences des environnements consonantiques sur ces formants. Par ailleurs, des théories telles que le changement spectral inhérent aux voyelles (Nearey & Assmann(1986), Morrison & Nearey (2006), Hillenbrand (2012),Morrison (2012)), ou des méthodes de modélisation du signal telles que la transformation cosinoïdale discrète(Harrington 2010) requièrent que soient relevées les valeurs formantiques des voyelles tout au long de leur durée. Sont successivement étudiées la fiabilité de l'extraction automatique, les distributions statistiques des valeurs formantiques de chaque voyelle et les méthodes de normalisation appropriées aux conversations spontanées. Les différences entre les locuteurs sont ensuite évaluées en analysant tour à tour et après normalisation les changements spectraux, les valeurs formantiques à la moitié de la durée de la voyelle et les transformations cosinoïdales. Les méthodes déployées sont les k plus proches voisins, les analyses discriminantes quadratiques et linéaires, ainsi que les régressions linéaires à effets mixtes. Une conclusion temporaire de ce travail est que l'acquisition du contraste/ɪ/-/i:/ semble plus robuste que celle de /ʊ/-/u:/. / This study undertakes to assess the evolution of the phonological acquisition of the English /ɪ/-/i:/ and /ʊ/-/u:/ contrasts by French students. The corpus is made up of recordings of spontaneous conversations with native speakers. 12 students, 9 females and 3 males, were recorded over 4 sessions in six-month intervals. The approach adopted here is resolutely quantitative, and agnostic with respect to theories of second language acquisition such as Flege's, Best's or Kuhl's. In order to assess the potential changes in pronunciations, an automatic procedure of alignment and extraction has been devised, based on PRAAT (Boersma 2001). Phonemic and word alignments had been carried out with SPPAS (Bigi 2012) and P2FA (Yuan & Liberman 2008) beforehand. More than 90,000 vowels were thus collected and analysed. The extracted data consist of information such as the number of syllables in the word, the transcription of its dictionary pronunciation, the structure of the syllable the vowel appears in, of the preceding and succeeding phonemes, their places and manners of articulation, whether they belong to the same word or not, but also especially of the F0, F1, F2, F3 and F4 formant values. These values were collected at each centile of the duration of the vowel, in order to be able to take into account of the influences of consonantal environments. Besides, theories such as vowel-inherent spectral changes (Nearey & Assmann (1986), Morrison & Nearey (2006), Hillenbrand (2012), Morrison (2012)), and methods of signal modelling such as discrete cosine transforms (Harrington 2010) need formant values all throughout the duration of the vowel. Then the reliability of the automatic procedure, the per-vowel statistical distributions of the formant values, and the normalization methods appropriate to spontaneous speech are studied in turn. Speaker differences are assessed by analysing spectral changes, mid-temporal formant values and discrete cosine transforms with normalized values. The methods resorted to are the k nearest neighbours, linear and quadratic discriminant analyses and linear mixed effects regressions. A temporary conclusion is that the acquisition of the /ɪ/-/i:/ contrast seems more robust than that of the /ʊ/-/u:/ contrast.
146

On fast and space-efficient database normalization : a dissertation presented in partial fulfilment of the requirements for the degree of Doctor of Philosophy in Information Systems at Massey University, Palmerston North, New Zealand

Koehler, Henning January 2007 (has links)
A common approach in designing relational databases is to start with a relation schema, which is then decomposed into multiple subschemas. A good choice of sub- schemas can often be determined using integrity constraints defined on the schema. Two central questions arise in this context. The first issue is what decompositions should be called "good", i.e., what normal form should be used. The second issue is how to find a decomposition into the desired form. These question have been the subject of intensive research since relational databases came to life. A large number of normal forms have been proposed, and methods for their computation given. However, some of the most popular proposals still have problems: - algorithms for finding decompositions are inefficient - dependency preserving decompositions do not always exist - decompositions need not be optimal w.r.t. redundancy/space/update anomalies We will address these issues in this work by: - designing effcient algorithms for finding dependency preserving decompositions - proposing a new normal form which minimizes overall storage space. This new normal form is then characterized syntactically, and shown to extend existing normal forms.
147

Contributions à l'analyse statistique des données de puces à ADN

Neuvial, Pierre 30 September 2009 (has links) (PDF)
Cette thèse traite de questions statistiques soulevées par l'analyse de données génomiques de grande dimension, dans le cadre de la recherche contre le cancer. La première partie est consacrée à l'étude des propriétés asymptotiques de procédures de tests multiples visant à contrôler l'espérance (FDR) du taux de fausses découvertes (FDP) parmi les hypothèses rejetées. On introduit un formalisme flexible qui permet de calculer la loi asymptotique du FDP et les conditions de régularité associées pour une vaste famille de procédures de tests multiples, et de comparer la puissance de ces procédures. On s'intéresse ensuite aux liens en termes de contrôle du FDR entre les bornes intrinsèques à trois problèmes de tests multiples: la détection, l'estimation, et la sélection. On relie en particulier la vitesse de convergence dans le problème d'estimation à la régularité de la loi des probabilités critiques au voisinage de 1. La seconde partie est dédiée au développement de méthodes d'analyse des données de puces à ADN en cancérologie. On propose une méthode de pré-traitement des données de puces à ADN combinant une régression robuste et un modèle de mélange avec contrainte spatiale, qui permet d'éliminer les biais spatiaux en préservant le signal biologique. On développe ensuite une méthode d'inférence de régulations entre gènes à partir de données d'expression de gènes, qui repose sur des techniques d'apprentissage informatique et de tests multiples. Enfin, on construit un test génomique permettant de déterminer, pour une patiente traitée pour un cancer du sein, si un second cancer survenant sur le même sein est ou non une récidive du premier.
148

Subsitutions explicites, logique et normalisation

Polonovski, Emmanuel 30 June 2004 (has links) (PDF)
Les substitutions explicites ont été introduites comme un raffinement du lambda-calcul, celui-ci étant le<br />formalisme utilisé pour étudier la sémantique des langages de programmation. L'objet de cette thèse<br />est l'étude de leurs propriétés de normalisation forte et de préservation de la normalisation forte. Ce<br />manuscrit rend compte de plusieurs travaux autour de ces propriétés de normalisation, regroupés en<br />trois volets.<br /><br />Le premier d'entre eux formalise une technique générale de preuve de normalisation forte utilisant<br />la préservation de la normalisation forte. On applique cette technique à un spectre assez large de calculs<br />avec substitutions explicites afin de mesurer les limites de son utilisation. Grâce à cette technique, on<br />prouve un résultat nouveau : la normalisation forte du lambda-upsilon-calcul simplement typé.<br /><br />Le deuxième travail est l'étude de la normalisation d'un calcul symétrique non-déterministe issu de<br />la logique classique formulée dans le calcul des séquents, auquel est ajouté des substitutions explicites.<br />La conjonction des problèmes posés par les calculs symétriques et ceux posés par les substitutions<br />explicites semble vouer à l'échec l'utilisation de preuves par réductibilité. On utilise alors la technique<br />formalisée dans le premier travail, ce qui nous demande de prouver tout d'abord la préservation de la<br />normalisation forte. A cette fin, on utilise un fragment de la théorie de la perpétuité dans les systèmes<br />de réécriture.<br /><br />La définition d'une nouvelle version du lambda-ws-calcul avec nom, le lambda-wsn-calcul, constitue le troisième<br />volet de la thèse. Pour prouver sa normalisation forte par traduction et simulation dans les réseaux<br />de preuve, on enrichit l'élimination des coupures de ceux-ci avec une nouvelle règle, ce qui nous oblige<br />à prouver que cette nouvelle notion de réduction est fortement normalisante.
149

La normalisation et la certification dans la branche formation continue

Loukil, Faten 31 January 2002 (has links) (PDF)
L'appareil de formation connaît aujourd'hui une nouvelle phase dans laquelle la<br />stabilisation et l'amélioration de son fonctionnement sont les principaux enjeux. Face aux<br />risques de dérives d'une régulation accentuée par un pouvoir administratif, le renforcement du<br />rôle des organismes de normalisation semble une meilleure opportunité de structuration de<br />l'offre.<br />Cette thèse s'interroge sur la normalisation et la certification comme supports de<br />coordination dans la branche formation continue. Elle adopte l'hypothèse de la diversité des<br />institutions de normalisation comme facteur de structuration de l'offre. Sur le plan théorique,<br />on montre que c'est la dimension compétence des organismes de formation qui doit faire<br />l'objet de normalisation. Cette donnée replace le choix des normes et labels dans une<br />perspective de renforcement de la cohérence de la firme. La diversité des institutions de<br />normalisation apparaît comme le support des modalités de coordination distinctes.<br />Ce travail apporte également une vision empirique des pratiques de normalisation et de<br />certification dans la branche formation continue. A partir des données d'une enquête du<br />CEREQ de 1997 portant sur l'utilisation des normes et labels par les organismes de formation,<br />on montre que la diversité des institutions de normalisation trouve sens dans la diversité des<br />positionnements d'organismes de formation mais aussi au travers de la structure dualiste de<br />l'offre de formation continue régie par un financement public et privé.
150

La qualité en recherche: la construction d'une norme française

Muret, Arnaud 02 December 2003 (has links) (PDF)
En octobre 2001, l'Association française pour la normalisation publie un fascicule de documentation intitulé: «Démarche qualité en recherche - Principes généraux et recommandations». Jusqu'à présent, les démarches Qualité au sens de celles promues par les organismes de normalisation et encadrées par des normes avaient été mises en oeuvre dans les entreprises à caractère industriel ou de service. Dans cette thèse, nous avons étudié les processus par lesquels la question de la Qualité a été introduite dans le domaine de la recherche française et nous avons tenté de savoir pourquoi les institutions politiques ont été amenées à compléter, par une norme de management, les dispositifs de régulation mis en place par la communauté scientifique elle-même. Ces interrogations ont semblé d'autant plus pertinentes que cette communauté s'est précisément structurée historiquement autour de «normes» explicites ou implicites supposées régir ses pratiques.

Page generated in 0.1197 seconds