111 |
Sur la définition et la reconnaissance des formes planes dans les images numériquesMusé, Pablo 01 October 2004 (has links) (PDF)
Cette thèse traite de la reconnaissance des formes dans les images numériques. Une représentation appropriée des formes est déduite de l'analyse des perturbations qui n'affectent pas la reconnaissance : changement de contraste, occlusion partielle, bruit, perspective. Les atomes de cette représentation, appelés "éléments de forme", fournissent des descriptions semi-locales des formes. L'appariement de ces éléments permet de reconnaitre des formes partielles. Les formes globales sont alors définies comme des groupes de formes partielles présentant une cohérence dans leur disposition spatiale. L'aspect fondamental de ce travail est la mise en place de seuils non-supervisés, à tous les niveaux de décision du processus de reconnaissance. Nous proposons des règles de décision pour la en correcpondance de formes partielles ainsi que pour la détection de formes globales. Le cadre proposé est basé sur une méthodologie générale de la détection dans laquelle un événement est significatif s'il n'est pas susceptible d'arriver par hasard.
|
112 |
Autour du lambda-calcul avec constructeursPetit, Barbara 13 July 2011 (has links) (PDF)
Le lambda calcul avec constructeurs (de Arbiser, Miquel et Rios) est une extension du lambda calcul avec un mécanisme de filtrage. Le filtrage à la ML y est décomposé en deux étapes: une analyse de cas sur des constantes (telle l'instruction "case" de Pascal), et une commutation de l'application avec la construction de filtrage. Cette règle de commutation entre deux constructions de natures différentes induit une géométrie de calcul surprenante, a priori incompatible avec les intuitions habituelles de typage. Cependant il a été montré que ce calcul est confluent, et vérifie la propriété de séparation (à la Böhm). Cette thèse propose un système de types du polymorphique pour ce calcul, et décrit ensuite un modèle de réalisabilité, qui adapte les candidats de réductibilité de Girard au lambda calcul avec constructeurs. La normalisation forte du calcul typé et l'absence d'erreur de filtrage lors de l'évaluation en découlent immédiatement. Nous nous intéressons ensuite à la sémantique du lambda calcul avec constructeurs non typé. Une notion générique de modèle catégorique pour ce calcul est définie, puis un modèle particulier (le modèle syntaxique dans la catégorie des PERs) est construit. Nous en déduisons un résultat de complétude. Enfin, nous proposons une traduction CPS du lambda calcul avec constructeurs dans le lambda calcul simplement typé avec paires. Le lambda calcul avec constructeurs peut ainsi être simulé dans un calcul bien connu, et cette traduction nous permet aussi de transformer tout modèle par continuation en modèle du lambda calcul avec constructeurs. Une équation catégorique caractéristique de ces modèles apparait alors, qui permet de construire des modèles non syntaxiques (dans les domaines) de Scott du lambda calcul avec constructeurs.
|
113 |
Thérapie génique de l'angiogenèse tumorale ciblée par des cellules endothéliales immaturesCollet, Guillaume 17 December 2012 (has links) (PDF)
Les facteurs de croissance endothéliaux (VEGFs) sont produits par les tumeurs qui sont hypoxiques. Principaux responsables de la néo-vascularisation pathologique, ils régulent le stroma tumoral. Les nouvelles stratégies qui ciblent et inhibent le VEGF ouvrent vers la thérapie anti-cancéreuse moderne. Elles ont pour but de contrôler l'angiogenèse tumorale plutôt que la détruire. Le défi est donc de piéger sélectivement le VEGF produit en excès, dans le microenvironnement tumoral, sous l'effet de l'hypoxie. La thèse présentée dans ce manuscrit est consacrée à la réalisation d'une nouvelle stratégie ciblante par l'intermédiaire de cellules, aussi appelée " Cheval de Troie ". Elle combine dans la même entité, une unité de ciblage et un système de délivrance spécifique d'un gène/molécule thérapeutique. Dans le but d'adresser la thérapie aux cellules cancéreuses sans affecter les cellules saines, un modèle de cellules endothéliales de type précurseur (CEPs) a été utilisé comme cellules ciblantes capables d'atteindre spécifiquement le site tumoral. Les CEPs ont été " armées " pour exprimer un gène thérapeutique chargé d'inhiber le VEGF. La neutralisation a été obtenue par la production d'une forme soluble du récepteur-2 du VEGF (VEGFR2 soluble), agissant comme inhibiteur. Caractéristique des tumeurs solides se développant, l'hypoxie a été choisie pour déclencher/éteindre l'expression et la sécrétion du VEGFR2 soluble, en introduisant, en amont du gène thérapeutique, une séquence régulatrice : HRE. Adressé au site tumoral par les CEPs, le régulateur de l'angiogenèse qu'est la forme soluble du VEGFR2, est exprimé de manière conditionnée et réversible, à l'hypoxie. Ceci ouvre à de nouvelles stratégies de normalisation contrôlée et stable des vaisseaux tumoraux en vue de l'utilisation de thérapies combinées.
|
114 |
Traitement cérébral d'odeurs biologiquement signifiantes, révélé chez le rat par imagerie RMN fonctionnelle du manganèseLehallier, Benoist 28 June 2011 (has links) (PDF)
L'objectif de cette thèse est d'utiliser MEMRI (manganese-enhanced magnetic resonance imaging) pour étudier le traitement d'odeurs signifiantes dans le cortex olfactif primaire de rats dans les conditions les plus proches de la perception naturelle. MEMRI est une méthode fondée sur la détection d'un agent de contraste fonctionnel et rémanent de l'activité neuronale, le manganèse, qui a prouvé son efficacité pour montrer le traitement différencié d'odeurs dans le bulbe olfactif chez l'animal vigile. Cependant, cette technique a été surtout utilisée pour tracer les voies neuronales, mais relativement peu pour explorer des fonctions sensorielles. C'est pourquoi nous avons conduit deux études visant l'une à définir les conditions d'application du manganèse et l'autre à optimiser le traitement des images MEMRI, avant d'aborder la question biologique proprement dite. S'appuyant sur ces développement méthodologiques, nous avons ensuite utilisé MEMRI pour étudier les variations du traitement d'odeurs signifiantes (odeurs de nourriture et de prédateur comparées à une situation de contrôle) dans le cortex olfactif primaire de rats. Nous avons montré que le traitement cérébral d'une odeur de prédateur est différent de celui de la situation de contrôle dans le cortex olfactif primaire. Nous avons confirmé ce résultat par immunomarquage Fos dans le cortex piriforme. Mis ensemble, les résultats de MEMRI et Fos suggèrent que le traitement cérébral d'une odeur peut varier en terme de taille de populations de neurone recrutés ainsi qu'en termes d'intensité de l'activation de ces neurones. Enfin, les résultats MEMRI montrent qu'un message olfactif crucial, pour la survie, est traité asymétriquement dans le cerveau. Les avancées méthodologiques et scientifiques qu'apporte cette thèse ouvrent la voie à une meilleure compréhension du traitement cérébral des odeurs.
|
115 |
Les collèges d'experts et la fabrique de la normalisation technique. Hybridation Normative et Performation de la Haute Qualité Environnementale (HQE) des Bâtiments en France.Cauchard, Lionel 01 October 2010 (has links) (PDF)
La thèse analyse le processus de genèse et d'institutionnalisation de la démarche HQE, ainsi que ses effets performatifs sur les marchés et les systèmes d'acteurs dans le secteur de la construction en France.La démarche HQE a été initiée en 1992, par le Plan Construction et Architecture (PCA), placé sous l'autorité du Ministère de l'Équipement et du Logement, avec la création d'un collège d'experts sur le thème de la qualité environnementale (QE) des bâtiments. Sur la base des travaux du PCA, une association HQE est créée en octobre 1996 et le premier référentiel officiel de la démarche HQE est publié en novembre 1997. Il établit sous la forme de 14 cibles les principales caractéristiques qui permettent de limiter les impacts d'une opération de construction sur l'environnement extérieur, tout en préservant le confort et la santé des habitants à l'intérieur des bâtiments. Ce premier référentiel est traduit en décembre 2004, en norme officielle par un comité de l'Agence Française de Normalisation (AFNOR) puis, en février 2005, en référentiel privé de certification, spécifié pour les bâtiments tertiaires, par le Centre Scientifique et Technique du Bâtiment (CSTB).A travers l'étude historique de la trajectoire de la démarche HQE, la thèse rend compte de l'importante hybridation qui caractérise la " carrière " des dispositifs de normalisation technique. D'un problème public (Gusfield 1981) mis à l'agenda politique (Cobb & Elder 1972) par les autorités publiques au début des années 1990, la QE des bâtiments fait l'objet d'un travail de traduction (Callon 1986) et d'appropriation (Gusfield 1989) par un collège d'experts. La constitution d'un monde social commun (Strauss 1992) et d'une représentation commune (Fligstein 1997), suite à la création de l'association HQE et la publication du premier référentiel officiel, permet à la démarche HQE de s'imposer progressivement auprès des acteurs politiques, sociaux et économiques comme le standard français de la QE des bâtiments. Alors que le modèle économique du bâtiment est centré sur la concurrence par les prix, les " concepteurs " de la démarche HQE, en faisant la promesse aux professionnels (van Lente 1993, van Lente & Rip 1998) d'établir une économie de la qualité (Karpik 1989, 1995), parviennent à leur faire accepter la traduction du standard de la démarche HQE en norme française (NF) homologuée et en référentiel privé de certification.L'analyse met en exergue l'emprise exercée, par un collège d'experts, sur la fabrique de la normalisation technique ainsi que les tensions entre acteurs et professionnels autour de la transformation de l'architecture marchande du bâtiment (Fligstein 2001). L'étude de la démarche HQE montre ainsi le rôle politique joué par les collèges d'experts (Olshon 1993) qui, en participant à la création de nouveaux domaines de compétences et de règles marchandes, performent les modèles économiques (Callon 1998), que ce soit par l'instauration d'une économie de la qualité (Karpik 1989 & 1995, Musselin 1996), l'évolution des dispositifs collectifs de calcul et des business models (Callon & Muniesa 2003, Barrey 2006) la mise en place d'un marché de la prescription (Hatchuel 1995) ou encore, en reconfigurant les juridictions au sein des écologies professionnelles (Abbott 1988).
|
116 |
Automatic speech recognition for resource-scarce environments / N.T. Kleynhans.Kleynhans, Neil Taylor January 2013 (has links)
Automatic speech recognition (ASR) technology has matured over the past few decades and has made significant impacts in a variety of fields, from assistive technologies to commercial products. However, ASR system development is a resource intensive activity and requires language resources in the form of text annotated audio recordings and pronunciation dictionaries. Unfortunately, many languages found in the developing world fall into the resource-scarce category and due to this resource scarcity the deployment of ASR systems in the developing world is severely inhibited. In this thesis we present research into developing techniques and tools to (1) harvest audio data, (2) rapidly adapt ASR systems and (3) select “useful” training samples in order to assist with resource-scarce ASR system development.
We demonstrate an automatic audio harvesting approach which efficiently creates a speech recognition corpus by harvesting an easily available audio resource. We show that by starting with bootstrapped acoustic models, trained with language data obtain from a dialect, and then running through a few iterations of an alignment-filter-retrain phase it is possible to create an accurate speech recognition corpus. As a demonstration we create a South African English speech recognition corpus by using our approach and harvesting an internet website which provides audio and approximate transcriptions. The acoustic models developed from harvested data are evaluated on independent corpora and show that the proposed harvesting approach provides a robust means to create ASR resources.
As there are many acoustic model adaptation techniques which can be implemented by an ASR system developer it becomes a costly endeavour to select the best adaptation technique. We investigate the dependence of the adaptation data amount and various adaptation techniques by systematically varying the adaptation data amount and comparing the performance of various adaptation techniques. We establish a guideline which can be used by an ASR developer to chose the best adaptation technique given a size constraint on the adaptation data, for the scenario where adaptation between narrow- and wide-band corpora must be performed. In addition, we investigate the effectiveness of a novel channel normalisation technique and compare the performance with standard normalisation and adaptation techniques.
Lastly, we propose a new data selection framework which can be used to design a speech recognition corpus. We show for limited data sets, independent of language and bandwidth, the most effective strategy for data selection is frequency-matched selection and that the widely-used maximum entropy methods generally produced the least promising results. In our model, the frequency-matched selection method corresponds to a logarithmic relationship between accuracy and corpus size; we also investigated other model relationships, and found that a hyperbolic relationship (as suggested from simple asymptotic arguments in learning theory) may lead to somewhat better performance under certain conditions. / Thesis (PhD (Computer and Electronic Engineering))--North-West University, Potchefstroom Campus, 2013.
|
117 |
Automatic speech recognition for resource-scarce environments / N.T. Kleynhans.Kleynhans, Neil Taylor January 2013 (has links)
Automatic speech recognition (ASR) technology has matured over the past few decades and has made significant impacts in a variety of fields, from assistive technologies to commercial products. However, ASR system development is a resource intensive activity and requires language resources in the form of text annotated audio recordings and pronunciation dictionaries. Unfortunately, many languages found in the developing world fall into the resource-scarce category and due to this resource scarcity the deployment of ASR systems in the developing world is severely inhibited. In this thesis we present research into developing techniques and tools to (1) harvest audio data, (2) rapidly adapt ASR systems and (3) select “useful” training samples in order to assist with resource-scarce ASR system development.
We demonstrate an automatic audio harvesting approach which efficiently creates a speech recognition corpus by harvesting an easily available audio resource. We show that by starting with bootstrapped acoustic models, trained with language data obtain from a dialect, and then running through a few iterations of an alignment-filter-retrain phase it is possible to create an accurate speech recognition corpus. As a demonstration we create a South African English speech recognition corpus by using our approach and harvesting an internet website which provides audio and approximate transcriptions. The acoustic models developed from harvested data are evaluated on independent corpora and show that the proposed harvesting approach provides a robust means to create ASR resources.
As there are many acoustic model adaptation techniques which can be implemented by an ASR system developer it becomes a costly endeavour to select the best adaptation technique. We investigate the dependence of the adaptation data amount and various adaptation techniques by systematically varying the adaptation data amount and comparing the performance of various adaptation techniques. We establish a guideline which can be used by an ASR developer to chose the best adaptation technique given a size constraint on the adaptation data, for the scenario where adaptation between narrow- and wide-band corpora must be performed. In addition, we investigate the effectiveness of a novel channel normalisation technique and compare the performance with standard normalisation and adaptation techniques.
Lastly, we propose a new data selection framework which can be used to design a speech recognition corpus. We show for limited data sets, independent of language and bandwidth, the most effective strategy for data selection is frequency-matched selection and that the widely-used maximum entropy methods generally produced the least promising results. In our model, the frequency-matched selection method corresponds to a logarithmic relationship between accuracy and corpus size; we also investigated other model relationships, and found that a hyperbolic relationship (as suggested from simple asymptotic arguments in learning theory) may lead to somewhat better performance under certain conditions. / Thesis (PhD (Computer and Electronic Engineering))--North-West University, Potchefstroom Campus, 2013.
|
118 |
L'ange et le monstre : esthétisation foetale et deuil d'enfant : le cas de l'interruption médicale de grossesse (I.M.G) / The angel and the monster : foetal esthetisation and mourning of child : the case of the medical interruption of pregnancy (M.I.P)Boullier, Jean-François 23 January 2015 (has links)
Cette thèse analyse l’évolution des imaginaires de la grossesse depuis 40 ans ainsi que certaines de ses incidences sociales.La science embryologiste avait installé depuis le 19ième siècle une tradition de représentation réaliste du foetus humain. Au cours de la 2ième moitié du 20ième, les choses semblent changer. En 1970, les photos de Lennart Nilsson notamment ont coloré, autonomisé, esthétisé et humanisé le foetus. En France, le ‟foetus anatomique” s’est vu par ailleurs retiré des muséums, son image s’absente du ‟Larousse médical illustré” et des manuels de sciences naturelles. Quant au foetus présent dans l’art contemporain, il est surdimensionné ou dégoûtant : ce qui ressemble donc le plus à un ‟vrai” foetus se déréalise. L’haptonomie et certaines technologies autour de la grossesse vont accentuer ces modifications de l’image du foetus au profit des imaginaires parentaux.Les effets sociaux de cette idéalisation foetale sont variés. L’humanisation du ‟beau foetus” enlaidissant l’anomalie, la hantise maternelle du ‟monstre foetal” est d’avantage intériorisée et trouble le travail en médecine foetale. Leur refus de l’anomalie devenant plus implicite, médecins et parents adoptent un langage euphémisé. Mais même l’image du foetus avorté s’humanise. Elle devient émouvante. Quand un foetus est condamné, il faudra donc le réparer, concrètement et symboliquement. Les soignants qui invitent les parents à voir le foetus après sa mort vont le présenter comme un bébé dormant, réparé de ses malformations. Certaines mères, surtout quand elles envisagent une nouvelle grossesse, le représentent alors comme un ange, cet ange devenu omniprésent sur les forums Internet.Ce dispositif questionne les sociétés contemporaines : les spécialistes de médecine foetale se retrouvent aujourd’hui confrontés à certains parents refusant la naissance d’un enfant atteint de malformations sans gravité. Au miroir de leur bébé surgit un indicible : l’horreur d’un foetus porteur d’anomalie. L’esthétisation ne rend-elle pas les imaginaires de l’anomalie d’autant plus puissants qu’ils n’ont plus d’espace, autre que le for intérieur, pour se déployer ? / This thesis analyses the evolution of imagination of the pregnancy for forty years as well as some of its social incidences.The science embryologist had installed since the 19 th century a realist tradition of presentation of the human foetus. During half of the 20 th, things seem to change. In 1970, the photographs of Lennart Nilsson in particular coloured, empowered, aestheticized and humanized the foetus. In France, the ‟anatomical foetus” saw itself besides out-of- the way of the museums, its image absent in in the ‟illustrated medical Larousse” and the textbooks of natural sciences. As for the foetus present in the contempory art, it is oversized or disgusting : what looks like mots of ‟real” foetus derealises. The haptonomy and certain technologies around the pregnancy are going to stress these modifications of the image of the foetus for the benefit of parental imagination.The social effects of the foetal idealization are varied. The humanisation of the ‟beautiful foetus” making ugly anomaly, the maternal obsession of the ‟foetal monster” is more interiorized and discorders work in foetal medicine. Their refusal of anomaly becoming more implicit, doctors and parents adopt an euphemized language. But, even the image of the aborted foetus fallen through humanizes. It becomes moving. When a foetus is condemned, it will thus have to be repaired concretely and symbolically. The nursing who invite the relatives to see the foetus after his death will present him as a sleeping baby, repaired by his deformations. Certain mother especially when they envisage a new pregnancy, represent him then as an angel, this angel become omnipresent on the Internet forums.This dispositf questions the contemporary societies : the specialists of foetal medicine are faced with certain parents refusing the birth of a child affected by deformations without gravity. In the miror of their baby appears an unspeakable : the horror of an expanding foetus of anomaly. Does not the esthetisation make the imagination of the anomaly all the more powerful as they do not have more space other than the heart of hearts to spread ?
|
119 |
Communiquer par SMS : Analyse automatique du langage et extraction de l'information véhiculée / SMS communication : Natural language processing and information extractionKogkitsidou, Eleni 27 September 2018 (has links)
Cette thèse concerne l’analyse automatique des SMS et l'extraction des informations qui y sont contenues. Le point de départ de notre recherche est le constat que la plupart des messages courts, observés dans le corpus alpes4science, présentent des différences en comparaison avec le langage standard. Les différences sont mises en évidence, d’une part, par la morphologie particulière des mots et, d’autre part, par les règles de syntaxe et de grammaire qui ne sont pas respectées lorsque l’émetteur considère que cela ne nuit pas à l’intelligibilité du message. À cause des écarts par rapport à la langue standard, le traitement et l'analyse des messages bruités est toujours un défi pour les tâches du TAL. Par conséquent, réduire les écarts est un défi fondamental que nous surmontons en utilisant l’approche de la normalisation pour la conception d’outils en traitement automatique des SMS.Nous proposons un modèle de normalisation en deux étapes, fondé sur une approche symbolique et statistique. La première étape vise à produire une représentation intermédiaire du message SMS par l’application de grammaires locales, tandis que la deuxième utilise un système de traduction automatique à base de règles pour convertir la représentation intermédiaire vers une forme standard. Le résultat produit par ce modèle a été évalué, par la suite, pour la reconnaissance d'entités nommées au travers d'une série de tests appliqués à l'aide de trois autres systèmes. Les résultats obtenus ont montré que les performances de ces systèmes de reconnaissance d'entités nommées présentent des améliorations significatives lorsqu’ils sont appliqués sur les SMS automatiquement normalisés en comparaison avec le corpus brut et manuellement transcrit.Mots-clés : communication médiée par ordinateur, langage SMS, normalisation des SMS, extraction d’informations / This thesis focuses on SMS language and information extraction from the point of view of natural language processing. The starting point of our study is the observation of the differences that most short messages have, using the alpes4science corpora, in comparison with the standard language. The differences are highlighted by the particular morphology of words and by the syntactic and grammar rules that are not respected when the issuer considers that it would not impair the intelligibility of the message.Because of the deviations from the standard language, processing and analyzing noisy messages is still a challenge for any NLP task. Therefore, reducing the gaps is a fundamental step to overcome when designing approaches for automatic SMS processing.We propose a two-step normalization model based on a symbolic and statistical approach. The first step aims to produce an intermediate representation of the SMS by applying local grammars. The second step uses a rule-based machine translation system to convert the intermediate representation to a standard form. The obtained result from this model was evaluated, afterwards, for named entities recognition through a series of tests applied thanks to three other systems. The results have shown that these performances of named entity recognition systems are significantly improved when applied to automatically normalized SMS in comparison with raw and manually normalized corpora.Keywords: computer-mediated communication, SMS language, SMS normalization
|
120 |
La normalisation comptable publique est-elle démocratique ? : Analyse du processus d’élaboration du cadre conceptuel par l’IPSASB / Is the public accounting normalization democratic? : Analysis of the conceptual framework development process by IPSASBAmalou, Walid 06 December 2017 (has links)
En réponse à un besoin d’harmonisation comptable, le normalisateur international de la comptabilité publique (IPSASB) propose un référentiel normatif IPSAS avec l’objectif avoué de servir l’intérêt général. Son processus de normalisation repose sur un mécanisme de consultation (Due Process) ouvert à tous, mais les résultats des études engagées dans le secteur privé pour analyser des processus de consultation, similaires à celui de l’IPSASB, révèlent que ces dispositifs ne sont pas démocratiques. Cette recherche s’inscrit dans la continuité de ces études, n’ayant pas trouvé écho dans le secteur public, pour analyser le Due Process de l’IPSASB au regard des valeurs d’une démocratie participative. Pour ce faire, ce travail mobilise le cadre tridimensionnel du pouvoir de Lukes (1974[2005]), après avoir mis en évidence la pertinence de son utilisation, pour étudier un processus de consultation à l’échelle internationale. En ce sens, la participation des acteurs au projet d’élaboration du cadre conceptuel de l’IPSASB est analysée au moyen de l’analyse de contenu thématique. Ainsi, après l’identification des répondants et de leurs demandes de changement, l’étude compare les différentes versions du document du cadre conceptuel afin d’apprécier la sensibilité de l’IPSASB aux critiques et commentaires qui lui ont été adressés. L’étude montre qu’à l’image de tout dispositif participatif, les changements apportés à l’issue des consultations restent mineurs. Autrement dit, les modifications observées reflètent davantage une recherche de consensus s’inscrivant dans une stratégie d’évitement du conflit de la part du normalisateur, faisant du Due Process un mécanisme conservateur / The International Public Sector Accounting Standards Board (IPSASB) engaged in the elaboration of set of accounting standards in response to the growing need for financial reporting harmonization. Although the standardization process serves the public interest by relying on a Due Process allowing the participation of all stakeholders interested many studies analyzing the same process in the private sector reveal that this standards development procedure is not democratic.This research ensures continuity to studies undertaken in the private accounting context and analyzes the IPSASB Due Process. After highlighting the relevance of the participatory democracy approach the study mobilizes the three-dimensional theory of Lukes' power (1974 [2005]) in order to understand the phases preceding the development of the public accounting conceptual framework. The participatory process analysis involves identifying respondents and their change requests using thematic content analysis method. The study compares then different versions of the conceptual framework document in order to appreciate the sensitivity of the IPSASB to the comments addressed by the participants. This study emphasizes that changes brought by the IPSASB in response to the commentaries received during the Due Process remain minor ones. The Due Process appears then as a conservative mechanism that permits conflict avoidance and a consensus building strategy
|
Page generated in 0.1048 seconds