• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 67
  • 19
  • 10
  • 1
  • Tagged with
  • 95
  • 47
  • 14
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • 7
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

L’étranger avec qui je partage ma vie : l’enrichissement injustifié entre conjoints de fait québécois

Papaioannou, Effie Panagiota 06 1900 (has links)
Face au vide juridique encadrant leurs rapports patrimoniaux, les ex-conjoints de fait ont fait appel au droit commun dans une tentative de remédier aux iniquités économiques découlant de leur rupture. Les tribunaux québécois ont reconnu le besoin de combler ce vide, et c’est ainsi que le recours en enrichissement injustifié est devenu le choix de prédilection des conjoints appauvris. Ce recours a été façonné par la jurisprudence en remède sur mesure pour les conjoints non mariés. Une panoplie de mesures ont été mises en place par les tribunaux pour alléger le fardeau de preuve de l’appauvri et pour adapter la quantification de l’indemnité aux réalités conjugales. Cela demeure, toutefois, insuffisant et peu adapté aux besoins des ex-conjoints. Variabilité et imprévisibilité des décisions se sont avérées être le corolaire de cette confection jurisprudentielle : résultat de la large discrétion dont jouissent les magistrats dans l’appréciation des conditions et facteurs applicables et fruit d’un législateur muet. Le présent mémoire soulève les lacunes de l’enrichissement injustifié comme palliatif du problème de la rupture conjugale et démontre que la prestation compensatoire n’est pas, en fait, une protection analogue à l’enrichissement injustifié, ni une mesure adéquate pour les conjointes de fait. À notre avis, une approche fonctionnaliste et plus complète doit primer pour favoriser l’atteinte de l’objectif de protection recherché. Dans une société où le mariage n’est souvent pas le résultat d’un choix réfléchi et, surtout, d’une volonté de s’assujettir à ses effets juridiques, une élévation des droits des conjoints de fait au même niveau que ceux des époux prend tout son sens. / Faced with the legal vacuum surrounding their patrimonial relationships, de facto spouses sought remedies within the general rules of obligations to solve the inequities resulting from their separation. Quebec courts have recognized the need to fill this void, thereby rendering actions for unjust enrichment the preferred choice of impoverished spouses. This remedy has been fashioned by case law into a tailor-made remedy for unmarried spouses. A panoply of measures has been put in place by the courts to lighten the burden of proof of the impoverished and to adapt the quantification of the indemnity to conjugal realities. However, this remains insufficient and poorly adapted to the needs of ex-spouses. Variability and unpredictability of decisions have proven to be the corollary of this jurisprudential confection: the result of the broad discretion of the courts in assessing the applicable conditions and factors and the product of a silent legislator. This memoire raises the shortcomings of unjust enrichment as a palliative to the problem of the separation of de facto spouses and demonstrates that the compensatory allowance is not, in fact, analogous to unjust enrichment, nor is it appropriate for de facto spouses. In our opinion, a functionalist and more comprehensive approach must be privileged to help achieve the desired objective of protection. In a society where marriage is often not the result of a considered choice, or of a desire to submit to its legal effects. Granting de facto spouses to the same level of protection as legal spouses would be preferred.
72

Phosphoproteome profiling approaches for comprehensive monitoring of cell signaling events in interferon-[gamma] stimulated macrophages

Marcantonio, Maria January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
73

Detecting uterine cervical cancer cells using molecular biomarkers

Mousa, Ahmed 11 1900 (has links)
Arrière-plan: les cellules tumorales circulantes (CTC) sont détectables dans de nombreux cancers et peuvent être utiles cliniquement pour le pronostic de la maladie, pour mesurer la récidive et pour prédire la sensibilité aux medicaments chimiothérapeutiques. Au cours des dernières années, l’études des CTC dans de nombreux cancers tels que le cancer du sein, du poumon, du côlon et de la prostate a grandement évolué. Alternativement, il y peu d'études à ce sujet concernant le cancer du col de l’utérus (CCU). Objectifs: Notre objectif est d’optimiser le processus d'enrichissement des CTC dans le CCU et la détection moléculaire des biomarqueurs E6 et E7. Matériel et Méthodes: Dans l’optique de mimer la présence de CTC dans le sang, nous avons dilué des cellules cancéreuses CaSki VPH16-positif provenant d’un CCU dans du sang humain prélevé sur des volontaires sains. Les CaSki ont été collectées suite à une centrifugation par densité avec le Ficoll, la lyse des globules rouges (RBC) et la lyse des RBC combinée avec un enrichissement positif et négatif à l’aide de marqueurs de surface cellulaire. Les CTC ont été détectées par la mesure d’expression des oncogènes E6 et E7 du virus du papillome humain (VPH), de la cytokératine 19 (CK19) et de la cycline p16INK4 en utilisant la technique quantitative en temps réel de Reverse Transcriptase-Polymerase Chain Reaction (qRT-PCR). Pour valider notre méthode de détection des CTC in vivo, nous avons recruté dix patientes atteintes d’un CCU VPH16 positif et six contrôles sains. Résultats: Dans le modèle de dilutions de cellules CaSki, la lyse des RBC seule ou combinée avec l'enrichissement négatif ou positif suggèrent des limites de détection de 1 CTC par mL de sang pour tous les biomarqueurs moléculaires utilisés. La sensibilité de détection est accrue lors de l'utilisation de l’enrichissement positif et négatif en réduisant le bruit de fond causé par les monocytes sanguins. Contrairement aux oncogènes E6 et E7, les marqueurs CK19 et p16INK4A ont été détectés chez des individus sains, les niveaux d'expression de base appropriés doivent donc être déterminés avec précision par rapport aux patientes CCU. Le gradient de densité par Ficoll a une limite de détection de seulement environ 1000 cellules par mL de sang. Enfin, les CTC ont été détectées dans 2/10 patientes en utilisant le marqueur CK19. Cependant, ces patientes étaient négatives pour les oncogènes E6/E7. Le marqueur p16INK4A était exprimé au même niveau dans tous les échantillons (CCU et normaux). Conclusion: Notre étude suggère que les oncogènes E6 et E7 du VPH16 sont les marqueurs biologiques les plus sensibles et spécifiques en qRT-PCR pour détecter les CTC dans le modèle de dilution de cellules de CCU dans le sang. Chez les patientes atteintes d’un CCU de stade précoce, seulement CK19 a révélé la présence potentielle de CTC, ce qui suggère que ces cellules sont rares à ce stade de la maladie. Mots clés: cancer du col de l’utérus, cellules tumorales circulantes, RT-qPCR, E6 et E7, CK19, p16INK4A, enrichissement immunomagnétique, détection moléculaire. / Background: Circulating tumor cells (CTCs) have been detected in many cancers and are used in multiple clinical applications including disease prognosis, tumor recurrence prediction and prediction of tumor sensitivity to chemotherapeutic drugs. Studies in most major solid cancer(s) (breast, lung, colon and prostate) are progressing rapidly, but there has been very little progress concerning uterine cervical cancer (UCC).Objective: our aim is to optimize enrichment processes and the molecular biomarker-based detection of human circulating tumor cells (CTCs) in uterine cervical cancer (UCC). Material & Methods: To mimic CTCs in patients, we designed an experimental spiking model where the CaSki HPV16-positive UCC cell line was serially diluted and spiked into human blood collected from healthy volunteers. CaSki CTCs were enriched using either Ficoll density centrifugation, red blood cell (RBC) lysis or RBC lysis combined with cell surface markers negative or positive enrichment. CTCs were detected using real-time quantitative reverse-transcription polymerase chain reaction (qRT-PCR) to measure the gene expression of human papillomavirus (HPV) viral oncogenes (E6 and E7), cytokeratin 19 (CK19), or the cyclin dependent kinase inhibitor p16INK4A. Finally, ten HPV16- positive UCC patients and six healthy controls were recruited to validate CTCs detection in vivo. Result: In the spiking model, RBC lysis alone or combined with negative or positive enrichment suggests detection limits close to 1 CTC per mL of blood for all molecular biomarkers used. The sensitivity of detection increased when using positive and negative enrichment probably by reducing the peripheral blood mononuclear cell-derived RNA background. Unlike HPV oncogenes, CK19 and p16INK4A were detected in normal individuals, thus appropriate basal expression levels need to be accurately determined compared to cancer patients. Alternatively, Ficoll density gradient had a detection limit of only about 1000 cells per mL of blood. Finally CTCs were detected in 2/10 patients using CK19. None of the patients had E6/E7 transcripts and p16INK4A was expressed at similar level across all samples (cancer and healthy). Conclusion: qRT-PCR of HPV16 E6 and E7 is the most sensitive and specific biomarker used to detect CTCs in the spiking model. In early disease UCC patients, only CK19 revealed the presence of CTCs suggesting that these cells are rare at that stage of the disease. Keywords: uterine cervical cancer, circulating tumor cells, qRT-PCR, E6 and E7 oncoprotein, CK19, p16INK4A, immune-magnetic enrichment, molecular detection.
74

La subsidiarité en droit privé / Subsidiarity in private law

Gouëzel, Antoine 28 November 2011 (has links)
Subsidiarité de l’action en enrichissement sans cause, vocation subsidiaire du droit commun, demande subsidiaire, subsidiarité de l’obligation des associés de société à risque illimité, etc. : la subsidiarité est récurrente en droit privé. Pourtant, le mécanisme qu’elle met en oeuvre n’est pas clairement perçu. La subsidiarité met de l’ordre dans le droit : elle est une technique de coordination d’éléments concurrents, qui subordonne à la défaillance de l’élément appelé premier l’accès à l’élément qualifié de subsidiaire. Tant que l’élément premier n’est pas défaillant, c’est-à-dire tant qu’il peut produire son effet juridique, l’élément subsidiaire est bloqué. La subsidiarité a pour finalité d’instaurer une hiérarchie entre les éléments concernés : elle affirme la primauté de l’élément premier, vu avec faveur, sur l’élément subsidiaire, qui est une solution de secours. Ce mécanisme trouve une application majeure en matière d’obligation. Une obligation est subsidiaire lorsqu’elle est subordonnée à la défaillance d’une autre obligation ; elle est ainsi affectée d’une condition suspensive. Le débiteur premier est celui dont le paiement normal est attendu, le débiteur subsidiaire celui dont l’intervention est vue comme pathologique. Le débiteur subsidiaire peut opposer toutes les exceptions qui attestent de ce que l’obligation première n’est pas défaillante. Pour agir contre le débiteur subsidiaire, le créancier doit établir cette défaillance, qui est définie de manière variable selon les hypothèses. L’obligation subsidiaire tient une place importante dans les opérations juridiques à trois personnes ; elle permet également de porter un regard nouveau sur la solidarité. / Subsidiarity of unjustified enrichment claims, subsidiarity of the lex fori, subsidiary pleadings, subsidiary obligation of the members of companies with unlimited liability, etc. : subsidiarity is recurrent in private law. However, its mechanism is not clearly understood. Subsidiarity creates order in law. It is a coordination technique of rival elements, which makes access to the subsidiary element subject to the default of the first element. As long as the first element can produce its effect, the subsidiary element is blocked. The purpose of subsidiarity is to create a hierarchy between those elements: it states the primacy of the first element, seen with favor, on the subsidiary element, which is considered a backup. This mechanism is useful in contract law. An obligation is subsidiary when it is subject to the default of another obligation; it matches the pattern of a conditional obligation. Normal payment is expected from the debtor of the primary obligation; the intervention of the subsidiary debtor is seen as pathological. In order to sue the subsidiary debtor, the creditor must prove that the primary obligation is in default. The former can invoke all the exceptions which prove that this event, which can be defined in a variety of ways, has not occurred. The concept of subsidiary obligations is important in legal operations involving three persons, and encourages to reconsider our understanding of solidary obligations.
75

Développement de transistor AlGaN/GaN E-mode sur substrat silicium 200 mm compatible avec une salle blanche CMOS / Development of AlGaN/GaN E-mode transistors on 200 mm silicon substrate compatible with CMOS clean room

Barranger, Damien 20 December 2017 (has links)
La thèse porte sur le développement de composants à base d’hétérojonction AlGaN/GaN. Cette hétérojonction permet de bénéficier d’une excellente mobilité (2000 cm²/V.s) grâce à l’apparition d’un gaz d’électron dans le GaN. Cependant, les composants fabriqués sur cette hétérojonction sont normally-on. Pour des raisons de sécurité et d’habitude de conception des composants normally-off sont nécessaires. Il existe de nombreuses façons de fabriquer des transistors normally-off à base d’hétérojonction AlGaN/GaN, dans cette thèse nous avons choisi d’étudier un MOSCHEMT, cette structure est caractérisée par une grille de type MOS et des accès de type HEMT possédant les excellentes propriétés de l’hétérojonction, en fonction des paramètres technologiques : épitaxie, process et structure des composants. L’une des variations technologiques étudiées est une structure cascodée permettant d’améliorer les performances à l’état passant sans détériorer la caractéristique en blocage des composants. L’objectif est de concevoir un composant normally-off sur substrat silicium 200 mm avec une tension de seuil supérieure à 1V, pouvant tenir 600 V en blocage, avec un calibre en courant entre 10 A et 30 A et compatible en salle blanche CMOS. Le manuscrit comporte quatre chapitres. Grâce à une étude bibliographique, le premier chapitre présente les différentes méthodes permettant d’obtenir un transistor normally-off à base de nitrure de gallium. Ce chapitre présente et justifie le choix technologique du CEA-LETI. Le deuxième chapitre présente les modèles ainsi que les méthodes de caractérisations utilisés au cours de la thèse. Le troisième chapitre traite des résultats obtenus en faisant varier les paramètres de fabrication sur les MOSC-HEMT. Enfin, le quatrième chapitre montre une étude sur une technologie innovante de type cascode. Cette structure doit permettre d’augmenter la tension de claquage des transistors sans détériorer l’état passant. / This thesis focuses on the development of AlGaN/GaN heterojunction components or HEMT. This heterojunction has an excellent mobility (2000 cm² / V.s) thanks to the appearance of an electron gas in the GaN. However, the components made with this heterojunction are normally-on. For safety reasons particularly, normally-off components are required. There are many ways to make normally-off transistors based on AlGaN/GaN heterojunction. In this thesis we chose to study a MOSCHEMT strucutre. This structure is characterized by a MOS type gate and HEMT type accesses. The study shows the effects of technological parameters (epitaxy, process and component structure) on the electrical behaviour of the components. Another structure studied is the monolithic cascode, which can improve on-state performance of the MOSC-HEMT without damaging the characteristic in reverse of the components. The objective of this thesis is to design a normally-off component on silicon substrate 200 mm with a threshold voltage higher than 1V, able to hold 600 V in reverse, with a current rating between 10 A and 30 A and compatible in CMOS clean room. The manuscript has four chapters. Through a bibliographic review, the first chapter presents the different methods to obtain a normally-off transistor based on gallium nitride. This chapter presents and justifies the technological choice of CEA-LETI. The second chapter presents the models as well as the methods of characterizations used during the thesis. The third chapter deals with the results obtained by varying the manufacturing parameters on the MOSC-HEMTs. Finally, the fourth chapter shows a study on innovative cascode technology. This structure must make it possible to increase the breakdown voltage of the transistors without damaging the on state.
76

Méthode d’extraction d’informations géographiques à des fins d’enrichissement d’une ontologie de domaine / Geographical information extraction method in order to enrich a domain ontology

Nguyen, Van Tien 15 November 2012 (has links)
Notre thèse se situe dans le contexte du projet ANR GEONTO qui porte sur la constitution, l’alignement, la comparaison et l’exploitation d’ontologies géographiques hétérogènes. Dans ce contexte, notre objectif est d'extraire automatiquement des termes topographiques à partir des récits de voyage afin d'enrichir une ontologie géographique initialement conçue par l'IGN. La méthode proposée permet de repérer et d'extraire des termes à connotation topographiques contenus dans un texte. Notre méthode est basée sur le repérage automatique de certaines relations linguistiques afin d'annoter ces termes. Sa mise en œuvre s'appuie sur le principe des relations n-aires et passe par l'utilisation de méthodes ou de techniques de TAL (Traitement Automatique de la Langue). Il s'agit de relations n-aires entre les termes à extraire et d'autres éléments du textes qui peuvent être repérés à l'aide de ressources externes prédéfinies, telles que des lexiques spécifiques: les verbes de récit de voyage (verbes de déplacement, verbes de perceptions, et verbes topographiques), les pré-positions (prépositions de lieu, adverbes, adjectifs), les noms toponymiques, des thésaurus génériques, des ontologies de domaine (ici l'ontologie géographique initialement conçue par l'IGN). Une fois marquées par des patrons linguistiques, les relations proposées nous permettent d'annoter et d'extraire automatiquement des termes dont les différents indices permettent de déduire qu'ils évoquent des concepts topographiques. Les règles de raisonnement qui permettent ces déductions s'appuient sur des connaissances intrinsèques (évocation du spatial dans la langue) et des connaissances externes contenues dans les ressources ci-dessus évoquées, ou leur combinaison. Le point fort de notre approche est que la méthode proposée permet d'extraire non seulement des termes rattachés directement aux noms toponymiques mais également dans des structures de phrase où d'autres termes s'intercalent. L'expérimentation sur un corpus comportant 12 récits de voyage (2419 pages, fournit par la médiathèque de Pau) a montré que notre méthode est robuste. En résultat, elle a permis d'extraire 2173 termes distincts dont 1191 termes valides, soit une précision de 0,55. Cela démontre que l'utilisation des relations proposées est plus efficace que celle des couples (termes, nom toponymique)(qui donne 733 termes distincts valides avec une précision de 0,38). Notre méthode peut également être utilisée pour d'autres applications telles que la reconnaissance des entités nommées géographiques, l'indexation spatiale des documents textuels. / This thesis is in the context of the ANR project GEONTO covering the constitution, alignment, comparison and exploitation of heterogeneous geographic ontologies. The goal is to automatically extract terms from topographic travelogues to enrich a geographical ontology originally designed by IGN. The proposed method allows identification and extraction of terms contained in a text with a topographical connotation. Our method is based on a model that relies on certain grammatical relations to locate these terms. The implementation of this model requires the use of methods or techniques of NLP (Processing of Language). Our model represents the relationships between terms to extract and other elements of the texts that can be identified by using external predefined resources, such as specific lexicons: verbs of travelogue (verbs of displacement, verbs of perceptions, topographical verbs), pre-positions (prepositions of place, adverbs, adjectives), place name, generic thesauri, ontologies of domain (in our case the geographical ontology originally designed by IGN). Once marked by linguistic patterns, the proposed relationships allow us to annotate and automatically retrieve terms. Then various indices help deduce whether the extracted terms evoke topographical concepts. It is through reasoning rules that deductions are made. These rules are based on intrinsic knowledge (evocation of space in the language) and external knowledge contained in external resources mentioned above, or their combination. The advantage of our approach is that the method can extract not only the terms related directly to place name but also those embedded in sentence structure in which other terms coexisted. Experiments on a corpus consisting of 12 travel stories (2419 pages, provided by the library of Pau) showed that our method is robust. As a result, it was used to extract 2173 distinct terms with 1191 valid terms, with a precision of 0.55. This demonstrates that the use of the proposed relationships is more effective than that of couples (term, place name) (which gives 733 distinct terms valid with an accuracy of 0.38). Our method can also be used for other applications such as geographic named entity recognition, spatial indexing of textual documents.
77

Phosphoproteome profiling approaches for comprehensive monitoring of cell signaling events in interferon-[gamma] stimulated macrophages

Marcantonio, Maria January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
78

Le rôle du Pacifique Tropical Sud-Ouest dans la fertilisation du Pacifique Équatorial : couplage dynamique et multi-traceur.

Grenier, Melanie 20 December 2012 (has links) (PDF)
Dans le cadre de ma thèse je me suis intéressée au Sous-Courant Équatorial (EUC) Pacifique, dont les eaux alimentent le Pacifique Équatorial Central et Est, région clé tant pour son rôle climatique que pour la productivité marine. D'une part, j'ai utilisé un modèle océanique pour décrire les sources de l'EUC, leurs transports, leurs caractéristiques moyennes hydrologiques et leurs trajectoires précises jusqu'à l'EUC. D'autre part, j'ai caractérisé l'enrichissement géochimique des eaux alimentant le Pacifique Équatorial, principales nourricières de la zone High Nutrients - Low Chlorophyll (HNLC), à l'aide d'un traceur géochimique, le néodyme (Nd). Finalement, j'ai couplé les deux approches pour quantifier l'évolution géochimique des eaux de la thermocline du Pacifique Sud-Ouest. La première partie a été motivée par la question soulevée depuis un peu plus de 10 ans concernant l'impact des variations des transports et des propriétés hydrologiques de la langue d'eau froide sur la modulation basse fréquence d'El Niño Southern Oscillation (ENSO). Les eaux constituant l'EUC présentent une large gamme de températures et de salinités qui expliquent l'hétérogénéité des propriétés de la langue d'eau froide et participent à la variabilité décennale d'ENSO. Dans ce contexte, j'ai étudié la structure verticale des masses d'eau de l'EUC au cours de leur advection vers l'est en fonction des différentes sources qui l'alimentent. Pour cela, j'ai utilisé un modèle océanique et un outil de suivi lagrangien qui m'ont permis de déterminer les sources majeures de l'EUC et leurs trajectoires et de quantifier l'évolution de leur transport entre la partie ouest (156°E) et la partie centrale de l'EUC (140°W). Nous nous sommes aussi intéressées à l'évolution des propriétés hydrologiques de ces sources entre 10°N/10°S et l'équateur. Nous avons ainsi pu mettre en évidence l'importance de la contribution des eaux transportées par les courants de bord ouest (WBCs), contribution dominée par les apports issus de la Mer des Salomon. Toutes les sources subissent des modifications hydrologiques lors de leur trajet vers l'EUC, et il semble notamment nécessaire d'invoquer une part de mélange diapycnal pour expliquer l'allègement en densité des eaux issues des WBCs. La seconde partie traite de la question majeure de l'enrichissement en éléments nutritifs de la zone HNLC, région cruciale en raison de la production biologique qui s'y développe et qui participe à la régulation du carbone atmosphérique. Au cours de la dernière décennie a été proposée l'hypothèse que les apports proviennent essentiellement des marges continentales de Papouasie Nouvelle-Guinée. Sur une base de circulation bien documentée, grâce à la première partie de mon travail, nous avons vérifié cette hypothèse à l'aide de mesures de traceurs géochimiques in situ, les Élements Terres Rares, et en particulier la composition isotopique du Nd, qui marquent les origines de la matière continentale présente dans l'eau de mer et aident à quantifier les processus par lesquels elle y parvient. Nous avons ainsi pu souligner un enrichissement progressif des eaux le long des îles du Pacifique tropical sud et un contenu géochimique souvent maximum le long des côtes de PNG. Un apport provenant des côtes d'Amérique Latine est envisagé pour les eaux s'écoulant sous l'EUC. Les résultats obtenus de la mesure des deux traceurs convergent vers l'hypothèse que le principal processus d'apport géochimique est la dissolution de matériel sédimentaire lors du contact des masses d'eau le long des côtes. Leurs évolutions suggèrent cependant une perte de matériel dissous vers la marge sédimentaire par adsorption sur les particules, très abondantes à l'embouchure des fleuves. La troisième partie couple le traceur virtuel - les trajectoires modélisées - et le traceur réel - les éléments géochimiques - pour se focaliser sur la quantification des flux géochimiques des eaux alimentant l'EUC, et ainsi la zone HNLC. Par ce couplage, nous avons pu déterminer les zones d'enrichissement des couches supérieures et inférieures de la thermocline transitant par les WBCs sud, entre leurs régions de subduction et l'amont de l'EUC. Si les eaux de la thermocline supérieure semblent s'enrichir principalement le long des côtes des îles du Pacifique Tropical Sud, celles de la thermocline inférieure bénéficieraient en plus d'un fort apport le long des côtes de PNG, très favorable pour une éventuelle réalimentation de la zone HNLC.
79

Méthodes avancées de traitement de la parole et de réduction de bruit pour les terminaux mobiles / Advanced methods of speech processing and noise reduction for mobile devices

Mai, Van Khanh 09 March 2017 (has links)
Cette thèse traite d'un des problèmes les plus stimulants dans le traitement de la parole concernant la prothèse auditive, où seulement un capteur est disponible avec de faibles coûts de calcul, de faible utilisation d'énergie et l'absence de bases de données. Basée sur les récents résultats dans les deux estimations statistiques paramétriques et non-paramétriques, ainsi que la représentation parcimonieuse. Cette étude propose quelques techniques non seulement pour améliorer la qualité et l'intelligibilité de la parole, mais aussi pour s'attaquer au débruitage du signal audio en général.La thèse est divisée en deux parties ; Dans la première partie, on aborde le problème d'estimation de la densité spectrale de puissance du bruit, particulièrement pour le bruit non-stationnaire. Ce problème est une des parties principales du traitement de la parole du mono-capteur. La méthode proposée prend en compte le modèle parcimonieux de la parole dans le domaine transféré. Lorsque la densité spectrale de puissance du bruit est estimée, une approche sémantique est exploitée pour tenir compte de la présence ou de l'absence de la parole dans la deuxième partie. En combinant l'estimation Bayésienne et la détection Neyman-Pearson, quelques estimateurs paramétriques sont développés et testés dans le domaine Fourier. Pour approfondir la performance et la robustesse de débruitage du signal audio, une approche semi-paramétrique est considérée. La conjointe détection et estimation peut être interprétée par Smoothed Sigmoid-Based Shrinkage (SSBS). Ainsi, la méthode Bloc-SSBS est proposée afin de prendre en compte les atomes voisinages dans le domaine temporel-fréquentiel. De plus, pour améliorer fructueusement la qualité de la parole et du signal audio, un estimateur Bayésien est aussi dérivé et combiné avec la méthode Bloc-SSBS. L'efficacité et la pertinence de la stratégie dans le domaine transformée cosinus pour les débruitages de la parole et de l'audio sont confirmées par les résultats expérimentaux. / This PhD thesis deals with one of the most challenging problem in speech enhancement for assisted listening where only one micro is available with the low computational cost, the low power usage and the lack out of the database. Based on the novel and recent results both in non-parametric and parametric statistical estimation and sparse representation, this thesis work proposes several techniques for not only improving speech quality and intelligibility and but also tackling the denoising problem of the other audio signal. In the first major part, our work addresses the problem of the noise power spectrum estimation, especially for non-stationary noise, that is the key part in the single channel speech enhancement. The proposed approach takes into account the weak-sparseness model of speech in the transformed model. Once the noise power spectrum has been estimated, a semantic road is exploited to take into consideration the presence or absence of speech in the second major part. By applying the joint of the Bayesian estimator and the Neyman-Pearson detection, some parametric estimators were developed and tested in the discrete Fourier transform domain. For further improve performance and robustness in audio denoising, a semi-parametric approach is considered. The joint detection and estimation can be interpreted by Smoothed Sigmoid-Based Shrinkage (SSBS). Thus, Block-SSBS is proposed to take into additionally account the neighborhood bins in the time-frequency domain. Moreover, in order to enhance fruitfully speech and audio, a Bayesian estimator is also derived and combined with Block-SSBS. The effectiveness and relevance of this strategy in the discrete Cosine transform for both speech and audio denoising are confirmed by experimental results.
80

Entrepôt de textes : de l'intégration à la modélisation multidimensionnelle de données textuelles / Text Warehouses : from the integration to the multidimensional modeling of textual data

Aknouche, Rachid 26 April 2014 (has links)
Le travail présenté dans ce mémoire vise à proposer des solutions aux problèmes d'entreposage des données textuelles. L'intérêt porté à ce type de données est motivé par le fait qu'elles ne peuvent être intégrées et entreposées par l'application de simples techniques employées dans les systèmes décisionnels actuels. Pour aborder cette problématique, nous avons proposé une démarche pour la construction d'entrepôts de textes. Elle couvre les principales phases d'un processus classique d'entreposage des données et utilise de nouvelles méthodes adaptées aux données textuelles. Dans ces travaux de thèse, nous nous sommes focalisés sur les deux premières phases qui sont l'intégration des données textuelles et leur modélisation multidimensionnelle. Pour mettre en place une solution d'intégration de ce type de données, nous avons eu recours aux techniques de recherche d'information (RI) et du traitement automatique du langage naturel (TALN). Pour cela, nous avons conçu un processus d'ETL (Extract-Transform-Load) adapté aux données textuelles. Il s'agit d'un framework d'intégration, nommé ETL-Text, qui permet de déployer différentes tâches d'extraction, de filtrage et de transformation des données textuelles originelles sous une forme leur permettant d'être entreposées. Certaines de ces tâches sont réalisées dans une approche, baptisée RICSH (Recherche d'information contextuelle par segmentation thématique de documents), de prétraitement et de recherche de données textuelles. D'autre part, l'organisation des données textuelles à des fins d'analyse est effectuée selon TWM (Text Warehouse Modelling), un nouveau modèle multidimensionnel adapté à ce type de données. Celui-ci étend le modèle en constellation classique pour prendre en charge la représentation des textes dans un environnement multidimensionnel. Dans TWM, il est défini une dimension sémantique conçue pour structurer les thèmes des documents et pour hiérarchiser les concepts sémantiques. Pour cela, TWM est adossé à une source sémantique externe, Wikipédia, en l'occurrence, pour traiter la partie sémantique du modèle. De plus, nous avons développé WikiCat, un outil pour alimenter la dimension sémantique de TWM avec des descripteurs sémantiques issus de Wikipédia. Ces deux dernières contributions complètent le framework ETL-Text pour constituer le dispositif d'entreposage des données textuelles. Pour valider nos différentes contributions, nous avons réalisé, en plus des travaux d'implémentation, une étude expérimentale pour chacune de nos propositions. Face au phénomène des données massives, nous avons développé dans le cadre d'une étude de cas des algorithmes de parallélisation des traitements en utilisant le paradigme MapReduce que nous avons testés dans l'environnement Hadoop. / The work, presented in this thesis, aims to propose solutions to the problems of textual data warehousing. The interest in the textual data is motivated by the fact that they cannot be integrated and warehoused by using the traditional applications and the current techniques of decision-making systems. In order to overcome this problem, we proposed a text warehouses approach which covers the main phases of a data warehousing process adapted to textual data. We focused specifically on the integration of textual data and their multidimensional modeling. For the textual data integration, we used information retrieval (IR) techniques and automatic natural language processing (NLP). Thus, we proposed an integration framework, called ETL-Text which is an ETL (Extract- Transform- Load) process suitable for textual data. The ETL-Text performs the extracting, filtering and transforming tasks of the original textual data in a form allowing them to be warehoused. Some of these tasks are performed in our RICSH approach (Contextual information retrieval by topics segmentation of documents) for pretreatment and textual data search. On the other hand, the organization of textual data for the analysis is carried out by our proposed TWM (Text Warehouse Modelling). It is a new multidimensional model suitable for textual data. It extends the classical constellation model to support the representation of textual data in a multidimensional environment. TWM includes a semantic dimension defined for structuring documents and topics by organizing the semantic concepts into a hierarchy. Also, we depend on a Wikipedia, as an external semantic source, to achieve the semantic part of the model. Furthermore, we developed WikiCat, which is a tool permit to feed the TWM semantic dimension with semantics descriptors from Wikipedia. These last two contributions complement the ETL-Text framework to establish the text warehouse device. To validate the different contributions, we performed, besides the implementation works, an experimental study for each model. For the emergence of large data, we developed, as part of a case study, a parallel processing algorithms using the MapReduce paradigm tested in the Apache Hadoop environment.

Page generated in 0.0664 seconds