• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1048
  • 285
  • 85
  • 3
  • 1
  • 1
  • Tagged with
  • 1420
  • 294
  • 279
  • 162
  • 156
  • 134
  • 123
  • 121
  • 92
  • 88
  • 85
  • 78
  • 74
  • 74
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Étude de la composition des particules des lipoprotéines de faible densité et des déterminants de leur taille

Dumont, Geneviève 13 April 2018 (has links)
Les particules LDL et HDL petites et denses sont liees a un risque cardiovasculaire augmente. Malgre les fortes correlations negatives entre les taux de TG et la taille des particules LDL et HDL, les valeurs predictives de differents ratios et parametres de lipides et d'apolipoproteines sont partiellement caracterisees. Les objectifs du memoire sont d'identifier les determinants de la taille des particules LDL et HDL et d'evaluer les potentiels predictifs de differents ratios et parametres. Les tailles des particules LDL de 1956 sujets ont ete mesurees par electrophorese sur gradient de gel de polyacrylamide (PAGGE). Les particules LDL des hommes sont plus petites que celle des femmes. Le CLDL/ apoBLDL a la plus importante contribution a la variance de la taille des LDL. Tous les autres ratios etudies sont de mauvais predicteurs. Les meilleurs moyens de mesurer les tailles des particules LDL afin de predire le risque cardiovasculaire demeurent les mesures sur PAGGE
62

Imagerie multiphotonique de la sérotonine par contraste endogène : vers un outil pour évaluer la concentration de la sérotonine in vivo

Samson, Karen 18 April 2018 (has links)
La sérotonine (5-HT) est un neurotransmetteur régulant plusieurs fonctions fondamentales du corps : la thermorégulation, le comportement sexuel et alimentaire, le cycle éveil-sommeil, la perception de la douleur, l'anxiété, le contrôle moteur, mais elle est surtout connue pour le contrôle de l'humeur. Le manque de sérotonine dans le système nerveux central est associé aux maladies mentales. Ces maladies sont la dépression, le trouble bipolaire, l’anxiété, le trouble de panique, les phobies, les troubles obsessionnel-compulsifs et la schizophrénie. Un outil pour la détection de la sérotonine et de ses précurseurs nous permettrait d'étudier les mécanismes des diverses maladies impliquant un débalancement de la sérotonine. Dans le système nerveux central, la biosynthèse de la sérotonine se fait dans certains neurones du tronc cérébral. La sérotonine, tout comme son précurseur le tryptophane (Trp), est fortement fluorescente en comparaison à d'autres molécules endogènes. L’imagerie multiphotonique a été exploitée dans le cadre de ce projet pour détecter la sérotonine. Cette technique d’imagerie permet d’obtenir une bonne spécificité et d’offrir un sectionnement optique pour l’imagerie dans les cellules et les tissus. Différents processus d’excitation (à 2- et 3- photons) dans différentes conditions (cellules fixées ou non) ont été explorés afin d’optimiser la détection de l’autofluorescence de la sérotonine. Nous avons donc d’abord développé un système d’imagerie capable de détecter la fluorescence des molécules de la biosynthèse de la sérotonine, excluant le tryptophane. Nous sommes capables de détecter ces espèces isolées à des concentrations avoisinant le milli molaire en solutions. La méthode a été testée dans deux modèles contenant de la sérotonine (cellules et tranches). Les mesures ont démontré un manque de spécificité et sensibilité lorsqu’utilisées dans des systèmes plus complexes que les simples solutions. Ce manque de spécificité et de sensibilité est discuté avec des pistes d’amélioration pour les projets futurs, incluant l’utilisation d’autres modèles mieux contrôlés et d’autres techniques optiques plus avancées. / Serotonin (5-HT) is a neurotransmitter regulating several basic functions of the body: thermoregulation, sexual and food behavior, the sleep-wake cycle, perception of pain, anxiety, motor control, but is best known for control of mood. The lack of serotonin in the central nervous system is associated with mental illness. These diseases are depression, bipolar disorder, anxiety, panic disorder, phobias, obsessive-compulsive disorder and schizophrenia. A detection tool of serotonin and its precursors would allow us to study the mechanism of various diseases involving an imbalance of this neurotransmitter. In the central nervous system, the biosynthesis of serotonin occurs in specific neurons of the brainstem. Serotonin, like its precursor tryptophan (Trp), is highly fluorescent in comparison to other endogenous molecules. Multiphoton fluorescence excitation has been used in this project to detect serotonin without exogenous labels. This fluorescence imaging technique provides a good specificity as well as optical sectioning for imaging in cells and tissues. Different excitation processes (two- and three-photon) under different conditions (fixed cells or not) were explored to optimize the detection of autofluorescence of serotonin. We therefore first developed an imaging system capable of detecting the fluorescence of molecules involved in the biosynthesis of serotonin, excluding tryptophan. We are able to detect these isolated species in solution at concentrations near a millimolar. The method was tested in two models containing serotonin (cells and slices). The measurements have shown a lack of specificity and sensitivity when used in systems more complex than simple solutions. This lack of specificity and sensitivity is discussed with possible improvements for future project including the use of other models with better control of serotonin concentrations, of other more advanced optical techniques such as fluorescence lifetime imaging.
63

Mesure de la productivité dans une usine de rabotage de bois d'œuvre

Lamrani, Mohamed Lamine 20 April 2018 (has links)
Le marché industriel requiert une production de qualité à des prix compétitifs, comme c’est le cas dans l’industrie du rabotage de bois. L’impact des temps d’arrêt sur la productivité est un phénomène complexe et la maîtrise de ce phénomène constitue toujours une avancée pour les industriels. L’objectif de ce mémoire est d’analyser et d'identifier les causes spécifiques de la dégradation de la performance du procédé de rabotage. Le processus de résolution de problèmes proposé dans notre étude est inspiré de la démarche DMAIC (Définir, Mesurer, Analyser, Innover, Contrôler) de Six Sigma. L'application de la démarche DMAIC dans notre étude a révélé que 80% de la non-performance est occasionnée par des arrêts non planifiés des machines. Afin de remédier à cette problématique, il faut contrôler la qualité des intrants et éliminer les dysfonctionnements de la ligne de production. Cela doit passer par la mise en place d'une stratégie de maintenance préventive basée sur la fiabilité. / The industrial market requires a good quality production with competitive prices; this is the case in the wood planing industry. The downtime impact on productivity is a complex phenomenon, and understanding this phenomenon represents a real challenge for industrials. The main goal of this thesis is to analyse and identify the specific causes of the planing process performance degradation. The process put forward in our study is inspired by the DMAIC approach (Define, Measure, Analyze, Improve, Control) of Six Sigma. The use of the DMAIC approach in our study showed that 80% of non-performance is due to the unscheduled downtime of machines. To solve this issue, it is essential to eliminating the not quality of the inputs and dysfunctions of the production line and this should be done by implementing a preventive maintenance strategy; Reliability Centered Maintenance (RCM).
64

Élaboration d'un outil de mesure du niveau de littératie en Agroéconomie au Québec (Canada) Étude de cas : la Gestion de l'offre

Aballo, Monita 02 February 2024 (has links)
Plusieurs débats se font ces dernières années sur les impacts des différentes politiques agroalimentaires. L'impact de la gestion de l'offre sur les finances des consommateurs en est un exemple. La question de savoir si le consommateur a des connaissances sur la gestion de l'offre se pose alors ; et, ce niveau de connaissance affecte-t-il sa perception et/ou son évaluation de la gestion de l'offre ? Il s'agit de se faire une idée sur le niveau de littératie sur la gestion de l'offre des consommateurs. À cet effet, cette étude se focalise sur la mise en œuvre d'un outil qui permet, dans un premier temps, de jauger le niveau de littératie des répondants afin de s'assurer qu'ils en connaissent les principes et qu'ils comprennent ses implications. Une méthodologie pour l'élaboration de l'outil de mesure du niveau de littératie en gestion de l'offre a donc été établie et l'outil de mesure conçu. Pour sa validation, l'outil a été testé sur un échantillon d'une centaine d'étudiants de l'université Laval en automne 2020 à travers une enquête en ligne. Cette phase de validation a permis d'évaluer la capacité de discrimination des questions, nécessaire à la validation de l'outil. L'outil de mesure du niveau de littératie en la gestion de l'offre obtenu, testé et validé, pourra ainsi être employé pour des études futures visant à jauger le besoin en information des populations sur différentes thématiques en agroéconomie et aidera donc les différentes institutions concernées à identifier des leviers d'action. / Several debates have been held in recent years on the impacts of different agri-food policies. The impact of supply management on consumer finances is one example. The question then arises as to whether the consumer has knowledge about supply management; and, does this level of knowledge affect his perception and/or evaluation of supply management? The purpose of this study is to gain insight into the level of supply management literacy of consumers. To this end, this study focuses on the implementation of a tool that allows, first of all, to gauge the level of literacy of the respondents in order to ensure that they know the principles and understand its implications. A methodology for the development of the supply management literacy tool was therefore established and the measurement tool designed. For its validation, the tool was tested on a sample of about one hundred Laval University students in the fall of 2020 through an online survey. This validation phase made it possible to evaluate the discrimination capacity of the questions, which is necessary for the validation of the tool. The tool for measuring the level of literacy in supply management obtained, tested and validated, can thus be used for future studies aimed at gauging the information needs of populations on various agrieconomy themes and will thus help the various institutions concerned to identify levers foraction.
65

Ajustements du biais de mesure de précipitation solide et effets sur les bilans hydrologiques en milieu forestier boréal

Pierre, Amandine 02 February 2024 (has links)
Ce travail est la fusion de deux projets de recherche complémentaires et contribue à l'approfondissement des connaissances dans les domaines des mesures de précipitation solide et dans la stratégie de modélisation hydrologique en milieu forestier boréal. Toutes les données utilisées pour ces travaux proviennent de la forêt Montmorency, qui est la forêt d’enseignement et de recherche de l’Université Laval située à Québec. Les incertitudes liées aux simulations des débits des bassins versants par les outils de modélisation hydrologiques dépendent du choix du modèle considéré, mais sont aussi liées à la qualité des données météorologiques entrantes. Il est question ici de tout d’abord quantifier les incertitudes reliées aux mesures de précipitation solide, ensuite proposer une méthode d’ajustement novatrice, et enfin une stratégie de modélisation hydrologique en milieu forestier boréal. L’élaboration d’une base de données météorologique regroupant 15 types de précipitomètres, dont deux référents mondiaux, a été réalisée grâce notamment à la mise en place du site météorologique Neige, déployé depuis 2014. Concernant les incertitudes des mesures liées au phénomène de sous-captation de précipitation solide, des approches déterministes historiques de débiaisage des données sont tout d’abord évaluées. Les résultats démontrent un biais initial moyen d’environ 30%, et une surestimation rémanente des quantités de précipitation après ajustement. Une approche probabiliste est ensuite proposée, et les résultats montrent un biais moyen divisé par 5 après application de la méthode. Enfin, des analyses de sensibilités des paramètres des modèles hydrologiques ainsi que de leurs performances face aux variations des données de précipitation solide sont réalisées sur un ensemble de 20 modèles conceptuels à partir de la base de données hydrologique du bassin versant appelé le Haut Montmorency. Cette étude permet finalement de mettre en évidence que le biais de mesure d’équivalent en eau du manteau nival pourrait influencer la qualité des bilans hydriques des bassins versants dans certaines conditions. Ainsi, une analyse de sensibilité des modèles hydrologiques rigoureuse a permis de mettre en évidence qu’un ajustement des données de précipitation solide est nécessaire en amont de la calibration conjointement à l’utilisation des modèles. L’originalité de ces travaux dépend principalement de l’exceptionnalité des sites d’études mais aussi de la qualité du travail des techniciens en observation météorologique et la coopération d’un grand nombre de partenaires privés et publics. / This work joins two complementary research projects and contributes to improve the knowledge on solid precipitation measurements and hydrological modelling strategy in the boreal forest environment. All the data used in this work comes from the Montmorency Forest, which is the teaching and research forest of Université Laval located in Quebec. The uncertainty related to flows forecast by hydrological models depends on the choice of the model, but are also linked to the quality of incoming meteorological data. This work aims first to quantify uncertainties related to solid precipitation measurements, then to propose an innovative method of adjustment and finally to establish a hydrological modelling strategy for the boreal forest environment. The development of a large meteorological database, including data from two world reference instruments, was done thanks to the Neige site deployed since 2014. Regarding uncertainties related to the solid precipitation undercatch phenomenon, five deterministic approaches from the literature are first evaluated. Results show that the initial bias is 30% on average and there is still an overestimation of the solid precipitation quantity after a deterministic adjustment. A probabilistic approach is developed and results show that the bias is divided by 5 on average. Finally, sensitivity analysis of hydrological models’ parameters, and their performance facing different solid precipitation quantities, is done on a set of 20 conceptual models based on the hydrological database of the catchment area called the HautMontmorency. This study highlights that the snow water equivalent measurement bias of the snowpack could influence the quality of water balances in the catchment under certain conditions. A deep sensitivity analysis of hydrological models showed that an adjustment of the solid precipitation was required prior to their calibration. The originality of this thesis depends on the exceptional studied sites, the quality of technicians work and the collaboration of numerous public and private partners.
66

Flux de CO₂, conditions hydriques, et leurs relations avec divers indices spectraux en tourbière ombrotrophe boréale

Letendre, Jacinthe 12 April 2018 (has links)
Les relations unissant divers indices spectraux aux flux de CO2 et aux conditions hydriques ont été testées au sol pour une diversité de communautés végétales de tourbière ombrotrophe boréale. Les résultats indiquent que l'indice spectral NDVI est faiblement explicatif de la variation de l'échange écosystémique net et de la photosynthèse brute alors que les combinaisons d'indices NDVI/WI et NDVI*sPRI le sont modérément et que l'indice CI est le plus prometteur pour une caractérisation à plus grande échelle. En plus de permettre la correction de l'indice NDVI (c.-à-d. NDVI/Wl) dans la modélisation des flux de CO2, l'investigation des relations entre la réflectance spectrale et les conditions hydriques a permis de montrer que la réflectance spectrale au sol (WI) était indicatrice de la teneur en eau en surface dans les platières à sphaignes et de la profondeur de la nappe phréatique pour une plus grande gamme de communautés végétales.
67

Comparaison de méthodes d'estimation pour le calcul de la charge en nitrate à l'exutoire de petits bassins versants en milieu agricole

Chartrand, Jonathan 13 April 2018 (has links)
Cette recherche analyse les performances de différents estimateurs de la charge en nitrate à l'aide d'observations expérimentales sur deux petits bassins versants agricoles. Ces observations sont les valeurs moyennes, sur une base quotidienne, de la concentration en nitrate et des débits à l'exutoire du bassin versant. La charge réelle a été calculée à l'aide d'une somme finie après avoir complété par interpolation linéaire les valeurs manquantes des bases de données de chaque bassin versant. Puisque les bases de données sont des séries temporelles provenant de deux bassins versants, elles ont / té comparées en divisant la plus longue série en segments égaux et équivalents à la plus courte. Le logiciel MATLAB a servi à calculer les estimations de la charge en nitrate en utilisant des simulations de Monte Carlo de l'échantillonnage des concentrations. Les débits moyens à l'exutoire ont été utilisés sur une base quotidienne pour calculer les estimations de la charge en nitrate. Onze séries temporelles ont été analysées. Une analyse de variance utilisant le facteur aiéatoire "série temporelle" montre que, pour les deux bassins versants à l'étude, une méthode d'intégration utilisant l'interpolation linéaire des concentrations était systématiquement plus précise que les autres estimateurs de la charge en nitrate mis à l'épreuve, et significativement différente. Un total de onze séries temporelles de 600 jours, une du Québec et dix de la France, servent à généraliser les résultats à des bassins versants ayant des caractéristiques physiques similaires.
68

Développement d'un nouveau concept de test de réponse thermo-hydraulique pour échangeurs de chaleur géothermiques verticaux

Rouleau, Jean 23 April 2018 (has links)
Il est important de connaître la conductivité thermique du sol ainsi que l’amplitude et l’orientation de la vitesse des écoulements souterrains lors du dimensionnement d’un champ de puits géothermiques. Ce mémoire présente la méthodologie et les conclusions d’une analyse numérique d’un nouveau concept de test de réponse thermique (TRT) pour échangeurs de chaleur géothermiques verticaux. Cette configuration de TRT permet de mesurer à la fois les propriétés hydrauliques du sol et ses propriétés thermiques. Le but premier du mémoire est de vérifier la validité du concept pour ensuite développer une méthode de résolution permettant d’estimer, à partir de la réponse thermique lors du TRT, la conductivité thermique du sol ainsi que la norme et l’orientation de la vitesse des écoulements souterrains. Pour ce faire un modèle numérique de puits a été construit avec la méthode des éléments finis afin d’effectuer des simulations numériques de la réponse thermique dans diverses conditions. À partir de ces simulations, il a été possible de démontrer le potentiel du concept de TRT et d’élaborer des méthodologies pour retrouver les propriétés désirées. Une méthode de résolution graphique est d’abord présentée. Dans un second temps, le formalisme des problèmes inverses est appliqué afin d’obtenir une deuxième méthode de mesure des paramètres du sol. Les résultats montrent que le TRT proposé permet de retrouver ces paramètres dans la plupart des scénarios envisagés. / It is important to know the subsurface thermal conductivity and the groundwater flow parameters (i.e. its velocity and orientation) when sizing a geothermal borefield. This master’s thesis presents a methodology and the conclusions of a numerical analysis of a novel thermal response test (TRT) concept for vertical geothermal heat exchangers. This configuration of TRT is able to measure both the hydraulic and the thermal properties of the ground. The main objective behind this work is to validate the concept and then to develop an efficient methodology to obtain from the thermal response of the TRT an estimation of the ground thermal conductivity along with the velocity and the orientation of groundwater flows. To achieve this, a numerical model of borehole was built using the finite element method. This model was then used to simulate the thermal response for various conditions. From these simulations, it has been possible to demonstrate the potential of the concept and to elaborate methodologies to find the desired properties. A graphical method is first presented. Following that, inverse problem techniques were applied to get a second measurement methodology. Results show that the suggested TRT is able to find the parameters in most of the cases.
69

Étude d'un mécanisme d'amplification du signal de fluorescence permettant la détection ultrasensible d'ADN

Doré, Kim 12 April 2018 (has links)
Pathogenic nucleic acid detection, in aiming to diagnose infectious diseases and thus better provide a better treatment for them is a very important goal for human health. Moreover, as more and more links are discovered between hereditary diseases and DNA mutations, their diagnostic based on DNA mutation detection is increasingly important. Throughout this Ph. D. project, we developed a fluorometric method for nucleic acid detection based on a water-soluble cationic polymer able to transduce DNA hybridization. We demonstrated the applicability of this method to detect DNA oligonucleotides of different lengths as well as single stranded RNA extracted from the flu virus. With the use of optimized experimental conditions and a custom-built fluorimeter, we demonstrated the ability to detect as little as 220 target DNA copies in the probed volume. Since DNA is present in its double stranded form in most organisms, we also developed an experimental method allowing double stranded DNA detection with the polymeric transducer. Furthermore, we modified our DNA detection process by using fluorescence resonance energy transfer. This process, named fluorescence chain reaction and discovered by Dr. Hoang-Anh Ho, is based on a fluorescence signal amplification mechanism and allows the detection of as few as 20 copies of target DNA. With this method, it was possible to detect a single base mutation responsible for type 1 hereditary tyrosinemia in unpurified genomic DNA extracted from patient blood. Subsequently, we concentrated our efforts on the characterization of this fluorescence signal amplification mechanism. Thus, we established that the fluorescence chain reaction happens in rod-like micellar aggregates of 400 nm in length containing between 4000 and 5000 polymer-tagged DNA probe complexes. This aggregated structure maintains the fluorescent donors near the acceptors, thus greatly helping the fluorescence resonance energy transfer mechanism. Moreover, the conjugated structure of the polymeric transducer allows efficient energy transportation along its chain, accelerating the energy transfer mechanism. / Pathogenic nucleic acid detection, in aiming to diagnose infectious diseases and thus better provide a better treatment for them is a very important goal for human health. Moreover, as more and more links are discovered between hereditary diseases and DNA mutations, their diagnostic based on DNA mutation detection is increasingly important. Throughout this Ph. D. project, we developed a fluorometric method for nucleic acid detection based on a water-soluble cationic polymer able to transduce DNA hybridization. We demonstrated the applicability of this method to detect DNA oligonucleotides of different lengths as well as single stranded RNA extracted from the flu virus. With the use of optimized experimental conditions and a custom-built fluorimeter, we demonstrated the ability to detect as little as 220 target DNA copies in the probed volume. Since DNA is present in its double stranded form in most organisms, we also developed an experimental method allowing double stranded DNA detection with the polymeric transducer. Furthermore, we modified our DNA detection process by using fluorescence resonance energy transfer. This process, named fluorescence chain reaction and discovered by Dr. Hoang-Anh Ho, is based on a fluorescence signal amplification mechanism and allows the detection of as few as 20 copies of target DNA. With this method, it was possible to detect a single base mutation responsible for type 1 hereditary tyrosinemia in unpurified genomic DNA extracted from patient blood. Subsequently, we concentrated our efforts on the characterization of this fluorescence signal amplification mechanism. Thus, we established that the fluorescence chain reaction happens in rod-like micellar aggregates of 400 nm in length containing between 4000 and 5000 polymer-tagged DNA probe complexes. This aggregated structure maintains the fluorescent donors near the acceptors, thus greatly helping the fluorescence resonance energy transfer mechanism. Moreover, the conjugated structure of the polymeric transducer allows efficient energy transportation along its chain, accelerating the energy transfer mechanism. / La détection d'acides nucléiques pathogènes afin de faire le diagnostic de maladies infectieuses et ainsi mieux diriger leur traitement est un enjeu très important pour la santé humaine. Aussi, comme les mutations responsables des maladies génétiques sont de mieux en mieux connues, leur détection est maintenant possible. Au cours de ce projet de doctorat, nous avons élaboré une méthode de détection d'acides nucléiques basée sur un polymère cationique soluble dans l'eau capable de traduire la réaction d'hybridation de l'ADN en un signal optique. Nous avons démontré l'applicabilité de cette méthode pour faire la détection par fluorescence d'oligonucléotides d'ADN de différentes longueurs ainsi que d'ARN viral. Avec l'utilisation de conditions expérimentales optimisées et d'un fluorimètre conçu spécialement pour cette application, nous avons pu détecter aussi peu que 220 copies d'ADN. Par la suite, comme l'ADN est présent chez la majorité des organismes vivants sous la forme de double hélice, nous avons élaboré une méthode expérimentale originale permettant la détection directe de cette forme d'ADN. Par la suite, nous avons modifié notre méthode pour augmenter sa sensibilité en utilisant le transfert énergétique résonnant de fluorescence. Un mécanisme d'amplification du signal de fluorescence a ainsi été découvert par le Dr. Hoang-Anh Ho. Cette méthode que nous avons nommée superallumage, nous a permis de faire la détection d'aussi peu que 5 copies d'ADN cible. Avec cette méthode il a été possible de faire la détection d'une seule mutation génétique responsable de la tyrosinémie héréditaire de type 1 dans des échantillons d'ADN génomique non purifiés. Finalement, nous avons concentré nos efforts sur l'étude du phénomène d'amplification de la fluorescence menant au superallumage. Ainsi, nous avons établi que le superallumage se produit dans des agrégats micellaires ayant la forme d'un bâtonnet mesurant 400 nm de long et contenant entre 4000 et 5000 complexes polymère-sonde d'ADN marquée. Cette structure agrégée maintient les fluorophores donneurs très près des accepteurs de fluorescence, ce qui favorise grandement le processus de transfert énergétique résonnant. De plus, la structure conjuguée du polymère transducteur permet un transport efficace de l'énergie le long de sa chaîne, ce qui accélère le transfert énergétique résonnant.
70

Mesure de confiance trame-synchrones et locales en reconnaissance automatique de la parole

Razik, Joseph 09 October 2007 (has links) (PDF)
En reconnaissance automatique de la parole, les mesures de confiance tentent d'estimer la confiance qu'on peut accorder au résultat (phonème, mot, phrase) fourni par le moteur de reconnaissance ; l'apport de la mesure de confiance permettant par exemple de mettre en évidence les mots mal reconnus ou hors vocabulaire.<br />Dans cette thèse nous proposons des mesures de confiance capables de faire cette estimation dans le cas d'applications nécessitant une reconnaissance "grand vocabulaire" en flux continu comme l'indexation en mots clés ou la transcription en ligne d'émissions radiophoniques et télévisuelles, ou bien encore la transcription du cours d'un enseignant dans une salle de classe pour des élèves malentendants.<br />Dans ce cadre, nous avons défini deux types de mesure de confiance. Les premières, fondées sur des rapports de vraisemblance, sont des mesures trame-synchrones qui peuvent être calculées au fur et à mesure de la progression du moteur de reconnaissance au sein de la phrase à reconnaître. Les secondes, fondées sur une estimation de la probabilité a posteriori limitée à un voisinage local du mot considéré, nécessitent seulement un court délai avant de pouvoir être calculées.<br />Ces mesures ont été évaluées et comparées à une mesure de l'état de l'art également fondée sur la probabilité a posteriori mais nécessitant la reconnaissance de toute la phrase. Cette évaluation a été faite d'une part dans une tâche de transcription automatique d'un corpus réel d'émissions radiophoniques issu de la campagne ESTER et en utilisant le critère d'évaluation EER (Equal Error Rate) ; d'autre part dans une tâche de détection de mots clés sur le même corpus. Des performances très proches de celles de la mesure de l'état de l'art ont été obtenues par nos mesures locales avec un délai de moins d'une seconde.<br />Nous avons également intégré l'une de nos mesures trame-synchrones dans le processus de décodage du moteur de reconnaissance afin d'améliorer la solution proposée par le système et ainsi diminuer le taux d'erreur en mots d'environ 6% en relatif.<br />Enfin, une de nos mesures de confiance a permis par la mise en valeur de mots de faible confiance d'améliorer la compréhension de malentendants.

Page generated in 0.043 seconds