Spelling suggestions: "subject:"[een] VALIDATION"" "subject:"[enn] VALIDATION""
181 |
Selective and quantitative analysis of 4-hydroxybenzoate preservatives by microemulsion electrokinetic chromatographyClark, Brian J., Altria, K.D., Mahuzier, P.E. 2001 July 1927 (has links)
No / A microemulsion electrokinetic chromatography (MEEKC) method has been developed and validated for the determination of 4-hydroxybenzoates and their impurities. These materials are commonly known as parabens and are widely used as preservatives in foods, cosmetics and pharmaceuticals. The method was shown to be selective and quantitative for the methyl, ethyl, propyl and butyl esters of 4-hydroxybenzoic acid. An internal standard, 4-hydroxyacetophenone, was employed to improve injection precision and detector linearity. In addition, 4-hydroxybenzoic acid, the major degradent, could also be monitored at the 0.1% (m/m) level. The method was successfully validated for assay and detection of the impurities in 4-hydroxybenzoic acid methyl ester and 4-hydroxybenzoic acid propyl ester samples and for the determination of 4-hydroxybenzoic acid methyl ester in a liquid pharmaceutical formulation. The determination of paraben content by MEEKC in a liquid sample was consistent with HPLC analysis. This work is the first reported validated MEEKC method and shows that the methodology can be successfully implemented into routine quality control testing.
|
182 |
Development of a Microemulsion High Performance Liquid Chromatography (MELC) Method for Determination of Salbutamol in Metered-Dose Inhalers (MDIS)Althanyan, Mohammed S., Clark, Brian J., Hanaee, Jalal, Assi, Khaled H. January 2013 (has links)
No / A sensitive and rapid oil-in-water (O/W) microemulsion high performance liquid chromatography (MELC) method has been developed. The water-in-oil (w/o) microemulsion was used as a mobile phase in the determination of salbutamol in aqueous solutions. In addition, the influence of operating parameters on the separation performance was examined. The samples were injected into C18, (250mmx4.6mm) analytical columns maintained at 25(o)C with a flow rate 1 ml/min. The mobile phase was 95.5% v/v aqueous orthophosphate buffer 20 mM (adjusted to pH 3 with orthophosphoric acid), 0.5% ethyl acetate, 1.5% Brij35, and 2.5% 1-butanol, all w/w. The salbutamol and internal standard peaks were detected by fluorescence detection at the excitation and emission wavelengths of 267 and 313 nm respectively. The method had an accuracy of > 97.78% and the calibration curve was linear (r2 = 0.99) over salbutamol concentrations ranging from 25 to 500 ng/mL. The intra-day and inter-day precisions (CV %) were <1.6 and <1.8, respectively. The limit of detection (LOD) and limit of quantitation (LOQ) were 9.61ng/ml and 29.13ng/ml, respectively. The method reported is simple, precise and accurate, and has the capacity to be used for determination of salbutamol in the pharmaceutical preparation.
|
183 |
Microemulsion High Performance Liquid Chromatography (MELC) for Determination of Terbutaline in Urine SamplesAlthanyan, Mohammed S., Nasser, A., Assi, H., Clark, Brian J., Assi, Khaled H. 10 October 2015 (has links)
No / An isocratic oil-in-water microemulsion High Performance Liquid Chromatography (MELC) was developed and validated for the
determination of terbutaline in urine samples. A solid phase extraction (SPE) method which used Oasis HLB cartridges was optimised
to isolate terbutaline from a urine matrix followed by HPLC with fluorescence detection. The urinary assay was performed in
accordance with FDA and ICH regulations for the validation of bioanalytical samples. The method uses the isocratic oil-in-water
micro emulsion to separate the terbutaline from the endogenous urine components. The chromatographic separation was carried
out on C18-Spherisorb (250mm×4.6mm) analytical column maintained at 30 °C. The mobile phase was 94.4% aqueous
orthophosphate buffer (adjusted to pH 3 with orthophosphoric acid), 0.5% ethyl acetate, 1.5% Brij35, 2.5% 1-butanol and 1.1%
Octanesulfonic acid (OSA), all w/w. The terbutaline peak was detected by fluorescence detection, using excitation and emission
wavelengths of 267 and 313 nm, respectively. The linearity of response was demonstrated at six different concentrations of
terbutaline which were extracted from spiked urine, ranging from 60 to 1000ng/ml. The terbutaline was extracted from urine by a
solid phase extraction clean-up procedure on Oasis HLB cartridges, and the relative recovery was >87.64% (n = 5). The limit of
detection (LOD) and limit of quantitation (LOQ) in urine were 20.21 and 61.24ng/ml, respectively. The intra-day and inter-day
precisions (in term of % coefficient of variation) were <3.56% and <2.87%, respectively. In the method development the influence of
the composition of the microemulsion system was also studied and the method was found to be robust with respect to changes of
the microemulsion components.
|
184 |
Validation and Uncertainty Quantification of Doublet Lattice Flight Loads using Flight Test DataOlson, Nicholai Kenneth Keeney 19 July 2018 (has links)
This paper presents a framework for tuning, validating, and quantifying uncertainties for flight loads. The flight loads are computed using a Nastran doublet lattice model and are validated using measured data from a flight loads survey for a Cessna Model 525B business jet equipped with Tamarack® Aerospace Group’s active winglet modification, ATLAS® (Active Technology Load Alleviation System). ATLAS® allows for significant aerodynamic improvements to be realized by reducing loads to below the values of the original, unmodified airplane. Flight loads are measured using calibrated strain gages and are used to tune and validate a Nastran doublet-lattice flight loads model. Methods used to tune and validate the model include uncertainty quantification of the Nastran model form and lead to an uncertainty quantified model which can be used to estimate flight loads at any given flight condition within the operating envelope of the airplane. The methods presented herein improve the efficiency of the loads process and reduce conservatism in design loads through improved prediction techniques. Regression techniques and uncertainty quantification methods are presented to more accurately assess the complexities in comparing models to flight test results. / Master of Science / This paper presents a process for correlating analytical airplane loads models to flight test data and validating the results. The flight loads are computed using Nastran, a structural modeling tool coupled with an aerodynamic loads solver. The flight loads models are correlated to flight test data and are validated using measured data from a flight loads survey for a Cessna Model 525B business jet equipped with Tamarack ® Aerospace Group’s active winglet modification, ATLAS ® (Active Technology Load Alleviation System). ATLAS ® allows for significant aerodynamic improvements and efficiency gains to be realized by reducing loads to below the values of the original, unmodified airplane. Flight loads are measured using a series of strain gage sensors mounted on the wing. These sensors are calibrated to measure aerodynamic loads and are used to tune and validate the Nastran flight loads model. Methods used to tune and validate the model include quantification of error and uncertainties in the model. These efforts lead to a substantially increased understanding of the model limitations and uncertainties, which is especially valuable at the corners of the operating envelope of the airplane. The methods presented herein improve the efficiency of the loads process and reduce conservatism in design loads through improved prediction techniques. The results provide a greater amount of guidance for decision making throughout the design and certification of a load alleviation system and similar airplane aerodynamic improvements.
|
185 |
Making Meaning-Full Measures: Implementing Pragmatic Theory to Inform Definitional CorrespondenceNg, Matthew A 01 January 2024 (has links) (PDF)
Current psychometric best practice emphasizes the importance of semantics and syntax, two of the three cores of linguistics, which addresses the assigned meaning associated with words. However, little attention is paid to the other core linguistics subfield: pragmatics, or the study of how context affects meaning. The present study integrates pragmatic theory with psychometric practices (i.e., definitional correspondence) to investigate the existence of implied meaning associated with items and definitions. Specifically, definitions and items associated with knowledge hiding, forgiveness of others, resilience, presenteeism, and both global and facet job satisfaction were investigated for implied meaning. A modified qualitative think-aloud protocol and a survey on Prolific were conducted to explore the existence and potential impact of implied meaning in items and definitions. Evidence from these two studies suggests that not only does implied meaning exist in survey takers’ interpretations of items and definitions, but also that interpretations of items and definitions for the same construct are not always aligned. In fact, implied meaning associated with items can contaminate the underlying content domain, thus contributing to inconsistent results associated with the use of a given measure. These findings highlight the importance of assessing implied meaning as part of the construct explication phase and measure development, which can help to produce higher quality psychological measures that align more closely with the intended content domain. Future directions for psychometric assessment and the theoretical treatment of context in I-O topics are discussed.
|
186 |
Signatures électroniques avancées : modélisation de la validation à long terme et sécurité des autorités de certification / Advanced electronic signatures : modeling long-term validation and the security of certification authoritiesBen Mbarka, Moez 06 April 2011 (has links)
Il est nécessaire qu'une signature électronique garde ses propriétés de sécurité durant sa période archivage légale. La première partie de ce mémoire adresse cette problématique en formalisant la validation de signature à long terme. On utilise notre modèle pour définir la sémantique d'une règle de résolution de litige et pour formaliser plusieurs notions tels que la preuve de jugement, son expiration et son renouvellement. La révocation est l'un des principaux aspects formalisés par le modèle. La gestion de la révocation est particulièrement critique pour une Autorité de Certification. Dans un premier temps, on investigue différent niveaux de compromission et de révocations. Ensuite, on adresse la sécurité de l'application de signature de certificats. On propose une solution qui permet au module cryptographique de l'AC de déléguer les vérifications sur les requêtes de signature de certificats, à un environnement moins sécurisé mais avec une puissance de calcul plus importante. / Nowadays digital signature schemes and infrastructures have time limitations. This situation is disturbing considering that there are many cases, such as government records, where the signatures are required to be kept valid for a long period of time. In this thesis, we address this issue by modeling signature validation in the scope of a dispute between a verifier and a signer. The model is accompanied with a formal calculus to formalize several important concepts in the scope of long-term validation, such as judgment proof, proof expiration and renewal. Certificate revocation is one of the main issues considered by the model. Revocation is particularly critical for a Certification Authority (CA). We investigate this issue in the scope of the revocation settings allowed in X.509 and we show that some settings permit efficient countermeasures to prevent the revocation of the CA. For the same objective, we investigate approaches allowing to combine hardware protection with fine-tuned control on the usage of the CA's key. We propose a general solution which allows the execution of the of CA's certification policies at a processor which runs in an insecure environment under the control of the CA's secure module.
|
187 |
Modélisation du renoyage d'un cœur du réacteur nucléaire fortement dégradé / Modeling of reflood of severely damaged reactor coreBachrata, Andrea 11 October 2012 (has links)
Les événements récents au Japon sur les centrales nucléaires de Fukushima ont montré que des accidents conduisant à la fusion du cœur peuvent survenir bine plus souvent qu’on ne l’avait supposé et que leur impact sur l’environnement et la vie publique est considérable. Pour les réacteurs actuels, un des moyens principaux pour stopper la progression de l’accident est de tenter de refroidir le plus rapidement possible les matériaux en utiliser une injection d’eau de secours. Suivant l’instant de déclenchement de l'injection d'eau dans un cœur dégradé (appelée renoyage) les zones du cœur présentent des degrés de dégradation variables. Ceci conduit à des écoulements 3D double phase dans la cuve à cause des hétérogénéités de porosité et de forme des matériaux à refroidir. La modélisation de ces écoulements est primordiale pour les études de sûreté. A l’IRSN, une partie de ces études se fait grâce au code ICARE-CATHARE. Ce code de calcul est utilisé en Europe par des entreprises nucléaires et sert à calculer l’évolution d’un accident dans un réacteur, en se concentrant sur l’état du cœur et du circuit primaire. L’objectif de cette thèse a été de développer un modèle de renoyage 3D (implanté dans ICARE-CATHARE) capable de traiter les configurations du cœur dégradé lors d'un accident grave. Le modèle proposé est caractérisé par un traitement du déséquilibre thermique entre les phases solide, liquide et gazeuse. Il inclut aussi deux équations de quantité de mouvement (une pour chacune des phases fluides). Une des améliorations faites au cours de cette thèse a été de bien distinguer les lois de transfert de chaleur pour différents régimes d’ébullition. On a ainsi proposé un modèle combinant les situations d’ébullition nucléée et d’ébullition en film. Les calculs permettent de mettre en évidence certaines caractéristiques multidimensionnelles de l’écoulement lors du renoyage, en particulier lorsqu’un fort gradient de pression est engendré dans le milieu poreux par l’écoulement de vapeur. En parallèle, l’IRSN a lancé un programme expérimental (essais PRELUDE et PEARL) dont l’objectif est de permettre la validation du modèle sur un dispositif 2D représentatif du renoyage de particules à haute température. L’analyse des résultats expérimentaux a permis de vérifier certains choix faits pour les lois physiques du modèle macroscopique. Néanmoins, la validation reste très globale puisqu’on ne dispose pas de mesures locales. La validation quantitative sur les données expérimentales a montré que le modèle fournit des résultats satisfaisants. Le modèle est capable de prédire la vitesse de progression du renoyage dans le cœur, la production du vapeur (instantanée et cumulée) et le pic de pression pour différents diamètres de particules et différents débits d’injection testés. / The TMI-2 accident and recently Fukushima accident demonstrated that the nuclear safety philosophy has to cover accident sequences involving massive core melt in order to develop reliable mitigation strategies for both, existing and advanced reactors. Although severe accidents are low likelihood and might be caused only by multiple failures, accident management is implemented for controlling their course and mitigating their consequences. In case of severe accident, the fuel rods may be severely damaged and oxidized. Finally, they collapse and form a debris bed on core support plate. Removal of decay heat from a damaged core is a challenging issue because of the difficulty for water to penetrate inside a porous medium. The reflooding (injection of water into core) may be applied only if the availability of safety injection is recovered during accident. If the injection becomes available only in the late phase of accident, water will enter a core configuration that will differ from original rodbundle geometry and will resemble to the severe damaged core observed in TMI-2. The higher temperatures and smaller hydraulic diameters in a porous medium make the coolability more difficult than for intact fuel rods under typical loss of coolant accident conditions. The modeling of this kind of hydraulic and heat transfer is a one of key objectives of this. At IRSN, part of the studies is realized using an European thermo-hydraulic computer code for severe accident analysis ICARE-CATHARE. The objective of this thesis is to develop a 3D reflood model (implemented into ICARE-CATHARE) that is able to treat different configurations of degraded core in a case of severe accident. The proposed model is characterized by treating of non-equilibrium thermal between the solid, liquid and gas phase. It includes also two momentum balance equations. The model is based on a previouslydeveloped model but is improved in order to take into account intense boiling regimes (in particular nucleate boiling). Moreover, the criteria characterizing the transition between different flow regimes were completed. Currently, the French IRSN sets up two experimental facilities, PEARL and PRELUDE. The aim is to predict the consequences of the reflooding of a severely damaged reactor core where a large part of the core has collapsed and formed a debris bed e.g. particles with characteristic length-scale: 1 to 5mm. This means the prediction of debris coolability, front propagation and steam production during the quenching after the water injection. A series of experiments performed in 2010-2012 at the PRELUDE facility has provided a large amount of new data that are summarized. On the basis of those experimental results, the thermal hydraulic features of the quench front have been analyzed and the intensity of heat transfer regimes is estimated. A three-equation model for the twophase flow in a heat-generating porous medium was validated. The quantitative validation of model with experimental results was realized and showed that the model provides satisfactory results. The model is able to predict the quench front velocity in the core, steam production (instantaneous and cumulated) as well as the pressure increase during reflood for different particle diameters and different injection liquid flows.
|
188 |
Conception d'une méthodologie d'évaluation et de validation cliniques d'un dispositif médical logiciel d'aide au diagnostic en imagerie : application au suivi lésionnel en oncologie. / Design of a methodology for clinical evaluation and validation for decision support software in medical Imaging : application to oncologic follow up.Rene, Amandine 24 September 2014 (has links)
Les logiciels d'aide au diagnostic sont, aujourd'hui, intégrés dans la pratique quotidienne. Ils sont également des éléments clefs de la recherche médicale. Définis comme dispositifs médicaux, une évolution récente de la règlementation impose des évaluations cliniques aux fabricants. L'industrie pharmaceutique bénéficie d'une méthode éprouvée pour l'évaluation des médicaments. Elle n'est pas totalement transposable aux dispositifs médicaux, encore moins pour les logiciels. L'objectif de cette thèse est de proposer une méthodologie d'évaluation et de validation cliniques de ces dispositifs. Dans un premier temps, le cadre règlementaire et normatif est présenté ainsi que des méthodologies émanant de différents domaines. La synthèse de ces données permet la présentation d'un premier item de la méthode permettant l'évaluation clinique des performances logicielles. Afin d'aller plus loin dans l'analyse, une seconde partie de la méthode est consacrée à l'évaluation/validation de l'ergonomie logicielle, sujet sensible pour les logiciels médicaux. Enfin, et afin de rendre à ces dispositifs leur vraie place dans le parcours de soins, le dernier item propose de mettre en évidence leur intérêt dans la pratique clinique, ainsi que dans la prise en charge du patient, via leur implication dans la recherche de nouveaux biomarqueurs en imagerie. Ces différentes méthodes respectent et dépassent le cadre règlementaire afin de répondre aux attentes de tous les acteurs du cycle de vie des logiciels d'aide au diagnostic en imagerie. Un exemple d'application est finalement présenté via la démonstration de l'impact d'un logiciel dédié sur l'évaluation de la réponse oncologique en imagerie / Aided-diagnosis software in imaging are now integrated to radiological workflow but they are also key elements in medical research. Defined as medical devices, recent regulatory changes now impose clinical evaluations on manufacturers. The pharmaceutical industry benefits from a proven method in drug evaluation. Yet, transposition to medical devices is not fully effective and even more complex in the case of software. The aim of this thesis is to propose a clinical evaluation and validation methodology for these devices. The first part introduces the normative and regulatory framework as well as methodologies from various areas. The synthesis of these data allows the presentation of the first methodology item enabling the clinical evaluation of software performance. In order to further the analysis, the second part of the methodology is dedicated to evaluation/validation of software ergonomics, a sensitive issue in medical software. Finally, to restore these devices to their true place in health care, the last item proposes to highlight their impact in clinical practice and in patient management, through their implication in the search for new biomarkers in imaging. These various methods comply with and go beyond the regulatory framework in order to meet the expectations of all the stakeholders involved in the life cycle of aided-diagnosis software in imaging. To conclude, an example of its application is presented showing the impact of a dedicated software in the evaluation of oncology response in imaging.
|
189 |
Simulation numérique et modélisation d’écoulements tridimensionnels instationnaires à surface libre. Application au système bateau-avirons-rameur / Numerical simulation and modelling of tridimensional freesurface flows. Application to the boat-oars-rower systemRobert, Yoann 29 September 2017 (has links)
La thèse s'intéresse aux deux écoulements présents en aviron, autour du bateau et de la palette, et aux interactions avec le système bateau-avirons-rameur. Le premier est inhabituel en hydrodynamique, à cause du cavalement important et des mouvements secondaires. La complexité du second provient de l'instationnarité et de la déformation de la surface libre. L'objectif consiste à mettre en oeuvre des méthodes numériques performantes et précises puis à les valider pour, à plus long terme, les réutiliser à des fins d'analyse et d’optimisation de la performance en aviron.Ces simulations instationnaires à surface libre sont coûteuses en ressources pour les codes RANS. Un algorithme de sub-cycling a été développé et validé sur plusieurs cas test, diminuant les temps CPU d'un facteur 3 à 4, sans perte de précision. Il est compatible avec la déformation et le raffinement automatique de maillage. Deux bases de données expérimentales sont exploitées pour chaque écoulement afin de valider le cadre de simulation. Pour celui autour de la palette, une campagne in situ et une autre en laboratoire sont utilisées. Dans les deux cas, les profils d'efforts sont bien capturés, compte tenu des incertitudes cumulées liées à la mesure indirecte de la cinématique de la palette par rapport à l'eau. Pour le skiff en configuration instationnaire, les efforts fluctuants sont bien capturés, en amplitude et en phase, pour des fréquences typiques. Des écarts inattendus (de l'ordre de 10%) sont constatés sur la valeur moyenne et restent pour le moment sans réponse probante. La structure d'une co-simulation entre les résolutions des écoulements et celle de la dynamique du système multicorps est initiée. / The thesis focuses on the two flows occurring in rowing,around the boat and the blade, and on interactions with theboat-oars-rower system. The first flow is unusual in hydrodynamics because of the large surge and secondary motions. The complexity of the second one comes from the unsteadiness and the free surface deformation. The goal is to set up efficient and accurate numerical methods to reproduce these flows and then to validate them for the purpose of analysis and optimisation of the performance in rowing.Those unsteady computations with free surface are cost lyin resources for RANS codes. A sub-cycling algorithm was developed and validated on several test cases, allowing to decrease the CPU time by a factor of 3 to 4, without loss of accuracy. It is compatible with mesh deformation and automatic grid refinement. Two experimental databases are exploited for each flow in order to validate the frame of simulation. For the flow around the blade, an in-situ campaign and a more controlled one conducted in laboratory, are used. In both cases, the profiles of the efforts are well captured, considering the cumulative uncertainties linked to the indirect measurement of the blade kinematics relative to the water. For the skiff in unsteady state, the fluctuating forces are well captured, in terms of amplitudes and phases, for typical frequencies. Unexpected errors (around10%) are observed for the mean value and remain unexplained for now. The structure of a co-simulation between the resolutions of the flows and the resolution of the dynamics of the multibody system is initiated.
|
190 |
Validation de réponses dans un système de questions réponses / Answer validation in question answering systemGrappy, Arnaud 08 November 2011 (has links)
Avec l'augmentation des connaissances disponibles sur Internet est apparue la difficulté d'obtenir une information. Les moteurs de recherche permettent de retourner des pages Web censés contenir l'information désirée à partir de mots clés. Toutefois il est encore nécessaire de trouver la bonne requête et d'examiner les documents retournés. Les systèmes de questions réponses ont pour but de renvoyer directement une réponse concise à partir d'une question posée en langue naturelle. La réponse est généralement accompagnée d'un passage de texte censé la justifier. Par exemple, pour la question « Quel est le réalisateur d'Avatar ? » la réponse « James Cameron » peut être renvoyée accompagnée de « James Cameron a réalisé Avatar. ». Cette thèse se focalise sur la validation de réponses qui permet de déterminer automatiquement si la réponse est valide. Une réponse est valide si elle est correcte (répond bien à la question) et justifiée par le passage textuel. Cette validation permet d'améliorer les systèmes de questions réponses en ne renvoyant à l'utilisateur que les réponses valides. Les approches permettant de reconnaître les réponses valides peuvent se décomposer en deux grandes catégories : -les approches utilisant un formalisme de représentation particulier de la question et du passage dans lequel les structures sont comparées ;-les approches suivant une approche par apprentissage qui combinent différents critères d'ordres lexicaux ou syntaxiques. Dans le but d'identifier les différents phénomènes sous tendant la validation de réponses, nous avons participé à la création d'un corpus annoté manuellement. Ces phénomènes sont de différentes natures telle que la paraphrase ou la coréférence. On peut aussi remarquer que les différentes informations sont réparties sur plusieurs phrases, voire sont manquantes dans les passages contenant la réponse. Une deuxième étude de corpus de questions a porté sur les différentes informations à vérifier afin de détecter qu'une réponse est valide. Cette étude a montré que les trois phénomènes les plus fréquents sont la vérification du type de la réponse, la date et le lieu contenus dans la question. Ces différentes études ont permis de mettre au point notre système de validation de réponses qui s'appuie sur une combinaison de critères. Certains critères traitent de la présence dans le passage des mots de la question ce qui permet de pointer la présence des informations de la question. Un traitement particulier a été effectué pour les informations de date en détectant une réponse comme n'étant pas valide si le passage ne contient pas la date contenue dans la question. D'autres critères, dont la proximité dans le passage des mots de la question et de la réponse, portent sur le lien entre les différents mots de la question dans le passage. Le second grand type de vérification permet de mesurer la compatibilité entre la réponse et la question. Un certain nombre de questions attendent une réponse étant d'un type particulier. La question de l'exemple précédent attend ainsi un réalisateur en réponse. Si la réponse n'est pas de ce type alors elle est incorrecte. Comme cette information peut ne pas se trouver dans le passage justificatif, elle est recherchée dans des documents autres à l'aide de la structure des pages Wikipédia, en utilisant des patrons syntaxiques ou grâce à des fréquences d'apparitions du type et de la réponse dans des documents. La vérification du type est particulièrement efficace puisqu'elle effectue 80 % de bonnes détections. La vérification de la validité des réponses est également pertinente puisque lors de la participation à une campagne d'évaluation, AVE 2008, le système s'est placé parmi les meilleurs toutes langues confondues. La dernière contribution a consisté à intégrer le module de validation dans un système de questions réponses, QAVAL. Dans ce cadre de nombreuses réponses sont extraites par QAVAL et ordonnées grâce au module de validation de réponses. Le système n'est plus utilisé afin de détecter les réponses valides mais pour fournir un score de confiance à chaque réponse. Le système QAVAL peut ainsi aussi bien être utilisé en effectuant des recherches dans des articles de journaux que dans des articles issus du Web. Les résultats sont assez bons puisqu'ils dépassent ceux obtenus par un simple ordonnancement des réponses de près de 50 %. / Question answering systems extract precise answers from a set of documents, and return the answers along with text snippets which justify them. For example, to the question "Who is the director of Avatar?" The answer "James Cameron" may be returned with "Avatar by James Cameron.".The answer validation detect automatically if the answer is valid ie. if it is correct (responds to the question) and justified by the text passage. This validation allows to improve the question answering systems by producing only valid answers.Two kind of methods can be used to detect right answers : -approaches using specific representation formalism of the question and the passage in which the structures are compared;-learning approaches that combines lexical and syntactic features.To identify the phenomena that characterize the answer validation, we built a manually annotated corpus. Differents phenomena can be seen like paraphrasing, coreference or that the information is spread in different sentences or documents. A second corpus aims to identify the different informations to be checked to valid an answer. This study showed that the three mains phenomena are the answer type, the date and place of the question.These studies have helped to develop our answer validation system which is based on a combination of features. The first one estimates the proportion of common terms in the snippet and the question, the second one measures the proximity of these terms and the answer. The second kind of features measure the compatibility between the answer and the question. Numerous questions wait for answers of an explicit type. For example, the question “Which president succeeded to Jacques Chirac?” requires an instance of president as answer.If the answer is not of this type then it is incorrect. The method aims at verifying that an answer given by a system corresponds to the given type. This verification is done by combining features provided by different methods. The first types of feature are statistical and compute the presence rate of both the answer and the type in documents, other features rely on named entity recognizers and the last criteria are based on the use of Wikipedia. Type checking is particularly effective because it makes 80 % correct detections. The final contribution was to integrate the validation module in a question answering system, QAVAL. Many answers are retrieved by QAVAL and ordered through the answers validation module. The module provide a confidence score to each response. QAVAL can be used both by researching the information in newspaper articles and in articles from the Web. The results are good, exceeding those obtained by a simple answer ranking from nearly 50%.
|
Page generated in 0.0342 seconds