• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 451
  • 274
  • 163
  • 47
  • 25
  • 22
  • 19
  • 10
  • 6
  • 5
  • 5
  • 4
  • 2
  • 2
  • 1
  • Tagged with
  • 1188
  • 259
  • 192
  • 143
  • 124
  • 87
  • 74
  • 67
  • 61
  • 61
  • 61
  • 61
  • 57
  • 54
  • 53
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Validation and Uncertainty Quantification of Doublet Lattice Flight Loads using Flight Test Data

Olson, Nicholai Kenneth Keeney 19 July 2018 (has links)
This paper presents a framework for tuning, validating, and quantifying uncertainties for flight loads. The flight loads are computed using a Nastran doublet lattice model and are validated using measured data from a flight loads survey for a Cessna Model 525B business jet equipped with Tamarack® Aerospace Group’s active winglet modification, ATLAS® (Active Technology Load Alleviation System). ATLAS® allows for significant aerodynamic improvements to be realized by reducing loads to below the values of the original, unmodified airplane. Flight loads are measured using calibrated strain gages and are used to tune and validate a Nastran doublet-lattice flight loads model. Methods used to tune and validate the model include uncertainty quantification of the Nastran model form and lead to an uncertainty quantified model which can be used to estimate flight loads at any given flight condition within the operating envelope of the airplane. The methods presented herein improve the efficiency of the loads process and reduce conservatism in design loads through improved prediction techniques. Regression techniques and uncertainty quantification methods are presented to more accurately assess the complexities in comparing models to flight test results. / Master of Science / This paper presents a process for correlating analytical airplane loads models to flight test data and validating the results. The flight loads are computed using Nastran, a structural modeling tool coupled with an aerodynamic loads solver. The flight loads models are correlated to flight test data and are validated using measured data from a flight loads survey for a Cessna Model 525B business jet equipped with Tamarack ® Aerospace Group’s active winglet modification, ATLAS ® (Active Technology Load Alleviation System). ATLAS ® allows for significant aerodynamic improvements and efficiency gains to be realized by reducing loads to below the values of the original, unmodified airplane. Flight loads are measured using a series of strain gage sensors mounted on the wing. These sensors are calibrated to measure aerodynamic loads and are used to tune and validate the Nastran flight loads model. Methods used to tune and validate the model include quantification of error and uncertainties in the model. These efforts lead to a substantially increased understanding of the model limitations and uncertainties, which is especially valuable at the corners of the operating envelope of the airplane. The methods presented herein improve the efficiency of the loads process and reduce conservatism in design loads through improved prediction techniques. The results provide a greater amount of guidance for decision making throughout the design and certification of a load alleviation system and similar airplane aerodynamic improvements.
52

Cooperative Prediction and Planning Under Uncertainty for Autonomous Robots

Nayak, Anshul Abhijit 11 October 2024 (has links)
Autonomous robots are set to become ubiquitous in the future, with applications ranging from autonomous cars to assistive household robots. These systems must operate in close proximity of dynamic and static objects, including humans and other non-autonomous systems, adding complexity to their decision-making processes. The behaviour of such objects is often stochastic and hard to predict. Making robust decisions under such uncertain scenarios can be challenging for these autonomous robots. In the past, researchers have used deterministic approach to predict the motion of surrounding objects. However, these approaches can be over-confident and do not capture the stochastic behaviour of surrounding objects necessary for safe decision-making. In this dissertation, we show the importance of probabilistic prediction of surrounding dynamic objects and their incorporation into planning for safety-critical decision making. We utilise Bayesian inference models such as Monte Carlo dropout and deep ensemble to probabilistically predict the motion of surrounding objects. Our probabilistic trajectory forecasting model showed improvement over standard deterministic approaches and could handle adverse scenarios such as sensor noise and occlusion during prediction. The uncertainty-inclusive prediction of surrounding objects has been incorporated into planning. The inclusion of predicted states of surrounding objects with associated uncertainty enables the robot make proactive decisions while avoiding collisions. / Doctor of Philosophy / In future, humans will greatly rely on the assistance of autonomous robots in helping them with everyday tasks. Drones to deliver packages, cars for driving to places autonomously and household robots helping with day-to-day activities. In all such scenarios, the robot might have to interact with their surrounding, in particular humans. Robots working in close proximity to humans must be intelligent enough to make safe decisions not affecting or intruding the human. Humans, in particular make abrupt decisions and their motion can be unpredictable. It is necessary for the robot to understand the intention of human for navigating safely without affecting the human. Therefore, the robot must capture the uncertain human behaviour and predict its future motion so that it can make proactive decisions. We propose to capture the stochastic behaviour of humans using deep learning based prediction models by learning motion patterns from real human trajectories. Our method not only predicts future trajectory of humans but also captures the associated uncertainty during prediction. In this thesis, we also propose how to predict human motion under adverse scenarios like bad weather leading to noisy sensing as well as under occlusion. Further, we integrate the predicted stochastic behaviour of surrounding humans into the planning of the robot for safe navigation among humans.
53

Les débordements de la mer d'Aral : qu'apporte la sociologie de l'acteur-réseau à la sociologie du développement ? / Overflowing the Aral Sea

Jozan, Raphaël 02 December 2010 (has links)
Qu'apporte la sociologie de l'acteur-réseau à la sociologie du développement? Depuis l’implosion de l’URSS et la division du bassin de la mer d’Aral en cinq républiques indépendantes, l’Asie centrale est le théâtre d’une « guerre de l’eau ». Cette guerre se traduit notamment par la difficulté des républiques à s’entendre sur un accord de partage de la ressource en eau du bassin, dont l’optimum a été démontré par des modèles hydroéconomiques développés par la coopération internationale. Ce travail retrace l'histoire de la guerre de l'eau et montre dans quelle mesure les dispositifs de calculs contribuent à la performer. Nous suivons pour cela l’eau qui circule dans les champs de production, dans les statistiques administratives et dans les travaux des experts internationaux. En mettant les dispositifs techniques au cœur de l'analyse, la sociologie du développement se trouve enrichie par la sociologie de l’acteur réseau / What can bring the Actor-Network Sociology to the Development Sociology ? Since the breakdown of the Soviet Union and the political disintegration of the Aral Sea basin into five independent republics, Central Asia is witnessing a "water war". The republics have difficulties in finding an agreement for sharing the water resources, while international cooperation has many times demonstrated an optimum by producing hydro-economic models.This thesis analyses the history of the water conflict in Central Asia and shows how the experts’ calculation devices contribute to perform the “water war”. The research chases the water flowing in the production field, in the administrative statistics and in the work of international experts. It focuses on technical devices and demonstrates how the Development Sociology gets enriched by the Actor-Network Sociology
54

Capteurs fluorescents à base de liquides ioniques à tâche spécifique pour la quantification de traces de métaux lourds dans l’eau / Fluorescent sensors based on task specific ionic liquids for the quantification of traces of heavy metals ions in water

Bell, Jérémy 20 September 2012 (has links)
Cette thèse a pour but la réalisation de capteurs fluorescents à base de liquides ioniques à tâche spécifique pour la quantification de traces de métaux lourds dans l’eau. Dans un premier temps, des sondes moléculaires fluorescentes efficaces pour la détection du mercure, du plomb et du cadmium ont été ciblées. Une première famille de molécules d’éthers lariat d’oxyde de phosphine a montré de bonnes affinités pour le plomb et le cadmium. Tandis qu’un dérivé de séléniure de phosphine s’est révélé être un très bon chemodosimètre pour le mercure avec une limite de détection basse de 3,4 nmol.L-1. Des sondes moléculaires fluorescentes dérivées de la 8-hydroxyquinoléine comportant un groupement phosphinate ou thiophosphinate capables de complexer le mercure en milieu aqueux ont permis d’atteindre une limite de détection exceptionnelle de 0,1 nmol.L-1. Enfin, un composé dérivé de la phénantroline capable de complexer très efficacement le cadmium avec la possibilité de détecter des traces de ce cation est présenté. Après indentification des sondes spécifiques pour les métaux lourds d’intérêt pour le projet, celles-ci ont étés fonctionnalisées afin de les incorporer dans un liquide ionique hydrophobe pour former des liquides ioniques à tâche spécifique pour l’extraction et la détection de métaux lourds. En parallèle du travail concernant les sondes moléculaires, un dispositif d’analyseur de métaux lourds portatif a été mis au point, notamment un nouveau module de détection optique développé. Ce dispositif permet là aussi de détecter des traces de mercure sub-nanomolaire. / The aim of this PhD is the realization of fluorescent sensors based on task specific ionic liquids for the extraction and the quantification of trace of heavy metals ions in water. As a first step, efficient fluorescent molecular probes for the detection of mercury, lead and cadmium were targeted. Two lariat ethers derivated from phosphine oxide show good affinity for lead and cadmium, while a phosphine selenide derivative has proven to be a very good chemodosimeter for mercury with a low detection limit of 3.4 nmol.L-1. Secondly, fluorescent molecular probes derived from 8-hydroxyquinoline having a phosphinate or thiophosphinate group are described. These molecules are able to coordinate mercury in aqueous medium and allow to detect a concentration of mercury in water of 0.1 nmol.L-1. Finally, a phenanthroline derivative for detection of cadmium in aqueous medium is described. With this compound, traces of cadmium can be detected. After identification of the most efficient probes for targeted heavy metals ions, they have been functionalized to be incorporated in a hydrophobic ionic liquid to form task specific ionic liquids for the extraction and detection of heavy metals ions. In parallel of this work on molecular probes, an portable analyzer of heavy metals ions has been developed, including a new optical detection module. This device can also detect sub-nanomolar traces of mercury.
55

Analyse d'incertitudes et de robustesse pour les modèles à entrées et sorties fonctionnelles / uncertainties and robustness analysis for models with functional inputs and outputs

El Amri, Mohamed 29 April 2019 (has links)
L'objectif de cette thèse est de résoudre un problème d'inversion sous incertitudes de fonctions coûteuses à évaluer dans le cadre du paramétrage du contrôle d'un système de dépollution de véhicules.L'effet de ces incertitudes est pris en compte au travers de l'espérance de la grandeur d'intérêt. Une difficulté réside dans le fait que l'incertitude est en partie due à une entrée fonctionnelle connue à travers d'un échantillon donné. Nous proposons deux approches basées sur une approximation du code coûteux par processus gaussiens et une réduction de dimension de la variable fonctionnelle par une méthode de Karhunen-Loève.La première approche consiste à appliquer une méthode d'inversion de type SUR (Stepwise Uncertainty Reduction) sur l'espérance de la grandeur d'intérêt. En chaque point d'évaluation dans l'espace de contrôle, l'espérance est estimée par une méthode de quantification fonctionnelle gloutonne qui fournit une représentation discrète de la variable fonctionnelle et une estimation séquentielle efficace à partir de l'échantillon donné de la variable fonctionnelle.La deuxième approche consiste à appliquer la méthode SUR directement sur la grandeur d'intérêt dans l'espace joint des variables de contrôle et des variables incertaines. Une stratégie d'enrichissement du plan d'expériences dédiée à l'inversion sous incertitudes fonctionnelles et exploitant les propriétés des processus gaussiens est proposée.Ces deux approches sont comparées sur des fonctions jouets et sont appliquées à un cas industriel de post-traitement des gaz d'échappement d'un véhicule. La problématique est de déterminer les réglages du contrôle du système permettant le respect des normes de dépollution en présence d'incertitudes, sur le cycle de conduite. / This thesis deals with the inversion problem under uncertainty of expensive-to-evaluate functions in the context of the tuning of the control unit of a vehicule depollution system.The effect of these uncertainties is taken into account through the expectation of the quantity of interest. The problem lies in the fact that the uncertainty is partly due to a functional variable only known through a given sample. We propose two approaches to solve the inversion problem, both methods are based on Gaussian Process modelling for expensive-to-evaluate functions and a dimension reduction of the functional variable by the Karhunen-Loève expansion.The first methodology consists in applying a Stepwise Uncertainty Reduction (SUR) method on the expectation of the quantity of interest. At each evaluation point in the control space, the expectation is estimated by a greedy functional quantification method that provides a discrete representation of the functional variable and an effective sequential estimate from the given sample.The second approach consists in applying the SUR method directly to the quantity of interest in the joint space. Devoted to inversion under functional uncertainties, a strategy for enriching the experimental design exploiting the properties of Gaussian processes is proposed.These two approaches are compared on toy analytical examples and are applied to an industrial application for an exhaust gas post-treatment system of a vehicle. The objective is to identify the set of control parameters that leads to meet the pollutant emission norms under uncertainties on the driving cycle.
56

Au-delà de la mesure de SUV en imagerie TEP : propriétés et potentiel des paramètres de texture pour caractériser les tumeurs / Beyond the measurement of SUV in PET imaging : Properties and potential of the parameters of texture to characterize tumors

Orlhac, Fanny 22 September 2015 (has links)
Caractériser précisément l’hétérogénéité tumorale constitue un enjeu majeur en cancérologie. Le calcul de biomarqueurs de cette hétérogénéité directement à partir des données d’imagerie présente de nombreux avantages : il est non-invasif, répétable plusieurs fois au cours du traitement, ne nécessite pas d’examen supplémentaire et permet de caractériser la tumeur toute entière et ses éventuelles métastases. Mon projet de recherche visait à développer et évaluer des méthodes pour une caractérisation plus complète de l’activité métabolique des tumeurs. L’analyse de texture des images TEP nécessite un protocole de calcul des index plus complexe que celui des paramètres conventionnels utilisés en clinique. Afin de déterminer l’influence des étapes préliminaires au calcul de ces index, une étude méthodologique a tout d’abord été menée. Cette analyse a montré que certains index de texture étaient redondants et qu’il existait une forte corrélation entre certains d’entre eux et le volume métabolique. Elle a également mis en évidence l’impact de la formule et du taux de discrétisation sur les valeurs des paramètres de texture et permis de clarifier l’interprétation des indices. Après avoir établi un protocole de calcul strict, une seconde partie de ce travail a consisté à évaluer la capacité de ces index pour la caractérisation des tumeurs. L’analyse de texture a ainsi permis de différencier les tissus sains des tissus tumoraux et de distinguer les types histologiques pour les tumeurs mammaires, les lésions pulmonaires ou encore les gliomes.Afin de comprendre le lien entre l’hétérogénéité tumorale quantifiée sur les images TEP et l’hétérogénéité biologique des lésions, nous avons comparé l’analyse de texture réalisée à différentes échelles sur un modèle animal. Cette étude a révélé que la texture mesurée in vivo sur les images TEP reflétait la texture mesurée ex vivo sur les images autoradiographiques. / The precise characterization of the biological heterogeneity of a tumor is a major issue in oncology. The calculation of biomarkers reflecting this heterogeneity directly from imaging data offers a number of advantages: it is non-invasive, can be repeated during the therapy, does not require supplementary examinations and the whole tumor and possible metastases can be investigated from the images. My research project was to develop and assess methods to characterize the metabolic activity distribution in tumors.Texture analysis based on PET images requires a protocol to compute index that is somehow more sophisticate than when simply measuring the conventional index used in clinical practice. To determine the role of the different steps that are involved in the computation of texture index, a methodological study was conducted. This study demonstrated that some texture parameters were redundant and that there existed a strong correlation between some of them and the metabolic volume. We have also shown that the formula and the rate of discretization impact the texture analysis and clarified the interpretation of these metrics. After the protocol of texture index computation has been established, the second part of this work was to assess the interest of these indices for the tumor characterization. We showed that some texture indices were different in tumor and in healthy tissue and could identify histological types such as the triple-negative breast tumors, the squamous cell carcinoma from adenocarcinoma in lung tumors, as well as the grade of gliomas.To understand the links between the tumor heterogeneity as measured from PET images and the biological heterogeneity of lesions, we compared the texture analysis based on different scales in a mouse model. This study revealed that the texture measured in vivo based on PET images reflects the texture measured ex vivo from autoradiographic images.
57

Quantification des processus responsables de l’accélération des glaciers émissaires par méthodes inverses / Quantifying the processes at the root of the observed acceleration of icestreams from inverse methods

Mosbeux, Cyrille 05 December 2016 (has links)
Le réchauffement climatique actuel a une conséquence directe sur la perte de masse des calottes polaires. Reproduire les mécanismes responsables de cette perte de masse et prévoir la contribution des calottes à l’élévation du niveau des océans d’ici la fin du siècle est dès lors l’un des défis majeurs de la modélisation de l’écoulement des calottes polaires. Les modèles d’écoulement permettent de réaliser de telles prévisions mais ces simulations, à court terme, sont très sensibles à leur état initial habituellement construit à partir d’observations de terrain. Malheureusement, certains paramètres comme le frottement entre la glace et le socle rocheux ainsi que la topographie basale sont souvent méconnus à cause du manque d’observations directes ou des larges incertitudes liées à ces observations. Améliorer la connaissance de ces deux paramètres à la fois pour le Groenland et l’Antarctique est donc un pré-requis pour réaliser des projections fiables. Les méthodes d’assimilation de données et les méthodes inverses permettent alors de surmonter ce problème.Cette thèse présente deux algorithmes d’assimilation de données permettant de mieux contraindre simultanément le frottement basal et la topographie basale à partir d’observations de surface. L’un des algorithmes est entièrement basé sur la méthode adjointe tandis que le second se base sur une méthode cyclique couplant l’inversion du frottement basal avec la méthode adjointe et l’inversion de la géométrie basale à l’aide de la relaxation newtonienne. Les deux algorithmes ont été implémentés dans le modèle d’écoulement de glace éléments finis Elmer/Ice et testés dans une expérience jumelle qui montre une nette amélioration de la connaissance des deux paramètres recherchés. L’application des deux algorithmes à la région de la Terre de Wilkes réduit l’incertitude liée aux conditions basales en permettant, par exemple, d’obtenir plus de détails sur la géométrie basale en comparaison avec les modèles numériques de terrain habituels. De plus la reconstruction simultanée du frottement et de la géométrie basale permet de réduire significativement les anomalies de divergence de flux habituellement obtenues lors de l’inversion du frottement seul. Nous étudions finalement l’impact des conditions basales ainsi inversées sur des simulations pronostiques afin de comparer la capacité des deux algorithmes à mieux contraindre la contribution future des calottes polaires à l’augmentation du niveau des océans. / The current global warming has direct consequences on ice-sheet mass loss. Reproducing the responsible mechanisms and forecasting the potential ice-sheets contribution to 21st century sea level rise is one of the major challenges in ice-sheet and ice flow modelling. Ice flow models are now routinely used to forecast the potential ice-sheets contribution to sea level rise. Such short term simulations are very sensitive to model initial state, usually build from field observations. However, some parameters, such as the basal friction between icesheet and bedrock as well as the basal topography, are still badly known because of a lake of direct observations or large uncertainty on measurements. Improving the knowledge of these two parameters for Greenland and Antarctica is therefore a prerequisite for making reliable projections. Data assimilation and inverse methods have been developed in order to overcome this problem. This thesis presents two different assimilation algorithms to better constrain simulaneouslybasal friction and bedrock elevation parameters using surface observations. The first algorithm is entierly based on adjoint method while the second algorithm uses a cycling method coupling inversion of basal friction with adjoint method and inversion of bedrock topography with nudging method. Both algorithms have been implemented in the finite element ice sheet and ice flow model Elmer/Ice and tested in a twin experiment showing a clear improvement of both parameters knowledge. The application of both algorithms to regions such as the Wilkes Land in Antartica reduces the uncertainty on basal conditions, for instance providing more details to the bedrock geometry when compared to usual DEM. Moreover,the reconstruction of both bedrock elevation and basal friction significantly decreases ice flux divergence anomalies when compared to classical methods where only friction is inversed. We finaly sudy the impact of such inversion on pronostic simulation in order to compare the efficiency of the two algorithms to better constrain future ice-sheet contribution to sea level rise.
58

Generic mass spectrometric workflows for mAb-related therapeutic protein quantification in pre-clinical species / Développement de nouvelles approches génériques de spectrométrie de masse pour la quantification de protéines thérapeutiques dans des études précliniques

Lanshoeft, Christian 08 December 2017 (has links)
Ce travail de thèse s’est focalisé sur le développement des approches génériques de spectrométrie de masse (MS) pour la quantification des anticorps monoclonaux (mAbs) et de leurs produits dérivés dans des études précliniques. Premièrement, le développement des protocoles de préparation d’échantillons basée sur la digestion directe à partir de sérum ou comportant une étape d’immuno-précipitation spécifique par anticorps a permis la quantification des mAbs couvrant une large gamme d'étalonnage de cinq ordres de grandeur. En outre, l'emploi de peptides provenant de la région constante du mAb a démontré la polyvalence de telles approches génériques de chromatographie liquide en tandem MS (LC-MS/MS). Deuxièmement, les instruments de MS à haute résolution (HRMS) ont étés évalués dans le cadre de cette thèse en tant qu'alternative aux spectromètres de masse de type triple quadripôle traditionnellement utilisés pour l’analyse bottom-up quantitative. L’avantage majeur de l’intégration des analyseurs de HRMS a été associé à la possibilité de l’analyse quantitative simultanée des mAbs et leurs produits associés directement au niveau de la protéine fournissant un niveau d'informations bien au-delà de celui obtenu avec des approches bottom-up. Par conséquent, l’apport essential de la HRMS pour les analyses qualitative et quantitative des protéines thérapeutiques de type mAbs et produits associés a été démontré dans cette thèse. / This PhD thesis focused on the development of generic mass spectrometry (MS)-based workflows for monoclonal antibody (mAb)-related therapeutic protein quantification in pre-clinical species. First, the development of bottom-up sample preparation protocols either based on direct serum digestion or immuno-capture allowed mAb-related therapeutic protein quantification over five orders of magnitude whereas the employment of peptides from the constant region of the mAb demonstrated the versatility of such generic liquid chromatography tandem MS (LC-MS/MS)-based approaches. Second, high-resolution MS (HRMS) instruments were evaluated as an alternative to triple quadrupole mass analyzers, traditionally utilized for bottom-up mAb quantification by LC-MS/MS. The major benefit of HRMS incorporation into the workflow was associated with the possibility to quantify simultaneously mAb-related therapeutic proteins directly at an intact level, providing an information level far beyond the one obtained with bottom-up LC-MS/MS methodologies. Hence, the pivotal role of HRMS for the qualitative and quantitative analyses of mAb-related therapeutic proteins was further outlined throughout this doctoral work.
59

Stochastic analysis, simulation and identification of hyperelastic constitutive equations / Analyse stochastique, simulation et identification de lois de comportement hyperélastiques

Staber, Brian 29 June 2018 (has links)
Le projet de thèse concerne la construction, la génération et l'identification de modèles continus stochastiques, pour des milieux hétérogènes exhibant des comportements non linéaires. Le domaine d'application principal visé est la biomécanique, notamment au travers du développement d'outils de modélisation multi-échelles et stochastiques, afin de quantifier les grandes incertitudes exhibées par les tissus mous. Deux aspects sont particulièrement mis en exergue. Le premier point a trait à la prise en compte des incertitudes en mécanique non linéaire, et leurs incidences sur les prédictions des quantités d'intérêt. Le second aspect concerne la construction, la génération (en grandes dimensions) et l'identification multi-échelle de représentations continues à partir de résultats expérimentaux limités / This work is concerned with the construction, generation and identification of stochastic continuum models, for heterogeneous materials exhibiting nonlinear behaviors. The main covered domains of applications are biomechanics, through the development of multiscale methods and stochastic models, in order to quantify the great variabilities exhibited by soft tissues. Two aspects are particularly highlighted. The first one is related to the uncertainty quantification in non linear mechanics, and its implications on the quantities of interest. The second aspect is concerned with the construction, the generation in high dimension and multiscale identification based on limited experimental data
60

Le nom fois et les expressions dérivées : étude sémantique et pragmatique dans la phrase et dans le discours / The Name Fois and Derived Expressions Semantic and Pragmatic Study in Sentence and Discurse

Guiraud, Anne-Marie 12 June 2012 (has links)
L'objectif de cette recherche est de définir les significations du N (nom) fois au travers des principales constructions qui l'utilisent en français contemporain, et d‟expliquer la formation des expressions dérivées autrefois, des fois (que), parfois, quelquefois, toutefois, une fois (que). Examiné sous l'angle du lexique, le mot fois est un substantif féminin, qui, précédé d'un déterminant, se constitue en groupe nominal (GN). Le N fois dénote un comptage d'occurrences, c'est-à-dire d'unités de discours, qui sont le plus souvent des processus verbaux ou des prédicats. Il s'agit donc d‟unités linguistiques ce qui explique que fois apparaît dans des contextes divers. Nous avons classé les principales constructions en fonction des déterminants relevés dans le GN fois. D'une part, les GN composés des adjectifs cardinaux ou quantificateurs + fois permettent de compter des occurrences du langage et ont une fonction adverbiale de quantification ; si les occurrences comptées sont des processus verbaux, ils portent en sus une notion temporelle à valeur itérative ou fréquentielle. Avec les autres déterminants (article défini et indéfini, adjectif démonstratif, quantificateurs universels tous les et chaque), fois est un nom temporel qui tend à se standardiser. Les expressions dérivées évoluent sémantiquement et produisent une forme adverbiale préalable à d'autres transformations. Nous pouvons ainsi identifier le groupe des adverbiaux de quantification, le plus ancien, qui a facilité l'apparition des expressions dérivées, et un groupe plus récent où fois apparaît comme un nom temporel au même titre que jour, instant ou moment. / We aim in this search to define the significations of N (name) fois through the main constructions using it in modern French, and to explain how it helped in forming the derived expressions autrefois, des fois (que), parfois, quelquefois, toutefois, une fois (que). From a lexical point of view, the word fois is a feminine substantive, and, built with a determiner, it forms a nominal group (NG). The N fois denotes an occurrences counting, that means discurse units counting, mostly verbal process or predicates. Therefore it concerns liunguistic units and that's why fois is used in several contexts. We organized the main constructions according to the determiner used in NG fois. Firstly, NG built with cardinal adjectives or quantifiers + fois allow counting language occurrences and function as a quantification adverb ; if the occurrences are verbal process, they bring besides a temporal notion with iterative or frequential value. With other déterminers (definite and indefinite article, demonstrative adjective, universal quantifiers tous les and chaque), fois is a temporal name on the way to standardisation. The derived expressions change semantically and come to an adverbial form prior other transformations. This concludes to identify the group of quantification adverbs, the former one, which helped the formation of derived expressions, and a newer group in which fois is a temporal name as jour, instant or moment.

Page generated in 0.3223 seconds