Spelling suggestions: "subject:"erreurs."" "subject:"horreurs.""
21 |
Exploration de la méthode adjointe pour le contrôle de l'erreur en mécanique des fluides numériqueCarrier, Alexandre 24 April 2018 (has links)
Dans ce mémoire, une approche de calcul de sensibilité utilisée dans le domaine de l'optimisation, appelée la méthode adjointe, est explorée pour estimer et contrôler efficacement l'erreur en mécanique des fluides numérique (MFN). Les développements effectués ont été greffés à Fluent, un logiciel commercial. L'erreur est calculée en effectuant le produit scalaire du vecteur d'erreur de troncature liée à chaque équation de bilan et du vecteur des variables adjointes. Ces dernières sont intrinsèquement liées à une fonctionnelle sélectionnée par l'utilisateur (le rendement, la traînée, les pertes, etc.). En adaptant le maillage avec cette estimation d'erreur, l'adaptation devient très orientée vers le but spécifique de la simulation. Les résultats obtenus montrent que la méthode adjointe permet d'identifier les régions sensibles de la simulation. En adaptant la taille, l'étirement et l'orientation des cellules du maillage en conséquence, il est alors possible d'améliorer la précision numérique ou encore de limiter la taille de maillage requise pour une précision donnée. Quoique se limitant aux cas 2-D stationnaires, les résultats obtenus laissent entrevoir que les maillages adaptés représentent une amélioration substantielle comparativement aux maillages structurés utilisés actuellement. À terme, l'intégration des techniques d'adaptation dans les processus de simulation pourrait fortement influencer les façons de faire de l'Institut de Recherche d'Hydro-Québec (IREQ) ainsi que du Laboratoire de Machines Hydrauliques (LAMH) de l'Université Laval.
|
22 |
Élaboration d'une méthode d'extraction de plans par croissance de régions dans un nuage de points bathymétriques servant à alimenter des estimateurs d'erreur hydrographiqueDupont, Vincent 23 March 2024 (has links)
En hydrographie, la bathymétrie est une technique de mesure permettant de visualiser le relief du fond de l’eau en créant un nuage de points 3D où chacun des points de sonde est géoréférencé dans un référentiel global tridimensionnel. Pour ce faire, une vedette hydrographique est équipée d’un SONAR, d’une centrale inertielle et d’un GNSS. Cependant, plusieurs sources d’incertitudes viennent altérer la qualité des points de sonde mesurés. C’est pourquoi, plusieurs efforts de recherche actuels visent l’élaboration d’estimateurs d’erreur permettant de détecter et de quantifier certaines erreurs systématiques en bathymétrie. Dans le contexte des ASV (Autonomous Surface Vehicles) ou véhicules autonomes de surface, ces estimateurs d’erreur ont pour but de rendre plus robustes les levés réalisés par ce type de véhicule, car les données acquises peuvent être validées en temps quasi-réel avant que le véhicule retourne à terre. Ceci permet d’assurer que les données respectent les spécifications demandées du levé hydrographique. Traditionnellement, de tels estimateurs d’erreur doivent être appliqués dans la zone de recouvrement d’au moins deux lignes de levé et représentant une région plane (i.e. un fond plat ou en pente). Ceci permet de vérifier la présence et la grandeur du biais de positionnement sur cette surface. Par ailleurs, de telles surfaces planes sont aussi d’intérêt pour la calibration automatique des systèmes d’acquisition bathymétrique. En effet, des plans sont nécessaires pour calculer les angles de visée entre la centrale inertielle et le sonar multifaisceaux. L’objectif de ce projet de maîtrise est d’élaborer une méthode robuste et fiable d’extraction de plans par croissance de régions dans un nuage de points bathymétriques. La solution élaborée permet d’obtenir la position et les paramètres des régions planes ainsi que leur qualité. Elle a été testée et validée avec différents jeux de données présentant une variété de morphologie du fond marin. / In hydrography, bathymetry is a measurement technique used to visualize the relief of the seabed by creating a 3D point cloud where each of the sounding points is georeferenced in a global three-dimensional reference frame. To do so, a hydrographic vessel is equipped with a SONAR, an inertial measurement unit (IMU) and a GNSS. However, several sources of uncertainty affect the quality of the measured sounding points. Therefore, current research efforts aim to develop error estimators to detect and quantify environmental and systematic bathymetric errors. In the context of Autonomous Surface Vehicles (ASVs), these error estimators aim to make the surveys more robust, since the data acquired can be validated in near real-time before the vehicle returns to the harbour. This ensures that the data meets the requested hydrographic survey specifications. Traditionally, such error estimators must be applied in the overlapping area of at least two survey lines and representing a flat region (i.e. a flat or slope bottom). On this surface, it is possible to check the presence and the magnitude of the positioning bias. Moreover, such flat surfaces are also of interest for automatic calibration of the bathymetric acquisition systems. Indeed, plans are needed to calculate the boresight angles between the inertial measurement unit and the multibeam sonar. The objective of this master’s project is to develop a robust and reliable method for extracting plans using region growing in a bathymetric point cloud. The developped solution provides the position and the parameters of the flat regions as well as their quality. It has been tested and validated with different datasets showing a variety of seabed morphology.
|
23 |
Décodage Viterbi DégénéréPelchat, Émilie January 2013 (has links)
La correction d'erreur fera partie intégrante de toute technologie d'information quantique. Diverses méthodes de correction d'erreurs quantiques ont par conséquent été élaborées pour pallier les erreurs inévitables qui proviennent de la manipulation des qubits ainsi que de leur interaction inévitable avec l'environnement. Parmi les familles de codes de correction d'erreurs se trouvent les codes convolutifs, dont l'utilité envisagée est surtout pour protéger l'information quantique envoyée à travers un canal de communication bruyant. La méthode de décodage des codes convolutifs utilise des algorithmes d'estimation d'erreur basés sur un principe de maximum de vraisemblance. L'algorithme de Viterbi permet de déterminer ce maximum de vraisemblance de façon efficace. Cette méthode permet de trouver le mot code le plus probable et ce en utilisant des outils telle décodage par trellis. De plus, cet algorithme a une complexité linéaire avec le nombre de qubits encodés. Ce mémoire porte sur l'effet de la dégénérescence sur le décodage Viterbi. La dégénérescence est une propriété de lamécanique quantique ne possédant aucun analogue classique par laquelle des corrections distinctes peuvent corriger une erreur donnée. Les versions précédentes de décodage quantique suivant l'algorithme de Viterbi étaient sous-optimales parce qu'elles ne tenaient pas compte de la dégénérescence. La réalisation principale de ce mémoire est la conception d'un algorithme de décodage de Viterbi qui tient compte des erreurs dégénérées et nous les testons par des simulations numériques. Ces simulations démontrent qu'il y a effectivement un avantage à utiliser le décodeur Viterbi qui tient compte de la dégénérescence.
|
24 |
Développement de télémètres laser de haute exactitude et de haute résolution pour applications spatialesCourde, Clément 01 February 2011 (has links) (PDF)
Si les performances des instruments d'exploration de l'Univers continuent de s'améliorer, c'est souvent au prix d'une augmentation de leurs dimensions. Pour le développement de nouveaux télescopes spatiaux, le vol en formation de satellites est une solution technique de plus en plus envisagée. La mesure absolue des distances entre satellites avec une exactitude de l'ordre de quelques dizaines de microns est alors une nécessité pour l'exploitation des données obtenues avec de tels systèmes. Elle est aussi au cœur d'expériences de physique fondamentale. Mon travail de thèse a porté sur le développement de deux télémètres, T2M et Iliade pouvant répondre à ces besoins. La difficulté dans le développement de ces deux systèmes est de concilier un grand intervalle de mesure de distances avec une grande sensibilité tout en gardant une certaine simplicité et ainsi permettre que ces instruments puissent être embarqués. La performance visée est une mesure de distance de l'ordre du kilomètre exacte à mieux d'un micron. La différence entre T2M et Iliade réside dans leurs conceptions mais aussi dans leurs complexités et les performances visées en termes de résolution. Le télémètre T2M exploite la différence de phase d'une onde modulée en amplitude séparée entre une voie de mesure et une voie de référence. La résolution visée avec ce système est la dizaine de nanomètres. Ce système est capable d'atteindre une grande exactitude du fait que la mesure de distance est déduite d'une mesure de fréquence. Les problèmes d'erreurs cycliques inhérentes à l'utilisation de ce type de techniques sont éliminés par un système d'aiguillage optique permettant d'échanger les faisceaux propres aux deux voies de télémétrie en regard des deux voies de détection. Après la stabilisation du battement de fréquences des deux lasers, mon travail a porté sur l'amélioration de la résolution et sur l'élimination des diverses sources d'erreurs affectant l'exactitude. Les objectifs fixés semblent être atteints et les résultats obtenus sont très encourageants pour les futurs tests et développements à réaliser. Le télémètre Iliade combine une mesure de temps de vol d'impulsions laser et une mesure interférométrique à deux longueurs d'onde. Au prix d'une sophistication un peu plus importante que T2M, la résolution visée est inférieure au nanomètre. La caractérisation de la source d'impulsions d'Iliade présentant un taux de répétition de 20 GHz, a permis de montrer que la gigue temporelle de 65 fs à sa sortie est principalement due au bruit de phase du battement initial de deux lasers monomodes. J'ai travaillé sur une cavité Fabry Perot fibrée pour pré-stabiliser le rayonnement d'un laser monomode. J'ai démontré une technique permettant d'obtenir un signal d'erreur de type dispersif, sans recourir à une modulation. Enfin j'ai étudié une méthode numérique basée sur l'analyse harmonique permettant d'assurer une mesure de différence de phase avec une exactitude de 10-5 radian. Le télémètre Iliade est actuellement en cours de développement.
|
25 |
Contribution à l'étude des erreurs d'arrondi en arithmétique à virgule flottantePichat, Michèle 01 January 1976 (has links) (PDF)
.
|
26 |
Probabilistic Models of Partial Order Enforcement in Distributed Systems / Modèles probabilistes d’ordonnancement partiel pour les systèmes distribuésMartori Adrian, Jordi 12 June 2017 (has links)
Les systèmes distribués ont réussi à étendre la technologie de l’information à un public plus large, en termes d’emplacement et de nombre. Cependant, ces systèmes géo-répliqués doivent être évolutifs afin de répondre aux demandes toujours croissantes. De plus, le système doit pouvoir traiter les messages dans un ordre équivalent à celui de leur création afin d’éviter des effets indésirables. L’exécution suivant des ordres partiels fournit un ordonnancement d’événements que tous les nœuds suivront, ce qui permet donc le traitement des messages dans un ordre adéquat. Un système qui applique un ordre partiel simplifie le développement des applications distribuées et s’assure que l’utilisateur final n’observera pas des comportements défiant la causalité. Dans cette thèse, nous présentons des modèles statistiques pour différentes contraintes d’ordre partiel, en utilisant différentes distributions de modèles de latence. Étant donné un modèle de latence, qui donne le temps qu’il faut pour qu’un message passe d’un nœud à un autre, notre modèle s’appuie sur lui pour donner le temps supplémentaire qu’il faut pour appliquer un ordre partiel spécifique. Nous avons proposé les modèles suivants. Tout d’abord, dans une communication entre un et plusieurs nœuds, la probabilité que le message soit délivré dans tous les nœuds avant un temps donné. Deuxièmement, après la réception d’un message, la probabilité que tous les autres nœuds aient exécuté ce message avant temps donné. Troisièmement, dans une communication de un à plusieurs nœuds, la probabilité que le message soit arrivé à au moins un sous-ensemble d’entre eux avant un temps donné. Quatrièmement, l’ordre FIFO ou causal qui détermine si un message est prêt à être livré, dans un nœud ou plusieurs. Tout cela favorise la compréhension du comportement des systèmes distribués en présence d’ordres partiels. En outre, en utilisant cette connaissance, nous avons construit un algorithme qui utilise ces modèles de comportement du réseau pour établir un système de livraison causal fiable. Afin de valider nos modèles, nous avons développé un outil de simulation qui permet d’exécuter des scénarios adaptés à nos besoins. Nous pouvons définir les différents paramètres du modèle de latence, le nombre de clients et les charges de travail des clients. Cette simulation nous permet de comparer les valeurs générées de façon aléatoire pour chaque configuration spécifique avec les résultats prévus de notre modèle. Une des applications qui peuvent tirer profit de notre modèle, est un algorithme de livraison causale fiable. Il utilise l’information causale pour détecter les éléments manquants et réduit le besoin d’acquittement de message en contactant d’autres répliques seulement lorsque le message est supposé manquant. Cette information est fournie par notre modèle, qui définit les temporisateurs d’attente en fonction des statistiques du réseau et de la consommation des ressources. Enfin, cette application a été testée dans le même simulateur que les modèles, avec des résultats prometteurs, puis évaluée dans une expérience réelle utilisant Amazon EC2 comme plate-forme / Distributed systems have managed to extend technology to a broader audience, in both terms of location and numbers. However these geo-replicated systems need to be scalable in order to meet the ever growing demands. Moreover, the system has to be able to process messages in an equivalent order that they were created to avoid unwanted side effects. Partial order enforcement provides an ordering of events that all nodes will follow therefore processing the messages in an adequate order. A system that enforces a partial order simplifies the challenge of developing distributed applications, and ensures that the end-user will not observe causality defying behaviors. In this thesis we present models for different partial order enforcements, using different latency model distributions. While a latency model, which yields the time it takes for a message to go from one node to another, our model builds on it to give the additional time that it takes to enforce a given partial order. We have proposed the following models. First, in a one to many nodes communication, the probability for the message to be delivered in all the nodes before a given time. Second, in a one to many nodes communication from the receivers, the probability that all the other nodes have delivered the message after a given time of him receiving it. Third, in a one to many nodes communication, the probability that the message has arrived to at least a subset of them before a given time. Fourth, applying either FIFO or Causal ordering determining if a message is ready for being delivered, in one node or many. All of this furthers the understanding of how distributed systems with partial orders behave. Furthermore using this knowledge we have built an algorithm that uses the insight of network behavior to provide a reliable causal delivery system. In order to validate our models, we developed a simulation tool that allows to run scenarios tailored to our needs. We can define the different parameters of the latency model, the number of clients, and the clients workloads. This simulation allows us to compare the randomly generated values for each specific configuration with the predicted outcome from our model. One of the applications that can take advantage of our model, is a reliable causal delivery algorithm. It uses causal information to detect missing elements and removes the need of message acknowledgment by contacting other replicas only when the message is assumed missing. This information is provided by our model, that defines waiting timers according to the network statistics and resource consumption. Finally this application has been both tested in the same simulator as the models, with promising results, and then evaluated in a real-life experiment using Amazon EC2 for the platform
|
27 |
Contrôle des performances et conciliation d’erreurs dans les décodeurs d’image / Performance monitoring and errors reconciliation in image decodersTakam tchendjou, Ghislain 12 December 2018 (has links)
Cette thèse porte sur le développement et l’implémentation des algorithmes de détection et de correction des erreurs dans les images, en vue de contrôler la qualité des images produites en sortie des décodeurs numériques. Pour atteindre les objectifs visés dans cette étude, nous avons commencé par faire l’état de lieu de l’existant. L’examen critique des approches en usage a justifié la construction d’un ensemble de méthodes objectives d’évaluation de la qualité visuelle des images, basées sur des méthodes d’apprentissage automatique. Ces algorithmes prennent en entrées un ensemble de caractéristiques ou de métriques extraites des images. En fonction de ces caractéristiques, et de la disponibilité ou non d’une image de référence, deux sortes de mesures objectives ont été élaborées : la première basée sur des métriques avec référence, et la seconde basée sur des métriques sans référence ; toutes les deux à distorsions non spécifiques. En plus de ces méthodes d’évaluation objective, une méthode d’évaluation et d’amélioration de la qualité des images basée sur la détection et la correction des pixels défectueux dans les images a été mise en œuvre. Les applications ont contribué à affiner aussi bien les méthodes d’évaluation de la qualité visuelle des images que la construction des algorithmes objectifs de détection et de correction des pixels défectueux par rapport aux diverses méthodes actuellement en usage. Une implémentation sur cartes FPGA des techniques développées a été réalisée pour intégrer les modèles présentant les meilleures performances dans de la phase de simulation. / This thesis deals with the development and implementation of error detection and correction algorithms in images, in order to control the quality of produced images at the output of digital decoders. To achieve the objectives of this work, we first study the state-of the-art of the existing approaches. Examination of classically used approaches justified the study of a set of objective methods for evaluating the visual quality of images, based on machine learning methods. These algorithms take as inputs a set of characteristics or metrics extracted from the images. Depending on the characteristics extracted from the images, and the availability or not of a reference image, two kinds of objective evaluation methods have been developed: the first based on full reference metrics, and the second based on no-reference metrics; both of them with non-specific distortions. In addition to these objective evaluation methods, a method of evaluating and improving the quality of the images based on the detection and correction of the defective pixels in the images has been implemented. The proposed results have contributed to refining visual image quality assessment methods as well as the construction of objective algorithms for detecting and correcting defective pixels compared to the various currently used methods. An implementation on an FPGA has been carried out to integrate the models with the best performances during the simulation phase.
|
28 |
Inhibition, motivation et prédiction : La tâche de stop modifiée par paliers de récompense comme modèle expérimental / Inhibition, motivation and prediction : the stop signal task modified by reward levels as experimental modelHerrera Gomez, Paula Marcela 01 June 2015 (has links)
L’inhibition cognitive est considérée comme un élément clé dans l'ensemble des fonctions exécutives. La motivation est reconnue comme un facteur déterminant dans la modulation de l'inhibition. Cependant, plusieurs aspects neurocognitifs et neurophysiologiques de ces contributions restent encore inconnus.La tâche de Signal de Stop est employée comme modèle expérimental fiable dans l'exploration des soubassements comportementaux et neurobiologiques de l'inhibition.Dans le présent travail de thèse, j'ai procédé à l'application de plusieurs protocoles expérimentaux sur la base de la tâche de Signal de Stop, modifiés par l'introduction de diverses manipulations de motivation : soit un smiley, soit une récompense monétaire faible ou forte. Lors de la deuxième partie de mon travail, j'ai exploré la dimension de l'amorçage conscient ou inconscient de la magnitude de la récompense. Les résultats suggèrent que les processus d'inhibition sont modulés, non seulement par les magnitudes de la récompense proposée, mais aussi par l'expectative de la récompense. Ces observations s'accordent bien avec la théorie du codage prédictif du cerveau, basée sur un système de prédiction bayésienne où les ajustements comportementaux se font sur les expectatives et générés par accumulation d'informations au préalable. Une nouvelle hypothèse a été suggérée : le "kick start effect", induit par la présence d'une forte récompense initiale.Les aspects développementaux de l'inhibition et de la motivation ont été explorés par l'application d'un protocole chez un groupe d’enfants contrôle. Toutes les données EEG feront parti d'un travail post-doctoral, pour l'obtention des Potentiels Évoqués Cognitifs. / Cognitive inhibition is considered as a key element in all executive functions of the human body. Motivation is recognized as an essential factor in the modulation of inhibition, although several neurocognitive and neurophysiological aspects of these contributions remain unknown.The “Stop signal task” is used as a reliable experimental model in the exploration of behavioural and neurobiological underpinnings of inhibition. I have conducted several experimental protocols based on the Stop Signal Task, which have been modified by the introduction of various levels of reward cues, be it a smiley or a monetary reward. In the second part of my work, I have explored the priming effect of the reward instruction through two experimental protocols. These observations fit well with the brain's predictive coding theory, based on a Bayesian prediction system where behavioural adjustments are made on the expectations and generated from the base of information previously acquired. Moreover, the order of presentation of rewards comes out to be determinant on the adjustment of the inhibition strategies. These observations have suggested a new hypothesis: the "kick start effect". An immediate and salient inhibition improvement is observed when subjects were exposed to the highest reward at the beginning of the task.Furthermore, the developmental aspect of inhibition and motivation was explored by the application of a protocol applied on a group of normal children, and being compared to previous data obtained on a similar protocol applied on adults.EEG recordings obtained during my PhD work will serve to analyse Event-related Potentials, as part of a postdoctoral work.
|
29 |
Les influences de la langue maternelle (l'arabe) sur l'apprentissage du français en Lybie : étude analytique et descriptive des productions écrites des apprenants Libyens / "The influences of the mother tongue (Arabic) on the learning of French in Libya : An analytical and descriptive study of Lybian learners ' written productions."Issa, Mansour 16 December 2017 (has links)
Résumé Cette étude s’intéresse aux influences de la langue maternelle (l’arabe), sur l’apprentissage du français chez les apprenants libyens dans un milieu institutionnel : le département de français à l’université de Benghazi et de Tripoli en Libye. Elle se penche sur les erreurs morphosyntaxiques en productions écrites que commettent les apprenants libyens en français langue étrangère, et sur les difficultés interlinguales dont souffrent ces apprenants. L’objectif de cette étude, c’est d’identifier et de classer les erreurs commises par les étudiants libyens dans leurs productions écrites, puis d’étudier et d’analyser les causes de celles-ci, afin de chercher des procédures pour les corriger. Elle vise à amener une réflexion sur l’enseignement de la langue française en Libye et sur les possibilités d’améliorer quelques-unes des démarches d’enseignement utilisées au sein de ces départements de français. Elle vise aussi à proposer une analyse des différents aspects de l’enseignement du français langue étrangère qui peuvent être transposés dans le cadre libyen, à proposer des idées pédagogiques, et à aborder enfin les différentes théories en relation avec cet enseignement. Pour atteindre ces objectifs, nous avons tout d’abord retracé l’évolution de l’enseignement de la langue française en Libye. Ensuite, nous avons abordé quelques notions ayant une importance remarquable dans notre travail d’étude. Nous avons abordé dans un second temps différents points de vue concernant certaines études réalisées en apprentissage (ou acquisition) d’une langue étrangère. Par la suite, nous avons examiné les fonctionnements morphosyntaxiques opératoires de certains constituants des phrases en arabe en comparant avec le français. Nous avons présenté notre corpus, les modalités de classements et certaines des erreurs relevées dans les copies des apprenants. Enfin, et grâce aux résultats livrés par cette analyse, nous avons été amené à présenter quelques perspectives et propositions didactiques qui peuvent être utiles à l’enseignement de la langue française en Libye, et à ouvrir des possibilités pour l’amélioration des démarches d’enseignement utilisées dans ce pays. / Abstract This study investigates the influence of native language (Arabic) on the learning of French among Libyan learners in an institutional setting : the French department at the University of Benghazi and Tripoli in Libya. It examines the morphosyntactic errors the learners commit in their written productions, and the interlingual difficulties they face. The purpose of this study is to identify and classify those errors, and to investigate their causes so as to offer procedures to correct them. The study aims to bring a reflection on the teaching of French in Libya and the opportunities to improve some of the teaching approaches that are used in the departments of French language. It also aims to discuss or present a number of strategies in teaching French as a foreign language that could be implemented in the Libyan context, and to address various theories linked to this teaching. To achieve these goals, we first traced the evolution of the teaching of French language in Libya. Then we discussed a number of concepts of major significance for our study. We discussed in a second time different views on certain studies in learning (or acquisition) of a foreign language. Next, we examined the morphosyntactic characteristics of some linguistic features of Arabic in comparison with French. We presented our corpus, our ranking methods, and the errors identified in the learners’ submissions. Following the conclusions drawn from the latter analysis, we presented some didactic strategies that may be useful for the teaching of French language in Libya or that may add new perspectives to existing approaches.
|
30 |
Régression sur variable fonctionnelle: Estimation, tests de structure et Applications.Delsol, Laurent 17 June 2008 (has links) (PDF)
Au cours des dernières années, la branche de la statistique consacrée à l'étude de variables fonctionnelles a connu un réel essor tant en terme de développements théoriques que de diversification des domaines d'application. Nous nous intéressons plus particulièrement dans ce mémoire à des modèles de régression dans lesquels la variable réponse est réelle tandis que la variable explicative est fonctionnelle, c'est à dire à valeurs dans un espace de dimension infinie. Les résultats que nous énonçons sont liés aux propriétés asymptotiques de l'estimateur à noyau généralisé au cas d'une variable explicative fonctionnelle. Nous supposons pour commencer que l'échantillon que nous étudions est constitué de variables α-mélangeantes et que le modèle de régression est de nature nonparamétrique. Nous établissons la normalité asymptotique de notre estimateur et donnons l'expression explicite des termes asymptotiquement dominants du biais et de la variance. Une conséquence directe de ce résultat est la construction d'intervalles de confiance asymptotiques ponctuels dont nous étudions les propriétés aux travers de simulations et que nous appliquons sur des données liées à l'étude du courant marin El Niño. On établit également à partir du résultat de normalité asymptotique et d'un résultat d'uniforme intégrabilité l'expression explicite des termes asymptotiquement dominants des moments centrés et des erreurs Lp de notre estimateur. Nous considérons ensuite le problème des tests de structure en régression sur variable fonctionnelle et supposons maintenant que l'échantillon est composé de variables indépendantes. Nous construisons une statistique de test basée sur la comparaison de l'estimateur à noyau et d'un estimateur plus particulier dépendant de l'hypothèse nulle à tester. Nous obtenons la normalité asymptotique de notre statistique de test sous l'hypothèse nulle ainsi que sa divergence sous l'alternative. Les conditions générales sous lesquelles notre résultat est établi permettent l'utilisation de notre statistique pour construire des tests de structure innovants permettant de tester si l'opérateur de régression est de forme linéaire, à indice simple, . . . Différentes procédures de rééchantillonnage sont proposées et comparées au travers de diverses simulations. Nos méthodes sont enfin appliquées dans le cadre de tests de non effet à deux jeux de données spectrométriques.
|
Page generated in 0.0407 seconds