• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 101
  • 43
  • 20
  • 1
  • Tagged with
  • 170
  • 62
  • 40
  • 30
  • 25
  • 24
  • 21
  • 20
  • 19
  • 18
  • 16
  • 16
  • 15
  • 14
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Analyse et synthèse de l'implémentation de lois de contrôle-commande en précision finie<br />- Étude dans le cadre des applications automobiles sur calculateur embarquée -

Hilaire, Thibault 08 June 2006 (has links) (PDF)
Cette thèse CIFRE, réalisée en collaboration industrielle entre l'IRCCyN et PSA Peugeot-Citroën, s'intéresse à l'aspect numérique de l'implémentation, au sein de calculateurs embarqués, de lois de contrôle/commande.<br /> <br />Ces travaux ont porté sur l'implémentation de lois de contrôle-commande (provenant de l'automatique ou du traitement du signal) sous les contraintes de précision finie.<br />Le processus d'implémentation amène de nombreuses dégradations de la loi et nous nous intéressons plus particulièrement à la quantification des coefficients intervenant dans les calculs.<br /><br />Pour une loi (filtre ou régulateur) donnée, il existe une infinité de réalisations numériques possibles qui, bien que mathématiquement équivalentes, ne le sont plus en précision finie : de nombreuses réalisations équivalentes existent : forme d'état, réalisations en delta, formes directes, structures retour d'état observateur, décompositions en cascade, en parallèle, ...<br /><br />Après avoir présenté ces différentes possibilités, ce mémoire de thèse, propose un formalisme mathématique — la forme implicite spécialisée —qui permet de décrire de manière unifiée un ensemble élargi d'implémentations. Celui-ci, bien que macroscopique, permet d'exprimer précisément les calculs à réaliser et les paramètres réellement mis en jeu. Différentes mesures, appliquées à ce formalisme et qui permettent d'évaluer l'impact de la quantification (en virgule fixe et virgule flottante) et d'analyser la dégradation induite, sont ensuite proposées.<br />Via un problème d'optimisation, la réalisation qui présente la meilleure robustesse face aux détériorations induites par les processus d'implémentation en précision finie est trouvée.
52

Interférométrie atomique avec l'atome de lithium : Réalisation d'un interféromètre présentant un contraste et un flux élevés en vue de mesures de précision

Delhuille, Rémi 16 December 2002 (has links) (PDF)
Cette thèse décrit la réalisation d'un interféromètre atomique de Mach-Zehnder utilisant le lithium. Cet appareil est constitué de trois réseaux de diffraction formés d'ondes stationnaires laser, quasi-résonantes avec la première transition de résonance du lithium. Le processus de diffraction utilise le régime de Bragg, pour lequel un seul ordre de diffraction est autorisé, et il s'agit d'une diffraction élastique qui conserve l'énergie cinétique de l'atome, modifie son impulsion, sans changement de son état interne. Grâce à une importante collimation du jet atomique qui sert de source, les deux chemins atomiques qui interfèrent sont spatialement séparés, ce qui permettra d'introduire une perturbation sur un seul des deux chemins atomiques. Les premières figures d'interférences obtenues avec cet appareil sont présentées dans cette thèse. Ces résultats permettent d'attendre une très grande sensibilité en phase de l'interféromètre car les franges enregistrées sont très contrastées et le flux moyen est assez élevé. On trouvera, dans la première partie de cette thèse, une introduction historique présentant les avancées faites dans le domaine de la manipulation des atomes par la lumière et plus particulièrement en interférométrie atomique. Après une discussion théorique des principes mis en jeu dans cet interféromètre, le montage expérimental est décrit en détail, avec une attention particulière portée au fonctionnement du détecteur. Ensuite, les résultats des premières expériences sont présentés et analysés. Enfin, trois mesures prévues avec cet appareil sont discutées : la mesure de l'indice de réfraction d'un gaz pour une onde atomique, celle de la polarisabilité électrique statique du lithium et un test de la neutralité des atomes de lithium.
53

Sur certains problèmes de commande et d'observation pour des tables de positionnement de haute précision

Malaizé, Jérémy 20 December 2007 (has links) (PDF)
On s'intéresse au positionnement haute précision des moteurs synchrones sans balai dans l'industrie du semi-conducteur. On conçoit un algorithme d'initialisation et des correcteurs pour le rejet de perturbations spécifiques. L'initialisation consiste à estimer la phase initiale du champ magnétique. Seules des mesures de déplacement sont accessibles. Les paramètres du moteur (gain, charge et frottements) sont inconnus. On adopte un modèle à second membre discontinu dû aux frottements. La phase initiale s'obtient en fonction de l'amplitude des déplacements pendant l'initialisation. On se base sur une classification des orbites périodiques du modèle à second membre discontinu. On compare expérimentalement cette méthode à une solution implémentable dans les mêmes conditions. On étudie alors le rejet de perturbations, périodiques en fonction de la position, qui dégradent la précision du suivi de trajectoires. On formule des conditions pour qu'un contrôleur linéaire rejette entièrement ces perturbations non linéaires. On assure la convergence asymptotique globale de l'erreur de suivi vers zéro grâce à une analyse de perturbations régulières basée sur les polynômes de Bell de seconde espèce. On construit un observateur linéaire basé sur des mesures de position pour le rejet de ces perturbations. Il est obtenu en évaluant les perturbations le long des trajectoires de référence, et non le long de celles effectives du système. Les gains de l'observateur sont réglés par optimisations sous contraintes LMI, réalisées hors ligne, et peu de calculs sont nécessaires en ligne. On illustre expérimentalement notre méthode, via l'annulation du cogging et des erreurs d'interpolation.
54

Intégration numérique avec erreur bornée en précision arbitraire

Fousse, Laurent 04 December 2006 (has links) (PDF)
L'intégration numérique est une opération fréquemment disponible et utilisée dans les systèmes de calcul numérique. Nous nous intéressons dans ce mémoire à la maîtrise des erreurs commises lors d'un calcul numérique d'intégrale réelle à une dimension dans le contexte de la précision arbitraire pour les deux méthodes d'intégration que sont Newton-Cotes et Gauss-Legendre. Du point de vue algorithmique nous proposons pour chacune des méthodes une procédure de calcul avec une borne effective sur l'erreur totale commise. Dans le cadre de l'étude de la méthode de Gauss-Legendre nous avons étudié les algorithmes connus de raffinement de racines réelles d'un polynôme (la méthode de la sécante, l'itération de Newton, la dichotomie), et nous en avons proposé des heuristiques explicites permettant de s'assurer en pratique de la convergence. Les algorithmes proposés ont été implémentés dans une bibliothèque d'intégration numérique baptisée «Correctly Rounded Quadrature» (CRQ) disponible à l'adresse http://komite.net/laurent/soft/crq/. Nous comparons CRQ avec d'autres logiciels d'intégration dans ce mémoire.
55

Méthodes robustes en vision : application aux appariements visuels

Lan, Zhong-Dan 01 May 1997 (has links) (PDF)
Cette thèse est consacrée au problème d'appariement visuel. Les problèmes de la robustesse et la précision sont considérés. Le problème des occultations partielles est traité à l'aide de la statistique robuste. Deux méthodes sont décrites. Une basée sur la régression robuste, et une autre basée sur la localisation robuste. Des expérimentations valident ces deux méthodes. Le problème de l'appariement précise est aussi considéré. Basé sur l'hypothèse de régularité locale, le décalage local peut être estimé à l'aide d'un masque de convolution entre deux fenêtres d'images sous une translation. Pour le cas non translationnel, une estimation de déformation des fenêtres d'images est faite de manière robuste, suivi d'une estimation de décalage local. Des expérimentations valident cette méthode d'appariement précis. Appariement visuel, étant un problème majeur en vision, est loin d'être résolu. Nous espérons que ce mémoire apporte des contributions à ce problème difficile.
56

Autogestion et représentation graphique des progrès des élèves dans un contexte de didactique de précision

Legault, Anick 03 1900 (has links) (PDF)
Récemment, sous forme de chapitres de livres, d'articles scientifiques et de programmes de congrès de l'Association for Behavior Analysis International, l'enseignement direct et la didactique de précision sont davantage mentionnés par de nombreux auteurs, autant dans les domaines de la psychologie, de l'éducation que de l'analyse appliquée du comportement. Cette thèse doctorale s'intéresse à l'autogestion des apprentissages scolaires, plus précisément aux effets de l'auto-inscription graphique sur la fluidité en lecture à l'aide de la didactique de précision et aux nombreux graphiques standards et alternatifs permettant l'auto-inscription graphique. Deux articles sont présentés et répondent ensemble à ces champs d'intérêts principaux. Le premier article présente une recension des écrits scientifiques sur l'autogestion des apprentissages plus précisément sur l'auto-inscription graphique. Le but de cette recension est de créer un inventaire des graphiques utilisés en éducation, plus distinctement en didactique de précision. L'accent est mis sur l'auto-inscription graphique du rendement scolaire et sur les nombreux avantages d'une telle pratique comme le sentiment de confiance en soi et l'amélioration du rendement scolaire des élèves. Bien que l'accent soit mis sur la didactique de précision, les méthodes de l'Enseignement Direct et du Curriculum-based Measurement sont brièvement décrites et examinées, car elles utilisent toutes les deux des graphiques en milieux éducationnels. Malgré le fait que la didactique de précision a été utilisée en éducation et en analyse appliquée du comportement depuis les 40 dernières années, aucune analyse critique des graphiques en didactique de précision, incluant les graphiques standards et ceux qui sont dits alternatifs, autant papiers qu'informatisés, n'a été publiée à ce jour. Cet inventaire critique est impératif en permettant à la fois des praticiens et des chercheurs intéressés par le suivi et la modification des comportements d'acquérir des connaissances sur les différents graphiques disponibles, et pour évaluer leurs avantages et inconvénients respectifs. En outre, un intérêt marqué pour les graphiques informatisés et l'apparition de nouveaux graphiques alternatifs dans le monde de la didactique de précision ravive l'intérêt pour celle-ci et l'auto-inscription graphique. Finalement, une analyse comparative détaillée des caractéristiques et avantages des graphiques papiers et informatisés a suggéré la supériorité des graphiques et procédures informatisés. Le deuxième article présente les résultats d'une étude empirique sur une intervention d'autogestion, plus précisément sur les effets de l'auto-inscription graphique sur la fluidité en lecture de phonèmes francophones à l'aide de l'Enseignement Direct, de la didactique de précision et des procédures prescrites par ce type d'enseignement. Dans un cours de français comme langue seconde, 63 élèves de septième et huitième année ont inscrit leurs résultats en lecture chronométrées pendant 13 semaines. L'auto-inscription graphique a été notée à l'aide d'un graphique papier alternatif de la didactique de précision, le Standard Alternate Celeration Chart, provenant du graphique standard de la didactique de précision, le Standard Celeration Chart, graphique couramment utilisé dans ce domaine. Le premier objectif de recherche vise à examiner les effets de l'auto-inscription graphique régulière et moléculaire sur la fluidité en lecture de phonèmes francophones par des élèves typiques. Le deuxième objectif de recherche est de comparer les effets de l'auto-inscription graphique sur la fluidité en lecture des élèves typiques qui présentent un faible rendement scolaire de ceux qui présentent un rendement scolaire plus élevé. L'étude se veut inductive et utilise quatre niveaux de base multiples, répartis en fonction des quatre classes de français comme langue seconde. Malgré les résultats des analyses de la didactique de précision (i.e., les droites de régressions linéaires, appelées célérations) indiquant de faibles coefficients de célération en niveaux de base et durant la phase de traitement, les analyses statistiques classiques (i.e., ANOVA et effets simples) indiquent que les élèves lisent de façon plus fluide les phonèmes francophones durant la phase de traitement plutôt qu'en niveau de base. Ceci indique que l'étude sur l'auto-inscription graphique à l'aide du Standard Alternate Celeration Chart a permis d'observer un effet positif général sur la fluidité en lecture des élèves en analysant les moyennes de rendement en lecture de phonèmes francophones des élèves, mais non en analysant les pentes de célération. La comparaison des élèves typiques suivant une division post-hoc en groupes de rendement scolaire faible vs élevé montre que les moyennes des élèves du groupe à rendement scolaire faible sont plus basses durant le niveau de base et durant la phase de traitement que celles des élèves à rendement scolaire plus élevé. Cependant, la comparaison de l'amélioration de la fluidité en lecture des premiers est de près de deux fois plus élevée que celle des derniers. Ceci suggère que les élèves à rendement plus faible ont bénéficié d'un enseignement explicite tel qu'offert par la didactique de précision et l'Enseignement Direct. Ces résultats sont en accord avec ceux qui sont rapportés par les écrits scientifiques en Enseignement Direct. Des explications concernant ces résultats sont offertes dans la section discussion. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : didactique de précision, Enseignement Direct, autonotation, auto-inscription graphique, graphique informatisé, graphique alternatif, rendement scolaire
57

Contributions à l'Arithmétique des Ordinateurs : Vers une Maîtrise de la Précision

Daumas, Marc 12 January 1996 (has links) (PDF)
Depuis l'apparition des premiers ordinateurs, l'arithmétique flottante a énormément évolué. La norme IEEE 754 a permis de fixer les caractéristiques de l'arithmétique des ordinateurs modernes, mais les scientifiques perdent de plus en plus vite le contrôle de la validité de leurs calculs. Malgré l'énorme travail associé à la définition des opérations, la validation des calculs ne peut toujours pas être assurée de façon certaine par l'arithmétique implantée sur les ordinateurs. Je présente dans la première partie de cette étude deux prolongements qui visent à augmenter la marge de validité des opérations : un nouveau mode d'arrondi pour les fonctions trigonométriques et un codage efficace des intervalles accessible facilement à l'utilisateur. Je présente aussi dans cette partie une étude détaillée de la fonction unit in the last place et la probabilité d'absorption ou de propagation des erreurs dans une chaîne de multiplication. Ces travaux, qui viennent s'ajouter aux travaux antérieurs d'autres équipes de recherche et aux solutions que j'ai proposées dans ma thèse de master montrent les bénéfices que l'on pourra tirer des deux extensions présentées. L'arithmétique en-ligne permet de gérer efficacement les problèmes de précision, mais les opérateurs élémentaires utilisés sont peu adaptés aux architectures modernes de 32 ou 64 bits. L'implantation efficace d'un opérateur en-ligne ne peut que passer par la description d'un circuit de bas niveau. Les prédiffusés actifs, terme français utilisé pour Field Programmable Gate Array, sont des composants spéciaux programmables au niveau des portes logiques. Ils permettent d'abaisser les coûts de production en évitant de fabriquer un prototype. Nous avons implanté grâce à ces technologies les opérateurs simples de calcul en-ligne : addition, normalisation, etc...Le Noyau Arithmétique de Calcul En-Ligne (Nacel) décrit dans ce mémoire permet d'implanter les opérations arithmétiques usuelles telles que la multiplication, la division, l'extraction de racine carrée et les fonctions élémentaires trigonométriques et hyperboliques par une approximation polynômiale. Les architectures à flots de données sont insensibles aux difficultés sur lesquelles butent les concepteurs des ordinateurs modernes : temps d'accès à la mémoire, latence de communication, occupation partielle du pipeline d'instructions. Je décris dans ce document le mode de fonctionnement d'une machine virtuelle appelée Petite Unité de Calcul En-ligne (Puce). Par une gestion adaptée des étiquettes inspirée pour le contrôle des données de celle utilisée par la Manchester Data Flow Machine, Puce reproduit le comportement complet d'une machine à flot de données. Elle comprend de plus les opérations en-ligne de calcul scientifique. Nous présentons afin de valider le modèle d'évaluation de Puce les résultats de simulations logicielles pour une ou plusieurs unités fonctionnelles.
58

EXTRACTION ET CARACTERISATION DES VIGNES A PARTIR DE DONNEES DE TELEDETECTION A TRES HAUTE RESOLUTION SPATIALE. APPLICATION EN LANGUEDOC-ROUSSILLON POUR LA CONSTITUTION DE BASES DE DONNEES GEOGRAPHIQUES.

Delenne, Carole 24 November 2006 (has links) (PDF)
Cette thèse propose de répondre, par l'analyse d'images aériennes à très haute résolution spatiale, aux besoins en information des gestionnaires de territoires viticoles. Les méthodes développées pour la détection des parcelles sont basées sur la reconnaissance de structures spatiales orientées et périodiques. Une analyse fréquentielle permet la segmentation des parcelles en polygones ainsi qu'une caractérisation précise de l'orientation des rangs et de la distance interrang. Ces caractéristiques permettent ensuite l'extraction et l'étude détaillée de chaque rang de vigne, avec pour objectifs 1) d'améliorer le contour des parcelles segmentées, 2) de détecter les pieds manquants et 3) de caractériser les interrangs. Ces travaux de thèse ont permis de répondre à l'essentiel de la demande des utilisateurs par la mise en place d'un processus automatique de détection, segmentation et caractérisation de la vigne.
59

Formalisation et qualification de modèles par contraintes en conception préliminaire

Vernat, Yoann 11 1900 (has links) (PDF)
La conception architecturale constitue une étape complexe du développement d'un produit, car elle implique: (i) une prise de décision dans un contexte où les données du problème sont mal définies ou imprécises, (ii) une exploration de l'espace des solutions qui doit rester aussi large que possible, (iii) des choix de conception basés sur des variables continues ou discrètes, et (iv) une optimisation multidisciplinaire. Ainsi, les modèles de simulation classiquement utilisés en conception sont souvent mal adaptés à une réelle prise de décision: certains modèles sont trop simples, les choix sont alors entachés d'erreur de modélisation, d'autres sont trop spécialisés et certaines solutions risquent d'être ignorées. Nous proposons dans cette étude une approche de la formalisation de modèles plus adaptée à la prise de décision en conception architecturale. Cette méthodologie vise à obtenir des modèles à la fois parcimonieux et exacts. Ainsi, les modèles sont plus faciles à exploiter en conception préliminaire et cohérents avec les attentes du concepteur. La méthode développée repose sur: (i) une approche globale basée sur la décomposition fonctionnelle pour conserver une cohérence entre les modèles des différents composants, (ii) l'utilisation de quatre critères de qualification des modèles permettant de s'assurer de leur adéquation avec les objectifs de la conception préliminaire, (iii) l'utilisation des techniques d'adaptation de modèles, permettant de faire des choix de conception à l'aide de solveurs de Problèmes par Satisfaction de Contraintes (PSC). Les quatre critères de qualification utilisés sont: (i) la parcimonie du modèle, liée au nombre minimal de variables et d'équations décrivant correctement le comportement du système, (ii) l'exactitude du modèle, estimant l'adéquation entre les résultats du modèle et des résultats issus d'un modèle de référence, (iii) la précision du modèle, évaluant l'étendue du domaine de variation de chaque variable, due à un manque de connaissance ou à une incertitude et (iv) la spécialisation du modèle, qui est une mesure de la restriction du domaine d'application du modèle, relativement à la quantité d'information introduite dans le modèle. Les quatre critères retenus sont pertinents de la conception préliminaire dans la mesure où: la parcimonie assure la simplicité du modèle, la spécialisation contribue à définir l'étendue du domaine d'application du modèle, et donc les limites de l'espace de conception, enfin, l'exactitude et la précision donnent une mesure de la fidélité du modèle à la réalité. Utilisés au cours de la méthodologie proposée, ces critères constituent un moyen de contrôle des modèles jusqu'à atteindre la forme souhaitée. Enfin, cette méthodologie est illustrée au travers de l'exemple d'une batterie de véhicule électrique, pour lequel deux modèles de niveaux systémiques différents sont comparés.
60

Mesure de cylindricité de très haute exactitude.Développement d'une nouvelle machine de référence

Vissiere, Alain 13 December 2013 (has links) (PDF)
Le Laboratoire Commun de Métrologie LNE-CNAM (LCM) souhaite affiner sa maîtrise des références de pression afin de réaliser des appareillages de tout premier rang au niveau international. L'incertitude relative visée sur les références de pression est de l'ordre de 10-6. Cet objectif se traduit par une problématique de métrologie dimensionnelle où une mesure de la forme des pistons/cylindres utilisés dans les balances manométriques doit être menée. La mesure de cylindricité est également impliquée dans un très grand nombre d'applications industrielles comme la qualification d'étalons de référence destinés à la qualification d'appareillages de mesure. Notre travail de recherche, réalisé dans le cadre d'une convention CIFRE avec la SAS GEOMNIA, concerne la réalisation d'un instrument de référence de très haute précision permettant la mesure de forme de cylindres creux ou pleins. Nous proposons un saut technologique pour satisfaire un niveau d'incertitude sur la mesure de l'écart de cylindricité de l'ordre de 10 nanomètres dans un volume de mesure cylindrique de Ø350 mm et de hauteur 150 mm. La mesure de forme est habituellement pratiquée en déplaçant un capteur par rapport à la surface à mesurer par un guidage de haute précision. Il n'est cependant pas possible de réaliser un guidage entre deux solides d'un niveau de précision permettant de garantir les incertitudes souhaitées, même en utilisant les techniques de correction d'erreurs dont la précision est limitée par le défaut de répétabilité des guidages. Pour satisfaire à ce niveau d'incertitude, nous proposons une démarche basée sur le concept de structure métrologique dissociée. La mesure d'une pièce consiste alors à comparer sa forme à celle d'une pièce cylindrique de référence. Cette dernière doit seulement présenter une stabilité de forme parfaite. La cartographie d'écart de forme de la référence cylindrique doit cependant être identifiée au même niveau d'incertitude visé.Le travail de recherche développé propose une analyse détaillée des machines actuelles et de leurs limitations. Suite à cette analyse, une architecture de machine a été proposée pour lever ces limitations. Cette architecture tient compte des écarts " secondaires " liés à la position des capteurs et des effets de second ordre, pour satisfaire le niveau de précision visé. Une procédure complète d'étalonnage de la machine a été élaborée en s'inspirant des méthodes de séparation d'erreurs. Cette procédure originale permet de séparer les défauts de forme du cylindre de référence de ceux d'une pièce de qualification cylindrique mesurée simultanément. La méthode employée ne présente pas de limitations en termes d'exactitude. Cette procédure a été expérimentalement validée. Une analyse des effets liés à la mesure de surfaces cylindriques par des capteurs capacitifs a été menée. Ces essais ont conduit au développement de stratégies d'étalonnage de ces capteurs in situ utilisant des interféromètres à laser intégrés dans la machine. La traçabilité métrologique des résultats des mesures est ainsi garantie. Deux bancs de tests ont été développés pour caractériser les diverses influences et valider les procédures d'étalonnage des capteurs. La conception détaillée de l'instrument est issue de la synthèse des réflexions menées sur l'architecture, sur l'étalonnage et sur la maîtrise de la mesure de déplacements par capteurs capacitifs. Ce travail a abouti à la réalisation de ce nouvel instrument de référence ; sa conception, son montage et son réglage sont présentés.

Page generated in 0.0437 seconds