• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 93
  • 26
  • 5
  • 2
  • 1
  • 1
  • Tagged with
  • 129
  • 34
  • 22
  • 19
  • 16
  • 14
  • 14
  • 11
  • 11
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Industrie 4.0 : ordonnancement intelligent d'une cellule robotisée de soudage

Kone, Aminata 18 January 2023 (has links)
Dans ce mémoire, nous concevons un plan d'ordonnancement de la production dans un contexte d'industrie 4.0. L'environnement de travail est un atelier de soudure doté de trois stations pour le chargement et le déchargement des pièces, d'un robot de transport, d'un robot positionneur, de deux robots soudeurs et de gabarits sur lesquels sont montées les pièces. Dans un souci de construction de modèles reflétant la réalité de l'usine de production, des caractéristiques et des contraintes ont été considérées. Il s'agit entre autres des caractéristiques liées au type et aux temps de changement de gabarit, des contraintes d'entreposage, de ressources matérielles limitées (machines) et de recirculation. Le problème considéré est un problème de job shop flexible dont l'objectif est de minimiser la durée totale des opérations. Différentes variantes de la méthode exacte basée sur la programmation linéaire mixte en nombres entiers sont présentées. Ces méthodes sont de deux catégories à savoir les méthodes en une étape de résolution et les méthodes en deux étapes de résolution. La comparaison de ces différentes méthodes proposées montre que les méthodes en une étape de résolution offrent les meilleures valeurs de la fonction objectif mais sont plus lents dans la résolution tandis que les méthodes en deux étapes de résolution sont plus rapides dans la résolution mais n'ont pas les meilleures valeurs de la fonction objectif. / In this master's thesis, we design a production scheduling plan in an Industry 4.0 context. The working environment is a welding shop with three stations for loading and unloading parts, a transport robot, a positioner robot, two welding robots and jigs on which parts are mounted. In order to build models that reflect the reality of the production plant, additional characteristics and constraints were considered. These include characteristics related to the type and duration of jig change, constraints of storage, limited material resources (machines) and recirculation. The problem considered is a flexible job shop problem with the objective to minimize the total execution time (the makespan). Different variants of the exact method based on mixed integer linear programming are presented. These methods are of two categories, namely the one-step and the two-step methods. The comparison of these different proposed methods shows that the one-step method yields the best objective function values but requires relatively long computing times while the two-step method is faster but does not give the best objective function values.
62

Logique de séparation et vérification déductive / Separation logic and deductive verification

Bobot, François 12 December 2011 (has links)
Cette thèse s'inscrit dans la démarche de preuve de programmes à l'aide de vérification déductive. La vérification déductive consiste à produire, à partir des sources d'un programme, c'est-à-dire ce qu'il fait, et de sa spécification, c'est-à-dire ce qu'il est sensé faire, une conjecture qui si elle est vraie alors le programme et sa spécification concordent. On utilise principalement des démonstrateurs automatiques pour montrer la validité de ces formules. Quand ons'intéresse à la preuve de programmes qui utilisent des structures de données allouées en mémoire, il est élégant et efficace de spécifier son programme en utilisant la logique de séparation qui est apparu il y a une dizaine d'année. Cela implique de prouver des conjectures comportant les connectives de la logique de séparation, or les démonstrateurs automatiques ont surtout fait des progrès dans la logique du premier ordre qui ne les contient pas.Ce travail de thèse propose des techniques pour que les idées de la logique de séparation puissent apparaître dans les spécifications tout en conservant la possibilité d'utiliser des démonstrateurs pour la logique du premier ordre. Cependant les conjectures que l'ont produit ne sont pas dans la même logique du premier ordre que celles des démonstrateurs. Pour permettre une plus grande automatisation, ce travail de thèse a également défini de nouvelles conversions entre la logique polymorphe du premier ordre et la logique multi-sortée dupremier ordre utilisé par la plupart des démonstrateurs.La première partie a donné lieu à une implémentation dans l'outil Jessie, la seconde a donné lieu à une participation conséquente à l'écriture de l'outil Why3 et particulièrement dans l'architecture et écriture des transformations qui implémentent ces simplifications et conversions. / This thesis comes within the domain of proofs of programs by deductive verification. The deductive verification generates from a program source and its specification a mathematical formula whose validity proves that the program follows its specification. The program source describes what the program does and its specification represents what the program should do. The validity of the formula is mainly verified by automatic provers. During the last ten years separation logic has shown to be an elegant way to deal with programs which use data-structures with pointers. However it requires a specific logical language, provers, and specific reasoning techniques.This thesis introduces a technique to express ideas from separation logic in the traditional framework of deductive verification. Unfortunately the mathematical formulas produced are not in the same first-order logic than the ones of provers. Thus this work defines new conversions between the polymorphic first-order logic and the many-sorted logic used by most proves.The first part of this thesis leads to an implementation in the Jessietool. The second part results in an important participation to the writing of the Why3 tool, in particular in the architecture and writing of the transformations which implement these conversions.
63

Étude du processus de perte de gènes et de pseudogénisation. Intégration et informatisation des concepts de l’évolution biologique. Application à la lignée humaine depuis l'origine des Eucaryotes

Dainat, Jacques 16 October 2012 (has links)
La biologie a connu une extraordinaire révolution avec l'arrivée de nombreux génomes entièrement séquencés. L'analyse de la quantité d'informations disponibles nécessite la création et l'utilisation d'outils informatiques automatisés. L'interprétation des données biologiques prend tout son sens à la lumière de l'évolution. En ce sens, les études évolutives sont incontestablement nécessaires pour donner un sens aux données biologiques. Dans ce contexte, le laboratoire développe des outils pour étudier l'évolution des génomes (et protéomes) à travers les mutations subies. Cette thèse porte sur l'étude spécifique des événements de pertes de gènes unitaires. Ces événements peuvent révéler des pertes de fonctions très instructives pour comprendre l'évolution des espèces. En premier lieu, j'ai développé l'outil GLADX qui mime l'expertise humaine afin d'étudier automatiquement et avec précision les événements de pertes de gènes unitaires. Ces études se basent sur la création et l'interprétation de données phylogénétiques, de BLAST, de prédictions protéiques, etc., dans un contexte automatisé. Ensuite, j'ai développé une stratégie utilisant l'outil GLADX pour étudier à grande échelle les pertes de gènes unitaires au cours de l'évolution du protéome humain. La stratégie utilise d'abord comme filtre l'analyse de groupes d'orthologues fabriqués par un outil de clustérisation à partir du protéome complet de nombreuses espèces. Cette analyse a permis de détecter 6237 pertes de gènes unitaires putatives dans la lignée humaine. L'étude approfondie de ces pertes avec GLADX a mis en évidence de nombreux problèmes liés à la qualité des données disponibles dans les bases de données. / Biology has undergone an extraordinary revolution with the appearance of numerous whole genomes sequenced. Analysis of the amount of information available requires creation and use of automated tools. The interpretation of biological data becomes meaningful in light of evolution. In view of all this, evolutionary studies are undoubtedly necessary to highlight the biological data. In this context, the laboratory develops tools to study the genomes (and proteomes) evolution through all the undergone mutations. The project of this thesis focuses specifically on the events of unitary gene losses. These events may reveal loss of functions very instructive for understanding the evolution of species. First, I developed the GLADX tool that mimics human expertise to automatically and accurately investigate the events of unitary gene losses. These studies are based on the creation and interpretation of phylogenetic data, BLAST, predictions of protein, etc., in an automated environment. Secondly, I developed a strategy using GLADX tool to study, at large-scale, the loss of unitary genes during the evolution of the human proteome. The strategy uses, in the first step, the analysis of orthologous groups produced by a clustering tool from complete proteomes of numerous species. This analysis used as a filter, allowed detecting 6237 putative losses in the human lineage. The study of these unitary gene loss cases has been deepened with GLADX and allowed to highlight many problems with the quality of available data in databases.
64

Etude en IRMf de l'implication des réseaux cortico-cérébelleux et cortico-striataux chez les enfants présentant un trouble de l'acquisition de la coordination et/ou une dyslexie développementale / An FRMI study of the procedural learning deficit hypothesis in developmental coordination disorder and/or developmental dyslexia

Biotteau, Maëlle 08 June 2015 (has links)
Plusieurs études ont récemment fait l'hypothèse qu'un déficit de l'apprentissage procédural commun aux troubles neurodéveloppementaux pouvait permettre d'expliquer leur fréquente association (Nicolson et Fawcett, 2007). Tout spécialement, les circuits neuronaux impliqués dans cet apprentissage (les boucles cortico-striatale, CS et cortico-cérébelleuse, CC) pouvaient rendre compte avec pertinence de la comorbidité fréquente entre Dyslexie Développementale (DD) et Trouble de l'Acquisition de la Coordination (TAC) : 40 à 60% des enfants présentent en effet la double association. Les circuits neuronaux qui soutiennent l'apprentissage d'une séquence motrice et en particulier d'une tâche de tapping de doigts (FTT, Finger Tapping Task) sont bien connus et modélisés (Doyon, Bellec, Amsel, Penhune, Monchi, Carrier et al., 2009) et concernent tout particulièrement ces deux boucles CS et CC. Nous avons donc choisi dans cette thèse d'observer les modifications cérébrales lors de l'apprentissage d'une FTT, chez des enfants âgés de 8 à 12 ans présentant une DD, un TAC ou l'association des deux troubles. Dans un premier temps, nous avons effectué une analyse des données issues des tests neurospychologiques de l'ensemble des enfants de l'étude (20 DD, 22 TAC et 23 DysTAC). Nos résultats ne montrent pas de différences entre les trois groupes aux tests attentionnels, comportementaux et psychosociaux. Nous trouvons des différences aux subtests du WISC-IV en rapport avec les capacités visuospatiales et motrices (Cubes, Symboles, Indice de Vitesse de Traitement) où le groupe DD se montre plus performant que le groupe TAC. Aucune différence n'est retrouvée entre le groupe comorbide et les deux autres groupes, suggérant d'une part un profil cognitif partagé et commun aux troubles neurodéveloppementaux et d'autre part le caractère non cumulatif de l'association des deux troubles. Dans un second temps, nous avons analysé les données issues de l'imagerie fonctionnelle par résonnance magnétique (IRMf) des 48 enfants ayant effectués la partie IRM (16 DD, 16 TAC et 16 DysTAC) afin d'explorer les activités cérébrales lors de la réalisation d'une FTT à deux stades de l'apprentissage (début d'apprentissage et stade automatique après quinze jours d'entraînement). Nos résultats indiquent que les trois groupes d'enfants ont été capable d'accéder à l'automatisation de la FTT après un entraînement approprié, mais en utilisant des processus cérébraux compensatoires différents entre les groupes. Nos résultats ne confirment pas les hypothèses et le modèle théorique de Nicolson, postulant des déficits spécialisés des boucles CS ou CC en fonction des troubles. Par contre, nos résultats mettent très nettement en évidence des mécanismes cérébraux spécifiques aux enfants TAC. Ces derniers présentent en effet une suractivation des aires attentionnelles et un recrutement de zones cérébrales plus important lors de performances similaires à celles des autres enfants. En dernier lieu, nos données indiquent que les groupes DD et DysTAC présentent un profil commun, tant dans les résultats neuropsychologiques que dans les résultats d'imagerie, alors que le groupe TAC est clairement singulier dans son fonctionnement. / Many studies have pointed out the high frequency of co-morbid associations in neurodevelopmental disorders. However, few of them have given details of cognitive functions in developmental dyslexia (DD) and developmental coordination disorder (DCD) children and still fewer on the association of DD and DCD. The main purpose of this article is to compare the intellectual characteristics of the 3 populations and, in particular, to investigate the cognitive profiles of children with co-occurrence. Recent theories consider that procedural learning may support frequent overlap between neurodevelopemental disorders. In particular, the brain networks involved in this learning (cortico-striatal (CS) and cortico-cerebellar (CC) loops) could account for frequent co-morbidity between DCD and DD (about 40 to 60% of DD and DCD subjects suffer from both disorders). The aim of our study was to investigate cerebral changes due to the motor sequence learning process, especially the finger-tapping task (FTT), from acquisition through automatization, in children with DD, DCD, or DD and DCD. The neural circuitry supporting this action is well-known and well-modelled (Doyon et al., 2009), and includes, among others, CC and CS loops. Functional magnetic resonance imaging (fMRI) in 48 children (8-12 years old) with neurodevelopmental disorders (16 DD, 16 DCD and 16 DD+DCD) explored their brain activity during FTT, performed either after 2 weeks of training or in the early stage of learning. First, we analyzed the results in all participants (22 DCD, 20 DD and 23 DD+DCD) in tests assessing cognitive (WISC-IV), attentional (CPT-II) and behavioural (CBCL) abilities. No difference was found between the 3 groups in attention testing (CPT) and behavioural characteristics (CBCL). Significant between-groups differences were observed in Processing Speed Index (PSI) score and the block design and symbol search subtests. Post hoc group comparisons showed that DD fared better than DCD children. No significant differences were found between the co-morbid vs. pure groups: co-morbid association did not cause an accumulation of disorders. Second, our results indicated that all children with DD, DCD or both disorders performed the tasks with good automaticity, but suggested that different compensatory brain processes allowed them to access this automatization stage. Our fMRI results do not appear to confirm Nicolson's model but tend more towards shared disability in CS and CC loops for both DD and DCD, with slight between-group differences in these areas. Moreover, and in agreement with the results of previous fMRI studies in DCD children, our data disclosed increasing evidence that this group needs to invest more brain areas to achieve similar performances. Lastly, it appears that the co-morbid and DD groups are very close in cognitive profile (especially on WISC-IV) and in neural correlates associated with our paradigm, while the DCD group presents specific, distinct and particular characteristics. Our data therefore indicate a promising direction for future research on the neural mechanisms linked with learning in neurodevelopmental disorders and in understanding co-morbidity.
65

Preuve de propriétés dynamiques en B / Proving dynamic properties in B

Diagne, Fama 26 September 2013 (has links)
Les propriétés que l’on souhaite exprimer sur les applications système d’information ne peuvent se restreindre aux propriétés statiques, dites propriétés d’invariance, qui portent sur des états du système pris au même moment. En effet, certaines propriétés, dites propriétés dynamiques, peuvent faire référence à l’état passé ou futur du système. Les travaux existants sur la vérification de telles propriétés utilisent généralement le model checking dont l’efficacité pour le domaine des systèmes d’information est plutôt réduite à cause de l’explosion combinatoire de l’espace des états. Aussi, les techniques, fondées sur la preuve, requièrent des connaissances assez avancées en termes de raisonnement mathématique et sont donc difficiles à mettre en œuvre d’autant plus que ces dernières ne sont pas outillées. Pour palier ces limites, nous proposons dans cette thèse des méthodes de vérification de propriétés dynamiques basées sur la preuve en utilisant la méthode formelle B. Nous nous intéressons principalement aux propriétés d’atteignabilité et de précédence pour lesquelles nous avons défini des méthodes de génération d’obligations de preuve permettant de les prouver. Une propriété d’atteignabilité permet d’exprimer qu’il existe au moins une exécution du système qui permet d’atteindre un état cible à partir d’un état initial donné. Par contre, la propriété de précédence permet de s’assurer qu’un état donné du système est toujours précédé par un autre état. Afin de rendre ces différentes approches opérationnelles, nous avons développé un outil support qui permet de décharger l’utilisateur de la tâche de génération d’obligations de preuve qui peut être longue et fastidieuse / The properties that we would like to express on data-intensive applications cannot be limited to static properties, called invariance properties, which depend on states taken at the same time. Indeed, some properties, called dynamic properties, may refer to the past or the future states of the system. Existing work on the verification of such properties typically use model checking whose effectiveness for data-intensive applications is rather limited due to the combinatorial explosion of the state space. In addition, the techniques, based on the proof, require fairly advanced knowledge and mathematical reasoning especially that they are not always supported by tools. To overcome these limitations, we propose in this thesis proof-based verification approaches that use the B formal method. We are mainly interested in reachability and precedence properties for which we defined formal rules to generate proof obligations that permit to discharge them. A reachability property expresses that there is at least one execution scenario that permits to reach a target state from a given initial state while a precedence property ensures that a given system state is always preceded by another state. To make these different approaches workable, we have developed a support tool that permits to discharge the users from tedious and error-prone tasks
66

Réalisation d'électrodes enzymatiques à réponse rapide pour l'analyse par injection en flux continu (FIA).‎ Application au suivi en ligne de la production de pénicilline par fermentation

Meier, Helmut 25 June 1993 (has links) (PDF)
Ce travail concerne la réalisation d'une électrode enzymatique utilisable pour le suivi en ligne (<i>on-line</i>) d'un procédé de fermentation. Cette étude a nécessité la mise au point d'une nouvelle technique d'immobilisation, applicable à différentes enzymes. Elle est basée sur la formation de liaisons covalentes entre l'enzyme et l'agent portant: le glutaraldéhyde. La méthode consiste en une adsorption de l'enzyme suivie du dépôt, par vaporisation, de l'agent réticulant sur l'extrémité sensible des électrodes de pH en verre. Ce procédé d'immobilisation assure un temps de réponse extrêmement court du biocapteur. Cette performance est un avantage indéniable pour des mesures en continu, tel qu'un système d'analyse par injection en flux continu (FIA). Par la suite, nous avons développé des systèmes FIA incorporant trois différents types de cellules de détection appropriées aux besoins analytiques. Des électrodes à pénicillinase et à uréase, préparées selon la méthode décrite ci-dessus, ont été installées et utilisées dans ces cellules. Les systèmes biocapteurs-FIA, ainsi conçus, ne nécessitent alors ni réacteur enzymatique, ni réactif. De plus, le temps de réponse très court du biocapteur allie aux avantages de la FIA et aux spécificités des cellules a permis d'obtenir une cadence de mesure très élevée. Ce système d'analyse a été applique aux mesures en ligne de la concentration de pénicilline au cours de sa production fermentaire et aux mesures automatiques de l'urée dans les échantillons de sérum humain. Pour cela, nous avons automatise le système biocapteur-FIA et conçu une nouvelle cellule a écoulement agite pour l'installation des électrodes à uréase et a pénicillinase. Ce système biocapteur-FIA donne des résultats satisfaisants pour la détermination de l'urée et surtout s'est révélé extrêmement performant pour le suivi hors ligne et en ligne de la concentration de pénicilline pendant plusieurs fermentations d'une durée de 250 heures environ. Dans ce dernier cas, la comparaison des mesures effectuées avec le système biocapteur-FIA et une méthode classique de dosage (HPLC) est favorable à l'analyseur biocapteur-FIA qui assure des mesures en ligne avec une bonne fiabilité et a un moindre cout, mais aussi en raison de sa simplicité. En rendant possible une exploitation immédiate des mesures en ligne de la concentration en pénicilline par l'ordinateur central de l'installation fermentaire, le système biocapteur-FIA présente un pas important dans l'amélioration du contrôle et/ou de la modélisation des bioprocédés.
67

Production automatique de modèles tridimensionnels par numérisation 3D

Khalfaoui, Souhaiel 19 November 2012 (has links) (PDF)
La numérisation 3D telle que pratiquée aujourd'hui repose essentiellement sur les connaissances de l'opérateur qui la réalise. La qualité des résultats reste très sensible à la procédure utilisée et par conséquent aux compétences de l'opérateur. Ainsi, la numérisation manuelle est très coûteuse en ressources humaines et matérielles et son résultat dépend fortement du niveau de technicité de l'opérateur. Les solutions de numérisation les plus avancées en milieu industriel sont basées sur une approche d'apprentissage nécessitant une adaptation manuelle pour chaque pièce. Ces systèmes sont donc semi-automatiques compte tenu de l'importance de la contribution humaine pour la planification des vues.Mon projet de thèse se focalise sur la définition d'un procédé de numérisation 3D automatique et intelligente. Ce procédé est présenté sous forme d'une séquence de processus qui sont la planification de vues, la planification de trajectoires, l'acquisition et les post-traitements des données acquises. L'originalité de notre démarche de numérisation est qu'elle est générique parce qu'elle n'est pas liée aux outils et méthodes utilisés pour la réalisation des tâches liées à chaque processus. Nous avons également développé trois méthodes de planification de vues pour la numérisation d'objets sans connaissance a priori de leurs formes. Ces méthodes garantissent une indépendance des résultats par rapport au savoir-faire de l'opérateur. L'originalité de ces approches est qu'elles sont applicables à tous types de scanners. Nous avons implanté ces méthodes sur une cellule de numérisation robotisée. Nos approches assurent une reconstruction progressive et intelligente d'un large panel d'objets de différentes classes de complexité en déplaçant efficacement le scanner
68

Gestion de données pour la visualisation de maquettes numériques en environnement virtuel immersif: application au design automobile

Paillot, Damien 11 1900 (has links) (PDF)
Les techniques de la réalité virtuelle constituent de nouveaux outils pour les métiers de la conception de produits manufacturés et offrent des gains en terme d'innovation, de temps et d'argent. L'enjeu industriel est l'intégration de ces techniques dans le cycle de conception du produit. Ces techniques doivent ainsi s'interfacer avec les différents corps de métiers et pouvoir être en phase avec le rythme des mises à jour des modèles numériques. La problématique technologique posée est relative à la gestion des données géométriques produites par les bureaux d'études en conception assistée par ordinateur. Ces données sont exhaustives, très nombreuses et ne sont pas manipulables dans un dispositif de réalité virtuelle en raison des contraintes de temps de calcul. Une maquette numérique, possédant une quantité d'informations maîtrisée et dédiée à la réalité virtuelle, est alors nécessaire. Ces travaux ont pour objectif d'apporter des méthodes et outils permettant l'utilisation des techniques de l'immersion virtuelle par les métiers du design automobile. Une chaîne de conversion, simplification et optimisation des données en fonction des critères des métiers du design automobile est proposée pour la création d'une maquette numérique dédiée à l'immersion virtuelle. La gestion en temps réel des données de cette maquette numérique est effectuée en fonction de critères de visualisation de la scène dans un contexte d'immersion virtuelle.
69

CARACTERISATION EXHAUSTIVE DES SUBSTITUTIONS<br />DE PENICILLIN-BINDING PROTEINS INTERVENANT<br />DANS LA RESISTANCE AUX β-LACTAMINES CHEZ<br />STREPTOCOCCUS PNEUMONIAE

Carapito, Raphael 08 June 2006 (has links) (PDF)
Les Penicillin-Binding Proteins (PBP) sont des enzymes intervenant dans les étapes finales de la synthèse de la paroi bactérienne et sont les cibles des antibiotiques de la famille des β-lactamines. Dans les souches cliniques de Streptococcus pneumoniae résistantes aux β-lactamines, les PBPs ont de nombreuses mutations qui ont pour effet une diminution d'affinité de ces enzymes pour les antibiotiques. Il y a en moyenne 40 substitutions dans le domaine transpeptidase des deux acteurs majeurs de la résistance PBP2x et PBP1a.<br />Des études précédentes ont décrit le rôle de quatre mutations de PBP2x et de trois de PBP1a, mais celles-ci ne sont responsables que d'une partie de la résistance. Il n'y a très probablement qu'un nombre restreint de mutations responsables de la perte d'affinité des PBPs pour les β-lactamines ayant pour conséquence une augmentation du niveau de résistance.<br />Pour identifier toutes les mutations impliquées, une série de protocoles automatisés permettant de faire de la mutagénèse dirigée, de l'expression, de la purification et de la caractérisation fonctionnelle d'enzymes en utilisant des robots de types manipulateurs de liquides ont été développés. L'application de cette méthode nous a permis de réaliser une caractérisation exhaustive de plus de 40 mutations de PBP2x de la souche clinique<br />résistante 5204. Cette étude a abouti à l'identification de toutes les substitutions clés ainsi qu'à l'élucidation d'un nouveau mécanisme moléculaire de baisse d'affinité de PBP2x pour les β-lactamines. De plus, une étude fonctionnelle et phénotypique de la résistance impliquant PBP1a a été réalisée.<br />Ce travail apporte une vue globale des mécanismes moléculaires de la résistance de S. pneumoniae aux β-<br />lactamines impliquant les PBPs en utilisant une méthode exhaustive originale.
70

Contribution à la micromanipulation robotisée : un système de changement d'outils automatique pour le micro-assemblage

Clévy, Cédric 12 December 2005 (has links) (PDF)
Les tâches de saisie, de manipulation et d'assemblage d'objets de très<br />petites dimensions sont parmi les thèmes majeurs en micro-robotique. La<br />"micromanipulation" s'adresse d'une manière générale à la manipulation d'objets<br />de dimensions globalement comprises entre 1 micromètre et 1 mm et requiert une<br />résolution de positionnement en rapport avec ces dimensions. Le<br />micro-assemblage consiste à réaliser une séquence d'opérations élémentaires<br />conduisant à l'obtention de micro-composants constitués de différentes pièces.<br />La manipulation de chacune de ces pièces nécessite d'utiliser des effecteurs<br />dédiés, adaptés à leurs particularités (géométrie, dimensions, propriétés<br />mécaniques). Différents types d'outils doivent ainsi être utilisés<br />séquentiellement pour réaliser un micro-assemblage.<br /><br />Dans ce but, une station de micromanipulation a été réalisée. Elle est composée<br />d'une micropince montée sur un manipulateur à trois degrés de liberté. Un<br />système permettant de changer automatiquement l'extrémité de la micropince<br />(i.e. les outils) a plus particulièrement été étudié et réalisé. Il permet de<br />fixer alternativement les outils à l'actionneur de la micropince ou à un<br />magasin en utilisant une colle thermique. Celle-ci est liquéfiée par chauffage<br />ou solidifiée par refroidissement.<br /><br /><br />Ce système de changement d'outils apporte une flexibilité notablement accrue à<br />la station de micromanipulation et permet de réaliser des opérations de<br />micro-assemblage dans des espaces restreints comme par exemple la chambre d'un<br />microscope électronique à balayage. Un plan de travail compliant a également<br />été réalisé. Il permet de limiter les efforts en jeu pendant les opérations de<br />micromanipulation et d'améliorer ainsi le taux de réussite des opérations<br />délicates.

Page generated in 0.1319 seconds