Spelling suggestions: "subject:"automatisation"" "subject:"automatisations""
61 |
Automatisation de la fonction de façonnage de deux têtes d'abatteuses-façonneuses : effets sur la productivité et le taux de conformité des billes façonnéesBouchard, Mathieu 04 October 2024 (has links)
Pour rester compétitives, les entreprises forestières cherchent à contrôler leurs coûts d’approvisionnement. Les abatteuses-façonneuses sont pourvues d’ordinateurs embarqués qui permettent le contrôle et l’automatisation de certaines fonctions. Or, ces technologies ne sont pas couramment utilisées et sont dans le meilleur des cas sous-utilisées. Tandis que l’industrie manifeste un intérêt grandissant pour l’utilisation de ces ordinateurs, peu de travaux de recherche ont porté sur l’apport en productivité et en conformité aux spécifications de façonnage découlant de l’usage de ces systèmes. L’objectif de l’étude était de mesurer les impacts des trois degrés d’automatisation (manuel, semi-automatique et automatique) sur la productivité (m3/hmp) et le taux de conformité des longueurs et des diamètre d’écimage des billes façonnées (%). La collecte de données s’est déroulée dans les secteurs de récolte de Produits forestiers résolu au nord du Lac St-Jean entre les mois de janvier et d'août 2015. Un dispositif en blocs complets a été mis en place pour chacun des cinq opérateurs ayant participé à l’étude. Un seuil de 5 % a été employé pour la réalisation de l’analyse des variances, après la réalisation de contrastes. Un seul cas a présenté un écart significatif de productivité attribuable au changement du degré d’automatisation employé, tandis qu’aucune différence significative n’a été détectée pour la conformité des diamètres d’écimage; des tendances ont toutefois été constatées. Les conformités de longueur obtenues par deux opérateurs ont présenté des écarts significatifs. Ceux-ci opérant sur deux équipements distincts, cela laisse entrevoir l’impact que peut aussi avoir l’opérateur sur le taux de conformité des longueurs. / All forest companies try to control their supply costs. Single-grip harvesters are equipped with onboard computers that allow control and automation of some functions. However, these technologies are not used on a regular basis and are in the best cases underutilized. While industrials are showing a growing interest in the utilization of these systems, there have been only a few studies that have documented the impacts of the use of these systems on productivity and quality conformity. The objective of this study was to measure the impacts on productivity and on bucking quality of different degrees of automation of the bucking of a single-grip harvester head. Three different automation degrees, manual, semi-automatic and automatic, have been compared with two different teams composed of 5 operators. Each operator was a different case study. Comparisons were realized on the obtained productivities and on the conformities of the logs lengths and topping diameters. Data collection was made on the logging sites operated by Resolute forest products, in the northern part of Lac St-Jean between January and August 2015. A 5% significance level has been used to realise the variances analysis, where contrasts were employed. Only one case study showed a significant productivity difference linked to the in the automation degree changes. Even if the collected data did not show significant differences on the topping diameters conformities, some tendencies were detected. However, significant differences were detected on the conformity of the lengths of the logs of two operators. Because those two operators work on different harvesters, this might show that the operator can have an impact on the lengths conformity.
|
62 |
Détection, reconstruction 3D et identification des êtres vivants du règne animalLévesque, Olivier 28 June 2024 (has links)
L’automatisation de la détection et de l’identification des animaux est une tâche qui a de l’intérêt dans plusieurs domaines de recherche en biologie ainsi que dans le développement de systèmes de surveillance électronique. L’auteur présente un système de détection et d’identification basé sur la vision stéréo par ordinateur. Plusieurs critères sont utilisés pour identifier les animaux, mais l’accent a été mis sur l’analyse harmonique de la reconstruction en temps réel de la forme en 3D des animaux. Le résultat de l’analyse est comparé avec d’autres qui sont contenus dans une base évolutive de connaissances. / Automating the detection and identification of animals is a task that has an interest in many biological research fields and in the development of electronic security systems. The author present a detection and identification system based on computer stereo vision to achieve this task. A number of criteria are being used to identify the animals, but the emphasis is on the harmonic analysis of the animal real time reconstructed 3D shape. The result of the analysis is compared with others stored in an evolutive knowledge base.
|
63 |
Modélisation, commande et observation du séchage par lit fluidisé de granules pharmaceutiquesGagnon, Francis 13 December 2023 (has links)
La fabrication de comprimés pharmaceutiques par granulation humide a typiquement recours aux lits fluidisés pour le séchage des particules. Encouragée par les agences réglementaires, l'industrie a entamé une migration vers la production continue et automatisée, mais les procédés discontinus (batch) opérés sans rétroaction, excepté un contrôle qualité en fin de cycle, demeurent largement majoritaires dans le secteur. Dans le cas des séchoirs à lit fluidisé, cette approche occasionne plusieurs complications comme le sous-séchage, le surséchage et la surchauffe des granules thermosensibles, qui peuvent conduire au rejet du lot. Toutefois, la commande avancée et la production en continu peuvent réduire les problèmes d'opération. Ce projet de recherche concerne donc l'automatisation du séchage par lit fluidisé ou, plus spécifiquement, sa modélisation, sa commande et son observation. La conception et la comparaison de diverses stratégies d'estimation et de contrôle nécessitent d'abord un modèle mathématique représentatif du procédé. Pour y parvenir, une identification « boite grise » estime les paramètres empiriques d'une description phénoménologique à deux phases du lit fluidisé à partir de données expérimentales et un second lot de données valide les simulations qui en résultent. Cet ouvrage évalue ensuite la commande prédictive linéaire, non linéaire et économique sur le simulateur calibré. L'étude explore aussi les filtres de Kalman standard et non parfumé, ainsi que l'estimateur à fenêtre glissante, comme capteur virtuel de teneur en eau des particules, le principal indicateur de qualité au séchage. La première partie de cette thèse se concentre sur les séchoirs verticaux discontinus, et la deuxième, sur un nouveau prototype de réacteur horizontal entièrement continu. Les résultats de cette recherche confirment les avantages indéniables de ces technologies, soit un contrôle serré de la qualité du produit, et une diminution des coûts et de l'empreinte environnementale des opérations. / Manufacturing pharmaceutical tablets through wet granulation typically relies on fluidized bed drying for the particles. Advocated by regulatory agencies, the industry initiated a paradigm shift towards fully continuous and automated production, but batch processes operated without feedback, except a quality control at the end of the cycle, still prevail in the sector. For the case of fluidized bed dryers, this approach results in several issues like under drying, over drying, overheating of thermosensitive granules, that can lead to the rejection of the batch. However, advanced control and continuous processing can reduce the operational hurdles. This research project investigates the automation of fluidized bed drying or, more specifically, its modeling, control and observation. The design and comparison of various estimation and feedback strategies first require a representative mathematical model of the process. For this, a grey-box identification estimates the empirical parameters of a two-phase fluidized bed description from experimental data, and a second dataset validates the resulting simulations. This work then investigates linear, nonlinear, and economic model predictive control on the calibrated simulator. The study also explores the standard and unscented Kalman filter, and the moving-horizon estimator, as soft sensors for the particle moisture content, a critical quality attribute at drying. The first part of this thesis focuses on vertical batch dryers, and the second one, on a new prototype of a fully continuous horizontal reactor. The results of this research confirm the undeniable advantages of those technologies, namely a tight control of the product quality, and reductions in the costs and the environmental footprint of the operations.
|
64 |
Développement d'une nouvelle approche d'extraction du réseau de surface à partir d'un nuage de points LiDAR massif basée sur la théorie de MorseDahbi, Aymane 16 January 2024 (has links)
Titre de l'écran-titre (visionné le 11 janvier 2024) / Aujourd'hui, la cartographie des réseaux hydrographiques est un sujet important pour la gestion et l'aménagement de l'espace forestier, la prévention contre les risques d'inondation, etc. Les données sources pour cartographier les cours d'eau sont des nuages de points obtenus par des lidars aéroportés. Cependant, les méthodes d'extraction des réseaux usuelles nécessitent des opérations de découpage, de rééchantillonnage et d'assemblage des résultats pour produire un réseau complet, altérant la qualité des résultats et limitant l'automatisation des traitements. Afin de limiter ces opérations, une nouvelle approche d'extraction est considérée. Cette approche propose de construire un réseau de crêtes et de talwegs à partir des points lidar, puis transforme ce réseau en réseau hydrographique. Notre recherche consiste à concevoir une méthode d'extraction robuste du réseau adaptée aux données massives. Ainsi, nous proposons d'abord une approche de calcul du réseau adaptée aux surfaces triangulées garantissant la cohérence topologique du réseau. Nous proposons ensuite une architecture s'appuyant sur des conteneurs pour paralléliser les calculs et ainsi traiter des données massives. / Nowadays, the mapping of hydrographic networks is an important subject for forestry management and planning, flood risk prevention, and so on. The source data for mapping watercourses are point clouds obtained by airborne lidars. However, conventional network extraction methods require cutting, resampling, and assembling the results to produce a complete network, thereby altering the quality of the results, and limiting the automation of processing. In order avoid these processing steps, a new computational approach is considered. This approach involves building a network of ridges and talwegs from lidar points, and then transforming this network into a hydrographic network. Our research consists in designing a robust network extraction method adapted to massive data. First, we propose a network calculation approach adapted to triangulated surfaces, guaranteeing the network's topological consistency. We then propose a container-based architecture for parallelizing computations to handle big data processing.
|
65 |
Logique de séparation et vérification déductive / Separation logic and deductive verificationBobot, François 12 December 2011 (has links)
Cette thèse s'inscrit dans la démarche de preuve de programmes à l'aide de vérification déductive. La vérification déductive consiste à produire, à partir des sources d'un programme, c'est-à-dire ce qu'il fait, et de sa spécification, c'est-à-dire ce qu'il est sensé faire, une conjecture qui si elle est vraie alors le programme et sa spécification concordent. On utilise principalement des démonstrateurs automatiques pour montrer la validité de ces formules. Quand ons'intéresse à la preuve de programmes qui utilisent des structures de données allouées en mémoire, il est élégant et efficace de spécifier son programme en utilisant la logique de séparation qui est apparu il y a une dizaine d'année. Cela implique de prouver des conjectures comportant les connectives de la logique de séparation, or les démonstrateurs automatiques ont surtout fait des progrès dans la logique du premier ordre qui ne les contient pas.Ce travail de thèse propose des techniques pour que les idées de la logique de séparation puissent apparaître dans les spécifications tout en conservant la possibilité d'utiliser des démonstrateurs pour la logique du premier ordre. Cependant les conjectures que l'ont produit ne sont pas dans la même logique du premier ordre que celles des démonstrateurs. Pour permettre une plus grande automatisation, ce travail de thèse a également défini de nouvelles conversions entre la logique polymorphe du premier ordre et la logique multi-sortée dupremier ordre utilisé par la plupart des démonstrateurs.La première partie a donné lieu à une implémentation dans l'outil Jessie, la seconde a donné lieu à une participation conséquente à l'écriture de l'outil Why3 et particulièrement dans l'architecture et écriture des transformations qui implémentent ces simplifications et conversions. / This thesis comes within the domain of proofs of programs by deductive verification. The deductive verification generates from a program source and its specification a mathematical formula whose validity proves that the program follows its specification. The program source describes what the program does and its specification represents what the program should do. The validity of the formula is mainly verified by automatic provers. During the last ten years separation logic has shown to be an elegant way to deal with programs which use data-structures with pointers. However it requires a specific logical language, provers, and specific reasoning techniques.This thesis introduces a technique to express ideas from separation logic in the traditional framework of deductive verification. Unfortunately the mathematical formulas produced are not in the same first-order logic than the ones of provers. Thus this work defines new conversions between the polymorphic first-order logic and the many-sorted logic used by most proves.The first part of this thesis leads to an implementation in the Jessietool. The second part results in an important participation to the writing of the Why3 tool, in particular in the architecture and writing of the transformations which implement these conversions.
|
66 |
Étude du processus de perte de gènes et de pseudogénisation. Intégration et informatisation des concepts de l’évolution biologique. Application à la lignée humaine depuis l'origine des EucaryotesDainat, Jacques 16 October 2012 (has links)
La biologie a connu une extraordinaire révolution avec l'arrivée de nombreux génomes entièrement séquencés. L'analyse de la quantité d'informations disponibles nécessite la création et l'utilisation d'outils informatiques automatisés. L'interprétation des données biologiques prend tout son sens à la lumière de l'évolution. En ce sens, les études évolutives sont incontestablement nécessaires pour donner un sens aux données biologiques. Dans ce contexte, le laboratoire développe des outils pour étudier l'évolution des génomes (et protéomes) à travers les mutations subies. Cette thèse porte sur l'étude spécifique des événements de pertes de gènes unitaires. Ces événements peuvent révéler des pertes de fonctions très instructives pour comprendre l'évolution des espèces. En premier lieu, j'ai développé l'outil GLADX qui mime l'expertise humaine afin d'étudier automatiquement et avec précision les événements de pertes de gènes unitaires. Ces études se basent sur la création et l'interprétation de données phylogénétiques, de BLAST, de prédictions protéiques, etc., dans un contexte automatisé. Ensuite, j'ai développé une stratégie utilisant l'outil GLADX pour étudier à grande échelle les pertes de gènes unitaires au cours de l'évolution du protéome humain. La stratégie utilise d'abord comme filtre l'analyse de groupes d'orthologues fabriqués par un outil de clustérisation à partir du protéome complet de nombreuses espèces. Cette analyse a permis de détecter 6237 pertes de gènes unitaires putatives dans la lignée humaine. L'étude approfondie de ces pertes avec GLADX a mis en évidence de nombreux problèmes liés à la qualité des données disponibles dans les bases de données. / Biology has undergone an extraordinary revolution with the appearance of numerous whole genomes sequenced. Analysis of the amount of information available requires creation and use of automated tools. The interpretation of biological data becomes meaningful in light of evolution. In view of all this, evolutionary studies are undoubtedly necessary to highlight the biological data. In this context, the laboratory develops tools to study the genomes (and proteomes) evolution through all the undergone mutations. The project of this thesis focuses specifically on the events of unitary gene losses. These events may reveal loss of functions very instructive for understanding the evolution of species. First, I developed the GLADX tool that mimics human expertise to automatically and accurately investigate the events of unitary gene losses. These studies are based on the creation and interpretation of phylogenetic data, BLAST, predictions of protein, etc., in an automated environment. Secondly, I developed a strategy using GLADX tool to study, at large-scale, the loss of unitary genes during the evolution of the human proteome. The strategy uses, in the first step, the analysis of orthologous groups produced by a clustering tool from complete proteomes of numerous species. This analysis used as a filter, allowed detecting 6237 putative losses in the human lineage. The study of these unitary gene loss cases has been deepened with GLADX and allowed to highlight many problems with the quality of available data in databases.
|
67 |
Etude en IRMf de l'implication des réseaux cortico-cérébelleux et cortico-striataux chez les enfants présentant un trouble de l'acquisition de la coordination et/ou une dyslexie développementale / An FRMI study of the procedural learning deficit hypothesis in developmental coordination disorder and/or developmental dyslexiaBiotteau, Maëlle 08 June 2015 (has links)
Plusieurs études ont récemment fait l'hypothèse qu'un déficit de l'apprentissage procédural commun aux troubles neurodéveloppementaux pouvait permettre d'expliquer leur fréquente association (Nicolson et Fawcett, 2007). Tout spécialement, les circuits neuronaux impliqués dans cet apprentissage (les boucles cortico-striatale, CS et cortico-cérébelleuse, CC) pouvaient rendre compte avec pertinence de la comorbidité fréquente entre Dyslexie Développementale (DD) et Trouble de l'Acquisition de la Coordination (TAC) : 40 à 60% des enfants présentent en effet la double association. Les circuits neuronaux qui soutiennent l'apprentissage d'une séquence motrice et en particulier d'une tâche de tapping de doigts (FTT, Finger Tapping Task) sont bien connus et modélisés (Doyon, Bellec, Amsel, Penhune, Monchi, Carrier et al., 2009) et concernent tout particulièrement ces deux boucles CS et CC. Nous avons donc choisi dans cette thèse d'observer les modifications cérébrales lors de l'apprentissage d'une FTT, chez des enfants âgés de 8 à 12 ans présentant une DD, un TAC ou l'association des deux troubles. Dans un premier temps, nous avons effectué une analyse des données issues des tests neurospychologiques de l'ensemble des enfants de l'étude (20 DD, 22 TAC et 23 DysTAC). Nos résultats ne montrent pas de différences entre les trois groupes aux tests attentionnels, comportementaux et psychosociaux. Nous trouvons des différences aux subtests du WISC-IV en rapport avec les capacités visuospatiales et motrices (Cubes, Symboles, Indice de Vitesse de Traitement) où le groupe DD se montre plus performant que le groupe TAC. Aucune différence n'est retrouvée entre le groupe comorbide et les deux autres groupes, suggérant d'une part un profil cognitif partagé et commun aux troubles neurodéveloppementaux et d'autre part le caractère non cumulatif de l'association des deux troubles. Dans un second temps, nous avons analysé les données issues de l'imagerie fonctionnelle par résonnance magnétique (IRMf) des 48 enfants ayant effectués la partie IRM (16 DD, 16 TAC et 16 DysTAC) afin d'explorer les activités cérébrales lors de la réalisation d'une FTT à deux stades de l'apprentissage (début d'apprentissage et stade automatique après quinze jours d'entraînement). Nos résultats indiquent que les trois groupes d'enfants ont été capable d'accéder à l'automatisation de la FTT après un entraînement approprié, mais en utilisant des processus cérébraux compensatoires différents entre les groupes. Nos résultats ne confirment pas les hypothèses et le modèle théorique de Nicolson, postulant des déficits spécialisés des boucles CS ou CC en fonction des troubles. Par contre, nos résultats mettent très nettement en évidence des mécanismes cérébraux spécifiques aux enfants TAC. Ces derniers présentent en effet une suractivation des aires attentionnelles et un recrutement de zones cérébrales plus important lors de performances similaires à celles des autres enfants. En dernier lieu, nos données indiquent que les groupes DD et DysTAC présentent un profil commun, tant dans les résultats neuropsychologiques que dans les résultats d'imagerie, alors que le groupe TAC est clairement singulier dans son fonctionnement. / Many studies have pointed out the high frequency of co-morbid associations in neurodevelopmental disorders. However, few of them have given details of cognitive functions in developmental dyslexia (DD) and developmental coordination disorder (DCD) children and still fewer on the association of DD and DCD. The main purpose of this article is to compare the intellectual characteristics of the 3 populations and, in particular, to investigate the cognitive profiles of children with co-occurrence. Recent theories consider that procedural learning may support frequent overlap between neurodevelopemental disorders. In particular, the brain networks involved in this learning (cortico-striatal (CS) and cortico-cerebellar (CC) loops) could account for frequent co-morbidity between DCD and DD (about 40 to 60% of DD and DCD subjects suffer from both disorders). The aim of our study was to investigate cerebral changes due to the motor sequence learning process, especially the finger-tapping task (FTT), from acquisition through automatization, in children with DD, DCD, or DD and DCD. The neural circuitry supporting this action is well-known and well-modelled (Doyon et al., 2009), and includes, among others, CC and CS loops. Functional magnetic resonance imaging (fMRI) in 48 children (8-12 years old) with neurodevelopmental disorders (16 DD, 16 DCD and 16 DD+DCD) explored their brain activity during FTT, performed either after 2 weeks of training or in the early stage of learning. First, we analyzed the results in all participants (22 DCD, 20 DD and 23 DD+DCD) in tests assessing cognitive (WISC-IV), attentional (CPT-II) and behavioural (CBCL) abilities. No difference was found between the 3 groups in attention testing (CPT) and behavioural characteristics (CBCL). Significant between-groups differences were observed in Processing Speed Index (PSI) score and the block design and symbol search subtests. Post hoc group comparisons showed that DD fared better than DCD children. No significant differences were found between the co-morbid vs. pure groups: co-morbid association did not cause an accumulation of disorders. Second, our results indicated that all children with DD, DCD or both disorders performed the tasks with good automaticity, but suggested that different compensatory brain processes allowed them to access this automatization stage. Our fMRI results do not appear to confirm Nicolson's model but tend more towards shared disability in CS and CC loops for both DD and DCD, with slight between-group differences in these areas. Moreover, and in agreement with the results of previous fMRI studies in DCD children, our data disclosed increasing evidence that this group needs to invest more brain areas to achieve similar performances. Lastly, it appears that the co-morbid and DD groups are very close in cognitive profile (especially on WISC-IV) and in neural correlates associated with our paradigm, while the DCD group presents specific, distinct and particular characteristics. Our data therefore indicate a promising direction for future research on the neural mechanisms linked with learning in neurodevelopmental disorders and in understanding co-morbidity.
|
68 |
Preuve de propriétés dynamiques en B / Proving dynamic properties in BDiagne, Fama 26 September 2013 (has links)
Les propriétés que l’on souhaite exprimer sur les applications système d’information ne peuvent se restreindre aux propriétés statiques, dites propriétés d’invariance, qui portent sur des états du système pris au même moment. En effet, certaines propriétés, dites propriétés dynamiques, peuvent faire référence à l’état passé ou futur du système. Les travaux existants sur la vérification de telles propriétés utilisent généralement le model checking dont l’efficacité pour le domaine des systèmes d’information est plutôt réduite à cause de l’explosion combinatoire de l’espace des états. Aussi, les techniques, fondées sur la preuve, requièrent des connaissances assez avancées en termes de raisonnement mathématique et sont donc difficiles à mettre en œuvre d’autant plus que ces dernières ne sont pas outillées. Pour palier ces limites, nous proposons dans cette thèse des méthodes de vérification de propriétés dynamiques basées sur la preuve en utilisant la méthode formelle B. Nous nous intéressons principalement aux propriétés d’atteignabilité et de précédence pour lesquelles nous avons défini des méthodes de génération d’obligations de preuve permettant de les prouver. Une propriété d’atteignabilité permet d’exprimer qu’il existe au moins une exécution du système qui permet d’atteindre un état cible à partir d’un état initial donné. Par contre, la propriété de précédence permet de s’assurer qu’un état donné du système est toujours précédé par un autre état. Afin de rendre ces différentes approches opérationnelles, nous avons développé un outil support qui permet de décharger l’utilisateur de la tâche de génération d’obligations de preuve qui peut être longue et fastidieuse / The properties that we would like to express on data-intensive applications cannot be limited to static properties, called invariance properties, which depend on states taken at the same time. Indeed, some properties, called dynamic properties, may refer to the past or the future states of the system. Existing work on the verification of such properties typically use model checking whose effectiveness for data-intensive applications is rather limited due to the combinatorial explosion of the state space. In addition, the techniques, based on the proof, require fairly advanced knowledge and mathematical reasoning especially that they are not always supported by tools. To overcome these limitations, we propose in this thesis proof-based verification approaches that use the B formal method. We are mainly interested in reachability and precedence properties for which we defined formal rules to generate proof obligations that permit to discharge them. A reachability property expresses that there is at least one execution scenario that permits to reach a target state from a given initial state while a precedence property ensures that a given system state is always preceded by another state. To make these different approaches workable, we have developed a support tool that permits to discharge the users from tedious and error-prone tasks
|
69 |
Réalisation d'électrodes enzymatiques à réponse rapide pour l'analyse par injection en flux continu (FIA). Application au suivi en ligne de la production de pénicilline par fermentationMeier, Helmut 25 June 1993 (has links) (PDF)
Ce travail concerne la réalisation d'une électrode enzymatique utilisable pour le suivi en ligne (<i>on-line</i>) d'un procédé de fermentation. Cette étude a nécessité la mise au point d'une nouvelle technique d'immobilisation, applicable à différentes enzymes. Elle est basée sur la formation de liaisons covalentes entre l'enzyme et l'agent portant: le glutaraldéhyde. La méthode consiste en une adsorption de l'enzyme suivie du dépôt, par vaporisation, de l'agent réticulant sur l'extrémité sensible des électrodes de pH en verre. Ce procédé d'immobilisation assure un temps de réponse extrêmement court du biocapteur. Cette performance est un avantage indéniable pour des mesures en continu, tel qu'un système d'analyse par injection en flux continu (FIA). Par la suite, nous avons développé des systèmes FIA incorporant trois différents types de cellules de détection appropriées aux besoins analytiques. Des électrodes à pénicillinase et à uréase, préparées selon la méthode décrite ci-dessus, ont été installées et utilisées dans ces cellules. Les systèmes biocapteurs-FIA, ainsi conçus, ne nécessitent alors ni réacteur enzymatique, ni réactif. De plus, le temps de réponse très court du biocapteur allie aux avantages de la FIA et aux spécificités des cellules a permis d'obtenir une cadence de mesure très élevée. Ce système d'analyse a été applique aux mesures en ligne de la concentration de pénicilline au cours de sa production fermentaire et aux mesures automatiques de l'urée dans les échantillons de sérum humain. Pour cela, nous avons automatise le système biocapteur-FIA et conçu une nouvelle cellule a écoulement agite pour l'installation des électrodes à uréase et a pénicillinase. Ce système biocapteur-FIA donne des résultats satisfaisants pour la détermination de l'urée et surtout s'est révélé extrêmement performant pour le suivi hors ligne et en ligne de la concentration de pénicilline pendant plusieurs fermentations d'une durée de 250 heures environ. Dans ce dernier cas, la comparaison des mesures effectuées avec le système biocapteur-FIA et une méthode classique de dosage (HPLC) est favorable à l'analyseur biocapteur-FIA qui assure des mesures en ligne avec une bonne fiabilité et a un moindre cout, mais aussi en raison de sa simplicité. En rendant possible une exploitation immédiate des mesures en ligne de la concentration en pénicilline par l'ordinateur central de l'installation fermentaire, le système biocapteur-FIA présente un pas important dans l'amélioration du contrôle et/ou de la modélisation des bioprocédés.
|
70 |
Production automatique de modèles tridimensionnels par numérisation 3DKhalfaoui, Souhaiel 19 November 2012 (has links) (PDF)
La numérisation 3D telle que pratiquée aujourd'hui repose essentiellement sur les connaissances de l'opérateur qui la réalise. La qualité des résultats reste très sensible à la procédure utilisée et par conséquent aux compétences de l'opérateur. Ainsi, la numérisation manuelle est très coûteuse en ressources humaines et matérielles et son résultat dépend fortement du niveau de technicité de l'opérateur. Les solutions de numérisation les plus avancées en milieu industriel sont basées sur une approche d'apprentissage nécessitant une adaptation manuelle pour chaque pièce. Ces systèmes sont donc semi-automatiques compte tenu de l'importance de la contribution humaine pour la planification des vues.Mon projet de thèse se focalise sur la définition d'un procédé de numérisation 3D automatique et intelligente. Ce procédé est présenté sous forme d'une séquence de processus qui sont la planification de vues, la planification de trajectoires, l'acquisition et les post-traitements des données acquises. L'originalité de notre démarche de numérisation est qu'elle est générique parce qu'elle n'est pas liée aux outils et méthodes utilisés pour la réalisation des tâches liées à chaque processus. Nous avons également développé trois méthodes de planification de vues pour la numérisation d'objets sans connaissance a priori de leurs formes. Ces méthodes garantissent une indépendance des résultats par rapport au savoir-faire de l'opérateur. L'originalité de ces approches est qu'elles sont applicables à tous types de scanners. Nous avons implanté ces méthodes sur une cellule de numérisation robotisée. Nos approches assurent une reconstruction progressive et intelligente d'un large panel d'objets de différentes classes de complexité en déplaçant efficacement le scanner
|
Page generated in 0.0922 seconds