Spelling suggestions: "subject:"applicatications)"" "subject:"applicationoptions)""
751 |
Factors Influencing Continued Usage of Telemedicine ApplicationsLiu, Xiaoyan 08 1900 (has links)
This study addresses the antecedents of individuals' disposition to use telemedicine applications, as well as the antecedents of their usage to provide insight into creating sustained usage over time. The theoretical framework of this research is Bhattacherjee's expectation-confirmation IS continuance model. By combining a series of key factors which may influence the initial and continued usage of telemedicine applications with key constructs of Bhattacherjee's IS continuance model, this study aims to provide a deeper understanding of barriers to telemedicine app usage and how to facilitate continued use of these apps. Online survey data was collected from college students who are telemedicine application users. A total of 313 responses were gathered, and data analysis was conducted using SmartPLS 3. This dissertation contributes by looking at the IS adoption and IS continuance research simultaneously to connect these two research streams as well as suggesting the usage context of some established IS theory being different with regard to healthcare applications.
|
752 |
Development of a Natural Fiber Mat Plywood CompositeAnthireddy, Prasanna Kumar 08 1900 (has links)
Natural fibers like kenaf, hemp, flax and sisal fiber are becoming alternatives to conventional petroleum fibers for many applications. One such applications is the use of Non-woven bio-fiber mats in the automobile and construction industries. Non-woven hemp fiber mats were used to manufacture plywood in order to optimize the plywood structure. Hemp fiber mats possess strong mechanical properties that comparable to synthetic fibers which include tensile strength and tensile modulus. This study focuses on the use of hemp fiber mat as a core layer in plywood sandwich composite. The optimization of fiber mat plywood was done by performing a three factor experiment. The three factors selected for this experiment were number of hemp mat layers in the core, mat treatment of the hemp mat, and the glue content in the core. From the analysis of all treatments it was determined that single hemp mat had the highest effect on improving the properties of the plywood structure.
|
753 |
Évaluation du potentiel d'une technologie de positionnement intérieur par trilatération ultrasonore pour l'amélioration des trajectoires d'un système lidar mobileChougrad, Mehdi 27 January 2024 (has links)
Depuis quelques années, les techniques de positionnement intérieur deviennent de plus en plus importantes et trouvent leur place dans divers domaines, dont l'arpentage souterrain. Le présent travail a été réalisé dans le cadre du projet MinEyes, dont l'un des principaux objectifs est d'améliorer le positionnement d'un système lidar mobile (SLM) à l'intérieur des tunnels miniers souterrains. Cela permettra d'effectuer une cartographie 3D précise et rapide de ces environnements. Cependant, l'absence de signal GNSS rend cette tâche difficile. L'une des solutions mise en place pour résoudre ce problème est l'utilisation d'une centrale inertielle. Cependant, l'un des inconvénients majeurs de cette technique est l'accumulation d'erreurs dans le temps ce qui provoque la dérive de la trajectoire. Nous proposons donc une méthode combinant un système de positionnement intérieur basé sur la trilatération ultrasonore et un SLM. Nous utilisons pour cela un ensemble de balises ultrasons fixes dont les positions sont connues et qui communiquent avec une cible ultrason mobile lui permettant d'estimer sa trajectoire. La qualité de la trajectoire ainsi estimée est évaluée à l'aide de données obtenues avec une station totale robotisée. Nos expériences ont démontré une incertitude constante de la trajectoire produite sur toute sa longueur. Les écarts obtenus sont de 2 cm pour la coordonnée X (axe suivant la largeur du corridor) et 4 cm pour la coordonnée Y (axe de déplacement de la cible mobile). Suite à la validation de la qualité de la trajectoire générée, nous avons procédé à l'intégration de la cible ultrason mobile sur un SLM servant à la localisation et la production de nuages de points 3D sur un robot conçu sur la plateforme Raspberry Pi, exploitant la librairie ROS (Robot Operating System) et permettant la production de nuages de points géoréférencés. La comparaison du nuage de points ainsi produit avec un nuage de points de référence produit avec un scanneur LiDAR 3D (Faro X130) a montré un écart uniforme ne dépassant pas 4 mm pour 67% de la zone couverte. Ce travail démontre donc le potentiel du système de navigation proposé, basé sur la technologie de trilatération ultrasonore, qui permet d'éviter la dérive d'une plateforme mobile en milieu intérieure. / In recent years, indoor positioning techniques have become increasingly important and are finding their way into various fields, including underground surveying. The present work was carried out within the framework of the MinEyes project. One of its main goals is to improve the positioning of a mobile lidar system (MLS) inside underground mining tunnels. This will allow accurate and fast 3D mapping of these environments. However, the lack of a GNSS signal makes this task difficult. One of the solutions implemented to solve this problem is the use of an inertial measurement unit. However, one of the major drawbacks of this technique is the accumulation of errors over time, which causes the trajectory to drift. We therefore propose a method combining an indoor positioning system based on ultrasonic trilateration and an MLS. We use a set of fixed ultrasonic beacons whose positions are known, and which communicate with a mobile ultrasonic target allowing it to estimate its trajectory. The quality of the estimated trajectory is evaluated using data obtained simultaneously with a robotic total station. Our experiments demonstrated a constant uncertainty of the produced trajectory over its entire length. This uncertainty reaches 2 cm for the X coordinate (axis following the width of the corridor) and 4 cm for the Y coordinate (axis of movement of the mobile target). Following the validation of the quality of the generated trajectory, we proceeded to the integration of the mobile ultrasound target on an MLS used for the localization and the production of 3D point clouds of a robot designed on the Raspberry Pi platform, exploiting the ROS library (Robot Operating System) and allowing the production of georeferenced point clouds. The comparison of a point cloud produced in this way with a reference point cloud produced with a 3D LiDAR scanner (Faro X130) showed a uniform deviation not exceeding 4 mm for 67% of the area covered. This work demonstrates the potential of the proposed navigation system, based on the technology of ultrasonic trilateration, which allows avoiding the drift of a mobile platform in indoor environment.
|
754 |
Étude de la diversité des levures du genre Brettanomyces et de leur potentiel en fermentation brassicoleLadrie, Myriam 02 February 2024 (has links)
Les levures du genre Brettanomyces sont considérées depuis longtemps comme des contaminants par les industries vinicoles et brassicoles dû aux composés phénoliques indésirables qu’elles produisent. Cependant, l’utilisation des espèces B. bruxellensis et B. anomalus en brasserie est maintenant plus répandue grâce à leur capacité à diversifier les composés aromatiques produits par la traditionnelle levure Saccharomyces cerevisiae. Malgré cette émergence dans le domaine brassicole, peu d’informations sont disponibles en ce qui concerne la diversité génétique des souches et leur potentiel en fermentation. À notre connaissance, aucune méthode permettant de caractériser, d’identifier rapidement les souches de Brettanomyces spp. et pouvant facilement être mise en place dans un contexte industriel est présentement disponible. L’objectif de l’étude était donc de développer une nouvelle méthode rapide et fiable pour le typage moléculaire des levures Brettanomyces spp. dans l’optique de différencier les espèces et les souches, ainsi que de prédire leur potentiel brassicole. À cet effet, la méthode de typage génétique Random Amplification of Microsatellites (RAM)-PCR utilisant l’amorce (CGA)₅ a été développée et validée avec la méthode Restriction Endonuclease Analysis-Pulsed-Field Gel Electrophoresis (REA-PFGE) sur vingt-deux (22) souches de Brettanomyces spp., une (1) souche de Pichia kluyveri, une (1) souche de Candida parapsilosis, une (1) souche de Schizosaccharomyces pombe et une (1) souche de Saccharomyces cerevisiae, toutes isolées de bières, ferments commerciaux, vin rouge, levain et kombucha. Des essais de fermentation primaire ont révélé que les souches ayant un bon potentiel brassicole se trouvent dans les mêmes groupes phylogénétiques générés avec la méthode RAM-PCR et l’amorce (CGA)₅. Le projet a donc permis de fournir un outil efficace pour les brasseurs et les fournisseurs de levures pour l’identification rapide des espèces, des souches et du potentiel brassicole de levures Brettanomyces spp. provenant de différents substrats, sans avoir à faire appel aux techniques de séquençage et d’essais de fermentation qui sont plus coûteux ou qui demandent plus de temps à réaliser. / The yeasts of the genus Brettanomyces are often considered as a major contaminant in the wine and beer industries because of their production of phenolic off-flavors. Recently, few species of this genus, especially B. bruxellensis and B. anomalus, have been used in beers to enlarge the pool of aromatic compounds produced by the traditional Saccharomyces cerevisiae starter used for decades in breweries. The characterization of Brettanomyces species is therefore crucial to identify the strains showing interesting technological traits. However, to our knowledge, no fast method is currently available to evaluate the genetic diversity of the genus Brettanomyces which can be easily adapted in an industrial context. The aim of this study was to develop and optimize a new, fast and reliable typing method used for the species and strains differentiation of Brettanomyces spp. isolates and for the prediction of their brewing potential. Twenty-two (22) strains of Brettanomyces, one (1) Pichia kluyveri, one (1) Candida parapsilosis, one (1) Schizosaccharomyces pombe and one (1) Saccharomyces cerevisiae were isolated from beer, red wine, kombucha, sourdough, chicha and commercial starters and used for the development of a method based on the Random Amplification of Microsatellites (RAM)-PCR technique with (CGA)₅. This method was validated with the already existent and reliable Restriction Endonuclease Analysis coupled with Pulsed-Field Gel Electrophoresis (REA-PFGE) method. Further fermentation assays revealed that potential brewing isolates were clustered in the same phylogenetic group generated with RAM-PCR electrophoretic profiles. The study allowed the development of a useful tool for brewers and yeast suppliers for the identification at the species and strains levels and the brewing potential of various Brettanomyces spp. isolates, without the need for sequencing and laborious fermentation assays.
|
755 |
A General Machine Reading Comprehension pipelineDebruyker, Roxane 13 December 2023 (has links)
Savoir lire est une compétence qui va de la capacité à décoder des caractères à la compréhension profonde du sens de textes. Avec l'émergence de l'intelligence artificielle, deux questions se posent : Comment peut-on apprendre à une intelligence artificielle à lire? Qu'est-ce que cela implique? En essayant de répondre à ces questions, une première évidence nous est rappelée : savoir lire ne peut pas se réduire à savoir répondre à des questions sur des textes. Étant donné que les modèles d'apprentissage machine apprennent avec des exemples d'essai erreur, ils vont apprendre à lire en apprenant à répondre correctement à des questions sur des textes. Cependant, il ne faut pas perdre de vue que savoir lire, c'est comprendre différents types de textes et c'est cette compréhension qui permet de répondre à des questions sur un texte. En d'autres termes, répondre à des questions sur des textes est un des moyens d'évaluation de la compétence de lecture plus qu'une fin en soi. Aujourd'hui, il existe différents types de jeux de données qui sont utilisées pour apprendre à des intelligences artificielles à apprendre à lire. Celles ci proposent des textes avec des questions associées qui requièrent différents types de raisonnement : associations lexicales, déductions à partir d'indices disséminés dans le texte, paraphrase, etc. Le problème est que lorsqu'une intelligence artificielle apprend à partir d'un seul de ces jeux de données, elle n'apprend pas à lire mais est plutôt formée à répondre à un type de question, sur un certain type de texte et avec un certain style d'écriture. Outre la problématique de la généralisation des compétences de lecture, les modèles d'intelligence artificielle qui apprennent à lire en apprenant à répondre à des questions retournent des réponses sans systématiquement indiquer sur quelles phrases du texte sources ils se basent. Cela pose un problème d'explicabilité et peut entrainer une mécompréhension des capacités de ces modèles. Dans ce mémoire, nous proposons de résoudre le problème de généralisation de l'apprentissage en proposant une méthodologie générale adaptée à n'importe quel jeu de données. Ainsi, en ayant une méthodologie commune à tous les types de jeux de données pour apprendre à répondre à tout type de question, sur tout type de texte, nous pourrions apprendre aux modèles d'intelligence artificielle à se concentrer sur les compétences générales de lecture plutôt que sur la capacité spécifique à répondre aux questions. Afin de résoudre également le problème de l'explicabilité, la méthodologie que nous proposons impose à tout modèle de compréhension de lecture automatique de renvoyer les extraits du texte source sur lequel ces réponses sont basées. / Reading is a skill that ranges from the ability to decode characters to a deep understanding of the meaning of a text. With the emergence of artificial intelligence, two questions arise: How can an artificial intelligence be taught to read? What does this imply? In trying to answer these questions, we are reminded of the obvious: knowing how to read cannot be reduced to knowing how to answer questions about texts. Since machine learning models learn with trial-and-error examples, they will learn to read by learning to answer correctly questions about the text they read. However, one should not forget the fact that knowing how to read means understanding different types of texts sufficiently well, and it is this that enables answering questions about a text. In other words, answering questions about texts is one of the means of assessing reading skills rather than an end in itself. Today, there are different types of datasets that are used to teach artificial intelligences to learn to read. These provide texts with associated questions that require different types of reasoning: lexical associations, deductions from discrete clues in the text, paraphrasing, etc. The problem is that when an artificial intelligence learns from only one of these datasets, it does not learn to read but is instead trained to answer a certain type of question, on a certain type of text and with a certain writing style. In addition to the problem of generalizing reading skills, artificial intelligence models that learn to read by learning to answer questions return answers without systematically indicating which sentences in the source text they are based on. This poses a problem of explicability and can lead to a misunderstanding of the capabilities of these models. In this thesis, we propose to solve the generalization issue of learning from one dataset by proposing a general methodology suiting to any machine reading comprehension dataset. Thus, by having a methodology common to all types of datasets to learn how to answer any type of question, on any type of text, we could teach artificial intelligence models to focus on general reading skills rather than on the specific ability to answer questions. In order to also solve the issue of explanability, the methodology we propose impose any machine reading comprehension model to return the span of the source text its answers are based on.
|
756 |
Les textes générés par intelligence artificielleLebrun, Tom 24 January 2024 (has links)
Titre de l'écran-titre (visionné le 10 janvier 2023) / Cette thèse examine le statut littéraire et, dans une moindre mesure, juridique, des textes générés par intelligence artificielle (IA). Elle s'intéresse particulièrement aux textes créés par des méthodes de génération dites « par apprentissage », soit tout ce qui relève de l'apprentissage automatique, également appelé apprentissage machine ou apprentissage statistique. Elle pose l'hypothèse d'un nouveau type de littérature générative, qualifiée de génération par apprentissage, qui propose un rapport intertextuel inédit entre l'œuvre générée et ses sources et fait la preuve d'une autonomie nouvelle de l'œuvre par rapport à son auteur traditionnel autonomie qui se négocie au prix d'une dépendance accrue au corpus de sources utilisés pour l'entraînement du modèle d'IA utilisé. Cette autonomie est pour l'heure inédite dans l'histoire littéraire et n'avait, jusqu'ici, pas encore fait l'objet d'un examen scientifique systématique ; l'objet de cette thèse est de combler cette lacune doctrinale. La thèse examine donc ce que ce nouveau type de littérature en partie autonome par rapport à ses auteurs (mais dépendante envers les sources d'entraînement) fait à la littérature au travers de quatre chapitres distincts. Le chapitre 1 retrace l'histoire de la question de l'autonomie en littérature vue sous l'angle de la contrainte. Après un rappel de l'histoire littéraire en matière de génération informatique (de l'OuLiPo à l'Alamo), elle examine les différents types de génération de textes par informatique, distinguant la génération combinatoire, la génération automatique et la nouvelle génération dite « par apprentissage ». Dans le cas de chacun de ces types, le rôle du modèle informatique, des sources et de l'auteur sont examinés successivement, illustrant une autonomisation croissante du texte par rapport à son auteur. Le chapitre 2 examine le rapport d'appropriation des sources qu'impose tout modèle de génération par apprentissage et ses conséquences d'un point de vue littéraire, notamment par le biais des notions de transtextualité et de transfictionnalité. Trois grands types de textes générés par apprentissage sont distingués et décrits, chacun avec leurs propres spécificités qui permettent d'éclaircir la diversité des pratiques de ce nouveau type de littérature (le texte œuvre d'art, le texte édité, le texte appropriant). Le chapitre 3 est consacré à la question de l'autorité des textes générés par apprentissage, laquelle est remise en question par l'autonomie des créations vis-à-vis de leurs auteurs. Ce chapitre est l'occasion de recentrer le débat sur la posture d'auteurs qui doivent composer avec l'autonomie des systèmes qu'ils utilisent et la dépendance formelle des textes qu'ils produisent envers les sources. Ces auteurs usent de stratégies variées en fonction de leurs intentions, marquant par des discours spécifiques leur position face aux textes. Le chapitre 4 se focalise, quant à lui, sur la question de la lecture et de la réception des textes générés par apprentissage. La diversité de ces pratiques achève sans doute de prouver l'existence d'une grande variété de textes générés par apprentissage autant que leur caractère singulier appelant un renouveau théorique conséquent. Ce renouveau force en partie un retour vers les théories communicationnelles de la littérature, aussi critiquées qu'elles aient pu l'être ces dernières années. La thèse conclut conséquemment non seulement sur l'existence d'un nouveau type de texte littéraire, mais aussi sur la redéfinition profonde de la littérature qui en découle. / This thesis examines the literary and, to a lesser extent, legal status of texts generated by artificial intelligence (AI). It is particularly interested in texts created by so-called "machine learning" methods. It poses the hypothesis of a new type of generative literature, qualified as machine learning generated, which proposes a new intertextual relationship between the generated work and its sources and demonstrates a new autonomy of the work in relation to its traditional author an autonomy which is negotiated at the price of an increased dependence on the corpus of sources used to train the AI model used. This autonomy is, for the time being, unprecedented in literary history and has not, until now, been the subject of a systematic scientific examination; the purpose of this thesis is to fill this doctrinal gap. The thesis therefore examines what this new type of literature, partly autonomous from its authors (but dependent on training sources), does to literature through four distinct chapters. Chapter 1 traces the history of the question of autonomy in literature as seen through the lens of constraint. After a reminder of the literary history of computational generation (from OuLiPo to the Alamo), it examines the different types of computational generation of texts, distinguishing between combinatorial generation, automatic generation and the new so-called "learning" generation. In the case of each of these types, the role of the computer model, of the sources and of the author are examined successively, illustrating an increasing autonomy of the text with respect to its author. Chapter 2 examines the relationship of appropriation of the sources imposed by any model of generation by learning and its consequences from a literary point of view, notably through the notions of transtextuality and transfictionality. Three main types of texts generated by learning are distinguished and described, each with their own specificities that allow to clarify the diversity of the practices of this new type of literature (the work of art text, the edited text, the appropriating text). Chapter 3 is devoted to the question of the authority of texts generated by learning, which is called into question by the autonomy of creations vis-à-vis their authors. This chapter is an opportunity to refocus the debate on the posture of authors who have to deal with the autonomy of the systems they use and the formal dependence of the texts they produce on the sources. These authors use various strategies according to their intentions, marking by specific discourses their position in front of the texts. Chapter 4 focuses on the question of reading and receiving texts generated by learning. The diversity of these practices undoubtedly proves the existence of a vast diversity of texts generated by learning as much as their singular character calling for a consequent theoretical renewal. This renewal in part forces a return to communicative theories of literature, as criticized as they have been in recent years. The thesis therefore concludes not only on the existence of a new type of literary texts, but also on the profound redefinition of literature that follows from it.
|
757 |
Utilisation des algorithmes Géodésique et Zipper pour le calcul de domaines doublement connexesRajon, Quentin 12 April 2018 (has links)
Le but de ce mémoire est de présenter une généralisation des algorithmes Zipper et Géodésique, dans les cas de calculs d'applications conformes entre deux domaines doublement connexes. Nous aurons donc besoin dans un premier temps, de connaître les domaines doublement connexes et de classifier les domaines multiplement connexes de référence, ainsi que les applications analytiques permettant de s'y ramener. On définira brièvement, par la suite, les notions de capacité et de capacité hyperbolique. Ceci nous permettra d'énoncer un théorème de représentation conforme en connectivité 2. Nous travaillerons ensuite sur les revêtements universels des domaines considérés, de sorte à pouvoir récupérer les algorithmes existants dans le cas simplement connexe, et principalement, les algorithmes Zipper et Géodésique.
|
758 |
Biodiesel production under ultrasound and homogeneous catalystsShinde, Kiran 02 July 2024 (has links)
Le biodiesel est obtenu par une réaction de transestérification de triglycérides d’huiles végétales ou des graisses par un monoalcool comme le méthanol. Cette réaction est aussi connue sous la désignation d’alcoholyse. La technique de production de biodiesel sous ultrasons est une nouvelle technologie prometteuse pour cette alternative aux combustibles fossiles. La production de biodiesel sous ultrasons est basée sur l’utilisation de sondes ultrasoniques. En utilisant cette technique, le biodiesel peut être produit à grande échelle. Des techniques d’ultrasonification continue peuvent causer une forte émulsion des phases de l’alcool et d’huile rapidement. Pour un temps de résidence faible, de fortes conversions sont obtenues en présence de différents catalyseurs homogènes. Par conséquent, il est nécessaire de régler les défis restants de la production de biodiesel, en termes de conception de réacteur, de récupération des catalyseurs, de coûts et d’enjeux environnementaux, pour que cette méthode de production de biodiesel devienne une technologie industrielle viable. Les technologies de production de biodiesel étudiées précédemment comportent encore certains défis comme : le problème de récupération du méthanol, la séparation des catalyseurs, le temps de réaction, la température de réaction et les impuretés dans les produits. Donc, il y a toujours un besoin continu pour le développement et la modification des technologies de production du biodiesel. Ce travail abordera le sujet du développement de la production de biodiesel sous ultrasons. L’aspect original des conclusions du travail est la vision par laquelle les ondes ultrasonores affectent la vitesse des réactions de transestérification. Les ultrasons génèrent de fines émulsions du système biphasique dans tout le volume du réacteur. Ceci va évidemment affecter le transfert de masse interphase. Le volume catalytiquement actif est toutefois restreint a une petite zone de réaction située à proximité de la sonde sonotrode. Dans cette fraction du volume, une vitesse de réaction extrêmement élevée est fort probablement associée à des effets de cavitation. Pour augmenter la production de biodiesel par l’éthanol sous ultrasons, nous avons testé les effets possibles d’une addition de méthanol ou d’autres composantes à basse tension de vapeur sur le phénomène accélérant dans les réactions de transestérification des triglycérides, du aux ultrasons. Dans la dernière partie de ce travail, nous avons étudié la réaction de transestérification de l’huile de canola avec du méthanol sur différents types de catalyseurs utilisant à la fois une agitation mécanique et les ultrasons. L’efficacité du transfert de masse dans le champ ultrasonore a amélioré la conversion maximale de transestérification comparativement aux conditions d’agitation mécanique. Dans le cas du propyl-2, 3 dicyclohexylguanidine et 1, 3- dicyclohexyl 2 n-octylguanidine (DCOG) utilisés comme catalyseurs sous ultrasons, les réactions de transestérification que nous avons obtenues ont causé une augmentation notable de la vitesse de conversion des triglycérides. Dams ce cas plus de 80% de récupération de la guanidine dans le mélange réactionnel a été possible en utilisant une colonne d’échange cationique à base de silice. Mots clés: ultrason, transestérification, huile de canola, FAME, méthoxyde de sodium, hydroxyde de sodium, l'hydroxyde de potassium, tétraméthyle d’hydroxyde d’ammonium, Guanidine, colonnes d'échange de cation de silice. / Biodiesel is obtained by transesterification reaction of triglycerides from vegetable oils or fats and a mono alcohol like methanol. This reaction is also known as alcoholysis. Ultrasound biodiesel production technique has recently emerged as a promising technology for synthesis of this alternative for fossil fuels. Ultrasound biodiesel production is based on the use of ultrasonic probes. By using this technique biodiesel production can be made on a large scale. Continuous ultrasonication technique can induce strong emulsion of alcohol and oil phases in a short time. Within very small residence time, high conversions are obtained in presence of different homogeneous catalysts. Therefore, it is necessary to solve the remaining challenges of biodiesel production, in terms of reactor design, catalyst recovery, cost and environment issues, in order to address the biodiesel production as a viable industrial technology. The previously studied biodiesel production technologies still show some challenges such as: methanol recovery issue, catalyst separation, reaction time, reaction temperature and oxide impurities in products. Therefore, there is still need to develop and modify the continuous biodiesel production technology. This work deals with the development of ultrasound biodiesel production. The original aspect of the present work conclusions is a vision of how ultrasound waves affect the transesterification reactions rates. Ultrasounds generate a fine emulsion of the biphasic system in the entire reactor volume. This will obviously affect interphase mass transfer. The catalytically active volume is however restricted to a small part of the reaction medium located in the immediate vicinity of the sonotrode probe. Within this volume fraction the extremely high reaction rate is very likely associated with the effects of cavitation. To increase the biodiesel production in presence of ethanol under ultrasound we tested the possible effects of minor methanol or other low vapor tension component additions on the accelerating phenomenon in triglycerides transesterification reactions due to ultrasounds. In the last part of the work we studied the transesterification reaction of canola oil with methanol and different types of catalysts using both mechanical stirring and ultrasonication reaction. The efficiency of mass transfer in the ultrasound field enhanced the higher rate of transesterification reaction as compared to stirring conditions. In case of propyl-2, 3 dicyclohexylguanidine and 1, 3- dicyclohexyl 2 n-octylguanidine (DCOG) as catalysts under ultrasound transesterification reaction we got noticeable TG conversion where as more than 80% regeneration of guanidine is possible from the reaction mixture by using silica cation exchanger columns. Keywords: ultrasound, transesterification, canola oil, FAME, sodium methoxide, sodium hydroxide, potassium hydroxide, Tetramethyl ammonium hydroxide, Guanidine, silica cation exchanger columns.
|
759 |
A SYSTEMS APPROACH TO THE DESIGN OF A PARCEL RECEIVING SYSTEM.Wilson, Dennis C. January 1983 (has links)
No description available.
|
760 |
Des réseaux de processus cyclo-statiques à la génération de code pour le pipeline multi-dimensionnel / From Cyclo-Static Process Networks to Code Generation for Multidimensional Software PipeliningFellahi, Mohammed 22 April 2011 (has links)
Les applications de flux de données sont des cibles importantes de l’optimisation de programme en raison de leur haute exigence de calcul et la diversité de leurs domaines d’application: communication, systèmes embarqués, multimédia, etc. L’un des problèmes les plus importants et difficiles dans la conception des langages de programmation destinés à ce genre d’applications est comment les ordonnancer à grain fin à fin d’exploiter les ressources disponibles de la machine.Dans cette thèse on propose un "framework" pour l’ordonnancement à grain fin des applications de flux de données et des boucles imbriquées en général. Premièrement on essaye de paralléliser le nombre maximum de boucles en appliquant le pipeline logiciel. Après on merge le prologue et l’épilogue de chaque boucle (phase) parallélisée pour éviter l’augmentation de la taille du code. Ce processus est un pipeline multidimensionnel, quelques occurrences (ou instructions) sont décalées par des iterations de la boucle interne et d’autres occurrences (instructions) par des iterationsde la boucle externe. Les expériences montrent que l’application de cette technique permet l’amélioration des performances, extraction du parallélisme sans augmenter la taille du code, à la fois dans le cas des applications de flux des donnée et des boucles imbriquées en général. / Applications based on streams, ordered sequences of data values, are important targets of program optimization because of their high computational requirements and the diversity of their application domains: communication, embedded systems, multimedia, etc. One of the most important and difficult problems in special purpose stream language design and implementation is how to schedule these applications in a fine-grain way to exploit available machine resources In this thesis we propose a framework for fine-grain scheduling of streaming applications and nested loops in general. First, we try to pipeline steady state phases (inner loops), by finding the repeated kernel pattern, and executing actor occurrences in parallel as much as possible. Then we merge the kernel prolog and epilog of pipelined phases to move them out of the outer loop. Merging the kernel prolog and epilog means that we shift acotor occurrences, or instructions, from one phase iteration to another and from one outer loop iteration to another, a multidimensional shifting. Experimental shows that our framwork can imporove perfomance, prallelism extraction without increasing the code size, in streaming applications and nested loops in general.
|
Page generated in 0.119 seconds