• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 93
  • 26
  • 5
  • 2
  • 1
  • 1
  • Tagged with
  • 129
  • 34
  • 22
  • 19
  • 16
  • 14
  • 14
  • 11
  • 11
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Automatisation de la perfusion continue ambulatoire d'insuline visant la normalisation glycémique dans le diabète de type 1 : développements pour améliorer le contrôle postprandial / Automatization of the ambulatory insulin perfusion aiming in-range glycaemic control in type 1 diabetes : developments to improve postprandial control

Diouri, Omar 05 December 2016 (has links)
L’insulinothérapie fonctionnelle (IF) est une méthode de prise en charge du diabète de type 1 (DT1) qui vise à adapter le traitement insulinique des malades à leur mode de vie. Elle repose sur l’autonomisation du patient qui est alors libre de choisir ce qu'il veut manger dans la mesure où il adapte ses doses d’insuline en fonction des aliments consommés. Malgré la formation des patients à cette méthode, l’estimation des glucides contenus dans les repas s’avère parfois difficile et les calculs des doses d’insulines sont régulièrement erronés. Grâce aux capacités technologiques des smartphones, ont vu le jour de nouveaux outils remplaçant les traditionnels carnets et répertoires glucidiques avec pour objectif d’aider les patients dans ces tâches quotidiennes. Peu d’études ont été réalisées pour évaluer l’efficacité réelle de ces dispositifs.Après un exposé des outils couramment utilisés par les patients DT1 sous IF, nous verrons quelles sont les principales applications mobiles qui sont disponibles et qui permettent d’évaluer les glucides des repas et de calculer les doses d’insulines. Nous discuterons ensuite des quelques études cliniques évaluant ces applications.Nous présenterons enfin une application android originale d’aide au comptage de glucides et d’estimation de bolus appelée GLUCAL et développée au sein de l’équipe diabétologie du CHRU Lapeyronie. Cet outil a été testé au cours de deux études cliniques. Un essai préliminaire a été conduit avant une étude randomisée-croisée qui est la seule à avoir été menée à ce jour sur une application de ce type.Ce travail permettra de savoir dans quelle proportion GLUCAL est capable d’améliorer le comptage des glucides et de réduire les erreurs de calculs des bolus, mais également d’évaluer son impact sur le contrôle glycémique des patients. / Carbohydrates (carb) and bolus counting is a therapeutic method used in type 1 diabetes (TD1) which aims to adapt insulin treatment to patient own way of life. It is based on patient’s autonomy since they are allowed to eat any type of food on the condition to adapt insulin doses to the meal ingested. Patients receive a medical education to implement this method, but still carb counting remains a hard task and boluses are frequently erroneous.Thanks to smartphone technical capacities, many applications replacing paper documents and booklets aiming at helping patients in these daily tasks have been developed. But very few studies were conduced to evaluate them clinically.After an overview of the common tools used by TD1 patients to count carbs , we will see the main mobile applications available to help patient in carb counting and bolus estimation. We will then discuss the few clinical studies conduced on those apps.We will finally present an original android application called GLUCAL and developed by the diabetology team of the University Hospital of Montpellier (France). This tool was tested during two clinical studies. A preliminary study has been conduced before a randomized cross-over study which is the first one performed on such an application.This work will help to evaluate the role of GLUCAL in improving carb counting and reducing mistakes of bolus calculation. It will also assess the performance of the application on patient’s glycaemic control.
12

Diagnostic des systèmes linéaires en boucle fermée / Diagnosis of closed-loop linear systems

Baïkeche, Hamid 30 October 2007 (has links)
Dans la majeure partie des travaux effectués dans le domaine de la surveillance des systèmes, les outils servant à la détection et à la localisation des défauts sont synthétisés à partir d'une représentation en boucle ouverte du système. Or, la réalité des applications industrielles fait que les systèmes sont majoritairement insérés dans une boucle de régulation ou d'asservissement. Dans ce contexte, la tâche de diagnostic s'avère particulièrement délicate pour différentes raisons. D'une part, le contrôleur peut atténuer l'effet des défauts ce qui rend difficile leur détection. D'autre part, les entrées du système étant corrélées avec les sorties à cause du bouclage cela engendre une difficulté pour la localisation. Les travaux présentés dans cette thèse se scindent en deux parties: la première porte sur l'analyse systématique de la sensibilité des différents signaux de la boucle de régulation par rapport aux défauts (paramétriques et non paramétriques). L'objectif est de sélectionner ceux qui contiennent le plus d'information sur les défauts pour être exploités par la procédure du diagnostic. La deuxième propose une méthode de détection et de localisation de défauts des systèmes linéaires en boucle fermée soumis à des défauts additifs. Le principe de la méthode consiste à découpler les défauts des sorties afin que chaque défaut affecte une seule sortie ce qui facilite leur localisation / In most of the works concerning system supervision, the methods developed for fault detection and isolation are synthesized from an open-loop representation of the system. But considering real industrial applications, it appears that , most of the times, the system is inserted in a control loop with output feedback. In this context, the task of diagnosis is tedious for several reasons. Firstly, the controller is designed in order to attenuate the effect of the faults, consequently their detection becomes challenging. Secondly, due to the output feedback, the system inputs are correlated with the system outputs, which can complicate the fault isolation. The works presented in the present thesis can be divided into two parts. The first one focuses on the systematic analysis of the sensitivity of the several signals of the control loop with respect to the faults (both additive and parametric faults have been considered). The sensitivity analysis is carried out to select the signal encompassing most information on fault in order to be used for fault diagnosis. In the second one, a fault detection and isolation method based on input-output decoupling is presented for closed-loop linear systems with additive faults. The point is to compute an output feedback such that each fault affects only one output, and thus ease the diagnosis
13

Réalisation d'une unité d'hydroformylation automatisée.

Pfister, Pierre-Marie, January 1900 (has links)
Th. doct.-ing.--Sci. des matér.--Toulouse--I.N.P., 1983. N°: 263.
14

Investigating the neural substrates mediating visuomotor adaptation : from beginner to expert

Bouras, Raby January 2007 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
15

ORDONNANCEMENT EN TEMPS REEL DANS LES PROBLEMES A EN-COURS LIMITES /

Chauvet, Fabrice. Proth, Jean-Marie. January 1999 (has links) (PDF)
Thèse de doctorat : SCIENCES ET TECHNIQUES : Metz : 1999. / 1999METZ023S. 161 ref.
16

Automatisation de la mesure des propriétés de transport électronique d'alliages métalliques liquides étude des alliages or-polyvalents (Au Ga, Au Ge, Au In, Au Sb) /

El Bakkali Taheri, Mohammed. January 2008 (has links) (PDF)
Reproduction de : Thèse de doctorat : Physique : Metz : 1994. / Titre provenant de l'écran-titre. Notes bibliographiques. Index.
17

Investigating the neural substrates mediating visuomotor adaptation : from beginner to expert

Bouras, Raby January 2007 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
18

Collaboration et automatisation dans le transfert de connaissances : perception des agents logiciels par les contributeurs de Wikipédia

Clément, Maxime 23 April 2018 (has links)
Avec le développement considérable des médias sociaux, les projets collaboratifs de grande ampleur visant au partage de connaissance, tel Wikipédia, doivent gérer des quantités faramineuses d’informations. Cette croissance force ces communautés à fournir de nombreux efforts afin de maintenir la précision et la structure de la base de données. Ceci est particulièrement important pour les informations sensibles, telles que les informations de type médical. Des agents logiciels – appelés « bots » – ont été développés sur la plupart de ces nouveaux médias afin de faciliter la gestion de ces grandes quantités de données, notamment en assurant certaines tâches de maintenance et en effectuant des corrections sur les contributions d’utilisateurs. Toutefois, la manière dont des utilisateurs humains réagissent aux rétroactions réalisées par les bots est inconnue. En utilisant Wikipédia comme modèle, nous avons analysé les différents types de réaction des éditeurs selon les caractéristiques spécifiques reliées aux tâches des bots, à partir d’un corpus de 6 528 interventions d’éditeurs humains, sur les pages de discussions de 50 bots actifs entre le 4 janvier 2012 et le 2 janvier 2013, sur les articles de la version anglaise de Wikipédia (soit 2 353 différentes discussions). L’activité des bots qui y est observée est très associée au fonctionnement de la communauté interne de Wikipédia. Les bots dont les activités étaient fortement reliées au travail des autres éditeurs (c.à.d. avec un haut degré de contrainte ou de visibilité) déclenchent plus de réponses. En combinant différentes caractéristiques de bots, nous avons pu définir deux idéaux types opposés de bots avec des comportements distincts : les bots « servants » qui réalisent principalement des tâches laborieuses et répétitives à la place des éditeurs humains ; ainsi que les bots « policiers » qui appliquent systématiquement les normes et règles de conduite de Wikipédia. Ces derniers engendrent des réponses davantage polarisées chez les éditeurs. Publiés dans Computer in Human Behavior, nos résultats démontrent un étonnant niveau d’acceptation des bots, modulé par différentes réactions selon les types de tâches réalisées par ces derniers. Ceci questionne la capacité de la communauté de Wikipédia à atteindre l’équilibre entre la participation large à l’encyclopédie et sa standardisation.
19

Automatisation du procédé de béton projeté : contrôle du rebond et vision numérique

Schaeffer, Julien 27 March 2023 (has links)
Le virage technologique débutant dans le secteur du génie civil a permis la création d'outils et de procédés tournés vers le numérique et l'automatisation. Le béton projeté, qui comprend un grand potentiel d'automatisation, ne doit pas faire exception à la règle puisque l'avancement et l'optimisation des méthodes de production sont clairement poussés en avant par cet élan technologique. Le Laboratoire de béton projeté de l'Université Laval travaille depuis plus de 15 ans sur plusieurs initiatives de recherche visant à comprendre et à améliorer la méthode de mise en place qu'est le béton projeté. Sur cette base de réflexion, un effort de recherche visant à réduire le rebond et à automatiser le procédé par voie sèche avec un bras robotisé a été lancé avec le projet SPARO. Le présent projet de recherche se place dans sa continuité directe, et il s'articule autour de 4 axes principaux : optimisation et compréhension du phénomène de rebond, étude de l'influence de l'automatisation du procédé sur les propriétés du béton projeté durci, amélioration de l'autonomie du procédé et enfin, développement d'une assistance au lancier. La première partie du projet contribue à la compréhension des interactions entre les différentes trajectoires et le rebond, notamment avec l'utilisation de la trajectoire dite planétaire. Elle présente des valeurs de rebond remarquablement faibles et proches de celles obtenues usuellement par voie humide; elle apporte le concept de rebond fondamental du matériau et génère moins de rebonds que la trajectoire « classique » largement adoptée par les lanciers. L'hypothèse soutenue est que la trajectoire optimale est celle qui, pour une consigne d'épaisseur donnée, couvre une surface de taille maximale, tout en s'assurant que chaque portion de cette surface soit impactée, ou excitée, en permanence de façon à dépasser une fréquence énergétique critique du substrat, facilitant la capture des particules. L'étude des propriétés du béton projeté à l'état durci souligne que la technique de mise en place a un effet important sur la résistance en compression. Une diminution de 7% est observée entre la méthode automatisée et un projeteur traditionnel; en revanche, aucun changement n'a été observé pour la porosité. Dans la contribution à l'automatisation globale du système, l'utilisation de la vision numérique a montré des résultats très satisfaisants. Une méthode automatique de mesure de l'épaisseur projetée et de sa correction a été développée à l'aide d'un capteur LIDAR. En parallèle, l'adaptation de certains capteurs a permis de développer un système d'aide au lancier, offrant des renseignements sur l'angle et la distance de la lance par rapport à la surface projeté. / The technological transition in civil engineering has led to the creation of tools and processes oriented towards digitalization and automation. Shotcrete, which presents a great potential for automation, should not be an exception to the trend since the advancement and optimization of production methods are clearly pushed forward by this technological boom. The Shotcrete Laboratory of Université Laval has been working for more than 15 years on several research initiatives in order to understand and improve the shotcrete process. On this basis, a research initiative aimed at reducing rebound and automating the dry process with a robotic arm was launched with the SPARO project. The present research project is in direct continuation. It is organized around 4 main axes, with the optimization and the comprehension of the phenomenon of rebound, the study of the influence of the automation process on the properties of the hardened shotcrete, the improvement of the process's autonomy and, finally, the development of nozzleman assistance. The first part contributes to understanding the interactions between the different nozzle trajectories and rebound, especially with the use of the so-called planetary path. It shows remarkably low values of rebound, close to the one usually obtained with wet-mix shotcrete. It brings the concept of fundamental rebound of the materials and generates less rebound than the "classical" trajectory widely adopted by nozzlemen. The hypothesis supported is that the optimal trajectory is the one that, for a given thickness, covers a surface of maximum size, while ensuring that each portion of this surface is constantly impacted, or excited, so as to exceed a critical energy frequency of the substrate, faciliting the capture of incoming particles. The study of the hardened concrete's properties underlines that the placement technique has an important effect on the compressive strength. A decrease of 7% is observed between the automated method and a traditional sprayer, on the other hand, no changes were observed concerning the porosity. In the contribution to the overall system's automation, the use of computer vision showed very satisfying results. An automatic method for measuring the sprayed thickness and its subsequent corrections has been developed using a LIDAR sensor. In parallel, adapting certain sensors package has made possible the development of a nozzlemen's assistance, giving information on the nozzle’s angle and distance with regards to the sprayed surface.
20

Réutilisation d'entités nommées pour la réponse au courriel

Danet, Laurent 12 April 2018 (has links)
La réponse automatique aux courriels est une solution envisagée pour faciliter le travail de certains services d’entreprises, tels que les services à la clientèle ou les relations avec des investisseurs, services confrontés à un grand nombre de courriels souvent répétitifs. Nous avons décidé d’adapter une approche de raisonnement à base de cas (CBR - Case-Based Reasoning) pour confronter ce problème. Cette approche vise à réutiliser des messages antérieurs pour répondre à de nouveaux courriels, en sélectionnant une réponse adéquate parmi les messages archivés et en l’adaptant pour la rendre pertinent par rapport au contexte de la nouvelle requête. L’objectif de nos travaux est de définir une démarche pour aider l’usager d’un système de réponse au courriel à réutiliser les entités nommées de courriels antécédents. Cependant, les entités nommées nécessitent une adaptation avant d’être réutilisées. Pour ce faire, nous effectuons deux tâches qui sont d’abord l’identification des portions modifiables du message antécédent et ensuite la sélection des portions qui seront adaptées pour construire la réponse à la requête. Les deux tâches nécessitent l’utilisation de connaissances. Notre problématique consiste à déterminer si les approches adaptatives, basées sur des techniques d’apprentissage automatique permettent d’acquérir des connaissances pour réutiliser efficacement des entités nommées. La première tâche d’identification des portions modifiables s’apparente à l’extraction d’information. Toutefois nous nous intéressons uniquement aux entités nommées et à leurs spécialisations. La seconde tâche, la sélection de portions à adapter, correspond à une catégorisation de textes dans laquelle nous utilisons la requête pour attribuer une classe à la réponse que nous devons construire. La classe nous indique quelles entités doivent être adaptées. ii Nous avons étudiés et comparées différentes approches pour les deux tâches. Ainsi, nous avons testés pour l’extraction, les approches manuelle et automatiques, de haut en bas (top-down) et de bas vers le haut (bottom-up) sur un corpus de courriels. Les résultats obtenus par l’approche manuelle sont excellents. Toutefois nous observons une dégradation pour les approches automatiques. Pour la catégorisation, Nous avons évalué différentes représentations des textes et des mots, l’utilisation de poids pour ces derniers, et l’impact d’une compression obtenue par l’utilisation de règles d’association. Les résultats obtenus sont généralement satisfaisants et nous indique que notre approche, composée des deux tâches décrites précédemment, pourrait s’appliquer à notre problème de réponse automatique aux courriels. / An automatic e-mail response system is a solution for improving the operations of certain business services, like customers’ services or investor relations. Those services are dealing with a large volume requests coming through e-mail messages, most of them being repetitive. We have decided to explore a CBR approach (Case-Based Reasoning) for this problem. Such an approach makes use of antecedent messages to respond to new incoming e-mails. Requests coming from customers or investors are often redundant; we could select an adequate answer among the archived messages, and then adapt it to make it coherent with the actual context of the new message request. In this project, we address the re-use problem, but more specifically the identification of named entity and their specialized roles. These entities are portions of text strongly depend on the context of the antecedent message, and hence need some adaptation to be re-used. We divide the reuse process in two tasks which are: a) the identification of modifiable portions of an antecedent message; b) the selection of portions to be adapted to build the answer of the request. For first task, we make use of information extraction techniques. But we will concentrate our efforts uniquely on the extraction of named entities and their specializations. For second task we make use of text classification techniques to decide which portions are subject to adaptation. This decision is based on the context of the request, words which compose it. We used different approaches for the two tasks. We tested manual and automatics top-down and bottom-up extraction techniques on an e-mail corpus for the identification of iv modifiable portions extraction task. Manual approach gives us excellent results. But, we notice a degradation of performance for automatic extraction techniques. For the selection of portions to be adapted, we compared made use of association rules and various word representation. Association rules use permits to compress data without degrades results a lot. Globally, results are good and indicate that our approach, desrcibes before, could be applied to our problem.

Page generated in 0.1023 seconds