• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 95
  • 26
  • 6
  • 2
  • 1
  • 1
  • Tagged with
  • 132
  • 34
  • 22
  • 19
  • 16
  • 14
  • 14
  • 11
  • 11
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Une approche dynamique pour la gestion de feux de circulation avec les voitures connectées

Vaudrin, François 02 February 2024 (has links)
La solution la plus pratique et économique pour réduire la congestion est d'améliorer les systèmes de contrôle de la circulation, en particulier les feux de circulation. Ces systèmes ont des impacts importants sur les temps d'attente, les risques d'accident et la consommation inutile de carburant. La majorité de ces systèmes est cependant statique, c'est-à-dire que la programmation est fixe. Ils sont donc mal adaptés aux variations de la demande et peu réceptifs à la demande. Les deux principaux objectifs de cette thèse étaient de réduire la complexité pour la gestion des feux de circulation en temps réel et de proposer un modèle pour collecter les données nécessaires pour appliquer notre approche dans la vie réelle. L'approche proposée pour atteindre le premier objectif, s'inspire du travail d'un agent de circulation humain. Elle consiste à diminuer les arrêts et à favoriser les déplacements en groupe de véhicules comme les agents de circulation. Pour y arriver, la densité de circulation a été mesurée à chaque instant et les séquences des feux de circulation ont été modifiées au moment propice. Pour la tester, un secteur achalandé de la ville de Québec a été identifié et une simulation avec un simulateur microscopique a été effectuée. Les délais d'attente ont été réduits de façon importante. Notre deuxième objectif était de transférer cette solution dans la vie réelle. Un en jeu fondamental était de mesurer la densité de circulation en temps réel. Cette tâche est cependant coûteuse et nécessite d'installer des appareils vidéo ou autres capteurs disséminés sur le réseau. Une architecture de services a été définie en utilisant les voitures connectées. Il s'agit d'une technologie émergente qui permet d'obtenir la position des véhicules toutes les 0,1 seconde. À partir de cette valeur, il était ensuite possible de calculer la densité de circulation et d'appliquer la solution proposée. La collecte des données, la transmission à un centre de gestion de la circulation, le traitement et l'application de la solution peuvent ainsi se faire instantanément à un coût économique. Cette thèse montre qu'il est possible d'améliorer la performance d'un système de feux de circulation en appliquant des règles basées sur le sens commun et d'avoir une méthode de mise en œuvre pratique et économique pour les transposer dans la vie réelle. Le processus de simulation reste cependant un aperçu de la réalité et il est difficile de prévoir les résultats dans d'autres contextes. Il serait donc avantageux de poursuivre les recherches dans d'autres environnements. Par ailleurs, la technologie des voitures connectées n'est pas encore déployée au Canada. Il est cependant permis d'espérer qu'elle est sur le point d'émerger avec les investissements des constructeurs de véhicules et le déploiement du 5G. Un banc d'essai serait la prochaine étape pour tester la solution proposée in situ. / The most practical and economical solution to reduce congestion in the cities is to improve traffic control systems, especially traffic lights signals. These systems have significant impacts on waiting times, accident risks and unnecessary fuel consumption. The majority of these systems are however static, that is to say that the programming is fixed or pre-timed. They are therefore not receptive to demand. The two main objectives of this thesis were to reduce the complexity for the management of traffic lights in real time and to propose a model to collect the data necessary to apply our approach in real life. The approach proposed to achieve the first goal, is inspired by the work of a human circulation officer. It consists of reducing stops and encouraging group travel of vehicles such as traffic officers do in real life. To achieve this, the traffic density was measured continuously, and the traffic light sequences were modified accordingly. To test our approach, a busy sector of Quebec City was identified and a simulation with a microscopic simulator was performed. Waiting times have been reduced significantly. Our second goal was to transfer this solution in real life. However, a fundamental challenge was to measure traffic density at every moment as request in our approach. This task is expensive and requires installing video devices or other sensors scattered over the network. A new service architecture model has therefore been developed to work around this problem and it relies on connected cars technology. This technology allows to obtain the vehicle position every 0.1 second on a road network and it was the necessary ingredient to apply our approach in real life. From this value, it was then possible to calculate the traffic density and apply the proposed solution. Thus, data collection, transmission to a traffic management center, processing and application of the solution could be done instantly at an economical cost. This thesis therefore shows that it is possible to improve the performance of current traffic light systems by applying rules based on common sense and to apply a practical and economical implementation method to transpose them into real life. Furthermore, a limitation of our work is that the simulation process is an overview of the reality and it is difficult to predict the results of the experiment in other contexts. It would therefore be advantageous to continue research in other environments. In addition, the technology of connected cars is not yet deployed in Canada. However, it is hoped that this technology is about to emerge with current massive investment by vehicle manufacturers and deployment of 5G. A test bed would be the next step to test the solution proposed in situ.
12

Automatisation de la perfusion continue ambulatoire d'insuline visant la normalisation glycémique dans le diabète de type 1 : développements pour améliorer le contrôle postprandial / Automatization of the ambulatory insulin perfusion aiming in-range glycaemic control in type 1 diabetes : developments to improve postprandial control

Diouri, Omar 05 December 2016 (has links)
L’insulinothérapie fonctionnelle (IF) est une méthode de prise en charge du diabète de type 1 (DT1) qui vise à adapter le traitement insulinique des malades à leur mode de vie. Elle repose sur l’autonomisation du patient qui est alors libre de choisir ce qu'il veut manger dans la mesure où il adapte ses doses d’insuline en fonction des aliments consommés. Malgré la formation des patients à cette méthode, l’estimation des glucides contenus dans les repas s’avère parfois difficile et les calculs des doses d’insulines sont régulièrement erronés. Grâce aux capacités technologiques des smartphones, ont vu le jour de nouveaux outils remplaçant les traditionnels carnets et répertoires glucidiques avec pour objectif d’aider les patients dans ces tâches quotidiennes. Peu d’études ont été réalisées pour évaluer l’efficacité réelle de ces dispositifs.Après un exposé des outils couramment utilisés par les patients DT1 sous IF, nous verrons quelles sont les principales applications mobiles qui sont disponibles et qui permettent d’évaluer les glucides des repas et de calculer les doses d’insulines. Nous discuterons ensuite des quelques études cliniques évaluant ces applications.Nous présenterons enfin une application android originale d’aide au comptage de glucides et d’estimation de bolus appelée GLUCAL et développée au sein de l’équipe diabétologie du CHRU Lapeyronie. Cet outil a été testé au cours de deux études cliniques. Un essai préliminaire a été conduit avant une étude randomisée-croisée qui est la seule à avoir été menée à ce jour sur une application de ce type.Ce travail permettra de savoir dans quelle proportion GLUCAL est capable d’améliorer le comptage des glucides et de réduire les erreurs de calculs des bolus, mais également d’évaluer son impact sur le contrôle glycémique des patients. / Carbohydrates (carb) and bolus counting is a therapeutic method used in type 1 diabetes (TD1) which aims to adapt insulin treatment to patient own way of life. It is based on patient’s autonomy since they are allowed to eat any type of food on the condition to adapt insulin doses to the meal ingested. Patients receive a medical education to implement this method, but still carb counting remains a hard task and boluses are frequently erroneous.Thanks to smartphone technical capacities, many applications replacing paper documents and booklets aiming at helping patients in these daily tasks have been developed. But very few studies were conduced to evaluate them clinically.After an overview of the common tools used by TD1 patients to count carbs , we will see the main mobile applications available to help patient in carb counting and bolus estimation. We will then discuss the few clinical studies conduced on those apps.We will finally present an original android application called GLUCAL and developed by the diabetology team of the University Hospital of Montpellier (France). This tool was tested during two clinical studies. A preliminary study has been conduced before a randomized cross-over study which is the first one performed on such an application.This work will help to evaluate the role of GLUCAL in improving carb counting and reducing mistakes of bolus calculation. It will also assess the performance of the application on patient’s glycaemic control.
13

Diagnostic des systèmes linéaires en boucle fermée / Diagnosis of closed-loop linear systems

Baïkeche, Hamid 30 October 2007 (has links)
Dans la majeure partie des travaux effectués dans le domaine de la surveillance des systèmes, les outils servant à la détection et à la localisation des défauts sont synthétisés à partir d'une représentation en boucle ouverte du système. Or, la réalité des applications industrielles fait que les systèmes sont majoritairement insérés dans une boucle de régulation ou d'asservissement. Dans ce contexte, la tâche de diagnostic s'avère particulièrement délicate pour différentes raisons. D'une part, le contrôleur peut atténuer l'effet des défauts ce qui rend difficile leur détection. D'autre part, les entrées du système étant corrélées avec les sorties à cause du bouclage cela engendre une difficulté pour la localisation. Les travaux présentés dans cette thèse se scindent en deux parties: la première porte sur l'analyse systématique de la sensibilité des différents signaux de la boucle de régulation par rapport aux défauts (paramétriques et non paramétriques). L'objectif est de sélectionner ceux qui contiennent le plus d'information sur les défauts pour être exploités par la procédure du diagnostic. La deuxième propose une méthode de détection et de localisation de défauts des systèmes linéaires en boucle fermée soumis à des défauts additifs. Le principe de la méthode consiste à découpler les défauts des sorties afin que chaque défaut affecte une seule sortie ce qui facilite leur localisation / In most of the works concerning system supervision, the methods developed for fault detection and isolation are synthesized from an open-loop representation of the system. But considering real industrial applications, it appears that , most of the times, the system is inserted in a control loop with output feedback. In this context, the task of diagnosis is tedious for several reasons. Firstly, the controller is designed in order to attenuate the effect of the faults, consequently their detection becomes challenging. Secondly, due to the output feedback, the system inputs are correlated with the system outputs, which can complicate the fault isolation. The works presented in the present thesis can be divided into two parts. The first one focuses on the systematic analysis of the sensitivity of the several signals of the control loop with respect to the faults (both additive and parametric faults have been considered). The sensitivity analysis is carried out to select the signal encompassing most information on fault in order to be used for fault diagnosis. In the second one, a fault detection and isolation method based on input-output decoupling is presented for closed-loop linear systems with additive faults. The point is to compute an output feedback such that each fault affects only one output, and thus ease the diagnosis
14

Réalisation d'une unité d'hydroformylation automatisée.

Pfister, Pierre-Marie, January 1900 (has links)
Th. doct.-ing.--Sci. des matér.--Toulouse--I.N.P., 1983. N°: 263.
15

Investigating the neural substrates mediating visuomotor adaptation : from beginner to expert

Bouras, Raby January 2007 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal.
16

ORDONNANCEMENT EN TEMPS REEL DANS LES PROBLEMES A EN-COURS LIMITES /

Chauvet, Fabrice. Proth, Jean-Marie. January 1999 (has links) (PDF)
Thèse de doctorat : SCIENCES ET TECHNIQUES : Metz : 1999. / 1999METZ023S. 161 ref.
17

Automatisation de la mesure des propriétés de transport électronique d'alliages métalliques liquides étude des alliages or-polyvalents (Au Ga, Au Ge, Au In, Au Sb) /

El Bakkali Taheri, Mohammed. January 2008 (has links) (PDF)
Reproduction de : Thèse de doctorat : Physique : Metz : 1994. / Titre provenant de l'écran-titre. Notes bibliographiques. Index.
18

Investigating the neural substrates mediating visuomotor adaptation : from beginner to expert

Bouras, Raby January 2007 (has links)
Thèse numérisée par la Division de la gestion de documents et des archives de l'Université de Montréal
19

Collaboration et automatisation dans le transfert de connaissances : perception des agents logiciels par les contributeurs de Wikipédia

Clément, Maxime 23 April 2018 (has links)
Avec le développement considérable des médias sociaux, les projets collaboratifs de grande ampleur visant au partage de connaissance, tel Wikipédia, doivent gérer des quantités faramineuses d’informations. Cette croissance force ces communautés à fournir de nombreux efforts afin de maintenir la précision et la structure de la base de données. Ceci est particulièrement important pour les informations sensibles, telles que les informations de type médical. Des agents logiciels – appelés « bots » – ont été développés sur la plupart de ces nouveaux médias afin de faciliter la gestion de ces grandes quantités de données, notamment en assurant certaines tâches de maintenance et en effectuant des corrections sur les contributions d’utilisateurs. Toutefois, la manière dont des utilisateurs humains réagissent aux rétroactions réalisées par les bots est inconnue. En utilisant Wikipédia comme modèle, nous avons analysé les différents types de réaction des éditeurs selon les caractéristiques spécifiques reliées aux tâches des bots, à partir d’un corpus de 6 528 interventions d’éditeurs humains, sur les pages de discussions de 50 bots actifs entre le 4 janvier 2012 et le 2 janvier 2013, sur les articles de la version anglaise de Wikipédia (soit 2 353 différentes discussions). L’activité des bots qui y est observée est très associée au fonctionnement de la communauté interne de Wikipédia. Les bots dont les activités étaient fortement reliées au travail des autres éditeurs (c.à.d. avec un haut degré de contrainte ou de visibilité) déclenchent plus de réponses. En combinant différentes caractéristiques de bots, nous avons pu définir deux idéaux types opposés de bots avec des comportements distincts : les bots « servants » qui réalisent principalement des tâches laborieuses et répétitives à la place des éditeurs humains ; ainsi que les bots « policiers » qui appliquent systématiquement les normes et règles de conduite de Wikipédia. Ces derniers engendrent des réponses davantage polarisées chez les éditeurs. Publiés dans Computer in Human Behavior, nos résultats démontrent un étonnant niveau d’acceptation des bots, modulé par différentes réactions selon les types de tâches réalisées par ces derniers. Ceci questionne la capacité de la communauté de Wikipédia à atteindre l’équilibre entre la participation large à l’encyclopédie et sa standardisation.
20

Automatisation du procédé de béton projeté : contrôle du rebond et vision numérique

Schaeffer, Julien 13 December 2023 (has links)
Le virage technologique débutant dans le secteur du génie civil a permis la création d'outils et de procédés tournés vers le numérique et l'automatisation. Le béton projeté, qui comprend un grand potentiel d'automatisation, ne doit pas faire exception à la règle puisque l'avancement et l'optimisation des méthodes de production sont clairement poussés en avant par cet élan technologique. Le Laboratoire de béton projeté de l'Université Laval travaille depuis plus de 15 ans sur plusieurs initiatives de recherche visant à comprendre et à améliorer la méthode de mise en place qu'est le béton projeté. Sur cette base de réflexion, un effort de recherche visant à réduire le rebond et à automatiser le procédé par voie sèche avec un bras robotisé a été lancé avec le projet SPARO. Le présent projet de recherche se place dans sa continuité directe, et il s'articule autour de 4 axes principaux : optimisation et compréhension du phénomène de rebond, étude de l'influence de l'automatisation du procédé sur les propriétés du béton projeté durci, amélioration de l'autonomie du procédé et enfin, développement d'une assistance au lancier. La première partie du projet contribue à la compréhension des interactions entre les différentes trajectoires et le rebond, notamment avec l'utilisation de la trajectoire dite planétaire. Elle présente des valeurs de rebond remarquablement faibles et proches de celles obtenues usuellement par voie humide; elle apporte le concept de rebond fondamental du matériau et génère moins de rebonds que la trajectoire « classique » largement adoptée par les lanciers. L'hypothèse soutenue est que la trajectoire optimale est celle qui, pour une consigne d'épaisseur donnée, couvre une surface de taille maximale, tout en s'assurant que chaque portion de cette surface soit impactée, ou excitée, en permanence de façon à dépasser une fréquence énergétique critique du substrat, facilitant la capture des particules. L'étude des propriétés du béton projeté à l'état durci souligne que la technique de mise en place a un effet important sur la résistance en compression. Une diminution de 7% est observée entre la méthode automatisée et un projeteur traditionnel; en revanche, aucun changement n'a été observé pour la porosité. Dans la contribution à l'automatisation globale du système, l'utilisation de la vision numérique a montré des résultats très satisfaisants. Une méthode automatique de mesure de l'épaisseur projetée et de sa correction a été développée à l'aide d'un capteur LIDAR. En parallèle, l'adaptation de certains capteurs a permis de développer un système d'aide au lancier, offrant des renseignements sur l'angle et la distance de la lance par rapport à la surface projeté. / The technological transition in civil engineering has led to the creation of tools and processes oriented towards digitalization and automation. Shotcrete, which presents a great potential for automation, should not be an exception to the trend since the advancement and optimization of production methods are clearly pushed forward by this technological boom. The Shotcrete Laboratory of Université Laval has been working for more than 15 years on several research initiatives in order to understand and improve the shotcrete process. On this basis, a research initiative aimed at reducing rebound and automating the dry process with a robotic arm was launched with the SPARO project. The present research project is in direct continuation. It is organized around 4 main axes, with the optimization and the comprehension of the phenomenon of rebound, the study of the influence of the automation process on the properties of the hardened shotcrete, the improvement of the process's autonomy and, finally, the development of nozzleman assistance. The first part contributes to understanding the interactions between the different nozzle trajectories and rebound, especially with the use of the so-called planetary path. It shows remarkably low values of rebound, close to the one usually obtained with wet-mix shotcrete. It brings the concept of fundamental rebound of the materials and generates less rebound than the "classical" trajectory widely adopted by nozzlemen. The hypothesis supported is that the optimal trajectory is the one that, for a given thickness, covers a surface of maximum size, while ensuring that each portion of this surface is constantly impacted, or excited, so as to exceed a critical energy frequency of the substrate, faciliting the capture of incoming particles. The study of the hardened concrete's properties underlines that the placement technique has an important effect on the compressive strength. A decrease of 7% is observed between the automated method and a traditional sprayer, on the other hand, no changes were observed concerning the porosity. In the contribution to the overall system's automation, the use of computer vision showed very satisfying results. An automatic method for measuring the sprayed thickness and its subsequent corrections has been developed using a LIDAR sensor. In parallel, adapting certain sensors package has made possible the development of a nozzlemen's assistance, giving information on the nozzle’s angle and distance with regards to the sprayed surface.

Page generated in 0.0911 seconds