• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 93
  • 26
  • 5
  • 2
  • 1
  • 1
  • Tagged with
  • 129
  • 34
  • 22
  • 19
  • 16
  • 14
  • 14
  • 11
  • 11
  • 9
  • 8
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Automatisation de la fonction de façonnage de deux têtes d’abatteuses-façonneuses : effets sur la productivité et le taux de conformité des billes façonnées

Bouchard, Mathieu 24 April 2018 (has links)
Pour rester compétitives, les entreprises forestières cherchent à contrôler leurs coûts d’approvisionnement. Les abatteuses-façonneuses sont pourvues d’ordinateurs embarqués qui permettent le contrôle et l’automatisation de certaines fonctions. Or, ces technologies ne sont pas couramment utilisées et sont dans le meilleur des cas sous-utilisées. Tandis que l’industrie manifeste un intérêt grandissant pour l’utilisation de ces ordinateurs, peu de travaux de recherche ont porté sur l’apport en productivité et en conformité aux spécifications de façonnage découlant de l’usage de ces systèmes. L’objectif de l’étude était de mesurer les impacts des trois degrés d’automatisation (manuel, semi-automatique et automatique) sur la productivité (m3/hmp) et le taux de conformité des longueurs et des diamètre d’écimage des billes façonnées (%). La collecte de données s’est déroulée dans les secteurs de récolte de Produits forestiers résolu au nord du Lac St-Jean entre les mois de janvier et d'août 2015. Un dispositif en blocs complets a été mis en place pour chacun des cinq opérateurs ayant participé à l’étude. Un seuil de 5 % a été employé pour la réalisation de l’analyse des variances, après la réalisation de contrastes. Un seul cas a présenté un écart significatif de productivité attribuable au changement du degré d’automatisation employé, tandis qu’aucune différence significative n’a été détectée pour la conformité des diamètres d’écimage; des tendances ont toutefois été constatées. Les conformités de longueur obtenues par deux opérateurs ont présenté des écarts significatifs. Ceux-ci opérant sur deux équipements distincts, cela laisse entrevoir l’impact que peut aussi avoir l’opérateur sur le taux de conformité des longueurs. / All forest companies try to control their supply costs. Single-grip harvesters are equipped with onboard computers that allow control and automation of some functions. However, these technologies are not used on a regular basis and are in the best cases underutilized. While industrials are showing a growing interest in the utilization of these systems, there have been only a few studies that have documented the impacts of the use of these systems on productivity and quality conformity. The objective of this study was to measure the impacts on productivity and on bucking quality of different degrees of automation of the bucking of a single-grip harvester head. Three different automation degrees, manual, semi-automatic and automatic, have been compared with two different teams composed of 5 operators. Each operator was a different case study. Comparisons were realized on the obtained productivities and on the conformities of the logs lengths and topping diameters. Data collection was made on the logging sites operated by Resolute forest products, in the northern part of Lac St-Jean between January and August 2015. A 5% significance level has been used to realise the variances analysis, where contrasts were employed. Only one case study showed a significant productivity difference linked to the in the automation degree changes. Even if the collected data did not show significant differences on the topping diameters conformities, some tendencies were detected. However, significant differences were detected on the conformity of the lengths of the logs of two operators. Because those two operators work on different harvesters, this might show that the operator can have an impact on the lengths conformity.
82

Automated Testing of Digital Components

Kabiri, Babak January 2020 (has links)
In today's technological companies digital electronics and components are abundant. Many companies use these components to manufacture a wide variety of electronic products such as computers, tv’s, cars, etc. But after their use, these components are thrown away easily and are an additional contributor to our growing climate change. There is a need for a more effective way to deal with these components. Companies could save a lot of time and energy to have a system that could test these components.The goal of this study is to present a suitable method for testing digital components by developing a test program for testing the various integrated circuits and thus identifies which circuits are faulty and which ones are not. The economical and efficiency side of building such a program is discussed and If it is worth the time to produce such a system, or if it's much better to throw the components away. The intent is also to give companies a way of being more efficient and environmentally friendly.This program was made by using integrated circuits from the course IE1204 and IE1205, where students use these components for their labs. After the course has ended there is no certainty if the integrated circuits work properly or not. The goal of the program is then to test them and find out the faulty ones.An Arduino Uno and the Arduino programming language have been used to write the code for this project. The Arduino Uno was connected to a breadboard which then ran the program for testing. To that breadboard, various integrated circuits, such as logic gates, were connected. The Arduino program then tested their truth tables to see if they worked properly or not.Because of time restriction more complex components have not been included in this thesis. / I dagens tekniska industri finns det rikligt med digitala komponenter och elektronik. Många av dessa komponenter används för att bygga större elektronik såsom datorer, tv apparater, bilar, etc. Men efter deras användning slängs dessa komponenter tveklöst och är dessutom en orsakande faktor i vår växande klimatförändring. Det finns ett behov av en mer effektiv lösning för hanteringen av dessa komponenter. Företag kan spara mycket tid och energi med att inneha ett sådant system.Målet med detta projekt är att presentera en metod för att testa digitala komponenter. Att utveckla ett system som kan testa diverse integrerade kretsar och veta vilken som fungerar adekvat. Utvecklandet av ett sådant systemet ur ett ekonomisk och effektivitetsperspektiv diskuteras. Om det är värt att utveckla ett sådant system, eller om det är mycket bättre att bara slänga dessa komponenter. Målet med detta projekt är också att bana väg för företag att bli mer effektiva och miljövänliga.Tillvägagångssättet kring hur detta system har utvecklats är genom att använda integrerade kretsar från kurserna IE1204 och IE1205, där studenter använder dessa komponenter för deras labbar. Efter att kursens avslut finns det ingen garanti ifall dessa integrerade kretsar fungerar eller inte. Målet med programmet är då att testa dessa och hitta de trasiga komponenterna.En Arduino Uno och programmet Arduino har använts för att skriva koden till detta projekt. Arduinon har varit kopplad till en breadboard som har kört programmet för testing. Till denna breadboard har diverse integrerade kretsar, logiska grindar, varit kopplade.Arduino programmet har sedan testat de olika sanningstabellerna för att testa vilken logisk grind som är kopplad och fungerar.På grund av tidsbegränsning har mer komplexa integrerade kretsar blivit presenterade som en beskrivning av hur man kan fortsätta arbetet för att programmet skall inkludera mer komplexa komponenter.
83

Problème de déploiement de ressources dans le cas des feux de forêts majeurs : opérations aériennes

Driouich, Amal 24 April 2018 (has links)
Chaque année le feu brûle quelques dizaines de milliers d’hectares de forêts québécoises. Le coût annuel de prévention et de lutte contre les feux de forêts au Québec est de l’ordre de plusieurs dizaines de millions de dollars. Le présent travail contribue à la réduction de ces coûts à travers l’automatisation du processus de planification des opérations de suppression des feux de forêts majeurs. Pour ce faire, un modèle mathématique linéaire en nombres entiers a été élaboré, résolu et testé; introduisant un nouveau cas particulier à la littérature des Problèmes de Tournées de Véhicules (VRP). Ce modèle mathématique concerne le déploiement aérien des ressources disponibles pour l’extinction des incendies. Le modèle élaboré a été testé avec CPLEX sur des cas tirés de données réelles. Il a permis de réduire le temps de planification des opérations d’extinction des feux de forêts majeurs de 75% dans les situations courantes. / Each year, the fire burns large areas of forests in the province of Quebec. The annual costs of prevention and firefighting in Quebec may attain tens of millions of dollars. This project contributes to the decreasing of those costs through the computerization of the transportation planning process of material and human resources during major forest fires extinguishing. In order to achieve that, the resource transportation process was mathematically modeled. The integer linear mathematical model developed in this project has been resolved and tested; it introduces a new case to the literature of Vehicle Routing Problem (VRP). The model developed was tested with CPLEX based on data from real cases. It has reduced the planning time of extinguishing operations by 75%.
84

Cartographie semi-automatisée des chutes de pierres le long d'infrastructures linéaires

Noël, François 24 April 2018 (has links)
La caractérisation détaillée de vastes territoires pose un défi de taille et est souvent limitée par les ressources disponibles et le temps. Les travaux de cette maîtrise s’incorporent au projet ParaChute qui porte sur le développement d’une Méthode québécoise d’Évaluation du Danger des Chutes de Pierres (MEDCP) le long d’infrastructures linéaires. Pour optimiser l’utilisation des ressources et du temps, une méthode partiellement automatisée facilitant la planification des travaux de terrain a été développée. Elle se base principalement sur la modélisation des trajectoires de chutes de pierres 3D pour mieux cibler les falaises naturelles potentiellement problématiques. Des outils d’automatisation ont été développés afin de permettre la réalisation des modélisations sur de vastes territoires. Les secteurs où l’infrastructure a le plus de potentiel d’être atteinte par d’éventuelles chutes de pierres sont identifiés à partir des portions de l’infrastructure les plus traversées par les trajectoires simulées. La méthode a été appliquée le long du chemin de fer de la compagnie ArcelorMittal Infrastructures Canada. Le secteur couvert par l’étude débute à une dizaine de kilomètres au nord de Port-Cartier (Québec) et s’étend sur 260 km jusqu’au nord des monts Groulx. La topographie obtenue de levés LiDAR aéroportés est utilisée afin de modéliser les trajectoires en 3D à l’aide du logiciel Rockyfor3D. Dans ce mémoire, une approche facilitant la caractérisation des chutes de pierres le long d’un tracé linéaire est présentée. Des études de trajectoires préliminaires sont réalisées avant les travaux sur le terrain. Les informations tirées de ces modélisations permettent de cibler les secteurs potentiellement problématiques et d’éliminer ceux qui ne sont pas susceptibles de générer des chutes de pierres avec le potentiel d’atteindre les éléments à risque le long de l’infrastructure linéaire. / The detailed characterization of large area is a challenging task because time and resources are frequently limited. This Master’s thesis is part of the ParaChute research project. The aim of this project is to develop a rockfall susceptibility rating system along linear infrastructures. A partially automated method has been developed to facilitate field works planning while optimizing time and resources. It is mainly based on 3D rockfall simulations carried out systematically and efficiently on every rock slopes located nearby the infrastructure to help identify potential hazardous natural cliffs. Automation tools were developed to allow the realization of simulations over large area. The proposed method also uses the software Rockyfor3D and only requires surface elevation model obtained from airborne LiDAR survey as input data. However, other data, such as orthophotos, were used for calibration. The method was applied along the ArcelorMittal Infrastructures Canada railway. The covered zone starts near Port-Cartier (Québec) and extends 260 km north along the ArcelorMittal Infrastructures Canada railway up to the Groulx Mountains. In this Master’s thesis, a partially automated method that helps to choose on which areas to focus field work by telling if there is a possibility for a block to reach the linear infrastructure is detailed.
85

Le rôle de la chambre de compensation dans l'usage du chèque au regard de la bancarisation : une étude de droit comparé Canada - France - UEMOA

Yao, Odile 20 April 2018 (has links)
Thèse en cotutelle: Université Laval, Québec, Canada et Université de Paris Dauphine, Paris, France. / Le paiement par chèque par le biais de la chambre de compensation jouit d’une importance capitale pour tout pays, en ce sens qu’il favorise – s’il est généralisé à l’ensemble d’une société donnée – la «bancarisation» de la population, laquelle bancarisation conduit inéluctablement au développement économique du pays dans lequel un tel système est implanté. C’est autour de cette affirmation que se fera la démonstration de notre thèse de doctorat portant sur «le rôle de la chambre de compensation dans l’usage du chèque, au Canada, en France et dans l’UEMOA , au regard de la bancarisation». Il s’agit d’une étude de droit comparé qui, tout en mettant en exergue la place qu’occupe le paiement par chèque dans les pays visés par l’étude, démontrera que, quelles que soient les solutions adoptées par chacun de ces pays, ce postulat reste indéniable : selon que la population d’un pays donné l’accepte bien ou mal – à cause de la méfiance qu’il peut susciter et des incidents de paiement qui peuvent l’accompagner –, le paiement par chèque via la chambre de compensation conduit immanquablement, ou devient une entrave, à la bancarisation de cette population. Or, sans bancarisation, il ne saurait y avoir, dans un pays donné, de solutions durables d’implantation d’une telle chambre, et partant, d’un système bancaire efficient, sève nourricière de l’économie nationale. Car il est établi que la solidité et la fiabilité du système bancaire sont toujours à la racine de l’essor du développement économique du pays dans lequel la chambre de compensation est implantée.
86

Modèle d'isochrones automatisé du mouvement potentiel des personnes portées disparues

Blanco, Miguel Alfonso January 2016 (has links)
Résumé : Au Canada, annuellement il y a près de 10 000 personnes disparues. Pour les retrouver chaque fois une alerte est donnée. La police et les groupes de recherche terrestre spécialisés travaillent pour la retrouver, mais, par où commencer? Dans quelles directions orienter les recherches? Combien du temps pour balayer les différents secteurs? C’est souvent une question d’heures ou même des minutes pour la retrouver vivante. La théorie de recherche a trois concepts essentiels; la probabilité d’aire, la probabilité de détection et la probabilité de succès. Notre travail a cherché à préciser la probabilité d’aire. L’objectif de ce travail de recherche a consisté à développer un algorithme pour élaborer des cartes d’isochrones automatiques de la vitesse de marche probable des disparus. Il tient compte des restrictions dues aux variables environnementales (relief, occupation du sol, météorologie) et anthropiques (âge, sexe, taille, poids et activité physique). Le travail est développé au tour d’un système d’information géographique. Sur ceci nous distinguons deux groupes des données. Le premier correspond aux données attributaires que servent à générer la zone tampon et les facteurs de vitesse de l’individu. Ces données sont attachées à la couche du point initial. Dans le deuxième groupe, nous trouvons les données à référence spatiale intérieures à la zone tampon. Les facteurs de vitesse de l’individu et la carte de pentes génèrent la carte de vitesses par superficie. Les données de couverture de sol, quant à elles, produisent la carte de coût de traversée de la superficie. Finalement, la multiplication des deux dernières cartes produit la carte de coût de voyage, laquelle est le résultat essentiel pour concevoir la carte des courbes isochrones. Un algorithme a été construit et développé en langage de programmation Python. Il a été exécuté avec des données saisies dans l’environnement d’ArcGis 10.2. Nous avons observé une tendance des disparus à rester dans un rayon d’une heure de marche à partir du point initial (Pl). De plus, des variables comme les routes, sentiers et lignes de transport d’énergie influencent la marche. Finalement nous avons trouvé que l’outil aide au confinement de la probabilité d’aire. L’outil se démarque par sa simplicité d’usage. À l’intégration des facteurs de marche qui sont reliés à l’individu. Ainsi qu’à l’inclusion des facteurs météorologiques. Il peut s’exécuter partout au Canada. / Abstract : In Canada, annually there are about 10 000 missing persons. To find them whenever a warning is given. Police and specialized ground search groups work to find her, but where to start? In what directions guide research? How much time to scan the different sectors? It is often a matter of hours or even minutes to find her alive. The search theory has three basic concepts; the probability of area, the probability of detection and probability of success. Our work has sought to precise the probability of area in land search. The aim of this research was to develop an algorithm to make automatic isochrone maps that show the probability walking time of the missing person. It takes account of restrictions due to environmental variables (topography, land use, meteorology) and anthropogenic (age, sex, height, weight and physical activity). The work was developed around a geographic information system. On top of this, we distinguish two groups of data. The first is the attribute data that are used to generate the buffer zone and the individual speed factors. These data are attached to the initial planning point layer. In the second group, we find the internal spatial data in the buffer zone. The individual factors of speed and slope map produced the speed map. Ground cover data generated the cost map of crossing the area. Finally, the multiplication of the last two maps produced the travel cost map, which is the last step to design the isochrone map. An algorithm has been built and developed in the Python programming language. It was performed with the data entered into the ArcGIS 10.2 environment. We observed a trend of lost persons to stay around an hour's walk from the initial planning point (IPP). In addition, variables such as roads, paths and power transmission lines affect the walking speed. We found that the tool aid to precise the containment of probability of area. The tool is distinguished by its ease of use. With the integration of walking factors that are connected to the lost persons. We include meteorological factors. It can run across Canada.
87

Conception de la commande d'un système automatisé de production : apport des graphes et de l'ordonnancement cyclique

Fournier, Olivier 20 March 2002 (has links) (PDF)
Les travaux exposés dans ce mémoire portent sur la conception préliminaire de la commande des systèmes automatisés de production, l'objectif étant d'en améliorer la productivité et la flexibilité. La stratégie retenue consiste à définir une commande idéale et spécifique pour chaque type de produit fabriqué par le système automatisé. Nous définissons un formalisme noté GMT (Graphe Marqué et Temporisé) dans lequel nous représentons la gamme opératoire de chaque production. Nous développons ensuite une métohde capable d'ordonnancer cycliquement des gammes non linéaires, prenant par exemple en compte des opérations d'assemblage ou de désassemblage. Cette méthode est basée sur un simulateur qui exécute le plan de production en arbitrant les conflits d'affectation selon le comportement social des colonies de fourmis. Il résulte de cette simulation un diagramme de GANTT duquel nous extrayons le graphe GMT de commande de l'application. Les outils conventionnels de la théorie de graphes permettent alors d'analyser l'architecture et de vérifier les propriétés de célérité et de vivacité du graphe obtenu. Finalement, une passerelle GMT/Grafcet produit le Grafcet de commande de façon systématique. Ces travaux se terminent par l'étude d'un cas de MPS variable (Minima Part Set), montrant ainsi le bien fondé de notre démarche.
88

Contribution à la flexibilité et à la rapidité de conception des systèmes automatisés avec l'utilisation d'UML

Chiron, Fabien 01 December 2008 (has links) (PDF)
La dynamique actuelle des marchés entraîne avec elle une complexité croissante des demandes du client et nécessairement des contraintes de production. Les méthodologies traditionnelles de conception de systèmes montrent leurs limites dans des contextes très changeants pour lesquels les spécifications sont amenées à évoluer rapidement, des éléments technologiques particuliers de réalisation étant souvent pris en compte trop tôt dans le travail d'étude, limitant la versabilité des développements. Les entreprises doivent alors capitaliser au maximum les efforts menés dans les phases amont de spécification pour optimiser les temps d'étude. Notre travail de recherche s'intéresse plus précisément au domaine des systèmes antomatisés et se propose de répondre à la problématique précédente en utilisant des techniques issues du monde de l'informatique pour la réalisation des sytèmes physiques, comme l'OOA (Approche Orienté Objet) et la modélisation objet UML (Langage de Modélisation Unifié) avec la perspective d'une spécialisation tardive et d'une génération automatique selon les cibles technologiques choisies, comme le préconise la logique IDM (Ingéniérie Dirigée par les Modèles). L'originalité de ce mémoire est de décrire une méthodologie et une organisation de travail pour la conception des systèmes automatisés, en s'appuyant sur le concept d'objet d'automatisme multi-facettes. De plus, nous proposons une utilisation de l'extension SysML (Langage de Modélisation des Systèmes) pour la représentation d'éléments d'automatismes particuliers, les blocs fonctions de la norme IEC 61131-3, à travers le stéréotype "block". Enfin nous montrons comment il est possible d'obtenir une première génération de code automate en passant par les spécifications PLCopen, définissant un lien entre une syntaxe XML (Langage de balisage eXtensible), se voulant standard, et les langages de la norme IEC 61131-3. Le passage par cette représentation standardisée permet de garder l'indépendance des implémentations vis-à-vis d'un environnement intégré de développement particulier. Le processus de conception décrit a été appliqué à un cas d'étude industriel réel appartenant au domaine de la palettisation robotisée.
89

Ecodriving - hot eller möjlighet : En kvalitativ studie om intresset för ecodriving till sjöss

Jakobsson, Niklas, Rydholm, Peter January 2017 (has links)
Det finns ekonomiska, säkerhetsmässiga och miljömässiga vinster att göra genom att tillämpa ecodriving. Tidigare forskning pekar på att transportslagen bilar, tåg och flyg har gjort stora besparingar i ekonomiskt och miljömässigt hänseende, men hur ser det ut inom sjöfarten? Med denna frågeställning som bakgrund är syftet med studien att studera intresset för ecodriving bland svenska rederier och svenska myndigheter med en fartygsflotta. Dataunderlaget för studien utgörs av material från kvalitativa intervjuer med personer i exekutiv position. Resultatet av studien visar på att de flesta verksamheterna står i startgroparna eller redan arbetar utifrån en eller flera aktivt valda metoder för ecodriving. Resultatet visar också att det finns en blandning av förutsättningar och uppfattningar om vad ecodriving är och vad det kan bli inom sjöfarten. När frågor om automatisering i samband med ecodriving behandlas är resultatet tvetydigt. / There are economical, safetylike and environmental benefits of applying eco-driving. Previous research has shown that cars, trains and aviation have made significant savings economically and environmentaly speaking, but how does that transcend into the maritime business? With this question as a background, the aim with this thesis is to examine the interest of ecodriving among Swedish shipowners and authorities. The data in this thesis is derived from qualitative interviews with employees in executive land-based positions. The result shows that several of the shipowners and authorities are in the starting pits or are already conducting one or more eco-driving methods in their operations. The result also shows that there is a variety of prerequisites and perceptions of what eco-driving is and what is could become in the future among the respondents. When questions about automatization in relation to eco-driving are brought up, the result is ambiguous.
90

Nouvelles techniques pour l'instanciation et la production des preuves dans SMT / New techniques for instantiation and proof production in SMT solving

Barbosa, Haniel 05 September 2017 (has links)
Des nombreuses applications de méthodes formelles se fondent sur les solveurs SMT pour valider automatiquement les conditions à vérifier et fournissent des certificats de leurs résultats. Nous visons à la fois à améliorer l'efficacité des solveurs SMT et à accroître leur fiabilité. Notre première contribution est un cadre uniforme pour le raisonnement avec des formules quantifiées dans les solveurs SMT, dans lequel généralement diverses techniques d'instanciation sont utilisées. Nous montrons que les principales techniques d'instanciation peuvent être jetées dans ce cadre. Le cadre repose sur le problème de l'E-ground (dis)unification. Nous présentons une procédure de décision pour résoudre ce problème en pratique: Fermeture de congruence avec variables libres (CCFV}). Nous mesurons l'impact de CCFV dans les solveurs SMT veriT et CVC4. Nous montrons que nos implémentations présentent des améliorations par rapport aux approches à la fine pointe de la technologie. Notre deuxième contribution est un cadre pour le traitement des formules tout en produisant des preuves détaillées. Les principaux composants de notre cadre de production de preuve sont un algorithme de récurrence contextuelle générique et un ensemble extensible de règles d'inférence. Avec des structures de données appropriées, la génération des preuves ne crée que des frais généraux linéaires et les vérifications peuvent être vérifiées en temps linéaire. Nous avons également mis en œuvre l'approche en veriT. Cela nous a permis de simplifier considérablement la base du code tout en augmentant le nombre de problèmes pour lesquels des preuves détaillées peuvent être produites / In many formal methods applications it is common to rely on SMT solvers to automatically discharge conditions that need to be checked and provide certificates of their results. In this thesis we aim both to improve their efficiency of and to increase their reliability. Our first contribution is a uniform framework for reasoning with quantified formulas in SMT solvers, in which generally various instantiation techniques are employed. We show that the major instantiation techniques can be all cast in this unifying framework. Its basis is the problem of E-ground (dis)unification, a variation of the classic rigid E-unification problem. We introduce a decision procedure to solve this problem in practice: Congruence Closure with Free Variables (CCFV). We measure the impact of optimizations and instantiation techniques based on CCFV in the SMT solvers veriT and CVC4, showing that our implementations exhibit improvements over state-of-the-art approaches in several benchmark libraries stemming from real world applications. Our second contribution is a framework for processing formulas while producing detailed proofs. The main components of our proof producing framework are a generic contextual recursion algorithm and an extensible set of inference rules. With suitable data structures, proof generation creates only a linear-time overhead, and proofs can be checked in linear time. We also implemented the approach in veriT. This allowed us to dramatically simplify the code base while increasing the number of problems for which detailed proofs can be produced

Page generated in 0.093 seconds