• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 4990
  • 2018
  • 512
  • 206
  • 39
  • 18
  • 15
  • 14
  • 7
  • 5
  • 3
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 7962
  • 1351
  • 1230
  • 991
  • 900
  • 783
  • 749
  • 717
  • 674
  • 603
  • 592
  • 526
  • 499
  • 457
  • 451
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
371

Développement et évaluation d'une intervention sur mesure visant à favoriser l'usage d'une seringue neuve à chaque injection chez les usagers de drogues par injection qui fréquentent les programmes d'échange de seringues

Gagnon, Hélène 13 April 2018 (has links)
Par l’utilisation de seringues souillées (i.e. qui ont déjà été utilisées par soi-même ou quelqu’un d’autre), les usagers de drogues par injection (UDI) s’exposent à différents types d’infections qui peuvent s’avérer graves. Dans le but de mieux cibler les objectifs d’une intervention visant à promouvoir l’utilisation d’une seringue neuve à chaque injection (i.e. qui n’a jamais été utilisée ni par soi ni par quelqu’un d’autre), une première étude a été réalisée. L’utilisation d’un modèle théorique intégrateur a permis d’identifier les facteurs associés à l’intention des UDI d’adopter ce comportement. Seulement 39 % des 105 répondants avaient une ferme intention d’adopter ce comportement dans la semaine suivante. La perception du contrôle comportemental (RC : 17,83; IC95 % 5,75-55,15) et l’attitude (RC : 13,43; IC95 % 3,54-50,87) étaient les principaux facteurs associés à l’intention. L’intervention a été développée à l’aide du cadre de planification appelé Intervention Mapping. Ce modèle propose de tenir compte des données scientifiques, des fondements théoriques ainsi que de la participation des communautés visées dans l’élaboration des programmes. L’intervention a pris forme à travers une stratégie appelée le Computer Tailoring. Cette stratégie utilise les technologies de l’information pour communiquer des messages sur mesure, c’est-à-dire choisis en fonction des caractéristiques individuelles. Cette intervention a été implantée dans le cadre d’une recherche évaluative. Un protocole expérimental a été utilisé. Les variables comportementales ont été mesurées avant l’intervention (T0), un mois après le début de l’intervention (T1) et trois mois plus tard (T2). Un total de 260 UDI a été recruté. Au départ, 52,3 % des participants ont rapporté ne pas avoir toujours utilisé des seringues neuves dans la semaine précédente. Les analyses ont montré un effet à court terme, puisque un mois après le début de l’intervention, les participants du groupe expérimental utilisaient moins de seringues souillées en proportion (p = 0,004), et étaient plus nombreux à adopter un comportement sécuritaire (p = 0,04) que les participants du groupe contrôle. Ces effets n’étaient plus observables après trois mois. Les résultats de cette étude s’ajoutent à ceux déjà publiés démontrant l’efficacité de l’approche Computer Tailoring pour la modification de comportements liés à la santé. Dans la mesure où ils sont exposés à des messages éducatifs ciblés, les UDI qui fréquentent les programmes d’échange de seringues (PES) adoptent des comportements sécuritaires. / The use of soiled syringes exposes injection drug users (IDUs) to serious infections. To better target objectives of an intervention aimed at promoting the use of a new syringe at each injection, a preliminary study was realized. The use of an integrative theoretical model has permitted to identify factors associated with the intention of IDUs to adopt this behaviour. Only 39% of the 105 respondents had a firm intention to adopt this behaviour in the next week. Perceived behavioural control (OR : 17.83; CI95% 5.75-55.15) and attitude (OR : 13.43; CI95% 3.54-50.87) were the principal factors associated with intention. Intervention mapping served as the conceptual framework to guide the development of the intervention. At each developmental step, this model integrates theory, empirical data and information collected among populations. More specifically, the intervention emerges through a strategy named Computer Tailoring. This strategy uses information technologies to present messages customized according to individual characteristics. This intervention was implemented within the framework of an evaluative research. A two-group randomized control trial design was adopted. Behavioural outcomes were measured at baseline (T0), one week after the intervention (T1) and three months later (T2). A total of 260 IDUs were recruited. At baseline, 52.3% of the participants reported not always using new syringes in the previous week. The analysis showed a short term effect. One month after the implementation of the intervention, participants in the experimental group were using fewer soiled syringes (p = 0.004), and a higher number reported adopting safe behaviour (p = 0.04). These effects were not significant three months later. The results of this study add weight to those already published demonstrating the efficacy of Computer Tailoring intervention to modify behaviour. When they are exposed to tailored educational messages, IDUs who visit needle exchange programs (NEPs) adopt safer injection practices.
372

Optimisation directe de machines électriques synchrones à aimants permanents fonctionnant à haute vitesse

Grenier, Jean-Michel 28 June 2024 (has links)
La conception d'une machine haute vitesse est un problème multiphysique très complexe. Les contraintes mécaniques au rotor sont très élevées et la dynamique du rotor ne peut pas être négligée sinon les vibrations excessives risquent de détruire la machine. Même les pertes aérodynamiques créées par le frottement entre le rotor et l'air dans l'entrefer ne peuvent être négligées. La vitesse élevée implique également une fréquence électrique très élevée et donc des problèmes de pertes additionnelles dans le bobinage, de pertes fer, de pertes par courant de Foucault au rotor et de pertes de commutation dans les composantes de puissance de l'onduleur. Les pertes par courant de foucault au rotor, par exemple, augmentent la température des aimants risquant ainsi d'altérer leur performance ou même de les démagnétiser. Le concepteur doit faire preuve d'ingéniosité pour trouver des solutions et des compromis entre ces nombreux problèmes tout en considérant les couplages multiphysiques entre les modèles. Par exemple, l'augmentation de la fréquence de hachage permet la réduction des pertes par courant de foucault au rotor, mais augmente les pertes par commutation dans l'onduleur d'où la nécessité de l'atteinte d'un premier compromis. Les machines synchrones à aimants permanents montés en surface étant des machines prometteuses pour fonctionner à des vitesses et densités de puissance élevées, l'objectif du présent travail de recherche est de développer un outil de CAO adapté à ce type de machine et d'en déduire des règles de conception. Le calcul de champs 2D magnétostatique et magnétoharmonique est directement piloté par un algorithme d'optimisation pour permettre une estimation précise des paramètres les plus complexes à modéliser pour des espaces de conception et des topologies variés. Une étude comparative de moteurs optimisés pour différentes vitesses et densités de puissance a permis de déduire des règles de conception comme le choix du nombre de pôles et l'équilibre entre les pertes cuivre et les pertes fer. Le **Chapitre 1** traite de l'état de l'art actuel de la conception de machines haute vitesse. Les différents défis de conception et de réalisation sont exposés et discutés ainsi que les principales solutions possibles. Le **Chapitre 2** présente différents modèles adaptés aux machines haute vitesse permettant d'aider le concepteur dans son processus. L'implantation de la méthode de conception directe par calcul de champs à l'aide de MATLAB, PYTHON et CEDRAT FLUX est exposé dans le **Chapitre 3** alors que son utilisation pour l'obtention de règles de conception et son application sur un générateur de 80kW fonctionnant à 70000 rpm sont traités au **Chapitre 4**. Finalement, le **Chapitre 5** traite des différentes solutions aux problèmes majeurs des pertes dans les aimants. / Conception of a high-speed electrical machine is a complex multiphisics problem. Mechanical constraints in the rotor are high and rotor dynamics cannot be neglected otherwise excessive vibrations could destroy the machine. Even aerodynamic losses caused by friction between the rotor and the air in the air gap cannot be neglected. High-speed also implies high electrical frequency and therefore additional losses in the windings, iron losses, losses in the rotor et switching losses in power electronics. Rotor losses, for example, raise the temperature of the magnets and may alter their performance or even demagnetize them. The designer must therefore show ingenuity to find solutions and compromises between these numerous problems while considering the multiphysics couplings. For example, increasing switching frequency of the inverter allows the reduction of rotor losses, but increases switching losses in power components, hence the need to reach a compromise. Since Surface Mounted Permanent Magnet synchronous (SMPM) machines are promising for operating at high speeds and power density, the aim of this research is to develop an optimization process adapted to this type of machine that makes it possible to deduce design rules. Parametric magnetodynamic and magneto-harmonic FEA simulations are directly driven by an optimization algorithm to allow accurate estimation of parameters that are difficult to evaluate for various design spaces and topologies. A comparative study of motors optimized for different speeds and power density made it possible to deduce design rules such as the choice of the number of poles and the balance between copper losses and iron losses. First, Chapter 1 introduces the current state of the art for high-speed machines designs. Various design and fabrication challenges are discussed as well as popular solutions. Chapter 2 shows models adapted to high-speed machines to help the designer in his process. Implementation of the optimization process by direct field calculation using MATLAB, PYTHON and CEDRAT FLUX is shown in chapter 3 while its use for obtaining design rules and its application for an 80 kW generator are in chapter 4. Finally, a few solutions for magnet losses are studied in chapter 5.
373

Utilisation de la simulation du flux d'une scierie pour déterminer les gains en productivité associés au triage des tiges par dimensions

Goulet, Pierre 12 April 2018 (has links)
Une scierie présente souvent une grande variabilité du niveau de production journalier. Une partie de cette fluctuation est causée par la variation de la dimension de la matière première. Cette variation engendre des problèmes importants de flux du bois. Pensons notamment aux surcharges de pièces à certains centres-machines, alors que d'autres manquent de matériel. Cela occasionne une sous-utilisation du potentiel des équipements de sciage et résulte en une perte de productivité. Certaines scieries ont implanté des méthodes de triage en forêt selon la dimension des tiges. Les tiges sont séparées en deux ou trois catégories de diamètres. Elles sont empilées séparément dans la cour à bois de la scierie. La scierie est ensuite alimentée en utilisant les empilements en alternance. Cela permet d'exercer un certain contrôle sur la façon dont le bois entre dans la scierie. Toutefois, les gains éventuels de cette façon d'opérer n'ont jamais été documentés ou évalués clairement. Comme le tri des tiges engendre des coûts supplémentaires, il apparaît important d'établir s'il y a un gain de productivité pour la scierie, afin d'évaluer la rentabilité globale de cette opération de triage. L'objectif principal de ce projet est donc d'évaluer les éventuels bénéfices associés à l'utilisation d'une matière première triée selon ses dimensions. Le logiciel QUEST, un simulateur de procédés manufacturiers par événements discrets, a été configuré pour représenter les aspects concernant le flux des pièces d'une scierie. Auparavant, le logiciel Optitek, un simulateur de débitage, a été mis à contribution pour obtenir des solutions de débitage, propres à la scierie étudiée, pour 255 billes échantillons scannées. Le design de la scierie a été recréé dans le logiciel QUEST. Les vitesses d'avance des convoyeurs et les vitesses d'alimentation des équipements ont été incluses ainsi que les différentes options de cheminement des pièces dans la scierie. L'efficacité des équipements a été considérée en incorporant la fréquence et la durée des arrêts par machine. De plus, des efforts ont été mis afin de bien cerner et de reproduire, dans le modèle, les décisions humaines ayant une influence sur le flux des pièces. Un modèle de flux représentant la situation actuelle de la scierie a ainsi été obtenu. Le modèle a été ensuite modifié afin d'y inclure une étape de tri des tiges selon trois classes de diamètre à hauteur de souche (DHS). Pour gérer la façon dont le bois des différentes classes de dimension est amenée à la scierie, différents indicateurs de l'état du système de production ont été utilisés à tour de rôle. Ces indicateurs sont : le volume moyen des billes écorcées des cinq dernières minutes, le niveau d'occupation des bacs de classement des billes et le volume moyen des tiges tronçonnées. Pour chacun de ces indicateurs, des bornes ont été établies, par essais et erreurs, en vue d'appliquer des recettes d'alimentation à partir des trois catégories de dimension des tiges. Le modèle de référence, c'est-à-dire celui où il n'y a aucun tri de la matière première, a été utilisé afin de simuler 65 factions de travail. Les résultats ont ensuite fait l'objet d'analyses statistiques afin de vérifier l'existence d'une relation entre le volume de sciage produit dans une faction de travail et certaines variables explicatives. Des équations, obtenues par analyses de régression multiple, ont été établies afin d'exprimer la productivité de la scierie sous l'angle de la production de sciage brut en volume nominal. Les variables explicatives qui ont été retenues dans ces équations sont le volume des billes sciées et les arrêts au poste d'éboutage. De la même façon, le modèle incluant le tri des tiges en trois classes de dimension a été simulé. Des séries de simulations ont été réalisées pour chacune des trois méthodes de contrôle de l'alimentation. Les résultats ont été analysés par régression multiple et des équations exprimant la production en fonction du volume des billes sciées et des arrêts au poste d'éboutage ont été établies. En comparant les différentes équations de productivité, et ce au même niveau des variables explicatives, il a été possible de vérifier les gains possibles associés au triage des tiges. Il ressort des résultats que le tri des tiges selon leurs dimensions peut améliorer de façon appréciable la productivité de la scierie. Cependant, la méthode utilisée pour contrôler l'alimentation influence de façon très importante les gains.
374

Simulation numérique des processus d'excitation et d'ionisation des systèmes moléculaires à plusieurs électrons en champ laser intense

Hennani, Salima 05 December 2023 (has links)
Titre de l'écran-titre (visionné le 30 novembre 2023) / Dans cette thèse, la dynamique d'excitation électronique et d'ionisation de H₂ dans une impulsion laser intense est étudiée en utilisant une approche ab initio pour résoudre numériquement l'équation de Schrödinger dépendante du temps (TDSE) pour ce système. Nous avons développé une nouvelle méthodologie utilisant des fonctions B-Splines comme base de développement des fonctions d'onde multi-configurationnelles du système. Afin de décrire et d'analyser la dynamique d'ionisation et d'excitation électronique, nous faisons appel au programme MEDYS (Many-Electron-Dynamics System), conçu à notre laboratoire en interne, et dont l'adaptation en base B-Spline pour donner la version MEDYS-BSpline est un des objectifs de la thèse. Ce programme utilise une méthode d'interaction de configuration dépendante du temps (TDCI) pour décrire la dynamique temporelle de l'ionisation sur les voies de l'espace lié et celui des cations. En application de la méthodologie, le travail continue avec la détermination du régime d'ionisation, tunnel ou multiphotonique, quand la molécule H₂ est soumise à un rayonnement intense dans l'infra-rouge proche (de longueur d'onde λ = 800 nm). Le travail entreprend également une évaluation numérique de l'approximation du Champ Fort en comparant les résultats de calculs de la dynamique électronique utilisant l'approximation de Strong Field Approximation (SFA) avec ceux utilisant une représentation complète et non-SFA du propagateur de l'électron ionisé. / In this thesis, the dynamics of electronic excitation and ionization of H₂ in an intense laser pulse are studied using an ab initio approach to numerically solve the time-dependent Schrödinger equation (TDSE) for this system. We have developed a new methodology using B-Spline functions as a basis for developing the multiconfigurational wave functions of the system. To describe and analyze the dynamics of ionization and electronic excitation, we employ the in-house program called Many-Electron-Dynamics System (MEDYS), and one of the objectives of the thesis is to adapt it to the B-Spline basis, resulting in the MEDYS-BSpline version. This program utilizes a time-dependent configuration interaction (TDCI) method to describe the temporal dynamics of ionization in both bound and cationic states. Applying this methodology, the work continues with the determination of the ionization regime, either tunneling or multiphoton, when H₂ is subjected to intense radiation in the near-infrared (wavelength λ = 800 nm). The work also undertakes a numerical evaluation of the Strong Field Approximation (SFA) by comparing the results of electronic dynamics calculations using the SFA approximation with those using a full and non-SFA representation of the ionized electron propagator.
375

Rôle clinique de l'imagerie par résonance magnétique pour le pronostic de sujets avec troubles cognitifs légers : stratification selon le fonctionnement cognitif global

Bodryzlova, Yuliya 23 April 2018 (has links)
Introduction : La valeur prédictive de la volumétrie cérébrale par imagerie par résonance magnétique (IRM) pour le pronostic de progression des individus avec trouble cognitif léger amnésique (TCLa) vers la maladie d’Alzheimer est généralement rapportée comme étant hors des barèmes requis pour l’implémentation de tests diagnostiques dans la pratique courante (rapport de vraisemblance positif (LR+) >= 5.0 et négatif (LR-) <= 0.2). Par contre, aucune recherche à ce jour n’a évalué cette valeur prédictive en utilisant une stratégie de stratification prenant en considération leur état cognitif global, comme indice de progression de la maladie. Objectif : Estimer la valeur pronostique de l’IRM chez les TCLa ayant un fonctionnement cognitif global préservé, défini par une cote au Mini-Mental State Examination entre 28 et 30. Méthodes : Une étude de cohorte rétrospective portant sur 147 TCLa avec fonctionnement global préservé a été effectuée à partir de la base de données de l’Alzheimer’s Disease Neuroimaging Initiative. Nous avons créé un modèle prédictif pour la progression du TCLa sur un suivi de 36 mois à partir de variables volumétriques en IRM et d’informations cliniques et sociodémographiques accessibles en première ligne. Résultats : Le meilleur modèle inclut le volume de l’hippocampe gauche, l’épaisseur corticale du lobe temporal médian, le volume intracrânien, l’âge et le sexe. L’aire sous la courbe ROC est de 91.1%; l’exactitude de classification est de 81.9%, la sensibilité est de 71.4% et la spécificité est de 85.3% (LR + = 4.9 and LR- = 0.3.) Conclusion : La prédiction obtenue par le modèle pour les sujets avec fonctionnement cognitif préservé est meilleure que celle rapportée par les études précédentes, et atteint le seuil d’utilité clinique.
376

Évaluation des stratégies à flux tiré et flux poussé dans la production de bois d'œuvre : une approche basée sur des agents

Cid Yanez, Fabian 16 April 2018 (has links)
L’objectif de l’étude est d’évaluer des stratégies en flux tiré et flux poussé pour la planification de la production en utilisant comme cas d’étude une usine de sciage située au Québec. Un outil de planification de la production (APS, Advanced Planning and Scheduling System), basé sur une architecture logicielle distribuée, simule les divers processus de production et planification des opérations de la scierie (approvisionnement, sciage, séchage, rabotage, entreposage et distribution) en les représentant comme des agents logiciels spécifiques. Pour les expériences, des configurations de pilotage définies par deux facteurs contrôlables sont utilisées, à savoir : la position du point de découplage et les niveaux des contrats pour une famille de produits. Ensuite, des scénarios ont été définis par deux facteurs non contrôlables : la qualité de l’approvisionnement et le différentiel des prix pour les produits visés par les contrats. Ces configurations et ces scénarios génèrent un plan d’expériences de niveaux mixtes avec cinquante-quatre expériences. Pour chacun des 54 plans de production généré par l’APS trois indicateurs de performance sont calculés : le taux de service, le niveau de stock de produits en-cours et le profit potentiel de la production (Potential Monetary Throughput). Les résultats montrent une relation directe entre le niveau de pénétration du point de découplage, le flux tiré et le taux de service, pour chaque niveau de demande des produits tirés par les contrats. Ainsi, une planification qui incorpore le flux tiré génère en moyenne une augmentation de performance de 100% dans le niveau de service, par rapport à une planification en flux poussé pour tous les niveaux de contrats. Cette augmentation de la performance du niveau de service a un coût financier d’approximativement 7% du profit potentiel, lequel devrait être compensé par de meilleures conditions des contrats (un premium payé sur le prix marché) et des coûts de stockage plus bas. Ce « compromis » s’avère un résultat direct de la divergence dans la production de bois d’œuvre. Ainsi, dans un contexte d’affaires qui privilégie la qualité du service et où les clients sont prêts à payer pour ce service, l’utilisation de ces stratégies de planification de la production, où le point de découplage est situé en amont de la chaîne, est une opportunité possible d’avantage concurrentiel. / The objective of this study is the evaluation of pull and push strategies in lumber production planning using a Quebec sawmill as case study. An Advanced Planning and Scheduling System (APS), based on a distributed software architecture, simulates the main operations planning and production processes of the sawmill (sourcing, sawing, drying, finishing, warehousing and delivery) representing them as autonomous software agents. Push and pull strategies are simulated using different penetration positions of the demand information decoupling point over the value chain. To set experiments, configurations are defined by two controllable factors, namely: the decoupling point position and the level of contracts for a product family. Following, a set of scenarios are generated by two uncontrollable factors: the quality of supply and market prices differential for products under contracts. These configurations and scenarios leads to a mixed levels experimental design with fifty four runs. Three performance indicators: orders fill rate, work in process, and potential monetary throughput; are calculated for every one of the 54 production plans generated by the APS. Results show a direct relation between the orders fill rate and the position of the decoupling point, pull strategy, for the three levels of demand on products under contract. Accordingly, at every demand level, production plans under pull strategies generate improvements of 100% compared with equivalent plans under push strategy. This service level performance improvement has a financial cost of about 7% of the Potential Monetary Throughput which should be compensated externally with better contract conditions and internally by lower costs of inventory management. This trade-off seems to be a direct consequence of the divergent nature of lumber production. Consequently, in a business context that privileges service quality and where customers are willing to pay for it, the use of this kind of demand driven strategies in production planning represents a source of competitive advantage.
377

Dynamique stochastique d’interface discrète et modèles de dimères / Stochastic dynamics of discrete interface and dimer models

Laslier, Benoît 02 July 2014 (has links)
Nous avons étudié la dynamique de Glauber sur les pavages de domaines finies du plan par des losanges ou par des dominos de taille 2 × 1. Ces pavages sont naturellement associés à des surfaces de R^3, qui peuvent être vues comme des interfaces dans des modèles de physique statistique. En particulier les pavages par des losanges correspondent au modèle d'Ising tridimensionnel à température nulle. Plus précisément les pavages d'un domaine sont en bijection avec les configurations d'Ising vérifiant certaines conditions au bord (dépendant du domaine pavé). Ces conditions forcent la coexistence des phases + et - ainsi que la position du bord de l'interface. Dans la limite thermodynamique où L, la longueur caractéristique du système, tend vers l'infini, ces interfaces obéissent à une loi des grand nombre et convergent vers une forme limite déterministe ne dépendant que des conditions aux bord. Dans le cas où la forme limite est planaire et pour les losanges, Caputo, Martinelli et Toninelli [CMT12] ont montré que le temps de mélange Tmix de la dynamique est d'ordre O(L^{2+o(1)}) (scaling diffusif). Nous avons généralisé ce résultat aux pavages par des dominos, toujours dans le cas d'une forme limite planaire. Nous avons aussi prouvé une borne inférieure Tmix ≥ cL^2 qui améliore d'un facteur log le résultat de [CMT12]. Dans le cas où la forme limite n'est pas planaire, elle peut être analytique ou bien contenir des parties “gelées” où elle est en un sens dégénérée. Dans le cas où elle n'a pas de telle partie gelée, et pour les pavages par des losanges, nous avons montré que la dynamique de Glauber devient “macroscopiquement proche” de l'équilibre en un temps L^{2+o(1)} / We studied the Glauber dynamics on tilings of finite regions of the plane by lozenges or 2 × 1 dominoes. These tilings are naturally associated with surfaces of R^3, which can be seen as interfaces in statistical physics models. In particular, lozenge tilings correspond to three dimensional Ising model at zero temperature. More precisely, tilings of a finite regions are in bijection with Ising configurations with some boundary conditions (depending on the tiled domain). These boundary conditions impose the coexistence of the + and - phases, together with the position of the boundary of the interface. In the thermodynamic limit where L, the characteristic length of the system, tends toward infinity, these interface follow a law of large number and converge to a deterministic limit shape depending only on the boundary condition. When the limit shape is planar and for lozenge tilings, Caputo, Martinelli and Toninelli [CMT12] showed that the mixing time of the dynamics is of order (L^{2+o(1)}) (diffusive scaling). We generalized this result to domino tilings, always in the case of a planar limit shape. We also proved a lower bound Tmix ≥ cL^2 which improve on the result of [CMT12] by a log factor. When the limit shape is not planar, it can either be analytic or have some “frozen” domains where it is degenerated in a sense. When it does not have such frozen region, and for lozenge tilings, we showed that the Glauber dynamics becomes “macroscopically close” to equilibrium in a time L^{2+o(1)}
378

Reconnaissance et correspondance de formes 3D pour des systèmes intelligents de vision par ordinateur / 3D shape recognition and matching for intelligent computer vision systems

Naffouti, Seif Eddine 19 October 2018 (has links)
Cette thèse porte sur la reconnaissance et l’appariement de formes 3D pour des systèmes intelligents de vision par ordinateur. Elle décrit deux contributions principales à ce domaine. La première contribution est une implémentation d'un nouveau descripteur de formes construit à la base de la géométrie spectrale de l'opérateur de Laplace-Beltrami ; nous proposons une signature de point globale avancée (AGPS). Ce descripteur exploite la structure intrinsèque de l'objet et organise ses informations de manière efficace. De plus, AGPS est extrêmement compact puisque seulement quelques paires propres étaient nécessaires pour obtenir une description de forme précise. La seconde contribution est une amélioration de la signature du noyau d'onde ; nous proposons une signature du noyau d'onde optimisée (OWKS). La perfectionnement est avec un algorithme heuristique d'optimisation par essaim de particules modifié pour mieux rapprocher une requête aux autres formes appartenant à la même classe dans la base de données. L'approche proposée améliore de manière significative la capacité discriminante de la signature. Pour évaluer la performance de l'approche proposée pour la récupération de forme 3D non rigide, nous comparons le descripteur global d'une requête aux descripteurs globaux du reste des formes de l'ensemble de données en utilisant une mesure de dissimilarité et trouvons la forme la plus proche. Les résultats expérimentaux sur différentes bases de données de formes 3D standards démontrent l'efficacité des approches d'appariement et de récupération proposées par rapport aux autres méthodes de l'état de l'art. / This thesis concerns recognition and matching of 3D shapes for intelligent computer vision systems. It describes two main contributions to this domain. The first contribution is an implementation of a new shape descriptor built on the basis of the spectral geometry of the Laplace-Beltrami operator; we propose an Advanced Global Point Signature (AGPS). This descriptor exploits the intrinsic structure of the object and organizes its information in an efficient way. In addition, AGPS is extremely compact since only a few eigenpairs were necessary to obtain an accurate shape description. The second contribution is an improvement of the wave kernel signature; we propose an optimized wave kernel signature (OWKS). The refinement is with a modified particle swarm optimization heuristic algorithm to better match a query to other shapes belonging to the same class in the database. The proposed approach significantly improves the discriminant capacity of the signature. To assess the performance of the proposed approach for nonrigid 3D shape retrieval, we compare the global descriptor of a query to the global descriptors of the rest of shapes in the dataset using a dissimilarity measure and find the closest shape. Experimental results on different standard 3D shape benchmarks demonstrate the effectiveness of the proposed matching and retrieval approaches in comparison with other state-of-the-art methods.
379

Commande non linéaire dans les systèmes de forage pétrolier : contribution à la suppression du phénomène de « stick-slip ».

Abdulgalil, Farag 28 February 2006 (has links) (PDF)
Le travail présenté dans cette thèse porte sur la modélisation et la commande non linéaire le système du forage pétrolier. La problématique principale consiste à proposer un modèle de forage non linéaire et à élaborer un ensemble de stratégies de commande avancées pour améliorer les performances du trépan.<br />A l'heure actuelle, les commandes des systèmes de forage pétroliers sont réalisées à l'aide de régulateurs classiques PI ou PID. Leurs performances se dégradent notablement lors de vibration de torsion causée par le « stick- slip », phénomène qui peut provoquer des couples non linéaires et donc endommager le trépan et le train de tiges. Par conséquent, il est nécessaire de disposer de systèmes de commande plus performants afin de mieux répondre aux exigences et aux performances demandées.<br />En dépit des diverses lois de commandes linéaires tentatives pour commander ce système mais qui ne garantissent pas la stabilité vis-à-vis des incertitudes. Ceci nous a conduits à proposer une modèle non linéaire en prenant en compte la totalité de l'information du phénomène du stick-slip, ce qui a conduit à une modélisation globale du forage rotary approchant donc au mieux le comportement réel de la plate-forme pétrolière. Pour cela, nous avons suggéré deux approches pour améliorer les performances du système de forage rotary:<br />• Commande par la technique de linéarisation par bouclage.<br />• Développement d'une commande par la technique des modes glissant associé à la commande linéarisation par Bouclage.<br />Comme le système de forage est généralement, est un système soumis aux incertitudes paramétriques, nous avons proposé, de plus, une nouvelle loi de commande non linéaire par Backstepping permettant de mieux améliorer la réponse de la vitesse de rotation du trépan.<br />Ces trois stratégies de commandes apparaissent la première fois dans ce domaine et la approche de Backsteping s'avère la meilleure. Les résultats de simulations obtenus dans les trois cas sont concluants et la synthèse par Backstepping montré la supériorité de, où la question de robustesse a pu être considérée.
380

Contributions pour la Recherche d'Images par Composantes Visuelles

Fauqueur, Julien 21 November 2003 (has links) (PDF)
Dans le contexte de la recherche d'information par le contenu visuel, lorsque l'utilisateur formule une requête visuelle, sa cible de recherche est rarement représentée par une image entière comme le suppose le paradigme classique de recherche par une image exemple. L'image ne doit pas être traitée comme une unité atomique, car elle est généralement constituée d'un ensemble composite de zones visuelles exprimant une certaine sémantique.<br /><br /> Un système de recherche d'information visuelle doit permettre à l'utilisateur de désigner d'une manière explicite la cible visuelle qu'il recherche se rapportant aux différentes composantes de l'image. Notre objectif au cours de ce travail a été de réfléchir à comment définir des clés de recherche visuelle permettant à l'utilisateur d'exprimer cette cible visuelle, de concevoir et d'implémenter efficacement les méthodes correspondantes.<br /><br /> Les contributions originales de cette thèse portent sur de nouvelles approches permettant de retrouver des images à partir de leurs différentes composantes visuelles selon deux paradigmes de recherche distincts.<br /><br /> Le premier paradigme est celui de la recherche par région exemple. Il consiste à retrouver les images comportant une partie d'image similaire à une partie visuelle requête. Pour ce paradigme, nous avons mis au point une approche de segmentation grossière en régions et de description fine de ces régions ensuite. Les régions grossières des images de la base, extraites par notre nouvel algorithme de segmentation non supervisée, représentent les composantes visuellement saillantes de chaque image. Cette décomposition permet à l'utilisateur de désigner séparément une région d'intérêt pour sa requête. La recherche de régions similaires dans les images de la base repose sur un nouveau descripteur de régions (ADCS). Il offre une caractérisation fine, compacte et adaptative de l'apparence photométrique des régions, afin de tenir compte de la spécificité d'une base de descripteurs de régions. Dans cette nouvelle approche, la segmentation est rapide et les régions extraites sont intuitives pour l'utilisateur. La finesse de description des régions améliore la similarité des régions retournées par rapport aux descripteurs existants, compte tenu de la fidélité accrue au contenu des régions.<br /><br /> Notre seconde contribution porte sur l'élaboration d'un nouveau paradigme de recherche d'images par composition logique de catégories de régions. Ce paradigme présente l'avantage d'apporter une solution au problème de la page zéro. Il permet d'atteindre les images, quand elles existent dans la base, qui se rapprochent de la représentation mentale de la cible visuelle de l'utilisateur. Ainsi aucune image ou région exemple n'est nécessaire au moment de la formulation de la requête. Ce paradigme repose sur la génération non-supervisée d'un thésaurus photométrique constitué par le résumé visuel des régions de la base. Pour formuler sa requête, l'utilisateur accède directement à ce résumé en disposant d'opérateurs de composition logique de ces différentes parties visuelles. Il est à noter qu'un item visuel dans ce résumé est un représentant d'une classe photométrique de régions. Les requêtes logiques sur le contenu des images s'apparentent à celles en recherche de texte. L'originalité de ce paradigme ouvre des perspectives riches pour de futurs travaux en recherche d'information visuelle.

Page generated in 0.09 seconds