• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1361
  • 595
  • 154
  • 4
  • 2
  • 1
  • Tagged with
  • 2086
  • 765
  • 461
  • 296
  • 293
  • 236
  • 225
  • 200
  • 200
  • 195
  • 195
  • 183
  • 159
  • 153
  • 150
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Segmentation automatique d'images sur des critères géométriques, application à l'inspection visuelle de produits agroalimentaires / Automated segmentation of images using geometrical criteria, application on image processing for good inspection

Dubosclard, Pierre 25 January 2016 (has links)
À l’échelle mondiale, la récolte de céréales atteint plusieurs milliards de tonnes chaque année. Les producteurs céréaliers échangent leurs récoltes selon un prix déterminé par la qualité de leur production. Cette évaluation, appelée agréage, est réalisée pour chaque lot sur un échantillon jugé représentatif. La difficulté au cours de cette évaluation est de parvenir à parfaitement caractériser l'échantillon. Il faut pour cela qualifier chacun de ses éléments, en d'autres termes, il est nécessaire d'évaluer chaque grain de céréale de manière individuelle. Cette opération est historiquement réalisée par un opérateur qui isole chaque grain manuellement pour l’inspecter et l'évaluer. Ce procédé est exposé à différents problèmes : d'une part les résultats obtenus par un opérateur ne sont pas parfaitement répétables : son état de fatigue visuelle peut influencer son appréciation ; d'autre part l'évaluation dépend de l'opérateur : elle n'est pas reproductible, les résultats peuvent varier d'un opérateur à l'autre. Cette thèse a donc pour but de mettre au point un système capable de réaliser cette inspection visuelle.Le système d’acquisition est présenté dans un premier temps. Cette enceinte contient les dispositifs d’éclairage et d’acquisition d’images. Différents outils ont été mis en œuvre pour s’assurer de la justesse et de la stabilité des acquisitions. Une méthode d’apprentissage de modèles de forme est ensuite présentée : elle a pour but de définir et de modéliser le type de forme des grains de l’application considérée (blé, riz, orge). Cette étape est réalisée sur une image d’objets isolés. Deux méthodes de détection sont ensuite présentées : une approche déterministe et une approche probabiliste. Ces deux méthodes, mises au point pour segmenter les objets d’une image, utilisent des outils communs bien qu’elles soient conçues différemment. Les résultats obtenus et présentés dans cette thèse démontrent la capacité du système automatique à se positionner comme une solution fiable à la problématique d’inspection visuelle de grains de céréales. / In agriculture, the global grain harvest reached several billion tons each year. Cereal producers exchange their crops at a price determined by the quality of their production. This assessment, called grading, is performed for each set on a representative sample. The difficulty of this assessment is to fully characterize the sample. To do so, it is necessary to qualify each of its elements. In other words, it is necessary to evaluate each individual cereal grain. Historically, this has been performed manually by an operator who isolates each evaluated grain. This method is exposed to various problems: firstly, results obtained by an operator are not perfectly repeatable. For example, eyestrain can influence the assessment. On the other hand the evaluation depends on the operator: it is not reproducible. The results can vary from one operator to another. The aim of this thesis is to develop a system that can handle this visual inspection. In a first time, the acquisition system is introduced. Image acquisition and lighting parts are placed in a cabin. Several methods have been introduced to manage accuracy and stability of the acquisitions. Then, a shape model learning is detailed: this step, based on an image with manually separated objects, defines and modelizes shape of the considered cereal grains (wheat, rice, barley). Two detection approaches are then introduced: a deterministic method and a probabilistic one. Both are based on the same tools to process the objects segmentation of an image, but they deal with the question in a different way. The results provided by the system and presented in this thesis emphasize the ability of this automatic system to process the visual inspection of food products.
42

Multi-criteria batch scheduling under time-of-use tariffs / Ordonnancement multicritère par lots avec tarifs d'électricité différenciés

Cheng, Junheng 07 December 2017 (has links)
L'industrie est le plus grand consommateur d'énergie dans le monde et la majeure partie de sa consommation est électrique. Pour moduler la consommation et équilibrer les périodes creuses et de pic, les producteurs d'électricité dans de nombreux pays pratiquent une tarification différenciée, en anglais "time-of-use (TOU) policy", afin d’encourager les industriels et les particuliers à adapter leur consommation. Cette stratégie incite les gros consommateurs industriels, en particulier le secteur semi-conducteur où la fabrication se fait souvent par lots, à réduire leurs factures d’électricité en adaptant leur production.Dans ce travail, nous étudions plusieurs problèmes d’ordonnancement de production par lots avec tarification différenciée d'électricité. Nous nous intéressons d’abord à l’ordonnancement d’une machine par lots pour minimiser le coût total d’électricité et le makespan. Le deuxième problème étudié généralise le premier en considérant le coût d’électricité pendant les périodes inactives de la machine telles que les périodes de réglage ou d'attente. Enfin, nous traitons l’ordonnancement sur machines parallèles par lots avec des pièces non identiques. Pour chacun de ces problèmes, nous construisons des modèles mathématiques appropriés, et évaluons sa complexité. Pour la résolution, nous proposons plusieurs méthodes de ɛ-contrainte dans lesquelles des sous-problèmes sont transformés en problèmes de sac-à-doc, de sacs-à-doc multiples et ou de bin packing. Nous développons aussi une méthode itérative à deux étapes. Les performances des méthodes développées sont évaluées à l'aide d'un grand nombre d'instances représentatives générées au hasard. Les résultats numériques montrent l'efficacité de ces méthodes par rapport au logiciel commercial CPLEX. / The industrial sector is the largest consumer of the world's total energy and most of its consumption form is electricity. To strengthen the grid's peak load regulation ability, time-of-use (TOU) electricity pricing policy has been implemented in many countries to encourage electricity users to shift their consumption from on-peak periods to off-peak periods. This strategy provides a good opportunity for manufacturers to reduce their energy bills, especially for energy-intensive ones, where batch scheduling is often involved. In this thesis, several bi-objective batch scheduling problems under TOU tariffs are studied. We first investigate a single machine batch scheduling problem under TOU tariffs with the objectives of minimizing total electricity cost and makespan. This primary work is extended by further considering machine on/off switching. Finally, a parallel batch machines scheduling problem under TOU tariffs with non-identical job sizes to minimize total electricity cost and number of enabled machines is studied. For each of the considered problems, appropriate mathematical models are established, their complexities are demonstrated. Different bi-objective resolution methods are developed, including knapsack problem heuristic based ɛ-constraint method, multiple knapsack problem heuristic based ɛ-constraint method, bin packing heuristic based ɛ-constraint method and two-stage heuristic based iterative search algorithm. The performance of the proposed methods is evaluated by randomly generated instances. Extensive numerical results show that the proposed algorithms are more efficient and/or effective for the studied problems than the commercial software CPLEX.
43

Comparaison de la puissance de tests de déséquilibre de liaison dans les études génétiques

Jomphe, Valérie 12 April 2018 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2006-2007 / L'identification du gène responsable d'une maladie peut être facilitée par des méthodes statistiques telles que des études d'association basées sur le déséquilibre de liaison. Différentes stratégies d'analyse sont possibles pour ce type d'étude. Comme pour les tests d'association classiques, un devis d'échantillonnage de cas-témoins peut être utilisé. Un deuxième devis possible est l'échantillonnage de trios. On peut également choisir d'étudier l'association allélique ou haplotypique des marqueurs génétiques sélectionn és. La présente étude vise à comparer par voie de simulation la puissance de tests de déséquilibre de liaison selon la stratégie d'analyse choisie. Dans un premier temps, on s'est intéressé à la comparaison des devis d'échantillonnage cas-témoins et trios ; dans un deuxième temps, on a comparé les approches allélique et haplotypique.
44

Analyse statistique des facteurs climatiques et géomorphologiques associés aux mouvements de terrain dans les argiles des mers post-glaciaires au Québec méridional

Poulin Leboeuf, Laurence 17 February 2021 (has links)
Lors des 14 dernières années, plus d'une centaine de demandes d'assistance technique concernant des mouvements de terrain au Québec méridional sont adressées chaque année aux autorités gouvernementales. Parmi les cas signalés, la majorité d'entre eux survienne à l'intérieur des limites de la transgression marine post-glaciaire où vit près de 90 % de la population québécoise. Étant donnée leur importance dans la province et les conséquences qu'ils peuvent engendrer, ces mouvements ont fait l'objet jusqu'à présent de nombreuses études pour la plupart orientées sur les aspects géotechniques du problème. Les études statistiques et géomorphologiques demeurent très fragmentaires et peu de données sont disponibles afin de dresser un portrait de l'occurrence des mouvements de terrain au Québec selon les différentes périodes de l'année ou pour cerner les facteurs climatiques et géomorphologiques en cause. La réalisation de ce mémoire a été rendue possible grâce à l'utilisation d'une base de données très complète élaborée au fil des ans par la Section des mouvements de terrain du ministère des Transports du Québec, laquelle compte 4165 cas documentés. L'objectif principal de cette recherche est de dresser un portrait statistique général des mouvements de terrain et des circonstances ou facteurs causaux qui leur sont associés, à l'aide d'analyses statistiques et descriptives de leurs contextes géomorphologiques, spatiaux et temporels. Les résultats obtenus démontrent que de 1970 à 2017, la Montérégie, Lanaudière et la Mauricie sont les régions les plus affectées par les mouvements de sol et que la période de l'année la plus propice débute au mois d'avril et se termine au mois de juin. Ces mêmes résultats démontrent que les glissements superficiels sont plus fréquents que les glissements rotationnels. Toutefois, un inventaire ciblé des cicatrices de glissements de terrain effectué en 2017 dans la MRC de Maskinongé a permis de démontrer que les tendances générales observées à l'échelle provinciale peuvent différer de celles observées à l'échelle locale, en raison de la géomorphologie et des conditions géotechniques spécifiques à chaque secteur. Les données ont aussi été examinées pour identifier de possibles effets de purge et d'amplification du phénomène en fonction de certains IV événements climatiques majeurs. Seuls des signes d'effet de purge ont été observés à la suite de l'accumulation de neige en 2008 et des apports en eau exceptionnels du printemps 2017. En somme, les effets de purge et d'amplification sont des phénomènes difficiles à détecter à l'aide de statistiques générales seulement. Des recherches ciblées à un secteur précis et sur plusieurs années consécutives pourraient toutefois offrir des résultats plus probants.
45

Simulation et inférence de réseaux de neurones à l’aide d’intelligence artificielle

Bahdine, Mohamed 02 February 2021 (has links)
La représentation par réseau est un outil puissant pour la modélisation des systèmes dynamiques complexes. Elle est notamment utilisée en neurosciences pour étudier le cerveau. Cependant, extraire un connectome, soit la liste des neurones et des connexions qui les relient, demeure un défi important pour des cerveaux de plusieurs milliers de neurones. C’est le cas du cerveau de la larve du poisson-zèbre qui contient près d’une centaine de milliers de neurones. Puisque les synapses ne peuvent être directement observées, les connexions entre neurones doivent plutôt être inférées. Plusieurs méthodes classiques, dites d’inférence fonctionnelle, issues des statistiques et de la théorie de l’information, prédisent la connectivité à partir des séries temporelles qui décrivent l’activité des neurones. Plus récemment, des avancées en intelligence artificielle ont ouvert la voie à de nouvelles méthodes d’inférence. L’objectif du projet de maîtrise exposé dans ce mémoire est de comparer la performance des méthodes de l’intelligence artificielle à celle des méthodes bien établies. Puisque la connectivité réelle est nécessaire pour une telle comparaison, un simulateur de réseau de neurones est utilisé pour générer des séries temporelles d’activité à partir de connectivités réelles extraites de vidéos d’activité. Il est montré que la calibration d’un tel simulateur, dans le but d’obtenir de l’activité similaire à celle des poissons-zèbres, n’est pas une tâche triviale. Une approche d’apprentissage profond est donc conçue pour prédire, à partir de métriques d’activité globale, les paramètres de simulation idéaux. Il est ensuite montré, sur 86% des simulations générées, qu’un modèle de réseau de neurones artificiels à convolution performe significativement mieux que les autres méthodes d’inférence. Cependant, lorsqu’un entraînement supervisé est impossible, la méthode classique de transfert d’entropie performe mieux qu’un modèle d’apprentissage profond nonsupervisé sur 78% des simulations générées. / Complex network analysis is a powerful tool for the study of dynamical systems. It is often used in neuroscience to study the brain. However, extraction of complete connectomes, i.e. , the list of all neurons and connections, is still a challenge for large brains. This is the case for the brain of the zebrafish which contains almost a hundred thousand neurons. Since direct observation of synapses is still intractable for a brain of this size, connections between neurons must be inferred from their activity. It is indeed possible to extract time series of activity for all neurons, by making them fluorescent upon activation through genetic engineering and by leveraging the zebrafish’s transparency during the larval stage. Then, so-called methods of functional inference, based on information theory, can be used to predict the connectivity of neurons from time series of their activity. Recent breakthroughs in artificial intelligence have opened the door to new methods of inference. The goal of the project described in this thesis is to compare the performance of such new methods to the performance of well-established ones. Since ground truth of connectivity must be known for comparison, a simulator is used to generate synthetic time series of activity from known connectivity. It is shown that the tuning of such a simulator, in order to generate realistic data, is not an easy task. Therefore, a deep learning approach is proposed to predict optimal simulator parameters by analysis global dynamical metrics. Using the generated time series, it is shown that a convolutional neural network performs significantly better than well-established methods on 86% of simulations. However, in cases where supervised learning is impossible, the zebrafish’s case being an example, the classical method of Transfer Entropy performs better than an unsupervised deep learning model on 78% of simulations.
46

Réalisation de fonctions booléennes avec l'opérateur majorité

Lustman, François 01 January 1966 (has links) (PDF)
.
47

Modélisation mathématique et numérique de structures en présence de couplages linéaires multiphysiques / Mathematical and numerical modeling of structures with linear multiphysics couplings

Bonaldi, Francesco 06 July 2016 (has links)
Cette thèse est consacrée à l’enrichissement du modèle mathématique classique des structures intelligentes, en tenant compte des effets thermiques, et à son étude analytique et numérique. Il s'agit typiquement de structures se présentant sous forme de capteurs ou actionneurs, piézoélectriques et/ou magnétostrictifs, dont les propriétés dépendent de la température. On présente d'abord des résultats d'existence et unicité concernant deux problèmes posés sur un domaine tridimensionnel : le problème dynamique et le problème quasi-statique. A partir du problème quasi-statique on déduit un modèle bidimensionnel de plaque grâce à la méthode des développements asymptotiques en considérant quatre types différents de conditions aux limites, chacun visant à modéliser un comportement de type capteur et/ou actionneur. Chacun des quatre problèmes se découple en un problème membranaire et un problème de flexion. Ce dernier est un problème d'évolution qui tient compte d'un effet d'inertie de rotation. On focalise ensuite notre attention sur ce problème et on en présente une étude mathématique et numérique. L'analyse numérique est complétée avec des tests effectués sous l'environnement FreeFEM++. / This thesis is devoted to the enrichment of the usual mathematical model of smart structures, by taking into account thermal effects, and to its mathematical and numerical study. By the expression "smart structures" we refer to structures acting as sensors or actuators, whose properties depend on the temperature. We present at first the results of existence and uniqueness concerning two problems posed on a three-dimensional domain: the dynamic problem and the quasi-static problem. Based on the quasi-static problem, we infer a two-dimensional plate model by means of the asymptotic expansion method by considering four different sets of boundary conditions, each one featuring a sensor-like or an actuator-like behavior. Each of the four problems decouples into a membrane problem and a flexural problem. The latter is an evolution problem that accounts for a rotational inertia effect. Attention is then focused on this problem by presenting a mathematical and numerical study of it. Our numerical analysis is complemented with numerical tests carried out under the FreeFEM++ environment.
48

Contribution à la résolution du sac-à-dos à contraintes disjonctives

Ould Ahmed Mounir, Mohamed Elhavedh 15 October 2009 (has links) (PDF)
Le problème du sac-à-dos à contraintes disjonctives (DCKP) est une variante du sac-à-dos normal. C'est un problème dans lequel certains objets peuvent être incompatibles avec d'autres. Le DCKP apparait, souvent, comme sous problème d'autres problèmes d'optimisation combinatoire plus complexes.
49

Intégrateurs géométriques: Application à la Mécanique des Fluides

Marx, Chhay 16 December 2008 (has links) (PDF)
Une approche récente permettant d'étudier les équations issues de la Mécanique des Fluides consiste à considérer les symétries de ces équations. Les succès des développements théoriques, notamment en turbulence, ont justifié la pertinence d'une telle approche. Sur le plan numérique, les méthodes d'intégration construites sur des arguments liés à la structure géométrique des équations s'appellent les intégrateurs géométriques. Dans la première partie de la thèse, on présente la classe d'intégrateurs géométriques probablement la plus connue; ce sont les intégrateurs symplectiques pour les systèmes hamiltoniens. Dans une seconde partie, on introduit les intégrateurs variationnels, construits pour reproduire les lois de conservation des systèmes lagrangiens. Cependant, la plupart des équations de la Mécanique des Fluides ne dérive pas d'un Lagrangien. On expose alors dans la dernière partie une méthode de construction de schémas numériques respectant les symétries d'une équation. Cette méthode est basée sur une formulation moderne des repères mobiles. On présente une contribution au développement de cette méthode; elle permet d'obtenir un schéma invariant possédant un ordre de précision déterminé. Des exemples issus des équations modèles de la Mécanique des Fluides sont traités.
50

Contributions aux approches formelles de développement de logiciels : Intégration de méthodes formelles et analyse multifacette

Attiogbé, Christian 13 September 2007 (has links) (PDF)
Nous présentons un ensemble de travaux sur l'intégration de méthodes formelles et l'analyse multifacette de systèmes logiciels. %deuxième partie Partant de l'idée que les différentes facettes d'un système doivent être étudiées et développées avec les formalismes et outils appropriés, nous avons exploré, suite à d'autres chercheurs, des pistes pour l'intégration de méthodes formelles utilisées pour spécifier, analyser ou développer des parties des systèmes. La nécessité de l'intégration est relative au besoin de l'interaction entre différentes parties d'un même système ou bien à l'appréhension globale des propriétés du système. Nous explicitons les principaux problèmes de l'intégration de méthodes formelles : l'hétérogénéité syntaxique, l'hétérogénétité sémantique et la variété des systèmes logiques de raisonnement. Nous proposons alors la notion de compatibilité relative à ces trois niveaux pour assurer l'intégration de méthodes. L'idée principale est celle de l'interopérabilité sur une base sémantique (base d'intégration) ) sans laquelle aucun raisonnement n'est possible entre des parties assemblées d'un système. Les raisonnements formels sont alors effectués par plongement (embedding) des spécifications dans des logiques appropriées. Ce premier cadre est généralisé à des domaines de compatibilité plus larges que les bases d'intégration, et qui permettent de s'affranchir des langages et de travailler au niveau des paradigmes sous-jacents aux langages ; on obtient ainsi un cadre pour une intégration générique. Nous avons montré comment les formalismes intégrés existants tels que LOTOS, CSP-B, Circus rentrent dans ce cadre et nous avons mis en oeuvre ces idées pour de nouvelles intégrations par exemple B et les réseaux de Pétri. Dans une autre partie des travaux, nous présentons des extensions proposées autour de la méthode B, notamment la composition parallèle asynchrone de systèmes abstraits B à la manière de la composition parallèle dans les algèbres de processus. Notre proposition permet de combiner dans un même projet de développement formel la démarche descendante de la méthode B par une approche ascendante. Nous présentons ensuite une méthode de construction systématique de spécifications B pour des systèmes multi-processus à architecture dynamique. Ces travaux généralisent les précédents sur la composition de systèmes abstraits en définissant un opérateur de fusion de sous-systèmes qui est plus général que les opérateurs de composition parallèle. Une partie des travaux est consacrée à l'analyse multifacette de système ; notre proposition consiste à assurer la compatibilité des analyses des différentes facettes en partant non pas de modèles indépendants mais de modèles spécifiques dérivés à partir d'un modèle de référence qui permet d'assurer la cohésion globale de l'analyse. Cette approche est poursuivie par des expérimentations sur la combinaison de prouveurs et d'évaluateurs de modèles (model-checkers). Nous avons exploré d'autres voies pour l'analyse multifacette : élaborer une algèbre de spécifications multiparadigmes, ou différents aspects, relatifs aux facettes envisagées, peuvent être introduits dans une même unité de spécification. Les unités de spécification sont ensuite composées à l'aide des opérateurs de l'algèbre. Le lien est fait entre cette approche et celle de l'intégration de méthodes par plongement dans des logiques formelles. Une plateforme expérimentale est développée conjointement à ces travaux et relie les deux approches : elle permettra à terme de traduire, moyennant la compatibilité sémantique, différents formalismes d'entrées dans des formalismes cibles en passant par un modèle de référence ou pivot qui lui même est une spécification multiparadigme.

Page generated in 0.0388 seconds