• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1354
  • 593
  • 153
  • 4
  • 2
  • 1
  • Tagged with
  • 2076
  • 765
  • 461
  • 296
  • 284
  • 236
  • 225
  • 199
  • 198
  • 195
  • 195
  • 183
  • 159
  • 153
  • 150
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Changements démographiques et marché immobilier : une analyse macroéconomique

Lorenzato-Doyle, Gabriel 29 December 2020 (has links)
Ce mémoire propose un outil d’analyse permettant de simuler les effets des changements démographiques sur le prix des actifs immobiliers dans leur ensemble ainsi que sur les principaux indicateurs macroéconomiques. Nous étendons le modèle à générations imbriquées de Gertler (1999) en y ajoutant la production et l’accumulation d’actifs immobiliers ainsi que la consommation des services d’habitation produits par ce capital. Ensuite, nous simulons trois chocs représentant des aspects importants de la réalité démographique et économique complexe duQuébec en 2020, soit les conséquences du baby boom, la hausse de l’espérance de vie et l’importance accordée par les retraités à l’immobilier. Les résultats suggèrent que, lorsque la préférence pour l’immobilier est moins grande chez les retraités que chez les travailleurs, un vieillissement de la population dû à une baisse de la natalité entraine une diminution des prix associés à l’immobilier. L’effet est plus mitigé lorsque le vieillissement simulé résulte d’une hausse de l’espérance de vie, car le besoin d’épargner et d’investir davantage en vue de la retraite exerce une pression à la hausse sur la valeur des actifs. La dernière expérience met en évidence la sensibilité des résultats à l’étalonnage des préférences, puisque, lorsque la préférence des retraités pour leur logement augmente, une hausse marquée des prix est observée.
32

Echec scolaire et problématique d'attachement : approche clinique comparative

Demogeot, Nadine 04 December 2009 (has links)
L'échec scolaire s'inscrit aujourd'hui dans une multiplicité de « troubles des apprentissages » dont les définitions très descriptives (dysgraphie, dyscalculie) renvoient à une dimension essentiellement cognitive occultant une prise en compte globale du sujet. C'est à l'appui d'un modèle théorico-clinique original croisant la théorie de l'attachement et l'approche psychanalytique que cette recherche tente de préciser les liens entre l'échec scolaire et un attachement anxieux. Une approche clinique comparative de deux groupes d'enfants de 6 à 12 ans (20 enfants présentant un attachement anxieux et 20 enfants dont l'attachement est sécure) met à l'épreuve plusieurs hypothèses. En effet, les relations entre échec scolaire et problématique d'attachement ont été explorées à travers six modalités : la qualité de la relation objectale, la structuration identitaire, l'accès à « l'espace transitionnel » représenté par l'école, la qualité pare-excitante des figures parentales, l'élaboration de l'angoisse de séparation et la qualité de la mentalisation. Le dispositif méthodologique précis employé repose sur un questionnaire-guide adressé aux enseignants, des entretiens semi-directifs auprès des parents et des épreuves projectives (Rorschach, test des Contes de Royer, dessins) proposées aux enfants. Des différences significatives concernant les caractéristiques psychologiques en jeu sont mises en évidence entre les enfants en situation d'échec scolaire associé à un attachement anxieux et les enfants disposant d'une bonne adaptation scolaire associée à un attachement sécure. Ces résultats montrent que l'acte d'apprendre s'appuie sur la construction d'une « base sécurisante » garante d'un attachement sécure entre l'enfant et sa famille. Ces travaux rappellent les multiples processus impliqués dans l'échec scolaire et la nécessité d'une approche pluridimensionnelle. / The academic failure joins in a multiplicity of learnings disorders among which very descriptive definitions (dysgraphia, dyscalculie) send back essentially to a cognitive dimension hiding a global consideration of the subject. The theoretical concepts adopted here refer as well to the psychoanalysis than to the model of attachment try to specify the links between academic failure and anxious attachment. A comparative clinical approach of two groups of children from 6 to 12 years old (20 children presenting an anxious attachment and 20 children whose attachment is secure) puts in to the test several hypotheses. Relations between academic failure and problematic attachment were investigated through six modalities: the quality of the object relation, the self representation, the access to " the transitional area " represented by the school, investment of the parental representations by children, the elaboration of the separation fear and the quality of mentalization. The methodology used here relies on a questionnaire sent to the teachers, an interview proposed to the parents and projective tests (Rorschach, tales test of Royer, drawings) proposed to children. Significant differences concerning the psychological characteristics involved are brought to light between children in situation of academic failure associated with anxious attachment and children having a good school adaptation associated with secure attachment. These results show that the learning act relies on the construction of a " reassuring base " which is linked to a secure attachment between child and parents. These works remind the multiple processes implied in academic failure and the necessity to develop research based on multifactorial approaches.
33

Modélisation et vérification des réseaux de Petri hybrides temporisés : application à la métamorphose amphibienne / Modeling and verification of timed hybrid Petri nets : application to amphibian metamorphosis

Troncale, Sylvie 12 September 2008 (has links)
Le formalisme des réseaux de Petri hybrides fonctionnels, notés HFPN pour Hybrid Functional Petri Nets en anglais, a démontré sa capacité à simuler les systèmes biologiques. L’inconvénient d’un formalisme aussi expressif est la difficulté d’exécuter des vérifications de propriétés dynamiques. Dans cette thèse, nous proposons une procédure de model-checking pour les réseaux de Petri hybrides temporisés, notés THPN pour Timed Hybrid Petri Nets en anglais, une sous-classe des HFPN. Cette procédure est basée sur la traduction du modèle THPN et de la propriété étudiée en automates temps-réel. Ceci est alors appliqué pour modéliser les régulations responsables de la métamorphose amphibienne. / The formalism of Hybrid Functional Petri Nets (HFPN) has proved its convenience for simulating biological systems. The drawback of the noticeable expressiveness of HFPN is the difficulty to perform formal verifications of dynamical properties. In this thesis, we propose a model-checking procedure for Timed Hybrid Petri Nets (THPN), a sub-class of HFPN. This procedure is based on the translation of the THPN model and of the studied property into real-time automata. It is applied to model regulations responsible for amphibian metamorphosis.
34

Development of high-order well-balanced schemes for geophysical flows / Développement de schémas équilibre d'ordre élevé pour des modèles d'écoulements géophysiques

Michel-Dansac, Victor 29 September 2016 (has links)
L’objectif de ce travail est de proposer un schéma numérique pertinent pour les équations de Saint-Venant avec termes source de topographie et de friction de Manning. Le premier chapitre est dédié à l’étude du système de Saint- Venant muni des termes source. Dans un premier temps, les propriétés algébriques de ce système sont obtenues. Dans un second temps, nous nous intéressons à ses états stationnaires, qui sont étudiés pour les termes source individuels de topographie et de friction. Le deuxième chapitre permet de rappeler des notions concernant la méthode des volumes finis. Nous évoquons des schémas aux volumes finis pour des systèmes de lois de conservation unidimensionnels et bidimensionnels, et nous en proposons une extension permettant d’assurer un ordre élevé de précision. Le troisième chapitre concerne la dérivation d’un schéma numérique pour les équations de Saint-Venant avec topographie et friction. Ce schéma permet : de préserver tous les états stationnaires ; de préserver la positivité de la hauteur d’eau ; d’approcher les transitions entre zones mouillées et zones sèches, et ce même en présence de friction. Des cas-tests mettant en lumière les propriétés du schéma sont présentés. Le quatrième chapitre permet d’étendre le schéma proposé précédemment, pour prendre en compte des géométries bidimensionnelles et pour assurer un ordre élevé de précision. Des cas-tests numériques sont aussi présentés, y compris des simulations de phénomènes réels. / This manuscript is devoted to a relevant numerical approximation of the shallow-water equations with the source terms of topography and Manning friction. The first chapter concerns the study of the shallow-water equations, equipped with the aforementioned source terms. Algebraic properties of this system are first obtained. Then, we focus on its steady state solutions for the individual source terms of topography and friction. The second chapter introduces the finite volume method, which is used throughout the manuscript. One-dimensional and two-dimensional systems of conservation laws are studied, and a high-order strategy is presented. The third chapter deals with the numerical approximation of the shallow-water equations with topography and friction. We derive a scheme that: • preserves all the steady states; • preserves the non-negativity of the water height; • is able to deal with transitions between wet and dry areas. Relevant numerical experiments are presented to exhibit these properties. The fourth chapter is dedicated to extensions of the scheme developed in the third chapter. Namely, the scheme is extended to two space dimensions, and we suggest a highorder extension. Numerical experiments are once again provided, including real-world simulations.
35

Etude de noyaux de semigroupe pour objets structurés dans le cadre de l'apprentissage statistique

Cuturi, Marco 17 November 2005 (has links) (PDF)
Les méthodes à noyaux désignent une famille récente d'outils d'analyse de données, pouvant être utilisés dans une grande variété de tâches classiques comme la classification ou la régression. Ces outils s'appuient principalement sur le choix a priori d'une fonction de similarité entre paires d'objets traités, communément appelée "noyau'' en apprentissage statistique et analyse fonctionnelle. Ces méthodes ont récemment gagné en popularité auprès des praticiens par leur simplicité d'utilisation et leur performance. Le choix d'un noyau adapté à la tâche traitée demeure néanmoins un problème épineux dans la pratique, et nous proposons dans cette thèse plusieurs noyaux génériques pour manipuler des objets structurés, tels que les séquences, les graphes ou les images. L'essentiel de notre contribution repose sur la proposition et l'étude de différents noyaux pour nuages de points ou histogrammes, et plus généralement de noyaux sur mesures positives. Ces approches sont principalement axées sur l'utilisation de propriétés algébriques des ensembles contenant les objets considérés, et nous faisons ainsi appel pour une large part à la théorie des fonctions harmoniques sur semigroupes. Nous utilisons également la théorie des espaces de Hilbert à noyau reproduisant dans lesquels sont plongées ces mesures, des éléments d'analyse convexe ainsi que plusieurs descripteurs de ces mesures utilisés en statistiques ou en théorie de l'information, comme leur variance ou leur entropie. En considérant tout objet structuré comme un ensemble de composants, à l'image d'une séquence transformée en un ensemble de sous-séquences ou d'images en ensembles de pixels, nous utilisons ces noyaux sur des données issues principalement de la bioinformatique et de l'analyse d'images, en les couplant notamment avec des méthodes discriminantes comme les machines à vecteurs de support. Nous terminons ce mémoire sur une extension de ce cadre, en considérons non plus chaque objet comme un seul nuage de point, mais plutôt comme une suite de nuages emboîtés selon un ensemble d'évènements hierarchisés, et aboutissons à travers cette approche à une famille de noyaux de multirésolution sur objets structurés.
36

L’histoire de la philosophie des sciences mathématiques, physiques et chimiques au tournant du XXe siècle à travers l’étude des Scientifiques-Philosophes et de leurs pratiques philosophiques et éditoriales au sein de l’univers des revues philosophiques francophones / The history of philosophy during the twentieth century through the study of the “Scientifiques-Philosophes” and their epistemological and editorial practices within the universe of French-speaking philosophical journals

Greber, Jules-Henri 17 December 2014 (has links)
Depuis une vingtaine d'année, pour examiner le développement historique des sciences, les historiens emploient des méthodes quantitatives. Utilisées dans une historiographie visant à lier le point de vue quantitatif et le point de vue qualitatif, ces méthodes ont donné lieu à des travaux importants dans différents domaines, en particulier l'étude des sociétés savantes, des revues, des institutions ou d'un secteur scientifique particulier. Bien que prometteuses, ces méthodes restent encore marginales dans le traitement de l'histoire de la philosophie des sciences. L'objectif de la présente thèse est alors de faire la preuve de l'utilité et du bien fondé des méthodes quantitatives dans ce domaine. Après avoir rappelé les thèses habituellement entretenues au sujet du contexte francophone en histoire et philosophie des sciences au tournant du XXe siècle, et dégagé les différents problèmes rencontrés au sein des études classiques et contemporaines consacrées à ce contexte, nous montrons en quoi une étude quantitative s'avère nécessaire. Nous présentons ensuite les différentes étapes et méthodes qui ont permis de constituer une base de données dont l’enjeu final est de dresser un tableau général et systématique du contexte en histoire et philosophie des sciences entre 1870 et 1930. Enfin, nous présentons et analysons certaines pratiques épistémologiques et éditoriales des Scientifiques-Philosophes au sein des périodiques philosophiques. Nous montrons comment ces pratiques ont participé à l’institutionnalisation de la philosophie des sciences au tournant du XXe siècle. / For approximately twenty years, historians have used quantitative methods to examine the historic development of sciences. These methods have been used in a historiography to connect the quantitative point of view and the qualitative one. They gave rise to important works in various areas, particularly in the study of learned societies, journals, institutions or and specific scientific fields. Although promising, these methods still remain marginal in the study of the history of philosophy of sciences. This PhD thesis aims to give evidence of the utility and legitimacy of the quantitative methods in this area.We discuss theories usually endorsed of context in history and philosophy of sciences in the turn of the twentieth century. Then, we clarify the various problems met within classic and contemporary studies of this subject and we show the necessity of a quantitative approach. After that, we present the various steps and methods needed to build a database to present a general picture of the context of history and philosophy of sciences between 1870 and 1930.Finally we present an analysis of some epistemological and editorial practices of the “Scientifiques-Philosophes” in philosophical journals. We show how these practices participated in the institutionalization of the philosophy of sciences in the turn of the twentieth century.
37

Molecular modeling of aerosols / Modélisation moléculaire de l'aérosol

Lovrić, Josip 16 June 2017 (has links)
Cette thèse est une étude, au niveau moléculaire, par des méthodes de simulation numérique, des propriétés des aérosols organiques, notamment des aérosols marins, et de leur interaction avec des espèces présentes dans l’atmosphère. L’organisation de la matière organique au sein de ces aérosols joue un rôle fondamental pour leurs propriétés optiques, chimiques et leur rôle comme noyau de condensation pour les nuages.Dans une première partie, on présente contexte atmosphérique et les méthodes de dynamique moléculaire classique et les méthodes mixtes quantique/classique utilisées pour simuler ces aérosols. Ensuite, on décrit l’application de ces méthodes à trois cas.Tout d’abord, on a étudié, par dynamique moléculaire classique (logiciel Gromacs), l’organisation, notamment l’orientation, de molécules d’acide palmitique absorbées sur une surface de sel (NaCl) en fonction du taux de couverture en acide gras et de la température. On présente aussi une étude détaillée de l’influence de l’humidité sur l’organisation de ce film organique à la surface du sel, mettant en évidence l’existence d’îlots d’acide gras monocouches structurés. Dans une seconde étude, la réactivité de NO2 avec cet aérosol marin est traitée par une approche mixte quantique/classique (logiciel CP2K), avec prise en compte de l’impact de l’humidité sur cette réactivité.Enfin, la dernière étude concerne une étude par dynamique moléculaire de phases condensées organiques (n-butanol) et de leur interaction avec des molécules d’eau. Cette étude théorique, complémentaire d’expériences de jets moléculaires, a pour but de mieux comprendre le rôle fondamental que jouent ces interactions pour les propriétés des aérosols et des nuages. / In this thesis numerical methods are used to study the properties, described at the molecular level, of organic aerosols, especially marine aerosols, and their interaction with species in the atmosphere. The organisation of the organic matter in these aerosols plays a key role for their optical, chemical properties, and their ability to act as a cloud condensation nuclei.The first part reviews atmospheric context and the methods (classical molecular dynamics and hybrid quantum/classical approaches) used in this thesis. Then applications to three cases are detailed.Firstly, the organization, more particularly the orientation, of palmitic acid molecules adsorbed on a salt (NaCl) surface as a function of the fatty acid coverage and temperature has been studied using classical molecular dynamics (Gromacs package). The impact of the humidity on the structuration of this organic coating has been described in details, showing the existence of structured fatty acid island-like monolayers on NaCl surface.In a second study, the reactivity of NO2 with these heterogeneous marine aerosols has been investigated by a hybrid quantum/classical method (CP2K package), with taking into account the effect of the humidity.The last study is a classical molecular dynamics of n-butanol crystal, water accommodation at these surfaces and simulation of water jet collision with n-butanol surface. These simulations, complementary to experiments, were performed to better understand the fundamental role of the water-organic matter interaction on the properties of the aerosols and clouds.
38

Study of Triple-GEM detector for the upgrade of the CMS muon spectrometer at LHC

Maerschalk, Thierry 12 July 2016 (has links)
This doctoral thesis is part of the upgrade of the CMS experiment at the Large HadronCollider of CERN, the LHC. CMS, together with the ATLAS experiment, led to thediscovery of the Brout-Englert-Higgs boson in 2012. But the LHC research program isnot over yet. Indeed, the LHC is intended to operate even at least 20 more years. Duringthis period, the luminosity will grow gradually up to five times its nominal value of 10 34cm −2 s −1 initially foreseen. This increase in luminosity requires the LHC experiments,like CMS, to upgrade their detectors as well as their data acquisition system. One of thenext major CMS upgrade is the addition of a new detector layer in the forward muonspectrometer of CMS. The technology that has been chosen by the CMS collaborationfor this upgrade is the Triple Gas Electron Multiplier (Triple-GEM) technology. Thisupgrade aims to maintain the trigger performance despite the increasing rate of particles(> 1 kHz/cm 2 ) and will also improve the reconstruction of muons tracks, thanks to aexcellent spatial resolution (∼ 250 μm). It is the study and characterization of thistechnology that is the subject of this thesis.This characterization of the Triple-GEM detectors starts with a detailed study of thetime resolution. This study has been performed using different Monte Carlo simulationslike GARFIELD, and has demonstrated that the Triple-GEM detectors equipped withthe new VFAT3 electronics (developed for this upgrade) fulfill the requirements for theCMS upgrade.Then we have studied different detector prototypes. First, we have built two small 10×10cm 2 prototypes and developed a test bench at the ULB laboratory. This test bench hasallowed us to study another important parameter of the Triple-GEM detectors: the gain.Later, we also had the opportunity to take part in the data taking and analysis of a testbeam campaign at CERN. The analysis of the data of this test beam is also presentedin detail.The last part of this work concerns the study of the spatial resolution. We have estimatedthe spatial resolution of the Triple-GEM detector equipped with a binary electronics byMonte Carlo simulations as well as analytically. This study has been extended to otherdetector technologies like the Micromegas and the silicon sensors. / Cette th`ese de doctorat s’inscrit dans le cadre de la mise `a niveau de l’exp ́erience CMSaupr`es du grand collisionneur de protons du CERN, le LHC. CMS, avec l’exp ́erienceATLAS, a permis la d ́ecouverte du boson de Brout-Englert-Higgs en 2012. Mais leprogramme de recherche du LHC n’est pas pour autant termin ́e. En effet, le LHC estdestin ́e `a fonctionner encore au moins 20 ans. Pendant cette p ́eriode, la luminosit ́e vacroˆıtre progressivement jusqu’`a atteindre environ cinq fois la valeur nominale de 10 34cm −2 s −1 initialement pr ́evue et ce d’ici 2025. Cette augmentation de luminosit ́e pousseles exp ́eriences du LHC, comme CMS, `a mettre `a jour les d ́etecteurs ainsi que leurssyst`emes d’acquisition de donn ́ees. Une des prochaines mises `a niveau majeures deCMS est l’addition d’une nouvelle couche de d ́etection dans le spectrom`etre `a muonvers l’avant. La technologie de d ́etection qui a ́et ́e choisie par la collaboration CMS estla technologie des Triple Gas Electron Multiplier (Triple-GEM). Cette mise `a niveaua pour but de maintenir les performances du syst`eme de d ́eclenchement et ce malgr ́el’augmentation de taux de particules (> 1 kHz/cm 2 ) et de permettre ́egalement, grˆacea la tr`es bonne r ́esolution spatiale des Triple-GEM (∼ 250 μm), l’am ́elioration de la re-construction des traces de muons. C’est l’ ́etude des caract ́eristiques de cette technologiequi est le sujet de cette th`ese.Cette caract ́erisation des d ́etecteurs Triple-GEM commence par une ́etude d ́etaill ́ee de lar ́esolution temporelle. Cette ́etude a ́et ́e r ́ealis ́ee `a l’aide de diff ́erentes simulations MonteCarlo telles que GARFIELD et a permis de montrer que les Triple-GEMs ́equip ́es de lanouvelle ́electronique VFAT3 (sp ́ecifiquement d ́evelop ́ee pour les Triple-GEMs) remplis-sent les conditions pour la mise `a niveau de CMS.Nous avons ensuite ́etudi ́e diff ́erents prototypes. Tout d’abord nous avons construit deuxpetits (10 × 10 cm 2 ) prototypes de Triple-GEM et d ́evelop ́e un banc de test au sein dulaboratoire de l’ULB. Ce banc de test nous a permis d’ ́etudier un autre param`etre impor-tant des d ́etecteurs Triple-GEM: le gain. Au cours de cette th`ese nous avons ́egalementparticip ́e `a la prise de donn ́ees et `a l’installation de diff ́erents tests en faisceau au CERN.L’analyse des donn ́ees du test en faisceaux d’octobre 2014 est aussi pr ́esent ́ee en d ́etail.La derni`ere partie de ce travail concerne l’ ́etude de la r ́esolution spatiale. Nous avonsestim ́e la r ́esolution spatiale par simulation de Monte Carlo ainsi que de mani`ere an-alytique pour des d ́etecteurs GEM munis d’une ́electronique binaire. Cette ́etude a ́egalement ́et ́e g ́en ́eralis ́ee `a d’autres d ́etecteurs tels que les Micromegas ou encore lescapteurs au silicium. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
39

Gestion du temps par le raffinement / Refinement Patterns for Real-Time Systems

Rehm, Joris 10 December 2009 (has links)
Dans les domaines critiques d'application de l'informatique, il peut être vital de disposer d'un génie logiciel qui soit capable de garantir le bon fonctionnement des systèmes produits. Dans ce contexte, la méthode B évènementielle promeut le développement de modèles abstraits du système à concevoir et l'utilisation de démonstrations formelles ainsi que de la relation de raffinement entre les modèles. Notre but est de pouvoir travailler sur des systèmes ayant des aspects temporels quantitatifs (propriétés et contraintes de temps) en restant au sein du cadre défini par la méthode B qui a déjà montré son efficacité par ailleurs, mais qui ne dispose pas de concepts spécifiques pour le temps. C'est ainsi que nous proposons l'introduction des contraintes de temps par le raffinement, ceci permet de respecter la philosophie de la méthode B et de systématiser cette approche par la formalisation de patrons de raffinement. Nos différentes modélisations du temps sont proposées sous la forme de patron à réappliquer sur le système à étudier. Nous pouvons donc étudier progressivement le système à partir d'une abstraction non-temporelle afin de le valider progressivement et de distribuer la difficulté de la preuve en plusieurs étapes. L'introduction des aspects temporels ne se fait que lorsque cela est nécessaire lors du processus de développement prouvé. Nous avons validé cette approche sur des études de cas réalistes en utilisant les outils logiciels de démonstration formelle de la méthode B. / Critical application domains of computer science require the use of software engineering methods that ensure that the resulting systems behave according to their intended functionality. In this context, the Event-B method uses an approach based on stepwise refinement, starting with abstract, high-level models of the system under development. The system models corresponding to different levels of abstraction are related by precise and formally proved refinement relations. Our goal is to extend this approach to systems whose requirements include quantitative real-time aspects (properties and temporal constraints). In this way, we benefit from the established qualities of the B method, while extending its scope to real-time aspects that it does not yet cover. More specifically, we propose to introduce time constraints by refinement, respecting the overall approach of the B method, and to systematize our approach by the use of refinement patterns. Different time models are represented by generic patterns that can be reused for the development of concrete systems. In this way we can gradually develop the system from a non-temporal abstraction and progressively validate its correctness, distributing the burden of proof is over several refinement steps. Temporal aspects are introduced step by step and only when necessary. We validated this approach using several real-world case studies, using the software tools for formal proof developed for the Event-B method.
40

Segmentation automatique d'images sur des critères géométriques, application à l'inspection visuelle de produits agroalimentaires / Automated segmentation of images using geometrical criteria, application on image processing for good inspection

Dubosclard, Pierre 25 January 2016 (has links)
À l’échelle mondiale, la récolte de céréales atteint plusieurs milliards de tonnes chaque année. Les producteurs céréaliers échangent leurs récoltes selon un prix déterminé par la qualité de leur production. Cette évaluation, appelée agréage, est réalisée pour chaque lot sur un échantillon jugé représentatif. La difficulté au cours de cette évaluation est de parvenir à parfaitement caractériser l'échantillon. Il faut pour cela qualifier chacun de ses éléments, en d'autres termes, il est nécessaire d'évaluer chaque grain de céréale de manière individuelle. Cette opération est historiquement réalisée par un opérateur qui isole chaque grain manuellement pour l’inspecter et l'évaluer. Ce procédé est exposé à différents problèmes : d'une part les résultats obtenus par un opérateur ne sont pas parfaitement répétables : son état de fatigue visuelle peut influencer son appréciation ; d'autre part l'évaluation dépend de l'opérateur : elle n'est pas reproductible, les résultats peuvent varier d'un opérateur à l'autre. Cette thèse a donc pour but de mettre au point un système capable de réaliser cette inspection visuelle.Le système d’acquisition est présenté dans un premier temps. Cette enceinte contient les dispositifs d’éclairage et d’acquisition d’images. Différents outils ont été mis en œuvre pour s’assurer de la justesse et de la stabilité des acquisitions. Une méthode d’apprentissage de modèles de forme est ensuite présentée : elle a pour but de définir et de modéliser le type de forme des grains de l’application considérée (blé, riz, orge). Cette étape est réalisée sur une image d’objets isolés. Deux méthodes de détection sont ensuite présentées : une approche déterministe et une approche probabiliste. Ces deux méthodes, mises au point pour segmenter les objets d’une image, utilisent des outils communs bien qu’elles soient conçues différemment. Les résultats obtenus et présentés dans cette thèse démontrent la capacité du système automatique à se positionner comme une solution fiable à la problématique d’inspection visuelle de grains de céréales. / In agriculture, the global grain harvest reached several billion tons each year. Cereal producers exchange their crops at a price determined by the quality of their production. This assessment, called grading, is performed for each set on a representative sample. The difficulty of this assessment is to fully characterize the sample. To do so, it is necessary to qualify each of its elements. In other words, it is necessary to evaluate each individual cereal grain. Historically, this has been performed manually by an operator who isolates each evaluated grain. This method is exposed to various problems: firstly, results obtained by an operator are not perfectly repeatable. For example, eyestrain can influence the assessment. On the other hand the evaluation depends on the operator: it is not reproducible. The results can vary from one operator to another. The aim of this thesis is to develop a system that can handle this visual inspection. In a first time, the acquisition system is introduced. Image acquisition and lighting parts are placed in a cabin. Several methods have been introduced to manage accuracy and stability of the acquisitions. Then, a shape model learning is detailed: this step, based on an image with manually separated objects, defines and modelizes shape of the considered cereal grains (wheat, rice, barley). Two detection approaches are then introduced: a deterministic method and a probabilistic one. Both are based on the same tools to process the objects segmentation of an image, but they deal with the question in a different way. The results provided by the system and presented in this thesis emphasize the ability of this automatic system to process the visual inspection of food products.

Page generated in 0.0668 seconds