• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 132
  • 65
  • 22
  • 1
  • Tagged with
  • 221
  • 100
  • 60
  • 57
  • 52
  • 41
  • 38
  • 33
  • 32
  • 28
  • 26
  • 23
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

La reconnaissance de plan des adversaires

Bisson, Francis January 2012 (has links)
Ce mémoire propose une approche pour la reconnaissance de plan qui a été conçue pour les environnements avec des adversaires, c'est-à-dire des agents qui veulent empêcher que leurs plans soient reconnus. Bien qu'il existe d'autres algorithmes de reconnaissance de plan dans la littérature, peu sont adaptés pour de tels environnements. L'algorithme que nous avons conçu et implémenté (PROBE, Provocation for the Recognition of Opponent BEhaviours ) est aussi capable de choisir comment provoquer l'adversaire, en espérant que la réaction de ce dernier à la provocation permette de donner des indices quant à sa véritable intention. De plus, PROBE utilise des machines à états finis comme représentation des plans, un formalisme différent de celui utilisé par les autres approches et qui est selon nous mieux adapté pour nos domaines d'intérêt. Les résultats obtenus suite à différentes expérimentations indiquent que notre algorithme réussit généralement à obtenir une bonne estimation des intentions de l'adversaire dès le départ et que cette estimation s'améliore lorsque de nouvelles actions sont observées. Une comparaison avec un autre algorithme de reconnaissance de plan démontre aussi que PROBE est plus efficace en temps de calcul et en utilisation de la mémoire, sans pourtant sacrifier la qualité de la reconnaissance. Enfin, les résultats montrent que notre algorithme de provocation permet de réduire l'ambiguïté sur les intentions de l'adversaire et ainsi améliorer la justesse du processus de reconnaissance de plan en sélectionnant une provocation qui force l'adversaire, d'une certaine façon, à révéler son intention.
12

Incomplete and Uncertain Information in Relational Databases

Zimanyi, Esteban 01 January 1992 (has links)
<p align="justify">In real life it is very often the case that the available knowledge is imperfect in the sense that it represents multiple possible states of the external world, yet it is unknown which state corresponds to the actual situation of the world. Imperfect knowledge can be of two different categories. Knowledge is incomplete if it represents different states, one of which is true in the external world. On the contrary, knowledge is uncertain if it represents different states which may be satisfied or are likely to be true in the external world.</p> <p align="justify">Imperfect knowledge can be considered under two different perspectives: using either an algebraic or a logical approach. We present both approaches in relation with the standard relational model, providing the necessary background for the subsequent development.</p> <p align="justify">The study of imperfect knowledge has been an active area of research, in particular in the context of relational databases. However, due to the complexity of manipulating imperfect knowledge, little practical results have been obtained so far. In this thesis we provide a survey of the field of incompleteness and uncertainty in relational databases;it can be used also as an introductory tutorial for understanding the intuitive semantics and the problems encountered when representing and manipulating such imperfect knowledge. The survey concentrates in giving an unifying presentation of the different approaches and results found in the literature, thus providing a state of the art in the field.</p> <p align="justify">The rest of the thesis studies in detail the manipulation of one type of incomplete knowledge, namely disjunctive information, and one type of uncertain knowledge, namely probabilistic information. We study both types of imperfect knowledge using similar approaches, that is through an algebraic and a logical framework. The relational algebra operators are generalized for disjunctive and probabilistic relations, and we prove the correctness of these generalizations. In addition, disjunctive and probabilistic databases are formalized using appropriate logical theories and we give sound and complete query evaluation algorithms.</p> <p align="justify">A major implication of these studies is the conviction that viewing incompleteness and uncertainty as different facets of the same problem would allow to achieve a deeper understanding of imperfect knowledge, which is absolutely necessary for building information systems capable of modeling complex real-life situations. </p>
13

Modélisation et validation expérimentale des complexes insonorisants pour la prévision vibroacoustique numérique basse et moyenne fréquences des automobiles

Fernandez, Charles 11 December 2008 (has links) (PDF)
Dans cette recherche, on construit un modèle simplifié en basses et moyennes fréquences de complexes insonorisants (habillages) de l'industrie automobile à partir d'un élément élastoacoustique stochastique. Le modèle simplifié moyen est issu d'une extension de la théorie des structures floues et dépend de trois paramètres physiques : densité modale, amortissement et masse participante. Le modèle simplifié stochastique qui prend en compte les incertitudes de modèle et de données est construit en utilisant une approche probabiliste non paramétrique et dépend de trois paramètres de dispersion. Le modèle simplifié de l'habillage est implémenté dans un modèle vibroacoustique stochastique industriel d'automobile. Deux problèmes inverses sont résolus à l'aide d'une base de données expérimentales sur véhicules construite en parallèle et permettent d'identifier les paramètres du modèle complet. L'analyse des résultats permet de valider les développements théoriques et la méthodologie proposée
14

Étude de transformations grammaticales pour l'entraînement de grammaires probabilistes hors-contexte

Nguyen, Ngoc Tran January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
15

Multifissuration en fatigue uniaxiale et biaxiale de l’acier inoxydable 304L / Multiple cracking in uniaxial and biaxial fatigue of 304L stainless steel

Rupil, Jérémie 24 September 2012 (has links)
Lorsqu’une pièce mécanique est soumise à une sollicitation mécanique répétée dans le temps, elle risque de s’endommager après un certain nombre de cycles d’utilisation par amorçage de plusieurs fissures et propagation d’une fissure principale. C’est le phénomène d’endommagement par fatigue. La thèse traite plus particulièrement du possible endommagement de certains composants de centrales nucléaires par fatigue thermique. Contrairement à l’endommagement classique en fatigue mécanique où une fissure principale vient rompre la pièce, l’endommagement par fatigue thermique se traduit généralement par l’apparition d’un réseau de fissures surfaciques. Deux aspects sont traités dans la thèse. Le premier est l’étude expérimentale de la phase de fissuration multiple ou multifissuration en fatigue. Pour cela deux campagnes d’essais avec détection de la multifissuration par corrélation d’images numériques ont été menées. Ces campagnes concernent des chargements mécaniques uniaxiaux et équibiaxiaux de traction/compression sans contrainte moyenne. Ce travail a permis de suivre et d’observer l’évolution de différents réseaux de fissures à travers des sollicitations de type mécanique. Le second est la simulation numérique du phénomène d’endommagement en fatigue mécanique et thermique. Plusieurs types de modélisation sont utilisés (stochastique, probabiliste, éléments finis cohésifs). Les résultats expérimentaux ont permis d’identifier une loi d’amorçage multiple en fatigue et sont également confrontés aux résultats numériques. Cette confrontation permet notamment de montrer la pertinence de l’utilisation d’un modèle probabiliste analytique afin de retrouver des résultats statistiques sur la densité de fissures qui peuvent être amorcées en fatigue thermique et mécanique. / When a mechanical part is subjected to a repeated mechanical stress, it may be damaged after a number of cycles by several crack initiations and the propagation of a main crack. This is the phenomenon of fatigue damage. The thesis specifically deals with possible damage in some components of nuclear plants due to thermal fatigue. Unlike conventional mechanical fatigue damage where a main crack develops in the part, thermal fatigue damage usually results in the appearance of a network of cracks on its surface. Two aspects are discussed in the thesis. The first is the experimental study of fatigue multiple cracking stage. Two mechanical test campaigns with multicracking detection by digital image correlation were conducted. They involve uniaxial and equibiaxial mechanical loads in tension/compression with no mean stress. This work allows the evolution of different networks of cracks to be monitored and quantified through mechanical loadings. The second is the numerical simulation of the phenomenon of fatigue damage. Three types of models are used (i.e., stochastic, probabilistic, and cohesive elements). The experimental results have led to the identification of a multiple crack initiation law in fatigue, which is compared with the numerical results. This comparison shows the relevance of the use of an analytical probabilistic model to obtain statistical results on the density of cracks that can be initiated with thermal and mechanical fatigue loadings.
16

Réduction de modèles, techniques d'homogénéisation et méthodes probabilistes : application à l'effet de l'interaction sol-structure sur la réponse dynamique des bâtiments / Models reduction, homogenization techniques and probabilistic methods : application to the effect of soil-structure interaction on the dynamic response of buildings

Laudarin, Frédéric 26 September 2008 (has links)
Le présent mémoire de thèse propose de nouvelles méthodes de simulation pour la prédiction du comportement dynamique des bâtiments sous séisme. En s'appuyant sur la similitude architecturale des étages d'un immeuble, une méthode d'homogénéisation des milieux à périodicité unidirectionnelle est élaborée afin de réduire son modèle structural tridimensionnel à un modèle simplifié (poutre équivalente). La structure simplifiée est ensuite étudiée en interaction avec le sol. La dispersion significative observée sur les propriétés du sol est introduite sous la forme d'une matrice d'impédance aléatoire construite à l'aide du maximum d'entropie. L'ensemble est soumis à un signal sismique naturel et la réponse dynamique est calculée dans le domaine linéaire (cas déterministe et stochastique) et dans le domaine non-linéaire (décollement de fondation). Dans le cas non-linéaire, une sous structuration de type Craig-Bampton permet de déterminer la réponse de la structure par analyse modale / This PhD thesis presents new numerical methods of simulation dedicated to the prediction of the dynamic response of buildings under seismic loads. Assuming the architectural similarity of stories of a building, a homogenization method for media with one-dimensional periodicity is created in order to reduce its three-dimensional structural modeling to a homogeneous beam model. The simplified structure is then studied by taking into account soil-structure interaction represented by an impedance matrix. The usually significant uncertainties of soil properties are taken into account by using random matrices whose probability density function is built by using the maximal entropy principle. The dynamic response of the structure is then obtained under seismic loading in linear case and in nonlinear case when the uplifting of the foundation is taken into account. A modal analysis of the structure is possible even in the non-linear case by using a Craig-Bampton sub-structuration
17

Conception sûre des systèmes mécatroniques intelligents pour des applications critiques / Dependability design of smart mechatronical systems for critical applications

Belhadaoui, Hicham 13 January 2011 (has links)
La criticité des systèmes complexes programmables nécessite de garantir un niveau de fiabilité et de sécurité convenable. Des études de sûreté de fonctionnement doivent être menées tout au long du cycle de développement du système. Ces études permettent une meilleure maîtrise des risques et de la fiabilité. Les points faibles sont mis en évidence et permettent aux concepteurs de spécifier des stratégies de reconfiguration avant la phase de prototype réel et les tests réels. Les études de sûreté de fonctionnement doivent être menées au plus tôt dans la phase de conception, afin de réduire les coûts et le nombre de prototypes nécessaires à la validation du système.Le travail présenté dans ce mémoire de thèse a pour objectif de définir une méthodologie de conception des systèmes complexes programmables dédiés à une application mécatronique [Belhadaoui et al., 2008-a], intégrant dès les premières phases du cycle de développement [Aït-Kadi et al., 2000], les aspects sûreté de fonctionnement. L’apport d’une telle méthodologie doit permettre de faire face à un certain nombre de contraintes propres au domaine des capteurs intelligents (les exigences de cahier des charges, le respect des normes législatives en vigueur). La méthodologie développée doit permettre de : Modéliser et simuler les comportements fonctionnels et dysfonctionnels des systèmes Estimer la fiabilité par modélisation Réaliser des mesures de sensibilité afin de connaître la contribution de chaque composant à la fiabilité du système Capitaliser la connaissance sur le système au cours des différentes phases d’évaluation (prévisionnelle, expérimentale et opérationnelle) pour affiner les estimations de fiabilité. Ce Travail introduit le concept d’information en sûreté de fonctionnement. Nous interprétons la défaillance de celle-ci comme étant le résultat de l’initiation et de la propagation d’informations erronées à travers l’architecture d’un capteur intelligent dédié à une application mécatronique. Cette propagation s’est accompagnée de contraintes (partage de ressources matérielles et informationnelles, modes dégradés d’information…) qui tendent à influencer fortement la crédibilité de cette information. Nous débutons sur un état de l’art pour montrer l’intérêt de l’approche flux informationnel sur un cas d’étude complexe. Ceci est lié à la présence d’une partie programmable (interaction matériel-logiciel) et évidement du système hybride (signaux mixtes analogique-numérique). Cette nouvelle approche distingue, les phénomènes d’apparition et de disparition d’erreurs (matérielles, logicielles et environnementales), ainsi que les séquences de propagation aboutissant à un mode de dysfonctionnement du système. Grâce à cette distinction nous expliquons les concepts mal traités par les méthodes conventionnelles, tels que la défaillance simultanée, la défaillance de cause commune et abordons d’une manière réaliste les problématiques des interactions matériel-logiciel et celle des signaux mixtes.Les séquences de propagation d’erreurs générées permettent à l’aide d’un modèle markovien non homogène, de quantifier d’une manière analytique les paramètres de la sûreté de fonctionnement du système (fiabilité, disponibilité, sécurité) et de positionner le capteur dans un mode de fonctionnement parmi les six que nous avons définis suivant les spécifications du cahier des charges / The complexity of critical programmable systems requests the guarantee of high level of reliability and safety. The dependability studies should be conducted throughout the development cycle of the system. These studies provide better risk management and reliability. The weak points are highlighted, and enable designers to specify reconfiguration strategies before the prototype stage and real testing. The dependability studies must be conducted as soon as possible in the design phase, in order to reduce costs and the number of prototypes necessary to validate the system.The work presented in this thesis aims to define a design methodology of complex systems dedicated to a mechatronic programmable application [Belhadaoui et al., 2008-a], integrating as soon as possible dependability aspects in the development cycle [Aït-Kadi et al., 2000]. The provision of such a methodology must resist face a number of constraints specific to the intelligent sensors field (requirements specifications, compliance with standards legislation).The methodology developed enable to:  Modeling and simulate the functional and dysfunctional behavior of systems.  Estimate the reliability by modelling.  Achieve measures sensitivity to deduce the contribution of each component in the reliability of the system.  Capitalize the system knowledge during different phases of evaluation (planning, experimental and operational) to refine estimations of reliability.This work introduces the concept of information dependability. It interprets the information failure, as a result of the initiation and propagation of failure information through the architecture. This spread has been accompanied by constraints (sharing hardware resource and information, degraded modes of information…), which tend to influence the credibility of this information. We begin on a state of the art to show the interest of the information flow approach in a complex case study. This interest is linked to the presence of programmable part (hardware-software interaction), and obviously to the hybrid character of the system (mixed-signal analog and digital). This new approach distinguishes, the phenomena of appearance and disappearance of errors (hardware, software and environmental), as well as the sequences of propagation resulting to the system failures. With this distinction we explain the concepts badly treated by conventional methods, such as the simultaneous failure, the common cause failure and in a realistic manner convincing the issues of hardware-software interactions, and the mixed signals.The generated errors propagation sequences allows, with using a non-homogeneous Markov model, to quantify an analytical dependability parameters of the system (reliability, availability, security) and to position the sensor in an operating mode among six that have been defined according to the standards specifications
18

Sur le rôle de la déduction dans le raisonnement à partir de prémisses incertaines / On the role of deduction in reasoning from uncertain premises

Cruz de Echeverria Loebell, Nicole 14 June 2018 (has links)
L’approche probabiliste du raisonnement émet l’hypothèse que la plupart des raisonnements, aussi bien dans la vie quotidienne qu’en science, se réalisent dans des contextes d’incertitude. Les concepts déductifs centraux de la logique classique, consistance et validité, peuvent être généralisés afin d’englober des degrés de croyance incertains. La consistance binaire peut être généralisée à travers la dénomination de cohérence, lorsque les jugements de probabilité à deux affirmations sont cohérents seulement s’ils respectent les axiomes de la théorie de la probabilité. La validité binaire peut se généraliser comme validité probabiliste (validité-p), lorsqu’une interférence est valide-p seulement si l’incertitude de sa conclusion ne peut être de façon cohérente plus grande que la somme des incertitudes de ses prémisses. Cependant le fait que cette généralisation soit possible dans une logique formelle n’implique pas le fait que les gens utilisent la déduction de manière probabiliste. Le rôle de la déduction dans le raisonnement à partir de prémisses incertaines a été étudié à travers dix expériences et 23 inférences de complexités différentes. Les résultats mettent en évidence le fait que la cohérence et la validité-p ne sont pas juste des formalismes abstraits, mais que les gens vont suivre les contraintes normatives établies par eux dans leur raisonnement. Que les prémisses soient certaines ou incertaines n’a pas créé de différence qualitative, mais la certitude pourrait être interprétée comme l’aboutissement d’une échelle commune de degrés de croyance. Les observations sont la preuve de la pertinence descriptive de la cohérence et de la validité-p comme principes de niveau de calcul pour le raisonnement. Ils ont des implications pour l’interprétation d’observations antérieures sur les rôles de la déduction et des degrés de croyance. Enfin, ils offrent une perspective pour générer de nouvelles hypothèses de recherche quant à l’interface entre raisonnement déductif et inductif. / The probabilistic approach to reasoning hypothesizes that most reasoning, both in everyday life and in science, takes place in contexts of uncertainty. The central deductive concepts of classical logic, consistency and validity, can be generalised to cover uncertain degrees of belief. Binary consistency can be generalised to coherence, where the probability judgments for two statements are coherent if and only if they respect the axioms of probability theory. Binary validity can be generalised to probabilistic validity (p-validity), where an inference is p-valid if and only if the uncertainty of its conclusion cannot be coherently greater than the sum of the uncertainties of its premises. But the fact that this generalisation is possible in formal logic does not imply that people will use deduction in a probabilistic way. The role of deduction in reasoning from uncertain premises was investigated across ten experiments and 23 inferences of differing complexity. The results provide evidence that coherence and p-validity are not just abstract formalisms, but that people follow the normative constraints set by them in their reasoning. It made no qualitative difference whether the premises were certain or uncertain, but certainty could be interpreted as the endpoint of a common scale for degrees of belief. The findings are evidence for the descriptive adequacy of coherence and p-validity as computational level principles for reasoning. They have implications for the interpretation of past findings on the roles of deduction and degrees of belief. And they offer a perspective for generating new research hypotheses in the interface between deductive and inductive reasoning.
19

Estimation du contexte par vision embarquée et schémas de commande pour l’automobile / Context estimation using embedded vision and schemes control for automobile

Ammar, Moez 21 December 2012 (has links)
Les systèmes dotés d’autonomie doivent continument évaluer leur environnement, via des capteurs embarqués, afin de prendre des décisions pertinentes au regard de leur mission, mais aussi de l’endosystème et de l’exosystème. Dans le cas de véhicules dits ‘intelligents’, l’attention quant au contexte environnant se porte principalement d’une part sur des objets parfaitement normalisés, comme la signalisation routière verticale ou horizontale, et d’autre part sur des objets difficilement modélisables de par leur nombre et leur variété (piétons, cyclistes, autres véhicules, animaux, ballons, obstacles quelconques sur la chaussée, etc…). La décision a contrario offre un cadre formel, adapté à ce problème de détection d’objets variables, car modélisant le bruit plutôt qu’énumérant les objets à détecter. La contribution principale de cette thèse est d’adapter des mesures probabilistes de type NFA (Nombre de Fausses Alarmes) au problème de la détection d’objets soit ayant un mouvement propre, soit saillants par rapport au plan de la route. Un point fort des algorithmes développés est qu’ils s’affranchissent de tout seuil de détection. Une première mesure NFA permet d’identifier le sous-domaine de l'image (pixels non nécessairement connexes) dont les valeurs de niveau de gris sont les plus étonnantes, sous hypothèse de bruit gaussien (modèle naïf). Une seconde mesure NFA permet ensuite d’identifier le sous-ensemble des fenêtres de significativité maximale, sous hypothèse de loi binômiale (modèle naïf). Nous montrons que ces mesures NFA peuvent également servir de critères d’optimisation de paramètres, qu’il s’agisse du mouvement 6D de la caméra embarquée, ou d’un seuil de binarisation sur les niveaux de gris. Enfin, nous montrons que les algorithmes proposés sont génériques au sens où ils s’appliquent à différents types d’images en entrée, radiométriques ou de disparité.A l’opposé de l’approche a contrario, les modèles markoviens permettent d’injecter des connaissances a priori sur les objets recherchés. Nous les exploitons dans le cas de la classification de marquages routiers.A partir de l’estimation du contexte (signalisation, détection d’objets ‘inconnus’), la partie commande comporte premièrement une spécification des trajectoires possibles et deuxièmement des lois en boucle fermée assurant le suivi de la trajectoire sélectionnée. Les diverses trajectoires possibles sont regroupées en un faisceau, soit un ensemble de fonctions du temps où divers paramètres permettent de régler les invariants géométriques locaux (pente, courbure). Ces paramètres seront globalement fonction du contexte extérieur au véhicule (présence de vulnérables, d'obstacles fixes, de limitations de vitesse, etc.) et permettent de déterminer l'élément du faisceau choisi. Le suivi de la trajectoire choisie s'effectue alors en utilisant des techniques de type platitude différentielle, qui s'avèrent particulièrement bien adaptées aux problèmes de suivi de trajectoire. Un système différentiellement plat est en effet entièrement paramétré par ses sorties plates et leurs dérivées. Une autre propriété caractéristique de ce type de systèmes est d'être linéarisable de manière exacte (et donc globale) par bouclage dynamique endogène et transformation de coordonnées. Le suivi stabilisant est alors trivialement obtenu sur le système linéarisé. / To take relevant decisions, autonomous systems have to continuously estimate their environment via embedded sensors. In the case of 'intelligent' vehicles, the estimation of the context focuses both on objects perfectly known such as road signs (vertical or horizontal), and on objects unknown or difficult to describe due to their number and variety (pedestrians, cyclists, other vehicles, animals, any obstacles on the road, etc.). Now, the a contrario modelling provides a formal framework adapted to the problem of detection of variable objects, by modeling the noise rather than the objects to detect. Our main contribution in this PhD work was to adapt the probabilistic NFA (Number of False Alarms) measurements to the problem of detection of objects simply defined either as having an own motion, or salient to the road plane. A highlight of the proposed algorithms is that they are free from any detection parameter, in particular threshold. A first NFA criterion allows the identification of the sub-domain of the image (not necessarily connected pixels) whose gray level values are the most amazing under Gaussian noise assumption (naive model). A second NFA criterion allows then identifying the subset of maximum significant windows under binomial hypothesis (naive model). We prove that these measurements (NFA) can also be used for the estimation of intrinsec parameters, for instance either the 6D movement of the onboard camera, or a binarisation threshold. Finally, we prove that the proposed algorithms are generic and can be applied to different kinds of input images, for instance either radiometric images or disparity maps. Conversely to the a contrario approach, the Markov models allow to inject a priori knowledge about the objects sought. We use it in the case of the road marking classification. From the context estimation (road signs, detected objects), the control part includes firstly a specification of the possible trajectories and secondly the laws to achieve the selected path. The possible trajectories are grouped into a bundle, and various parameters are used to set the local geometric invariants (slope, curvature). These parameters depend on the vehicle context (presence of vulnerables, fixed obstacles, speed limits, etc ... ), and allows determining the selected the trajectory from the bundle. Differentially flat system is indeed fully parameterized by its flat outputs and their derivatives. Another feature of this kind of systems is to be accurately linearized by endogenous dynamics feed-back and coordinate transformation. Tracking stabilizer is then trivially obtained from the linearized system.
20

Modélisation probabiliste d’impression à l’échelle micrométrique / Probabilistic modeling of prints at the microscopic scale

Nguyen, Quoc Thong 18 May 2015 (has links)
Nous développons des modèles probabilistes pour l’impression à l’échelle micrométrique. Tenant compte de l’aléa de la forme des points qui composent les impressions, les modèles proposés pourront être ultérieurement exploités dans différentes applications dont l’authentification de documents imprimés. Une analyse de l’impression sur différents supports papier et par différentes imprimantes a été effectuée. Cette étude montre que la grande variété de forme dépend de la technologie et du papier. Le modèle proposé tient compte à la fois de la distribution du niveau de gris et de la répartition spatiale de l’encre sur le papier. Concernant le niveau de gris, les modèles des surfaces encrées/vierges sont obtenues en sélectionnant les distributions dans un ensemble de lois de forme similaire aux histogrammes et à l’aide de K-S critère. Le modèle de répartition spatiale de l’encre est binaire. Le premier modèle consiste en un champ de variables indépendantes de Bernoulli non-stationnaire dont les paramètres forment un noyau gaussien généralisé. Un second modèle de répartition spatiale des particules d’encre est proposé, il tient compte de la dépendance des pixels à l’aide d’un modèle de Markov non stationnaire. Deux méthodes d’estimation ont été développées, l’une approchant le maximum de vraisemblance par un algorithme de Quasi Newton, la seconde approchant le critère de l’erreur quadratique moyenne minimale par l’algorithme de Metropolis within Gibbs. Les performances des estimateurs sont évaluées et comparées sur des images simulées. La précision des modélisations est analysée sur des jeux d’images d’impression à l’échelle micrométrique obtenues par différentes imprimantes. / We develop the probabilistic models of the print at the microscopic scale. We study the shape randomness of the dots that originates the prints, and the new models could improve many applications such as the authentication. An analysis was conducted on various papers, printers. The study shows a large variety of shape that depends on the printing technology and paper. The digital scan of the microscopic print is modeled in: the gray scale distribution, and the spatial binary process modeling the printed/blank spatial distribution. We seek the best parametric distribution that takes account of the distributions of the blank and printed areas. Parametric distributions are selected from a set of distributions with shapes close to the histograms and with the Kolmogorov-Smirnov divergence. The spatial binary model handles the wide diversity of dot shape and the range of variation of spatial density of inked particles. At first, we propose a field of independent and non-stationary Bernoulli variables whose parameters form a Gaussian power. The second spatial binary model encompasses, in addition to the first model, the spatial dependence of the inked area through an inhomogeneous Markov model. Two iterative estimation methods are developed; a quasi-Newton algorithm which approaches the maximum likelihood and the Metropolis-Hasting within Gibbs algorithm that approximates the minimum mean square error estimator. The performances of the algorithms are evaluated and compared on simulated images. The accuracy of the models is analyzed on the microscopic scale printings coming from various printers. Results show the good behavior of the estimators and the consistency of the models.

Page generated in 0.059 seconds