• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 75
  • 38
  • 19
  • Tagged with
  • 138
  • 65
  • 47
  • 37
  • 33
  • 32
  • 27
  • 24
  • 24
  • 22
  • 21
  • 18
  • 18
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Segmentation d'images ultrasonores basée sur des statistiques locales avec une sélection adaptative d'échelles / Ultrasound image segmentation using local statistics with an adaptative scale selection

Yang, Qing 15 March 2013 (has links)
La segmentation d'images est un domaine important dans le traitement d'images et un grand nombre d'approches différentes ent été développées pendant ces dernières décennies. L'approche des contours actifs est un des plus populaires. Dans ce cadre, cette thèse vise à développer des algorithmes robustes, qui peuvent segmenter des images avec des inhomogénéités d'intensité. Nous nous concentrons sur l'étude des énergies externes basées région dans le cadre des ensembles de niveaux. Précisément, nous abordons la difficulté de choisir l'échelle de la fenêtre spatiale qui définit la localité. Notre contribution principale est d'avoir proposé une échelle adaptative pour les méthodes de segmentation basées sur les statistiques locales. Nous utilisons l'approche d'Intersection des Intervalles de Confiance pour définir une échelle position-dépendante pour l'estimation des statistiques image. L'échelle est optimale dans le sens où elle donne le meilleur compromis entre le biais et la variance de l'approximation polynomiale locale de l'image observée conditionnellement à la segmentation actuelle. De plus, pour le model de segmentation basé sur une interprétation Bahésienne avec deux noyaux locaux, nous suggérons de considérer leurs valeurs séparément. Notre proposition donne une segmentation plus lisse avec moins de délocalisations que la méthode originale. Des expériences comparatives de notre proposition à d'autres méthodes de segmentation basées sur des statistiques locales sont effectuées. Les résultats quantitatifs réalisés sur des images ultrasonores de simulation, montrent que la méthode proposée est plus robuste au phénomène d'atténuation. Des expériences sur des images réelles montrent également l'utilité de notre approche. / Image segmentation is an important research area in image processing and a large number of different approaches have been developed over the last few decades. The active contour approach is one of the most popular among them. Within this framework, this thesis aims at developing robust algorithms, which can segment images with intensity inhomogeneities. We focus on the study of region-based external energies within the level set framework. We study the use of local image statistics for the design of external energies. Precisely, we address the difficulty of choosing the scale of the spatial window that defines locality. Our main contribution is to propose an adaptive scale for local region-based segmen¬tation methods. We use the Intersection of Confidence Intervals approach to define this pixel-dependent scale for the estimation of local image statistics. The scale is optimal in the sense that it gives the best trade-off between the bias and the variance of a Local Polynomial Approximation of the observed image conditional on the current segmenta¬tion. Additionally, for the segmentation model based on a Bayesian interpretation with two local kernels, we suggest to consider their values separately. Our proposition gives a smoother segmentation with less mis-localisations Chan the original method.Comparative experiments of our method to other local region-based segmentation me¬thods are carried out. The quantitative results, on simulated ultrasound B-mode images, show that the proposed scale selection strategy gives a robust solution to the intensity inhomogeneity artifact of this imaging modality. More general experiments on real images also demonstrate the usefulness of our approach.
72

Commande de systèmes linéaires sous contraintes fréquentielles et temporelles : Application au lanceur flexible / Frequency- and time-domain constrained control of linear systems : Application to a flexible launch vehicle

Chambon, Emmanuel 29 November 2016 (has links)
Dans la plupart des problèmes de synthèse, la loi de commande obtenue doit répondre simultanément à des critères réquentiels et temporels en vue de satisfaire un cahier des charges précis. Les derniers développements des techniques de synthèse Hinf de contrôleurs structurés permettent d'obtenir des lois de commande satisfaisant des critères fréquentiels multiples. En revanche, la synthèse de loi de commande satisfaisant une contrainte temporelle sur une sortie ou un état du système est plus complexe. Dans ce travail de thèse, la technique OIST est considérée pour ce type de contraintes. Elle consiste à saturer la sortie du contrôleur dès que la contrainte n'est plus vérifiée afin de restreindre l'ensemble des sorties admissibles. Initialement formulée pour les systèmes linéaires connus dont l'état est mesuré, la technique OIST peut être généralisée pour permettre de considérer des systèmes incertains. C'est l'extension OISTeR qui est proposée dans ce travail. Elle utilise les données d'un observateur par intervalles pour borner de manière garantie le vecteur d'état. La théorie des observateurs par intervalles a récemment fait l'objet de nombreux travaux. La méthode la plus rapide pour obtenir un observateur par intervalles d'un système donné est de considérer un système intermédiaire coopératif dans de nouvelles coordonnées. Une nouvelle technique de détermination de ces nouvelles coordonnées, intitulée SCorplO, est proposée dans ce mémoire. L'ensemble des techniques présentées est appliqué au contrôle d'un lanceur flexible durant son vol atmosphérique, en présence de rafales de vent et sous contrainte temporelle sur l'angle d'incidence. / Ln control design problems, both frequency- and time-domain requirements are usually considered such that the resulting control law satisfies the specifications. Novel non-smooth optimization techniques can be used to achieve multiple frequency-domain specifications over a family of linear models. However, enforcing time-domain constraints on a given output or state is more challenging Since translating them into frequency-domain requirements may be inaccurate. This motivates the study of an additional approach to the Hinf control design techniques. When time-domain constraints are satisfied, the nominal control law reduces to a controller satisfying the frequency-domain constraints. Upon violation of the ime-domain constraint, an additional tool named OIST is used to saturate the controller output so as to restrict the reachable set of the constrained system output. Stability guarantees are obtained for minimum phase systems. Further developments proposed therein allow the consideration of uncertain systems With incomplete state measurements. This is he OISTeR approach. The method uses certified bounds on the considered system state as provided by an interval observer. he theory of interval observers is well-established. ln the case of linear systems, the most common approach is to consider an intermediate cooperative system on which the interval observer can be built. The novel SCorplO design method proposed in this work is used to compute such cooperative representation. ln this thesis, the considered application is the atmospheric control of a flexible launch vehicle under a time-domain constraint on the angle of attack and in the presence of wind gusts.
73

Sur les modèles non-linéaires autorégressifs à transition lisse et le calcul de leurs prévisions

Grégoire, Gabrielle 08 1900 (has links)
No description available.
74

N-ary algebras. Arithmetic of intervals / Algèbres n-aires. Arithémtiques des intervalles

Goze, Nicolas 26 March 2011 (has links)
Ce mémoire comporte deux parties distinctes. La première partie concerne une étude d'algèbres n-aires. Une algèbre n-aire est un espace vectoriel sur lequel est définie une multiplication sur n arguments. Classiquement les multiplications sont binaires, mais depuis l'utilisation en physique théorique de multiplications ternaires, comme les produits de Nambu, de nombreux travaux mathématiques se sont focalisés sur ce type d'algèbres. Deux classes d'algèbres n-aires sont essentielles: les algèbres n-aires associatives et les algèbres n-aires de Lie. Nous nous intéressons aux deux classes. Concernant les algèbres n-aires associatives, on s'intéresse surtout aux algèbres 3-aires partiellement associatives, c'est-à-dire dont la multiplication vérifie l'identité ((xyz)tu)+(x(yzt)u)+(xy(ztu))=0 Ce cas est intéressant car les travaux connus concernant ce type d'algèbres ne distinguent pas les cas n pair et n-impair. On montre dans cette thèse que le cas n=3 ne peut pas être traité comme si n était pair. On étudie en détail l'algèbre libre 3-aire partiellement associative sur un espace vectoriel de dimension finie. Cette algèbre est graduée et on calcule précisément les dimensions des 7 premières composantes. On donne dans le cas général un système de générateurs ayant la propriété qu'une base est donnée par la sous famille des éléments non nuls. Les principales conséquences sont L'algèbre libre 3-aire partiellement associative est résoluble. L'algèbre libre commutative 3-aire partiellement associative est telle que tout produit concernant 9 éléments est nul. L'opérade quadratique correspondant aux algèbres 3-aires partiellement associatives ne vérifient pas la propriété de Koszul. On s'intéresse ensuite à l'étude des produits n-aires sur les tenseurs. L'exemple le plus simple est celui d'un produit interne sur des matrices non carrées. Nous pouvons définir le produit 3aire donné par A . ^tB . C. On montre qu'il est nécessaire de généraliser un peu la définition de partielle associativité. Nous introduisons donc les produits -partiellement associatifs où  est une permutation de degré p. Concernant les algèbres de Lie n-aires, deux classes d'algèbres ont été définies: les algèbres de Fillipov (aussi appelées depuis peu les algèbres de Lie-Nambu) et les algèbres n-Lie. Cette dernière notion est très générale. Cette dernière notion, très important dans l'étude de la mécanique de Nambu-Poisson, est un cas particulier de la première. Mais pour définir une approche du type Maurer-Cartan, c'est-à-dire définir une cohomologie scalaire, nous considérons dans ce travail les algèbres de Fillipov comme des algèbres n-Lie et développons un tel calcul dans le cadre des algèbres n-Lie. On s'intéresse également à la classification des algèbres n-aires nilpotentes. Le dernier chapitre de cette partie est un peu à part et reflète un travail poursuivant mon mémoire de Master. Il concerne les algèbres de Poisson sur l'algèbre des polynômes. On commence à présenter le crochet de Poisson sous forme duale en utilisant des équations de Pfaff. On utilise cette approche pour classer les structures de Poisson non homogènes sur l’algèbre des polynômes à trois variables . Le lien avec les algèbres de Lie est clair. Du coup on étend notre étude aux algèbres de Poisson dont l'algèbre de Lie sous jacent est rigide et on applique les résultats aux algèbres enveloppantes des algèbres de Lie rigides. La partie 2 concerne l'arithmétique des intervalles. Cette étude a été faite suite à une rencontre avec une société d'ingénierie travaillant sur des problèmes de contrôle de paramètres, de problème inverse (dans quels domaines doivent évoluer les paramètres d'un robot pour que le robot ait un comportement défini). [...] / This thesis has two distinguish parts. The first part concerns the study of n-ary algebras. A n-ary algebra is a vector space with a multiplication on n arguments. Classically the multiplications are binary, but the use of ternary multiplication in theoretical physic like for Nambu brackets led mathematicians to investigate these type of algebras. Two classes of n-ary algebras are fundamental: the associative n-ary algebras and the Lie n-ary algebras. We are interested by both classes. Concerning the associative n-ary algebras we are mostly interested in 3-ary partially associative 3-ary algebras, that is, algebras whose multiplication satisfies ((xyz)tu)+(x(yzt)u)+(xy(ztu))=0. This type is interesting because the previous woks on this subject was not distinguish the even and odd cases. We show in this thesis that the case n=3 can not be treated as the even cases. We investigate in detail the free partially associative 3-ary algebra on k generators. This algebra is graded and we compute the dimensions of the 7 first components. In the general case, we give a spanning set such as the sub family of non zero vector is a basis. The main consequences are the free partially associative 3-ary algebra is solvable. In the free commutative partially associative 3-ary algebra any product on 9 elements is trivial. The operad for partially associative 3-ary algebra do not satisfy the Koszul property. Then we study n-ary products on the tensors. The simplest example is given by a internal product of non square matrices. We can define a 3-ary product by taking A . ^tB . C. We show that we have to generalize a bit the definition of partial associativity for n-ary algebras. We then introduce the products -partially associative where  is a permutation of the symmetric group of degree n. Concerning the n-ary algebras, two classes have been defined: Filipov algebras (also called recently Lie-Nambu algebras) and some more general class, the n-Lie algebras. Filipov algebras are very important in the study of the mechanic of Nambu-Poisson, and is a particular case of the other. So to define an approach of Maurer-Cartan type, that is, define a scalar cohomology, we consider in this work Fillipov as n-Lie algebras and develop such a calculus in the n-Lie algebras frame work. We also give some classifications of n-ary nilpotent algebras. The last chapter of this part concerns my work in Master on the Poisson algebras on polynomials. We present link with the Lie algebras is clear. Thus we extend our study to Poisson algebras which associated Lie algebra is rigid and we apply these results to the enveloping algebras of rigid Lie algebras. The second part concerns intervals arithmetic. The interval arithmetic is used in a lot of problems concerning robotic, localization of parameters, and sensibility of inputs. The classical operations of intervals are based of the rule : the result of an operation of interval is the minimal interval containing all the result of this operation on the real elements of the concerned intervals. But these operations imply many problems because the product is not distributive with respect the addition. In particular it is very difficult to translate in the set of intervals an algebraic functions of a real variable. We propose here an original model based on an embedding of the set of intervals on an associative algebra. Working in this algebra, it is easy to see that the problem of non distributivity disappears, and the problem of transferring real function in the set of intervals becomes natural. As application, we study matrices of intervals and we solve the problem of reduction of intervals matrices (diagonalization, eigenvalues, and eigenvectors).
75

Contribution à l'étude de l'exploitation des données temporelles en présence d'imperfections / Contribution to the Study of Temporal Data Exploitation in the Presence of Imperfections

Gammoudi, Aymen 17 June 2017 (has links)
Ce travail de thèse porte sur l’exploitation des données temporelles en présence d’imperfections. Il s’agit de définir, concevoir et développer un système intelligent pour l’interrogation des bases de données temporelles où la dimension temps (des relations ou des entités) est définie d’une manière imprécise et floue. Ce type de base de données se manifeste fréquemment dans les applications issues du domaine médical, de l’historique et de l’archive, de la planification, etc.Nous rappelons tout d’abord les différents formalismes utilisés dans le traitement des informations temporelles, puis, nous présentons les travaux antérieurs qui ont abordé la problématique de la gestion et de traitement de l’information temporelle imparfaite dans le domaine des bases de données. Nous décrivons ensuite une première contribution apportée sur la définition d’un nouveau modèle de représentation de données temporelles entachées d’imprécision. Des relations d’Allen étendues ont été introduites ainsi qu’un ensemble de règles de composition permettant de raisonner. Cette contribution a permis de développer un premier prototype nommé Fuzz-TIME pour le traitement des requêtes contenant des critères temporels flous/imprécis. Un des points forts de ce système est qu’il possède un module de raisonnement lui permettant de traiter, d’une manière intelligente, une famille de requêtes temporelles de nature complexe.La plupart des travaux menés sur l’exploitation et la manipulation des informations temporelles considèrent que les entités temporelles (i.e., intervalles) sont définies d’une manière précise (non floue). Or dans le monde des applications réelles, les bornes des intervalles de temps manipulés sont souvent entachées d’imprécision. Nous avons ainsi proposé une nouvelle sémantique des relations temporelles d’Allen (i.e., relations d’Allen tolérantes) dans ce contexte. L’élément clé de cette sémantique est une relation de tolérance convenablement choisie. Une troisième partie de notre travail est consacrée à la modélisation d’une nouvelle extension des relations temporelles d’Allen où les intervalles de temps sont interprétés d’une manière conjonctive. Enfin, nous décrivons l’architecture du système Fuzz-TIME et discutons l’étude expérimentale menée pour valider les contributions proposées. / This work focuses on the exploitation of temporal data in presence of imperfections. The aim is to define, design and develop an intelligent system for the interrogation of temporal databases where the time dimension (of relationships or entities) is defined in an imprecise and fuzzy way. This type of databases is frequently found in applications from the medical field, history and archive, planning, etc.We first recall the different formalisms used in the processing of temporal in formation, and then we present the previous work which has addressed the problem of managing and processing of imperfect temporal information in the field of databases.We describe then a first contribution related to the definition of a new model for the representation of imprecise temporal data. Extended Allen relations have been introduced as well as a set of composition rules for reasoning. This contribution has allowed developing a first prototype called Fuzz-TIME for processing queries containing fuzzy /imprecise time criteria. One of the major interests of this system is that it exhibits a reasoning module to intelligently process a family of temporal queries of a complex nature.Most work on the exploitation and manipulation of temporal in formation considers that the temporal entities (i.e.,intervals) are defined in a precise (non-fuzzy) manner. ln the world of real applications, the bounds of the manipulated time intervals are often pervaded by imprecision. We have proposed a new semantics of Allen's temporal relations (i .e., Allen Tolerant Relations) in this context. The key element of this semantics is a suitably chosen relationship of tolerance. A third part of our work is devoted to the modeling of a new extension of Allen's temporal relations where the time intervals are interpreted in a conjunctive way. Finally, we describe the architecture of the Fuzz-TIME system and discuss the experimental study carried out to validate the proposed contributions.
76

Contributions à l'analyse multifractale des coefficients d'ondelettes dominants et du bootstrap : Images, performances d'estimation, nombre de moments nuls et structure de dépendance. Intervalles de confiance et tests d'hypothèse.

Wendt, Herwig 23 September 2008 (has links) (PDF)
L'invariance d'échelle constitue un paradigme souvent avancé pour l'analyse et la modélisation de données expérimentales issues d'applications de natures différentes. L'analyse multifractale fournit un cadre conceptuel pour ses études théorique et pratique. Dans ce contexte, l'objectif de cette thèse réside dans l'apport à l'analyse multifractale, de l'utilisation des coefficients d'ondelettes dominants, d'une part, et des techniques statistiques de type bootstrap, d'autre part. Dans la première partie de ce travail, les propriétés et performances statistiques de procédures d'analyse multifractale construites à partir de coefficients dominants sont étudiées et caractérisées. Il est notamment montré qu'elles se comparent favorablement à celles obtenues à partir de coefficients d'ondelettes. De plus, une extension aux signaux bidimensionnels (images) est proposée et validée. En complément sont étudiées plusieurs difficultés théoriques, d'importance cruciale pour une réelle mise en œuvre pratique de l'analyse multifractale : régularité minimale et espaces fonctionnels, effet de linéarisation, robustesse vis-à-vis d'éventuelles quantifications des données. La deuxième partie de ce travail de thèse s'intéresse à la construction, pour les attributs multifractals, d'intervalles de confiance et de tests d'hypothèse, à partir de techniques 'bootstrap'. L'originalité de notre approche réside dans la mise en œuvre du bootstrap par construction de blocs temps-échelle dans le plan des coefficients d'ondelettes. Cette procédure, validée par simulations numériques, permet d'obtenir des intervalles de confiance et d'effectuer des tests d'hypothèses à partir d'une seule observation des données, de longueur finie. Une étude précise des structures de dépendance des coefficients d'ondelettes et coefficients dominants complète ce travail. Elle montre notamment que l'augmentation du nombre de moments nuls de l'ondelette d'analyse, qui, pour le mouvement brownien fractionnaire, permet de réduire la portée de la structure de dépendance de longue à courte, est inopérante pour les cascades multiplicatives multifractales : si l'augmentation du nombre de moments nuls décorrèle effectivement les coefficients d'ondelette, elle échoue à faire disparaître la dépendance longue. Enfin, les procédures d'analyse multifractale par coefficients dominants et bootstrap sont illustrées sur deux applications : la turbulence hydrodynamique et la classification de texture d'images.
77

Contraintes globales et heuristiques de recherche pour les CSPs continus

Batnini, Heikel 01 December 2005 (has links) (PDF)
Les systèmes de contraintes de distance euclidienne apparaissent dans de nombreux domaines d'applications, comme en robotique, en biochimie<br />moléculaire ou en CAO. Les techniques issues de la programmation par contraintes permettent de résoudre ces problèmes en combinant une technique de bissection avec des méthodes de réduction des domaines (consistances locales ou partielles). Or, ces consistances sont des méthodes systématiques qui ne prennent pas en compte les propriétés spécifiques des contraintes.<br /><br />Nous présentons dans cette thèse deux approches pour la conception d'une contrainte globale pour la résolution de systèmes de contraintes de distance. La première approche est basée sur l'inférence de contraintes<br />redondantes directement issues de propriétés géométriques du système.<br />La deuxième approche est basée sur l'introduction d'un algorithme de filtrage global dédié aux systèmes d'équations de distance.<br />Ces travaux ont débouché sur la conception d'une<br />technique de décomposition de domaines qui exploite la structure particulière des contraintes de distance. Enfin, nous présentons une généralisation de cette heuristique de recherche à des contraintes numériques quelconques.
78

Modélisation de conflits et calcul de bornes dans les systèmes de production par la théorie des dioïdes

Boutin, Olivier 15 October 2009 (has links) (PDF)
Les systèmes de production de type flow-shop sont des systèmes déterministes qui peuvent être modélisés analytiquement de manière relativement aisée dans une structure algébrique de dioïde. Les opérations dont est muni un dioïde sont essentiellement basées sur des phénomènes de synchronisation et de délai, ce qui permet d'aboutir à un modèle linéaire. Cependant, les systèmes de production manufacturiers présentent de plus en plus d'éléments hétérogènes en interaction et font ainsi partie d'une classe plus générale de systèmes, les job-shops. Ces interactions se caractérisent parfois par des conflits ; dès lors, une modélisation analytique linéaire n'est plus possible. En considérant un système à conflits, non plus directement, mais via ses comportements extrémaux, il est possible d'en obtenir une modélisation approchée, qui est linéaire dans un dioïde d'intervalles. Moyennant l'utilisation de règles d'affectation des ressources partagées et de politiques de routage appropriées, nous définissons des modèles linéaires de ces sections. On propose un modèle approché, dans un dioïde d'intervalles, de ces systèmes complexes, afin de bénéficier des contributions théoriques des structures algébriques de dioïde. Par ailleurs, les réseaux de Petri forment un outil graphique privilégié pour la représentation des systèmes dynamiques à événements discrets que sont les systèmes de production. Nous proposons une définition de la sémantique d'une sous-classe bien particulière de ces réseaux : les graphes d'événements temporisés à incertitudes temporelles, qui permettent de retranscrire des relations exprimées dans un dioïde d'intervalles. En somme, notre contribution permet d'étudier certains job-shops, alors que les possibilités actuelles se limitaient à l'étude de flow-shops.
79

Sur deux problèmes mathématiques de reconstruction phylogénétique

Falconnet, Mikael 09 July 2010 (has links) (PDF)
Ce travail de thèse traite de deux problèmes liés aux méthodes de reconstruction d'arbres phylogénétiques. Dans une première partie, nous fournissons des estimateurs consistants ainsi que des intervalles de confiance asymptotiques mathématiquement rigoureux pour le temps d'évolution de séquences d'ADN dans des modèles de substitutions plus réalistes que les modèles usuels, prenant en compte les effets de la méthylation des dinucléotides CpG dans le génome des mammifères. Dans une seconde partie, nous étendons un résultat récent de Steel et Matsen en prouvant qu'un des travers bien connu des méthodes Bayésiennes en phylogénie, appelé "star tree paradox", a en fait lieu dans un cadre plus large que celui de Steel et Matsen.
80

Résolution par satisfation de contraintes appliquée à l'aide à la décision en conception architecturale

Chenouard, Raphaël 01 December 2007 (has links) (PDF)
La conception architecturale de systèmes mécaniques et énergétiques permet d'étudier la faisabilité de concepts préalablement choisis pendant la phase de recherche de concepts. Elle fait partie de la phase de conception préliminaire et son achèvement vise à définir l'architecture globale qui sera étudiée pendant la phase de conception détaillée d'un produit. Les principales caractéristiques d'un produit (dimensions, choix de composants, de formes, de topologies ou de matériaux) sont alors fondamentales à ce stade de la conception. La conception architecturale nécessite aussi la prise en compte des comportements physiques et des interactions du produit, de ses composants et des milieux extérieurs, de critères économiques, environnementaux, etc. suivant les exigences du cahier des charges fonctionnel. Le concepteur définit un modèle mathématique exprimant cette connaissance liée au produit. Ce modèle peut être traité à l'aide d'un solveur de Problèmes de Satisfaction de Contraintes numériques (CSP). Ce type de solveur traite de manière générique des problèmes formulés à l'aide de contraintes, de variables et de domaines. Nous proposons de nouveaux algorithmes et de nouvelles heuristiques qui prennent en compte des besoins spécifiques au concepteur en conception préliminaire, comme : la classification des variables, les précisions relatives aux valeurs de certaines variables, les contraintes par morceaux. Les études de faisabilité de plusieurs systèmes mécaniques et énergétiques ont été réalisées avec succès. Les nouveaux algorithmes ont permis de diminuer significativement les temps de calculs, mais ils ont aussi permis d'améliorer la qualité des solutions calculées au regard des besoins du concepteur.

Page generated in 0.0762 seconds