• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 116
  • 65
  • 22
  • 1
  • Tagged with
  • 207
  • 93
  • 62
  • 61
  • 54
  • 52
  • 42
  • 39
  • 33
  • 28
  • 27
  • 26
  • 24
  • 24
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Segmentation et mesures géométriques : application aux objets tubulaires métalliques / Segmentation and geometric measurements : application to metal tubular objects

Aubry, Nicolas 12 July 2017 (has links)
La présence de spécularité sur un objet est un problème récurrent qui limite l'application de nombreuses méthodes de segmentation. En effet, les spécularités sont des zones ayant une intensité très élevée et perturbent énormément la détection dès lors que l'on utilise la notion de gradient de l'image. Les travaux menés dans cette thèse permettent de proposer une nouvelle méthode de détection d'un objet tubulaire métallique dans une image. La méthode s'affranchit de la notion de gradient en utilisant la notion de profil d'intensité. Nous proposons dans ce manuscrit, un processus qui parcourt des zones rectangulaires prédéfinies de l'image, par balayage d'un segment discret à la recherche d'un profil d'intensité référence. Ces travaux s'inscrivent dans une collaboration avec Numalliance, une entreprise qui fabrique des machines-outils. Cette collaboration permet de mettre en pratique cette méthode dans le cadre d'un système de contrôle qualité automatique et temps-réel des pièces manufacturées par les machines-outils. Pour cela, la méthode présentée doit être rapide, robuste aux spécularités et à l'environnement industriel tout en étant suffisamment précise pour permettre de conclure sur la conformité ou non de la pièce / The presence of specularity on an object is a recurring problem that limits the application of many segmentation methods. Indeed, specularities are areas with a very high intensity and greatly disturb the detection when the notion of gradient of the image is used. The work carried out in this thesis makes it possible to propose a new detection method for a metallic tubular object in an image. The method avoids the notion of gradient by using the notion of intensity profile. We propose in this manuscript a process which traverses predefined rectangular areas of the image by scanning a discrete segment in search of a reference intensity profile. This work is part of a collaboration with Numalliance, a company that manufactures machine tools. This collaboration enables this method to be put into a real industrial application as part of an automatic and real-time quality control system for parts manufactured by machine tools. To this end, the method presented must be fast, robust to the specularities and to the industrial environment while being sufficiently precise to make it possible to conclude on the conformity or not of the part
112

Signature électronique basée sur les réseaux euclidiens et échantillonnage selon une loi normale discrète / Lattice-based digital signature and discrete gaussian sampling

Ricosset, Thomas 12 November 2018 (has links)
La cryptographie à base de réseaux euclidiens a généré un vif intérêt durant les deux dernièresdécennies grâce à des propriétés intéressantes, incluant une conjecture de résistance àl’ordinateur quantique, de fortes garanties de sécurité provenant d’hypothèses de difficulté sur lepire cas et la construction de schémas de chiffrement pleinement homomorphes. Cela dit, bienqu’elle soit cruciale à bon nombre de schémas à base de réseaux euclidiens, la génération debruit gaussien reste peu étudiée et continue de limiter l’efficacité de cette cryptographie nouvelle.Cette thèse s’attelle dans un premier temps à améliorer l’efficacité des générateurs de bruitgaussien pour les signatures hache-puis-signe à base de réseaux euclidiens. Nous proposons unnouvel algorithme non-centré, avec un compromis temps-mémoire flexible, aussi rapide que savariante centrée pour des tables pré-calculées de tailles acceptables en pratique. Nousemployons également la divergence de Rényi afin de réduire la précision nécessaire à la doubleprécision standard. Notre second propos tient à construire Falcon, un nouveau schéma designature hache-puis-signe, basé sur la méthode théorique de Gentry, Peikert et Vaikuntanathanpour les signatures à base de réseaux euclidiens. Nous instancions cette méthode sur les réseauxNTRU avec un nouvel algorithme de génération de trappes. / Lattice-based cryptography has generated considerable interest in the last two decades due toattractive features, including conjectured security against quantum attacks, strong securityguarantees from worst-case hardness assumptions and constructions of fully homomorphicencryption schemes. On the other hand, even though it is a crucial part of many lattice-basedschemes, Gaussian sampling is still lagging and continues to limit the effectiveness of this newcryptography. The first goal of this thesis is to improve the efficiency of Gaussian sampling forlattice-based hash-and-sign signature schemes. We propose a non-centered algorithm, with aflexible time-memory tradeoff, as fast as its centered variant for practicable size of precomputedtables. We also use the Rényi divergence to bound the precision requirement to the standarddouble precision. Our second objective is to construct Falcon, a new hash-and-sign signaturescheme, based on the theoretical framework of Gentry, Peikert and Vaikuntanathan for latticebasedsignatures. We instantiate that framework over NTRU lattices with a new trapdoor sampler.
113

Modélisation de l'électroperméabilisation à l'échelle cellulaire / Cell electropermeabilization modeling

Leguebe, Michael 22 September 2014 (has links)
La perméabilisation des cellules à l’aide d’impulsions électriques intenses, appelée électroperméabilisation, est un phénomène biologique impliqué dans des thérapies anticancéreuses récentes. Elle permet, par exemple, d’améliorer l’efficacité d’une chimiothérapie en diminuant les effets secondaires, d’effectuer des transferts de gènes, ou encore de procéder à l’ablation de tumeurs. Les mécanismes de l’électroperméabilisation restent cependant encore méconnus, et l’hypothèse majoritairement admise par la communauté de formation de pores à la surface des membranes cellulaires est en contradiction avec certains résultats expérimentaux.Le travail de modélisation proposé dans cette thèse est basé sur une approche différente des modèles d’électroporation existants. Au lieu de proposer des lois sur les propriétés des membranes à partir d’hypothèses à l’échelle moléculaire, nous établissons des lois ad hoc pour les décrire, en se basant uniquement sur les informations expérimentales disponibles. Aussi, afin de rester au plus prèsde ces dernières et faciliter la phase de calibration à venir, nous avons ajouté un modèle de transport et de diffusion de molécules dans la cellule. Une autre spécificité de notre modèle est que nous faisons la distinction entre l’état conducteur et l’état perméable des membranes.Des méthodes numériques spécifiques ainsi qu’un code en 3D et parallèle en C++ ont été écrits et validés pour résoudre les équations aux dérivées partielles de ces différents modèles. Nous validons le travail de modélisation en montrant que les simulations reproduisent qualitativement les comportements observés in vitro. / Cell permeabilization by intense electric pulses, called electropermeabilization, is a biological phenomenon involved in recent anticancer therapies. It allows, for example, to increase the efficacy of chemotherapies still reducing their side effects, to improve gene transfer, or to proceed tumor ablation. However, mechanisms of electropermeabilization are not clearly explained yet, and the mostly adopted hypothesis of the formation of pores at the membrane surface is in contradiction with several experimental results.This thesis modeling work is based on a different approach than existing electroporation models. Instead of deriving equations on membranes properties from hypothesis at the molecular scale, we prefer to write ad hoc laws to describe them, based on available experimental data only. Moreover, to be as close as possible to these data, and to ease the forthcoming work of parameter calibration, we added to our model equations of transport and diffusion of molecules in the cell. Another important feature of our model is that we differentiate the conductive state of membranes from their permeable state.Numerical methods, as well as a 3D parallel C++ code were written and validated in order to solve the partial differential equations of our models. The modeling work was validated by showing qualitative match between our simulations and the behaviours that are observed in vitro
114

Validation de modèles qualitatifs de réseaux de régulation génique: une méthode basée sur des techniques de vérification formelle

Batt, Grégory 24 February 2006 (has links) (PDF)
Les réseaux de régulation génique contrôlent le développement et le fonctionnement des organismes vivants. Etant donné que la plupart des réseaux de régulation génique d'intérêt biologique sont grands et que leur dynamique est complexe, la compréhension de leur fonctionnement est un problème biologique majeur. De nombreuses méthodes ont été développées pour la modélisation et la simulation de ces systèmes. Etonnamment, le problème de la validation de modèle n'a reçu jusqu'à récemment que peu d'attention. Pourtant, cette étape est d'autant plus importante que dans le contexte de la modélisation de réseaux de régulation génique, les systèmes modélisés sont complexes et encore imparfaitement connus.<br /><br />Dans cette thèse, nous proposons une approche permettant de tester la validité de modèles de réseaux de régulation génique en comparant les prédictions obtenues avec les données expérimentales. Plus spécifiquement, nous considérons dans ce travail une classe de modèles qualitatifs définis en termes d'équations différentielles linéaires par morceaux (LPM). Ces modèles permettent de capturer les aspects essentiels des régulations géniques, tout en ayant une forme mathématique simple qui facilite leur analyse symbolique. Egalement, nous souhaitons utiliser les informations qualitatives sur la dynamique du système données par les changements du sens de variation des concentrations des protéines du réseau. Ces informations peuvent être obtenues expérimentalement à partir de profils d'expression temporels.<br /><br />La méthode proposée doit satisfaire deux contraintes. Premièrement, elle doit permettre d'obtenir des prédictions bien adaptées à la comparaison avec le type de données considéré. Deuxièmement, étant donné la taille et la complexité des réseaux d'intérêt biologique, la méthode doit également permettre de vérifier efficacement la cohérence entre prédictions et observations.<br /><br />Pour répondre à ces deux contraintes, nous étendons dans deux directions une approche précédemment développée par de Jong et collègues pour l'analyse symbolique des modèles LPM qualitatifs. Premièrement, nous proposons d'utiliser une représentation plus fine de l'état du système, permettant d'obtenir, par abstraction discrète, des prédictions mieux adaptées à la comparaison avec les données expérimentales. Deuxièmement, nous proposons de combiner cette méthode avec des techniques de model checking. Nous montrons que l'utilisation combinée d'abstraction discrète et de model checking permet de vérifier efficacement les propriétés dynamiques, exprimées en logique temporelle, des modèles continus.<br /><br />Cette méthode a été implémentée dans une nouvelle version de l'outil Genetic Network Analyzer (GNA 6.0). GNA 6.0 a été utilisé pour la validation de deux modèles grands et complexes de l'initiation de la sporulation chez <I>B. subtilis</I> et de la réponse au stress nutritionnel chez <I>E. coli</I>. Nous avons ainsi pu vérifier que les prédictions obtenues étaient en accord avec la plupart des données expérimentales disponibles dans la littérature. Plusieurs incohérences ont également été identifiées, suggérant des révisions des modèles ou la réalisation d'expériences complémentaires. En dehors d'une contribution à une meilleure compréhension du fonctionnement de ces systèmes, ces deux études de cas illustrent plus généralement que, par la méthode proposée, il est possible de tester si des prédictions obtenues pour des modèles complexes sont cohérentes avec un large éventail de propriétés observables expérimentalement.
115

Analyse des processus longue mémoire stationnaires et non-stationnaires : estimations, applications et prévisions

Lu, Zhiping 02 June 2009 (has links) (PDF)
Dans cette thèse, on considère deux types de processus longues mémoires : les processus stationnaires et non-stationnaires. Nous nous consacrons à l'étude de leurs propriétés statistiques, les méthodes d'estimation, les méthodes de prévision et les tests statistiques. Les processus longue mémoire stationaires ont été largement étudiés au cours des dernières décennies. Il a été démontré que des processus longue mémoire ont des propriétés d'autosimilarité, qui sont importants pour l'estimation des paramètres. Nous passons en revue les propriétés d'auto-similairité des processus longue mémoire en temps continu et en temps discret. Nous proposons deux propositions montrant que les processus longue mémoire sont asymptotiquement auto-similaires du deuxième ordre, alors que processus courte mémoire ne sont pas asymptotiquement auto-similaires du deuxième ordre. Ensuite, nous étudions l'auto-similairité des processus longue mémoire spécifiques tels que les processus GARMA à k facteurs et les processus GIGARCH à k facteurs. Nous avons également étudié les propriétés d'auto-similarités des modèles heteroscedastiques et des processus avec des sauts. Nous faisons une revue des méthodes d'estimation des paramètres des processus longue mémoire, par méthodes paramétriques (par exemple, l'estimation par maximum de vraisemblance et estimation par pseudo-maximum de vraisemblance) et les méthodes semiparamétriques (par exemple, la méthode de GPH, la méthode de Whittle, la méthode de Robinson). Les comportements de consistance et de normalité asymptotique sont également étudiés pour ces estimateurs. Le test sur l'ordre fractionnaire intégré de la racine unité saisonnière et non-saisonnière des processus longue mémoire stationnaires est très important pour la modélisation des series économiques et financières. Le test de Robinson (1994) est largement utilisé et appliqué aux divers modèles longues mémoires bien connus. A partir de méthode de Monte Carlo, nous étudions et comparons les performances de ce test en utilisant plusieurs tailles d'échantillons. Ce travail est important pour les praticiens qui veulent utiliser le test de Robinson. Dans la pratique, lorsqu'on traite des données financières et économiques, la saisonnalité et la dépendance qui évolvent avec le temps peuvent souvent être observées. Ainsi une sorte de non-stationnarité existe dans les données financières. Afin de prendre en compte ce genre de phénomènes, nous passons en revue les processus non-stationnaires et nous proposons une nouvelle classe de processus stochastiques: les processus de Gegenbauer à k facteurs localement stationnaire. Nous proposons une procédure d'estimation de la fonction de paramètres en utilisant la transformation discrète en paquets d'ondelettes (DWPT). La robustesse de l'algorithme est étudiée par simulations. Nous proposons également des méthodes de prévisions pour cette nouvelle classe de processus non-stationnaire à long mémoire. Nous dennons des applications sur le terme de la correction d'erreurs de l'analyse cointégration fractionnaire de l'index Nikkei Stock Average 225 et nous étudions les prix mondiaux du pétrole brut.
116

Modélisation de la dynamique du carpe

Perez, Alain François 21 February 1994 (has links) (PDF)
.
117

Contribution à la génération automatique de maillages de qualité pour la simulation numérique

Laug, Patrick 09 March 2006 (has links) (PDF)
La simulation d'un phénomène physique par la méthode des éléments finis ou d'autres méthodes d'analyse numérique nécessite une décomposition spatiale, ou maillage, du domaine étudié. Pour que le processus de simulation converge rapidement et atteigne la précision voulue, la qualité en taille et en forme du maillage joue un rôle primordial.<br />Ce mémoire constitue une synthèse de mes contributions concernant la génération automatique de maillages respectant le mieux possible ces critères de qualité. Ces différents travaux de recherche ont été réalisés au sein du projet Gamma de l'INRIA.<br />Dans ce document, les thèmes suivants sont abordés successivement :<br />- la discrétisation de courbes du plan ou de l'espace 3D,<br />- le maillage de domaines plans de contours fixes ou variables,<br />- le maillage de surfaces gauches paramétrées ou discrètes.<br />Au cours de ces opérations de discrétisation et de maillage, la taille et la forme des éléments sont contrôlées par un champ de métriques traduisant des contraintes géométriques et/ou physiques. Les méthodes présentées ont toutes été validées sur de nombreux exemples académiques ou industriels, notamment en mécanique des solides et en mécanique des fluides.
118

Approximation cinétique discrète de problèmes de lois de conservation avec bord

Milisic, Vuk 11 December 2001 (has links) (PDF)
Nous étudions l'approximation cinétique discrète de lois de conservation scalaires quasi-linéaires dans le quart d'espace positif. Cette approximation est obtenue par l'introduction de systèmes de type BGK relaxant la loi scalaire. Nous démontrons la convergence des systèmes semi-linéaires vers la loi scalaire. Nous discrétisons ces modèles pour obtenir une gamme de schémas numériques adaptés au problème avec bord. Dans une troisième partie, nous appliquons ces schémas à un certain nombre de cas test numériques.
119

Contribution au controle optimal du problème circulaire restreint des trois corps

Daoud, Bilel 07 November 2011 (has links) (PDF)
Le contexte de ce travail est la mécanique spatiale. Plus précisément, on se propose de réaliser des transferts 'a faible poussée dans le système Terre- Lune modélise par le problème des trois corps restreint circulaire. Le but est de calculer la commande optimale de l'engin spatial pour deux critères d'optimisation: temps de transfert minimal et consommation de carburant minimale. Les contributions de cette thèse sont de deux ordres. Géométrique, tout d'abord, puisqu'on étudie la contrôlabilité du système ainsi que la géométrie des transferts (structure de la commande) à l'aide d'outils de contrôle géométrique. Numérique, ensuite, différentes méthodes homotopiques sont développées. En effet, une continuation deux-trois corps est considérée pour calculer des trajectoires temps minimales et puis une continuation sur la poussée maximale de l'engin pour atteindre des poussées faibles. Le problème de consommation minimale -- minimisation de la norme L1 du contrôle -- est connecté par une continuation différentielle au problème de minimisation de la norme L2 du contrôle. Les solutions trouvées sont comparées à celles calculées 'a l'aide d'une p pénalisation par barrière logarithmique. Ces méthodes sont ensuite appliquées pour la mission SMART-1 de l'Agence Européenne Spatiale.
120

Développement de méthodes de traitement d'images pour la détermination de paramètres variographiques locaux

Felder, Jean 02 December 2011 (has links) (PDF)
La géostatistique fournit de nombreux outils pour caractériser et traiter des données réparties dans l'espace. La plupart de ces outils sont basés sur l'analyse et la modélisation d'une fonction appelée variogramme qui permet de construire différents opérateurs spatiaux : le krigeage et les simulations. Les modèles variographiques sont relativement intuitifs : certains paramètres variographiques peuvent être directement interprétés en termes de caractéristiques structurales. Ces approches sont cependant limitées car elles ne permettent pas de prendre correctement en compte la structuration locale des données. Plusieurs types de modèles géostatistiques non-stationnaires existent. Ils requièrent généralement un paramétrage compliqué, peu intuitif, et ils n'apportent pas de réponse satisfaisante quant à certains de types de non-stationnarité. C'est pour répondre au besoin d'une prise en compte efficace et opérationnelle de la non-stationnarité dans un jeu de données que, dans le cadre de cette thèse, nous prenons le parti de déterminer des paramètres variographiques locaux, appelés M-Paramètres par des méthodes de traitement d'images. Notre démarche se fonde principalement sur la détermination des paramètres morphologiques de dimensions et d'orientations de structures. Il résulte de la détermination de M-Paramètres une meilleure adéquation entre modèles variographiques et caractéristiques structurales des données. Les méthodes de détermination de M-Paramètres développées ont été appliquées sur des données bathymétriques, sur des jeux de données laissant apparaître des corps géologiques complexes ou encore sur des jeux de données environnementaux, liés au domaine de la pollution en zone urbaine par exemple. Ces exemples illustrent les améliorations de résultats de traitement géostatistique obtenus avec M-Paramètres. Enfin, partant du constat que certains phénomènes ne respectent pas une propagation euclidienne, nous avons étudié l'influence du choix de la distance sur les résultats de krigeage et de simulation. En utilisant des distances géodésiques, nous avons pu obtenir des résultats d'estimation impossible à reproduire avec des distances euclidiennes.

Page generated in 0.0259 seconds