• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 668
  • 317
  • 47
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 1031
  • 345
  • 217
  • 206
  • 203
  • 167
  • 140
  • 139
  • 116
  • 100
  • 88
  • 81
  • 76
  • 76
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Algorithmique et complexité distribuées : application à quelques problèmes fondamentaux de complexité /

Lavault, Christian, January 1900 (has links)
Th.--Informatique--Paris-Sud--Orsay, 1987. / 1988 d'après la déclaration de dépôt légal. Bibliogr. p. 293-299.
92

Rangs de déplacement et algorithmes rapides... /

Desbouvries, François. January 1991 (has links)
Th. doct.--Paris--ENST, 1991. / Notes bibliogr.
93

Optimisation et robustesse des algorithmes de reconnaissance des formes : application aux traitements des signaux radar /

Nivelle, François. January 1995 (has links)
Th. doct.--Informatique et réseaux--Paris--ENST, 1994. / Bibliogr. p. 235-249. Notes bibliogr. Résumé en anglais et en français.
94

Contribution à la convergence des algorithmes d'optimisation.

Fiorot, Jean-Charles. January 1900 (has links)
Th.--Sci. math.--Lille 1, 1977. N°: 386.
95

Une Méthode pour la résolution de certains problèmes combinatoires.

Hardouin Duparc, Jean Marie Claude, January 1900 (has links)
Th.--Sci.--Bordeaux 1, 1980. N°: 658.
96

Quelques modèles mathématiques et algorithmes rapides pour le traitement d’images / Several mathematical models and fast algorithms for image processing

Abergel, Rémy 04 October 2016 (has links)
Dans cette thèse, nous nous intéressons à différents modèles mathématiques de traitement d’images numériques dits de bas niveau. Si l’approche mathématique permet d’établir des modèles innovants pour traiter les images, ainsi que l´étude rigoureuse des propriétés des images qu’ils produisent, ils impliquent parfois l’utilisation d’algorithmes très consommateurs de temps de calcul et de mémoire. Aussi, nous portons un soin particulier au développement d’algorithmes rapides à partir des modèles mathématiques considérés. Nous commençons par effectuer une présentation synthétique des méthodes mathématiques basées sur la dualité de Legendre-Fenchel permettant la minimisation d’énergies faisant intervenir la variation totale, fonctionnelle convexe nondifférentiable, ceci afin d’effectuer divers traitements sur les images numériques. Nous étudions ensuite un modèle de discrétisation de la variation totale inspiré de la théorie de l’échantillonnage de Shannon. Ce modèle, appelé ≪ variation totale Shannon ≫ permet un contrôle fin de la régularité des images sur une échelle sous-pixellique. Contrairement aux modèles de discrétisation classiques qui font appel à des schémas aux différences finies, nous montrons que l’utilisation de la variation totale Shannon permet de produire des images pouvant être facilement interpolées. Nous montrons également que la variation totale Shannon permet un gain conséquent en matière d’isotropie et ouvre la porte à de nouveaux modèles mathématiques de restauration. Après cela, nous proposons une adaptation du modèle TV-ICE (Iterated Conditional Expectations, proposé en 2014 par Louchet et Moisan) au cas du débruitage d’images en présence de bruit de Poisson. Nous démontrons d’une part que le schéma numérique issu de ce modèle consiste en un schéma de point fixe dont la convergence est linéaire, d’autre part que les images ainsi produites ne présentent pas d’effet de marche d’escalier (staircasing), contrairement aux images obtenues avec l’approche plus classique dite du maximum a posteriori. Nous montrons également que le modèle Poisson TV-ICE ainsi établi repose sur l’évaluation numérique d’une fonction gamma incomplète généralisée nécessitant une prise en compte fine des erreurs numériques inhérentes au calcul en précision finie et pour laquelle nous proposons un algorithme rapide permettant d’atteindre une précision quasi-optimale pour une large gamme de paramètres. Enfin, nous reprenons les travaux effectués par Primet et Moisan en 2011 concernant l’algorithme astre (A contrario Smooth TRajectory Extraction) dédié à la détection de trajectoires régulières à partir d’une séquence de nuages de points, ces points étant considérés comme issus d’une détection préalable dans une 3 séquence d’images. Si l’algorithme astre permet d’effectuer une détection optimale des trajectoires régulières au sens d’un critère a contrario, sa complexité en O(K2) (où K désigne le nombre d’images de la séquence) s’avère être rédhibitoire pour les applications nécessitant le traitement de longues séquences. Nous proposons une variante de l’algorithme astre appelée cutastre qui préserve les performances de l’algorithme astre ainsi que certaines de ses propriétés théoriques, tout en présentant une complexité en O(K). / In this thesis, we focus on several mathematical models dedicated to low-level digital image processing tasks. Mathematics can be used to design innovative models and to provide some rigorous studies of properties of the produced images. However, those models sometimes involve some intensive algorithms with high computational complexity. We take a special care in developing fast algorithms from the considered mathematical models. First, we give a concise description of some fundamental results of convex analysis based on Legendre-Fenchel duality. Those mathematical tools are particularly efficient to perform the minimization of convex and nonsmooth energies, such as those involving the total variation functional which is used in many image processing applications. Then, we focus on a Fourier-based discretization scheme of the total variation, called Shannon total variation, which provides a subpixellic control of the image regularity. In particular, we show that, contrary to the classically used discretization schemes of the total variation based on finite differences, the use of the Shannon total variation yields images that can be easily interpolated. We also show that this model provides some improvements in terms of isotropy and grid invariance, and propose a new restoration model which transforms an image into a very similar one that can be easily interpolated. Next, we propose an adaptation of the TV-ICE (Total Variation Iterated Conditional Expectations) model, recently proposed by Louchet and Moisan in 2014, to address the restoration of images corrupted by a Poisson noise. We derive an explicit form of the recursion operator involved by this scheme, and show linear convergence of the algorithm, as well as the absence of staircasing effect for the produced images. We also show that this variant involves the numerical evaluation of a generalized incomplete gamma function which must be carefully handled due to the numerical errors inherent to the finite precision floating-point calculus. Then, we propose an fast algorithm dedicated to the evaluation of this generalized 4 incomplete gamma function, and show that the accuracy achieved by the proposed procedure is near optimal for a large range of parameters. Lastly, we focus on the astre (A contrario Smooth TRajectory Extraction) algorithm, proposed by Primet and Moisan in 2011 to perform trajectory detection from a noisy point set sequence. We propose a variant of this algorithm, called cutastre, which manages to break the quadratic complexity of astre with respect to the number of frames of the sequence, while showing similar (and even slightly better) detection performances and preserving some interesting theoretical properties of the original astre algorithm.
97

Algorithmes d'apprentissage automatique inspirés de la théorie PAC-Bayes

Germain, Pascal January 2009 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2008-2009 / Dans un premier temps, ce mémoire présente un théorème PAC-Bayes général, duquel il est possible d'obtenir simplement plusieurs bornes PAC-Bayes connues. Ces bornes permettent de calculer une garantie sur le risque d'un classificateur à partir de ses performances sur l'ensemble de données d'entraînement. Par l'interprétation du comportement de deux bornes PAC-Bayes, nous énonçons les caractéristiques propres aux classificateurs qu'elles favorisent. Enfin, une spécialisation de ces bornes à la famille des classificateurs linéaires est détaillée. Dans un deuxième temps, nous concevons trois nouveaux algorithmes d'apprentissage automatique basés sur la minimisation, par la méthode de descente de gradient conjugué, de l'expression mathématique de diverses formulations des bornes PAC-Bayes. Le dernier algorithme présenté utilise une fraction de l'ensemble d'entraînement pour l'acquisition de connaissances a priori. Ces algorithmes sont aptes à construire des classificateurs exprimés par vote de majorité ainsi que des classificateurs linéaires exprimés implicitement à l'aide de la stratégie du noyau. Finalement, une étude empirique élaborée compare les trois algorithmes entre eux et révèle que certaines versions de ces algorithmes construisent des classificateurs compétitifs avec ceux obtenus par AdaBoost et les SVM. / At first, this master thesis presents a general PAC-Bayes theorem, from which we can easily obtain some well-known PAC-Bayes bounds. Those bounds allow us to compute a guarantee on the risk of a classifier from its achievements on the training set. We analyze the behavior of two PAC-Bayes bounds and we determine peculiar characteristics of classifiers favoured by those bounds. Then, we present a specialization of those bounds to the linear classifiers family. Secondly, we conceive three new machine learning algorithms based on the minimization, by conjugate gradient descent, of various mathematical expressions of the PAC-Bayes bounds. The last algorithm uses a part of the training set to capture a priori knowledges. One can use those algorithms to construct majority vote classifiers as well as linear classifiers implicitly represented by the kernel trick. Finally, an elaborated empirical study compares the three algorithms and shows that some versions of those algorithms are competitive with both AdaBoost and SVM.
98

Développement d'un algorithme mathématique pour l'évaluation de la précision d'implantation des électrodes de stimulation cérébrale profonde et de la relation des contacts avec le noyau sous-thalamique

Touzin, Michèle January 2011 (has links)
La stimulation cérébrale profonde (SCP) du noyau sous-thalamique (NST) est devenue un traitement reconnu dans la maladie de Parkinson (MP) de stade avancé. Le principal facteur influençant la réponse à la SCP est l'emplacement des contacts de l'électrode par rapport au NST. Cette étude rétrospective vise à évaluer à la fois la précision de l'acte chirurgical ainsi que la localisation des contacts actifs, par rapport aux bordures du NST. L'objectif de la chirurgie au CHA-HEJ est d'implanter une électrode à quatre contacts au sein du NST et plus précisément, placer deux contacts à l'intérieur du NST ainsi qu'un au dessus et un en dessous. Pour vingt-trois patients ayant subi une chirurgie de SCP-NST bilatérale, la cible théorique a été calculée selon différentes façons à savoir, à partir des noyaux rouges, du point situé entre les commissures antérieure et postérieure (ACPC) et des données d'électrophysiologie obtenues lors d'une seule et unique trajectoire de microenregistrement peropératoire (MER). Une fusion des images par résonnance magnétique nucléaire (IRM) préopératoires et postopératoires a été effectuée. Une première étape consistait à évaluer la précision de l'acte chirurgical en mesurant la distance entre la cible théorique et l'artefact ferromagnétique représentant la position finale de l'électrode. À l'aide d'un algorithme basé sur des notions pythagoriciennes et trigonométriques, une deuxième étape consistait à déterminer la localisation de chacun des contacts des électrodes, par reconstruction tridimensionnelle, et ce, dans le référentiel ACPC. Finalement, la localisation des contacts actifs utilisés en clinique a été étudiée en fonction des bordures du NST déterminées par MER. Les résultats ont montré que la différence moyenne entre la cible théorique et la cible finale est de 0,77 mm (±0,59) en X et 0,78 mm (±0,59) en Y (p<0,05). Pour 22/35 électrodes (62,9 %), la cible théorique et la cible finale se chevauchent. Différents facteurs pouvant affecter la précision d'implantation ont été étudiés tels que le genre, le déplacement cérébral « brain shift » et la largeur du troisième ventricule en fonction de l'évolution de la maladie et en aucun cas, ces facteurs n'ont eu d'impact significatif (p> 0.05). La localisation de l'ensemble des contacts en fonction des bordures du NST a été déterminée et ils sont majoritairement situés à l'intérieur du NST. En dépit de la stratégie chirurgicale utilisée, cette distribution tend vers le haut. Par ailleurs, la plupart des contacts actifs se situent à l'intérieur du NST et aucun n'est localisé en dessous du NST. Le point de stimulation moyen a également été déterminé par reconstruction (AP(x)=-2,33±0,99, LAT(y)=ll, 67±l, 81, VERT(z)=-2,39±l, 76) et il est situé au niveau de la bordure supérieure du NTS moyen. En conclusion, la procédure chirurgicale utilisée dans notre milieu démontre un bon degré de précision et les contacts actifs les plus souvent utilisés en clinique sont ceux qui se situent dans la région dorsale du NST, région décrite par la littérature comme la plus efficace pour le traitement des symptômes de la MP.
99

Application de l'algorithme EM au modèle des risques concurrents avec causes de panne masquées

Michaud, Isabelle January 2005 (has links)
Dans un modèle de durées de vie avec des risques concurrents, les systèmes peuvent tomber en panne dans le temps. Ces pannes sont dues à une cause parmi plusieurs possibles et il arrive parfois que celle-ci soit inconnue. C'est alors qu'on peut faire appel à l'algorithme EM pour calculer les estimateurs du maximum de vraisemblance. Cette technique utilise la fonction de vraisemblance des données complètes pour trouver les estimateurs même si les données observées sont incomplètes. Pour les systèmes ayant leur cause de panne inconnue, on peut en prendre un échantillon pour une inspection plus approfondie qui dévoilera les vraies causes de panne. Cette étape peut améliorer l'estimation des probabilités de masque et des fonc- tions de risque spécifiques aux causes de panne. Après avoir expliqué la théorie de l'algorithme EM, le modèle des risques concurrents, ainsi que les travaux réalisés sur le sujet, on étudie l'impact qu'a sur les estimateurs le fait de ne pas envoyer un échantillon des systèmes masqués à un examen approfondi qui permettrait de trouver la vraie cause de panne.
100

Développement d'un algorithme permettant la prédiction des métastases à partir de mutations germinales et celles du clone fondateur chez des patients atteints du cancer

Milanese, Jean-Sébastien January 2018 (has links)
Avec les constantes avancées du séquençage de nouvelle génération (NGS), la quantité de données disponibles devient massive. En parallèle, les méthodes de détection au cancer demeurent très spécifiques et peu efficaces. De plus, le taux de survie des patients est directement relié à la progression tumorale et par conséquent, aux méthodes de détection. Malgré des avancées technologiques très importantes dans les dernières années, le taux de mortalité du cancer ne cesse d’augmenter. L’importance de développer des nouvelles méthodes de détection applicables à tous les types de cancer devient une nécessité. Jusqu’à présent, il n’existe aucun modèle permettant d’utiliser le séquençage de nouvelle génération qui permet la prédiction de caractéristiques cancéreuse (ex : récurrence, résistance, etc.). Les sections suivantes démontrent la création d’un modèle utilisant des mutations somatiques et germinales pour prédire la récurrence et son applicabilité au travers de tous les types de cancers (et même différentes maladies). En utilisant des signatures géniques (combinaisons de gènes) spécifiques à chaque cancer, nous avons été en mesure d’obtenir une précision de 90% (et plus) pour le groupe où le cancer est récurrent. De nos connaissances, ceci est la première tentative de développement de modèle permettant de prédire le pronostic du patient en utilisant le NGS. Ceci amène un nouvel aspect pour la médecine personnalisée et spécialement pour le dépistage du cancer. / With the constant progress in neext generation sequencing, the quantity of data available for investigation becomes massive. In parallel, cancer detection methods and treatments remain very specific and barely accurate. Moreover, the patients survival rate are directly linked with tumoral progression and therefore, to cancer detection methods. Despite continual technological advances in recent years, the global cancer mortality rate keeps rising. The creation of new detection methods accessible to all cancer types becomes a necessity. As of now, there is no model available that using sequencing data to predict cancer traits (ex: recurrence, resistance, etc.). The following sections demonstrate the creation of such model using somatic and germline mutations to predict recurrence and its applicability across all cancer types (and even across different diseases). By using gene signatures specific to each cancer types, we were able to obtain an accuracy of 90% (and more) for the cohort where the cancer was recurrent. To our knowledge, this is the first attempt to develop a model that can predict the patient’s prognosis using genome sequencing data. This will affect future studies and improve personalized medicine as well as cancer detection methods.

Page generated in 0.0957 seconds