• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 39
  • 9
  • 5
  • Tagged with
  • 52
  • 52
  • 17
  • 17
  • 13
  • 12
  • 11
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Analyse quantitative des composantes temps-échelle de l'ECG à haute-résolution moyenne pour l'évaluation du risque de tachycardies ventriculaires et de la mort subite après un infarctus du myocarde

Couderc, Jean-Philippe Rubel, Paul. January 1998 (has links)
Thèse doctorat : Génie Biologique et Médical : Villeurbanne, INSA : 1997. / Titre provenant de l'écran-titre. Bibliogr. p. 206-213.
12

Comparaison de la performance relative de l'analyse discriminante prédictive linéaire polytomique et de la régression logistique polytomique nominale en contexte de quasi-multinormalité et d'erreur de mesure

Brière, Luc 13 April 2018 (has links)
Cette recherche, de type méthodologique, envisage d'étudier la prédiction ou la classification portant sur une variable dépendante polytomique et nominale (VDPN) à partir d'un ensemble de variables indépendantes continues. Plus exactement, deux modèles sont privilégiés, dans la littérature comme dans notre étude, pour le cas d'une VDPN, soit : 1) l'analyse discriminante prédictive linéaire polytomique (ADPLP); 2) la régression logistique polytomique nominale (RLPN). Bref, en situation de classification, la procédure statistique de ces méthodes, basée sur l'estimation des probabilités a posteriori, P\k\x.i), cherche principalement à construire une règle de classification permettant d'affecter un individu i décrit par un vecteur x de p variables prédictrices à l'un des K groupes nominaux (K>2) d'une partition définie a priori et aléatoirement (i.e. où chaque sujet possède une chance égale de faire partie de l'échantillon) sur la population à l'étude, et ce, de façon à minimiser le risque de classements erronés. Avant de choisir entre l'ADPLP et la RLPN, il est nécessaire, en regard des conditions imposées par chacun des modèles et certaines contraintes de mesure, de voir comment se comparent les deux modèles en termes de performance relative, de voir si la décision d'opter pour l'une ou l'autre de ces méthodes porte à conséquence. En regard de la littérature recensée sur le sujet, aucune étude, du moins à notre connaissance, ne compare systématiquement l'efficacité relative de l'ADPLP et de la RLPN en contexte de quasi-multinormalité (i.e. lorsque, par exemple, une ou des variables prédictrices possèdent un degré faible, mais non nul de dissymétrie et/ou de kurtose de la distribution) et d'erreur de mesure (i.e. à partir du niveau pxx de fidélité associé à chacune des variables indépendantes). L'effet de trois autres conditions est également mis à contribution dans l'étude, soit la taille échantillonnale (n), les probabilités a priori égales ou inégales (n) des groupes ainsi que le degré de séparation des groupes (à partir de D2, la distance généralisée de Mahalanobis). Pour vérifier les effets qui nous intéressent, les comparaisons sont effectuées de manière à refléter le plus possible les conditions susceptibles d'être rencontrées dans le domaine de la recherche en sciences humaines. Afin de réaliser ce travail au mieux qu'il se peut, les échantillons sont modelés par l'approche de simulation Monte Carlo en fonction d'un devis expérimental reproduisant des situations typiques de recherche. Enfin, nous adoptons une définition de la performance relative de l'ADPLP et de la RLPN qui se restreint à Xefficacité prédictive, et plus particulièrement, au critère ^inexactitude de la règle de classification de chacun des modèles. Spécifiquement, trois mesures sont considérées sur les données validées pour rendre compte de l'inexactitude de la règle de classification, soit : 1) le taux global d'erreur de classifications (TGEC); 2) le score quadratique de Brier (SQB); 3) le score logarithmique (SL). Globalement, des deux méthodes mises à l'essai, même s'il existe souvent d'infimes différences entre leurs performances respectives, les résultats portent à croire que l'ADPLP performe mieux. En effet, compte tenu de notre contexte de recherche, les analyses générales et spécifiques des résultats de l'expérimentation laissent plus fréquemment apparaître, en regard des critères de performance de classification TGEC, SQB et SL, la supériorité de l'ADPLP à classer des observations. Aussi, et surtout, une analyse supplémentaire a permis de constater que la classification des deux méthodes gagne en efficacité à mesure que les paramètres de non-multinormalité de la distribution des variables prédictrices augmentent, mais que l'ADPLP devient moins efficace par rapport à la RLPN au fur et à mesure de cette augmentation.
13

Recherche d'une signature de phénomènes critiques et des effets dynamiques lors des collisions entre ions lourds aux énergies de Fermi

Moustabchir, Rachid 11 April 2018 (has links)
Les études de la multifragmentation dans les collisions d'ions lourds aux énergies de Fermi se sont intensifiées dès les années 90 avec le développement des détecteurs et outils pour récolter et trier la quasi totalité des réactions nucléaires. Dans la première partie de ce travail, on a étudié les collisions centrales du système Ni+Ni à 32, 40, 52, 64, 74, 82 et 90A MeV, à l'aide du multidétecteur INDRA. Nous avons sélectionné les collisions centrales par une Analyse Factorielle Discriminante. La confrontation des données avec le modèle SMM a permis d'établir que la forme de la source est allongée dans la direction du faisceau (" = 1:7) et d'extraire l'énergie d'expansion de cette source (0:75, 1:7 et 2:4A MeV pour les énergies incidentes de 32, 40 et 52A MeV, respectivement). La recherche d'un signal de transition de phase a été abordée avec diverses analyses. Celle concernant les capacités calorifiques s'est traduite par la mise en évidence d'un signal expérimental à 32A MeV mais dont l'interprétation reste délicate compte tenu des perturbations apportées par les hypothèses indispensables à la reconstruction des fragments au freeze-out. La méthode des corrélations en charges, qui permet de rechercher des signaux "fossiles" de fragments de taille égale issus de la décomposition spinodale, permet de conclure à une surproduction de fragments de taille égale à 52A MeV. La recherche d'une signature d'un comportement critique montre que, m^eme si les fonctions d'échelle se regroupent en deux familles distinctes, la loi d'échelle n'est pas vérifiée de façon rigoureuse pour le système à 52A MeV, ce qui peut s'interpréter comme une transition d'une phase ordonnée à plus basse énergie vers une phase désordonnée à plus haute énergie. Par ailleurs, l'étude des mécanismes des réactions dans les collisions d'ions lourds aux énergies de Fermi montre la prédominance du caractère binaire de la collision, un processus qui conduit à la formation de deux sources. Récemment, on s'est intéressé aux fragments de fission binaire formés après la première étape des collisions profondément inélastiques, en posant la question sur l'aspect statistique en fonction de l'aspect dynamique de la fission. Afin de comprendre l'origine de production de ces fragments, la corrélation entre les deux plus gros fragments résultant des réactions Ni+C, Mg, Zn et Au a été étudiée. Les distributions angulaires indiquent que les deux plus gros fragments sont alignés dans la direction du quasi-projectile (QP). En étudiant les fonctions de corrélation, nous avons constaté que le QP se brise à proximité de la cible. Ceci suggère que l'intervalle de temps entre la séparation du QP et la quasi-cible et la désintégration du QP est suffisamment court pour que les fragments du QP ressentent le champ coulombien de la cible. La corrélation entre la taille et la vitesse des fragments nous suggère que c'est la déformation du QP engendrée lors de la collision entre la cible et le projectile qui provoque sa cassure binaire. / Studies of multifragmentation in collisions of heavy ions in the Fermi energy domain has been intensified with the development of the techniques to extract the most violent collisions. In first part of this work, we studied central collisions of the Ni+Ni system at 32, 40, 52, 64, 74, 82 and 90A MeV, measured with the INDRA multidetector. We selected central collisions with the Discriminant Analysis Method. The confrontation of experimental data with SMM model shows that the mean shape of the source is elongated along the beam axis (" = 1:7) and makes it possible to extract the expansion energy of the source (0:75, 1:7 and 2:4A MeV at 32, 40 and 52A MeV respectively). We have shown that the fact that we have a source which is not completely equilibrated does not allow to conclude from the existence of a liquid-gas phase transition of nuclear matter using the heat capacities. The method of charge correlations shows an overproduction of events with equal size fragments at 52A MeV. The search for a signature of critical behaviors shows that, even if functions of scale gather in two families distinct, the law of scale is not verified in a rigorous way for the system at 52A MeV, which can be interpreted like a transition from an ordered phase at lower energies towards a disordered phase at higher energies. On the other hand, heavy ion collisions in the Fermi energy domain are known to be dominated by deep inelastic scattering, a process leading to the formation of two partners in the reaction exit channel. Recently, an increasing interest has been devoted to binary fission of fragments at the end of the deep inelastic scattering stage, with the related studies usually addressing the question of the statistical versus dynamical aspects of the fission process. In order to understand the origin of production of these fragments, projectile binary breakup has been investigated in Ni+C, Mg, Zn and Au. The fragment angular distributions exhibit an anisotropic pattern showing that breakup is aligned with the direction of scattered quasi-projectile (QP). The correlation functions of the two heaviest fragments have been studied as a function of charge asymmetry. They suggest that the QP decays while still in close proximity of the target. The correlation between the charge and velocity of the two heavy fragments shows that the binary breakup of the QP might originate from an important deformation of the projectile by the target.
14

Analyse en composantes principales et analyse discriminante fonctionnelles appliquées à des données de prises alimentaires animales

Décarie, Yann January 2011 (has links)
L'analyse de données fonctionnelles est une branche des statistiques modernes en pleine expansion. Cela est imputable aux avancées technologiques qui permettent et facilitent la collecte de large base de données ainsi que leurs représentations sous la forme de courbes ou de surfaces. Ce mémoire se divise en trois parties. La première partie, consiste en la présentation des méthodes utilisées, soit l'analyse en composantes principales et l'analyse discriminante, dans le cadre de l'analyse des données classique. La seconde partie, a comme objectif de définir le cadre théorique permettant l'application de ces deux méthodes à des données fonctionnelles et également de présenter les résultats les plus pertinents à la compréhension des modèles. Enfin, la dernière partie porte sur les résultats de l'application de l'analyse en composantes principales et de l'analyse discriminante fonctionnelles aux données de prises l'alimentaires porcines. Le but de l'application de ces méthodes consiste à déterminer s'il est possible de différencier, seulement à l'aide des données disponibles, les porcs qui ont été malades des autres. Pour ce faire, une série de modèles, qui se distinguent par le choix du critère d'affectation à une classe donnée, ont été utilisés. On présentera les résultats des modèles jugés les plus pertinents permettant d'avoir une proportion de bien classés, supérieure à 85%.
15

Vers de nouvelles approches discriminantes pour la reconnaissance automatique de visages

Visani, Muriel 25 November 2005 (has links) (PDF)
Les travaux effectués dans le cadre de cette thèse portent sur l'identification automatique de visages dans des images numériques. L'objectif est d'assigner à des visages-requêtes une identité parmi celles d'un ensemble de personnes connues. Pour cela, on cherche à extraire, pour chaque visage, un ensemble de descripteurs appelé signature qui lui soit spécifique, puis à définir un schéma de classification des signatures adapté à l'application visée. De nombreuses méthodes ont été proposées dans la littérature. Parmi les plus efficaces, on compte les techniques de projection statistique, dont le but est de fournir, par le biais d'une analyse multidimensionnelle des données, un espace de représentation plus adapté à la classification que l'espace initial des données. Ce travail reprend ce principe et propose de nouvelles techniques d'extraction de signatures basées sur l'Analyse Discriminante Linéaire qui, contrairement à la plupart des approches existantes, prennent en compte la structure bidimensionnelle des images de visages. Les méthodes proposées permettent de pallier les principaux désavantages des techniques usuelles. Elles contournent le problème de la singularité sans nécessiter l'ajout d'aucun paramètre et leur construction est moins coûteuse et instable. Un schéma original de classification des signatures ainsi obtenues, en monde fermé ou ouvert, est également introduit. Les techniques proposées sont évaluées et comparées aux approches usuelles selon des protocoles expérimentaux rigoureux. Les résultats ainsi obtenus montrent leurs très bonnes performances, et notamment une robustesse accrue vis-à-vis de changements de pose ou d'expression faciale et d'occultations partielles.
16

Diagnostic et surveillance des processus complexes par réseaux bayésiens

Verron, Sylvain 13 December 2007 (has links) (PDF)
Cette thèse porte sur la surveillance (détection et diagnostic) des procédés multivariés par réseaux bayésiens. Ceci permet l'unification dans le même outil, un réseau bayésien, de plusieurs méthodes dédiées à la surveillance des procédés, telles que les cartes de contrôles multivariées, l'analyse discriminante ou bien la méthode MYT. Le premier chapitre expose les différents points clés de la surveillance des procédés, en étudiant les diverses approches permettant de réaliser celle-ci. Des méthodes de surveillance supervisées et non-supervisées sont présentées et une étude de différents classifieurs pour la surveillance est effectuée. Le choix d'un classifieur se porte alors sur les réseaux bayésiens. Le second chapitre est l'objet d'une présentation plus approfondie des réseaux bayésiens et des extensions possibles et intéressantes de ce genre d'outil dans le contexte de la surveillance des procédés. Puis, un état de l'art des méthodes de surveillance ou de diagnostic basées sur les réseaux bayésiens est étudié. Le troisième chapitre expose les contributions apportées au domaine de la surveillance des procédés par réseaux bayésiens. Les contributions apportées se répartissent en trois parties : détection, diagnostic supervisé et diagnostic nonsupervisé. En s'appuyant sur ces contributions, la structure complète d'un réseau bayésien dédié à la surveillance des procédés est proposée. Le dernier chapitre présente une application de la méthode proposée sur un exemple classique : le procédé Tennessee Eastman. Les performances du réseau en terme de détection et de diagnostic sont évaluées. Finalement, les conclusions et perspectives de l'approche proposée sont émises.
17

Application de méthodes de classification supervisée et intégration de données hétérogènes pour des données transcriptomiques à haut-débit

Guillemot, Vincent 29 March 2010 (has links) (PDF)
Les méthodes d'apprentissage supervisé sont appliquées depuis récemment à des jeux de données de puces à ADN, afin d'une part d'extraire des gènes impliqués dans les différences entre les classes d'individus étudiés et d'autre part de construire une fonction de classification permettant de prédire la classe d'un nouvel individu. Ces données de puces à ADN peuvent être accompagnées d'une information précieuse décrivant les interactions entre les variables (les gènes). Cette information est regroupée sous la forme de réseaux de régulations génétiques (RRG). L'objectif de la thèse est de réaliser l'intégration de l'information contenue dans ces RRGs dans une méthode de classification supervisée binaire. Nous proposons une nouvelle méthode, graph Constrained Discriminant Analysis (gCDA), basée sur l'analyse discriminante de Fisher. Les méthodes de la littérature se proposent d'implémenter la contrainte suivante : les gènes qui sont voisins dans le RRG doivent avoir des poids proches, voire identiques, dans la fonction de classification. À contrepoint de ces méthodes, gCDA est basée sur l'estimation régularisée des matrices de variance covariance qui sont utilisées dans l'analyse discriminante de Fisher. Les estimateurs utilisés dans gCDA prennent en compte l'information contenue dans les RRGs disponibles a priori grâce aux propriétés des modèles graphiques gaussiens. gCDA est comparée aux méthodes de la littérature sur des données simulées, données pour lesquelles le graphe sous-jacent est parfaitement connu. Dans le cas de données réelles, le graphe sous-jacent décrivant les interactions entre variables n'est pas connu. Nous nous sommes donc également intéressés à des méthodes permettant d'inférer de tels graphes à partir de données transcriptomiques. Enfin, des résultats sont obtenus sur trois jeux de données réelles. Les RRG ont été inférés soit sur des jeux de données de même nature mais indépendants (c'est-à-dire concernant des individus qui ne sont pas utilisés pour en classification), soit sur une partie indépendante du jeu de données étudié. Nous montrons une amélioration notable des performances de classification sur ces jeux de données lorsque gCDA est utilisée par rapport à l'utilisation des méthodes de la littérature décrites dans la deuxième partie.
18

Catégorisation par mesures de dissimilitude et caractérisation d'images en multi échelle

Manolova, Agata 11 October 2011 (has links) (PDF)
Dans cette thèse, on introduit la métrique "Coefficient de forme" pour la classement des données de dissimilitudes. Cette approche est inspirée par l'analyse discriminante géométrique et on a défini des règles de décision pour imiter le comportement du classifieur linéaire et quadratique. Le nombre de paramètres est limité (deux par classe). On a également étendu et amélioré cette démarche avantageuse et rapide pour apprendre uniquement à partir des représentations de dissimilitudes en utilisant l'efficacité du classificateur des Machines à Vecteurs de Support. Comme contexte applicatif pour la classification par dissimilitudes, on utilise la recherche d'images à l'aide d'une représentation des images en multi échelle en utilisant la "Pyramide Réduite Différentielle". Une application pour la description de visages est développée. Des résultats de classification à partir du coefficient de forme et utilisant une version adaptée des Machines à Vecteurs de Support, sur des bases de données issues des applications du monde réel sont présentés et comparés avec d'autres méthodes de classement basées sur des dissimilitudes. Il en ressort une forte robustesse de la méthode proposée avec des perfommances supérieures ou égales aux algorithmes de l'état de l'art.
19

Modélisation de la prévision de défaillance des entreprises par des approches statiques et dynamiques : réseaux de neurones, réseaux bayésiens, modèles de durée et dichotomiques / Modeling of business failure prediction by statistic and dynamic approaches : neural networks, Bayesian networks, duration and dichotomous models

Abid, Ilyes 15 November 2011 (has links)
L'objectif de cette thèse est d’étudier différentes méthodes de prévision de la défaillance d'entreprises aussi bien en statique qu'en dynamique. Plus précisément, dans l'approche statique, nous avons recouru aux méthodes de sélection des variables discriminantes en utilisant les réseaux de neurones. Nous avons ainsi proposé deux nouvelles procédures relevant de ces méthodes.La première, fondée sur le critère HVS, intitulée HVS-AUC, nous a permis i) de construire un modèle plus parcimonieux par rapport à l’ADL ; ii) de dégager un ensemble de variables stables à la fois non conjoncturelles et avec un fort pouvoir explicatif. A l'inverse, la seconde technique est basée sur la procédure forward ou plus exactement sur forward-AUC. Cette méthode fait apparaître des résultats comparables à l'ADL mais avec moins de variables explicatives. Elle permet notamment de détecter les ratios jugés les plus pertinents selon ADL et HVS-AUC.Nous avons de plus utilisé des méthodes d'apprentissage de structure de réseaux bayésiens pour essayer d'améliorer la performance de classification des entreprises. Nous avons mobilisé une technique intitulée "Max-Min Hill-Climbing" ou MMHC. Nous avons analysé les performances de classification d'un algorithme combiné entre MMHC et le modèle de base d'un réseau bayésien naïf (BN). Cette nouvelle méthode a été nommée BN-MMHC (Bayes naïf augmentée par MMHC). Les résultats obtenus confirment néanmoins l'opinion dominante : pour ce qui est du pouvoir discriminant, aucune structure ne semble à même de concurrencer BN de manière significative.Dans la deuxième approche dynamique, nous avons mis plus l'accent sur les facteurs non mesurables a priori et sur des facteurs explicatifs impossibles à appréhender dans un cadre statique. Nous avons mobilisé dans un premier volet les variables macroéconomiques pour mieux estimer le risque de défaut. Dans un second volet, nous avons utilisé une modélisation alternative permettant d'appréhender correctement les chocs que peuvent subir les entreprises au cours du temps. De ce fait, nous avons évalué ainsi l'effet de la propagation de ces chocs. / The objective of this thesis is to study bankruptcy prediction models from both static and dynamic viewpoints. More precisely, in the static approach, we used the methods of selecting discriminating variables using the neural networks. We thus proposed two new procedures relating to these methods. The first one is based on the criterion HVS called HVS-AUC and allowed to 1) build a more parsimonious model compared to the LDA, 2) identify a set of variables both static and non-cyclical with a strong explanatory power. Conversely, the second technique is based on the forward procedure, more precisely on forward-AUC. This method shows results comparable to the LDA but with fewer variables. It allows the detection of ratios considered as the most relevant according to LDA and HVS-AUC. We have also used methods of structure learning of Bayesian networks to improve the performance of classification of firms. We have mobilized a technique called "Max-Min Hill-Climbing" or MMHC. Specifically, we plan to analyze the performance of classification of an algorithm that mixes both MMHC and the canonical model of a naive Bayes network (NB). This new method could be called NB-MMHC (naive Bayes augmented by MMH C). The results confirm the prevailing view: as for the discriminatory power, no structure seems to be able to significantly compete with NB. In the second dynamic approach, we put more emphasis on factors not measurable a priori and also on explanatory factors impossible to capture within a static framework. In the first phase, we used the macroeconomic variables to better estimate the risk of default. In the second part, we used an alternative model to better estimate the shocks that firms could undergo over time. We therefore evaluate the propagation effects of theses shocks
20

Catégorisation par mesures de dissimilitude et caractérisation d'images en multi échelle / Classification by dissilimarity data and Multiresolution Image Analysis

Manolova, Agata 11 October 2011 (has links)
Dans cette thèse, on introduit la métrique "Coefficient de forme" pour la classement des données de dissimilitudes. Cette approche est inspirée par l'analyse discriminante géométrique et on a défini des règles de décision pour imiter le comportement du classifieur linéaire et quadratique. Le nombre de paramètres est limité (deux par classe). On a également étendu et amélioré cette démarche avantageuse et rapide pour apprendre uniquement à partir des représentations de dissimilitudes en utilisant l'efficacité du classificateur des Machines à Vecteurs de Support. Comme contexte applicatif pour la classification par dissimilitudes, on utilise la recherche d'images à l'aide d'une représentation des images en multi échelle en utilisant la "Pyramide Réduite Différentielle". Une application pour la description de visages est développée. Des résultats de classification à partir du coefficient de forme et utilisant une version adaptée des Machines à Vecteurs de Support, sur des bases de données issues des applications du monde réel sont présentés et comparés avec d'autres méthodes de classement basées sur des dissimilitudes. Il en ressort une forte robustesse de la méthode proposée avec des perfommances supérieures ou égales aux algorithmes de l'état de l'art. / The dissimilarity representation is an alternative for the use of features in the recognition of real world objects like images, spectra and time-signal. Instead of an absolute characterization of objects by a set of features, the expert or the system is asked to define a measure that estimates the dissimilarity between pairs of objects. Such a measure may also be defined for structural representations such as strings and graphs. The dissimilarity representation is potentially able to bridge structural and statistical pattern recognition. In this thesis we introduce a new fast Mahalanobis-like metric the “Shape Coefficient” for classification of dissimilarity data. Our approach is inspired by the Geometrical Discriminant Analysis and we have defined decision rules to mimic the behavior of the linear and quadratic classifier. The number of parameters is limited (two per class). We also expand and ameliorate this advantageous and rapid adaptive approach to learn only from dissimilarity representations by using the effectiveness of the Support Vector Machines classifier for real-world classification tasks. Several methods for incorporating dissimilarity representations are presented, investigated and compared to the “Shape Coefficient” in this thesis: • Pekalska and Duin prototype dissimilarity based classifiers; • Haasdonk's kernel based SVM classifier; • KNN classifier. Numerical experiments on artificial and real data show interesting behavior compared to Support Vector Machines and to KNN classifier: (a) lower or equivalent error rate, (b) equivalent CPU time, (c) more robustness with sparse dissimilarity data. The experimental results on real world dissimilarity databases show that the “Shape Coefficient” can be an alternative approach to these known methods and can be as effective as them in terms of accuracy for classification.

Page generated in 0.1434 seconds