Spelling suggestions: "subject:"modèles dde prédiction"" "subject:"modèles dee prédiction""
1 |
Prédiction du % FCmax lors d'efforts à intensité constanteGuinoubi, Chamseddine January 2005 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
|
2 |
Classement pour la résistance mécanique du chêne par méthodes vibratoires et par mesure des orientations des fibres / Mechanical grading of oak wood using vibrational and grain angle measurementsFaydi, Younes 11 December 2017 (has links)
En France, les feuillus constituent la part majoritaire du parc forestier, dont, notamment, le chêne de qualité secondaire. Ce dernier pourrait devenir une alternative à d’autres matériaux de construction. Cependant, en fonction des singularités relatives à chaque sciage, les performances mécaniques peuvent varier considérablement. Il est donc nécessaire de trier les sciages adaptés pour une application en structure. L’efficience des méthodes de classement du chêne apparaît comme une des problématiques majeures. Ce projet de recherche a pour but de développer des méthodes et moyens de mesure capables de classer convenablement le chêne de qualité secondaire et palier au classement visuel par un opérateur. Ce dernier sous-estime fortement les qualités du chêne mais reste fréquemment employé par les industriels faute d’alternative. Au cours de cette thèse, deux modèles de prédiction des propriétés mécaniques ont été développés pour classer par machine le chêne de qualité secondaire. Ces modèles se basent sur une large campagne expérimentale de contrôle non destructif, avec validation par essais destructifs. Le premier modèle est analytique, exploitant les cartographies d’orientation des fibres des sciages pour déterminer localement les résistances et modules élastiques, et en déduire les propriétés globales. Le second modèle est statistique, basé sur l’analyse des signaux vibratoires sous sollicitation longitudinale ou transversale. Les résultats obtenus montrent que la méthode vibratoire longitudinale, employée couramment en industrie dans le cas des résineux, n’est pas adaptée pour classer convenablement le chêne de qualité secondaire. A l’inverse, la méthode vibratoire transversale sur chant permet d’obtenir des rendements de classement pertinents mais nécessite des efforts de développement pour être industrialisée. Le modèle basé sur la mesure de l’orientation des fibres offre les meilleurs rendements et des résultats stables sur l’ensemble des classes étudiées. / Hardwoods are the majority in France, with a substantial amount of small, low grade oaks. This resource could be an alternative of typical construction materials. However, mechanical properties can change a lot depending on timber defects. Thus, it is necessary to verify the good quality of each board in order it can be used in structural applications. The efficiency of grading methods is one of principal challenges to promote the use of oak in structures. The present work aims to provide new grading machine solutions relative to low grade oak which could replace the traditional and downgrading method based on visual sorting by an operator.Indeed, two models have been developed during this thesis, based on nondestructive measurements following by destructive tests to validate them. The first one is an analytical model based on grain angle scanning measurements. From grain angle data maps, local values of modulus of elasticity and resistance were computed, then the global mechanical properties were computed. The second one is a statistical model based on the analysis of longitudinal and transversal vibrational measurements. The results show that the longitudinal vibrational method based on the first longitudinal eigen frequency, which is mostly employed in softwood industry, is not suited for oak grading. However, the efficiency of the methods based on transversal vibrations is pretty good but it needs additional efforts for industrial application. In this work, the model based on grain angle scanning offer the best and the more robust grading efficiency for all grades.
|
3 |
Analyse des données accélérométriques pour la caractérisation de l'aléa sismique en France métropolitaineDrouet, Stéphane 09 May 2006 (has links) (PDF)
Ce travail est consacré à l'étude des données accélérométriques de la france métropolitaine, issues du Réseau Accélérométrique Permanent (RAP), en cours d'installation depuis 1996, pour caractériser l'aléa sismique. Il existe de nombreux modèles empiriques de prédiction des mouvements forts valables pour les régions sismiquement très actives (USA, Japon...), mais leur utilisation dans le contexte français nécessite la ré-évaluation de paramètres tels que les magnitudes et les conditions de site.<br /><br />Dans un premier temps, l'analyse des données de séismes modérés a permis d'établir une échelle homogène de magnitudes issues du moment sismique. Par ailleurs, les réponses de site des stations du réseau RAP ont été calculées pour les Pyrénées, les Alpes et le fossé Rhénan. Enfin, les phénomènes d'atténuation au niveau de la France semblent présenter des variations régionales. En se basant sur les résultats précédents, l'applicabilité de certains modèles empiriques de mouvements forts a été démontrée, à partir des séismes les plus importants enregistés par le RAP
|
4 |
Pilotage conjoint, à partir des pratiques d'élevage, des caractéristiques de la carcasse et de la viande de bovins / From rearing practices, simultaneously management the cattle carcass and beef meat traitsSoulat, Julien 19 January 2017 (has links)
Les systèmes d’élevage allaitants peuvent être diversifiés par leurs pratiques d’élevage (type d’animaux, races, nature des rations, durées de pâturage, etc.) pour produire des carcasses et de la viande répondant à la demande des différents marchés et satisfaire les consommateurs. Les pratiques d’élevage sont définies comme étant la combinaison de plusieurs facteurs d’élevage ayant une variabilité propre. Cette diversité de pratiques d’élevage appliquées tout au long de la vie de l’animal est l’une des causes de la variabilité observée au niveau des caractéristiques de la carcasse et de la viande. L’objectif de ce travail a été d’étudier plus précisément l’influence des pratiques d’élevage sur les caractéristiques de la carcasse et de la viande, et d’envisager un pilotage conjoint de ces caractéristiques à partir des pratiques d’élevage. Pour réaliser cela, deux sources de données complémentaires ont été utilisées : les bases de données expérimentales et les enquêtes en élevage. Ce travail a montré qu’il était possible d’expliquer et de prédire les caractéristiques de la carcasse (poids, rendement, conformation et état d’engraissement) et les propriétés de la viande (descripteurs sensoriels et force de cisaillement) à partir de la combinaison de plusieurs facteurs d’élevage. Il a été également montré que différentes pratiques d’élevage permettaient d’atteindre des caractéristiques similaires de carcasse ou de viande mais que celles-ci devaient être adaptées selon le type de l’animal ou de la race. En effet, lors de la prédiction des caractéristiques de la carcasse ou de la viande, des facteurs d’élevage peuvent être spécifiques à un type de l’animal (jeunes bovins vs vaches de réforme) ou d’un type de race (viande vs rustique) et un même facteur d’élevage peut également avoir des effets différents selon le type de l’animal ou la race considéré. Les modèles établis à partir de la période de finition sont robustes mais ils sont plus précis pour prédire les paramètres individuels caractérisant la carcasse par rapport à ceux de la viande. La qualité de prédiction des propriétés de la viande a été améliorée en prédisant des classes de qualité. De plus, que ce soit pour les propriétés de la carcasse ou de la viande, la qualité de prédiction des classes de qualité a été améliorée en considérant la période de pré-sevrage en plus de la période de finition. En revanche, les facteurs d’élevage ne permettent pas une prédiction satisfaisante de l’abondance des biomarqueurs de la tendreté ou de l’adiposité. Enfin, l’ensemble des résultats de ce travail a montré que, bien que cela nécessite des compromis, il est possible de piloter conjointement les caractéristiques de la carcasse et de la viande. / The beef rearing system could be diversified by their rearing practices (animal categories, breeds, diet composition, grazing duration, etc.) to produce carcasses and beef meat reaching the different market expectations and to satisfy the consumers. The rearing practices were defined as the combinations of many rearing factors, each with its own variability. This diversity of applied rearing practices during the whole life of the animal was one of the causes of the carcass and beef variability observed. The aim of this work was to more precisely study the rearing practices impacts on the carcass and the beef characteristics, and to consider a joint management of these characteristics from the rearing practices. To achieve this, two complementary data sources were used: experimental data set and rearing surveys. This work displayed that it was possible to explain and to predict the carcass characteristics (weight, dressing, conformation and fat scores) and the meat properties (sensorial descriptors and shear force) from the combination of many rearing factors. It was also observed that different rearing practices allowed to reach similar carcass or meat characteristics but those must be adapted according to the animal category and the breed. Indeed, for the prediction of the carcass or meat characteristics, rearing factors can be specific to an animal category (young bulls vs cull cows) or a breed type (beef vs hardy), and a same rearing factor may also had different impacts according to the animal category or the breed considered. The established models from the fattening period were robust but prediction was more precise for individual parameters characterizing the carcass compared to those of the meat. The clustering of meat quality improved the prediction quality of the meat properties. Furthermore, for the carcass or the meat properties, by considering the pre-weaning period in addition to the fattening period the prediction quality of the quality clusters was improved. However, the rearing factors did not allowed a satisfactory prediction of the tenderness or adiposity biomarkers abundances. Finally, all results of this work displayed, although it requires trade-off, it was possible to jointly manage the carcass and meat characteristics.
|
5 |
Évaluation de la qualité des documents anciens numérisésRabeux, Vincent 06 March 2013 (has links) (PDF)
Les travaux de recherche présentés dans ce manuscrit décrivent plusieurs apports au thème de l'évaluation de la qualité d'images de documents numérisés. Pour cela nous proposons de nouveaux descripteurs permettant de quantifier les dégradations les plus couramment rencontrées sur les images de documents numérisés. Nous proposons également une méthodologie s'appuyant sur le calcul de ces descripteurs et permettant de prédire les performances d'algorithmes de traitement et d'analyse d'images de documents. Les descripteurs sont définis en analysant l'influence des dégradations sur les performances de différents algorithmes, puis utilisés pour créer des modèles de prédiction à l'aide de régresseurs statistiques. La pertinence, des descripteurs proposés et de la méthodologie de prédiction, est validée de plusieurs façons. Premièrement, par la prédiction des performances de onze algorithmes de binarisation. Deuxièmement par la création d'un processus automatique de sélection de l'algorithme de binarisation le plus performant pour chaque image. Puis pour finir, par la prédiction des performances de deux OCRs en fonction de l'importance du défaut de transparence (diffusion de l'encre du recto sur le verso d'un document). Ce travail sur la prédiction des performances d'algorithmes est aussi l'occasion d'aborder les problèmes scientifiques liés à la création de vérités-terrains et d'évaluation de performances.
|
6 |
Définition des mouvements sismiques "au rocher"LAURENDEAU, Aurore 16 July 2013 (has links) (PDF)
L'objectif de cette thèse vise à améliorer la définition des vibrations (" mouvement sismique ") sur des sites " durs " (sédiments raides ou rochers) liés à des scénarios (séismes de magnitude entre 5 et 6.5, distances inférieures à 50 kilomètres) représentatifs du contexte métropolitain français. Afin de contraindre ces mouvements sismiques sur sites " durs ", une base de données accélérométriques a été construite, à partir des enregistrements accélérométriques japonais K-NET et KiK-net qui ont l'avantage d'être publiques, nombreux et de grande qualité. Un modèle de prédiction des mouvements sismiques (spectre de réponse en accélération) a été conçu à partir de cette nouvelle base. La comparaison entre modèles théoriques et observations montre la dépendance des vibrations sur sites rocheux à la fois aux caractéristiques de vitesse du site (paramètre classique décrivant la vitesse des ondes S dans les 30 derniers mètres) et aux mécanismes d'atténuation hautes fréquences (un phénomène très peu étudié jusque-là). Ces résultats confirment une corrélation entre ces deux mécanismes (les sites rocheux les plus mous atténuent plus le mouvement sismique à hautes fréquences) et nous proposons un modèle de prédiction du mouvement sismique prenant en compte l'ensemble des propriétés du site (atténuation et vitesse). Les méthodes nouvelles de dimensionnement dynamiques non linéaires (à la fois géotechniques et structurelles) ne se satisfont pas des spectres de réponse mais requièrent des traces temporelles. Dans le but de générer de telles traces temporelles, la méthode stochastique non stationnaire développée antérieurement par Pousse et al. 2006 a été revisitée. Cette méthode semi-empirique nécessite de définir au préalable les distributions des indicateurs clés du mouvement sismique. Nous avons ainsi développé des modèles de prédiction empiriques pour la durée de phase forte, l'intensité d'Arias et la fréquence centrale, paramètre décrivant la variation du contenu fréquentiel au cours du temps. Les nouveaux développements de la méthode stochastique permettent de reproduire des traces temporelles sur une large bande de fréquences (0.1-50 Hz), de reproduire la non stationnarité en temps et en fréquence et la variabilité naturelle des vibrations sismiques. Cette méthode présente l'avantage d'être simple, rapide d'exécution et de considérer les bases théoriques de la sismologie (source de Brune, une enveloppe temporelle réaliste, non stationnarité et variabilité du mouvement sismique). Dans les études de génie parasismique, un nombre réduit de traces temporelles est sélectionné, et nous analysons dans une dernière partie l'impact de cette sélection sur la conservation de la variabilité naturelle des mouvements sismiques.
|
7 |
Gestion autonomique de la QoS au niveau middleware dans l'IoT / Automatic QoS management at the middleware level in IoTBanouar, Yassine 21 September 2017 (has links)
L'Internet connaît à nouveau une expansion drastique. En plus des terminaux classiques, il permet aujourd'hui d'interconnecter toute sorte d'objets connectés permettant la capture d'événements depuis l'environnement considéré, mais également le contrôle à distance de cet environnement. Plusieurs milliards de ces objets sont ainsi amenés à l'horizon 2020 à contribuer à l'avènement de l'Internet des Objets (IoT). Ce paradigme, qui étend le concept de Machine-to-Machine (M2M), ouvre la voie à de nouveaux usages tels que la domotique, la télésurveillance, ou encore les usines du futur. Plusieurs architectures ont été proposées pour structurer l'IoT. Leur fondement est basé sur une vision en quatre niveaux : le niveau Équipement, qui comporte les objets connectés, le niveau Réseau contenant les différentes technologies nécessaires aux échanges, le niveau Intergiciel (ou Middleware) qui offre aux applications une couche d'abstraction des niveaux sous-jacents, et enfin le niveau Application qui consiste en l'ensemble des applications concourant, via leurs interactions avec les objets connectés, à la réalisation d'une activité métier. Nos travaux se positionnent au niveau Middleware sur la base de l'architecture définie dans le cadre des standards SmartM2M puis oneM2M. Plusieurs problématiques sont amenées à être (re)-posées dans ce contexte. Nous nous intéressons essentiellement à celle de la qualité de service (QoS - Quality of Service) exprimée par certaines applications métiers. Les solutions proposées en réponse à cette problématique concernent principalement le niveau Réseau. Au niveau Middleware, les standards se focalisent essentiellement sur la proposition d'architectures et de services fonctionnels. Les besoins non fonctionnels, typiquement orientés QoS, ne sont que peu ou pas considérés. Parallèlement, les solutions propriétaires ne considèrent pas l'évolution dynamique du contexte et des besoins. Face à ces limites, nous proposons une approche de gestion dynamique, i.e. durant l'exécution du système, et autonome induisant un minimum d'intervention humaine. La gestion proposée, guidée par des modèles, porte sur des actions de reconfiguration comportementales et structurelles touchant au trafic applicatif et/ou sur les ressources de niveau Middleware / The Internet is experiencing a drastic expansion again. In addition to conventional terminals, it now allows to interconnect all kinds of connected objects allowing the capture of events from the considered environment, but also the remote control of this environment. Billions of these objects are thus led in 2020 to contribute to the advent of the Internet of Things (IoT). This paradigm, which extends the Machine-to-Machine (M2M) concept, paves the way for new uses such as home automation, remote monitoring, or even the factories of the future. Several architectures have been proposed to structure the IoT. Their foundation is based on a vision in four levels: (1) Equipment level, which includes the IoT equipment, (2) Network level containing the various technologies for data exchanges, (3) Middleware level, which offers applications an abstraction layer for underlying levels, and finally, (4) Application level, which consists of the set of applications contributing, via their interactions with the connected objects, to the realization of a business activity. Our work is positioned at Middleware level and is based on the architecture defined in the SmartM2M and then oneM2M standards. Several challenges have to be (re)considered in this context. We are mainly interested in the Quality of Service (QoS) issue expressed by some business applications. Proposals addressing this issue essentially target the Network level. For the Middleware level, standards focus mainly on the proposal of architectures and functional services. The non-functional requirements, typically QoS, are little or not considered. Meanwhile, proprietary solutions do not consider the dynamic evolution of the context and requirements. In response to these limitations, we propose a dynamic management approach, i.e. during the execution of the system, and autonomous, i.e. without human intervention. The proposed management, guided by models, focuses on behavioural and structural reconfiguration actions related to application traffic and/or Middleware resources.
|
8 |
Définition des mouvements sismiques "au rocher / Definition of "rock" motionLaurendeau, Aurore 16 July 2013 (has links)
L'objectif de cette thèse vise à améliorer la définition des vibrations (« mouvement sismique ») sur des sites « durs » (sédiments raides ou rochers) liés à des scénarios (séismes de magnitude entre 5 et 6.5, distances inférieures à 50 kilomètres) représentatifs du contexte métropolitain français. Afin de contraindre ces mouvements sismiques sur sites « durs », une base de données accélérométriques a été construite, à partir des enregistrements accélérométriques japonais K-NET et KiK-net qui ont l'avantage d'être publiques, nombreux et de grande qualité. Un modèle de prédiction des mouvements sismiques (spectre de réponse en accélération) a été conçu à partir de cette nouvelle base. La comparaison entre modèles théoriques et observations montre la dépendance des vibrations sur sites rocheux à la fois aux caractéristiques de vitesse du site (paramètre classique décrivant la vitesse des ondes S dans les 30 derniers mètres) et aux mécanismes d'atténuation hautes fréquences (un phénomène très peu étudié jusque-là). Ces résultats confirment une corrélation entre ces deux mécanismes (les sites rocheux les plus mous atténuent plus le mouvement sismique à hautes fréquences) et nous proposons un modèle de prédiction du mouvement sismique prenant en compte l'ensemble des propriétés du site (atténuation et vitesse). Les méthodes nouvelles de dimensionnement dynamiques non linéaires (à la fois géotechniques et structurelles) ne se satisfont pas des spectres de réponse mais requièrent des traces temporelles. Dans le but de générer de telles traces temporelles, la méthode stochastique non stationnaire développée antérieurement par Pousse et al. 2006 a été revisitée. Cette méthode semi-empirique nécessite de définir au préalable les distributions des indicateurs clés du mouvement sismique. Nous avons ainsi développé des modèles de prédiction empiriques pour la durée de phase forte, l'intensité d'Arias et la fréquence centrale, paramètre décrivant la variation du contenu fréquentiel au cours du temps. Les nouveaux développements de la méthode stochastique permettent de reproduire des traces temporelles sur une large bande de fréquences (0.1-50 Hz), de reproduire la non stationnarité en temps et en fréquence et la variabilité naturelle des vibrations sismiques. Cette méthode présente l'avantage d'être simple, rapide d'exécution et de considérer les bases théoriques de la sismologie (source de Brune, une enveloppe temporelle réaliste, non stationnarité et variabilité du mouvement sismique). Dans les études de génie parasismique, un nombre réduit de traces temporelles est sélectionné, et nous analysons dans une dernière partie l'impact de cette sélection sur la conservation de la variabilité naturelle des mouvements sismiques. / The aim of this thesis is to improve the definition of vibrations ("seismic motion") on "hard" sites (hard soils or rocks) related to scenarios (earthquakes of magnitude between 5 and 6.5, distances less than 50 km) representative of the French metropolitan context.In order to constrain the seismic motions on "hard" sites, an accelerometric database was built, from the K-NET and KiK-net Japanese recordings which have the benefit of being public, numerous and high quality. A ground motion prediction equation for the acceleration response spectra was developed from this new database. The comparison between theoretical models and observations shows the dependence of vibration on rock sites in both the velocity characteristics of the site (classical parameter describing the S-wave velocity in the last 30 meters) and the high frequency attenuation mechanisms (a phenomenon little studied up to now). These results confirm a correlation between these two mechanisms (the high frequency seismic motion is more attenuated in the case of softer rock sites) and we propose a ground motion prediction equation taking into account all the properties of the site (attenuation and velocity).New methods of nonlinear dynamic analysis (both geotechnical and structural) are not satisfied with the response spectra but require time histories. To generate such time histories, the non-stationary stochastic method previously developed by Pousse et al. (2006) has been revisited. This semi-empirical method requires first to define the distributions of key indicators of seismic motion. We have developed empirical models for predicting the duration, the Arias intensity and the central frequency, parameter describing the frequency content variation over time. New developments of the stochastic method allow to reproduce time histories over a wide frequency band (0.1-50 Hz), to reproduce the non-stationarity in time and frequency and to reproduce the natural variability of seismic vibrations. This method has the advantage of being simple, fast and taking into account basic concepts of seismology (Brune's source, a realistic envelope function, non-stationarity and variability of seismic motion). In earthquake engineering studies, a small number of time histories is selected, and we analyze in the last part the impact of this selection on the conservation of the ground motion natural variability.
|
9 |
Rôle des symptômes neuropsychiatriques dans le déclin cognitif dû à la maladie d’Alzheimer : associations structurelles cérébrales et neuropsychologiquesRonat, Lucas 05 1900 (has links)
Les symptômes neuropsychiatriques (SNP), des perturbations comportementales et psychologiques, surviennent fréquemment dans la démence de la maladie d’Alzheimer. En plus d’être un facteur de risque d’institutionnalisation précoce et de constituer une charge pour les aidants, ils peuvent aussi être associés à un déclin cognitif accéléré ou à des troubles cognitifs plus importants lorsqu’ils surviennent dans les stades pré-démentiels des maladies (avant ou pendant le trouble cognitif léger). Considérant la diversité des résultats d’études antérieures, la relation entre ces SNP, le déclin cognitif et la survenue/évolution des maladies neurodégénératives est encore pleine de mystères. En effet, il a pu être mis en évidence que la dépression, l’apathie, ou encore l’anxiété étaient des facteurs de risques de conversion en maladie d’Alzheimer, ou de déclin cognitif accéléré chez des individus ayant un trouble cognitif léger ou une cognition normale. Ils ont aussi pu être associés à des changements des structures ou du métabolisme cérébraux, limbiques et associatifs. Cependant, le rôle et la position exacte des SNP dans le décours temporel des maladies restent incertains : conséquences de la neurodégénérescence ? Conséquence psychologique de la survenue de troubles cognitifs ? Cause de troubles cognitifs par réorientation des ressources exécutives et comportementales ? Stade prodromal des maladies ? Conséquence d’une structure de personnalité antérieure ?
Ce travail propose d’aborder différentes problématiques de recherches liées aux SNP, notamment leurs associations cognitives en fonction de facteurs démographiques, psychologiques ou psychiatriques dans différents stades de déclins cognitifs ; leurs associations neurostructurelles ou métaboliques cérébrales, en devis transversal, rétrospectif ou longitudinal. L’objectif étant de conforter certaines données de la littérature sur l’impact des SNP sur les performances cognitives et leur évolution dans le vieillissement normal et pathologique, et comprendre l’apport de certaines analyses prédictives et de facteurs de risques afin d’en dégager des pistes d’applications cliniques dans une visée d’anticipation du déclin cognitif.
Pour cela, différentes bases de données sont traitées afin d’extraire différents types de variables d’intérêt (démographiques, neuropsychiatriques, neuropsychologiques, neuroimagerie, statuts génétiques et diagnostiques, facteurs psychologiques…). Au total, c’est près de 5000 participants qui ont été extraits et analysés au travers des différentes bases de données.
Les principaux résultats ont permis de montrer : 1) des associations SNP/performances cognitives différentes entre les femmes et les hommes ; 2) des relations neurostructurelles différentes entre les SNP et les différents stades de déclin cognitif de la maladie d’Alzheimer ; 3) le rôle prédictif des SNP dans la conversion du trouble cognitif léger en maladie d’Alzheimer expliqué par l’altération des habiletés fonctionnelles des individus ; 4) des implications de traits de personnalité dans le déclin cognitif et cérébral chez des individus développant ou non démence de type Alzheimer.
Ces données consolident les résultats de la littérature et soutiennent l’utilité de certains modèles statistiques et de prédictions dans l’établissement des facteurs de risques de déclin et l’estimation de l’importance du déclin basé sur ces facteurs, à la fois chez des individus cognitivement sains, et des individus à risque de développer une démence. / Neuropsychiatric symptoms (NPS), behavioral and psychological disturbances, occur frequently
in Alzheimer's dementia. In addition to being a risk factor for early institutionalization and a
burden to caregivers, they may also be associated with accelerated cognitive decline or greater
cognitive impairment when they occur in the pre-dementia stages of the diseases (before or
during mild cognitive impairment). Considering the diversity of results of previous studies, the
relationship between these NPS, cognitive decline and the occurrence/evolution of
neurodegenerative diseases is still full of mysteries. Indeed, it has been shown that depression,
apathy, or anxiety were risk factors for conversion to Alzheimer's disease, or for accelerated
cognitive decline in individuals with mild cognitive impairment or normal cognition. They could
also be associated with changes in brain, limbic and associative structures or metabolism.
However, the exact role and position of NPS in the temporal course of diseases remains uncertain:
consequences of neurodegeneration? Psychological consequence of the onset of cognitive
disorders? Cause of cognitive disorders by redirection of executive and behavioral resources?
Prodromal stage of diseases ? Consequence of a previous personality structure?
This work proposes to address different research issues related to NPS, in particular their
cognitive associations according to demographic, psychological or psychiatric factors in different
stages of cognitive decline; their neurostructural or cerebral metabolic associations, in crosssectional, retrospective or longitudinal specifications. The objective is to confirm certain data in
the literature on the impact of NPS on cognitive performance and its evolution in normal and
pathological aging, and to understand the contribution of certain predictive analyses and risk
factors in order to identify avenues of clinical application with a view to anticipating cognitive
decline.
For this purpose, different databases are processed in order to extract different types of variables
of interest (demographic, neuropsychiatric, neuropsychological, neuroimaging, genetic and
diagnostic status, psychological factors...). In total, nearly 5000 participants were extracted and
analyzed through the different databases. The main results showed: 1) different NPS/cognitive performance associations between women
and men; 2) different neurostructural relationships between NPS and different stages of cognitive
decline in Alzheimer's disease; 3) the predictive role of NPS in the conversion of mild cognitive
impairment to Alzheimer's disease explained by the alteration of individuals' functional abilities;
4) implications of personality traits in cognitive and brain decline in individuals developing or not
dementia of the Alzheimer’s type.
These data consolidate the findings of the literature and support the utility of certain statistical
and predictive models in establishing risk factors for decline and estimating the magnitude of
decline based on these factors, both in cognitively healthy individuals, and individuals at risk of
developing dementia.
|
10 |
Évaluation de la qualité des documents anciens numérisésRabeux, Vincent 06 March 2013 (has links)
Les travaux de recherche présentés dans ce manuscrit décrivent plusieurs apports au thème de l’évaluation de la qualité d’images de documents numérisés. Pour cela nous proposons de nouveaux descripteurs permettant de quantifier les dégradations les plus couramment rencontrées sur les images de documents numérisés. Nous proposons également une méthodologie s’appuyant sur le calcul de ces descripteurs et permettant de prédire les performances d’algorithmes de traitement et d’analyse d’images de documents. Les descripteurs sont définis en analysant l’influence des dégradations sur les performances de différents algorithmes, puis utilisés pour créer des modèles de prédiction à l’aide de régresseurs statistiques. La pertinence, des descripteurs proposés et de la méthodologie de prédiction, est validée de plusieurs façons. Premièrement, par la prédiction des performances de onze algorithmes de binarisation. Deuxièmement par la création d’un processus automatique de sélection de l’algorithme de binarisation le plus performant pour chaque image. Puis pour finir, par la prédiction des performances de deux OCRs en fonction de l’importance du défaut de transparence (diffusion de l’encre du recto sur le verso d’un document). Ce travail sur la prédiction des performances d’algorithmes est aussi l’occasion d’aborder les problèmes scientifiques liés à la création de vérités-terrains et d’évaluation de performances. / This PhD. thesis deals with quality evaluation of digitized document images. In order to measure the quality of a document image, we propose to create new features dedicated to the characterization of most commons degradations. We also propose to use these features to create prediction models able to predict the performances of different types of document analysis algorithms. The features are defined by analyzing the impact of a specific degradation on the results of an algorithm and then used to create statistical regressors.The relevance of the proposed features and predictions models, is analyzed in several experimentations. The first one aims to predict the performance of different binarization methods. The second experiment aims to create an automatic procedure able to select the best binarization method for each image. At last, the third experiment aims to create a prediction model for two commonly used OCRs. This work on performance prediction algorithms is also an opportunity to discuss the scientific problems of creating ground-truth for performance evaluation.
|
Page generated in 0.1036 seconds