• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 305
  • 96
  • 41
  • 24
  • 17
  • 11
  • 9
  • 6
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • Tagged with
  • 614
  • 318
  • 204
  • 170
  • 140
  • 115
  • 102
  • 101
  • 88
  • 77
  • 65
  • 56
  • 55
  • 55
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
481

Deep Learning in the Web Browser for Wind Speed Forecasting using TensorFlow.js / Djupinlärning i Webbläsaren för Vindhastighetsprognoser med TensorFlow.js

Moazez Gharebagh, Sara January 2023 (has links)
Deep Learning is a powerful and rapidly advancing technology that has shown promising results within the field of weather forecasting. Implementing and using deep learning models can however be challenging due to their complexity. One approach to potentially overcome the challenges with deep learning is to run deep learning models directly in the web browser. This approach introduces several advantages, including accessibility, data privacy, and the ability to access device sensors. The ability to run deep learning models on the web browser thus opens new possibilities for research and development in areas such as weather forecasting. In this thesis, two deep learning models that run in the web browser are implemented using JavaScript and TensorFlow.js to predict wind speed in the near future. Specifically, the application of Long Short-Term Memory and Gated Recurrent Units models are investigated. The results demonstrate that both the Long Short-Term Memory and Gated Recurrent Units models achieve similar performance and are able to generate predictions that closely align with the expected patterns when the variations in the data are less significant. The best performing Long Short-Term Memory model achieved a mean squared error of 0.432, a root mean squared error of 0.657 and a mean average error of 0.459. The best performing Gated Recurrent Units model achieved a mean squared error of 0.435, a root mean squared error of 0.660 and a mean average error of 0.461. / Djupinlärning är en kraftfull teknik som genomgår snabb utveckling och har uppnått lovande resultat inom väderprognoser. Att implementera och använda djupinlärningsmodeller kan dock vara utmanande på grund av deras komplexitet. Ett möjligt sätt att möta utmaningarna med djupinlärning är att köra djupinlärningsmodeller direkt i webbläsaren. Detta sätt medför flera fördelar, inklusive tillgänglighet, dataintegritet och möjligheten att använda enhetens egna sensorer. Att kunna köra djupinlärningsmodeller i webbläsaren bidrar därför med möjligheter för forskning och utveckling inom områden såsom väderprognoser. I denna studie implementeras två djupinlärningsmodeller med JavaScript och TensorFlow.js som körs i webbläsaren för att prediktera vindhastighet i en nära framtid. Specifikt undersöks tillämpningen av modellerna Long Short-Term Memory och Gated Recurrent Units. Resultaten visar att både Long Short-Term Memory och Gated Recurrent Units modellerna presterar lika bra och kan generera prediktioner som är nära förväntade mönster när variationen i datat är mindre signifikant. Den Long Short-Term Memory modell som presterade bäst uppnådde en mean squared error på 0.432, en root mean squared error på 0.657 och en mean average error på 0.459. Den Gated Recurrent Units modell som presterade bäst uppnådde en mean squared error på 0.435, en root mean squared error på 0.660 och en mean average error på 0.461.
482

MahlerNet : Unbounded Orchestral Music with Neural Networks / Orkestermusik utan begränsning med neurala nätverk

Lousseief, Elias January 2019 (has links)
Modelling music with mathematical and statistical methods in general, and with neural networks in particular, has a long history and has been well explored in the last decades. Exactly when the first attempt at strictly systematic music took place is hard to say; some would say in the days of Mozart, others would say even earlier, but it is safe to say that the field of algorithmic composition has a long history. Even though composers have always had structure and rules as part of the writing process, implicitly or explicitly, following rules at a stricter level was well investigated in the middle of the 20th century at which point also the first music writing computer program based on mathematics was implemented. This work in computer science focuses on the history of musical composition with computers, also known as algorithmic composition, using machine learning and neural networks and consists of two parts: a literature survey covering in-depth the last decades in the field from which is drawn inspiration and experience to construct MahlerNet, a neural network based on the previous architectures MusicVAE, BALSTM, PerformanceRNN and BachProp, capable of modelling polyphonic symbolic music with up to 23 instruments. MahlerNet is a new architecture that uses a custom preprocessor with musical heuristics to normalize and filter the input and output files in MIDI format into a data representation that it uses for processing. MahlerNet, and its preprocessor, was written altogether for this project and produces music that clearly shows musical characteristics reminiscent of the data it was trained on, with some long-term structure, albeit not in the form of motives and themes. / Matematik och statistik i allmänhet, och maskininlärning och neurala nätverk i synnerhet, har sedan långt tillbaka använts för att modellera musik med en utveckling som kulminerat under de senaste decennierna. Exakt vid vilken historisk tidpunkt som musikalisk komposition för första gången tillämpades med strikt systematiska regler är svårt att säga; vissa skulle hävda att det skedde under Mozarts dagar, andra att det skedde redan långt tidigare. Oavsett vilket, innebär det att systematisk komposition är en företeelse med lång historia. Även om kompositörer i alla tider följt strukturer och regler, medvetet eller ej, som en del av kompositionsprocessen började man under 1900-talets mitt att göra detta i högre utsträckning och det var också då som de första programmen för musikalisk komposition, baserade på matematik, kom till. Den här uppsatsen i datateknik behandlar hur musik historiskt har komponerats med hjälp av datorer, ett område som också är känt som algoritmisk komposition. Uppsatsens fokus ligger på användning av maskininlärning och neurala nätverk och består av två delar: en litteraturstudie som i hög detalj behandlar utvecklingen under de senaste decennierna från vilken tas inspiration och erfarenheter för att konstruera MahlerNet, ett neuralt nätverk baserat på de tidigare modellerna MusicVAE, BALSTM, PerformanceRNN och BachProp. MahlerNet kan modellera polyfon musik med upp till 23 instrument och är en ny arkitektur som kommer tillsammans med en egen preprocessor som använder heuristiker från musikteori för att normalisera och filtrera data i MIDI-format till en intern representation. MahlerNet, och dess preprocessor, är helt och hållet implementerade för detta arbete och kan komponera musik som tydligt uppvisar egenskaper från den musik som nätverket tränats på. En viss kontinuitet finns i den skapade musiken även om det inte är i form av konkreta teman och motiv.
483

Dynamic Student Embeddings for a Stable Time Dimension in Knowledge Tracing

Tump, Clara January 2020 (has links)
Knowledge tracing is concerned with tracking a student’s knowledge as she/he engages with exercises in an (online) learning platform. A commonly used state-of-theart knowledge tracing model is Deep Knowledge Tracing (DKT) which models the time dimension as a sequence of completed exercises per student by using a Long Short-Term Memory Neural Network (LSTM). However, a common problem in this sequence-based model is too much instability in the time dimension of the modelled knowledge of a student. In other words, the student’s knowledge on a skill changes too quickly and unreliably. We propose dynamic student embeddings as a stable method for encoding the time dimension of knowledge tracing systems. In this method the time dimension is encoded in time slices of a fixed size, while the model’s loss function is designed to smoothly align subsequent time slices. We compare the dynamic student embeddings to DKT on a large-scale real-world dataset, and we show that dynamic student embeddings provide a more stable knowledge tracing while retaining good performance. / Kunskapsspårning handlar om att modellera en students kunskaper då den arbetar med uppgifter i en (online) lärplattform. En vanlig state-of-the-art kunskapsspårningsmodell är Deep Knowledge Tracing (DKT) vilken modellerar tidsdimensionen som en sekvens av avslutade uppgifter per student med hjälp av ett neuronnät kallat Long Short-Term Memory Neural Network (LSTM). Ett vanligt problem i dessa sekvensbaserade modeller är emellertid en för stor instabilitet i tidsdimensionen för studentens modellerade kunskap. Med andra ord, studentens kunskaper förändras för snabbt och otillförlitligt. Vi föreslår därför Dynamiska Studentvektorer som en stabil metod för kodning av tidsdimensionen för kunskapsspårningssystem. I denna metod kodas tidsdimensionen i tidsskivor av fix storlek, medan modellens förlustfunktion är utformad för att smidigt justera efterföljande tidsskivor. I denna uppsats jämför vi de Dynamiska Studentvektorer med DKT i en storskalig verklighetsbaserad dataset, och visar att Dynamiska Studentvektorer tillhandahåller en stabilare kunskapsspårning samtidigt som prestandan bibehålls.
484

Prévalence et incidence de la douleur lombaire récurrente au Québec : une perspective administrative / Prevalence and incidence of claims-based recurrent low back pain in Quebec : an administrative perspective

Beaudet, Nicolas January 2014 (has links)
Résumé : La douleur lombaire (DL) est l’une des conditions musculosquelettiques les plus fréquentes et coûteuses au Canada. La prévalence annuelle de DL aigüe varierait de 19 % à 57 %, et un patient sur quatre souffrirait de récurrence dans la même année. La présente étude vise donc à produire une analyse descriptive de l’épidémiologie de la DL récurrente à l’échelle de la population. Une nouvelle approche méthodologique est proposée afin d’optimiser l’identification de vrais cas incidents de DL récurrente à partir d’une analyse secondaire de données administratives. Puisque 10 % des patients ayant de la DL seraient responsables de 80 % des coûts qui y sont associés, nous avons également déterminé la tendance séculaire des coûts d’interventions médicales des patients récurrents incidents entre 2003 et 2008. En utilisant le fichier des services médicaux rémunérés à l’acte de la Régie de l’assurance maladie du Québec, des cohortes prévalentes ont été construites à partir de 401 264 dossiers de patients ayant consulté au moins trois fois pour de la DL entre 1999 et 2008. Onze ans d’historique médical des 81 329 patients de la cohorte de 2007 ont ensuite été analysés afin d’exclure les patients ayant eu des consultations antérieures de DL. Une valeur prédictive positive et un coefficient de Kappa élevés ont permis d’identifier une clairance optimale pour récupérer les cas véritablement incidents. Les coûts de consultations ont ensuite été calculés pour tous les patients incidents de 2003 à 2007 à partir des manuels de facturation. Nous avons observé une prévalence annuelle de la DL récurrente de 1,64 % en 2000 chez les hommes diminuant à 1,33 % en 2007. Cette baisse a majoritairement eu lieu dans le groupe d’âge des 35-59 ans. Les femmes âgées (> 65 ans) étaient 1,4 fois plus à risque de consulter un médecin de manière récurrente que les hommes du même âge. L’incidence annuelle de la DL en 2007 était de 242 par 100 000 personnes. Les hommes de 18 à 34 ans étaient 1,2 fois plus à risque que les femmes de développer un premier épisode récurrent et les personnes âgées 1,9 fois plus à risque que les jeunes. L’incidence annuelle a diminué de 12 % entre 2003 et 2007 pendant que les coûts totaux augmentaient de 1,4 %. La médiane des coûts était la plus élevée chez les femmes âgées et tendait à augmenter dans le temps. Ces analyses secondaires suggèrent de s’intéresser particulièrement à la DL chez les personnes très âgées, et de déterminer si la baisse de fréquence de consultations récurrentes observée dans le temps est liée à une meilleure gestion de la DL ou à un problème d’accessibilité. Les coûts devraient faire l’objet d’un suivi continu pour limiter les hausses. // Abstract : Low back pain (LBP) is one of the most frequent and costly musculoskeletal health conditions in Canada. Annual prevalence was found to vary between 19 % and 57 % and likely one out of four patients experience a LBP recurrence within one year. The body of knowledge on the prevalence of recurrent LBP is still limited. This study sought to present a descriptive analysis on the epidemiology of recurrent LBP in a medical population. A new methodology is also proposed to identify true cases of incident recurrent LBP. Since 10 % of LBP patients have been reported to generate 80 % of the costs, we will sought to determine the secular trend of medical costs for the incident cohorts of 2003 to 2008. Using the Canadian province of Quebec medical administrative physicians’ claims database, 401 264 prevalent claims-based recurrent LBP patients were identified between 1999 to 2008 for having consulted at least three times for LBP in a period of 365 days. The medical history of 81 329 prevalent patients in 2007 was screened for a retrospective period of 11 years. High positive predictive values and Kappa statistics were used to determine the optimal clearance period for capturing true incidence cases among patients with no prior encounters for LBP. Physicians’ claims manuals were then used to apply a price for every intervention provided to LBP incident patients in their index year and follow-up years. We observed a decrease from 1.64 % to 1.33 % in the LBP annual prevalence between 2000 and 2007 for men. This decrease was mostly observed between 35 and 59 years of age. Older women (≥ 65 years) were 1.4 times more at risk to consult a physician for LBP in a recurrent manner than older men. The annual incidence in 2007 of adult claims-based recurrent LBP was 242 per 100 000 persons. Males of 18 to 34 years of age were found 1.2 times more at risk than their counterparts. Altogether, elderlies were 1.9 times more at risk than young adults to consult in a recurrent manner for LBP. The annual incidence decreased by 12 % between 2003 and 2007, while the direct costs increase by 1.4 %. The median cost for consultations was highest for elder women and increasing in time. These secondary analyses emphasize the importance to keep the watch on the elders in regards to LBP, and to determine if the timely decrease in morbidity is related to improvements in LBP management or to a medical accessibility issue. Also, costs will need to be surveyed on a regular basis to limit the impact of future increases.
485

Intelligent real-time decision support systems for road traffic management : multi-agent based fuzzy neural networks with a GA learning approach in managing control actions of road traffic centres

Almejalli, Khaled A. January 2010 (has links)
The selection of the most appropriate traffic control actions to solve non-recurrent traffic congestion is a complex task which requires significant expert knowledge and experience. In this thesis we develop and investigate the application of an intelligent traffic control decision support system for road traffic management to assist the human operator to identify the most suitable control actions in order to deal with non-recurrent and non-predictable traffic congestion in a real-time situation. Our intelligent system employs a Fuzzy Neural Networks (FNN) Tool that combines the capabilities of fuzzy reasoning in measuring imprecise and dynamic factors and the capabilities of neural networks in terms of learning processes. In this work we present an effective learning approach with regard to the FNN-Tool, which consists of three stages: initializing the membership functions of both input and output variables by determining their centres and widths using self-organizing algorithms; employing an evolutionary Genetic Algorithm (GA) based learning method to identify the fuzzy rules; tune the derived structure and parameters using the back-propagation learning algorithm. We evaluate experimentally the performance and the prediction capability of this three-stage learning approach using well-known benchmark examples. Experimental results demonstrate the ability of the learning approach to identify all relevant fuzzy rules from the training data. A comparative analysis shows that the proposed learning approach has a higher degree of predictive capability than existing models. We also address the scalability issue of our intelligent traffic control decision support system by using a multi-agent based approach. The large network is divided into sub-networks, each of which has its own associated agent. Finally, our intelligent traffic control decision support system is applied to a number of road traffic case studies using the traffic network in Riyadh, in Saudi Arabia. The results obtained are promising and show that our intelligent traffic control decision support system can provide an effective support for real-time traffic control.
486

以重複事件分析法分析信用評等 / Recurrent Event Analysis of Credit Rating

陳奕如, Chen, Yi Ru Unknown Date (has links)
This thesis surveys the method of extending Cox proportional hazard models (1972) and the general class of semiparametric model (2004) in the upgrades or downgrades of credit ratings by S&P. The two kinds of models can be used to modify the relationship of covariates to a recurrent event data of upgrades or downgrades. The benchmark credit-scoring model with a quintet of financial ratios which is inspired by the Z-Score model is employed. These financial ratios include measures of short-term liquidity, leverage, sales efficiency, historical profitability and productivity. The evidences of empirical results show that the financial ratios of historical profitability, leverage, and sales efficiency are significant factors on the rating transitions of upgrades. For the downgrades data setting, the financial ratios of short-term liquidity, productivity, and leverage are significant factors in the extending Cox models, whereas only the historical profitability is significant in the general class of semiparametric model. The empirical analysis of S&P credit ratings provide evidence supporting that the transitions of credit ratings are related to some determined financial ratios under these new econometrics methods.
487

Réseaux de neurones à relaxation entraînés par critère d'autoencodeur débruitant

Savard, François 08 1900 (has links)
L’apprentissage machine est un vaste domaine où l’on cherche à apprendre les paramètres de modèles à partir de données concrètes. Ce sera pour effectuer des tâches demandant des aptitudes attribuées à l’intelligence humaine, comme la capacité à traiter des don- nées de haute dimensionnalité présentant beaucoup de variations. Les réseaux de neu- rones artificiels sont un exemple de tels modèles. Dans certains réseaux de neurones dits profonds, des concepts "abstraits" sont appris automatiquement. Les travaux présentés ici prennent leur inspiration de réseaux de neurones profonds, de réseaux récurrents et de neuroscience du système visuel. Nos tâches de test sont la classification et le débruitement d’images quasi binaires. On permettra une rétroac- tion où des représentations de haut niveau (plus "abstraites") influencent des représentations à bas niveau. Cette influence s’effectuera au cours de ce qu’on nomme relaxation, des itérations où les différents niveaux (ou couches) du modèle s’interinfluencent. Nous présentons deux familles d’architectures, l’une, l’architecture complètement connectée, pouvant en principe traiter des données générales et une autre, l’architecture convolutionnelle, plus spécifiquement adaptée aux images. Dans tous les cas, les données utilisées sont des images, principalement des images de chiffres manuscrits. Dans un type d’expérience, nous cherchons à reconstruire des données qui ont été corrompues. On a pu y observer le phénomène d’influence décrit précédemment en comparant le résultat avec et sans la relaxation. On note aussi certains gains numériques et visuels en terme de performance de reconstruction en ajoutant l’influence des couches supérieures. Dans un autre type de tâche, la classification, peu de gains ont été observés. On a tout de même pu constater que dans certains cas la relaxation aiderait à apprendre des représentations utiles pour classifier des images corrompues. L’architecture convolutionnelle développée, plus incertaine au départ, permet malgré tout d’obtenir des reconstructions numériquement et visuellement semblables à celles obtenues avec l’autre architecture, même si sa connectivité est contrainte. / Machine learning is a vast field where we seek to learn parameters for models from concrete data. The goal will be to execute various tasks requiring abilities normally associated more with human intelligence than with a computer program, such as the ability to process high dimensional data containing a lot of variations. Artificial neural networks are a large class of such models. In some neural networks said to be deep, we can observe that high level (or "abstract") concepts are automatically learned. The work we present here takes its inspiration from deep neural networks, from recurrent networks and also from neuroscience of the visual system. Our test tasks are classification and denoising for near binary images. We aim to take advantage of a feedback mechanism through which high-level representations, that is to say relatively abstract concepts, can influence lower-level representations. This influence will happen during what we call relaxation, which is iterations where the different levels (or layers) of the model can influence each other. We will present two families of architectures based on this mechanism. One, the fully connected architecture, can in principle accept generic data. The other, the convolutional one, is specifically made for images. Both were trained on images, though, and mostly images of written characters. In one type of experiment, we want to reconstruct data that has been corrupted. In these tasks, we have observed the feedback influence phenomenon previously described by comparing the results we obtained with and without relaxation. We also note some numerical and visual improvement in terms of reconstruction performance when we add upper layers’ influence. In another type of task, classification, little gain has been noted. Still, in one setting where we tried to classify noisy data with a representation trained without prior class information, relaxation did seem to improve results significantly. The convolutional architecture, a bit more risky at first, was shown to produce numerical and visual results in reconstruction that are near those obtained with the fully connected version, even though the connectivity is much more constrained.
488

On Recurrent and Deep Neural Networks

Pascanu, Razvan 05 1900 (has links)
L'apprentissage profond est un domaine de recherche en forte croissance en apprentissage automatique qui est parvenu à des résultats impressionnants dans différentes tâches allant de la classification d'images à la parole, en passant par la modélisation du langage. Les réseaux de neurones récurrents, une sous-classe d'architecture profonde, s'avèrent particulièrement prometteurs. Les réseaux récurrents peuvent capter la structure temporelle dans les données. Ils ont potentiellement la capacité d'apprendre des corrélations entre des événements éloignés dans le temps et d'emmagasiner indéfiniment des informations dans leur mémoire interne. Dans ce travail, nous tentons d'abord de comprendre pourquoi la profondeur est utile. Similairement à d'autres travaux de la littérature, nos résultats démontrent que les modèles profonds peuvent être plus efficaces pour représenter certaines familles de fonctions comparativement aux modèles peu profonds. Contrairement à ces travaux, nous effectuons notre analyse théorique sur des réseaux profonds acycliques munis de fonctions d'activation linéaires par parties, puisque ce type de modèle est actuellement l'état de l'art dans différentes tâches de classification. La deuxième partie de cette thèse porte sur le processus d'apprentissage. Nous analysons quelques techniques d'optimisation proposées récemment, telles l'optimisation Hessian free, la descente de gradient naturel et la descente des sous-espaces de Krylov. Nous proposons le cadre théorique des méthodes à région de confiance généralisées et nous montrons que plusieurs de ces algorithmes développés récemment peuvent être vus dans cette perspective. Nous argumentons que certains membres de cette famille d'approches peuvent être mieux adaptés que d'autres à l'optimisation non convexe. La dernière partie de ce document se concentre sur les réseaux de neurones récurrents. Nous étudions d'abord le concept de mémoire et tentons de répondre aux questions suivantes: Les réseaux récurrents peuvent-ils démontrer une mémoire sans limite? Ce comportement peut-il être appris? Nous montrons que cela est possible si des indices sont fournis durant l'apprentissage. Ensuite, nous explorons deux problèmes spécifiques à l'entraînement des réseaux récurrents, à savoir la dissipation et l'explosion du gradient. Notre analyse se termine par une solution au problème d'explosion du gradient qui implique de borner la norme du gradient. Nous proposons également un terme de régularisation conçu spécifiquement pour réduire le problème de dissipation du gradient. Sur un ensemble de données synthétique, nous montrons empiriquement que ces mécanismes peuvent permettre aux réseaux récurrents d'apprendre de façon autonome à mémoriser des informations pour une période de temps indéfinie. Finalement, nous explorons la notion de profondeur dans les réseaux de neurones récurrents. Comparativement aux réseaux acycliques, la définition de profondeur dans les réseaux récurrents est souvent ambiguë. Nous proposons différentes façons d'ajouter de la profondeur dans les réseaux récurrents et nous évaluons empiriquement ces propositions. / Deep Learning is a quickly growing area of research in machine learning, providing impressive results on different tasks ranging from image classification to speech and language modelling. In particular, a subclass of deep models, recurrent neural networks, promise even more. Recurrent models can capture the temporal structure in the data. They can learn correlations between events that might be far apart in time and, potentially, store information for unbounded amounts of time in their innate memory. In this work we first focus on understanding why depth is useful. Similar to other published work, our results prove that deep models can be more efficient at expressing certain families of functions compared to shallow models. Different from other work, we carry out our theoretical analysis on deep feedforward networks with piecewise linear activation functions, the kind of models that have obtained state of the art results on different classification tasks. The second part of the thesis looks at the learning process. We analyse a few recently proposed optimization techniques, including Hessian Free Optimization, natural gradient descent and Krylov Subspace Descent. We propose the framework of generalized trust region methods and show that many of these recently proposed algorithms can be viewed from this perspective. We argue that certain members of this family of approaches might be better suited for non-convex optimization than others. The last part of the document focuses on recurrent neural networks. We start by looking at the concept of memory. The questions we attempt to answer are: Can recurrent models exhibit unbounded memory? Can this behaviour be learnt? We show this to be true if hints are provided during learning. We explore, afterwards, two specific difficulties of training recurrent models, namely the vanishing gradients and exploding gradients problem. Our analysis concludes with a heuristic solution for the exploding gradients that involves clipping the norm of the gradients. We also propose a specific regularization term meant to address the vanishing gradients problem. On a toy dataset, employing these mechanisms, we provide anecdotal evidence that the recurrent model might be able to learn, with out hints, to exhibit some sort of unbounded memory. Finally we explore the concept of depth for recurrent neural networks. Compared to feedforward models, for recurrent models the meaning of depth can be ambiguous. We provide several ways in which a recurrent model can be made deep and empirically evaluate these proposals.
489

Approches thérapeutiques de la carcinose péritonéale d’origine appendiculaire récidivante

Gaudreau, Annie 11 1900 (has links)
Objectif: Le traitement de la carcinose péritonéale (CP) d’origine appendiculaire récidivante demeure sous-étudié. L’objectif est d’évaluer le traitement à offrir aux patients présentant une récidive de la maladie. Méthodologie: Depuis 2003, les données de tous les patients avec CP d’origine appendiculaire traités dans notre centre ont été recueillies. Le traitement de la maladie primaire consistait en une cytoréduction chirurgicale complète de la CP suivie d’une chimiothérapie hyperthermique intra-péritoneale (CHIP) à l’oxaliplatine. Lors d’une récidive, une deuxième cytoréduction avec une CHIP à la mitomycine C était offerte aux patients rencontrant certains critères de sélection. Résultats: Un total de 58 patients ont subi une cytoréduction complète suivie d’une CHIP avec l’oxaliplatine. Durant la période de suivi, 22 patients démontrèrent une maladie récidivante (39%). Le péritoine était le site de récidive le plus fréquent. Les survies sans maladie étaient statistiquement différentes selon le grade histopathologique et le degré de complétude de la cytoréduction. Parmi ces 22 patients, huit patients ont reçu une deuxième cytoréduction suivie d’une CHIP à la mitomycine C, un patient a subi une cytoréduction complète seule et 13 patients avaient une maladie non résécable. La survie globale moyenne des patients ayant reçu un deuxième traitement fut de 28 mois. Les taux de morbidité et de mortalité suite à une deuxième cytoréduction suivie d’une CHIP furent de 25% et 0%, respectivement. Conclusion: Une cytoréduction suivie d’une CHIP demeure une intervention possible chez les patients qui présentent une maladie récidivante, mais certains critères doivent être appliqués afin de maximiser la survie et minimiser la morbidité et la mortalité de cette approche. / Background: Additional treatment in patients presenting recurrent peritoneal carcinomatosis (PC) has been much overlooked in the literature. The aim of this study is to assess the effects of additional treatment in patients with recurrent disease despite a first CRS with HIPEC. Methods: Since 2003, data from all patients with PC arising from the appendix treated in our center were prospectively collected. Treatment of primary disease consisted in CRS followed by hyperthermic intraperitoneal chemotherapy (HIPEC) with oxaliplatin. When recurrent disease occurred, second CRS followed by HIPEC with mitomycin C were offered to patients meeting some selection criteria. Results: A total of 58 patients underwent CRS followed by HIPEC with oxaliplatin. During follow-up, 22 patients developed recurrent disease (39%). Peritoneum was the most common site of treatment failure. In the entire series, histologic grades and completeness of CRS were significant independent predictors of disease-free survival. Among patients with recurrent disease (n=22), eight patients underwent second CRS followed by HIPEC with mitomycin C, one patient received a CRS alone, and thirteen patients had unresectable disease. Mean overall survival for patients who received a second treatment (n=8) was 28 months. Morbidity and mortality rates following second CRS and HIPEC were 25% and 0%, respectively. Conclusions: CRS followed by HIPEC remains a possible intervention in patients with recurrent disease, but some selection criteria should be applied in order to maximise survival and minimise morbidity and mortality of this approach.
490

Modélisation statistique d'événements récurrents. Exploration empirique des estimateurs, prise en compte d'une covariable temporelle et application aux défaillances des réseaux d'eau / Statistical modeling of recurrent events. Empirical assessment of estimators’ properties, accounting for time-dependent covariate and application to failures of water networks

Babykina, Evgénia 08 December 2010 (has links)
Dans le contexte de la modélisation aléatoire des événements récurrents, un modèle statistique particulier est exploré. Ce modèle est fondé sur la théorie des processus de comptage et est construit dans le cadre d'analyse de défaillances dans les réseaux d'eau. Dans ce domaine nous disposons de données sur de nombreux systèmes observés durant une certaine période de temps. Les systèmes étant posés à des instants différents, leur âge est utilisé en tant qu'échelle temporelle dans la modélisation. Le modèle tient compte de l'historique incomplet d'événements, du vieillissement des systèmes, de l'impact négatif des défaillances précédentes sur l'état des systèmes et des covariables. Le modèle est positionné parmi d'autres approches visant à l'analyse d'événements récurrents utilisées en biostatistique et en fiabilité. Les paramètres du modèle sont estimés par la méthode du Maximum de Vraisemblance (MV). Une covariable dépendante du temps est intégrée au modèle. Il est supposé qu'elle est extérieure au processus de défaillance et constante par morceaux. Des méthodes heuristiques sont proposées afin de tenir compte de cette covariable lorsqu'elle n'est pas observée. Des méthodes de simulation de données artificielles et des estimations en présence de la covariable temporelle sont proposées. Les propriétés de l'estimateur (la normalité, le biais, la variance) sont étudiées empiriquement par la méthode de Monte Carlo. L'accent est mis sur la présence de deux directions asymptotiques : asymptotique en nombre de systèmes n et asymptotique en durée d'observation T. Le comportement asymptotique de l'estimateur MV constaté empiriquement est conforme aux résultats théoriques classiques. Il s'agit de l'asymptotique en n. Le comportement T-asymptotique constaté empiriquement n'est pas classique. L'analyse montre également que les deux directions asymptotiques n et T peuvent être combinées en une unique direction : le nombre d'événements observés. Cela concerne les paramètres classiques du modèle (les coefficients associés aux covariables fixes et le paramètre caractérisant le vieillissement des systèmes). Ce n'est en revanche pas le cas pour le coefficient associé à la covariable temporelle et pour le paramètre caractérisant l'impact négatif des défaillances précédentes sur le comportement futur du système. La méthodologie développée est appliquée à l'analyse des défaillances des réseaux d'eau. L'influence des variations climatiques sur l'intensité de défaillance est prise en compte par une covariable dépendante du temps. Les résultats montrent globalement une amélioration des prédictions du comportement futur du processus lorsque la covariable temporelle est incluse dans le modèle. / In the context of stochastic modeling of recurrent events, a particular model is explored. This model is based on the counting process theory and is built to analyze failures in water distribution networks. In this domain the data on a large number of systems observed during a certain time period are available. Since the systems are installed at different dates, their age is used as a time scale in modeling. The model accounts for incomplete event history, aging of systems, negative impact of previous failures on the state of systems and for covariates.The model is situated among other approaches to analyze the recurrent events, used in biostatistics and in reliability. The model parameters are estimated by the Maximum Likelihood method (ML). A method to integrate a time-dependent covariate into the model is developed. The time-dependent covariate is assumed to be external to the failure process and to be piecewise constant. Heuristic methods are proposed to account for influence of this covariate when it is not observed. Methods for data simulation and for estimations in presence of the time-dependent covariate are proposed. A Monte Carlo study is carried out to empirically assess the ML estimator's properties (normality, bias, variance). The study is focused on the doubly-asymptotic nature of data: asymptotic in terms of the number of systems n and in terms of the duration of observation T. The asymptotic behavior of the ML estimator, assessed empirically agrees with the classical theoretical results for n-asymptotic behavior. The T-asymptotics appears to be less typical. It is also revealed that the two asymptotic directions, n and T can be combined into one unique direction: the number of observed events. This concerns the classical model parameters (the coefficients associated to fixed covariates, the parameter characterizing aging of systems). The presence of one unique asymptotic direction is not obvious for the time-dependent covariate coefficient and for a parameter characterizing the negative impact of previous events on the future behavior of a system.The developed methodology is applied to the analysis of failures of water networks. The influence of climatic variations on failure intensity is assessed by a time-dependent covariate. The results show a global improvement in predictions of future behavior of the process when the time-dependent covariate is included into the model.

Page generated in 0.0459 seconds