• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 5
  • 1
  • Tagged with
  • 26
  • 15
  • 13
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Optimization Techniques for Algorithmic Debugging

Insa Cabrera, David 01 September 2016 (has links)
[EN] Nowadays, undetected programming bugs produce a waste of billions of dollars per year to private and public companies and institutions. In spite of this, no significant advances in the debugging area that help developers along the software development process have been achieved yet. In fact, the same debugging techniques that were used 20 years ago are still being used now. Along the time, some alternatives have appeared, but there still is a long way for them to be useful enough to get into the software development process. One of them is algorithmic debugging, which abstracts the information the user has to investigate to debug the program, allowing them to focus on what is happening instead of how it is happening. This abstraction comes at a price: the granularity level of the bugs that can be detected allows for isolating wrongly implemented functions, but which part of them contains the bug cannot be found out yet. This thesis focusses on improving algorithmic debugging in many aspects. Concretely, the main aims of this thesis are to reduce the time the user needs to detect a programming bug as well as to provide the user with more detailed information about where the bug is located. To achieve these goals, some techniques have been developed to start the debugging sessions as soon as possible, to reduce the number of questions the user is going to be asked about, and to augment the granularity level of those bugs that algorithmic debugging can detect, allowing the debugger in this way to keep looking for bugs even inside functions. As a result of this thesis, three completely new techniques have been defined, an already existent technique has been improved, and two new algorithmic debugging search strategies have been defined that improve the already existent ones. Besides these theoretical results, a fully functional algorithmic debugger has been implemented that contains and supports all these techniques and strategies. This debugger is written in Java, and it debugs Java code. The election of this language is justified because it is currently one of the most widely extended and used languages. Also because it contains an interesting combination of unsolved challenges for algorithmic debugging. To further increase its usability, the debugger has been later adapted as an Eclipse plugin, so it could be used by a wider number of users. These two debuggers are publicly available, so any interested person can access them and continue with the research if they wish so. / [ES] Hoy en día, los errores no detectados de programación suponen un gasto de miles de millones al año para las empresas e instituciones públicas y privadas. A pesar de esto, no ha habido ningún avance significativo en el área de la depuración que ayude a los desarrolladores durante la fase de desarrollo de software. De hecho, las mismas técnicas de depuración que se utilizaban hace 20 años se siguen utilizando ahora. A lo largo del tiempo, han surgido algunas alternativas, pero todavía queda un largo camino para que estas sean lo suficientemente útiles como para abrirse camino en el proceso de desarrollo de software. Una de ellas es la depuración algorítmica, la cual abstrae la información que el programador debe investigar para depurar el programa, permitiéndole de este modo centrarse en el qué está ocurriendo en vez de en el cómo. Esta abstracción tiene un coste: el nivel de granularidad de los errores que pueden detectarse nos permite como máximo aislar funciones mal implementadas, pero no averiguar qué parte de estas contiene el error. Esta tesis se centra en mejorar la depuración algorítmica en muchos aspectos. Concretamente, los principales objetivos de esta tesis son reducir el tiempo que el usuario necesita para detectar un error de programación así como proporcionar información más detallada de dónde se encuentra el error. Para conseguir estos objetivos, se han desarrollado técnicas para iniciar las sesiones de depuración lo antes posible, reducir el número de preguntas que se le van a realizar al usuario, y aumentar el nivel de granularidad de los errores que la depuración algorítmica puede detectar, permitiendo así seguir buscando el error incluso dentro de las funciones. Como resultado de esta tesis, se han definido tres técnicas completamente nuevas, se ha mejorado una técnica ya existente, y se han definido dos nuevas estrategias de depuración algorítmica que mejoran las previamente existentes. Además de los resultados teóricos, también se ha desarrollado un depurador algorítmico completamente funcional que contiene y respalda todas estas técnicas y estrategias. Este depurador está escrito en Java y depura código Java. La elección de este lenguaje se justifica debido a que es uno de los lenguajes más ampliamente extendidos y usados actualmente. También debido a que contiene una combinación interesante de retos todavía sin resolver para la depuración algorítmica. Para aumentar todavía más su usabilidad, el depurador ha sido posteriormente adaptado como un plugin de Eclipse, de tal manera que pudiese ser usado por un número más amplio de usuarios. Estos dos depuradores están públicamente disponibles para que cualquier persona interesada pueda acceder a ellos y continuar con la investigación si así lo deseara. / [CA] Hui en dia, els errors no detectats de programació suposen una despesa de milers de milions a l'any per a les empreses i institucions públiques i privades. Tot i això, no hi ha hagut cap avanç significatiu en l'àrea de la depuració que ajude als desenvolupadors durant la fase de desenvolupament de programari. De fet, les mateixes tècniques de depuració que s'utilitzaven fa 20 anys es continuen utilitzant ara. Al llarg del temps, han sorgit algunes alternatives, però encara queda un llarg camí perquè estes siguen prou útils com per a obrir-se camí en el procés de desenvolupament de programari. Una d'elles és la depuració algorítmica, la qual abstrau la informació que el programador ha d'investigar per a depurar el programa, permetent-li d'esta manera centrar-se en el què està ocorrent en compte de en el com. Esta abstracció té un cost: el nivell de granularitat dels errors que poden detectar-se ens permet com a màxim aïllar funcions mal implementades, però no esbrinar quina part d'estes conté l'error. Esta tesi es centra a millorar la depuració algorítmica en molts aspectes. Concretament, els principals objectius d'esta tesi són reduir el temps que l'usuari necessita per a detectar un error de programació així com proporcionar informació més detallada d'on es troba l'error. Per a aconseguir estos objectius, s'han desenvolupat tècniques per a iniciar les sessions de depuració com més prompte millor, reduir el nombre de preguntes que se li formularan a l'usuari, i augmentar el nivell de granularitat dels errors que la depuració algorítmica pot detectar, permetent així continuar buscant l'error inclús dins de les funcions. Com resultat d'esta tesi, s'han definit tres tècniques completament noves, s'ha millorat una tècnica ja existent, i s'han definit dos noves estratègies de depuració algorítmica que milloren les prèviament existents. A més dels resultats teòrics, també s'ha desenvolupat un depurador algorítmic completament funcional que conté i protegix totes estes tècniques i estratègies. Este depurador està escrit en Java i depura codi Java. L'elecció d'este llenguatge es justifica pel fet que és un dels llenguatges més àmpliament estesos i usats actualment. També pel fet que conté una combinació interessant de reptes encara sense resoldre per a la depuració algorítmica. Per a augmentar encara més la seua usabilitat, el depurador ha sigut posteriorment adaptat com un plugin d'Eclipse, de tal manera que poguera ser usat per un nombre més ampli d'usuaris. Estos dos depuradors estan públicament disponibles perquè qualsevol persona interessada puga accedir a ells i continuar amb la investigació si així ho desitjara. / Insa Cabrera, D. (2016). Optimization Techniques for Algorithmic Debugging [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/68506 / TESIS / Premios Extraordinarios de tesis doctorales
2

Los vertidos en aguas continentales: régimen jurídico administrativo

Casado Casado, Lucía 20 February 2003 (has links)
Esta Tesis, incardinada en el Derecho ambiental administrativo, aborda el régimen jurídico de los vertidos en aguas continentales en el ordenamiento español, desde una óptica fundamentalmente jurídico-administrativa.Este trabajo aporta algunas reflexiones respecto del actual marco regulador de los vertidos, a partir de un análisis crítico de las normas vigentes -sin olvidar sus raíces históricas- y de su interpretación jurisprudencial, atendiendo también a la doctrina científica, con el fin último de poner de relieve sus virtualidades y carencias, al tiempo que se realizan algunas sugerencias y propuestas de mejora. Para alcanzar este objetivo, la Tesis se divide en tres partes diferenciadas. En la primera, integrada por dos capítulos, se efectúa un tratamiento preliminar que justifica cuáles son las bases fácticas que reclaman el tratamiento jurídico de esta materia y fija las fronteras del propio concepto de "vertido". La segunda, que consta de tres capítulos, se centra en el análisis del marco jurídico aplicable a los vertidos, previo análisis de la distribución de competencias entre los diferentes poderes públicos implicados. Su finalidad es realizar una aproximación al ordenamiento jurídico español en esta materia, fruto de la confluencia de una pluralidad ordinamental procedente de diversos escalones normativos (internacional, comunitario, estatal, autonómico y local). La tercera parte, formada por trece capítulos, se dedica específicamente al análisis individualizado de las principales técnicas de intervención administrativa sobre los vertidos. Tras efectuar algunas consideraciones en torno al papel que corresponde desempeñar a la Administración Pública, a los límites y a los principios a que se sujeta su actuación en esta materia, se entra de lleno en el análisis de los principales mecanismos de intervención. Esta labor se inicia con el examen de las técnicas de carácter preventivo. Allí se analizan la planificación hidrológica; la prohibición de contaminar y la autorización de vertido, tema fundamental, ya que en nuestro ordenamiento se configura como eje central para el control previo de los vertidos contaminantes la prohibición general con reserva de autorización; la autorización ambiental integrada; las técnicas de incentivo económico; y los instrumentos de verificación y control. Este trabajo concluye con el examen de las técnicas represivas y reparadoras. Se analizan, en particular, el régimen de infracciones y sanciones administrativas en materia de vertidos y la obligación de reparar el daño causado, con especial referencia a la potestad administrativa de determinación y exigencia de responsabilidad por los daños causados al dominio público hidráulico.A partir de este análisis, este estudio destaca la existencia en nuestro ordenamiento de una vasta normativa reguladora de los vertidos en la que se recoge un amplio catálogo de instrumentos de intervención administrativa. Estos mecanismos, utilizados complementariamente, con clara preeminencia de los preventivos, presentan una enorme virtualidad como medio de prevención y control de la contaminación originada por vertidos. Asimismo, pone de manifiesto la existencia de importantes deficiencias técnicas y de configuración jurídica de estos instrumentos que exigen una rápida mejora, en aras de su mayor eficacia, y se hace eco de la decepcionante aplicación de este instrumentario, fruto del escaso rigor y de la falta de una actitud enérgica de las Administraciones Públicas en su aplicación y de la escasez de medios. En definitiva, se pone de relieve que el reto más importante que se plantea en esta materia no es tanto la adopción de nuevas normas e instrumentos de control de los vertidos -sin perjuicio de los ajustes y mejoras necesarios-, como garantizar la operatividad real del sistema. Sólo así podrá conseguirse el objetivo medioambiental mínimo del buen estado de todas las aguas superficiales, subterráneas y costeras con el horizonte temporal del año 2015, exigido en el ámbito de la Comunidad Europea. / This thesis, within the ambit of Administrative environmental law, approaches the legal framework for waste disposal in continental waters under Spanish legislation, from a fundamentally legal and administrate perspective.The study includes a series of reflections on present legislation for waste disposal, based on a critical analysis of regulations as they stand -without forgetting their historical roots- and their jurisprudential interpretation, along with a study of scientific doctrine, which stresses the importance of their virtues and shortcomings, while making other suggestions and proposals for improvement. To meet this objective, the Thesis is divided into three differentiated sections. The first, made up of two chapters, is a preliminary treatment that justifies what the actual bases are for demanding the legal treatment of this issue and that establishes the boundaries of the very concept of "waste disposal". The second, which is made up of three chapters, focuses on an analysis of the legal framework that is applicable to waste disposal, with an analysis of the distribution of responsibilities between the different public authorities implied. Its aim is to approach Spanish legal regulations that deal with this issue, the result of the confluence of such plurality in lawmaking coming from different governmental levels (international, community, state, autonomous, and local). The third section, made up of thirteen chapters, is specifically dedicated to the individual analysis of the main techniques for administrative intervention on waste disposal. After a few considerations of the role given to Public Administration, and the limits and principles to which it is subjected in this issue, there is a full analysis of the main mechanisms for intervention. This task begins with an examination of techniques of a preventative nature. This contains an analysis of hydrological planning; the prohibition of contamination and authorisation for waste disposal, a basic issue because, in our legislation, general prohibition without authorisation is configured as the central axis for the preliminary control of contaminant waste; integrated environmental authorisation; economic incentive techniques; and instruments for verification and control. The study ends with an examination of repressive and reparation techniques. There is particular analysis of the system of infractions and administrative sanctions on issues of waste disposal and the obligation to repair any damage caused, with special reference to administrative authority for the determination of and demands for responsibility for damage caused to the public hydraulic domain.Based on this analysis, this study highlights that our legislation contains widespread regulation of waste disposal, covering a wide range of instruments for administrative intervention. These mechanisms, used complementarily, with a clear pre-eminence of preventative methods, are extremely valuable as a means for the prevention and control of contamination caused by waste disposal. It also demonstrates the existence of major deficiencies in the techniques and legal configurations of these instruments, which require immediate improvements, based on greater efficiency, and which reflect the disappointing application of such instruments, the result of a lack of strictness and the lethargic attitude of Public Administrations when applying them, and a scarcity of means. Definitively, it emphasises the fact that the most important challenge concerning this issue is not so much the adoption of new regulations and instruments of control - without forgetting that some changes and improvements are needed -, but rather the guarantee of the effectiveness of the system. That is the only way to achieve the minimum environmental objective of a decent state of surface, ground and coastal waters by 2015, as demanded by the European Community.
3

Fórmula Cockcroft Gault y su relación con la depuración de creatina endógena por método colorimétrico, en gestantes atendidas en el Hospital Nacional Sergio Bernales, Lima - Perú 2015.

Golac Malca, Mario Alexander January 2016 (has links)
Introducción: El método convencional usado para estimar la tasa de filtrado glomerular (TFG) presenta limitaciones y dificultades para las mujeres en periodo de gestación, las cuales presentan alteraciones a nivel renal, pudiendo evolucionar hacia la pre eclampsia, ante esto se espera encontrar en la formula Cockcroft – Gault una alternativa adecuada para estimar y monitorear la TFG en gestantes. Objetivo: Establecer la correlación entre la fórmula Cockcroft – Gault y la depuración de creatinina endógena (DCE) por método colorimétrico en gestantes. Diseño: Correlacional, observacional, prospectivo y corte transversal. Lugar: Laboratorio central, Hospital Nacional Sergio Bernales de Lima, Perú. Participantes: Gestantes ambulatorias. Materiales y métodos: Muestras de sangre y orina de 24 horas de 92 gestantes entre noviembre 2015 y enero 2016. Se utilizó el coeficiente de correlación de Pearson para comparar ambos métodos usados para estimar la TFG. Resultados: El promedio de la DCE colorimétrica fue 73,65 ± 19,85 ml/min, la obtenida por fórmula fue 99,82 ± 18,75 ml/min y la correlación entre dichos métodos de laboratorio en el total de las gestantes fue moderada (r = 0,56). Gestantes del I trimestre tuvieron baja correlación (r = 0,40), las del II trimestre tuvieron moderada correlación (r = 0,67) y las del III trimestre mostraron baja correlación (r = 0,49), todos los casos presentaron diferencia significativa (p < 0,05). Conclusión: Se encontró baja correlación entre la DCE y la fórmula Cockcroft – Gault en gestantes. Palabras claves: tasa de filtrado glomerular, depuración de creatinina endógena colorimétrica, fórmula Cockcroft – Gault, grado de correlación. / --- Introduction: The conventional method used to estimate the glomerular filtration rate (GFR) has limitations and difficulties for women in gestation period, which present alterations to the kidney level and can progress to pre eclampsia, before it is expected to find in the Cockcroft - Gault an adequate alternative to estimate and monitor the GFR in pregnant women. Objective: To establish the correlation between the Cockcroft - Gault and endogenous creatinine clearance (ECC) by colorimetric method in pregnant women. Design: correlational, observational, prospective and cross-sectional. Location: Central Laboratory in Sergio Bernales National Hospital, Lima - Peru. Participants: Pregnant ambulatory women. Materials and Methods: Blood samples and 24-hour urine of 92 pregnant women between November 2015 and January 2016. The Pearson correlation coefficient was used to compare the two methods used to estimate GFR. Results: The average of the ECC Colorimetric was 73.65 ± 19.85 ml / min, obtained by formula was 99.82 ± 18.75 ml / min and the correlation between these laboratory methods in total pregnant women was moderate (r = 0.56). Gestating the first quarter had low correlation (r = 0.40), those of the second quarter had moderate correlation (r = 0.67) and the third quarter showed a low correlation (r = 0.49), all cases showed difference significant (p <0.05). Conclusion: It was found low correlation between the ECC and the Cockcroft – Gault formula in pregnant women. Keywords: glomerular filtration rate, colorimetric endogenous creatinine clearance, Cockcroft - Gault, degree of correlation.
4

Towards Practical Omniscient Debugging

Pothier, Guillaume January 2011 (has links)
No description available.
5

Digestión anaerobia de lodos de depuradora, etapas controlantes y cinética del proceso

López Cabanes, José María 20 July 1989 (has links)
No description available.
6

Caracterización microbiológica de la biodegradación del alquibenceno sulfonado lineal (LAS) en túnel de compostaje de lodos procedentes de EDAR

Sanz Cardona, Eva 17 October 2005 (has links)
Ministerio de Ciencia y Tecnología (REN 2001-0754/TECNO).
7

Estudio sobre los rendimientos de las decantaciones con aguas residuales con diferentes concentraciones de contaminación

Jover-Smet, Margarita 18 September 2015 (has links)
No description available.
8

Las maestras de la Guerra Civil y el primer Franquismo en la provincia de Alicante

Domenech Jiménez, María Isabel 22 January 2016 (has links)
Las maestras de la provincia de Alicante, como del resto del Estado, sufrieron dos procesos de depuración en pocos años: uno breve y debido a motivos políticos durante la Guerra Civil y otro más premeditado, duro y largo durante el Franquismo, en el que fueron castigadas por razones políticas y por ser mujeres que habían incumplido las normas de género tradicionales. Las maestras que trabajaron durante la Guerra Civil se habían formado sobre todo con los planes de estudios de 1914 y 1931, muy distintos entre sí. Aun siendo ellas un grupo heterogéneo en muchos aspectos, representaban un nuevo modelo de mujer, más moderno. Acabada la guerra, comenzó un periodo de cambios importantes para ellas y las siguientes promociones, marcado por el nacional-catolicismo.
9

Sistematización del proceso de depuración de los datos en estudios con seguimientos

Bonillo Martín, Albert 15 September 2003 (has links)
El objetivo principal de esta tesis es realizar un análisis exhaustivo de los errores de tipo lógico que pueden presentarse en los datos ya grabados y aportar un procedimiento sistemático original para detectarlos y corregirlos. Para ello se ha programado un conjunto de macros SPSS que permiten detectar todos estos errores, generar de forma totalmente automática un informe de incidencias para corregirlos y ofrecer una estadística final de errores. Los algoritmos de estas macros son fácilmente transportables a SAS o a otros sistemas.El procedimiento propuesto consiste en crear un archivo de sintaxis con un conjunto de llamadas a macros que realizan el proceso de acuerdo con las siguientes fases: 1) lectura de la tabla con los datos originales grabados; 2) depurar el identificador para garantizar que cada registro está unívocamente identificado y se adecua a las formas normales de integridad referencial de la teoría relacional; 3) corregir las incidencias detectadas en el indentificador; 4) incorporar las variables de referencia de otras tablas que sean necesarias para depurar la tabla de datos; 5) depurar las variables de salto; 6) corregir las incidencias detectadas en las variables de salto; 7) depurar el resto de variables del estudio, detectando las incidencias que sean consecuencia de inconsistencias y los valores desconocidos; 8) corregir las incidencias detectadas, introduciendo el valor correcto o valor desconocido si no se conoce el valor correcto; y 9) generar una estadística de los errores detectados y de los valores desconocidos presentes en la matriz de datos depurados.El proceso comporta realizar de forma iterativa las fases de chequeo y corrección hasta que las únicas incidencias detectadas sean valores desconocidos no recuperables. Asimismo, el proceso incorpora un historial de cambios que permita conocer todas las modificaciones efectuadas sobre los datos originales. La tesis se estructura en seis capítulos, los tres primeros de carácter teórico y los tres últimos aplicados.El capítulo primero revisa de forma sucinta los conceptos básicos de "medida" en psicología y "error", así como los controles que se deben implementar para minimizar las incidencias en el proceso de los datos, distinguiendo entre aquellos que son aplicables a la captura diferida y los que lo son a la captura directa. El segundo capítulo se centra en la definición operativa del error en el proceso de la gestión de los datos, exponiendo la necesidad de evaluar la calidad de la información previamente a su análisis estadístico e introduciendo el concepto de depuración.En el tercer capítulo se revisan múltiples controles propuestos para distintas tipologías de variables. Se muestran técnicas de detección de errores por registros duplicados, en variables cuantitativas, en variables categóricas, etc. Así mismo, se presentan técnicas novedosas en la detección de errores que, pese a ser habituales en otras disciplinas como la economía o la auditoría, no lo son en absoluto en las Ciencias de la Salud.En el cuarto capítulo, de carácter aplicado, se expone el proceso de depuración propuesto en esta tesis y se especifican controles y chequeos para todas las tipologías de variables descritas en los apartados teóricos, se detalla el tipo de comprobación que debe efectuarse y el algoritmo en pseudocódigo que permite su implantación. Asimismo, para cada tipo de variable se ha programado una macro en lenguaje SPSS que permite automatizar el control.En el quinto capítulo se detalla la aplicación de la metodología de depuración propuesta a datos reales: la Encuesta Sociodemográfica, el Conjunto de Datos Mínimo de Alta Hospitalaria y la Historia Clínica Electrónica. Estos ejemplos se caracterizan por bases de datos extensas y de estructura compleja. En esta parte del trabajo se expone de qué modo se ha realizado la depuración y se valora el comportamiento mostrado por este proceso. Finalmente, en el último capítulo se exponen las principales conclusiones y se discuten las implicaciones teóricas y prácticas de este trabajo. / The primary target main purpose of this thesis is to contribute improve data quality with a procedure that allows to detect and to correct errors in the recorded data already recorded. To do this, For it a data cleansing purgingcleansing /depuration/(busca una palabra más técnica en la literatura) process has been designed that is organized in the following phases: 1) reading of the recorded data; 2) depuration/purge cleans of the identifier, guaranteeing that each registry is univocally identified and that is adapted to the referential integrity normal forms of referential integrity of the relational theory; 3) correction of the incidences detected in the indentificador identifier 4) depuration/purge cleans of the skip (¿No hay una palabra más técnica para variable de salto? Esto Lourdes no lo sabrá y yo tampoco) skip variables, 5) correction of the incidences detected in the skip variables, 6) cleans purge/depuration of the other rest of variables of the study, by detecting the incidences contained in the recorded data like that are not known consequence of inconsistencieas (inconsistencies) and missing (desconocidos) values; 7) correction of the detected incidences, introducing whenever it is possible the correct value or assigning to missing value when it is not had this one; and 8) obtaining of a statistic of the errors detected by the data cleansingcleans purge/depuration process and of the unknown/missing values contents in the final data.It is important to repeat in an iterative form tThe phases of control and correction are due to make of iterative form until the only detected incidences would beare missing and nonrecoverable values nonrecoverable. Also, this data cleansing process of cleansing must be accompanied by a file of historical changes that allows to know all the modifications conducted from in the original data. The systematic controls of this design must be integrated through macros (for example in SPSS or SAS language SPSS or SAS) that automates and guarantees them their functionality. In addition, we have elaborated created the macros in SPSS syntax SPSS to carry out the data cleansingcleansing; the algorithms contained in these macros are easily transportable to other statistical packages.This thesis is structured in six chapters, the three first three chapters are of theoretical character and the other are three last ones applied.The first chapter first reviews the basic concepts of measure and error in psychology and error, as well as the controls that it is necessary to are due to implement to diminish the incidences in the dataof the data. We, distinguishing between controls that they are applicable to the deferred capture and those that are it applicable to the direct capture.The second chapter is centered focused in on the operative definition of the error in the process of the management of the data process. We, explainhaving exposed it is necessarythe necessity to previously evaluate the quality of the information prior to conduct to its statistical analysis, and introduceing the cleansing concept of data cleansing.In the third chapter they we review manifold many controls proposed for different tipology from of variables. Are Ttechniques to detect of detection of errors by duplicated records, in quantitative and variables, categorical variables, etc., are shown. Also, we show novel new techniques in the detection of errors appear that are wellknown , in spite of to be habitual in other disciplines like the economy economics or the auditory, but unknown in the Health Sciencesare not it absolutely in Sciences of the Health.In the fourth chapter, of applied character, the data cleansing process of cleansing is exposed proposed in this thesis and controls are specified and controls for all the tipology of variables described in the theoretical sections are specified. We, detail the type of verification that must take place and the algorithm in pseudocode that allows its implementationantation. Also, for each type of variable a macro in SPSS language SPSS has been programmed that allows to automate the control.In the fifth chapter the application to real data of this proposed depuration process the methodology of propose purification to real data is detailedspecified: the Sociodemographic Survey, the Minimum Data set of Hospitable Discharge and the Electronic Clinical History. These examples are characterized by large and complex structure data bases extensive complex structure and data bases. In this part of the work it is exposed how the purification data cleansing process has been made in this case and the behavior shown by this process is valued.Finally, in the last chapter the main conclusions are exposed and the theoretical and practical implications of this work are discussed.
10

Evaluación de técnicas de detección de errores en programas concurrentes

Frati, Fernando Emmanuel 24 June 2014 (has links)
Una característica fundamental de los sistemas de software es que se construyen desde el principio sabiendo que deberán incorporar cambios a lo largo de su ciclo de vida. Todos los libros que tratan sobre ingeniería de software coinciden en que los sistemas son evolutivos. Incluso al evaluar el esfuerzo que se debe invertir en un proyecto de software, se considera que un 20% está en el desarrollo y 80% se aplica al mantenimiento (Pfleeger & Atlee, 2009). Ian Sommerville estima que el 17% del esfuerzo de mantenimiento se invierte en localizar y eliminar los posibles defectos de los programas (Sommerville, 2006). Por ello, conseguir programas libres de errores es uno de los principales objetivos que se plantea (o se debería plantear) el desarrollador frente a cualquier proyecto de software. Por otro lado, las limitaciones a la integración impuestas por factores físicos como son la temperatura y el consumo de energía, se han traducido en la integración de unidades de cómputo en un único chip, dando lugar a los procesadores de múltiples núcleos. Para obtener la máxima eficiencia de estas arquitecturas, es necesario el desarrollo de programas concurrentes (Grama, Gupta, Karypis, & Kumar, 2003). A diferencia de los programas secuenciales, en un programa concurrente existen múltiples hilos en ejecución accediendo a datos compartidos. El orden en que ocurren estos accesos a memoria puede variar entre ejecuciones, haciendo que los errores sean más difíciles de detectar y corregir. En cómputo de altas prestaciones donde los tiempos de ejecución de las aplicaciones pueden variar de un par de horas hasta días, la presencia de un error no detectado en la etapa de desarrollo adquiere una importancia mayor. Por este motivo, resulta indispensable contar con herramientas que ayuden al programador en la tarea de verificar los algoritmos concurrentes y desarrollar tecnología robusta para tolerar los errores no detectados. En este contexto, la eficiencia de los programas monitorizados se ve comprometida por el overhead que introduce el proceso de monitorización. Este trabajo forma parte de las investigaciones para la tesis doctoral del autor en el tema "Software para arquitecturas basadas en procesadores de múltiples núcleos. Detección automática de errores de concurrencia". Como tal, su aporte constituye un estudio de las técnicas y métodos vigentes en la comunidad científica aplicados a la detección y corrección de errores de programación en programas concurrentes. Las siguientes secciones constituyen una introducción al proceso de detectar, localizar y corregir errores de software en programas secuenciales y se explican las complicaciones introducidas por los programas concurrentes. El Capítulo 2 trata los distintos errores que se pueden manifestar en programas concurrentes. El Capítulo 3 resume los antecedentes en técnicas de detección y corrección de errores de concurrencia y se justifica la elección de las violaciones de atomicidad como caso de error más general. El Capítulo 4 explica las características de un algoritmo de detección de violaciones de atomicidad, y da detalles de su implementación. El Capítulo 5 contiene las características de la plataforma de experimentación y de la metodología empleada. El Capítulo 6 proporciona los resultados del trabajo experimental. Finalmente, se presentan las conclusiones del trabajo y se proponen las líneas de investigación futuras.

Page generated in 0.0479 seconds