Spelling suggestions: "subject:"datos"" "subject:"ratos""
181 |
El derecho de acceso a la información frente a la protección de datos personalesGallardo Garafulic, Rodrigo Daniel January 2011 (has links)
Memoria (licenciado en ciencias jurídicas y sociales) / El presente documento tiene por objetivo general lograr una adecuada conceptualización de ambos derechos en comento y su configuración en nuestra legislación nacional, junto con las mas importantes hipótesis de conflicto, para lo cual se destinaran los siguientes capítulos en conceptualizar y analizar el marco regulatorio nacional e internacional aplicable a el derecho de acceso a la información (Capitulo II); y a la privacidad y protección de datos (Capítulo III). Luego de lo cual nos ocuparemos en el capítulo IV, de analizar las diversas formas que pueden presentar un conflicto de derechos fundamentales, junto con revisar las principales doctrinas referidas a las soluciones que pueden revestir dichos conflictos o la manera de enfrentarlos.
El objetivo especifico del presente trabajo es identificar los criterios de solución de conflicto entre derechos fundamentales, referidos especialmente al derecho de acceso a la información frente a las garantías individuales de derecho a la privacidad y protección de datos, por lo que se destinara una apartado al análisis de los principales criterios argumentativos, fundamentalmente, los test de prueba del daño y del interés público. Se examinaran dos legislaciones extrajeras que entendemos constituyen un referente legal Ad Hoc, tanto a nuestra Ley Nº 20.285, como a la Ley Nº 19.628, es decir las legislaciones Mexicana y de la Comunidad Europea, La primera como una legislación en la que en hipótesis, la protección de datos ha cedido, frente al derecho de acceso a la información, y la segunda, como un caso en la protección de datos prefiere al derecho de acceso a la información en términos generales. También dedicaremos parte de este último capítulo en analizar críticamente las principales ideas contenidas en el nuevo proyecto de ley en actual tramitación en el congreso, que entrega mayores facultades en materia de protección de datos al CPLT y reforma las leyes Nº 20.285 y Nº 19.628 Para luego finalizar con una exposición de nuestras conclusiones.
|
182 |
Calibración, evaluación y validación de un método sinérgico óptico-microondas pasivas para la estimación de humedad en superficie a partir de datos remotos / Calibration, evaluation and validation of a synergic optical-passive microwave method for the estimation of soil moisture from remote sensing dataSantamaría Artigas, Andrés Eduardo January 2015 (has links)
Memoria para optar al Título Profesional de: Ingeniero en Recursos Naturales Renovables / La humedad de suelo es una de las variables climáticas esenciales en la biósfera, pues se
encuentra fuertemente relacionada a los procesos de intercambio de calor y de distribución
de los flujos de energía en la interface superficie-atmósfera. Sin embargo, su determinación
de manera periódica y a escala regional es difícil por medio de estimaciones puntuales.
Frente a esto las técnicas de teledetección, y en particular las basadas en observaciones de
microondas en banda L (1.4 Ghz), se presentan como una herramienta importante para su
estimación periódica a escala regional. Lo métodos utilizados para estimar la humedad a
partir de las observaciones de microondas de banda L, no suelen consideran los efectos de
la cubierta vegetal sobre la señal recibida por un sensor remoto. Es por esto que se han
desarrollado métodos semi-empíricos que buscan corregir los efectos de la cubierta vegetal
en la estimación de humedad a partir de la información de un índice de vegetación. Para
esta memoria se utilizaron los datos de temperatura de brillo bi-polarizada en banda L de la
misión SMOS; el índice de vegetación de diferencia normalizada (NDVI) del sensor
MODIS; la humedad y temperatura de los primeros 7 cm de suelo provenientes del
“reanalysis” ERA-Interim, y 13 clases de cobertura de superficie obtenidas de la base de
datos ECOCLIMAP. Los datos abarcan el periodo comprendido entre Enero de 2010 y
Diciembre de 2012, y corresponden a la zona central de Chile. Con los datos se generó una
base de 3 años de datos para cada pixel del área de estudio, con la cual se calibró, evaluó y
validó un método de estimación de humedad de superficie tanto considerando el NDVI de
MODIS, como no considerando un indicador de vegetación. Los resultados se analizaron
según las clases de coberturas presentes en el área de estudio y en función del coeficiente
de determinación (r2
), de los coeficientes obtenidos en las regresiones y del “Unbiased Root
Mean Square Difference” (ubRMSD). Los resultados mostraron aumentos en el r2
promedio para todas las clases de cobertura analizadas cuando se incorporó el NDVI de
MODIS en la calibración del método. Los aumentos en el r2 variaron entre un 3%
correspondiente a la clase de Cultivos y un 49% correspondiente a la clase de Matorral
Cerrado. El ubRMSD presentó disminuciones de hasta un 1% de m3
/m3 en las clases de
Bosque, Matorral Abierto y Matorral Leñoso, y disminuciones de hasta un 2% de m3
/m3 en
la clase de Matorral Cerrado. El análisis de los resultados sugiere que la incorporación del
NDVI de MODIS en el método semi-empírico es capaz de mejorar las estimaciones de
humedad de superficie para algunas coberturas. / Soil moisture is one of the biosphere’s essential climatic variables, as it drives the processes
of heat exchange and energy fluxes distribution between Earth’s surface and the
atmosphere. However, it periodical monitoring at regional scales using in-situ
measurements is complicated. In this context, remote-sensing techniques, and in particular
those based in L-band microwaves observations, appear as an important tool for the
periodical estimation of soil moisture at regional scales. The approaches used to estimate
soil moisture from L-band microwaves observations usually do not take into account the
effects of the vegetation cover in the signal received by a remote sensor. Because of this,
several semi-empirical approaches have been developed in order to correct the effects of
the vegetation cover in the soil moisture estimation by using the information from a
vegetation index. For this work, several datasets were used: Bi-polarized brightness
temperature from the SMOS mission, the normalized difference vegetation index (NDVI)
from MODIS, the temperature and water content from the first 7 cm of soil depth from the
ERA-Interim reanalysis, and 13 land cover classes obtained from the ECOCLIMAP data
base. The data period included years 2010, 2011 and 2012, and the method was applied
over the central area of Chile. Using the data, a 3-year database was compiled for every
pixel of the study area, which was used to calibrate, evaluate and validate a semi-empirical
approach to estimate soil moisture, both using the NDVI from MODIS, and not including
any vegetation index in the approach. Results were analyzed for every land cover class
using the determination coefficient (r2
), the coefficients obtained from the regressions and
the unbiased root mean square difference (ubRMSD). Results showed an increase in the
average r2 for all land cover classes when a vegetation index was used in the calibration of
the approach. These increases in r2 ranged from a 3% for the Crop class, to a 49% for the
Closed Shrubland class. The ubRMSD presented a decrease in its value up to 1% m3
/m3 for
the Woodlands, Open Shrublands and Woody Shrublands classes and up to 2% m3
/m3 for
the Closed Shrubland class. The analysis of the results suggests that the use of MODIS’s
NDVI in the semi-empirical approach is able to improve the soil moisture estimation for
some of the land cover classes.
|
183 |
Propuestas de mejora para el área de control de gestión de una empresa de retail en tres filiales de latinoaméricaRiveros Rebuffo, Fernando Javier January 2018 (has links)
Ingeniero Civil Industrial / 04/05/2023
|
184 |
Algoritmo de mapeo de texturas geológicas en testigos de sondajes utilizando clasificador secuencial en cadena basado en técnicas de transformada de señalesMarulanda Cardona, Lina Yesenia January 2016 (has links)
Magíster en Minería / La caracterización de la textura geológica presente en los testigos de sondajes de exploración es utilizada por las diferentes compañías mineras como un paso determinante a la hora de definir las características litológicas y de mineralización presentes en un proyecto, influyendo de forma directa en los procesos mineros y metalúrgicos relacionados con el negocio. Normalmente esta interpretación es realizada de forma visual por parte de profesionales del área, geólogos, quienes determinan la presencia de una textura o característica textural predominante en determinada longitud de sondaje, basándose en sus conocimientos previos y en su juicio experto.
Desarrollos previos han demostrado que esta es una tarea factible de realizar utilizando un clasificador secuencial en cadena basado en técnicas estadísticas de procesamiento de señales. Después de haber establecido la utilidad de este desarrollo en laboratorio bajo condiciones ideales se hace necesario acercarlo a la realidad, es así que este estudio plantea la experimentación a escala piloto sobre una longitud de testigos de sondaje de un proceso exploratorio real, a fin de determinar el algoritmo de trabajo que genere el mayor porcentaje de acierto en la determinación de textura geológica sobre tamaños de soporte mayores a los ya utilizados en la librería de imágenes de entrenamiento.
Finalmente se ha obtenido el porcentaje de acierto en la interpretación de texturas geológica sobre una base de datos de fotografías y se mapeó por parte de un especialista con el fin de establecer valores de acierto a partir de la comparación de resultados; al aplicar los procedimientos de interpretación automáticos propuestos se obtuvo un 84.8% de clasificación correcta sobre imágenes individuales. Paso seguido se determinó el aporte de la interpretación de cada muestra en la determinación de la textura presente sobre un soporte definido de longitud 5m obteniendo un máximo porcentaje de acierto de 76.7%, además se describen los procedimientos y mediciones llevados a cabo para lograr el mejor resultado.
La importancia de la presente investigación radica en que es la finalización del primer paso en el proceso de modelamiento espacial de atributos geometalurgicos, teniendo como dominio la asignación automatizada de textura en muestras de un depósito mineral. Tal propuesta también se describe en el presente documento.
|
185 |
Reingeniería del Sistema de Registro de Publicaciones Científicas del DCCSepúlveda Guzmán, Paulina Andrea January 2008 (has links)
La estructura y el funcionamiento de las organizaciones educacionales se han visto
afectadas por la constante búsqueda de la excelencia académica. Una reestructuración
del personal, cambios en el organigrama, nuevas mallas curriculares, incorporación de
herramientas de apoyo son medidas adoptadas con el fin de lograr el objetivo de la
excelencia académica. Últimamente se ha venido desarrollando un nuevo y cada vez más
importante factor competitivo: generar, difundir y poner a disposición de todo el
conocimiento en una organización.
El conocimiento ya no es un recurso más de la organización, sino que, con motivo
de la evolución de la sociedad industrial a la sociedad de la información o sociedad del
conocimiento, se ha convertido en uno de los principales factores de producción.
Es por esto la creciente necesidad de generar herramientas tecnológicas que
permitan administrar y gestionar de la mejor manera este conocimiento, el Departamento
de la Ciencias de la Computación de la Facultad de Ciencias Físicas y Matemáticas de la
Universidad de Chile, no esta ajeno a esta necesidad de administrar la información y
conocimiento.
En particular la información y conocimiento que requiere administrar el
Departamento, es la de la producción investigativa de los académicos y el uso de fondos
de incentivos a esta producción. Para lograr este objetivo esta memoria tiene como
objetivo principal la de generar una herramienta Web que permita automatizar la gestión
de las publicaciones del Departamento y la administración de los fondos de incentivo
asociados, esta actividad involucra tanto a los académicos como a personal administrativo
del Departamento, como área de investigación, contabilidad y dirección.
Esta herramienta tiene como finalidad entregar una visión completa del estado de
las publicaciones, para cada uno de los involucrados:
Académicos, publicación aceptadas y acreditadas en el Departamento,
estado de fondos de incentivos y puntaje
Coordinador de Investigación, vista completa de la producción
investigativa de los académicos, y administración de los fondos de incentivo.
Contabilidad, gestión del uso de los fondos de incentivos
Dirección, visión completa y global de la producción investigativa de los
académicos y gestión de los fondos de incentivo.
|
186 |
A Computational Study of Algebraic ChemistryVeloz González, Tomás Igor January 2010 (has links)
La Química Algebraica es un modelo abstracto para la bioquímica. Una Química Algebraica
se compone de una red de reacciones moleculares, prescindiendo de una dinámica que
permita estudiar su evolución, pues el modelo se enfoca en como las moléculas pueden
ser producidas o consumidas por las reacciones. Se ha probado que en una Química
Algebraica, un tipo especial de subredes llamadas organizaciones, son las únicas subredes
que pueden tener estabilidad dinámica.
Este hecho permite simplificar la comprensión de la dinámica de los sistemas
bioquímicos, dado que permite explicar la evolución del sistema como movimientos
entre organizaciones en el espacio de fase. De aquí que el cómputo del conjunto de
organizaciones de una Química Algebraica es una tarea central en la teoría.
Al momento no han hay suficientemente buenos algoritmos para computar
organizaciones, ni hay una comprensión de la estructura que subyace en la definición de
organización (tal vez es esto es la razón de lo anterior).
Esta tesis es un intento por formalizar el trabajo algorítmico en Químicas Algebraicas.
Dicha formalización busca una fertilización cruzada entre modelos de Ciencias de la
computación y Químicas Algebraicas. Es posible enmarcar las Químicas Algebraicas en
algunos conocidos formalismos de la Ciencia de la computación como Sistemas de Adición
de Vectores y Redes de Petri.
Se investiga la equivalencia entre los formalismos mencionados y las Químicas
Algebraicas. Luego algunos conocidos problemas de los Sistemas de Adición de Vectores
y Redes de Petri tales como alcance (reachability), vida (liveness), etc., son estudiados
desde la perspectiva de las Químicas Algebraicas, enfocando el análisis a la relación de
dichos problemas con el problema de computar organizaciones.
De las ideas que surgen del anterior análisis, se hace posible el desarrollo de varios
resultados sobre el cómputo de organizaciones, así como sobre la estructura del conjunto
total de organizaciones de una Química Algebraica. Un teorema para descomponer una
organización, en subsistemas más simples, y sus implicaciones son derivados como los
resultados más importantes de esta tesis.
Los resultados de este trabajo hacen posible además el desarrollo de nuevos y más
eficientes algoritmos para el cómputo de organizaciones y permite separar diferentes
clases de Químicas Algebraicas en términos de la dificultad de computar su conjunto de
organizaciones.
|
187 |
Mejoramiento de la clasificación funcional de enzimas usando aprendizaje de máquinasGómez Padilla, David Ignacio January 2017 (has links)
Ingeniero Civil Eléctrico / Los avances tecnológicos han permitido secuenciar el ADN de un organismo de manera mucho más accesible que en el pasado. Esto ha generado grandes volúmenes de información; en particular, de los principales productos génicos, las proteínas. Sin embargo, solo se ha logrado asignar funcionalidad a una centésima parte de las proteínas disponibles, ya que ello se realiza de forma experimental, lo cual es muy laborioso y lento. Es por ello que se han desarrollado un gran número de métodos computacionales que buscan predecir la funcionalidad de las proteínas. Dentro de ellos, BLAST (Basic Local Alignment Search Tool) ha sido el más usado, el cual asigna funcionalidad basándose en la noción de homología: proteínas con secuencias aminoacídicas similares tendrían funciones similares. Sin embargo se ha visto que proteínas con secuencias muy distintas pueden tener la misma funcionalidad, y variaciones en la secuencia de una proteína pueden tener grandes impactos en su función.
Debido a las limitaciones de la inferencia de funcionalidad basado en homología, numerosos acercamientos basados en aprendizaje de máquinas han sido propuestos como alternativas. CAFA (Critical Assesment of Functional Annotation) es una competencia que busca evaluar las distintas alternativas que han surgido. Este desafío ha arrojado que no existe un método que sobrepase claramente a los demás, además de probar que si bien las alternativas propuestas sobrepasan el rendimiento de BLAST, este último aún sigue teniendo efectividad.
En el presente trabajo se propone BLAST-KNN: un algoritmo que ensambla técnicas de aprendizaje de máquinas junto a BLAST para mejorar el proceso de clasificación funcional en enzimas, un subconjunto de las proteínas, utilizando la nomenclatura de los números EC (Enzyme Commission) como etiquetas. De esta manera se aprovecha la efectividad de BLAST y se intentan corregir aquellas clases en que este no tiene un rendimiento perfecto. Se incorpora el uso del programa InterProScan como extractor de características para representar las proteínas, lo que entrega la ventaja de tener información basada no solo en homología. Se seleccionan las características más relevantes usando técnicas de teoría de la información. Usando los datos disponible en SwissProt que cuentan con sus cuatro dígitos EC asignados, se logran mejorar 835 clases en términos del puntaje F1 obtenido solo por BLAST, lo que representa el 55.48% de las clases en que BLAST no tiene un rendimiento perfecto. Además, se muestra un predominio de BLAST-KNN frente a BLAST al evaluar clases con más de un número EC asignado, mejorando el 60.3% de los casos. Por otro lado, se valida PANTHER, CDD y los descriptores propios de InterPro (IPR) como fuente importante de información al momento de predecir números EC a nuevas enzimas.
Las limitantes del algoritmo propuesto están en la poca información por clase disponible, teniendo una distribución no uniforme en el número de muestras por etiquetas, lo que fuerza a utilizar algoritmos simples para clasificar. Se propone mejorar la representación de las enzimas incorporando nuevas características, así como extender el clasificador a uno que considere enzimas que no tengan los cuatro dígitos EC asignados. / Este trabajo ha sido parcialmente financiado por Conicyt 11150107
|
188 |
Aplicación de la metodología de Amón y Jiménez para asegurar la calidad de los datos en la construcción del ETL durante la implementación de un datamart para la Empresa MC Express de la ciudad de ChiclayoCastillo Montalvan, Luis Felipe Raul January 2011 (has links)
En la empresa MC Express existen múltiples base de datos para cada proceso, la información que se muestra muchas veces no es la correcta, dando como resultado informes erróneos que afectan directamente en las decisiones de la alta dirección. Es así que se optó por asegurar la calidad de los datos cuando se extraigan, transformen y carguen de las bases de datos de compras y ventas, ayudados por la guía metodológica de Amón y Jiménez al momento de elegir la mejor técnica de depuración de datos durante el proceso ETL. Finalmente, se pudo reducir el alto índice de error en los datos, cometidos por la extracción de datos de múltiples fuentes, que al no ser analizadas como corresponde, produce consultas con errores en la información, contribuyendo así en la malas decisiones por parte de la alta dirección, y que conllevan a la pérdida de tiempo, dinero, oportunidades de nuevos negocios, y hasta la banca rota de las empresas. / Tesis
|
189 |
Aplicación de bases de datos semánticas como herramienta de transferencia de conocimiento en la clasificación de cuerpos de agua de ChileSilva Urrutia, Katherinne January 2012 (has links)
Memoria para optar al Título Profesional de Ingeniero en Recursos Naturales Renovables / La calidad y el tiempo invertido en el proceso de toma de decisiones depende de la recopilación de antecedentes, información existente y la accesibilidad y entendimiento por parte de los tomadores de decisiones de ésta. Se plantea que estos procesos se ven facilitados con la utilización de sistemas de apoyo a la toma de decisiones. En este contexto se evaluó la aplicabilidad de un soporte de información y conocimiento, las bases de datos semánticas (BDS), como herramienta de transferencia de conocimiento científico y/o experto para la toma de decisiones en el sector público.
En este estudio se construyó una base de datos semántica de la clasificación de cuerpos de agua de Chile. El proceso de construcción consideró la conceptualización del área de estudio o dominio de conocimiento, la explicitación de conceptos y la construcción de la ontología. Posteriormente, se realizó una evaluación de esta base de datos como herramienta de transferencia de conocimiento, para lo cual se realizaron dos evaluaciones. La primera evaluó el desempeño de profesionales en la solución de problemas relacionados con el conocimiento almacenado en la BDS, en comparación con el desempeño con soportes tradicionales para este mismo tipo de conocimiento. La segunda evaluó la percepción de la aplicabilidad de la herramienta en el sector público con profesionales del Ministerio del Medio Ambiente (MMA).
La evaluación evidenció que las BDS presentan similares tiempos de acceso a la información que los soportes tradicionales, en dominios de conocimiento afines a los profesionales evaluados. El número de errores en el grupo evaluado con la BDS (10% de errores) es menor que el grupo evaluado con soportes tradicionales (35% de errores), lo cual sugiere que el uso de esta herramienta tiene potencialidad en procesos de comprensión de la información y toma de decisiones. Por otro lado, la herramienta fue evaluada positivamente por los profesionales del MMA considerando que la herramienta es útil y adecuada para el soporte de información y conocimiento en su quehacer en la toma de decisiones.
Finalmente, se concluye que la herramienta mejora la gestión de las temáticas abordadas en la institucionalidad ambiental, disminuyendo las brechas entre el sector público y el científico y/o experto mediante la explicitación de conceptos y la interconexión de éstos, facilitando el entendimiento entre profesionales semánticamente distantes. / Quality and time invested in the process of decision making depends on the gathering of background information as well as the access and understanding that decision makers have on this. It's been argued that this processes are facilitated by the use of decision-making support systems. In this context, the applicability of an information and knowledge support, the semantic databases (SDB), as a tool for scientific and/or expert knowledge transfer has been evaluated, for the decision making processes in the public sector.
In this study, a semantic database of the Chilean water bodies classification was built. The process of building considers the conceptualization regarding the study area or knowledge domain, the explicit statement of concepts and the construction of the ontology. Later, this database was evaluated as a tool for knowledge transfer, for which two assessments were carried out. The first one evaluated the performance of the professionals in the solution of problems related with the knowledge stored in the SDB, in comparison with the performance of traditional support for this same kind of knowledge. The second one evaluated the perception of the applicability of the tool in the public sector with professionals from the Environment Ministry.
The assessment made evident that the SDB present similar times of information access than traditional supports, in similar knowledge domains as the evaluated professionals. The number of errors in the evaluated group with the SDB is lower than the group evaluated with traditional supports, which suggests that the use of this tool has a potentiality for information understanding and decision making processes. On the other side, the tool was positively evaluated by the professionals of the ministry, considering it as a useful and adequate tool for the information and knowledge support for their decision making work.
Finally, it's concluded that the tool improves the management of the addressed themes in the environmental institutions, diminishing the gaps between the public sector and the scientist and/or expert, through the explicit statement of concepts and the interconnection between them, facilitating the understanding among semantically distant professionals.
|
190 |
Internet y el desafío del periodismo digitalDonoso Astete, Fernando January 2000 (has links)
Memoria para optar al título de Periodista / El autor no autoriza el acceso a texto completo de su documento / Hubo un momento hace unos 30 años en que todo quedó listo en Estados Unidos para mantener al país comunicado cuando golpearan los misiles soviéticos. La administración Kennedy creía que si atacaba a Cuba para destruir sus instalaciones de cohetes apuntando hacia el Norte los rusos responderían; y ello podría ocurrir en cualquier circunstancia en el futuro.
Arpanet conectó a los grandes computadores de los centros militares y políticos entre la costa Este y la Oeste. La instalación sería la base de lo que se conoce como Internet y que hoy ofrece posibilidades muy diferentes aunque siempre en el ámbito de la comunicación: enviar correo, charlar en tiempo real, realizar transacciones comerciales; dar a conocer aficiones, fantasías y hobbies; informar, intercambiar archivos de sonidos e imágenes, fastidiar, estafar, seducir, desinformar, investigar, etcétera.
La historia de la Red es la perfecta combinación inicial de inversión pública y visión de futuro y la posterior adhesión de inversión privada con fines de lucro, todo mezclado con el espíritu libertario y lúdico de miles de programadores y aficionados que han aportado a su desarrollo en tres décadas.
Diez años después de la masificación de la interconexión de los computadores y sólo cinco años desde que la Red se transformó en la mayor empresa de servicio público del mundo -gracias a la combinación de computadores más potentes y más baratos, una infraestructura de telecomunicaciones que facilitó la interconexión mundial y un programa para explorar el ciberespacio fácil de usar- hemos asistido al nacimiento de lo que algunos llaman un nuevo Estado, de carácter virtual, formado por 270 millones de habitantes, que crece a un ritmo mayor que ninguno de los países de la Tierra: el World Wide Web (o WWW o 3w).
A poco de comenzar el siglo XXI constatamos que la masividad que ha alcanzado el uso de los computadores como medio de procesamiento y difusión de información, impulsada por el aumento sín límites de las capacidades tecnológicas informáticas, está modificando el modelo de comunicación de masas. Las audiencias reciben, consumen, producen y comunican información.
¿El nuevo Estado virtual y su nuevo modelo de comunicación eran imprevisibles? Al parecer sí, si empresarios exitosos y visionarios paradigmáticos como Bill Gates (el más rico del mundo de la mano de Windows) sostenían hace unos siete años que Internet no tenía futuro (en ese momento Microsoft carecía de navegador y posteriormente le compró a la compañía Spyglass el motor de su Mosaic, la base del Explorer) y que la supercarretera de la información “será otra”.
Así una iniciativa estadounidense para lograr un medio alternativo de comunicación de radio de acción nacional -que combinó el espíritu libertario de los sesenta con su mundialmente reconocido militarismo y la pujanza científica de sus universidades, todo macizamente respaldado por el Estado- cristalizó en el club mundial de usuarios del computador, transformando un planeta multifragmentado en una avenida transitable.
Hace unos pocos años las redes de transmisión de datos eran el elemento vertebrador de la nueva industria de la información y del conocimiento. Pero hace menos de un lustro la Red fue más allá y se transformó en motor de lo que hoy se conoce como “Nueva economía”: los individuos, las empresas, las organizaciones, los grupos de interés, las asociaciones con los más diversos fines se incorporan a Internet para comunicar, informarse, entretenerse y realizar transacciones comerciales y financieras de todo tipo. Entre las preocupaciones de todos los días de los equipos directivos de una compañía hay un fundamental: cómo convertirse en una firma de Internet, antes o mejor que la competencia.
La revolución digital es mucho más que un conjunto de nuevas herramientas para comunicarnos, trabajar, informarnos, divertirnos, expresarnos y hacer negocios. “No hay nada que esta tecnología no afecte”, ha sostenido el director del Centro de Política de la Comunicación de la Universidad de California (1), que inició en 1999 un estudio de 10 años sobre el impacto de Internet en la sociedad mundial, desde los comportamientos familiares y afectivos hasta los económicos. Su función política también es clave: los partidos usan el Web para promocionarse y recaudar fondos, y las organizaciones rebeldes, clandestinas o vetadas por el establishment -exiliados, guerrilleros, paramilitares- encontraron un poderoso e insustituible aliado en la Red para organizarse y comunicarse.
El Comité Interministerial de Modernización de la Gestión Pública de Chile está colocando al Estado en el ciberespacio, y desde octubre de 1999 las compras y adquisiciones públicas se realizan exclusivamente por el Web (2). En su primera cuenta al país el Presidente de la República dijo en mayo del 2000 que durante su mandato se creará una “Ventanilla electrónica única” y una “Red de enlace cultural con información sobre arte, cultura y recreación: el Estado de Chile se pondrá a la vanguardia mundial en conectividad”
|
Page generated in 0.063 seconds