Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Datový report.

Dissertationen zum Thema „Datový report“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Datový report" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Václavík, Marek. „Analýza dat a reportování vsystému ALVAO Service Desk“. Master's thesis, Vysoké učení technické v Brně. Fakulta podnikatelská, 2021. http://www.nusl.cz/ntk/nusl-444628.

Der volle Inhalt der Quelle
Annotation:
The diploma thesis focuses on the analysis of the current state of reporting and data analysis of the ALVAO Service Desk system in the company's internal operation. Based on the findings of deficiencies, a new method of reporting and data analysis on the Microsoft Power BI platform is proposed. The proposal includes the entire Power BI feature cycle from data accessing to sharing.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Franek, Zdenko. „Vytváření OLAP modelů reportů na základě metadat“. Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2010. http://www.nusl.cz/ntk/nusl-237173.

Der volle Inhalt der Quelle
Annotation:
An important part of knowledge of report creator is knowledge of database schema and database query language, from which the data for report are extracted. In the reporting services for database systems and Business Intelligence systems initiative arises to separate the position of database specialist from the position of reports maker. One of the solutions offers using metadata interlayer between the database schema and report. This interlayer is called the report model. Its use is not currently supported in the process of reporting, or is only very limited. The aim of this thesis is to suggest the possibility of using the report model in the process of building reports with an emphasis on the OLAP analysis.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Langmaier, Petr. „Business Intelligence v bankovním sektoru“. Master's thesis, Vysoká škola ekonomická v Praze, 2008. http://www.nusl.cz/ntk/nusl-4547.

Der volle Inhalt der Quelle
Annotation:
The main goal of this thesis is proposal and implementation of the support of decision making with help of Business Inteligence tools in bank environment for deparment of the risk management. The proposal include enlargement of the current used dimensions with new ones. Designed system should fully replace contemporary system and extend possibilities of obtaining informations from data resources and improve the quality of decision making. Designed system will be part of portfolio quality review of multiple business products. The next goal of this work is to analyse current trends in Business Inteligence and analyse the usage of BI in banking. Further analyse the support of BI from operative to strategic decision making. The goals are achieved on the basis of analyses accessible relevant electronic and printed resources, further from knowledge and experience of bank's analysts from deparment of the risk management and BI. Further from service documentation and further from my work experience in deparment of the risk management and from implementation of credit scoring projects. As the personal contribution of the author is possible to consider the demonstration of the usage of BI in bank risk management and at the same time the proposal of one possible way of solving implementation of the supports of decision making in bank's environment.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Filka, Zdeněk. „Implementace Business Intelligence v poradenské společnosti“. Master's thesis, Vysoká škola ekonomická v Praze, 2010. http://www.nusl.cz/ntk/nusl-73902.

Der volle Inhalt der Quelle
Annotation:
The main aim of this thesis is the proposal and implementation of the support of decision making with the help of Business Intelligence tools in Audit CI, company limited providing economic and financial consultancy. Business Intelligence tools are applied at the creation of reports which company provides for its clients in terms of its services. On the basis of these reports subsequently suggests recommendations in the field of finance and intradepartmental management. The whole thesis is divided into two parts. In the theoretical part are described fundamental principles of BI solution. Main components of which can be BI solution set up, its place in the architecture of the information system of company, finally fundamental base of the proposal of BI solution. The practical part includes the proposal and implementation of BI solution, from multidimensional analysis through the solution of the data pump, multidimensional cubes, to set up the output in the client application.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Klimeš, Jiří. „Řízení informačních toků malé softwarové společnosti“. Master's thesis, Vysoké učení technické v Brně. Fakulta podnikatelská, 2012. http://www.nusl.cz/ntk/nusl-223698.

Der volle Inhalt der Quelle
Annotation:
This diploma thesis deals with the management of information flow of a small company using Business Intelligence tools and the data mart. There is defined the problem of working with information from the point of view of selected company in the first part. The next part presents selected theoretical background on the basis of which was the aim achieved. The fourth part analyses the current situation of the company. There is recommended complex improvement of the current situation in the practical part. Selected information management problem is accomplished factually. There are also introduced suitable software tools, which were used for the solution.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Dlouhý, Radim. „Analýza a optimalizace procesu tvorby manažerského reportu v bankovní instituci“. Master's thesis, Vysoká škola ekonomická v Praze, 2015. http://www.nusl.cz/ntk/nusl-203908.

Der volle Inhalt der Quelle
Annotation:
This masters thesis tackles the issue of process management in a financial institution, spe-cifically the analysis and optimization of the creation of a certain management report. The first part of this masters thesis is dedicated towards explaining basic theoretical concepts, which will help the reader correctly understand the rest of the paper. There you can find explained the principles of reporting and process management, which will introduce the reader to the issues of processes, their analysis and subsequent optimization. The practical portion first introduces the reader to the particular financial institution, then it describes the organization structure and the activities of data governance, thorough analysis of the particular process, the identification of and a suggestion of optimization which should lead to a more effectively working employees as well as the elimination of narrow places of the process. The conclusion of the masters thesis introduces steps of real implementation of the suggested solutions.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Hyblbauer, Jan. „Řízení reportingu v bankovním sektoru“. Master's thesis, Vysoká škola ekonomická v Praze, 2014. http://www.nusl.cz/ntk/nusl-201688.

Der volle Inhalt der Quelle
Annotation:
The diploma thesis focuses on a proposal for a methodological framework of reporting management in the banking sector and identifying key weaknesses of the current state. Using the proposed methodology precedes weaknesses and proves it on practical example from the real environment. The main benefit of this work is design of a methodological framework that allows the organized management and control of the reporting. It also brings identification of main weaknesses of the current reporting and last but not least universal template for the report specification. The work consists of three parts. The first, theoretical, defines area of reporting in a banking institution. It includes all the terminology, characteristics and types of reports. The second part, analytical, examines the current weaknesses of reporting within the defined area. Provides an overview of three to six major weaknesses in a particular phase of a new report development based on the scientific literature and practical experience of the author of this work in the banking environment. The third and final section contains a draft concept of reporting management in the banking sector with avoidance of the identified weaknesses from the analytical part.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Nylander, Stina. „The ubiquitous interactor : Mobile services with multiple user interfaces“. Licentiate thesis, Uppsala : Univ. : Dept. of Information Technology, Univ, 2003. http://www.it.uu.se/research/reports/lic/2003-013/.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Meneses, Susana, und Jeyhson Vicharra. „Webinar: Journal Citation Report (JCR) e InCites Benchmarking: herramientas para identificar los cuartiles de una publicación y otros datos bibliométricos“. Universidad Peruana de Ciencias Aplicadas (UPC), 2021. http://hdl.handle.net/10757/657277.

Der volle Inhalt der Quelle
Annotation:
Susana Meneses (México)- Expositora Jeyhson Vicharra (Perú) - Moderador
Webinar enfocado en capacitar a toda la comunidad universitaria en el uso de las bases de datos Journal Citation Report e e InCites Benchmarking.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Bustamante, Alvarez Gina. „Extracción de información para la generación de reportes estructurados a partir de noticias peruanas relacionadas a crímenes“. Bachelor's thesis, Pontificia Universidad Católica del Perú, 2019. http://hdl.handle.net/20.500.12404/14983.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Hernández, Ballesteros María Consuelo. „El uso de datos individuales en la estimación de los determinantes de la participación electoral : el problema del sobre reporte del voto en Chile“. Tesis, Universidad de Chile, 2014. http://www.repositorio.uchile.cl/handle/2250/115361.

Der volle Inhalt der Quelle
Annotation:
Seminario para optar al grado de Ingeniero Comercial, Mención Economía
La introducción del voto voluntario en Chile y la caída en la participación que le siguió, encendieron el debate respecto a cuáles son los determinantes demográficos y socioeconómicos que se encuentran detrás de la decisión de asistir a votar. El presente trabajo busca ser un aporte a la discusión acerca de cuáles son la fuentes de información aceptables para este tipo de estudios, cuáles son los problemas que éstas pueden ofrecer y cómo es posible corregirlos. Mediante la revisión de la literatura internacional, un primer hallazgo de esta investigación sostiene que este tipo de estudios debe ser realizado a través del uso de datos individuales, debido a que datos de este tipo ofrecen una rica fuente de información, que permite controlar por variables de interés. El problema que surge ante el uso de estos datos, es que presentan sobre reporte de la participación electoral (la proporción que reporta haber votado es mayor a la que realmente asistió a votar) lo que puede llevar a estimaciones sesgadas e inconsistentes de los coeficientes que acompañan a las variables de interés. Un importante hallazgo en este aspecto consiste en que existen variables demográficas y socioeconómicas cuyas estimaciones resultan sesgadas y otras que no, dependiendo del tipo de relación que tiene la variable de interés con la propensión a mentir. Para efectos de su estudio, este trabajo documenta, por primera vez, los niveles de sobre reporte del voto en Chile para diversas encuestas de opinión pública. El principal hallazgo de esta documentación consiste en que las mujeres poseen un mayor grado de participación electoral que los hombres y tienen niveles de sobre reporte estrictamente menores para todos los períodos, tipos de elecciones y encuestas estudiadas. Por último, en las siguientes paginas buscan ser un aporte a los procesos de investigación futuros, proponiendo un proceso de validación de la participación en los registros electorales para identificar las variables de interés cuyas estimaciones resultan sesgadas.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Montalvo, García Peter Jonathan. „Generación de datos sintéticos usando Redes Generativas Adversariales para la minería de datos respetuosa de la privacidad“. Master's thesis, Pontificia Universidad Católica del Perú, 2021. http://hdl.handle.net/20.500.12404/19255.

Der volle Inhalt der Quelle
Annotation:
La minería de datos permite conocer patrones en grandes volúmenes de datos; pero dentro de estos datos puede haber información sensible que compromete la privacidad. En tal sentido, se han desarrollado técnicas para la minería de datos respetuosa de la privacidad, siendo la más utilizada la privacidad diferencial debido a las propiedades que otorga a los datos resultantes, de la mano de técnicas de aprendizaje profundo. Estas técnicas se han utilizado en conjuntos de datos de números escritos e imágenes, pero no en datos de georreferenciación. El presente trabajo tiene como objetivo medir la eficacia de los datos sintéticos generados a través redes generativas adversariales y privacidad diferencial en datos de georreferenciación. La generación de estos datos se hace a través de selección de datos, sanitización para la obtención de la base de datos sintéticos y evaluación a través de modelos de movilidad a partir de las trazas que sirven para medir la pérdida de información y el riesgo de divulgación. En líneas generales, los resultados demuestran que la aplicación de estas técnicas sobre datos de georreferencia da como producto un conjunto de datos sintéticos con una pérdida de información y riesgo de divulgación bajos, y se concluye que estos conjuntos de datos obtenido se puede realizar una minería de datos similar a la que se haría con los datos originales y sin comprometer información sensible.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Durand, Collantes Giancarlo Martin. „Implementación de modelos de inteligencia de negocios 2.0 para la automatización del proceso de cierre contable y reportes para el control de gestión de ventas“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2017. https://hdl.handle.net/20.500.12672/6976.

Der volle Inhalt der Quelle
Annotation:
Publicación a texto completo no autorizada por el autor
Presenta el modelo de inteligencia de negocios 2.0 como alternativa para mejorar las eficiencias de los procesos del control de gestión de ventas dentro de la empresa Telecel, a través de automatizaciones, lo que permite obtener ventaja competitiva. Se hace énfasis en la generación y gestión de información de calidad en los tiempos oportunos, automatizaciones y optimizaciones de costos y tiempos. Busca simplificar y automatizar la creación y análisis de reportes, a través de la implementación de un Datamart específico para cada necesidad de negocio, que permita visualizar dashboards dinámicos con acceso a información histórica. Optimiza los tiempos de los procesos y generación de ahorros en las áreas del control de gestión de ventas. Reduce la cantidad de errores que impacten en los tiempos de los procesos y/o funciones dentro de la empresa. Proporciona el modelamiento dimensional de los datos internos de un área.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Soto, Vergara Daniel Ángel, und García Kevin Romero. „Generación de reportes de calificaciones, hallazgos y acciones de mejora“. Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2015. http://hdl.handle.net/10757/619076.

Der volle Inhalt der Quelle
Annotation:
Las carreras de Ingeniería de Software y de Ingeniería de Sistemas de Información de la UPC cuentan con la acreditación ABET (Accreditation Board for Engineering and Technology). Esto da un gran prestigio a la carrera y a la universidad, por lo que es un objetivo de la Escuela de Ingeniería de Sistemas y Computación de la UPC, siempre mantener dicha acreditación. Para lograrlo la UPC debe mostrar evidencias directas o indirectas que los alumnos de sus carreras están alcanzando una serie de competencias específicas, llamadas Resultados del Estudiante (RE). Las calificaciones obtenidas en los cursos son consideradas evidencias directas. Los cursos de la malla curricular de las carreras pueden controlar o verificar que un alumno este adoptando un Resultado de Estudiante, estos cursos se clasifican en Control y Verificación de acuerdo a ello. Los cursos que no intervienen en la obtención de un RE, sino que dan las bases para la consolidación de una o más competencias específicas son llamados de Formación. La información de las calificaciones de estos cursos se convierte manualmente en reportes, que luego son enviados al equipo que evalúa a la carrera en el marco de la acreditación ABET. De las evidencias generadas tanto por los reportes de control y verificación como de los otros instrumentos, se encuentran hallazgos que son enunciados que describen el estado de un curso o de la carrera. Por ejemplo las notas de trabajos finales de los cursos de verificación, y los comentarios de las encuestas de fin de ciclo son hallazgos. Luego se generan reportes de hallazgos y en base a estos reportes se proponen acciones de mejora con el fin de continuar el proceso de mejora continua de la carrera. El objetivo de este proyecto al finalizar, es entregar una solución web a la escuela con el fin de automatizar la generación de estos reportes y el ingreso de acciones de mejora. De esta manera obtener más rápido información actualizada y útil para determinar qué puntos mejorar. Este sistema está dirigido a los miembros del comité, que serán los encargados de generar los reportes e ingresar las acciones de mejora.
The UPC programs of Software Engineering and Information Systems Engineer have the ABET accreditation. This gives great prestige to the program and the university, which is why it’s an objective of the UPC Computing and Systems College always keep having such accreditation. To accomplish that, the UPC must show direct or indirect evidence that the alumni of those programs are achieving a series of specific abilities, called Student Outcomes (SO). The grades that students get during their career, are considered direct evidence. The courses of the academic path of such programs can control or verify that a student is achieving a Student Outcome. Such courses are classified as Control or Verification according to that. The other courses that neither control, nor verify that a student is achieving a SO, is classified as Formation. The grades of the courses of Control or Verification are manually converted into reports, that afterwards are sent to the team that evaluates the program for the ABET accreditation. Gathering the evidence generated by the reports of Control and Verification, and also from other instruments, they become findings, which are sentences that describe the current state of a program or the career. For example, the grades on the final project of the Verification courses and the comments on the surveys at the end of the term, are considered findings. Afterwards, those findings become reports and on the basis of them, improvement actions are proposed, with the goal of continuing the process of continuous improvement of the program. The objective of this Project, is to create a web solution for the College, with the goal of automatizing the generation of this reports, and the insertion of improvement actions. This what, we can obtain faster, up to date information to determinate what can it be done to improve the program. This system is geared toward the member of the committee, who are the responsible of the generation the reports and the proposal of Improvement Actions.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Sánchez, Suil Sebastián Andrés. „Mejora de Procesos en la Generación de Reportes para Gerencia de Call Center de Empresa de Telecomunicaciones“. Tesis, Universidad de Chile, 2011. http://www.repositorio.uchile.cl/handle/2250/104149.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Huamaní, Ñahuinlla Percy. „Estimación no paramétrica para datos con eventos recurrentes“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2011. https://hdl.handle.net/20.500.12672/15667.

Der volle Inhalt der Quelle
Annotation:
Publicación a texto completo no autorizada por el autor
Cuando se estudia el análisis de supervivencia generalmente lo hacemos para eventos que ocurren por única vez para cual es muy útil el estimador de Klapan Meier para estimar la función de supervivencia. Sin embargo, cuando tenemos el caso de eventos que ocurren varias veces para un mismo individuo u objeto necesitamos otros estimadores para la función de supervivencia, es ahí donde nacen nuevos conceptos para el análisis de supervivencia como por ejemplo, interocurrencia, tiempos correlacionados, modelos de fragilidad, etc. Para realizar inferencia en este tipo de estudio, debe tener cuidado con los tiempos de interocurrencia ya que muchas veces estos tiempos no son independientes, si no tenemos en cuenta este hecho, se pueden obtenerse estimadores sesgados e ineficientes. En el caso de independencia, podemos usar el Estimador General Limite de Producto (GPLE), por otra parte para modelos con tiempos correlacionados debemos utilizar otros estimadores como Wang-Chang (WC) y modelos de Gamma de Fragilidad (FRMLE). El objetivo que se persigue en este trabajo de investigación, es estimar la función de supervivencia a través de los estimadores no paramétricos para eventos que ocurren más de una vez. La aplicación de los estimadores en la base de datos de Complejo Migratorio Motor (CMM) que fue elaborado por Aalen y Husebye en 1991 y que actualmente se encuentra en la consola de R Project, en dicho base de datos se aplica los estimadores de Wang-Chang y Peña-Strawderman-Hollander de modo independiente, los resultados de ambas estimaciones son muy similares por lo que el método de análisis no afecta en los resultados siempre y cuando los tiempos de interocurrencias son independientes, en el caso de datos con tiempos correlacionados es recomendable sólo utilizar el estimador de Wang-Chang.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Peñaloza, Seguil Edelmira Otilia. „Jugando Aprendemos A Representar Datos Con Gráficos Estadísticos“. Bachelor's thesis, Pontificia Universidad Católica del Perú, 2019. http://hdl.handle.net/20.500.12404/18086.

Der volle Inhalt der Quelle
Annotation:
El presente trabajo académico denominado “Jugando Aprendemos A Representar Datos Con Gráficos Estadísticos”, surge como necesidad para mejorar el logro de aprendizaje de la competencia resuelve problemas de gestión de datos e incertidumbre en los estudiantes del III ciclo de la I.E. N° 2016 “Francisco Bolognesi”, ubicada en el distrito de Comas, esta dificultad se evidencia al observar una sesión de aprendizaje donde no se respeta las necesidades de los niños para aprender a pensar, recopilar, registrar, expresarse y utilizar tablas de conteo simple y gráficos de barra simple en vivencias cotidianas. El objetivo central del proyecto es: docentes aplican adecuadamente las estrategias metodológicas para las situaciones de gestión de datos e incertidumbre, para ello aplican estrategias para la resolución de problemas de gestión de datos e incertidumbre. Los conceptos teóricos que sustenta el proyecto de innovación se basan en los conceptos sustentados por como Batanero, J.D Godino, Piaget con la importancia del aprendizaje en los diferentes estadios, así como el uso de material concreto, Ausbel quien sustenta el aprendizaje significativo y Vygotsky quien sustenta la mediación del docente, entre otros autores. Para la elaboración del proyecto de innovación se inicia al elaborar la matriz de análisis FODA, en el que se evidencia las fortalezas, debilidades, oportunidades y amenazas tanto internas como externas que se identificaron en la Institución Educativa, siguiente paso se elabora el árbol de problemas, árbol de objetivos y la matriz de consistencia. Los resultados que se espera lograr docentes conocen estrategias adecuadas para representar datos en tablas de conteo simple y gráficos estadísticos, docentes acceden a capacitación docente para el fortalecimiento de capacidades en la resolución de problemas de gestión de datos e incertidumbre y docentes incorporan estrategias adecuadas en las sesiones de aprendizajes. Finalmente, se concluye que los docentes capacitados en la resolución de problemas de gestión de datos e incertidumbre, permite lograr los objetivos trazados, para que los estudiantes desarrollen la capacidad utilizar tablas de conteo simple, representando los datos en gráficos de barra simple y con ello alcancen los aprendizajes esperados.
Tesis de segunda especialidad
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Rodriguez, Sandoval Melissa del Rosario. „Desarrollo e implementación de un sistema de procesamiento y generación de reportes de provisiones para una entidad financiera“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2017. https://hdl.handle.net/20.500.12672/8512.

Der volle Inhalt der Quelle
Annotation:
Describe el desarrollo e implementación del sistema de procesamiento y generación de reportes de provisiones y castigos para una entidad financiera, la cual se realizó haciendo uso de una metodología que se originó a partir de la recopilación de buenas prácticas en la entidad financiera. Se detallan los pasos que se siguieron para el desarrollo e implementación de este sistema.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Alejo, Romero Richard Jhonny. „Uso de los datos de satélite en la geofísica“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2012. https://hdl.handle.net/20.500.12672/12580.

Der volle Inhalt der Quelle
Annotation:
La presente monografía técnica tiene como propósito mostrar al lector las bondades del uso de datos de satélite para su aplicación en estudios de geofísica. Se muestran las características de los satélites que proporcionan datos de vientos y temperatura del mar, así como datos productos de altimetría y corrientes superficiales en el océano. Información sobre sus resoluciones espaciales y temporales así como también las direcciones en internet de donde pueden ser obtenidas. Las aplicaciones más importantes realizadas con estos datos y productos de satélite son presentadas de manera que el lector comprenda la importancia del uso de esta información de libre disponibilidad.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Arribasplata, Morales Nathaly Milagros. „Implementación de motor de limpieza de datos para la estandarización de los datos insumo del análisis de riesgos en una entidad del Estado“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2021. https://hdl.handle.net/20.500.12672/17038.

Der volle Inhalt der Quelle
Annotation:
Las acciones de control aduanero de operaciones de comercio exterior deben garantizar la reducción de los delitos aduaneros, realizándose de manera oportuna, así como evitando sobrecostos en su ejecución. Debido al gran número de operaciones de importación y exportación realizadas en el Perú, el control físico de su totalidad es inviable, por lo cual adquiere suma importancia la gestión del riesgo de fraude aduanero, cuya finalidad consiste en seleccionar las mercancías a inspeccionar según el canal de control asignado como resultado del análisis e identificación del riesgo. Asimismo, la información que identifica a los principales participantes extranjeros de dichas operaciones es consignada durante el registro de la documentación aduanera en campos de formato libre – ya que no existe un catálogo unificado de personas jurídicas y naturales extranjeras – con datos no exactos. Dado que estos datos son insumo del análisis de riesgos, deben ser estandarizados previamente por un proceso de limpieza. Esto se realizaba de manera manual, impactando negativamente en la comunicación oportuna de posibles alertas de inmovilización de mercancía de riesgo. En este sentido, se implementó un motor de limpieza de datos que ha permitido al sistema de selección de carga de exportación para acciones de control extraordinario, disponer de manera ágil, de información estandarizada como insumo, contribuyendo en la disminución del tiempo de desfase en la comunicación de alertas de inmovilización y en la reducción del esfuerzo humano implicado en la gestión del riesgo. El motor de limpieza y sus módulos de mantenimiento han sido implementados con la metodología de desarrollo de sistemas de información propia de la Institución donde se realizó este proyecto, la cual utiliza el Lenguaje de Modelado Unificado (UML) y tiene similitud con el marco de trabajo del Proceso Unificado.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Pérez, Navarro Henry Bryan, und Jara Humberto Luis Salcedo. „Modelo de madurez en ciberseguridad para empresas que manejan datos de salud“. Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2021. http://hdl.handle.net/10757/655801.

Der volle Inhalt der Quelle
Annotation:
El avance de la digitalización en distintas industrias trae consigo nuevos riesgos potenciales. Aquellas que pertenecen al sector salud se encuentran entre las que mayores riesgos deben enfrentar. La privacidad de los datos en el sector salud se encuentra regulada y las multas por el incumplimiento de normativas pueden afectar a las compañías, ya que esto indica que ponen en peligro los datos personales de sus clientes. Por ello, las industrias que pertenecen a este sector, necesitan una herramienta que facilite la identificación de capacidades en Ciberseguridad, Privacidad y gestión de datos de salud para cumplir con las normativas vigentes, y reducir los riesgos que comprometan la confidencialidad, integridad y accesibilidad de los datos. En este trabajo se propone un modelo de madurez de capacidades que identifica el grado de fiabilidad de los elementos de Ciberseguridad y Privacidad aplicados al Sector Salud. Esto se realizó mediante la selección de modelos, frameworks y normativas, aumentando su complejidad mediante la integración de capacidades de privacidad y gestión de datos de salud. El modelo se validó en una empresa del sector salud con una herramienta de diagnóstico y se observaron los resultados. Los resultados obtenidos se compararon con los componentes originales del modelo para verificar que los componentes se integraron holísticamente. Además, se entregó un formulario de evaluación del modelo a la empresa cliente para comprobar el nivel de satisfacción con respecto al uso del modelo y sus componentes.
The advancement of digitalization in different sectors brings along with it new potential risks. One of the sectors that have to confront said risks is the health sector. Data privacy in the health sector is heavily regulated and fines for non-compliance can affect the companies since it implies putting the client’s personal data at risk. Because of this, businesses belonging to the health sector need a tool to help with the identification of capabilities in Cybersecurity, Privacy and Health data management to achieve compliance with the current norms and reduce risks that might compromise the Confidentiality, Integrity and Availability of data This work proposes a capability maturity model that can identify the reliability of Cybersecurity and Privacy elements applied to the Health Sector. This was achieved through the use of models, frameworks and norms; allowing us to increase their complexity through the integration of privacy and health information management capacities. The model was validated by using a diagnosis tool in a health sector business and observing the results. The obtained results were compared with the original components of the model to verify the holistic integration of said components. We also used a model evaluation form to measure the satisfaction level of the business regarding the use of the model and its components.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Cancino, Quispe Christopher Manuel, und Cubillas Ruth Silvana Carrasco. „Visualización de datos y data storytelling en la toma de decisiones“. Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2021. http://hdl.handle.net/10757/657587.

Der volle Inhalt der Quelle
Annotation:
La mayoría de las organizaciones toman decisiones a diario de manera intuitiva, pero solo el uso de los datos, visualización y data storytelling, les asegura una ventaja competitiva, ya que, al comprender el mensaje oculto de los datos, les genera valor agregado a las organizaciones. Por ello, el propósito de la investigación es contrastar las diversas posturas y valoración de los autores para responder a la interrogante central de este estudio: ¿cuáles son las principales posturas sobre el uso de la visualización de datos y el data storytelling en la toma de decisiones en las organizaciones? El método de investigación fue del tipo cualitativo que identificó los principales enfoques de distintos autores. El estudio se desprende de una nueva revolución industrial a la que están sometidos los tomadores de decisiones: la revolución digital, y quiénes no tengan la capacidad de decidir de forma ágil y efectiva perecerán; es decir, no importa cuán increíble sea su análisis o valiosa sea su información, no generará ningún cambio en las partes interesadas sino logran comprender lo que han hecho. Por ello, la visualización de datos y el data storytelling hace la gran diferencia en la toma de decisiones y accionar de forma oportuna.
Most organizations make daily decisions intuitively, but only the use of data, visualization and data storytelling, ensures them a competitive advantage, since, by understanding the hidden message of the data, it generates added value to the organizations. Therefore, the purpose of the research is to contrast the various positions and assessment of the authors to answer the central question of this study: what are the main positions on the use of data visualization and data storytelling in decision making in organizations? The research method is of the qualitative type that identified the main approaches of different authors. The study shows that decision makers are facing a new industrial revolution: the digital one, and those who do not have the ability to decide in an agile and effective way will perish; that is, no matter how incredible their analysis is or how valuable their information is, it does not generate any change in the stakeholders if they do not manage to understand what they have done. Therefore, data visualization and data storytelling make a big difference in making decisions and action in a timely manner.
Trabajo de Suficiencia Profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Ramírez, Mariluz Miguel Ángel. „Diseño de una plataforma de datos compartidos basada en arquitectura workspace y tecnología blockchain para optimizar la gestión de los datos de los estudios de enfermedades en el Perú“. Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2020. http://hdl.handle.net/10757/656266.

Der volle Inhalt der Quelle
Annotation:
Los protocolos de investigación médica requieren que los datos y los resultados sean veraces, para poder determinar las acciones más en salud pública. Es por eso esencial la confianza en la inmutabilidad de los datos recolectados y analizados, así como la protección de la información de los sujetos participantes. Este trabajo se basa en el uso de la tecnología Blockchain y la arquitectura Workspace para brindar una plataforma para conducir estos protocolos de forma segura, confiable y transparente. La organización en la que se basa este trabajo tiene más de 30 años en el Perú realizando protocolos de este tipo. La tesis identificó problemas de errores generados por la recolección manual de información, así como en quiénes debían tener acceso a los datos; además, se encontró problemas en la trazabilidad de los cambios en la información; finalmente, se requería una plataforma de acceso a la información desde cualquier lugar, dispositivo, y momento. La tesis analizó las opciones en el mercado y determinó el uso de Blockchain as a Service (BaaS) de Amazon Web Services (AWS), y Workspace de Citrix Cloud y AWS como la solución más adecuada para el proyecto. Se realizaron pruebas en los algoritmos de enrolamiento y recolección de datos, determinando la efectividad de los mismos al haberse detectado los cambios realizados a la información en el 100% de los casos, así como aceptado los enrolamientos por consenso de los miembros de la red Blockchain. Finalmente, se accedió a los recursos del Workspace desde dispositivos Android y Windows 10, desde una red móvil Entel y una red Wifi de casa Movistar con acceso autorizado.
The medical research investigation protocols require that the data collected and results are trustful, in order to decide the best course of actions in public health. Thus, it is essential the data immutability of the information collected and analyzed, as well as the protection of the information of the enrolled subjects. This thesis is based in the use of Blockchain technology and Workspace architecture to provide a platform to conduct research protocols in a most secure, trustful and transparent way. The organization, which this thesis is based, has over 30 year conducting this type of protocols in Peru. This work identified problems in errors caused by manual data collection process, as well as concerns on who should be able to access the patient’s information; furthermore, we found problems in tracing changes in the information through the protocol; finally, it was identified the need for a platform to access data from anywhere, from any device, anytime. We analyzed technology options in the market and decided to use Blockchain as a service (BaaS) from Amazon Web Services (AWS), and Workspace from Citrix Cloud and AWS as the most suitable solution for this project. We conducted test of the Blockchain enrollment and data collection algorithms, finding a 100% effectiveness in all cases analyzed, and the consensus of enrollment by the Blockchain network members. Finally, we successfully accessed the Workspace resources using Android and Windows 10 devices from a mobile network (ENTEL) and a WI-FI home service (Movistar).
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Mena, Sihuacollo Joseph César. „Algoritmo para brindar alta disponibilidad de servidores base de datos Oracle no clusterizados“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2018. https://hdl.handle.net/20.500.12672/8010.

Der volle Inhalt der Quelle
Annotation:
Publicación a texto completo no autorizada por el autor
Describe el algoritmo para brindar alta disponibilidad de servidores de base de datos Oracle no clusterizados para una empresa del rubro de administración de pensiones. El problema se identifica cuando se inicia un requerimiento que necesitaba que la aplicación, producto de este requerimiento, tuviera disponibilidad 24x7. Para garantizar la disponibilidad de 24x7 o también llamada alta disponibilidad, se requiere servidores redundantes en los diferentes niveles de la arquitectura de la aplicación. La empresa en cuestión cuenta con servidores redundantes (clusterizados) en los diferentes niveles de la arquitectura menos en el nivel de base de datos. La empresa, luego de una evaluación de las diferentes opciones que le permita obtener alta disponibilidad de base de datos (oracle), opta por realizarlo mediante la implementación de un algoritmo propio, y con ello alcanza alta disponibilidad en los diferentes niveles de la arquitectura de la aplicación, cumpliendo con las expectativas requeridas.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Chise, Teran Bryhan, und Bravo Jimmy Manuel Hurtado. „Lineamientos para la integración de minería de procesos y visualización de datos“. Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2020. http://hdl.handle.net/10757/654589.

Der volle Inhalt der Quelle
Annotation:
Process mining es una disciplina que ha tomado mayor relevancia en los últimos años; prueba de ello es un estudio realizado por la consultora italiana HSPI en el 2018, donde se indica un crecimiento del 72% de casos de estudio aplicados sobre process mining con respecto al año 2017. Así mismo, un reporte publicado en el mismo año por BPTrends, firma especializada en procesos de negocio, afirma que las organizaciones tienen como prioridad en sus proyectos estratégicos el rediseño y automatización de sus principales procesos de negocio. La evolución de esta disciplina ha permitido superar varios de los retos que se identificaron en un manifiesto [1] realizado por los miembros de la IEEE Task Force on Process Mining en el 2012. En este sentido, y apoyados en el desafío número 11 de este manifiesto, el objetivo de este proyecto es integrar las disciplinas de process mining y data visualization a través de un modelo de interacción de lineamientos que permitan mejorar el entendimiento de los usuarios no expertos1 en los resultados gráficos de proyectos de process mining, a fin de optimizar los procesos de negocio en las organizaciones. Nuestro aporte tiene como objetivo mejorar el entendimiento de los usuarios no expertos en el campo de process mining. Por ello, nos apoyamos de las técnicas de data visualization y de la psicología del color para proponer un modelo de interacción de lineamientos que permita guiar a los especialistas en process mining a diseñar gráficos que transmitan de forma clara y comprensible. Con ello, se busca comprender de mejor forma los resultados de los proyectos de process mining, permitiéndonos tomar mejores decisiones sobre el desempeño de los procesos de negocio en las organizaciones. El modelo de interacción generado en nuestra investigación se validó con un grupo de usuarios relacionados a procesos críticos de diversas organizaciones del país. Esta validación se realizó a través de una encuesta donde se muestran casos a dichos usuarios a fin de constatar las 5 variables que se definieron para medir de forma cualitativa el nivel de mejora en la compresión de los gráficos al aplicar los lineamientos del modelo de interacción. Los resultados obtenidos demostraron que 4 de las 5 variables tuvieron un impacto positivo en la percepción de los usuarios según el caso que se propuso en forma de pregunta.
Process mining is a discipline that has become more relevant in recent years; proof of this is a study carried out by the Italian consultancy HSPI in 2018, where a growth of 72% of case studies applied on process mining is indicated compared to 2017. Likewise, a report published in the same year by BPTrends, a firm specialized in business processes, affirms that organizations have as a priority in their strategic projects the redesign and automation of their main business processes. The evolution of this discipline has made it possible to overcome several of the challenges that were identified in a manifesto [1] made by the members of the IEEE Task Force on Process Mining in 2012. In this sense, and supported by challenge number 11 of this manifesto, the objective of this project is to integrate the disciplines of process mining and data visualization through an interaction model of guidelines that allow to improve the understanding of non-expert users in the graphical results of process mining projects, in order to optimize the business processes in organizations. Our contribution aims to improve the understanding of non-expert users in the field of process mining. For this reason, we rely on data visualization techniques and color psychology to propose an interaction model of guidelines that allows us to guide process mining specialists to design graphics that convey clearly and understandably. With this, it seeks to better understand the results of process mining projects, allowing us to make better decisions about the performance of business processes in organizations. The interaction model generated in our research was validated with a group of users related to critical processes from various organizations in the country. This validation was carried out through a survey where cases are shown to these users in order to verify the 5 variables that were defined to qualitatively measure the level of improvement in the compression of the graphs when applying the guidelines of the interaction model. The results obtained showed that 4 of the 5 variables had a positive impact on the perception of users according to the case that was proposed in the form of a question.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Tapia, Rivas Iván Gildo. „Una Metodología para sectorizar pacientes en el consumo de medicamentos aplicando Datamart y Datamining en un hospital nacional“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2006. https://hdl.handle.net/20.500.12672/273.

Der volle Inhalt der Quelle
Annotation:
La Minería de Datos (Data Mining) es la búsqueda de patrones interesantes y de regularidades importantes en grandes bases de datos. La minería de datos inteligente utiliza métodos de aprendizaje automático para descubrir y enumerar patrones presentes en los datos. Una forma para describir los atributos de una entidad de una base de datos es utilizar algoritmos de segmentación o clasificación. El presente trabajo, propone un método para el análisis de datos, para evaluar la forma con la que se consumen los medicamentos en un hospital peruano, poder identificar algunas realidades o características no observables que producirían desabastecimiento o insatisfacción del paciente, y para que sirva como una herramienta en la toma de decisión sobre el abastecimiento de medicamentos en el hospital. En esta investigación, se utilizan técnicas para la Extracción, Transformación y Carga de datos, y para la construcción de un Datamart, para finalmente un algoritmo de minería de datos adecuado para el tipo de información que se encuentra contenida.
The Mining of Data (Mining Data) is the search of interesting patterns and important regularities in great data bases. The intelligent mining of data uses methods of automatic learning to discover and to enumerate present patterns in the data. A form to describe the attributes of an organization of a data base is to use algorithms of segmentation or classification. The present work, proposes a method for the analysis of data, to evaluate the form with which the medicines in a Peruvian hospital are consumed, to be able to identify some non-observable realities or characteristics which they would produce shortage of supplies or dissatisfaction of the patient, and so that it serves as a tool in the decision making on the medicine supplying in the hospital. In this investigation, techniques for the Extraction, Transformation and Load of data are used, and for the construction of a Datamart, finally an algorithm of mining of data adapted for the type of information that is contained.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Vásquez, Rivasplata Hernán Iván. „Análisis por modelización de componentes de una serie temporal de datos de vegetación“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2009. https://hdl.handle.net/20.500.12672/15298.

Der volle Inhalt der Quelle
Annotation:
La evolución de la anestesia general viene marcada por el desarrollo de nuevos agentes anestésicos (como Remifentanilo) permitiéndonos, la utilización y combinación de estos, nuevas técnicas de inducción y mantenimiento anestésicos. La inexistencia de un agente anestésico que comprenda todos los componentes de la anestesia implica que la práctica de la anestesia general incluya la utilización de varios fármacos, esto es debido a que se intenta aprovechar las ventajas específicas y selectivas de cada uno para conseguir estabilidad cardiovascular, protección neuroendocrina, adecuados parámetros de recuperación post anestésica en el menor tiempo posible, analgesia postoperatoria y la carencia de efectos secundarios residuales no deseados de la anestesia (náuseas, vómitos, pruritos, retención urinaria, etc.). El Remifentanilo es una droga que está siendo usada desde 1998 a nivel mundial cumpliendo con los principios éticos, tanto como anestésico en sala de operaciones y como analgesia en unidad de cuidados intensivos, actualmente usada en los protocolos anestésicos del Departamento de Anestesia Analgesia y Reanimación de nuestro Instituto.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Galarza, Guerrero Lourdes Angelica. „Comparación mediante simulación de los métodos EM e imputación múltiple para datos faltantes“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2013. https://hdl.handle.net/20.500.12672/3578.

Der volle Inhalt der Quelle
Annotation:
En el siguiente trabajo se presentan dos tratamientos a los problemas suscitados en el análisis de datos con presencia de datos perdidos: El Algoritmo EM basado en la Estimación por Máxima Verosimilitud y la Imputación Múltiple para datos faltantes, ambos métodos presentan ciertas ventajas frente a los métodos de imputación simple que ocasionan la obtención de estimadores distorsionados y sesgados. El algoritmo EM y la Imputación Múltiple se aplican a un conjunto de datos obtenido por simulación, causándole la pérdida de algunos valores con el objetivo de realizar posteriores comparaciones de las estimaciones obtenidas en casos con el conjunto de datos con y sin información faltante.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Carrasco, Chanamé Victor Eduardo. „La calidad de los datos como un valor de activo diferencial“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2018. https://hdl.handle.net/20.500.12672/8797.

Der volle Inhalt der Quelle
Annotation:
Publicación a texto completo no autorizada por el autor
El documento digital no refiere asesor
Propone un modelo de calidad de datos que permita evaluar y mejorar la calidad de los datos en aquellas organizaciones en las que se utilizan diferentes fuentes de base de datos con la misma información, pero con contenido diferente, lo cual no les permite tomar decisiones en forma correcta y oportuna. Específicamente se busca desarrollar un enfoque sistemático, disciplinado y estructurado que se apoye en el modelo propuesto, y que provea las pautas y guías para que la aplicación del modelo de calidad de datos pueda ser repetible y generalizable sobre los datos de cualquier organización. Otro objetivo planteado es mostrar que producto del creciente avance tecnológico relacionado con los datos y la información las organizaciones que deseen estar a la vanguardia deben utilizar un mecanismo que garantice la calidad de los datos apoyados en un modelo como el propuesto en este trabajo. Para la realización del presente trabajo hemos utilizado el método científico, y el tipo de investigación utilizado es de tipo aplicada, que se caracteriza por su interés en la aplicación, utilización y consecuencias prácticas de los conocimientos. La investigación aplicada busca el conocer para hacer, para actuar, para construir, para modificar.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Alejo, Alarcón Claudio Alfredo Aarón, und Ruíz Alan Jesús Navarro. „Modelo de referencia para la protección de datos personales en el sector microfinanciero peruano“. Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2020. http://hdl.handle.net/10757/654587.

Der volle Inhalt der Quelle
Annotation:
La protección de datos personales consiste en resguardar la información de las personas en todo su ciclo de vida dentro de una entidad y emplearla únicamente para los fines por los cuales fueron proporcionados. Todas las empresas se convierten en titulares de bancos de datos personales al poseer información de sus clientes, colaboradores y/o proveedores, ya sea empleando tecnologías de información para su tratamiento, o documentos y almacenes físicos. La aplicación de las medidas de seguridad adecuadas para la protección de datos personales es de gran importancia en las organizaciones, en especial, en uno de los sectores de mayor crecimiento como es el microfinanciero. De lo contrario, pone en riesgo los derechos y libertades de las personas, además de recibir costosas sanciones económicas. En la presente tesis, se propone un modelo de referencia que brinda un conjunto de medidas legales, organizativas y técnicas para proteger los datos personales custodiados por una entidad microfinanciera, garantizando su adecuado tratamiento a lo largo de su ciclo de vida. Estas medidas están basadas en la Ley 29733 y su reglamento, ISO 27001, COBIT 5, NIST 800-53 y CIS CSC. El modelo de referencia fue implementado en una Cooperativa peruana de ahorro y créditos donde se recopiló información relacionada al tratamiento de datos personales, se evaluó el nivel de protección de datos personales y se implementó un plan de mejora. El resultado de la implementación fue un incremento del 57% en el nivel de protección de datos personales, alcanzando así un 74%.
The protection of personal data consists of safeguarding the information of people throughout its life cycle within an entity and using it only for the purposes for which it was provided. All companies become owners of personal data banks by having information on their clients, collaborators and / or suppliers, either by using information technologies for their treatment, or documents and physical warehouses. The application of adequate security measures for the protection of personal data is of great importance in organizations, especially in one of the fastest growing sectors such as microfinance. Otherwise, it puts the rights and freedoms of people at risk, in addition to receiving costly financial penalties. In this thesis, a reference model is proposed that provides a set of legal, organizational and technical measures to protect the personal data kept by a microfinance entity, guaranteeing its adequate treatment throughout its life cycle. These measures are based on Law 29733 and its regulations, ISO 27001, COBIT 5, NIST 800-53 and CIS CSC. The reference model was implemented in a Peruvian savings and loan cooperative where information related to the processing of personal data was collected, the level of protection of personal data was evaluated and an improvement plan was implemented. The result of the implementation was a 57% increase in the level of protection of personal data, thus reaching 74%.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Acosta, Bazán Arturo Francisco. „Estudio y administración de una base de datos geoespacial a nivel corporativo municipal“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2007. https://hdl.handle.net/20.500.12672/14608.

Der volle Inhalt der Quelle
Annotation:
El estudio tiene como ámbito el área de desarrollo urbano y catastral dentro de la corporación municipal adecuándose perfectamente a cualquier localidad de nuestro país o exterior a él. Se presenta como base teórica algunos estudios e implementaciones realizadas con la plataforma ARCGIS de ESRI con su modelo GEODATABASE (GDB), en España, Colombia y Panamá. Luego con un análisis de tendencias se advierte hacia dónde se dirigen los sistemas administradores de bases de datos (SGBD) en el campo geoespacial, tales como: ACCESS, ORACLE, SQL SERVER 2003, PostgreSQL, entre otros.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Macutela, Lavilla Nataly. „Tratamiento de datos personales sensibles en Perú en el contexto de Covid-19“. Bachelor's thesis, Pontificia Universidad Católica del Perú, 2020. http://hdl.handle.net/20.500.12404/19125.

Der volle Inhalt der Quelle
Annotation:
La última década se caracteriza por el uso generalizado de tecnologías de información que son capaces de recopilar, almacenar, procesar, relacionar y transmitir gran cantidad información. Este contexto puso en evidencia riesgos derivados del tratamiento indiscriminado de información personal tales como el uso de información para finalidades no autorizadas por el titular de los datos personales; suplantación de identidad, elaboración de perfiles en el contexto de la toma de decisiones automatizadas; predicción del comportamiento o preferencias en una situación específica; entre otros. Por ello, el presente trabajo de investigación tiene como objetivo dar cuenta del desarrollo normativo y los aportes de la Autoridad Nacional de Protección de Datos Personales (en adelante, ANPDP) para la protección de datos personales de carácter sensible en Perú en el contexto de Covid-19. Para conseguir ello, se analiza el desarrollo doctrinario y jurisprudencial, así como la normativa comparada aplicable a los datos sensibles. Lo anterior permite arribar a las siguientes conclusiones: i) la Ley de Protección de Datos Personales (en adelante, LPDP) no contiene una definición acertada de datos biométricos como datos sensibles; ii) los datos relativos a salud de las personas son datos sensibles, cuyo tratamiento de encuentra exceptuado del consentimiento personal cuando tiene como finalidad la prevención, diagnóstico y tratamiento de una enfermedad o razones interés público o salud pública, no obstante, se deben observar los demás principios recogidos en la LPDP y adoptar medidas legales, técnicas y organizativas; y, iii) los aportes de la ANPDP no representan un avance significativo para la protección de datos sensibles.
Trabajo académico
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Eléspuru, Briceño María del Pilar Liliana. „Gestión de datos de investigación en universidades en base al ciclo de vida de los datos. Caso de estudio: Área de Ciencias de la Salud“. Master's thesis, Universidad Nacional Mayor de San Marcos, 2017. https://hdl.handle.net/20.500.12672/6459.

Der volle Inhalt der Quelle
Annotation:
Busca descubrir las prácticas que utilizan los investigadores de la Facultad de Ciencias de la Salud de la Universidad Nacional Mayor de San Marcos (UNMSM) y la Facultad de Ciencias de la Salud de la Universidad Peruana de Ciencias Aplicadas (UPC), para la gestión de sus datos de investigación y a partir de esta ello, elaborar una propuesta para optimizarlas. En ese sentido, el propósito de este estudio es diseñar un modelo para la gestión de datos de investigación basados en el ciclo de vida de los datos que contenga como elemento crítico la difusión de los beneficios de compartir y reutilizar los datos de investigación por los investigadores de ambas universidades en el área de las Ciencias de la Salud.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Hidalgo, Zamora Yuriko Hzeyly. „El paradigma del derecho global para la protección de datos personales en redes sociales“. Bachelor's thesis, Universidad Católica Santo Toribio de Mogrovejo, 2020. http://hdl.handle.net/20.500.12423/2808.

Der volle Inhalt der Quelle
Annotation:
El objetivo final es establecer un mecanismo jurídico idóneo para evitar el uso abusivo de datos personales en redes sociales desde perspectiva del derecho global, con la finalidad de reforzar la protección de datos personales e ir desarrollándose entorno a los nuevos hechos que surgen en la sociedad.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Mendieta, Toledo Gabriela Laura. „Manejo de la privacidad de datos en las redes de comunicación de Facebook e Instagram“. Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2020. http://hdl.handle.net/10757/655081.

Der volle Inhalt der Quelle
Annotation:
El presente trabajo busca analizar el manejo de los datos personales que se le brinda a las redes sociales de Instagram y Facebook, mediante la publicación de la información de sus vidas privadas. Para esto, se busca conocer la relación entre los usuarios con las redes sociales ya mencionadas, así como, conocer las razones detrás del manejo de privacidad de los perfiles online y, conocer los posibles efectos de que los usuarios no lleven un correcto manejo de su privacidad virtual. Para ello, se utilizará la metodología cualitativa de las entrevistas a profundidad a los estudiantes millennials de la Universidad Peruana de Ciencias Aplicadas pertenecientes a las carreras de Ingeniería de Sistemas, Marketing y Derecho por su cercana relación laboral con el tema. Esta investigación le sirve al usuario como reflexión del nivel del compromiso que tiene con su información privada y del conocimiento personal que tiene el momento de publicar sobre sus vidas en las redes sociales.
This paper seeks to analyze the handling of personal data that is provided to the social networks of Instagram and Facebook, by publishing the information of their private lives. To achieve this, it’s important to know the relationship between users with the aforementioned social networks, as well as, to know the reasons behind the handling of privacy of online profiles and to know the possible effects that users who doesn’t have a correct management of their virtual privacy. For this investigation it’s required to use the qualitative methodology of the in-depth interviews with millennial students of the Peruvian University of Applied Sciences belonging to the Systems Engineering, Marketing and Law degrees will be used because of their close work-relationship with the subject. This research serves the user as a reflection of the level of commitment they have with their private information and personal knowledge that they have when publishing about their lives on social networks.
Trabajo de investigación
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Vargas, Martinez Alex. „Mejora del proceso de gestión de solicitudes de renovación de pólizas en una base de datos“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2018. https://hdl.handle.net/20.500.12672/16837.

Der volle Inhalt der Quelle
Annotation:
La implementación de las reglas en la carga de solicitudes de renovación contribuye en mejorar la gestión de las solicitudes de renovación para fidelizar a sus clientes. El proyecto implementado en la compañía fue uno de sus principales proyectos de los últimos 3 años, esto se ve manifiesto en la cantidad de reuniones entre las gerencias de las áreas involucradas y definir las reglas que deben ser implementadas en el módulo de renovaciones (Sistema de Web de control de solicitudes). Estas reglas implementadas trajeron consigo los siguientes aportes o beneficios a la compañía. Definir las actividades que deben realizar las áreas (son consideradas también como parte de su deber). Eso mejora se ve reflejado en los tiempos de atención de las solicitudes (total y por área) desde el momento de su implementación. Estas reglas permiten también dar las alertas necesarias sobre las solicitudes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Quilca, Vilcapoma José Gustavo. „Implementación de un sistema de información para la gestión y procesamiento de datos geotécnicos“. Bachelor's thesis, Pontificia Universidad Católica del Perú, 2021. http://hdl.handle.net/20.500.12404/19287.

Der volle Inhalt der Quelle
Annotation:
La gestión de datos es importante en diversas áreas de estudios y resalta en el área de la Ingeniería Geotécnica, donde al realizarse ensayos para el estudio de suelos, se llega a obtener una gran cantidad de datos. Los cuales cada vez son mayores, debido al desarrollo de nuevas técnicas usando instrumentación digital y al avanzado desarrollo de instrumentos electrónicos de medición. Este documento describe un proyecto que propone gestionar y procesar datos de ensayos para el estudio de suelos mediante la implementación de un sistema de información. La cual, para una organización prestadora de servicios de estudios de suelos, permite mejorar sus procesos en los siguientes aspectos: (a) brindado un almacenamiento de datos centralizado, lo que permitirá compartir fácilmente la información, (b) mantener un histórico de datos, para auditorías realizadas en un futuro al proyecto, (c) acceso ágil a la información , al tener la información almacenada con distinción de lugar y tiempo, con la posibilidad de acceso desde diversas ubicaciones, (d) uso de respaldo de datos automatizado, (e) integridad, para evitar la corrupción de información y correspondencia para la correcta referenciación a los proyectos reales, (f) generar nueva información a partir de otros datos, mediante ecuaciones definidas o correlaciones entre ensayos.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Bendezú, Kiyán Enrique Renato, und Flores Álvaro Gianmarco Monjaras. „Árbol de decisión para la selección de un motor de base de datos“. Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2020. http://hdl.handle.net/10757/653463.

Der volle Inhalt der Quelle
Annotation:
Desde los últimos años, la cantidad de usuarios que navega en internet ha crecido exponencialmente. Por consecuencia, la cantidad de información que se maneja crece a manera desproporcionada y, por ende, el manejo de grandes volúmenes de información obtenidos de internet ha ocasionado grandes problemas. Los diferentes tipos de bases de datos tienen un funcionamiento variado, dado que, se ve afectado el rendimiento para ejecutar las transacciones cuando se lidia con diferentes cantidades de información. Entre este tipo de variedades, se analizará las bases de datos relacionales, bases de datos no relaciones y bases de datos en memoria. Para las organizaciones es muy importante contar con un acelerado manejo de información debido a la gran demanda por parte de los clientes y el mercado en general, permitiendo que no se disminuya la agilidad de operación interna cuando se requiera manejar información, y conservar la integridad de esta. Sin embargo, cada categoría de base de datos está diseñada para cubrir diferentes casos de usos específicos para mantener un alto rendimiento con respecto al manejo de los datos. El presente proyecto tiene como objetivo el estudio de diversos escenarios de los principales casos de uso, costos, aspectos de escalabilidad y rendimiento de cada base de datos, mediante la elaboración de un árbol de decisión, en el cual, se determine la mejor opción de categoría de base de datos según el flujo que decida tomar el usuario. Palabras clave: Base de Datos, Base de Datos Relacional, Base de Datos No Relacional, Base de Datos en Memoria, Árbol de Decisión.
In recent years, the number of users browsing the internet has grown exponentially. Consequently, the amount of information handled grows disproportionately and, therefore, the handling of large volumes of information obtained from the Internet has caused major problems. Different types of databases work differently, since the performance of executing transactions suffers when dealing with different amounts of information. Among this type of varieties, relational databases, non-relationship databases and in-memory databases will be analyzed. For organizations it is very important to have an accelerated information management due to the great demand from customers and the market in general, allowing the agility of internal operation to not be diminished when it is required to manage information, and to preserve the integrity of is. However, each category of database is designed to cover different specific use cases to maintain high performance regarding data handling. The purpose of this project is to study various scenarios of the main use cases, costs, scalability and performance aspects of each database, through the development of a decision tree, in which the best option for database category according to the flow that the user decides to take.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Alfaro, Mendoza Luis Alfonso, und Moreyra Daphné Aurelia Paucar. „Construcción de un Datamart que apoye en la toma de decisiones de la gestión de incidencias en una mesa de ayuda: caso Consorcio Peruano de Empresas“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2016. https://hdl.handle.net/20.500.12672/5209.

Der volle Inhalt der Quelle
Annotation:
Construye un Datamart basado en el funcionamiento de la gestión de incidencias de la mesa de ayuda del Consorcio Peruano de Empresas con el objetivo de obtener tendencias e indicadores de grandes cantidades de datos de los incidentes reportados por los usuarios a la mesa de ayuda. Para el análisis rápido y oportuno se generan reportes de manera automática con gráficos estadísticos y dashboards, con esto el usuario logra identificar los focos de incidencias de manera rápida y tomar las acciones correctivas que sean necesarias para mitigarlos ya que el impacto de las incidencias reportadas a la mesa de ayuda afecta la operatividad de los usuarios y esto impacta de manera directa a la operación del servicio de la organización.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Arce, Espinoza Yuli Rocío, und Ramírez Mayda Lizbeth Navarro. „Propuesta de desarrollo de una solución de business intelligence aplicada al área de ventas en una empresa retail“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2008. https://hdl.handle.net/20.500.12672/14047.

Der volle Inhalt der Quelle
Annotation:
Muestra la situación en el área de ventas de una empresa retail, la cual no cuenta con una solución de Inteligencia de Negocios como herramienta de apoyo a la toma de decisiones para alcanzar sus objetivos trazados. Luego de analizar la compañía, su situación actual y el estado de la generación de información y la presentación de la información a los usuarios finales, se propone la implementación de un Datamart que permita obtener información más específica, exacta, de acuerdo a los requerimientos de los usuarios. Estas razones explican la relevancia del tema expuesto. El desarrollo de un Datamart en el ambiente global de implementación de soluciones de Inteligencia de Negocios, está relacionado a distintos patrones de desarrollo que existen. Este documento también describe las características generales propias de un Datamart y las distintas metodologías para su construcción, eligiendo dentro de las alternativas la metodología de Kimball.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Gutiérrez, Peña Norma Arcadia, und Campos Juber Raúl Palomino. „Desarrollo de un data warehouse para la difusión de los censos nacionales del Instituto Nacional de Estadística e Informática de Perú“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2013. https://hdl.handle.net/20.500.12672/13887.

Der volle Inhalt der Quelle
Annotation:
El proyecto tiene por objetivo el desarrollo de un Data Warehouse de los Censos Nacionales para el INEI de Perú, que facilite el acceso a la información censal a los diversos usuarios que requieran conocer la situación socio demográfico del país y puedan tomar decisiones. Para ello se aplicarán los enfoques y técnicas para manejo de información estadística y utilización de herramientas tecnológicas. La propuesta surge a raíz de que el INEI cuenta con diversos aplicativos informáticos a través de los cuales muestra la información censal en forma de cuadros estadísticos, bases de datos planas y resúmenes a diversos niveles de agrupación, las que no están integradas y no cuentan con información descriptivas única sobre sus características, todo ello dificulta que los usuarios puedan encontrar información. En consecuencia hay una demanda insatisfecha sobre la información censal que provee el INEI.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Alvarez, Mauricio Octavio. „Sistema de comunicación utilizando algoritmos genéticos para optimizar la transmisión de datos“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2018. https://hdl.handle.net/20.500.12672/8243.

Der volle Inhalt der Quelle
Annotation:
Publicación a texto completo no autorizada por el autor
Aborda el problema de deficiencia en el proceso de transmisión de datos en el servidor web / servidor de comunicación que es trabajado con algoritmos tradicionales. Por ejemplo, retardo de cola de espera, tiempo de transmisión de datos, tiempo de respuesta y ancho de banda angosto, que ocasionan un efecto de cuello de botella y falta de memoria. Para dar solución al problema propuesto, se requiere analizar la transmisión de datos de origen a destino y viceversa, y aplicar otra alternativa como la técnica de los algoritmos genéticos que se desarrollará utilizando Tecnologías de la Información y Comunicación (TIC) para construir un sistema de comunicación utilizando algoritmos genéticos para optimizar la transmisión de datos. Dicho sistema prototipo permitirá optimizar la transmisión de datos en el servidor web / servidor de comunicación y mejorar la atención a los clientes/usuarios. La implementación de un simulador prototipo en el servidor web/servidor de comunicación, utilizando algoritmos genéticos permite optimizar la transmisión de datos, como el tiempo de transmisión de datos que es menor que el tiempo de transmisión de datos que el convencional; asimismo permite un mejor uso de recursos de la red y mejorar en la atención a los usuarios/clientes.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Becerra, Meza Alvaro Gabriel, Zuleta Luana Mariel Busquets, Saldarriaga María José del Socorro Cortez, Huamán Paloma Ramírez und Villarreal Patrick Claudio Zloczover. „Estudio bibliométrico sobre el Crecimiento Postraumático en pacientes oncológicos recogidos de la base de datos EBSCO“. Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2020. http://hdl.handle.net/10757/653660.

Der volle Inhalt der Quelle
Annotation:
El objetivo de la presente investigación fue realizar un análisis bibliométrico de los estudios científicos en la base de datos EBSCO para recoger información de los últimos 14 años sobre crecimiento postraumático en pacientes oncológicos. Para ello, se realizó la búsqueda de la variable crecimiento postraumático en la base de datos EBSCO, encontrándose un total de 94 artículos, restando cinco que conformaron la muestra de estudio. El análisis de datos fue realizado en el programa de Microsoft Excel y se elaboraron gráficos para visualizar la información disponible. Como resultados se identificaron que el 80% de investigaciones cuenta con resúmenes, palabras claves, resultados, discusión y conclusiones, un 100% posee introducción, objetivos y referencias bibliográficas y, finalmente, un 60% tiene hipótesis y recomendaciones. Se recomienda continuar con la investigación de la variable de crecimiento postraumático, pues influye positivamente en la forma de entender la realidad de los pacientes que padecen el cáncer.
The aim of the present investigation was to perform a bibliometric analysis of the scientific studies in the EBSCO database to collect information from the last 14 years on post-traumatic growth in cancer patients. To do this, a search was carried out for the post-traumatic growth variable in the EBSCO database, finding a total of 94 articles, subtracting five that made up the study sample. The data analysis was carried out in Microsoft Excel and graphs were made to visualize the available information. As results, it was identified that 80% of investigations have abstracts, keywords, results, discussion, and conclusions. 100% had introduction, objectives, and references and, finally, 60% had hypotheses and recommendations. It is recommended to continue with the investigation of the post-traumatic growth variable, as it positively influences the way of understanding the reality of patients suffering from cancer.
Trabajo de investigación
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Cantera, Salazar Mirella, und Cañari Cindy Susan Salazar. „Data mart para el análisis de información de clientes y sus facturaciones en una empresa de telecomunicaciones del Perú“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2013. https://hdl.handle.net/20.500.12672/11876.

Der volle Inhalt der Quelle
Annotation:
Desarrolla una solución de inteligencia de negocio (BI) que resuelva los problemas de explotación de información de clientes y sus facturaciones, en el Área de Administración y Finanzas de una empresa de Telecomunicaciones del Perú, para llevar a cabo un adecuado análisis de información, entregando una herramienta automática para la generación de los reportes solicitados por la Gerencia General en la toma de decisiones. Para seleccionar la solución de BI más opta a las necesidades de la empresa, se realizó un análisis comparativo con otras investigaciones similares, obteniéndose como resultado el desarrollo de un Data Mart aplicando la metodología propuesta por Gill Harjinder y Rao Prakash.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Pérez, Rodríguez Karla Milagros. „Utilización del análisis envolvente de datos en la seguridad ciudadana“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2009. https://hdl.handle.net/20.500.12672/1519.

Der volle Inhalt der Quelle
Annotation:
El análisis envolvente de datos (Data Envelopment Analysis), desarrollado por A. Charnes, W Cooper y E. Rhodes, es un método no paramétrico, basado en programación lineal y benchmarking, para medir la productividad y la eficiencia relativa de unidades de organización. El objetivo fundamental de DEA es hallar una frontera de eficiencia, formada por aquellas combinaciones de recursos que optimizan la cantidad de productos fabricados minimizando los costos de producción, y a partir de esta frontera, evaluar la eficiencia relativa de las combinaciones de recursos que no pertenezcan a la misma. En este trabajo se mostrará la eficiencia de la Seguridad Ciudadana de los distintos distritos de Lima Metropolitana utilizando DEA donde se utilizo el programa Frontier Analyst para el análisis correspondiente.
-- Data Envelopment Analysis (DEA) developed for Charnes, W Cooper and Rhodes, is a method not paramétrico, based on linear programming, to measure the productivity and the relative efficiency of units of organization. DEA's fundamental goal is to find a border of efficiency, formed by those combinations of resources that optimize the quantity of made products minimizing the costs of production, and from this border, to evaluate the relative efficiency of the combinations of resources that do not belong(concern) to the same one. In this work there will appear the efficiency of the Civil Security of the different districts of Metropolitan Lima using DEA where I use the program Frontier Analyst for the corresponding analysis.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Medina, Solis Luis Alberto. „Diseño de infraestructura de centro de datos virtual para consolidación de servidores en la empresa Autoespar“. Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2021. http://hdl.handle.net/10757/656267.

Der volle Inhalt der Quelle
Annotation:
El presente proyecto de investigación realizado en la empresa Autoespar S.A. contiene un estudio de la infraestructura de servidores y servicio de TI que nos permite buscar la mejor opción tecnológica para el diseño un centro de datos virtual. Esta infraestructura estará acorde a los requerimientos y necesidades que la empresa demanda, con la finalidad de resolver los problemas más críticos, gestionar mejor los recursos, mejorar la disponibilidad de servicios y reducir el tiempo inactividad. El primer capítulo de este proyecto contiene la información de la empresa y la situación problemática que buscamos resolver. Asimismo, definiremos el objetivo principal y los objetivos específicos. El segundo capítulo, encontraremos el marco teórico consistente a nivel teórico y técnico que nos brindara el soporte a todos los puntos para este proyecto. El tercer capítulo nos muestra a detalle el análisis del problema identificado y definimos los requerimientos del proyecto acorde a los objetivos planteados. Finalmente se muestra el registro de interesados y EDT del proyecto. El cuarto capítulo nos muestra el diseño de la solución dividido en dos, el diseño lógico donde se ubicaran los cálculos requeridos para el diseño de la infraestructura virtual. Y el diseño físico, donde se brinda las especificaciones técnicas a considerar para la nueva infraestructura. Finalmente, el quinto capítulo, donde se detalla un plan de pruebas que nos permitirá validar el cumplimento de los objetivos específicos del proyecto a través de un laboratorio de pruebas que demuestra la factibilidad de este proyecto.
This research project carried out in the company Autoespar S.A. contains a study of the infrastructure of servers and IT services that allows us to find the best technological option for the design of a virtual data center. This infrastructure will be in accordance with the requirements and needs that the company demands, in order to solve the most critical problems, better manage resources, improve the availability of services and reduce downtime. The first chapter of this project contains the information of the company and the problematic situation that we seek to solve. Likewise, we will define the main objective and the specific objectives. The second chapter, we will find the consistent theoretical framework at a theoretical and technical level that will provide us with support at all points for this project. The third chapter shows us in detail the analysis of the identified problem and we define the requirements of the project according to the objectives set. Finally the registry of interested parties and WBS of the project is shown. The fourth chapter shows us the design of the solution divided into two, the logical design where the calculations required for the design of the virtual infrastructure are located. And the physical design, where the technical specifications to be considered for the new infrastructure are provided. Finally, the fifth chapter, where a test plan is detailed that will allow us to validate the fulfillment of the specific objectives of the project through a test laboratory that demonstrates the feasibility of this project.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Inga, Alva Alexander Eduardo. „Método de Gestión de la Incertidumbre de Datos Geoespaciales de Pozos Petroleros durante la Fase Exploratoria“. Master's thesis, Universidad Nacional Mayor de San Marcos, 2021. https://hdl.handle.net/20.500.12672/16792.

Der volle Inhalt der Quelle
Annotation:
Se enfoca en el análisis de la incertidumbre de datos geoespaciales obtenidos por métodos tradicionales y por Información Geográfica Voluntaria, aplicado a la industria petrolera en su fase de exploración [Inga 2018]. Dicho análisis permitirá el uso de índices de confiablidad para determinar el espacio de incertidumbre dentro de una base de datos relacional (Geodatabase) en la cual se podrá centralizar, integrar y validar los datos de exploración, insumo principal para el desarrollo de un Sistema de Información Geográfica Exploratorio. Con respecto a la justificación de la investigación, se tiene que los procedimientos de recolección y verificación de la calidad de los datos es, en muchos casos, pobre o inexistente dentro de las organizaciones gubernamentales y es por ello que se pretende mejorar la confiabilidad de datos tomando como lineamientos la norma ISO 19157:2013 referente a la Calidad de Datos [UNE-EN ISO 1957, 2013] y la Guía para la expresión de la Incertidumbre y Medición (GUM) – 2008 [GUM, 2008]. Finalmente, debido a la confidencialidad de la información generada durante el proceso exploratorio, el estudio se llevará a cabo con la información liberada publicada en Perupetro y el caso de estudio, en la empresa petrolera Frontera Energy.
Colombia. Frontera Energy del Perú S. A. Área Exploración. FE20170919.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Pacheco, Bancayan Ronaldo Jesus. „El tratamiento de los datos personales dentro de las empresas vinculadas al sistema financiero peruano“. Bachelor's thesis, Universidad Católica Santo Toribio de Mogrovejo, 2019. http://hdl.handle.net/20.500.12423/2332.

Der volle Inhalt der Quelle
Annotation:
La Tesis titulada: “EL TRATAMIENTO DE LOS DATOS PERSONALES DENTRO DE LAS EMPRESAS VINCULADAS AL SISTEMA FINANCIERO PERUANO”, analizará desde el punto de vista jurídico, cual es la situación actual del tratamiento de los datos personales realizado dentro de las entidades financieras y sus empresas vinculadas, después de haber obtenido el consentimiento del consumidor al celebrar un contrato tradicional, de esta manera se determinará si es adecuado o no el accionar de estas empresas. Las empresas han evolucionado a lo largo de la historia, adaptándose a las necesidades del mercado. Existiendo un cambio generacional de una empresa tradicional a las concentraciones empresariales. Así como se ha originado este cambio, los intereses del mismo sufren el mismo destino. Por esto, las empresas velan por sus intereses sin importar la afectación que puedan generar en los derechos de la sociedad. Específicamente, este estudio pretende implementar el mecanismo para un adecuado tratamiento de los datos personales, dentro de entidades financieras y sus empresas vinculadas. Para ello será necesario conocer cuál es la intervención que tiene el Estado a fin de orientar el buen accionar de estas empresas, lográndose así la seguridad jurídica que merece este derecho En este sentido, será necesario la implementación obligatoria de la oralidad dentro del deber de información y explicar a las personas en que consiste el tratamiento de sus datos personales De esta manera se podrá obtener una adecuada manifestación de la voluntad para brindar o no su consentimiento a las entidades financieras y sus empresas vinculadas.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Melendez, Servan Gerson Gil. „Optimización de redes satelitales de datos mediante el uso de satélites de órbita baja“. Master's thesis, Pontificia Universidad Católica del Perú, 2021. http://hdl.handle.net/20.500.12404/19656.

Der volle Inhalt der Quelle
Annotation:
Actualmente, en muchos países, existen redes que utilizan satélites Geoestacionarios de cobertura amplia (wide beam) cuyo costo por el uso del espectro radioeléctrico es elevado, con poca capacidad (Mbps) y alto retardo; también existen redes con satélites HTS que implica una significativa mejora en el costo del espectro, pero cubre principalmente zonas altamente pobladas. En esta coyuntura, se analiza una red VSAT existente dentro del territorio peruano que utiliza un satélite Geoestacionario wide beam (VSAT GEO) y se propone usar una constelación de satélites en órbita LEO y migrar paulatinamente el tráfico, de la red VSAT GEO hacia la nueva red VSAT LEO. La constelación de satélites LEO a usar cuenta con múltiples haces cuya cobertura abarca toda el área geográfica objetivo de esta tesis por lo que permitirá realizar la migración de todos los enlaces a la nueva red y contribuirá a que el operador del servicio disminuya sus costos operativos por una disminución del costo del espectro y disminución del costo de los terminales remotos VSAT. Desde el punto de vista del usuario, el pago mensual por el servicio podría ser menor, el performance del servicio mejorará sustancialmente y podrá tener una mayor velocidad de navegación en caso lo desee. Adicionalmente, las constelaciones de satélites LEO permitirán reducir la brecha digital debido a la disminución del costo del servicio final y desplegar nuevas tecnologías, tales como IoT, M2M y 5G, en zonas donde actualmente no es posible. Esta tesis busca desarrollar una red de comunicaciones por satélite que permita disminuir los costos operativos, mejorar el performance del servicio, aumentar la eficiencia en el uso del espectro y que además viabilice técnica y económicamente la migración de clientes existes en las redes satelitales actuales hacia la solución propuesta. El análisis se realizó tomando como referencia una red VSAT desplegada en todo el territorio de Perú sin embargo la solución propuesta puede ser replicada en otros países.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Ore, Huacles Jonel Pelee, und Arbieto Ilyan Eduardo Donaire. „Sistemas de control de supervisión y adquisición de datos para la deteccion de ciberataques en la industria minera“. Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2021. http://hdl.handle.net/10757/656083.

Der volle Inhalt der Quelle
Annotation:
Los sistemas de control industrial son objetivos recurrentes de ciberataques con el fin de alterar procesos, detenerlos o secuestro de información. Existen distintas soluciones para contrarrestar estas actividades ilícitas, tales como los sistemas de detección de intrusos. Sin embargo, este tipo de soluciones no contemplan escenarios de trabajo específicos como plantas de procesamiento de minerales. El presente trabajo muestra un esquema a seguir para utilizar un modelo tecnológico capaz de utilizar tecnologías como machine learning y sistemas de detección de intrusos enfocados a plantas mineras.
Industrial control systems are recurring targets of cyberattacks in order to alter processes, stop them or hijack information. There are different solutions to counter these illegal activities, such as intrusion detection systems. However, these types of solutions do not contemplate specific work scenarios such as mineral processing plants. This work shows a scheme to follow to use a technological model capable of using technologies such as machine learning and intrusion detection systems focused on mining plants.
Trabajo de investigación
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie