Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Modelos de clasificación.

Dissertationen zum Thema „Modelos de clasificación“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-44 Dissertationen für die Forschung zum Thema "Modelos de clasificación" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Silva, Palacios Daniel Andrés. „Clasificación Jerárquica Multiclase“. Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/167015.

Der volle Inhalt der Quelle
Annotation:
[ES] La sociedad moderna se ha visto afectada por los acelerados avances de la tecnología. La aplicación de la inteligencia artificial se puede encontrar en todas partes, desde la televisión inteligente hasta los coches autónomos. Una tarea esencial del aprendizaje automático es la clasificación. A pesar de la cantidad de técnicas y algoritmos de clasificación que existen, es un campo que sigue siendo relevante por todas sus aplicaciones. Así, frente a la clasificación tradicional multiclase en la que a cada instancia se le asigna una única etiqueta de clase, se han propuesto otros métodos como la clasificación jerárquica y la clasificación multietiqueta. Esta tesis tiene como objetivo resolver la clasificación multiclase mediante una descomposición jerárquica. Asimismo, se exploran diferentes métodos de extender la aproximación definida para su aplicación en contextos cambiantes. La clasificación jerárquica es una tarea de aprendizaje automático en la que el problema de clasificación original se divide en pequeños subproblemas. Esta división se realiza teniendo en cuenta una estructura jerárquica que representa las relaciones entre las clases objetivo. Como resultado el clasificador jerárquico es a su vez una estructura (un árbol o un grafo) compuesta por clasificadores de base. Hasta ahora, en la literatura, la clasificación jerárquica se ha aplicado a dominios jerárquicos, independientemente que la estructura jerárquica sea proporcionada explícitamente o se asume implícita (en cuyo caso se hace necesario inferir primero dicha estructura jerárquica). La clasificación jerárquica ha demostrado un mejor rendimiento en dominios jerárquicos en comparación con la clasificación plana (que no tiene en cuenta la estructura jerárquica del dominio). En esta tesis, proponemos resolver los problemas de clasificación multiclase descomponiéndolo jerárquicamente de acuerdo a una jerarquía de clases inferida por un clasificador plano. Planteamos dos escenarios dependiendo del tipo de clasificador usado en la jerarquía de clasificadores: clasificadores duros (crisp) y clasificadores suaves (soft). Por otra parte, un problema de clasificación puede sufrir cambios una vez los modelos han sido entrenados. Un cambio frecuente es la aparición de una nueva clase objetivo. Dado que los clasificadores no han sido entrenados con datos pertenecientes a la nueva clase, no podrán encontrar predicciones correctas para las nuevas instancias, lo que afectará negativamente en el rendimiento de los clasificadores. Este problema se puede resolver mediante dos alternativas: el reentrenamiento de todo el modelo o la adaptación del modelo para responder a esta nueva situación. Como parte del estudio de los algoritmos de clasificación jerárquica se presentan varios métodos para adaptar el modelo a los cambios en las clases objetivo. Los métodos y aproximaciones definidas en la tesis se han evaluado experimentalmente con una amplia colección de conjuntos de datos que presentan diferentes características, usando diferentes técnicas de aprendizaje para generar los clasificadores de base. En general, los resultados muestran que los métodos propuestos pueden ser una alternativa a métodos tradicionales y otras técnicas presentadas en la literatura para abordar las situaciones específicas planteadas.
[CA] La societat moderna s'ha vist afectada pels accelerats avenços de la tecnologia. L'aplicació de la intel·ligència artificial es pot trobar a tot arreu, des de la televisió intel·ligent fins als cotxes autònoms. Una tasca essencial de l'aprenentatge automàtic és la classificació. Tot i la quantitat de tècniques i algoritmes de classificació que existeixen, és un camp que segueix sent rellevant per totes les seves aplicacions. Així, enfront de la classificació tradicional multiclase en la qual a cada instància se li assigna una única etiqueta de classe, s'han proposat altres mètodes com la classificació jeràrquica i la classificació multietiqueta. Aquesta tesi té com a objectiu resoldre la classificació multiclase mitjançant una descomposició jeràrquica. Així mateix, s'exploren diferents mètodes d'estendre l'aproximació definida per a la seva aplicació en contextos canviants. La classificació jeràrquica és una tasca d'aprenentatge automàtic en la qual el problema de classificació original es divideix en petits subproblemes. Aquesta divisió es realitza tenint en compte una estructura jeràrquica que representa les relacions entre les classes objectiu. Com a resultat el classificador jeràrquic és al seu torn una estructura (un arbre o un graf) composta per classificadors de base. Fins ara, en la literatura, la classificació jeràrquica s'ha aplicat a dominis jeràrquics, independentment que l'estructura jeràrquica sigui proporcionada explícitament o s'assumeix implícita (en aquest cas es fa necessari inferir primer aquesta estructura jeràrquica). La classificació jeràrquica ha demostrat un millor rendiment en dominis jeràrquics en comparació amb la classificació plana (que no té en compte l'estructura jeràrquica de l'domini). En aquesta tesi, proposem resoldre els problemes de classificació multiclasse descomponent jeràrquicament d'acord a una jerarquia de classes inferida per un classificador pla. Plantegem dos escenaris depenent de el tipus de classificador usat en la jerarquia de classificadors: classificadors durs (crisp) i classificadors suaus (soft). D'altra banda, un problema de classificació pot patir canvis una vegada els models han estat entrenats. Un canvi freqüent és l'aparició d'una nova classe objectiu. Atès que els classificadors no han estat entrenats amb dades pertanyents a la nova classe, no podran trobar prediccions correctes per a les noves instàncies, el que afectarà negativament en el rendiment dels classificadors. Aquest problema es pot resoldre mitjançant dues alternatives: el reentrenament de tot el model o l'adaptació de el model per respondre a aquesta nova situació. Com a part de l'estudi dels algoritmes de classificació jeràrquica es presenten diversos mètodes per adaptar el model als canvis en les classes objectiu. Els mètodes i aproximacions definides en la tesi s'han avaluat experimentalment amb una àmplia col·lecció de conjunts de dades que presenten diferents característiques, usant diferents tècniques d'aprenentatge per generar els classificadors de base. En general, els resultats mostren que els mètodes proposats poden ser una alternativa a mètodes tradicionals i altres tècniques presentades en la literatura per abordar les situacions específiques plantejades.
[EN] The modern society has been affected by rapid advances in technology. The application of artificial intelligence can be found everywhere, from intelligent television to autonomous cars. An essential task of machine learning is classification. Despite the number of classification techniques and algorithms that exist, it is a field that remains relevant for all its applications. Thus, as opposed to the traditional multiclass classification in which each instance is assigned a single class label, other methods such as hierarchical classification and multi-label classification have been proposed. This thesis aims to solve multiclass classification by means of a hierarchical decomposition. Also, different methods of extending the defined approach are explored for application in changing contexts. Hierarchical classification is an automatic learning task in which the original classification problem is divided into small sub-problems. This division is made taking into account a hierarchical structure that represents the relationships between the target classes. As a result the hierarchical classifier is itself a structure (a tree or a graph) composed of base classifiers. Up to now, in the literature, hierarchical classification has been applied to hierarchical domains, regardless of whether the hierarchical structure is explicitly provided or assumed to be implicit (in which case it becomes necessary to first infer the hierarchical structure). Hierarchical classification has demonstrated better performance in hierarchical domains compared to flat classification (which does not take into account the hierarchical structure of the domain). In this thesis, we propose to solve the problems of multiclass classification by breaking it down hierarchically according to a class hierarchy inferred by a plane classifier. We propose two scenarios depending on the type of classifier used in the classifier hierarchy: hard classifiers (crisp) and soft classifiers (soft). On the other hand, a classification problem may change once the models have been trained. A frequent change is the appearance of a new target class. Since the existing classifiers have not been trained with data belonging to the new class, they will not be able to find correct predictions for the new instances, which will negatively affect the performance of the classifiers. This problem can be solved by two alternatives: retraining the entire model or adapting the model to respond to this new situation. As part of the study of hierarchical classification algorithms, several methods are presented to adapt the model to changes in target classes. The methods and approaches defined in the thesis have been evaluated experimentally with a large collection of data sets that have different characteristics, using different learning techniques to generate the base classifiers. In general, the results show that the proposed methods can be an alternative to traditional methods and other techniques presented in the literature to address the specific situations raised.
Silva Palacios, DA. (2021). Clasificación Jerárquica Multiclase [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/167015
TESIS
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Lizares, Castillo Mónica. „Comparación de modelos de clasificación: regresión logística y árboles de clasificación para evaluar el rendimiento académico“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2017. https://hdl.handle.net/20.500.12672/7122.

Der volle Inhalt der Quelle
Annotation:
Se comparan dos modelos de clasificación llamados regresión Logística Binaria y Arboles de clasificación (CHAID) para evaluar el rendimiento académico. El comportamiento de estos modelos fue medido por cuatro indicadores: Sensibilidad, Curva ROC, Índice de GINI e Índice de Kappa en base al poder de clasificación y predicción de los modelos obtenidos sobre rendimiento académico. Encuentra que Arboles de clasificación es el mejor modelo por tener mayor poder de clasificación y predicción. Para el análisis se utiliza una base de datos sobre estudiantes universitarios del primer semestre matriculado en el curso de Matemática, obtenido de un repositorio de Machine Learning.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Tapia, Farías Juan Eduardo. „Clasificación de Género en Imágenes Faciales Usando Información Mutua“. Tesis, Universidad de Chile, 2012. http://repositorio.uchile.cl/handle/2250/102779.

Der volle Inhalt der Quelle
Annotation:
Durante la década de los 90, uno de los principales problemas abordados en el área de visión computacional fue el detectar rostros en imágenes, para lo cual se desarrollaron innumerables métodos y aplicaciones que pudieran realizar dicha tarea. En la actualidad, ese problema se encuentra prácticamente solucionado con detectores con tasas de detección muy altas, por lo cual, el problema ha evolucionado a poder obtener información adicional de estos rostros detectados, ya sea identi cando su raza, edad, emociones, género, entre otros. Es en este contexto, que se enmarca esta investigación. La clasi cación de género se considera una tarea difícil y complementaria al reconocimiento de patrones, a causa de la alta variabilidad de la apariencia del rostro. Los rostros son objetos no rígidos y dinámicos con una diversidad grande en la forma, el color y la textura, debido a múltiples factores como la pose de la cabeza, iluminación, expresiones faciales y otras características faciales. La alta variabilidad en la apariencia de los rostros afectan directamente su detección y clasi cación. En este trabajo de tesis se implementaron los métodos de extracción de características basados en intensidad y textura, se midió su desempeño con 4 tipos de clasi cadores distintos. Las características extraídas fueron fusionadas al nivel de las características. Por otra parte, se extendió el efecto de seleccionar características utilizando 3 métodos basados en Información Mutua, Mínima redundancia y Máxima relevancia(mRMR), Información Mutua Normalizada (NMIFS), Información Mutua Condicional (CMIFS). Se compararon nuestros resultados con los mejores datos publicados, utilizando las bases de datos internacionales de rostros FERET y WEB, usando diferentes tamaños de imágenes y particiones de datos. Se obtuvieron mejoras signi cativas en la clasi cación de género, que van desde 1.2 % al 12.7 % sobre la base de datos FERET y desde 4.1 % al 8.9 % sobre la base de datos WEB. Además, se redujo el número de características utilizadas como entradas en el clasi cador. Dependiendo del tamaño de la imagen, el número total de características seleccionadas es reducida a menos del 74 % en la base de datos FERET y en un 76.04 % en la base de datos WEB. Por lo tanto, el tiempo computacional se reduce signi cativamente para aplicaciones en tiempo real.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Sandoval, Rodríguez Rodrigo Antonio. „Metodología de clasificación dinámica utilizando Support Vector Machine“. Tesis, Universidad de Chile, 2007. http://www.repositorio.uchile.cl/handle/2250/102921.

Der volle Inhalt der Quelle
Annotation:
Esta investigación se centra en el problema de clasificación, por medio de confeccionar una metodología que permita detectar y modelar cambios en los patrones que definen la clasificación en el tiempo, en otras palabras, clasificación dinámica. La metodología desarrollada propone utilizar los resultados obtenidos en un periodo de tiempo para la construcción del modelo al siguiente periodo. Para ello se utilizaron dos modelos de clasificación distintos; el primero de ellos es Support Vector Machine (SVM) con el objetivo de confeccionar la metodología dinámica, que denominaremos Dynamic Support Vector Machine (D-SVM) y el segundo modelo de clasificación es Linear Penalizad SVM (LP-SVM) con la finalidad de que la metodología construida permita la selección de atributos dinámicamente. Los parámetros utilizados en el modelo de clasificación son; las ventanas de tiempo, ponderadores de relevancia, penalización de los errores y la penalización de los atributos (sólo para el modelo con selección de atributos). De los resultados obtenidos, se utiliza la ventana de tiempo que define el mejor modelo de un periodo y junto a los nuevos datos que se obtengan generan el del próximo. Esta metodología luego fue aplicada a un caso real en una institución gubernamental chilena (INDAP), en el problema de predicción de comportamiento de pago (credit scoring). Para ello se analizaron 4 instancias de tiempo con 9 atributos para el modelo sin selección de atributos y 18 atributos para el modelo con selección. Luego ambos modelos fueron comparados con uno de clasificación estática, es decir, que las 4 instancias de tiempo son unidas como si fuese una data. Los resultados obtenidos en esta aplicación son levemente superiores a la metodología estática correspondiente y en el caso de la selección de atributos el modelo utiliza una mayor cantidad. Las conclusiones de esta investigación son que presenta la ventaja de utilizar una menor cantidad de datos a los disponibles, lo que genera modelos más rápidos y que se van adaptando a los cambios de comportamiento que se producen en el tiempo, al descartar los datos más antiguos en la construcción del nuevo modelo. Con respecto al método con selección de atributos, se destaca que no utiliza un modelo exógeno para seleccionar los atributos sino que el modelo estima los atributos necesarios para cada periodo de tiempo, por lo que se tiene un modelo más estable y generalizado; además se logra obtener información de cómo la relevancia de los atributos cambia en el tiempo. Sobre los resultados se concluye que la metodología D-SVM con y sin selección de atributos es al menos tan buena como los métodos actuales de clasificación.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Vigo, Chacón Geraldine Judith. „Método de clasificación para evaluar el riesgo crediticio : una comparación“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2010. https://hdl.handle.net/20.500.12672/3327.

Der volle Inhalt der Quelle
Annotation:
Se comparan dos métodos clásicos de clasificación: Análisis de Regresión Logística y Árboles de Clasificación, con el método de Redes Neuronales. La comparación se realizó en base al poder de clasificación y predicción de los modelos obtenidos en la evaluación del Riesgo Crediticio, siendo Redes Neuronales el mejor método por tener mayor poder de clasificación y predicción. Para el análisis se utilizó una Base de Datos de Riesgo Crediticio. Asimismo, se establecen las ventajas y desventajas en el empleo de cada método. -- Palabras Claves: Análisis de Regresión Logística, Árboles de Clasificación, Redes Neuronales.
--- Two classics methods of classification are compared: Analysis of Logistic Regression and Classification Trees with the method of Neural Networks. The comparison realized through his power of classification and prediction of the models obtains in the evaluation of credit risk, Neural Networks is the best method, because it has high power of classification and prediction. For the analysis used a database of credit risk. Likewise found the advantages and disadvantages in the use of each method. -- Key Words: Analysis Logistic Regression, Classification Trees, Neural Networks.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Oviedo, Vega Pamela Andrea. „Clasificación mediante parámetros instrumentales de la intensidad de Mercalli modificada“. Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/146124.

Der volle Inhalt der Quelle
Annotation:
Ingeniera Civil
La evaluación de los daños y/o pérdidas en un sitio determinado ocurridos como consecuencia de un terremoto es un tema importante en el ámbito de la ingeniería sísmica. Las escalas de intensidades permiten identificar en primera instancia y en forma rápida el nivel de severidad del movimiento, pero estas son de carácter cualitativo ya que están basadas en la observación y el juicio humano. Por lo anterior, se han buscado relaciones entre los parámetros instrumentales asociados a un movimiento sísmico y las escalas de intensidades. En particular, este trabajo tiene como objetivo principal estimar la Intensidad de Mercalli Modificada (IMM) mediante el uso de parámetros instrumentales utilizando métodos estadísticos tanto de clasificación como de regresión. Además, se busca identificar que variables son las más influyentes en el valor de la escala de la Intensidad de Mercalli Modificada asignado luego de la ocurrencia de un sismo. Para lograr los objetivos de este trabajo se utilizan dos métodos estadísticos que son clasificados dentro de lo que se conoce como Aprendizaje Automático (AA): Redes Neuronales Artificiales (RNA) y Regresión Logística Multinomial (RGM). Los parámetros instrumentales considerados son: Aceleración Máxima de Suelo (PGA), Velocidad Máxima de Suelo (PGV), duración fase fuerte, Intensidad de Arias (Ia), Intensidad Espectral de Housner (SI), Intensidad Instrumental de la Agencia Meteorológica de Japón (IJMA), velocidad absoluta acumulada (CAV), intensidad de cruces por cero (ν), frecuencia central, espectros de respuesta (Sa, Sv y Sd), distancia al hipocentro, profundidad hipocentro y fuente sismogénica. Del desarrollo de este trabajo y el análisis de los resultados obtenidos, se tienen como conclusiones y observaciones principales que el método de RLM presenta un mejor desempeño que RNA. En cuanto a qué parámetros instrumentales son los más influyentes, se obtiene que son: log(PGV), log(PGA), log(Ia), log(SI) e IJMA. El modelo generado mediante RLM ocupando solo estas variables arroja un mayor porcentaje de clasificación que ocupando todos los parámetros. Sin embargo, para ambos métodos el uso de cada variable por separado (las más influyentes) es levemente mejor que utilizar las cinco juntas, siendo la que mejor resultados entrega log(PGV). Por último, de los resultados se observa que el conocimiento a priori del tipo de suelo no es influyente en los resultados.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Galván, Arbeiza Cristina. „Clasificación de estuarios a diferentes escalas espaciales mediante la integración de modelos físicos y biológicos“. Doctoral thesis, Universidad de Cantabria, 2014. http://hdl.handle.net/10803/284434.

Der volle Inhalt der Quelle
Annotation:
En esta tesis se establece un sistema de clasificación de los estuarios del Nordeste Atlántico europeo a través de una metodología jerárquica que permite identificar tipologías ecológicas a una escala regional y local y, a un mayor nivel de detalle, biotopos dentro de un mismo estuario. Dicha metodología se basa en un conjunto de descriptores abióticos que determinan la distribución de las comunidades biológicas del estuario en función de la escala espacial de trabajo. A escala regional se utilizan variables latitudinales y geográficas mientras que a escala local se emplean indicadores de detalle de la morfología e hidrología del estuario. La aproximación para clasificar los biotopos a varios niveles de detalle consiste en un procedimiento de integración jerárquica de diferentes variables ambientales. A partir de la caracterización biológica de los biotopos se definen ecotopos específicos del estuario, los cuales constituyen modelos predictivos de la distribución potencial de las especies.
In this thesis, a classification system of the estuaries located in the North-East Atlantic European region is established. A hierarchical approach is proposed to identify ecological typologies at a regional and local scale and, at a higher level of detail, biotopes within an estuary. This methodology is based on a set of abiotic descriptors that determine the distribution of the biological communities in estuaries depending on the spatial scale. Latitudinal and geographic variables are proposed in order to classify estuaries at a regional scale, while indicators of morphology and hydrology of these systems are used at a local scale. The approach to classify biotopes at different levels of detail consists of a hierarchical integration of environmental variables representative of the corresponding spatial scale. The biological characterization of biotopes allows defining ecotopes, which are predictive models of the potential distribution of species within estuaries.
modelos predictivos
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Moreno, Zapata Carla Natalí. „Comparación de modelos perceptrón multicapa y función de base radial para la clasificación de clientes de alto valor de una entidad financiera“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2017. https://hdl.handle.net/20.500.12672/7480.

Der volle Inhalt der Quelle
Annotation:
Publicación a texto completo no autorizada por el autor
Compara dos métodos de redes neuronales: perceptrón multicapa y función de base radial para la clasificación de los clientes más rentables de una entidad financiera que permita la gestión del riesgo crediticio como apoyo a la toma de decisiones. La comparación se realizó en base al poder de predicción y clasificación de los modelos, siendo el perceptrón multicapa el mejor método por tener mayor poder de predicción y clasificación. Para el análisis se utilizó una base de datos de una entidad financiera. Desarrolla una investigación aplicada, de diseño no experimental de corte transversal. Los datos utilizados son clientes de la entidad financiera que desembolsaron créditos de julio a octubre del 2014.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Castañeda, Guillén Celina Julia. „Tasa de cesáreas aplicando el modelo de clasificación de Robson en el Instituto Nacional Materno Perinatal, periodo enero - diciembre 2015“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2017. https://hdl.handle.net/20.500.12672/6134.

Der volle Inhalt der Quelle
Annotation:
Analiza las tasas de cesáreas en el Instituto Nacional Materno Perinatal (INMP) utilizando el modelo de clasificación de cesáreas de Robson con el objetivo de determinar en qué grupo o categoría se encuentra el mayor porcentaje de tasa de cesáreas. La muestra censal estuvo integrada por 8970 mujeres quienes culminaron la gestación por cesárea en el periodo enero - diciembre 2015 de un total de 20243 partos, representando una tasa de cesárea de 44.3%. La aplicación del modelo de Robson permite identificar que los grupos que más contribuyeron a la tasa de cesáreas fueron el grupo 1 con el 29.2%, el grupo 5 con el 21.3% y el grupo 3 con el 14.6%. El uso de este modelo de clasificación de cesáreas en factible, reproducible y permite implementar estrategias dirigidas a optimizar las tasas de cesáreas.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Lagos, Flores Gustavo Patricio. „Implementacion de un algoritmo de monitoreo de salud estructural basado en objetos simbolicos y clasificación por agrupamiento“. Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/146599.

Der volle Inhalt der Quelle
Annotation:
Magíster en Ciencias de la Ingeniería, Mención Ingeniería Sísmica
El presente trabajo de Tesis muestra la implementación y análisis de variados métodos de aprendizaje de máquinas y minería de datos, desde la fase de extracción de características sensibles usando objetos simbólicos y clasificación mediante algoritmos de agrupamiento, para el estudio y monitoreo de la condición estructural de obras civiles, con énfasis en la detección temprana de la ocurrencia de daños estructurales. El monitoreo de salud estructural mediante algoritmos de minería de datos, reconocimiento de patrones y aprendizaje de máquinas es un campo moderno y activo en la Ingeniería Civil. El flujo general es que a partir de mediciones de aceleración en sitio y utilizando metodologías de identificación de sistemas, se extrae la información modal que representa algún modelo clásico de la dinámica estructural. En este trabajo se busca extender el tipo de información que se puede extraer desde las series de aceleración, estudiando el uso de las series de aceleración en bruto y a su vez mediante la extracción de características sensibles usando ajustes de modelos autoregresivos. La metodología global que se utiliza está basada en el agrupamiento de objetos simbólicos que representan el comportamiento estadístico de características sensibles, y se implementa tanto en series de aceleración obtenidas en laboratorio como en un edificio en operación instrumentado. En el segundo capítulo se estudian las series de aceleración en bruto como entrada para la transformación a objetos simbólicos con uso de histogramas e intervalos intercuartiles, concluyéndose que la energía de entrada es altamente determinante en los grupos obtenidos por los algoritmos de clasificación. Aún así, se puede extraer información del estado estructural si se analizan series de aceleración obtenidas desde un misma condición operacional y ambiental. En el tercer capítulo se estudia la extracción de otro tipo de característica basada en modelos autoregresivos, con las que se generan series de coeficientes de modelos AR(p) ajustados a las series de aceleración originales, encontrándose que los parámetros AR son mucho más sensibles a los cambios estructurales que la aceleración y que dicha sensibilidad puede aumentarse sin pérdida de robustez si se consideran líneas base de referencia. En el cuarto capítulo se analiza el uso de las series de coeficientes AR como entrada para la condensación a objetos simbólicos con los que realizar el agrupamiento, consiguiendo una mejora considerable en la separación de con respecto al uso de las series de aceleración en bruto.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

López, Úbeda Isabel. „Clasificación morfológica de las playas y modelado del perfil transversal en Valencia, Alicante y Murcia“. Doctoral thesis, Universidad de Alicante, 2006. http://hdl.handle.net/10045/58897.

Der volle Inhalt der Quelle
Annotation:
Uno de los problemas más importantes en el mundo es la erosión costera. Alrededor del 70% de las playas de arena están sufriendo erosión. Las costas representan en la mayoría de los casos las zonas turísticas y por lo tanto la prevención de la erosión es una necesidad común. Generalmente, para hacer frente a este problema se realizan regeneraciones y/o obras de defensa costera, lo que conduce a costos económicos. En el caso concreto de España, el turismo es una importante fuente de ingresos, representando entorno al 10,9% del Producto Interior Bruto. En consecuencia, la prevención de la erosión del litoral español es necesaria con el fin de mantener esta entrada económica. Para que la evaluación y comprobación de los proyectos de regeneración de playas o de defensa costera (entre otras) sean eficaces, son necesarios métodos cada vez más precisos y fiables. Es por ello que se requiere habilidades de predicción con las que se pueda cuantificar los errores cometidos para así evaluar los posibles costes relacionados a ese error. En este sentido los modelos lineales, no lineales, redes neuronales artificiales o modelos numéricos pueden desempeñar un papel fundamental para su utilización en los proyectos de regeneración de playas. La presente Tesis Doctoral estudia las playas tanto de arena como de grava que se encuentran en el levante español, concretamente en las provincias de Valencia, Alicante y Murcia, con el objetivo de clasificar los diferentes tipos de playas y modelar el perfil transversal de las playas. En primer lugar, se realiza una clasificación de las playas en nueve tipos dependiendo de la morfología y la proporción y distribución de la arena y la grava en cada playa (Capítulo 1). Para ello se comparan tres métodos: el análisis discriminante, las redes neuronales artificiales y el método SVM (Support Vector Machine). En segundo lugar se modeliza el perfil transversal real de las playas de arena utilizando redes neuronales artificiales, empleando para ello el menor número de variables posibles y que sean fáciles de obtener (Capítulo 2). Para ello se determina la arquitectura óptima de la red neuronal y se comparan varias redes con diferentes parámetros de entrada. Una vez obtenida la red neuronal para el perfil de la playa se genera otra red neuronal siguiendo la misma metodología para determinar los puntos característicos de las barras que se pueden encontrar a lo largo del perfil (Capítulo 3). Por otro lado, se estudia el perfil transversal de las playas de grava. El perfil de estas playas se divide en tres zonas: playa seca, perfil sumergido hasta la profundidad de cierre o el inicio de la pradera de Posidonia oceanica, y el perfil dentro de la pradera. Estos perfiles se ajustan empleando diferentes funciones matemáticas: potenciales, exponenciales, y racionales, seleccionando la que mejor ajusta al perfil real en cada una de las tres zonas (Capítulo 4). Finalmente, se modelizan los parámetros que definen la función potencial que describe el perfil de equilibrio que mejor se ajusta al perfil sumergido de las playas de grava (Capítulo 5). En este caso se compara el funcionamiento de los métodos lineales y los numéricos, generando diferentes modelos en los que se tiene en cuenta o no el tipo de playa en la que se encuentra el perfil. Además se considera para ello variables que no se vean influidas por la constante variación que sufren las playas de grava debido al constante movimiento de la berma y el sedimento por el impacto del oleaje. Con todo esto, se pretende obtener nuevos modelos que nos permitan diseñar futuras regeneraciones empleando los volúmenes de material precisos, sin cometer grandes errores que supongan un coste en exceso. Pues en la actualidad, en España, se emplean formulaciones y/o modelos obtenidos a partir de ensayos en canal u obtenidas empíricamente en zonas con características muy diferentes, y que por lo tanto no contemplan el factor local. Así, se pretende que las nuevas herramientas que se proponen nos permitirán comprobar el funcionamiento futuro en el caso de que algunos de los factores implicados en la clasificación de la playa o en el modelado del perfil transversal se vean modificados, bien por la acción del hombre o por cambios naturales, de manera que sirvan de apoyo para el ingeniero costero a la hora de calcular una regeneración.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

López, Isabel. „Clasificación morfológica de las playas y modelado del perfil transversal en Valencia, Alicante y Murcia“. Doctoral thesis, Universidad de Alicante, 2016. http://hdl.handle.net/10045/58897.

Der volle Inhalt der Quelle
Annotation:
Uno de los problemas más importantes en el mundo es la erosión costera. Alrededor del 70% de las playas de arena están sufriendo erosión. Las costas representan en la mayoría de los casos las zonas turísticas y por lo tanto la prevención de la erosión es una necesidad común. Generalmente, para hacer frente a este problema se realizan regeneraciones y/o obras de defensa costera, lo que conduce a costos económicos. En el caso concreto de España, el turismo es una importante fuente de ingresos, representando entorno al 10,9% del Producto Interior Bruto. En consecuencia, la prevención de la erosión del litoral español es necesaria con el fin de mantener esta entrada económica. Para que la evaluación y comprobación de los proyectos de regeneración de playas o de defensa costera (entre otras) sean eficaces, son necesarios métodos cada vez más precisos y fiables. Es por ello que se requiere habilidades de predicción con las que se pueda cuantificar los errores cometidos para así evaluar los posibles costes relacionados a ese error. En este sentido los modelos lineales, no lineales, redes neuronales artificiales o modelos numéricos pueden desempeñar un papel fundamental para su utilización en los proyectos de regeneración de playas. La presente Tesis Doctoral estudia las playas tanto de arena como de grava que se encuentran en el levante español, concretamente en las provincias de Valencia, Alicante y Murcia, con el objetivo de clasificar los diferentes tipos de playas y modelar el perfil transversal de las playas. En primer lugar, se realiza una clasificación de las playas en nueve tipos dependiendo de la morfología y la proporción y distribución de la arena y la grava en cada playa (Capítulo 1). Para ello se comparan tres métodos: el análisis discriminante, las redes neuronales artificiales y el método SVM (Support Vector Machine). En segundo lugar se modeliza el perfil transversal real de las playas de arena utilizando redes neuronales artificiales, empleando para ello el menor número de variables posibles y que sean fáciles de obtener (Capítulo 2). Para ello se determina la arquitectura óptima de la red neuronal y se comparan varias redes con diferentes parámetros de entrada. Una vez obtenida la red neuronal para el perfil de la playa se genera otra red neuronal siguiendo la misma metodología para determinar los puntos característicos de las barras que se pueden encontrar a lo largo del perfil (Capítulo 3). Por otro lado, se estudia el perfil transversal de las playas de grava. El perfil de estas playas se divide en tres zonas: playa seca, perfil sumergido hasta la profundidad de cierre o el inicio de la pradera de Posidonia oceanica, y el perfil dentro de la pradera. Estos perfiles se ajustan empleando diferentes funciones matemáticas: potenciales, exponenciales, y racionales, seleccionando la que mejor ajusta al perfil real en cada una de las tres zonas (Capítulo 4). Finalmente, se modelizan los parámetros que definen la función potencial que describe el perfil de equilibrio que mejor se ajusta al perfil sumergido de las playas de grava (Capítulo 5). En este caso se compara el funcionamiento de los métodos lineales y los numéricos, generando diferentes modelos en los que se tiene en cuenta o no el tipo de playa en la que se encuentra el perfil. Además se considera para ello variables que no se vean influidas por la constante variación que sufren las playas de grava debido al constante movimiento de la berma y el sedimento por el impacto del oleaje. Con todo esto, se pretende obtener nuevos modelos que nos permitan diseñar futuras regeneraciones empleando los volúmenes de material precisos, sin cometer grandes errores que supongan un coste en exceso. Pues en la actualidad, en España, se emplean formulaciones y/o modelos obtenidos a partir de ensayos en canal u obtenidas empíricamente en zonas con características muy diferentes, y que por lo tanto no contemplan el factor local. Así, se pretende que las nuevas herramientas que se proponen nos permitirán comprobar el funcionamiento futuro en el caso de que algunos de los factores implicados en la clasificación de la playa o en el modelado del perfil transversal se vean modificados, bien por la acción del hombre o por cambios naturales, de manera que sirvan de apoyo para el ingeniero costero a la hora de calcular una regeneración.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Saravia, Estrada Jacob Alejandro. „Desarrollo de un Método de Clasificación de Edad para Imágenes Faciales Basado en Análisis Antropométrico y de Texturas“. Tesis, Universidad de Chile, 2011. http://www.repositorio.uchile.cl/handle/2250/104183.

Der volle Inhalt der Quelle
Annotation:
Ingeniero Civil Eléctrico
Un sistema que ayude a determinar la edad de las personas se transforma en una gran ayuda para facilitar una serie de tareas, como estudios de mercadeo, selección de contenidos aptos para ciertos grupos etarios, entre otros sistemas basados en interacciones humanas. El presente trabajo expone el desarrollo de un algoritmo que sea capaz de estimar edad y clasificar en rangos etarios utilizando rostros frontales, realizando para ello un análisis antropométrico de proporciones faciales en conjunto con un análisis de textura de la piel en determinadas zonas claves del rostro. Para ello es que se calculan ciertas proporciones del rostro y, por otro lado, se determina el nivel de arrugas, mediante la obtención de la intensidad, cantidad y distribución espacial de dichos surcos en la piel. Con tales datos se efectúa un procedimiento de clasificación, contrastando un par de algoritmos de aprendizaje computacional conocidos como redes neuronales artificiales y máquinas de soporte vectorial. Para ajustar los parámetros del algoritmo anteriormente descrito, se aplica una optimización por enjambre de partículas. Con todo esto en mente, el clasificador con mejor desempeño es el que en función de la cantidad de grupos previamente definidos (e.g. niño, joven o adulto) entregue la mayor tasa de aciertos, o el que mediante una aproximación de la edad real (en cantidad de años) presente un menor error. Para dichas tareas se obtuvo una clasificación con una tasa de aciertos de un 98% en promedio para 2 clases, y 6 años de error en promedio para la estimación de la edad real del sujeto.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Landa, Baella María del Pilar. „Comparación de modelos de regresión logística binomial y árbol de decisión para la clasificación de pacientes con presión arterial de una clínica privada“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2017. https://hdl.handle.net/20.500.12672/7381.

Der volle Inhalt der Quelle
Annotation:
Publicación a texto completo no autorizada por el autor
Presenta la comparación de dos modelos de clasificación para pacientes con presión arterial de una clínica privada, cuyo análisis se realizó mediante dos modelos predictivos de regresión logística binomial y árboles de decisión. El comportamiento de los dos modelos fue medido por tres indicadores: Sensibilidad, Curva Roc e Índice de GINI. En general, el mejor modelo para la clasificación de los pacientes con presión arterial es el modelo de árboles de decisión (Sensibilidad=80.7%, Curva Roc=79.8% e Índice de GINI=59.6%).
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Lara, Martínez Guillermo-Fernán. „Caracterización y modelado de la producción de sonidos de las ballenas beluga (Delphinapterus Leucas) basado en modelos de análisis / síntesis de voz“. Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/74645.

Der volle Inhalt der Quelle
Annotation:
[EN] This thesis deals with the study of the sounds produced by beluga whales (Delphinapterus leucas) with a fundamental objective: its characterization and modeling. To this end, analysis / synthesis algorithms of the sounds produced by these animals are proposed. These algorithms are inspired by recent researches on how beluga whales produce the sound and in the physiognomy of the sound production organs. This is a multidisciplinary work, and in order to achieve this goal many fields and topics have to be studied: the generation of sounds in musical instruments, time-frequency analysis techniques along with pattern recognition methods, feature selection, the potential to include algorithms that work in the cepstral domain and a quantitative analysis of the Recurrence Plots. All this allows to propose a sound production model capable to adapt to the peculiarities of this specie and reproduce with high fidelity its wide repertoire of sounds. In addition, in order to validate the proposed model, different sounds from a database of beluga whale vocalisations were analysed. These sounds were compared with those generated with a generic analysis / synthesis model. Furthermore, it is proposed to use the synthesis model parameters for a new sound classification based on how the sounds are produced, achieving better results than those obtained with classifiers based on characteristics of the time-frequency diagram. All the proposed hypotheses have been validated by doing acoustic measurements of beluga whales from the Oceanografic of Valencia (supervised by park biologists), as well as a large number of audio laboratory recordings under controlled conditions. Finally, a passive acoustic monitoring device called SAMARUC design in the framework of the projects related to this thesis is described. The SAMARUC system has the possibility to include different signal processing algorithms for sound analysis in open water environment and is capable of recording high quality sounds. It can also provide the classification of the acoustic events as well as the noise indicators of good environmental status of our seas and oceans. These indicators include underwater noise levels as reflected in the Descriptor 11 of the Marine European Directive. For this reason we expect that this research will have a significant importance in the future years.
[ES] Esta tesis doctoral aborda el estudio de los sonidos producidos por las ballenas beluga (Delphinapterus Leucas) con un objetivo fundamental: su caracterización y su modelado. Para ello, se propone una serie de algoritmos de análisis / síntesis de los sonidos producidos por estos animales inspirados en las recientes investigaciones sobre el funcionamiento y la fisionomía del aparato fonador de las ballenas beluga. Se trata de un trabajo multidisciplinar, en el que para alcanzar este objetivo, se analiza la generación de sonidos en instrumentos musicales, se repasan técnicas de análisis tiempo-frecuencia junto con métodos de reconocimiento de patrones, se aplican técnicas de selección de características, se analiza el potencial de incluir algoritmos que trabajen en el dominio cepstral y se realiza un análisis cuantitativo de los Recurrence Plots como medida del determinismo. Todo esto permite plantear un modelo de producción de sonidos capaz de adaptarse a las peculiaridades de ésta especie y reproducir con una alta fidelidad su amplio repertorio de sonidos. Además, con la finalidad de dar validez al modelo propuesto, se analizan y sintetizan diferentes sonidos de una base de datos de vocalizaciones de ballenas beluga para compararlos con los generados con un modelo de análisis/ síntesis genérico. De manera adicional, se propone emplear los parámetros del modelo de síntesis para realizar una nueva clasificación de sonidos de la especie basada en su naturaleza de producción, consiguiendo mejorar los resultados obtenidos con clasificadores basados en características del diagrama tiempo-frecuencia. Las hipótesis propuestas han sido validadas con la realización de medidas acústicas de las ballenas beluga del Oceanografic de València (supervisadas por los cuidadores del parque), así como con un gran número grabaciones de audio de laboratorio en condiciones controladas. Finalmente se describe el dispositivo de monitorización acústica pasiva SAMARUC, diseñado con la funcionalidad de incluir los algoritmos implementados en entornos de aguas abiertas, pudiendo ofrecer datos de la grabación de los sonidos, la clasificación de éstos, así como los indicadores del buen estado medioambiental de nuestros mares y océanos. Estos indicadores incluyen los niveles de ruido submarino tal y como se recoge en el descriptor 11 de la Directiva Marina Europea y es por ello que se prevé que esta línea de investigación tenga un auge considerable en años futuros.
[CAT] Aquesta tesi doctoral aborda l'estudi dels sons produïts per les ballenes beluga (Delphinapterus Leucas) amb un objectiu fonamental: la seua caracterització y modelat. Es proposen una sèrie d'algoritmes d'anàlisi / síntesi d'aquestos sons inspirats en recents investigacions sobre el funcionament i la fisonomia del aparell fonador de les ballenes beluga. Es tracta d'un treball multidisciplinar, on per a arribar a aquest objectiu s'analitza la generació de sons en instruments musicales, es repassen tècniques d'anàlisi temps-freqüencia junt a mètodes de reconeixement de patrons, s'apliquen tècniques de selecció de característiques, s'analitza el potencial de la inclusió d'algoritmes que treballen en el domini cepstral i es realitza un anàlisi quantitatiu dels Recurrence Plots com a mètrica del determinisme. Tot aço permet plantejar un model de producción de sons capaç d'adaptar-se a les peculiaritats d'aquesta espècie i reproduir amb una alta fidelitat el seu amplíssim repertori de sons. Ademés, amb la finalitat de donar validesa al model proposat, s'analitzen i sintetitzen diferents sons d'una base de dades de vocalitzacions de ballenes beluga per a comparar-les amb les generades per un model d'anàlisi / síntesi genèric. De manera addicional es proposa emprar els paràmetres del model de síntesi disenyat per a fer una nova classificació de sons basada en la seua naturalesa de producció, aconseguint millorar el resultats obtinguts amb classificadors basats en característiques del diagrama temps-freqüencia. Les hipòtesis proposades han sigut validades amb la realització de mesures acústiques de les ballenes beluga de l'Oceanogràfic de Valéncia (supervisades pels cuidadors del parc), així com una gran quantitat de grabacions d'àudio de laboratori en condicions controlades. Finalment es descriu el dispositiu de monitorització acústica pasiva SAMARUC, disenyat amb la funcionalitat d'incloure els algoritmes implementats en entorns d'aigües obertes, podent oferir dades de la grabació dels sons, la seua classificació, així com els indicadors del benestar mediambiental dels nostres mars i oceans. Aquestos indicadors inclueixen els nivells de so submarí tal com es diu al descriptor 11 de la Directiva Marina Europea. Es per aço que es preveu que aquesta línia d'investigació tinga un auge considerable als anys futurs.
Lara Martínez, G. (2016). Caracterización y modelado de la producción de sonidos de las ballenas beluga (Delphinapterus Leucas) basado en modelos de análisis / síntesis de voz [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/74645
TESIS
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Bazan, Guzman Jorge Luis, und Oscar Millones. „Una clasificación de modelos de regresión binaria asimétrica: el uso del BAYES-PUCP en una aplicación sobre la decisión del cultivo ilícito de hoja de coca“. Economía, 2012. http://repositorio.pucp.edu.pe/index/handle/123456789/118039.

Der volle Inhalt der Quelle
Annotation:
En modelos econométricos clásicos de regresión binaria tradicionalmente se emplea la regresión logística, que se basa en el enlace simétrico logito. El propósito de este trabajo es presentar modelos de regresión binaria que, más bien, tengan enlaces asimétricos —aún no disponibles en software comercial—, cuando esta asimetría es más conveniente al investigador. Además, haciendo uso de un enfoque bayesiano con el programa WinBUGS, se implementa el programa BAYESPUCP, que facilitará la escritura de la sintaxis necesaria para implementar los modelos revisados. El BAYES-PUCP genera tanto las sintaxis de los modelos revisados así como de la estructura de los datos. El método es ilustrado con el caso de una muestra de agricultores que consideran la decisión de erradicar cultivos ilícitos de hoja de coca y, al mismo tiempo, se exploran factores asociados a esta decisión.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Molina, Gómez Nidia Isabel. „Incidencia de la calidad el aire en el desarrollo urbano sostenible. Metodología de pronóstico basado en herramientas de aprendizaje automático“. Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/168398.

Der volle Inhalt der Quelle
Annotation:
[ES] La calidad del aire es un determinante de la salud y bienestar de las poblaciones; su mejora es parte de algunas metas de los objetivos de desarrollo sostenible (ODS) con la Agenda 2030. Al respecto, se han definido a nivel mundial protocolos, acuerdos, convenios y lineamientos de política para lograr avanzar en el cumplimiento de los ODS. Existen además reportes nacionales de avance en la implementación de metas específicas, según la agenda de cada país y en algunos casos en el ámbito de ciudad, cuyos indicadores pueden integrarse en las dimensiones más conocidas del desarrollo sostenible: la dimensión ambiental, la social y la económica. Existe información sobre el monitoreo del estado de la calidad de los recursos y de condiciones del territorio en diversos temas. Sin embargo, no en todos los territorios, en sus diferentes escalas espaciales, se realiza una continua evaluación de su desempeño sostenible y, además factores de deterioro ambiental como la contaminación del aire, son tratados como determinantes aislados con la generación de reportes de su comportamiento y el desarrollo de planes de monitoreo y de mitigación. Del mismo modo, para los diferentes temas que hacen parte de las dimensiones de la sostenibilidad, existen herramientas de modelación para evaluar el comportamiento de sus indicadores; sin embargo, no se cuenta con un instrumento que pronostique el nivel de avance en el desarrollo sostenible y además que identifique la influencia de la calidad del aire en su comportamiento. Las herramientas de aprendizaje automático pueden aportar en la respuesta a dicha situación, al ser instrumentos útiles en el pronóstico del comportamiento de un conjunto de datos. Por consiguiente, el objetivo central de este trabajo doctoral es establecer la incidencia de la calidad del aire sobre el desarrollo urbano sostenible, en sus dimensiones ambiental, social y económica, mediante el uso de herramientas de aprendizaje automático, como soporte para la toma de decisiones. Este objetivo involucra el diseño y ejecución de una metodología para identificar la influencia de indicadores en materia de calidad del aire, sobre el desarrollo urbano sostenible. Este trabajo doctoral se desarrolló como compendio de un conjunto de publicaciones que incluyen 1) la revisión del estado del arte para la identificación de las variables y parámetros que podrían calificar las dimensiones individuales del desempeño sostenible, 2) la evaluación del nivel de avance en el desarrollo sostenible de una zona urbana y el análisis estadístico de su desempeño sostenible según las variables analizadas; 3) la identificación, selección y aplicación de las herramientas de aprendizaje automático y por último 4) la identificación del grado de influencia de la calidad del aire en el pronóstico del nivel de sostenibilidad establecido. Para ello se hizo uso del software ArcGIS para el análisis espacial y del software de acceso libre R para los análisis estadísticos y la aplicación de las herramientas de aprendizaje automático. Esta investigación se realizó a partir de un estudio de caso en una localidad de la ciudad de Bogotá, en Colombia que es la capital del país, situada sobre una planicie altitudinal en la cordillera oriental y a 2625 metros sobre el nivel del mar. Bogotá es una de las ciudades más pobladas en América Latina y es una de las capitales mundiales que ha presentado altos niveles de contaminación por material particulado, siendo éste un factor de riesgo para su población. La metodología construida permite evaluar la influencia de la calidad del aire en el desarrollo urbano sostenible mediante herramientas de aprendizaje automático. Es aplicable a zonas urbanas y orienta el paso a paso para la determinación de los factores de mayor relevancia en cada una de las dimensiones de la sostenibilidad, constituyéndose en un instrumento de soporte para la toma de decisiones respecto a la implem
[CA] La qualitat de l'aire és un determinant de la salut i benestar de les poblacions; la seua millora és part d'algunes metes dels objectius de desenvolupament sostenible (ODS) amb l'Agenda 2030. Sobre aquest tema, s'han definit a nivell mundial protocols, acords, convenis i alineaments de política per a aconseguir avançar en el compliment dels ODS. Existeixen reportes nacionals d'avanç sobre la implementació de metes específiques, segons l'agenda de cada país i en alguns casos en l'àmbit de ciutat, els indicadors de la qual poden integrar-se en les dimensions més conegudes del desenvolupament sostenible: la dimensió ambiental, la social i l'econòmica. Existeix informació sobre el monitoratge de l'estat de la qualitat dels recursos i de les condicions del territori en diversos temes. No obstant això, no en tots els territoris, en les seues diferents escales espacials, es realitza contínua avaluació del seu acompliment sostenible i, a més a més, factors de deterioració ambiental com la contaminació de l'aire, són tractats com a determinants aïllats amb la generació de reportes del seu comportament i el desenvolupament de plans de monitoratge i de mitigació. De la mateixa manera, per als diferents temes que fan part de les dimensions de la sostenibilitat, existeixen eines de modelatge per a avaluar el comportament dels seus indicadors; no obstant això, no es compta amb un instrument que pronostique el nivell d'avanç en el desenvolupament sostenible i a més que identifique la influència de la qualitat de l'aire en el seu comportament. Les eines d'aprenentatge automàtic poden aportar en la resposta a aquesta situació, en ser instruments útils en el pronòstic del comportament d'un conjunt de dades. Per consegüent, l'objectiu central d'aquest treball doctoral és establir la incidència de la qualitat de l'aire sobre el desenvolupament urbà sostenible, en les seues dimensions ambiental, social i econòmica, mitjançant l'ús d'eines d'aprenentatge automàtic, com a suport per a la presa de decisions. Aquest objectiu involucra el disseny i execució d'una metodologia per a identificar la influència d'indicadors en matèria de qualitat de l'aire, sobre el desenvolupament urbà sostenible. Aquest treball doctoral es va desenvolupar com a compendi d'un conjunt de publicacions que inclouen 1) la revisió de l'estat de l'art per a la identificació de les variables i paràmetres que podrien qualificar les dimensions individuals de l'acompliment sostenible, 2) l'avaluació del nivell d'avanç en el desenvolupament sostenible d'una zona urbana i l'anàlisi estadística del seu acompliment sostenible segons les variables analitzades; 3) la identificació, selecció i aplicació de les eines d'aprenentatge automàtic i finalment 4) la identificació del grau d'influència de la qualitat de l'aire en el pronòstic del nivell de sostenibilitat establit. Per a això es va fer ús del programari ArcGIS per a l'anàlisi espacial i del programari d'accés lliure R per a les anàlisis estadístiques i l'aplicació de les eines d'aprenentatge automàtic. Aquesta investigació es va realitzar a partir d'un estudi de cas en una localitat de la ciutat de Bogotà, a Colòmbia que és la capital del país, situada sobre una planícia altitudinal en la serralada oriental i a 2625 metres sobre el nivell de la mar. Bogotà és una de les ciutats més poblades a Amèrica Llatina i és una de les capitals mundials que ha presentat alts nivells de contaminació per material particulat, sent aquest un factor de risc per a la seua població. La metodologia construïda permet avaluar la influència de la qualitat de l'aire en el desenvolupament urbà sostenible mitjançant l'ús d'eines d'aprenentatge automàtic. És aplicable a zones urbanes i orienta el pas a pas per a la determinació dels factors de major rellevància en cadascuna de les dimensions de la sostenibilitat, constituint-se en un instrument de suport per a la presa d
[EN] Air quality is a determinant to the health and well-being of populations; its improvement is part of some of the targets of the Sustainable Development Goals (SDGs) with the 2030 Agenda. In this regard, protocols, agreements, pacts, and policy guidelines have been defined worldwide to progress in the SDGs' achievement. Additionally, there are national progress reports on reaching specific goals, based on each country's agenda. In certain cases, these include city-level reports, whose indicators, both at the national and city levels, can be integrated into the central and best-known dimensions of sustainable development, namely the environmental, social, and economic dimensions. There is information concerning the monitoring of the state of resource quality and territorial conditions in various areas. However, not all territories in their different spatial scales are continuously evaluated for their sustainable performance. Moreover, environmental deterioration factors such as air pollution are handled as isolated determinants with reports generated on their behavior, in addition to developing monitoring and mitigation plans. Likewise, there are modeling tools to evaluate the behavior of different components that are part of the dimensions of sustainability. However, there is no instrument that forecasts the level of progress in sustainable development that also identifies the influence of air quality on its behavior. Machine learning tools can contribute to responding to this situation, as they are able to predict the behavior of a data set. Therefore, the primary objective of this doctoral work is to establish the incidence of air quality on urban sustainable development, in its environmental, social, and economic dimensions, through the use of machine learning tools to support decision-making. This objective entails designing and implementing a methodology to identify the influence of air quality indicators on urban sustainable development. This doctoral thesis was developed as a compendium of a set of publications which include: 1) the review of the state of the art for identifying variables and parameters that could qualify the individual dimensions of sustainable performance; 2) the evaluation of the level of progress of the sustainable development of an urban area, and the statistical analysis of its sustainable performance based on the variables analyzed; 3) the identification, selection, and use of machine learning tools, and lastly 4) the identification of the influence of air quality on the prediction of the established sustainability level. The ArcGIS program was used for the spatial analysis, and the free-access software R for the statistical analysis, and the use of the machine learning tools. This research was performed based on a case study of a locality in the capital of Colombia; Bogotá, which is located on an altitudinal plain in the eastern mountain range at 2625 meters above sea level. Bogotá is one of the most populated cities in Latin America and is one of the world capitals with the highest levels of air pollution from particulate matter, which is a risk factor for its population. The methodology developed enables evaluating the influence of air quality on urban sustainable development with machine learning tools. This methodology is valid in urban areas, and through a step-by-step approach, determines the most relevant factors for each sustainability dimension. It has become a tool to support decision-making regarding the implementation and progress of the SDGs from the micro-territory level.
Molina Gómez, NI. (2021). Incidencia de la calidad el aire en el desarrollo urbano sostenible. Metodología de pronóstico basado en herramientas de aprendizaje automático [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/168398
TESIS
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Jiménez, Alcañiz Cesáreo. „Análisis de las Metodologías para la recuperación patrimonial de entornos urbanos protegidos. Propuesta Metodológica: desde los valores históricos a los nuevos modelos energéticos. Russafa desde el siglo XIX“. Doctoral thesis, Universitat Politècnica de València, 2014. http://hdl.handle.net/10251/37014.

Der volle Inhalt der Quelle
Annotation:
La necesidad de crecimiento de las ciudades tuvo un punto de inflexión con la ciudad industrial durante el siglo XIX, que basada en el modelo de Ensanche y crecimiento sobre suelo libre, ha terminado en la actualidad agotando el suelo disponible o urbanizando áreas por encima de las necesidades reales. Tras el abandono inicial de los viejos centros históricos durante el siglo XX, a finales de los años 80 se inicio el proceso de recuperación urbanístico de estas áreas obsoletas con resultados ahora probados satisfactoriamente. El reto actual es recuperar los tejidos urbanos que fueron objeto de los Ensanches decimonónicos, por este motivo hemos elegido como área de estudio, lo que fue un pueblo -Ruzafa- y que absorbido por el ensanche de la ciudad se ha transformado en un barrio de Valencia, -Russafa-. - En la primera parte de la Tesis, la pregunta es por qué se producen los Ensanches de la ciudades, tomando el Paris de Haussmann como punto de partida de este proceso, y que sin duda fue imitado en las grandes urbes europeas del momento, tanto a nivel formal como en el procedimiento. Florencia, capital de Italia en el momento que necesitó su ¿Ingrandimento¿, con el Plan diseñado por Giuseppe Poggi, combina este crecimiento para albergar a las nuevas clases sociales que se estaban estableciendo en su ámbito, simultáneamente con el ¿Risanamento¿ de la ciudad renacentista. Dos ciudades son referente obligatorio para entender el urbanismo en España, Barcelona de una parte, con el Plan diseñado por Cerdá, que ha sido la base teórica de muchos planes de Ensanche durante el siglo XX, ampliamente estudiado y referenciado por múltiples autores; y de otra parte Madrid, con su Plan Castro que siendo casi una intervención desconocida hasta hace muy pocos años, podemos afirmar que es la base práctica y germen del urbanismo español contemporáneo. La implantación del ferrocarril ha sido un elemento común en todas las ciudades estudiadas, y condicionador del diseño de todos los Planes de Ensanche referenciados e igualmente, de la localización de las diferentes clases sociales en el territorio. - La segunda parte de la Tesis, documenta y analiza comparativamente los diferentes Planes de Ensanche que ha tenido la ciudad de Valencia, tomando siempre como centro de la investigación el expueblo de Ruzafa y su progresiva incorporación a la ciudad de Valencia como un barrio más. Esta parte, introduce el concepto de Bloque Normativo para poder entender como se ha ido transformando el núcleo urbano y su entorno, cada vez que cambiaba el Plan o las Ordenanzas de la Edificación en el ámbito de estudio, con la consiguiente adaptación de las tipologías arquitectónicas de los edificios; así como el impacto de la implantación del ferrocarril, tanto en el trazado urbano, como en la configuración del tejido social. - Finalmente en la tercera parte se realiza un proceso de Caracterización del Barrio de Russafa, centrándose en obtener una clasificación tipológica de la edificación ajustada a los Bloques Normativos citados, y la búsqueda de las ¿permanencias históricas¿ del expueblo de Russafa, que justificarían que este entorno tan peculiar, fuera declarado como Bien de Interés Cultural por el Planeamiento. Durante los últimos años, se han concretado los conocimientos que han permitido establecer metodologías de análisis, diagnóstico y de programación de los trabajos de Recuperación de los Centros Históricos y transcurridos más de veinte años desde que comenzaron las tareas de rehabilitación de barrios en España, es buen momento para evaluar las herramientas actuales y definir las nuevas estrategias que permitan que junto a los tradicionales Objetivos de los Planes de Intervención (Social, Urbanístico y Arquitectónico), se incorpore uno nuevo de gran impacto sobre el proceso constructivo de la renovación urbana: la Sostenibilidad, que en el ámbito de la rehabilitación residencial puede conseguirse entre otros, a través de la mejora de la eficiencia energética de la edificación. En la presente Tesis, se plantea un Análisis de las Metodologías para la recuperación patrimonial de entornos urbanos protegidos y se concluye con una Propuesta Metodológica teniendo en cuenta, desde los valores históricos, a los nuevos modelos energéticos centrándose en lo que puede ser el Russafa del siglo XXI.
Jiménez Alcañiz, C. (2014). Análisis de las Metodologías para la recuperación patrimonial de entornos urbanos protegidos. Propuesta Metodológica: desde los valores históricos a los nuevos modelos energéticos. Russafa desde el siglo XIX [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/37014
TESIS
Premiado
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Bruna, Paez Eduardo Andrés. „Modelo preventivo de morosidad temprana de clientes HFC mediante clasificación bayesiana“. Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/112522.

Der volle Inhalt der Quelle
Annotation:
Magíster en Gestión de Operaciones
Este proyecto, formó parte del plan de mitigación de clientes morosos implementado por una empresa de telecomunicaciones en el año 2009, dónde una de las líneas de acción estaba enfocada en disminuir la morosidad de los nuevos clientes en su primera factura. Se propuso un modelo que clasifique a los nuevos clientes en pagadores y no pagadores, permitiendo con ello, reorientar recursos y realizar acciones preventivas de morosidad de manera más focalizada y efectiva, las cuales estaban siendo hasta ese momento aplicadas al universo total de nuevos clientes. El éxito de este proyecto requería el compromiso del área de cobranzas, usuaria del modelo, por esto, la elección del modelo consideró aspectos tanto teóricos como prácticos. La simpleza y la fácil ejecución del modelo, idealmente programable, eran variables deseables y decidoras del éxito de éste. Se ejecutó basado en Clasificación Bayesiana por su forma simple de utilizar y presentar una confiabilidad aceptable [17]. Los métodos de inducción bayesiana han demostrado ser una clase de algoritmos tan competitivos como los métodos árboles de decisión y redes neuronales [29], que permiten implementar algoritmos en Wolfram Mathematica 6.0 cuyas sentencias de programación son muy similares al lenguaje C++, permitiendo su programación posterior. El modelo se confeccionó con 42.087 clientes, contratantes entre el 15 de julio y el 15 de octubre del 2009, de estos, 40.087 formaron la base de aprendizaje para calibrar y realizar los cálculos de probabilidades, y 2.000 como base de testing. Los clientes a clasificar en pagadores y no pagadores correspondieron a 9.328, quienes ingresaron a la empresa entre el 16 de Octubre y el 15 de Noviembre del 2009. En base a establecer una probabilidad a priori, se plantea en valores estimados de corte probabilístico basado en la experiencia o un método de clasificación [19], por una probabilidad de corte de 0,4 para clasificar a un cliente pagador por la necesidad que enfrenta la empresa de mejorar el % de clientes morosos en su primera boleta y a la vez reducir los costos actuales involucrados en la cobranza. El modelo clasificó a 2.910 clientes como no pagadores, 2.179 de ellos efectivamente no cancelaron su boleta al vencimiento (75%). Este resultado es compatible con el esperado en el análisis teórico, debido a la eficiencia de los estimadores estimados, como también, el tamaño de los set de datos empleados que en forma teórica respalda los resultados obtenidos con un 80% de confiabilidad. Como trabajo futuro, resulta interesante evaluar el aporte del modelo en la reducción real del porcentaje de clientes morosos al permitir reorientar recursos y focalizarse en ciertos clientes, como a su vez, actualizar la base de aprendizaje de tal forma ir considerando la actualidad al modelo.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Reyes, Olvera Guadalupe Mireya. „Modelo teórico de cuadro de clasificación para archivos municipales en México“. Tesis de doctorado, Universidad Nacional Autónoma de México, 2020. http://hdl.handle.net/20.500.11799/109953.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Adriazola, Román Nicolás Leonardo. „Construcción de un modelo rating de admisión para la clasificación de riesgo crédito“. Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/137352.

Der volle Inhalt der Quelle
Annotation:
Tesis para optar al grado de Magíster en Finanzas
El presente documento busca construir un modelo de rating de admisión para créditos de empresas, que adicionalmente sirva como herramienta de apoyo a la clasificación de riesgo de una institución financiera. Homologa el resultado del modelo con las clasificaciones exigidas por la SBIF, para la cartera de evaluación individual. El rating al igual que el scoring, busca otorgar un puntaje a los clientes que ingresan o están dentro de una institución financiera, con el fin de identificar el nivel de riesgo que tiene tanto una empresa como persona. Este tipo de modelos busca estimar una probabilidad de incumplimiento que logre discriminar entre clientes que cumplen versus los que incumplen en sus pagos. El cálculo de este modelo utiliza una base de una institución financiera, donde la cartera estudiada corresponde a los créditos comerciales de los mayores deudores, cuyos clientes principales son pequeñas y medianas empresas. La creación de este modelo permite tener un parámetro objetivo y cuantitativo de cada cliente, ayudando a la clasificación de riesgo basada en la opinión de expertos del banco. Los resultados obtenidos muestran que el modelo puede discriminar entre clientes que cumplen versus los que incumplen sus obligaciones de crédito, dando un ordenamiento según su nivel de riesgo. La creación de perfiles a través de bad rates fue la solución más adecuada para homologar a las clasificaciones de riesgo, exigidas por el ente supervisor (SBIF). Lo conseguido en esta tesis fue desarrollar una metodología cuantitativa que complementa la labor de la evaluación individual. Dado el desarrollo de esta herramienta, es posible realizar un análisis cuantitativo como cualitativo, con el fin de tener una mejor gestión de riesgo y mejorar la calidad crediticia de la cartera, como así también aportar en el cálculo de provisiones por riesgo de crédito.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Salazar, Campos Juan Orlando. „Diseño de un modelo basado en redes neuronales artificiales para la clasificación de palta hass“. Master's thesis, Pontificia Universidad Católica del Perú, 2020. http://hdl.handle.net/20.500.12404/17400.

Der volle Inhalt der Quelle
Annotation:
Perú se ha convertido en uno de los principales productores de palta Hass, en este aspecto una etapa fundamental es la clasificación, esta situación conllevó al planteamiento del presente trabajo de investigación el cual tuvo por objetivo diseñar un modelo basado en Redes Neuronales Artificiales que permita la clasificación de dicha fruta considerando como criterios el estado de madurez fisiológica y la evaluación de los daños y defectos que presente, dichas consideraciones están contempladas en la Norma Técnica Peruana NTP 011.018-2018. En la etapa inicial se diseñó un entorno controlado con un nivel de luminosidad frío-día, el cual permitió la adquisición de imágenes, construyendo un dataset de 310 imágenes etiquetadas, sobre el cual se aplicó Data Augmentation. Luego se procedió a definir la parametrización de una arquitectura de red neuronal convolucional, obteniendo un modelo de CNN sobre el cual se fueron evaluando 4 criterios, la resolución de las imágenes de entrada, la cantidad de capas de convolución y pooling, el factor de aprendizaje y la cantidad de épocas de entrenamiento. Finalmente se mostraron los resultados obtenidos, definiendo la resolución de la imágenes de entrada en 64 x 64 pixeles, 3 capas de convolución acompañas de pooling, con máscaras de 3x3 y 2x2 respectivamente y con funciones de activación ReLU, pasando luego a una capa capa fully connected, la cual se conectó a una capa oculta y ésta a la capa de salida, la cual constó de 4 neuronas bajo la representación One Hot Encoding, con una función de activación softmax, y un factor de aprendizaje de 0.001, utilizando en su entrenamiento 50 épocas. Luego de evaluar el modelo parametrizado se alcanzó una identificación correcta de las imágenes de palta Hass con una exactitud de 87.5%.
Peru has become one of the main producers of Hass avocado, in this aspect a fundamental stage is the classification, this situation led to the approach of this research work which aimed to design a model based on Artificial Neural Networks that allows the classification of said fruit considering as criteria the state of physiological maturity and the evaluation of the damages and defects that it presents, said considerations are contemplated in the Peruvian Technical Standard NTP 011.018-2018. In the initial stage, a controlled environment was designed with a cold-day light level, which allowed the acquisition of images, building a dataset of 310 labeled images, on which Data Augmentation was applied. Then we proceeded to define the parameterization of a convolutional neural network architecture, obtaining a CNN model on which 4 criteria were evaluated, the resolution of the input images, the number of convolution and pooling layers, the learning factor and the number of training seasons. Finally, the results obtained were shown, defining the resolution of the input images in 64 x 64 pixels, 3 convolution layers accompanied by pooling, with 3x3 and 2x2 masks respectively and with ReLU activation functions, then moving to a fully layer layer connected, which was connected to a hidden layer and this to the output layer, which consisted of 4 neurons under the One Hot Encoding representation, with a softmax activation function, and a learning factor of 0.001, using in its training 50 epochs. After evaluating the parameterized model, a correct identification of the Hass avocado images was achieved with an accuracy of 87.5%.
Trabajo de investigación
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Pinto, Valdiviezo Luis Alejandro. „Modelo algorítmico para la clasificación de documentos de carácter judicial en lenguaje portugués según su contenido“. Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/6233.

Der volle Inhalt der Quelle
Annotation:
En los últimos años la generación de información virtual ha aumentado considerablemente. Parte de esa información se encuentra almacenada en bases de datos de instituciones públicas y privadas. Sin embargo, no toda la información almacenada de forma electrónica tiene una estructura definida, tal es el caso de los documentos donde encontramos secuencias de palabras no estructuradas, los cuales según estudios representan el 80% de la información de las empresas. La tarea de clasificar automáticamente documentos tiene como motivo principal brindar una herramienta de mejora en la gestión de la información, la cual es considerada como condición indispensable para el éxito de cualquiera empresa. Ante esto, en el propósito del proyecto se propone la obtención de un modelo algorítmico para la clasificación automática de documentos de carácter judicial en lenguaje portugués según su contenido con el fin de automatizar las labores manuales involucradas en el proceso, y con ello disminuir los recursos implicados en la tarea de clasificación. La colección de documentos será brindada por una empresa en Brasil encargada de la clasificación manual de intimaciones a través de especialistas, llamados procuradores. Las intimaciones son documentos que son enviados desde los tribunales hacia las procuradurías durante un proceso de juicio.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Muñoz, Oliveros Juan Andrés. „Aplicación de un modelo de aprendizaje basado en la experiencia a juegos de clasificación de adversarios“. Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/169226.

Der volle Inhalt der Quelle
Annotation:
Tesis para optar al grado de magíster en economía Aplicada
Memoria para optar al título de Ingeniero Civil Industrial
Un juego de clasificación de adversarios típico considera un clasificador y un adversario, que puede ser de tipo regular o malicioso. El clasificador debe intentar clasificar bien al adversario, sin conocer su tipo; mientras que el adversario conoce las preferencias del clasificador, y puede adaptar sus jugadas (tipo de mensaje enviado) para burlar la clasificación. La literatura se ha centrado en modelar este juego desde distintos enfoques, siempre bus- cando encontrar la estrategia óptima del adversario. Luego, con ella, se deduce la estrategia óptima que debe seguir el clasificador. Las pruebas con datos reales han arrojado resultados muy superiores a los algoritmos típicos de clasificación, que no incorporan técnicas de la teoría de juegos. En esta investigación se plantea un modelo basado en la estructura de los juegos de señalización, que deja completamente de lado los supuestos de información pública sobre el clasificador, y la capacidad de los jugadores de observar las acciones del otro. Para ello, se introduce un algoritmo de aprendizaje mediante la regla de elección aleatoria Logit, que los induce a adaptarse desde el ensayo y error. De esta manera los jugadores son capaces de adaptar sus estrategias turno a turno, observando únicamente sus propias estrategias y las utilidades obtenidas en el pasado. Utilizando este modelo, los jugadores son capaces de converger rápidamente al equilibrio bayesiano perfecto del juego, de manera mixta: los adversarios de tipo regular juegan estra- tegias puras sobre su mensaje preferido, mientras que los de tipo malicioso juegan estrategias mixtas entre los distintos mensajes disponibles. Por su parte, en el equilibrio las estrategias del clasificador se han ajustado a la proporción de adversarios maliciosos que envía cada mensaje en el equilibrio. En el equilibrio de este juego, los adversarios maliciosos se mueven dinámicamente entre los mensajes que escogen enviar, buscando burlar la clasificación. El error de clasificación asociado a ellos oscila constantemente, incluso en el equilibrio; lo que demuestra un compor- tamiento de gato y ratón constante entre el clasificador y los adversarios maliciosos. La mayor contribución del modelo, es que logra capturar la evolución hacia el equilibrio, las estrategias, el dinamismo del juego y la persecución constante entre los jugadores; sin que estos se puedan observar directa o indirectamente en todo el juego.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Malca, Bulnes Susana Milagros. „Modelo algorítmico para la clasificación de una hoja de planta en base a sus características de forma y textura“. Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/6053.

Der volle Inhalt der Quelle
Annotation:
A lo largo de los años, las plantas han sido consideradas parte vital e indispensable del ecosistema, ya que están presentes en todos los lugares donde vivimos y también donde no lo hacemos. Su estudio es realizado por la ciencia de la botánica, la cual se encargar del estudio de la diversidad y estructura de las mismas. La disminución y extinción de la variedad de las plantas es un tema serio, por lo cual ante el descubrimiento de nuevas especies, se propone una rápida identificación y clasificación a fin de poder monitorearlas, protegerlas y usarlas en el futuro. El problema de la clasificación de hojas es una tarea que siempre ha estado presente en la labor diaria de los botánicos, debido al gran volumen de familias y clases que existen en el ecosistema y a las nuevas especies que van apareciendo. En las últimas décadas, se han desarrollado disciplinas que necesitan de esta tarea. Por ejemplo, en la realización de estudios de impacto ambiental y en el establecimiento de niveles de biodiversidad, es de gran importancia el inventariado de las especies encontradas. Por este motivo, el presente proyecto de fin de carrera pretende obtener un modelo algorítmico mediante la comparación de cuatro modelos de clasificación de Minería de Datos, J48 Árbol de Decisión, Red Neuronal, K-Vecino más cercano y Naive Bayes o Red Bayesiana, los cuales fueron adaptados y evaluados para obtener valores de precisión. Estos valores son necesarios para realizar la comparación de los modelos mediante el método de Área bajo la curva ROC (AUC), resultando la Red Bayesiana como el modelo más apto para solucionar el problema de la Clasificación de Hojas.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Palacios, Alcantara Lenin Alfredo. „Tasa de cesáreas por modelo de clasificación de robson en el Hospital II Cañete - Essalud, 2013 – 2014“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2016. https://hdl.handle.net/20.500.12672/4648.

Der volle Inhalt der Quelle
Annotation:
Objetivo: Determinar la tasa de cesáreas utilizando el Modelo de Clasificación de cesáreas de Robson, durante los años 2013 y 2014 en Hospital Nivel II Cañete – ESSALUD. Métodos: Estudio observacional, retrospectivo, descriptivo y transversal, de datos estadísticos y registro del libro de partos en un Hospital de II nivel en un periodo de 2 años. Se incluyen a todas las mujeres gestantes que acudieron al Hospital y que culminaron en parto, especialmente a todos los ocurridos por cesárea. La información se manejó y almacenó en una base de datos creada en el paquete de hoja de cálculo de Microsoft Excel 2015 y el análisis estadístico se realizó y evaluó con el paquete estadístico R. Resultados: La muestra estuvo conformada por 542 pacientes que fueron sometidas a cesáreas durante el período 2013-2014 de un total de 1876 partos. La prevalencia de cesáreas durante el período de estudio fue de 28,6%; de 26,7% en 2013 y de 30,7% en 2014. En todos los periodos de estudio, los tipos de Robson número 3, 1 y 5 fueron los más frecuentes. Conclusiones: La tasa de cesárea del Hospital, supera lo normado por la OMS, durante el periodo de estudio, utilizando el Modelo de Clasificación de Robson, hemos verificado en este estudio, un aumento en las tasas de cesáreas particularmente en los grupos 3, 1 y 5. Los resultados de las tasas de cesárea por modelo de clasificación de Robson, muestran lo sencillo, adaptable y factible de la aplicación del modelo. Palabras claves: Modelo de Clasificación de Robson, Tasa de cesáreas.
--- Objective: To determine the rate of caesarean sections using the classification model cesarean Robson, for the years 2013 and 2014 Level II Hospital Cañete - ESSALUD. Methods: Observational, retrospective, descriptive study, statistical data and record book of births in a hospital in II level over a period of 2 years. All pregnant women admitted to hospital and culminating in childbirth, especially all occurred by cesarean are included. The information is handled and stored in a database created in the package spreadsheet Microsoft Excel 2015 and statistical analysis was performed and evaluated with R statistical package. Results: The sample consisted of 542 patients who underwent cesarean sections during the 2013-2014 period a total of 1876 births. The prevalence of cesarean sections during the study period was 28.6%; 26.7% in 2013 and 30.7% in 2014. In all study periods, types of Robson number 3, 1 and 5 were the most frequent. Conclusions: The rate of cesarean Hospital exceeds the rules set forth by WHO, during the study period, using the Robson classification model, we verified in this study, an increase in caesarean rates particularly in groups 3, 1 and 5. The results of cesarean rates by Robson classification model, show how simple, adaptable and feasible application model. Keywords: Robson classification model, rate of caesarean sections.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Romeo, Lauren Michele. „The Structure of the lexicon in the task of the automatic acquisition of lexical information“. Doctoral thesis, Universitat Pompeu Fabra, 2015. http://hdl.handle.net/10803/325420.

Der volle Inhalt der Quelle
Annotation:
La información de clase semántica de los nombres es fundamental para una amplia variedad de tareas del procesamiento del lenguaje natural (PLN), como la traducción automática, la discriminación de referentes en tareas como la detección y el seguimiento de eventos, la búsqueda de respuestas, el reconocimiento y la clasificación de nombres de entidades, la construcción y ampliación automática de ontologías, la inferencia textual, etc. Una aproximación para resolver la construcción y el mantenimiento de los léxicos de gran cobertura que alimentan los sistemas de PNL, una tarea muy costosa y lenta, es la adquisición automática de información léxica, que consiste en la inducción de una clase semántica relacionada con una palabra en concreto a partir de datos de su distribución obtenidos de un corpus. Precisamente, por esta razón, se espera que la investigación actual sobre los métodos para la producción automática de léxicos de alta calidad, con gran cantidad de información y con anotación de clase como el trabajo que aquí presentamos, tenga un gran impacto en el rendimiento de la mayoría de las aplicaciones de PNL. En esta tesis, tratamos la adquisición automática de información léxica como un problema de clasificación. Con este propósito, adoptamos métodos de aprendizaje automático para generar un modelo que represente los datos de distribución vectorial que, basados en ejemplos conocidos, permitan hacer predicciones de otras palabras desconocidas. Las principales preguntas de investigación que planteamos en esta tesis son: (i) si los datos de corpus proporcionan suficiente información para construir representaciones de palabras de forma eficiente y que resulten en decisiones de clasificación precisas y sólidas, y (ii) si la adquisición automática puede gestionar, también, los nombres polisémicos. Para hacer frente a estos problemas, realizamos una serie de validaciones empíricas sobre nombres en inglés. Nuestros resultados confirman que la información obtenida a partir de la distribución de los datos de corpus es suficiente para adquirir automáticamente clases semánticas, como lo demuestra un valor-F global promedio de 0,80 aproximadamente utilizando varios modelos de recuento de contextos y en datos de corpus de distintos tamaños. No obstante, tanto el estado de la cuestión como los experimentos que realizamos destacaron una serie de retos para este tipo de modelos, que son reducir la escasez de datos del vector y dar cuenta de la polisemia nominal en las representaciones distribucionales de las palabras. En este contexto, los modelos de word embedding (WE) mantienen la “semántica” subyacente en las ocurrencias de un nombre en los datos de corpus asignándole un vector. Con esta elección, hemos sido capaces de superar el problema de la escasez de datos, como lo demuestra un valor-F general promedio de 0,91 para las clases semánticas de nombres de sentido único, a través de una combinación de la reducción de la dimensionalidad y de números reales. Además, las representaciones de WE obtuvieron un rendimiento superior en la gestión de las ocurrencias asimétricas de cada sentido de los nombres de tipo complejo polisémicos regulares en datos de corpus. Como resultado, hemos podido clasificar directamente esos nombres en su propia clase semántica con un valor-F global promedio de 0,85. La principal aportación de esta tesis consiste en una validación empírica de diferentes representaciones de distribución utilizadas para la clasificación semántica de nombres junto con una posterior expansión del trabajo anterior, lo que se traduce en recursos léxicos y conjuntos de datos innovadores que están disponibles de forma gratuita para su descarga y uso.
La información de clase semántica de los nombres es fundamental para una amplia variedad de tareas del procesamiento del lenguaje natural (PLN), como la traducción automática, la discriminación de referentes en tareas como la detección y el seguimiento de eventos, la búsqueda de respuestas, el reconocimiento y la clasificación de nombres de entidades, la construcción y ampliación automática de ontologías, la inferencia textual, etc. Una aproximación para resolver la construcción y el mantenimiento de los léxicos de gran cobertura que alimentan los sistemas de PNL, una tarea muy costosa y lenta, es la adquisición automática de información léxica, que consiste en la inducción de una clase semántica relacionada con una palabra en concreto a partir de datos de su distribución obtenidos de un corpus. Precisamente, por esta razón, se espera que la investigación actual sobre los métodos para la producción automática de léxicos de alta calidad, con gran cantidad de información y con anotación de clase como el trabajo que aquí presentamos, tenga un gran impacto en el rendimiento de la mayoría de las aplicaciones de PNL. En esta tesis, tratamos la adquisición automática de información léxica como un problema de clasificación. Con este propósito, adoptamos métodos de aprendizaje automático para generar un modelo que represente los datos de distribución vectorial que, basados en ejemplos conocidos, permitan hacer predicciones de otras palabras desconocidas. Las principales preguntas de investigación que planteamos en esta tesis son: (i) si los datos de corpus proporcionan suficiente información para construir representaciones de palabras de forma eficiente y que resulten en decisiones de clasificación precisas y sólidas, y (ii) si la adquisición automática puede gestionar, también, los nombres polisémicos. Para hacer frente a estos problemas, realizamos una serie de validaciones empíricas sobre nombres en inglés. Nuestros resultados confirman que la información obtenida a partir de la distribución de los datos de corpus es suficiente para adquirir automáticamente clases semánticas, como lo demuestra un valor-F global promedio de 0,80 aproximadamente utilizando varios modelos de recuento de contextos y en datos de corpus de distintos tamaños. No obstante, tanto el estado de la cuestión como los experimentos que realizamos destacaron una serie de retos para este tipo de modelos, que son reducir la escasez de datos del vector y dar cuenta de la polisemia nominal en las representaciones distribucionales de las palabras. En este contexto, los modelos de word embedding (WE) mantienen la “semántica” subyacente en las ocurrencias de un nombre en los datos de corpus asignándole un vector. Con esta elección, hemos sido capaces de superar el problema de la escasez de datos, como lo demuestra un valor-F general promedio de 0,91 para las clases semánticas de nombres de sentido único, a través de una combinación de la reducción de la dimensionalidad y de números reales. Además, las representaciones de WE obtuvieron un rendimiento superior en la gestión de las ocurrencias asimétricas de cada sentido de los nombres de tipo complejo polisémicos regulares en datos de corpus. Como resultado, hemos podido clasificar directamente esos nombres en su propia clase semántica con un valor-F global promedio de 0,85. La principal aportación de esta tesis consiste en una validación empírica de diferentes representaciones de distribución utilizadas para la clasificación semántica de nombres junto con una posterior expansión del trabajo anterior, lo que se traduce en recursos léxicos y conjuntos de datos innovadores que están disponibles de forma gratuita para su descarga y uso.
Lexical semantic class information for nouns is critical for a broad variety of Natural Language Processing (NLP) tasks including, but not limited to, machine translation, discrimination of referents in tasks such as event detection and tracking, question answering, named entity recognition and classification, automatic construction and extension of ontologies, textual inference, etc. One approach to solve the costly and time-consuming manual construction and maintenance of large-coverage lexica to feed NLP systems is the Automatic Acquisition of Lexical Information, which involves the induction of a semantic class related to a particular word from distributional data gathered within a corpus. This is precisely why current research on methods for the automatic production of high- quality information-rich class-annotated lexica, such as the work presented here, is expected to have a high impact on the performance of most NLP applications. In this thesis, we address the automatic acquisition of lexical information as a classification problem. For this reason, we adopt machine learning methods to generate a model representing vectorial distributional data which, grounded on known examples, allows for the predictions of other unknown words. The main research questions we investigate in this thesis are: (i) whether corpus data provides sufficient distributional information to build efficient word representations that result in accurate and robust classification decisions and (ii) whether automatic acquisition can handle also polysemous nouns. To tackle these problems, we conducted a number of empirical validations on English nouns. Our results confirmed that the distributional information obtained from corpus data is indeed sufficient to automatically acquire lexical semantic classes, demonstrated by an average overall F1-Score of almost 0.80 using diverse count-context models and on different sized corpus data. Nonetheless, both the State of the Art and the experiments we conducted highlighted a number of challenges of this type of model such as reducing vector sparsity and accounting for nominal polysemy in distributional word representations. In this context, Word Embeddings (WE) models maintain the “semantics” underlying the occurrences of a noun in corpus data by mapping it to a feature vector. With this choice, we were able to overcome the sparse data problem, demonstrated by an average overall F1-Score of 0.91 for single-sense lexical semantic noun classes, through a combination of reduced dimensionality and “real” numbers. In addition, the WE representations obtained a higher performance in handling the asymmetrical occurrences of each sense of regular polysemous complex-type nouns in corpus data. As a result, we were able to directly classify such nouns into their own lexical-semantic class with an average overall F1-Score of 0.85. The main contribution of this dissertation consists of an empirical validation of different distributional representations used for nominal lexical semantic classification along with a subsequent expansion of previous work, which results in novel lexical resources and data sets that have been made freely available for download and use.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Macari, Rosales Orlando Antonio. „Generación de una metodología de caracterización remota de suelos mediante un modelo predictivo, Región de Coquimbo, Chile“. Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/148118.

Der volle Inhalt der Quelle
Annotation:
Memoria para optar al título profesional de: Ingeniero Agrónomo
La clasificación remota de suelos es una técnica que puede resultar de gran utilidad para generar una aproximación fidedigna de la realidad de este recurso, especialmente en condiciones donde la información es escasa, parcializada, o inexistente. Este es el caso de la Región de Coquimbo, Chile, donde una amplia superficie no ha sido clasificada en detalle en cuanto a sus suelos, tal que solo en sus valles agrícolas se han realizado estudios de carácter agrológico. En este contexto, en el presente trabajo se propuso clasificar los suelos de la Región de Coquimbo según el sistema de Clases de Capacidad de Uso de suelos. Para este fin, se utilizaron Sistemas de Información Geográfica y Percepción Remota para generar los insumos necesarios para ejecutar la clasificación. Se consideraron los siguientes factores de formación de suelos: Material Parental, mediante el uso de información espacializada de geología de la zona; Clima, a partir de datos de precipitaciones y temperaturas; y Relieve, referido a las pendientes y Geoformas del paisaje, estas últimas determinadas por el método “Topographic Position Index” (TPI). Con esta información, se procedió a diseñar e implementar un Modelo experto de decisión, técnica que se vale del conocimiento experto en una disciplina para generar la regla de decisión. El modelo dio como resultado una clasificación que abarcó un 93,09% de la superficie regional, donde el restante 6,91% fue considerado como inclusiones, por representar unidades espacialmente disgregadas y fuera de contexto. La clasificación incluyó dos categorías que agruparon suelos que no fueron asignables a una Clase de Capacidad de Uso particular, pero sí a un rango: categoría Clases I a IV, y categoría Clases VI a VIII. Del total de unidades clasificadas según Clases de Capacidad de Uso, los resultados fueron los siguientes: 0,62% correspondió a Clase I; 0,74% a Clase II; 1,05% a Clase III; 5,06% a Clase IV; 11,63% a Clase VI; 36,22% a Clase VII; 26,33% a Clase VIII; 6,61% para la categoría Clases I a IV y 4,27% para la categoría Clases VI a VIII. Posterior a la obtención de los resultados, se efectuó una validación en base a consulta a un experto, evaluándose siete puntos particulares. El resultado indicó cuatro puntos que no calzaron con la clasificación realizada, lo que se debió a que dos de estos últimos se encontraron dentro de inclusiones (puntos San Julián y Maitencillo) y un tercero en una condición con limitantes químicas (punto Huentelauquén), estas últimas fuera del ámbito de predicción del modelo.
Remote soil classification is a technique that can be useful to generate an accurate approximation of the reality of this resource, especially in spatial conditions where information is scarce, biased, or nonexistent. This is the case of the Coquimbo Region, Chile, where a large area has not been classified in detail about their soils; such that only in their agricultural valleys are soil survey studies. In this context, this work proposes soils classify of the Coquimbo Region according to Land Capability Classes system. To this goal, Geographic Information Systems (GIS) and Remote Sensing were used to generate the inputs needed to run a classification. The considered soil formation factors with this purpose were: Parental material, for which we used specialized geology information of the area; Climate, in terms of rainfall and temperature data; and Relief, based on landscape landforms, were considered using the Topographic Position Index (TPI) method. With this information, it was proceeded to design and implement a technical expert decision model, which uses expert knowledge in a discipline to generate the decision rule. The model resulted in a classification which covered 93.09% of the region, where the remaining 6.91% was considered inclusions, because representing spatially disaggregated units out of context. The classification included two categories with soils that were not associated to a particular Land Capability Class, but were included in a range: Classes I to IV category and Classes VI to VIII category. On the total surface classified as Land Capability Classes, the results were as follows: 0.62 % was classified as Class I; 0.74% was Class II; 1.05% was Class III; 5.06% was Class IV; 11.63% was Class VI; 36.22% was Class VII; 26.33% was Class VIII; 6.61% was Classes I to IV category and 4.27% to Class VI to VIII category. Finally, a validation was performed based on expert criteria, evaluating seven specific points. Four points were not in agreement with the original result, which was due to two of the latter were within inclusions (San Julian and Maitencillo points) and a third point was a condition with chemical limiting condition (Huentelauquén point), outside the scope of model prediction.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Pandia, Fajardo Elma Alcira. „Modelo presión, estado, respuesta (P-E-R), para la clasificación de indicadores ambientales y gestión de la calidad del agua“. Master's thesis, Universidad Nacional Mayor de San Marcos, 2015. https://hdl.handle.net/20.500.12672/4647.

Der volle Inhalt der Quelle
Annotation:
La Cuenca del rio Puyango-Tumbes deriva de las fuentes contaminantes ubicadas básicamente en la parte alta y media de la misma, las cuales incorporan una cantidad considerable de metales pesados al agua y en mayor medida a los sedimentos. Las principales actividades que generan contaminantes y los incorporan al rio Puyango-Tumbes son la actividad minera en las localidades de Portovelo y Zaruma en la provincia de El Oro Ecuador, así como la generación y vertido de residuos sólidos y aguas residuales de las poblaciones asentadas en el río. Esta situación ya ha generado algunos problemas en la parte baja de la cuenca sector peruano, contaminando los suelos arroceros de la margen izquierda del rio tumbes y los manglares de Tumbes; perjudicando fuentes de alimentación directa de la población y poniendo en riesgo la salud humana. En el marco de lo mencionado, el presente proyecto tiene por finalidad clasificar los indicadores ambientales y contribuir a la gestión de la calidad de las aguas superficiales de la cuenca del río Puyango-Tumbes, por medio del modelo Presión-Estado-Respuesta (P-E-R). El estudio fue realizado en el lado peruano, se evaluaron los programas de gestión de las aguas superficiales de la cuenca Puyango-Tumbes que influyen en la clasificación de los indicadores ambientales en la cuenca del río Puyango-Tumbes; además de los puntos de descargas de aguas servidas, identificando posibles causales de la contaminación. Los resultados muestran que la cuenca del rio Tumbes tiene un índice de Calidad Ambiental (EQI) de 22.97 y la cuenca del rio Zarumilla tiene un EQI de 61.51. Palabras Claves: Cuenca Puyango-Tumbes, Calidad ambiental del agua, Modelo Presión-Estado-Respuesta, Índice de calidad ambiental.
--- The Puyango-Tumbes River Basin comes from polluting sources located mainly in the upper and middle of it, which incorporate a considerable amount of heavy water and more to the sediment metals. The main activities that generate pollutants and incorporate the river Puyango - Tumbes are mining in the towns of Portovelo and Zaruma in the province of El Oro Ecuador, as well as the generation and disposal of solid waste and sewage of the populations in the river. This situation has already led to some problems in the lower basin of the Peruvian industry, polluting rice soils of the left bank of the Tumbes River and mangroves of Tumbes; damaging sources of direct feeding of the population and endangering human health. Under the mentioned this project aims Sort environmental indicators and contribute to the quality management of surface water in the basin of Puyango-Tumbes River through the Pressure - State- Response model (P-ER), study was performed on the Peruvian side , management programs of surface waters of the basin Puyango-Tumbes influence the classification of environmental indicators in the Puyango-Tumbes river and points sewage discharges were evaluated , identifying possible causes of contamination. The results show that the Tumbes River Basin has an Environmental Quality Index (EQI) of 22.97 and Zarumilla river basin has a EQI of 61.51. Keywords: Puyango-Tumbes Basin, Environmental Water Quality Model Pressure- State - Response , environmental quality
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Abarca, Cusimayta Daekef Rosendo. „Diseño de un modelo algorítmico basado en visión computacional para la detección y clasificación de retinopatía diabética en imágenes retinográficas digitales“. Bachelor's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/12171.

Der volle Inhalt der Quelle
Annotation:
La retinopatía diabética es una enfermedad muy común en pacientes con diabetes. Esta enfermedad ocasiona ceguera de manera gradual debido al deterioro de la retina. Este deterioro puede desencadenar en hemorragias, aneurismas y presencia de exudados en la superficie, las cuales se manifiestan en puntos vacíos de la visión del afectado. Las características mencionadas tienen muchas propiedades visuales como el color, forma, área de presencia que son posibles detectar por medio de imágenes retinográficas digitales. Esta propiedad hace posible el uso de la visión computacional para procesar la imagen y poder diagnosticar la enfermedad de acuerdo al grado de avance de ésta según las características clínicas presentes. El presente proyecto de tesis consiste en el desarrollo de un modelo algorítmico que logre aprovechar las características visuales para poder detectar y clasificar la enfermedad. Las características clínicas utilizadas son los microaneurismas, exudados y hemorragias. Se utilizó una base de datos pública de imágenes retinográficas y un clasificador SVM. El vector de características que se utilizó fue: área, color, número de características prensentes. Es importante mencionar que se utilizó pre-procesamiento en la imagen para excluir elementos como el fondo, disco óptico y las venas debido a que no aportan significativamente al análisis de la imagen. Para el desarrollo del algoritmo se utilizó C++ con OpenCV, la cual es una librería open source para el procesamiento de imágenes. Como resultado final de este proyecto se logró una sensibilidad del 90.17%; especificidad del 96.72% y precisión del 95.08%.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Basurto, Contreras César Marino, und Contreras César Marino Basurto. „Modelo “Cebaco” aplicado al control de procesos en el circuito de Molienda-Clasificación en una planta concentradora de minerales mediante el software LabVIEW“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2011. http://cybertesis.unmsm.edu.pe/handle/cybertesis/377.

Der volle Inhalt der Quelle
Annotation:
El control de procesos en una planta concentradora se presenta como un problema desde el mismo momento que el mineral bruto cae a las trompas del molino, el proceso es continuo y solo cesa esta continuidad cuando el producto finalmente emerge para descansar en las canchas de almacenamiento de los concentrados y las canchas de relave de las colas. El material en proceso no puede ser pesado sin interrumpir tal continuidad; consecuentemente, el control de la planta dependerá mucho del muestreo adecuado del material tratado que se encuentra en forma de pulpa. De estas muestras se obtendrá la información esencial y útil por medio del análisis, en cuanto al contenido del metal, distribución del tamaño de partículas y contenido de agua u otros ingredientes en la pulpa del mineral. Con tal información a mano, se cálcula la eficiencia y por ende la efectividad del trabajo que se efectúa mediante el uso de fórmulas y tabulaciones. Pero por lo tedioso que es el trabajo de obtener información de los datos, más que todo por la demora de las pruebas en laboratorio, y por lo tanto no se pueden tomar decisiones al instante para mejorar el proceso de producción. En el presente trabajo se propone una metodología de control de procesos llamado “Cebaco”que consiste básicamente de tres partes pricipales, primero, el diseño de el método de control del proceso que se propone, el control de las variables operativas en el circuito de molienda-clasificación en una planta concentradora que se fundamenta en un mallaje en húmedo en el mismo sitio de muestreo, para la cual solamente se necesitan 2 mallas, éstas pueden ser las No.60 y 200 que son los más recomendables y también contar con un densímetro (balanza MARCY) con su respectivo nomograma, un pesapulpa de 1 litro de capacidad, conociendo la gravedad específica del mineral, la densidad de la pulpa con estos datos se puede calcular al instante el porcentaje de sólidos en cada flujo del clasificador, y con lo cual se cálcula los porcentajes acumulados negativos y positivos de las mallas mencionadas, con dichos datos obtenidos utilizando los modelos matemáticos de Gaudín-Schuhmann[64] y de Rosín-Rammler[61], los más usados en procesamiento de minerales, con los cuales se obtienen los perfiles granulométricos casi al instante, el segundo aporte es la elaboración y propuesta del modelo matemático que se basa en función de las densidades de la pulpa tomadas estas en cada flujo del clasificador y de las densidades obtenidas al hacer el mallaje en húmedo respectivamenter en las mallas ya mencionadas y el tercero es la implementación de el software Goliat 0.2 en el lenguaje de programación LabVIEW con los modelos matemáticos que se propone donde se puede visualizar en el ordenador los resultados obtenidos al instante. Las pruebas de aplicación y comprobación se realizarón, en las plantas concentradoras de “Austria Duvaz” en Morococha, “Corona” de Chumpe en Yauricocha, Yauyos y “Huari” ubicada en La Oroya perteneciente a la UNCP. Cuyos resultados fueron muy halagadores, coincidiendo casi en forma total con la hipótesis planteada. Como demostración de que la metodología funciona óptimamente, tanto en el control de procesos como en la simulación , se puede verificar con los siguientes resultados obtenidos, el tamaño de corte (d50) calculado[51]; con los datos tomados del libro del Ms.Cs. Juan Rivera Zevallos[58] en las páginas 307-324, es de 77.31 micrones y la eficiencia de clasificación es de 42.32% y haciendo los cálculos con la métodologia propuesta el d50 es de 77.32 micrones y la eficiencia de clasificación da un valor de 42.71 %, se puede notar claramente que casi no hay diferencia, en el segundo caso en la comparación de los resultados de los datos obtenidos en la planta concentradora de “Chumpe” Yauricocha, al hacer el control de procesos y los cálculos respectivos por la metodología tradicional, como se realiza en la mayoría de las plantas, da un valor del d50 de 81.31 micrones y la eficiencia de clasificación da un valor de 57.93% y al hacer el control y sus respectivos cálculos con la métodología“Cebaco” da como resultado el d50 de 83.56 micrones y la eficiencia de clasificación de 53.18% se puede también notar sobre todo en esta última que la diferencia no es significativa, siendo el nivel de significancia de 0,08 y con una confidencia de 92%, en el tercer caso también al evaluar otra prueba de los datos tomados de la planta concentradora mencionada al hacer los cálculos con el método tradicional da una eficiencia de clasificación de 48.49% y con la métodología“Cebaco” la eficiencia de clasificación resulta de 48.02 % que en la práctica casi son similares, en el cuarto caso al hacer la evaluación de los resultados obtenidos en la planta concentradora “Austria Duvaz” ubicada en Morococha, el d50 calculado por la metodología tradicional da un valor de 88.3061 y el d50 calculado con la metodología “Cebaco” da un valor de 85.2559 existiendo una diferencia de tan solamente 3.45% y el valor de la eficiencia de clasificación por la metodología tradicional da un valor de 51.8102 y el calculado con la metodología “Cebaco” da un valor de 51.6255 existiendo una diferencia de 0.36% y la razón de carga circulante calculada por la metodología tradicional da un valor de 1.903 y la calculada con la metodología “Cebaco” da un valor de 1.887 cuya diferencia es de tan solamente 0.84% . Y la demostración más importante , donde se comprueba que el método“Cebaco” es una propuesta adecuada, se da con el incremento de las ganancias para la planta concentradora y ésto se obtuvo de las valorizaciones de los concentrados en ambos casos , uno con el balance metalúrgico obtenido con el método tradicional y el otro con el balance metalúrgico obtenido de los trabajos realizados con el método propuesto y ésto se fundamenta en el tiempo de control, ya que el tiempo con el método tradicional en el mejor de los casos es de 4 horas y con el método propuesto es de tan solamente 5 minutos esto implica que las correcciones se hacen casi al instante por lo tanto trae como consecuencia la mejora de las leyes y de las recuperaciones de los concentrados y por ende de la productividad, por los cálculos hecho se determino una ganancia de 11.53 dólares americanos más por tonelada de mineral tratado al realizar el control con el método propuesto.
-- The process control in a concentrating plant appears like a problem of imponderable from the moment that the gross mineral falls to the tubes of the mill, the process is continuous and this continuity only stops when the product finally emerges to rest in the fields of storage of the concentrates and the fields of re-wash of the tails. The material in process cannot be weighed without interrupting such continuity; consequently, the control of the plant will depend much on the suitable sampling of the treated material that is like pulp. From these samples the essential and useful information of the analysis will be obtained, as far as the content of the metal, distribution as large as particles and water Content or other ingredients of the mineral pulp. With such information by hand, we can calculate the efficiency and the effectiveness of the work that takes place by means of the use of formulas and tabulations. But by the tedious that is the work to obtain information of the fact, more than everything by delay of the tests in laboratory, so, decisions cannot be taken right away to improve the production process. in the present work a methodology of process control, sets out called “cebaco” that consists basically of three parts main, first, the control method that set out, these are the operative variables in the circuit of milling-classification in a concentrating plant that is based on a humid malla in the same site of sampling, for which 2 are only needed, these can be No.60 and 200 that are the most recommendable and also to have a Densimeter (balance MARCY) with their respective monogram, we can weight pulp of 1litro of Capacity, knowing the mineral specific gravity, the pulp density with these data the solids percentage can be calculated in an instant in each flow of the filing cabinet, and with this data it calculates the negative accumulated percentage and positive of you enmesh mentioned, with these data collected using the mathematical models Gaudin-Schuhmann[64] and Rosin-Rammler [61], but used in mineral processing, with which the grain sized profiles are obtained almost right away and in an instant, the second contribution is the proposal of the mathematical model that is based on the density of the pulp taken these on each flow from the filing cabinet and of the density obtained when doing the humid mallaje respectively in you enmesh already mentioned; and the third party is I elaboration of software Goliat 0,2 in the programming language LabVIEW with the mathematical models that sets out where the obtained results is possible to be visualized in a computer. The tests of application and verification were realized, in Plants Concentrating of “Austria Duvaz” in Morococha, “Crown” of Chumpe in Yauricocha, Yauyos and “Huari” located in UNCP. Whish results were very flattering, agreeing almost in total with the proposition hypothesis. Like demonstration of which the methodology works optimally, as much in the process control like in the simulation, we can verify with the following obtained results, the size of cuts (d50) calculated [51]; with the data taken from the book of Juan Rivera Zevallos[58] in pages 307-324, is 77,31 microns and the classification efficiency is of 42,32 and making the calculations with the methodology, it gives that d50 is 77,32 microns and the classification efficiency gives a value of 42,71, is possible to be clearly noticed that almost there is no difference, In the second case in the comparison of the results of the data collected in the concentrating plant of “Chumpe” Yauricocha, when doing the process control and the respective calculations by the traditional methodology, as it is realized in the majority of the plants, it gives a value of d50 of 81,31 microns and the classification efficiency gives a value of 57,93% and when doing the control and its respective calculations with the methodology “Cebaco” give as result d50 of 83,56 microns and the efficiency of classification of 53,18% can also be noticed mainly in this completes that the difference is not significant, being the level of significance of 0.08 and with a approximation of 92%, in the third case also when evaluating another test of the data taken from the concentrating plant mentioned when doing the calculations with the traditional method, it gives an efficiency of classification of 48,49% and with the methodology “Cebaco” the classification efficiency is about 48,02%, also almost are similar, in the fourth case when doing the evaluation of the results obtained in the concentrating plant “Austria located Duvaz” in Morococha, the d50 calculated by the traditional methodology gives a value of 88,3061 and d50 calculated with the methodology “Cebaco” gives a value of 85,2559 existing a difference of so only 3,45 and the value of the efficiency of classification by the traditional methodology gives a value of 51,8102 and the calculated with the methodology “Cebaco” gives a value of 51,6255 existing an insignificant difference of 0,36 and the reason of circulating load calculated by the traditional methodology gives a value of 1.903 and the calculated one with the methodology “Cebaco” gives a value of 1,887 whose difference is of so only 0.84. So, the demonstration more important, where it is verified that the method “Cebaco” is an suitable proposal, occurs with the increase of the utility for the concentrating plant and this was obtained from valuations of the concentrates in both cases, first with the obtained metallurgical balance with the traditional method and the other with the metallurgical balance obtained of the works carried out with the proposed method, this is based on a better time of control, as for the time with the traditional method in the best cases is of 4 hours and with the proposed method is of so only 5 minutes, this implies that the corrections are made right away and in an instant, so it brings consequently theimprovement of the recoveries laws of the concentrates and therefore increase of the productivity. By the calculations done I determine a utility of 11. 53 dollars American more by ton of mineral treated, when realizing the control with the proposed method.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Basurto, Contreras César Marino. „Modelo “Cebaco” aplicado al control de procesos en el circuito de Molienda-Clasificación en una planta concentradora de minerales mediante el software LabVIEW“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2011. https://hdl.handle.net/20.500.12672/377.

Der volle Inhalt der Quelle
Annotation:
El control de procesos en una planta concentradora se presenta como un problema desde el mismo momento que el mineral bruto cae a las trompas del molino, el proceso es continuo y solo cesa esta continuidad cuando el producto finalmente emerge para descansar en las canchas de almacenamiento de los concentrados y las canchas de relave de las colas. El material en proceso no puede ser pesado sin interrumpir tal continuidad; consecuentemente, el control de la planta dependerá mucho del muestreo adecuado del material tratado que se encuentra en forma de pulpa. De estas muestras se obtendrá la información esencial y útil por medio del análisis, en cuanto al contenido del metal, distribución del tamaño de partículas y contenido de agua u otros ingredientes en la pulpa del mineral. Con tal información a mano, se cálcula la eficiencia y por ende la efectividad del trabajo que se efectúa mediante el uso de fórmulas y tabulaciones. Pero por lo tedioso que es el trabajo de obtener información de los datos, más que todo por la demora de las pruebas en laboratorio, y por lo tanto no se pueden tomar decisiones al instante para mejorar el proceso de producción. En el presente trabajo se propone una metodología de control de procesos llamado “Cebaco”que consiste básicamente de tres partes pricipales, primero, el diseño de el método de control del proceso que se propone, el control de las variables operativas en el circuito de molienda-clasificación en una planta concentradora que se fundamenta en un mallaje en húmedo en el mismo sitio de muestreo, para la cual solamente se necesitan 2 mallas, éstas pueden ser las No.60 y 200 que son los más recomendables y también contar con un densímetro (balanza MARCY) con su respectivo nomograma, un pesapulpa de 1 litro de capacidad, conociendo la gravedad específica del mineral, la densidad de la pulpa con estos datos se puede calcular al instante el porcentaje de sólidos en cada flujo del clasificador, y con lo cual se cálcula los porcentajes acumulados negativos y positivos de las mallas mencionadas, con dichos datos obtenidos utilizando los modelos matemáticos de Gaudín-Schuhmann[64] y de Rosín-Rammler[61], los más usados en procesamiento de minerales, con los cuales se obtienen los perfiles granulométricos casi al instante, el segundo aporte es la elaboración y propuesta del modelo matemático que se basa en función de las densidades de la pulpa tomadas estas en cada flujo del clasificador y de las densidades obtenidas al hacer el mallaje en húmedo respectivamenter en las mallas ya mencionadas y el tercero es la implementación de el software Goliat 0.2 en el lenguaje de programación LabVIEW con los modelos matemáticos que se propone donde se puede visualizar en el ordenador los resultados obtenidos al instante. Las pruebas de aplicación y comprobación se realizarón, en las plantas concentradoras de “Austria Duvaz” en Morococha, “Corona” de Chumpe en Yauricocha, Yauyos y “Huari” ubicada en La Oroya perteneciente a la UNCP. Cuyos resultados fueron muy halagadores, coincidiendo casi en forma total con la hipótesis planteada. Como demostración de que la metodología funciona óptimamente, tanto en el control de procesos como en la simulación , se puede verificar con los siguientes resultados obtenidos, el tamaño de corte (d50) calculado[51]; con los datos tomados del libro del Ms.Cs. Juan Rivera Zevallos[58] en las páginas 307-324, es de 77.31 micrones y la eficiencia de clasificación es de 42.32% y haciendo los cálculos con la métodologia propuesta el d50 es de 77.32 micrones y la eficiencia de clasificación da un valor de 42.71 %, se puede notar claramente que casi no hay diferencia, en el segundo caso en la comparación de los resultados de los datos obtenidos en la planta concentradora de “Chumpe” Yauricocha, al hacer el control de procesos y los cálculos respectivos por la metodología tradicional, como se realiza en la mayoría de las plantas, da un valor del d50 de 81.31 micrones y la eficiencia de clasificación da un valor de 57.93% y al hacer el control y sus respectivos cálculos con la métodología“Cebaco” da como resultado el d50 de 83.56 micrones y la eficiencia de clasificación de 53.18% se puede también notar sobre todo en esta última que la diferencia no es significativa, siendo el nivel de significancia de 0,08 y con una confidencia de 92%, en el tercer caso también al evaluar otra prueba de los datos tomados de la planta concentradora mencionada al hacer los cálculos con el método tradicional da una eficiencia de clasificación de 48.49% y con la métodología“Cebaco” la eficiencia de clasificación resulta de 48.02 % que en la práctica casi son similares, en el cuarto caso al hacer la evaluación de los resultados obtenidos en la planta concentradora “Austria Duvaz” ubicada en Morococha, el d50 calculado por la metodología tradicional da un valor de 88.3061 y el d50 calculado con la metodología “Cebaco” da un valor de 85.2559 existiendo una diferencia de tan solamente 3.45% y el valor de la eficiencia de clasificación por la metodología tradicional da un valor de 51.8102 y el calculado con la metodología “Cebaco” da un valor de 51.6255 existiendo una diferencia de 0.36% y la razón de carga circulante calculada por la metodología tradicional da un valor de 1.903 y la calculada con la metodología “Cebaco” da un valor de 1.887 cuya diferencia es de tan solamente 0.84% . Y la demostración más importante , donde se comprueba que el método“Cebaco” es una propuesta adecuada, se da con el incremento de las ganancias para la planta concentradora y ésto se obtuvo de las valorizaciones de los concentrados en ambos casos , uno con el balance metalúrgico obtenido con el método tradicional y el otro con el balance metalúrgico obtenido de los trabajos realizados con el método propuesto y ésto se fundamenta en el tiempo de control, ya que el tiempo con el método tradicional en el mejor de los casos es de 4 horas y con el método propuesto es de tan solamente 5 minutos esto implica que las correcciones se hacen casi al instante por lo tanto trae como consecuencia la mejora de las leyes y de las recuperaciones de los concentrados y por ende de la productividad, por los cálculos hecho se determino una ganancia de 11.53 dólares americanos más por tonelada de mineral tratado al realizar el control con el método propuesto.
-- The process control in a concentrating plant appears like a problem of imponderable from the moment that the gross mineral falls to the tubes of the mill, the process is continuous and this continuity only stops when the product finally emerges to rest in the fields of storage of the concentrates and the fields of re-wash of the tails. The material in process cannot be weighed without interrupting such continuity; consequently, the control of the plant will depend much on the suitable sampling of the treated material that is like pulp. From these samples the essential and useful information of the analysis will be obtained, as far as the content of the metal, distribution as large as particles and water Content or other ingredients of the mineral pulp. With such information by hand, we can calculate the efficiency and the effectiveness of the work that takes place by means of the use of formulas and tabulations. But by the tedious that is the work to obtain information of the fact, more than everything by delay of the tests in laboratory, so, decisions cannot be taken right away to improve the production process. in the present work a methodology of process control, sets out called “cebaco” that consists basically of three parts main, first, the control method that set out, these are the operative variables in the circuit of milling-classification in a concentrating plant that is based on a humid malla in the same site of sampling, for which 2 are only needed, these can be No.60 and 200 that are the most recommendable and also to have a Densimeter (balance MARCY) with their respective monogram, we can weight pulp of 1litro of Capacity, knowing the mineral specific gravity, the pulp density with these data the solids percentage can be calculated in an instant in each flow of the filing cabinet, and with this data it calculates the negative accumulated percentage and positive of you enmesh mentioned, with these data collected using the mathematical models Gaudin-Schuhmann[64] and Rosin-Rammler [61], but used in mineral processing, with which the grain sized profiles are obtained almost right away and in an instant, the second contribution is the proposal of the mathematical model that is based on the density of the pulp taken these on each flow from the filing cabinet and of the density obtained when doing the humid mallaje respectively in you enmesh already mentioned; and the third party is I elaboration of software Goliat 0,2 in the programming language LabVIEW with the mathematical models that sets out where the obtained results is possible to be visualized in a computer. The tests of application and verification were realized, in Plants Concentrating of “Austria Duvaz” in Morococha, “Crown” of Chumpe in Yauricocha, Yauyos and “Huari” located in UNCP. Whish results were very flattering, agreeing almost in total with the proposition hypothesis. Like demonstration of which the methodology works optimally, as much in the process control like in the simulation, we can verify with the following obtained results, the size of cuts (d50) calculated [51]; with the data taken from the book of Juan Rivera Zevallos[58] in pages 307-324, is 77,31 microns and the classification efficiency is of 42,32 and making the calculations with the methodology, it gives that d50 is 77,32 microns and the classification efficiency gives a value of 42,71, is possible to be clearly noticed that almost there is no difference, In the second case in the comparison of the results of the data collected in the concentrating plant of “Chumpe” Yauricocha, when doing the process control and the respective calculations by the traditional methodology, as it is realized in the majority of the plants, it gives a value of d50 of 81,31 microns and the classification efficiency gives a value of 57,93% and when doing the control and its respective calculations with the methodology “Cebaco” give as result d50 of 83,56 microns and the efficiency of classification of 53,18% can also be noticed mainly in this completes that the difference is not significant, being the level of significance of 0.08 and with a approximation of 92%, in the third case also when evaluating another test of the data taken from the concentrating plant mentioned when doing the calculations with the traditional method, it gives an efficiency of classification of 48,49% and with the methodology “Cebaco” the classification efficiency is about 48,02%, also almost are similar, in the fourth case when doing the evaluation of the results obtained in the concentrating plant “Austria located Duvaz” in Morococha, the d50 calculated by the traditional methodology gives a value of 88,3061 and d50 calculated with the methodology “Cebaco” gives a value of 85,2559 existing a difference of so only 3,45 and the value of the efficiency of classification by the traditional methodology gives a value of 51,8102 and the calculated with the methodology “Cebaco” gives a value of 51,6255 existing an insignificant difference of 0,36 and the reason of circulating load calculated by the traditional methodology gives a value of 1.903 and the calculated one with the methodology “Cebaco” gives a value of 1,887 whose difference is of so only 0.84. So, the demonstration more important, where it is verified that the method “Cebaco” is an suitable proposal, occurs with the increase of the utility for the concentrating plant and this was obtained from valuations of the concentrates in both cases, first with the obtained metallurgical balance with the traditional method and the other with the metallurgical balance obtained of the works carried out with the proposed method, this is based on a better time of control, as for the time with the traditional method in the best cases is of 4 hours and with the proposed method is of so only 5 minutes, this implies that the corrections are made right away and in an instant, so it brings consequently theimprovement of the recoveries laws of the concentrates and therefore increase of the productivity. By the calculations done I determine a utility of 11. 53 dollars American more by ton of mineral treated, when realizing the control with the proposed method.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Rodríguez, López Pau. „Towards robust neural models for fine-grained image recognition“. Doctoral thesis, Universitat Autònoma de Barcelona, 2019. http://hdl.handle.net/10803/667196.

Der volle Inhalt der Quelle
Annotation:
Reconèixer i identificar diverses subcategories en el nostre entorn és una activitat crucial a les nostres vides. Reconèixer un amic, trobar cert bacteri en imatges de microscopi, o descobrir un nou tipus de galàxia en són només alguns exemples. Malgrat això, el reconeixement de subcategories en imatges encara és una tasca costosa en el camp de la visió per computador, ja que les diferències entre dues imatges de la mateixa subcategoria eclipsen els detalls que distingeixen dues subcategories diferents. En aquest tipus de problema, en què la distinció entre categories radica en diferències subtils, les xarxes neuronals més robustes a pertorbacions se centren en els canvis més obvis i solen fallar, ja que ignoren els detalls que permeten distingir entre diferents categories. Per altra banda, els models amb massa capacitat tendeixen a memoritzar detalls únics d’imatges concretes, pel que fallen en generalitzar amb noves imatges mai vistes. En aquesta tesi doctoral, motivats per l’impacte potencial del reconeixement automàtic de subcategories, abordem els desafiaments presentats i demostrem que és possible obtenirmodels generals i robustos. Concretament, estudiem les diferents fases dels algorismes de reconeixement d’imatges: preprocessament de les dades, atenció a diferents regions, activitat de les neurones, i l’espai de categories. A cada fase abordem diferents problemes que redueixen la precisió delsmodels al classificar diferents tipus de dades i proposem diferents solucions a cada capítol: i) Abordem el problema de la sensibilitat a l’alineament de les imatges en el reconeixement d’expressions facials, com el dolor. ii) Proposem un mecanisme d’atenció que permet a les xarxes neuronals centrar-se i processar en detall les parts més informatives de les imatges. iii) Estenem els mecanismes d’atenció més enllà dels píxels, permetent les xarxes atendre la seva pròpia activitat neuronal per a corregir les prediccions finals. iv) Després proposem una nova funció de cost per a regularitzar les connexions de les capes de neurones, incentivant l’aprenentatge de patrons diferents i, per tant, prevenint la memorització de detalls únics. v) Estudiem els avantatges de modelar explícitament l’espai de categories utilitzant la teoria de codis correctors d’errors. Com a resultat, en aquesta tesi demostrem que els mecanismes d’atenció i regularització poden ser la clau per a solucionar els problemes de reconeixement de subcategories, així com una bona modelització de l’espai d’entrada i sortida dels models.
Reconocer e identificar diferentes subcategorías en nuestro entorno es una actividad crucial en nuestras vidas. Reconocer un amigo, encontrar cierta bacteria en imágenes de microscopio, o descubrir un nuevo tipo de galaxia son solo algunos ejemplos. Sin embargo, el reconocimiento de subcategorías en imágenes aún es una tarea ardua en el campo de la visión por computador, ya que las diferencias entre dos imágenes de la misma subcategoría eclipsan los detalles que distinguen dos subcategorías diferentes. En este tipo de problema, en que la distinción entre categorías radica en diferencias sutiles, las redes neuronales más insensibles a perturbaciones se centran en los cambios más obvios y tienden a errar, ya que ignoran aquellos detalles que permiten desambiguar entre diferentes categorías. Por otro lado, los modelos con demasiada capacidad tienden a memorizar detalles únicos de imágenes concretas, por lo que fallan al generalizar con nuevas imágenes nunca vistas. En esta tesis doctoral, motivados por el impacto potencial del reconocimiento automático de subcategorías, abordamos los desafíos presentados y demostramos que es posible obtenermodelos generales y robustos. Concretamente, estudiamos las diferentes fases de los algoritmos de reconocimiento de imágenes: preproceso de los datos, atención a diferentes regiones, actividad de las neuronas y el espacio de categorías. En cada fase, abordamos diferentes problemas que merman la precisión de los modelos al clasificar diferentes tipos de datos, y proponemos diferentes soluciones en cada capítulo: i) Primero abordamos el problema de la sensibilidad al alineamiento de las imágenes en el reconocimiento de expresiones faciales, como el dolor. ii) A continuación, proponemos un mecanismo de atención que permite a las redes neuronales centrarse y procesar en detalle las partes más informativas de las imágenes. iii) Extendemos losmecanismos de atenciónmás allá de los píxeles, permitiendo las redes atender su propia actividad neuronal para corregir las predicciones finales. iv)Después proponemos una nueva función de coste para regularizar las conexiones de las capas de neuronas, incentivando el aprendizaje de patrones distintos y, por lo tanto, previniendo la memorización de detalles únicos en objetos. v) Finalmente, estudiamos las ventajas de modelar explícitamente el espacio de categorías usando la teoría de códigos correctores de errores. Como resultado, en esta tesis demostramos que los mecanismos de atención y regularización pueden ser la clave para solucionar los problemas del reconocimiento de subcategorías, así como una buena modelización del espacio de entrada y salida de losmodelos.
Fine-grained recognition, i.e. identifying similar subcategories of the same superclass, is central to human activity. Recognizing a friend, finding bacteria in microscopic imagery, or discovering a new kind of galaxy, are just but few examples. However, fine-grained image recognition is still a challenging computer vision task since the differences between two images of the same category can overwhelm the differences between two images of different fine-grained categories. In this regime, where the difference between two categories resides on subtle input changes, excessively invariant CNNs discard those details that help to discriminate between categories and focus on more obvious changes, yielding poor classification performance. On the other hand, CNNs with too much capacity tend to memorize instance-specific details, thus causing overfitting. In this thesis,motivated by the potential impact of automatic fine-grained image recognition, we tackle the previous challenges and demonstrate that proper alignment of the inputs, multiple levels of attention, regularization, and explicitmodeling of the output space, results inmore accurate fine-grained recognitionmodels, that generalize better, and are more robust to intra-class variation. Concretely, we study the different stages of the neural network pipeline: input pre-processing, attention to regions, feature activations, and the label space. In each stage, we address different issues that hinder the recognition performance on various fine-grained tasks, and devise solutions in each chapter: i)We deal with the sensitivity to input alignment on fine-grained human facial motion such as pain. ii) We introduce an attention mechanism to allow CNNs to choose and process in detail the most discriminate regions of the image. iii)We further extend attention mechanisms to act on the network activations, thus allowing them to correct their predictions by looking back at certain regions, at different levels of abstraction. iv) We propose a regularization loss to prevent high-capacity neural networks to memorize instance details by means of almost-identical feature detectors. v)We finally study the advantages of explicitly modeling the output space within the error-correcting framework. As a result, in this thesis we demonstrate that attention and regularization seem promising directions to overcome the problems of fine-grained image recognition, as well as proper treatment of the input and the output space.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Ruiz, Álvarez Johanna. „Diseño e implementación de un sistema de apoyo a la decisión clínica en la prescripción basado en un modelo de clasificación del riesgo farmacológico“. Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/168192.

Der volle Inhalt der Quelle
Annotation:
Magíster en Ingeniería de Negocios con Tecnologías de información
El uso de medicamentos en pacientes pediátricos es un desafío diario; el estado madurativo, la compleja individualización de dosis, la falta de presentaciones pediátricas en el mercado, entre otras situaciones, convierten a los niños en una población más vulnerable a riesgos farmacológicos. En la atención de hospitalizados del Hospital Dr. Exequiel González Cortés, dos de cada tres pacientes tienen al menos un error de medicación a lo largo de toda la cadena y hoy no se disponen de herramientas tecnológicas para reducir dichos errores. Este trabajo se propone diseñar e implementar un sistema de apoyo a la decisión clínica en la prescripción basado en un modelo de clasificación del riesgo farmacológico en el área de hospitalizados del HEGC. Para el diseño del modelo fue empleada la metodología de Ingeniería de negocios propuesta por Barros y otros métodos de apoyo. Se consideró un análisis piloto a un total de 1085 recetas con prescripciones de antibióticos, los cuales representan el 53% del consumo total de fármacos del Hospital. El resultado fue un modelo de riesgo que incorpora conocimiento clínico para apoyar las tareas de fármacovigilancia. Usando el modelo se detectó el 100% de los EM de los errores que hoy son detectados manualmente y su clasificación en riesgo en alto, medio o bajo. El proyecto evidenció los beneficios del trabajo interdisciplinar entre clínicos, químicos e ingenieros; las ventajas del uso de las tecnologías de la información para el apoyo de los procesos hospitalarios y la factibilidad de la aplicación del conocimiento científico emergente de farmacia clínica en el proceso asistencial pediátrico.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Llanos, Soto Renato Jorge Emilio. „Rediseño del proceso de creación de propuestas de negocios mediante gestión del conocimiento y la aplicación de un modelo de clasificación de minería de datos“. Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/150552.

Der volle Inhalt der Quelle
Annotation:
Magíster en Ingeniería de Negocios con Tecnologías de Información
El conocimiento es un recurso que se encuentra en las personas, en los objetos que ellas utilizan, en el medio en que ellas se mueven y en los procesos de las organizaciones a las cuales pertenecen, permitiendo actuar e interpretar sobre lo que sucede en el entorno. El mercado minero actualmente vive un complejo panorama económico, dado principalmente, por una importante disminución de la inversión a nivel mundial en proyectos que repercute directamente a las empresas que suministran servicios a la minería en Chile. Debido a esto se ha generado una disminución en la demanda de servicios en el mercado, dando como resultado una disminución en la oferta de propuestas de proyectos y una mayor competencia por ganarlas. Empresa de Ingeniería Minera se dedica a la extracción y refinación de petróleo-gas, energía y minería en la mayor parte del planeta. La organización busca seguir siendo competitiva y mantenerse vigente en este mercado cambiante y saturado. Sus ingresos están dados principalmente por la cantidad de nuevos proyectos que se realicen de forma exitosa, por lo que generar un posible aumento la fuente de ingresos de la organización es un tema clave, y es precisamente este punto el que se busca apoyar con el estudio. Bajo este contexto se buscará generar una mayor posibilidad para la organización de obtener nuevos negocios en base a un análisis de la situación actual de la organización y la aplicación de un rediseño de procesos apoyado por un modelo de clasificación de minería de datos que permita mejorar la gestión del departamento con los recursos disponibles, aprovechar la información y el conocimiento existente para aumentar la posibilidad de ganar más proyectos y por ende aumentar las utilidades de la organización en relación al año anterior.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Saleh, Alraimi Adel. „Development of New Models for Vision-Based Human Activity Recognition“. Doctoral thesis, Universitat Rovira i Virgili, 2019. http://hdl.handle.net/10803/670893.

Der volle Inhalt der Quelle
Annotation:
Els mètodes de reconeixement d'accions permeten als sistemes intel·ligents reconèixer accions humanes en vídeos de la vida quotidiana. No obstant, molts mètodes de reconeixement d'accions donen taxes notables d’error de classificació degut a les grans variacions dins dels vídeos de la mateixa classe i als canvis en el punt de vista, l'escala i el fons. Per reduir la classificació incorrecta , proposem un nou mètode de representació de vídeo que captura l'evolució temporal de l'acció que succeeix en el vídeo, un nou mètode per a la segmentació de mans i un nou mètode per al reconeixement d'activitats humanes en imatges fixes.
Los métodos de reconocimiento de acciones permiten que los sistemas inteligentes reconozcan acciones humanas en videos de la vida cotidiana. No obstante, muchos métodos de reconocimiento de acciones dan tasas notables de error de clasificación debido a las grandes variaciones dentro de los videos de la misma clase y los cambios en el punto de vista, la escala y el fondo. Para reducir la clasificación errónea, Łproponemos un nuevo método de representación de video que captura la evolución temporal de la acción que ocurre en el video completo, un nuevo método para la segmentación de manos y un nuevo método para el reconocimiento de actividades humanas en imágenes fijas.
Action recognition methods enable intelligent systems to recognize human actions in daily life videos. However, many action recognition methods give noticeable misclassification rates due to the big variations within the videos of the same class, and the changes in viewpoint, scale and background. To reduce the misclassification rate, we propose a new video representation method that captures the temporal evolution of the action happening in the whole video, a new method for human hands segmentation and a new method for human activity recognition in still images.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Tafur, Tembladera Edelina Anyela. „Análisis de árboles de clasificación para la creación de un modelo que permita describir el perfil de los morosos y no morosos en una entidad financiera de Lima Metropolitana en el 2014“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2016. https://hdl.handle.net/20.500.12672/7432.

Der volle Inhalt der Quelle
Annotation:
Publicación a texto completo no autorizada por el autor
Las entidades financieras están desarrollando constantemente modelos que les ayuden a predecir el comportamiento de sus clientes, con el fin de mejorar sus ganancias o de reducir las pérdidas, como el riesgo de “no pago” o de “morosidad”. El objetivo es crear un modelo predictivo de Árboles de Decisión por Clasificación con minería de datos para predecir la morosidad financiera en Lima Metropolitana, describiendo y analizando las variables independientes con el algoritmo CHAID (Detector automático de Chi-cuadrado de interacción) siguiendo la metodología CRISP-DM en una base de datos de una entidad financiera. La principal ventaja de esta metodología es que no está sujeta a supuestos estadísticos, este método es muy usado cuando se busca predecir o clasificar comportamientos de riesgo, como la morosidad, y se cuenta con más variables cualitativas que cuantitativas. La metodología persigue la separación óptima en la muestra, de tal modo que los grupos de la variable respuesta ofrecen distintos perfiles de riesgo.
Trabajo de suficiencia profesional
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Barrueta, Meza Renzo André, und Villarreal Edgar Jean Paul Castillo. „Modelo de análisis predictivo para determinar clientes con tendencia a la deserción en bancos peruanos“. Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2018. http://hdl.handle.net/10757/626023.

Der volle Inhalt der Quelle
Annotation:
En la actualidad, el rol que cumplen los bancos en la economía del país y el impacto que tienen en las diferentes clases sociales es cada vez más importante. Estos siempre han sido un mercado que históricamente ha recibido un gran número de quejas y reclamaciones. Es por ello que, un mal servicio por parte del proveedor, una deficiente calidad de los productos y un precio fuera de mercado son las principales razones por las que los clientes abandonan una entidad bancaria. Esta situación va aumentando cada vez más y los bancos muestran su preocupación por este problema intentando implementar modelos que hasta el momento no han logrado cumplir con los objetivos. Además, existe un elevado nivel de competencia que obliga a las entidades financieras a velar por la lealtad de sus clientes para intentar mantenerlos e incrementar su rentabilidad. Este proyecto propone un Modelo de Análisis Predictivo soportado con la herramienta SAP Predictive Analytics, con el fin de ayudar en la toma de decisiones para la retención o fidelización de los clientes potenciales con tendencia a la deserción en la entidad bancaria. Esta propuesta se realizó mediante la necesidad de los mismos de conocer la exactitud de deserción de sus clientes categorizados potenciales. Se desarrolló una interfaz web como canal entre el Modelo de Análisis Predictivo propuesto y la entidad bancaria, con el fin de mostrar el resultado obtenido por el modelo indicando la exactitud, en porcentaje, de los clientes con tendencia a desertar. Además, como Plan de continuidad se propone 2 proyectos en base a la escalabilidad del Modelo de análisis predictivo propuesto, apoyándonos en la información obtenida en la etapa de análisis del modelo mismo.
Currently, the role played by banks in the country's economy and the impact they have on different social classes is increasingly important. These have always been a market that has historically received a large number of complaints and claims. It is therefore, poor service by the supplier, poor product quality and a price outside the market are the main reasons why customers leave a bank. This situation is increasingly and banks. In addition, there is a high level of competition that forces financial institutions and the loyalty of their customers to try to maintain them and increase their profitability. This project proposes a Predictive Analysis Model supported with the SAP Predictive Analytics tool, in order to help in making decisions for the retention or loyalty of clients with the tendency to drop out in the bank. This proposal was made through the need to know the accuracy of the desertion of its categorized clients. A web interface is shown as a channel between the Predictive Analysis Model and the bank, in order to show the result by the model that indicates the accuracy, in percentage, of clients with a tendency to defect. In addition, as a continuity plan, 2 projects are proposed based on the scalability of the Predictive Analysis Model, based on the information in the analysis stage of the model itself.
Tesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Aragonés, Luis. „Procesos litorales en el área de Alicante y Valencia“. Doctoral thesis, Universidad de Alicante, 2015. http://hdl.handle.net/10045/47629.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Bosch, Rué Anna. „Image classification for a large number of object categories“. Doctoral thesis, Universitat de Girona, 2007. http://hdl.handle.net/10803/7884.

Der volle Inhalt der Quelle
Annotation:
L'increment de bases de dades que cada vegada contenen imatges més difícils i amb un nombre més elevat de categories, està forçant el desenvolupament de tècniques de representació d'imatges que siguin discriminatives quan es vol treballar amb múltiples classes i d'algorismes que siguin eficients en l'aprenentatge i classificació. Aquesta tesi explora el problema de classificar les imatges segons l'objecte que contenen quan es disposa d'un gran nombre de categories. Primerament s'investiga com un sistema híbrid format per un model generatiu i un model discriminatiu pot beneficiar la tasca de classificació d'imatges on el nivell d'anotació humà sigui mínim. Per aquesta tasca introduïm un nou vocabulari utilitzant una representació densa de descriptors color-SIFT, i desprès s'investiga com els diferents paràmetres afecten la classificació final. Tot seguit es proposa un mètode par tal d'incorporar informació espacial amb el sistema híbrid, mostrant que la informació de context es de gran ajuda per la classificació d'imatges. Desprès introduïm un nou descriptor de forma que representa la imatge segons la seva forma local i la seva forma espacial, tot junt amb un kernel que incorpora aquesta informació espacial en forma piramidal. La forma es representada per un vector compacte obtenint un descriptor molt adequat per ésser utilitzat amb algorismes d'aprenentatge amb kernels. Els experiments realitzats postren que aquesta informació de forma te uns resultats semblants (i a vegades millors) als descriptors basats en aparença. També s'investiga com diferents característiques es poden combinar per ésser utilitzades en la classificació d'imatges i es mostra com el descriptor de forma proposat juntament amb un descriptor d'aparença millora substancialment la classificació. Finalment es descriu un algoritme que detecta les regions d'interès automàticament durant l'entrenament i la classificació. Això proporciona un mètode per inhibir el fons de la imatge i afegeix invariança a la posició dels objectes dins les imatges. S'ensenya que la forma i l'aparença sobre aquesta regió d'interès i utilitzant els classificadors random forests millora la classificació i el temps computacional. Es comparen els postres resultats amb resultats de la literatura utilitzant les mateixes bases de dades que els autors Aixa com els mateixos protocols d'aprenentatge i classificació. Es veu com totes les innovacions introduïdes incrementen la classificació final de les imatges.
The release of challenging data sets with ever increasing numbers of object categories is
forcing the development of image representations that can cope with multiple classes and
of algorithms that are efficient in training and testing. This thesis explores the problem of
classifying images by the object they contain in the case of a large number of categories. We first investigate weather the hybrid combination of a latent generative model with a discriminative classifier is beneficial for the task of weakly supervised image classification.
We introduce a novel vocabulary using dense color SIFT descriptors, and then investigate classification performances by optimizing different parameters. A new way to incorporate spatial information within the hybrid system is also proposed showing that contextual information provides a strong support for image classification. We then introduce a new shape descriptor that represents local image shape and its spatial layout, together with a spatial pyramid kernel. Shape is represented as a compact
vector descriptor suitable for use in standard learning algorithms with kernels. Experimental
results show that shape information has similar classification performances and sometimes outperforms those methods using only appearance information. We also investigate how different cues of image information can be used together. We
will see that shape and appearance kernels may be combined and that additional information
cues increase classification performance. Finally we provide an algorithm to automatically select the regions of interest in training. This provides a method of inhibiting background clutter and adding invariance to the object instance's position. We show that shape and appearance representation over the regions of interest together with a random forest classifier which automatically selects the best cues increases on performance and speed. We compare our classification performance to that of previous methods using the authors'own datasets and testing protocols. We will see that the set of innovations introduced here lead for an impressive increase on performance.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Rodríguez, Díaz Daniela del Pilar. „Antes NIC 39 ahora NIIF 9: nuevos desafíos para los contadores“. Pontificia Universidad Católica del Perú, 2017. http://repositorio.pucp.edu.pe/index/handle/123456789/114754.

Der volle Inhalt der Quelle
Annotation:
In this paper we will resume the main differences between the application of IFRS 9 «Financial Instruments» to be imperatively implemented in Peru since the commencement of the exercise 2018 with regards to the current IAS 39 «Financial Instruments: Recognition and Measurement», focusing in the classification and measurement of financial assets. Furthermore, a practical analysis will be applied to financial instruments in the investment banking industry.
En este trabajo, se busca sintetizar las principales diferencias en la aplicación de laNIIF 9 «Instrumentos Financieros» a implementarse de forma obligatoria en el Perú desde el inicio del ejercicio 2018 con respecto a la actual NIC 39 «Instrumentos Financieros: Reconocimiento y Medición», específicamente en clasificación y medición de las partidas de activos financieros. Además, se realiza un análisis práctico aplicado a instrumentos financieros del rubro de la banca de inversión.
Neste artigo, retomaremos as principais diferenças entre a aplicação da Normas Internacionais de Relatório Financeiro (IFRS) 9 «Instrumentos Financeiros» a implementar de forma imperativa no Peru desde o início do exercício de 2018 no que se refere ao atual Normas internacionais de contabilidade (IAS) 39 «Instrumentos Financeiros: Reconhecimento e Medição», focado em A classificação e mensuração de ativos financeiros. Além disso, uma análise prática será aplicada aos instrumentos financeiros no setor de banca de investimento.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

„Solución al problema de clasificación de alelos de HLA, usando modelos de optimización discreta“. Tesis, Universidad de las Américas Puebla, 2003. http://catarina.udlap.mx/u_dl_a/tales/documentos/lma/luna_o_bc/.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Godoy, Facundo Eduardo. „Métodos clásicos de clasificación : comparación y aplicación“. Bachelor's thesis, 2021. http://hdl.handle.net/11086/19768.

Der volle Inhalt der Quelle
Annotation:
Tesis (Lic. en Matemática)--Universidad Nacional de Córdoba, Facultad de Matemática, Astronomía, Física y Computación, 2021.
Los problemas de clasificación o discriminación son aquellos en los que se dispone de un conjunto de elementos que provienen de dos o más poblaciones conocidas y para cada uno se ha observado una serie de variables explicativas o predictoras. Se desea clasificar un nuevo elemento en alguna de esas poblaciones utilizando los valores, conocidos, de las variables explicativas. Actualmente, los métodos de clasificación son muy estudiados y utilizados en Aprendizaje Automático y Ciencia de Datos pero aparecen en estadística desde los años 30. En este trabajo se estudió el marco teórico de los métodos clásicos de clasificación: Análisis Discriminante Lineal, Análisis Discriminante Cuadrático, Regresión logística y k - vecinos más próximos. Luego, se ideó y llevó a cabo un estudio de simulación para compararlos en distintos escenarios. Por último, se aplicaron y compararon los métodos utilizando un conjunto de datos reales en el contexto la utilización de señales Bluetooth para la trazabilidad de contactos estrechos.
Classification or discrimination problems are a set of elements that come from two or more known populations, and for each one a series of explanatory or predictable variables has been observed. The aim is to classify a new element in any of these populations using the known values of the explanatory variables. Currently, classification methods are widely studied and used in Machine Learning and Data Science; however, they have appeared in statistics since the 30s. In this research, the theoretical framework of the classic classification methods was studied: Linear Discriminant Analysis, Quadratic Discriminant Analysis, Logistic regression and k - nearest neighbors. Afterwards, a simulation study was devised and carried out to compare them in different scenarios. Lastly, these methods were applied and compared using a set of real data in the context of the use of Bluetooth signals for traceability of close contacts.
publishedVersion
Fil: Godoy, Facundo Eduardo. Universidad Nacional de Córdoba. Facultad de Matemática, Astronomía, Física y Computación; Argentina.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Torres, Auad Lía. „Localización y clasificación de objetos de aprendizaje para la enseñanza-aprendizaje del Modelado de Bases de Datos en asignaturas de carreras de Ciencias Informáticas“. Tesis, 2014. http://hdl.handle.net/10915/39024.

Der volle Inhalt der Quelle
Annotation:
La expansión de propuestas educativas mediadas por tecnologías ha dado origen a estrategias y recursos innovadores como es el caso de los objetos de aprendizaje y la posterior diseminación mundial de repositorios de OAs. Este trabajo fue motivado por la necesidad de localizar OAs que permitan complementar la enseñanza presencial de las metodologías de diseño de bases de datos, contenidos clásicos de toda carrera de informática y/o computación. El punto de partida fue la conceptualización de los OA, para continuar con el relevamiento de los Repositorios de Objetos de Aprendizaje (ROAs) existentes. Una vez localizados los OAs comenzó la etapa de evaluación de los mismos, previo estudio de las propuestas de medición de calidad de objetos de aprendizaje, de modo de obtener información que constituya una referencia a los posibles reutilizadores. Para la selección de los instrumentos de evaluación a ser utilizados, se tuvo en cuenta aquellos que brindan la posibilidad de un resultado cuantificable, donde las dimensiones observables se encuentran claramente definidas.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie