Dissertationen zum Thema „Modelos de clasificación“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-44 Dissertationen für die Forschung zum Thema "Modelos de clasificación" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Silva, Palacios Daniel Andrés. „Clasificación Jerárquica Multiclase“. Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/167015.
Der volle Inhalt der Quelle[CA] La societat moderna s'ha vist afectada pels accelerats avenços de la tecnologia. L'aplicació de la intel·ligència artificial es pot trobar a tot arreu, des de la televisió intel·ligent fins als cotxes autònoms. Una tasca essencial de l'aprenentatge automàtic és la classificació. Tot i la quantitat de tècniques i algoritmes de classificació que existeixen, és un camp que segueix sent rellevant per totes les seves aplicacions. Així, enfront de la classificació tradicional multiclase en la qual a cada instància se li assigna una única etiqueta de classe, s'han proposat altres mètodes com la classificació jeràrquica i la classificació multietiqueta. Aquesta tesi té com a objectiu resoldre la classificació multiclase mitjançant una descomposició jeràrquica. Així mateix, s'exploren diferents mètodes d'estendre l'aproximació definida per a la seva aplicació en contextos canviants. La classificació jeràrquica és una tasca d'aprenentatge automàtic en la qual el problema de classificació original es divideix en petits subproblemes. Aquesta divisió es realitza tenint en compte una estructura jeràrquica que representa les relacions entre les classes objectiu. Com a resultat el classificador jeràrquic és al seu torn una estructura (un arbre o un graf) composta per classificadors de base. Fins ara, en la literatura, la classificació jeràrquica s'ha aplicat a dominis jeràrquics, independentment que l'estructura jeràrquica sigui proporcionada explícitament o s'assumeix implícita (en aquest cas es fa necessari inferir primer aquesta estructura jeràrquica). La classificació jeràrquica ha demostrat un millor rendiment en dominis jeràrquics en comparació amb la classificació plana (que no té en compte l'estructura jeràrquica de l'domini). En aquesta tesi, proposem resoldre els problemes de classificació multiclasse descomponent jeràrquicament d'acord a una jerarquia de classes inferida per un classificador pla. Plantegem dos escenaris depenent de el tipus de classificador usat en la jerarquia de classificadors: classificadors durs (crisp) i classificadors suaus (soft). D'altra banda, un problema de classificació pot patir canvis una vegada els models han estat entrenats. Un canvi freqüent és l'aparició d'una nova classe objectiu. Atès que els classificadors no han estat entrenats amb dades pertanyents a la nova classe, no podran trobar prediccions correctes per a les noves instàncies, el que afectarà negativament en el rendiment dels classificadors. Aquest problema es pot resoldre mitjançant dues alternatives: el reentrenament de tot el model o l'adaptació de el model per respondre a aquesta nova situació. Com a part de l'estudi dels algoritmes de classificació jeràrquica es presenten diversos mètodes per adaptar el model als canvis en les classes objectiu. Els mètodes i aproximacions definides en la tesi s'han avaluat experimentalment amb una àmplia col·lecció de conjunts de dades que presenten diferents característiques, usant diferents tècniques d'aprenentatge per generar els classificadors de base. En general, els resultats mostren que els mètodes proposats poden ser una alternativa a mètodes tradicionals i altres tècniques presentades en la literatura per abordar les situacions específiques plantejades.
[EN] The modern society has been affected by rapid advances in technology. The application of artificial intelligence can be found everywhere, from intelligent television to autonomous cars. An essential task of machine learning is classification. Despite the number of classification techniques and algorithms that exist, it is a field that remains relevant for all its applications. Thus, as opposed to the traditional multiclass classification in which each instance is assigned a single class label, other methods such as hierarchical classification and multi-label classification have been proposed. This thesis aims to solve multiclass classification by means of a hierarchical decomposition. Also, different methods of extending the defined approach are explored for application in changing contexts. Hierarchical classification is an automatic learning task in which the original classification problem is divided into small sub-problems. This division is made taking into account a hierarchical structure that represents the relationships between the target classes. As a result the hierarchical classifier is itself a structure (a tree or a graph) composed of base classifiers. Up to now, in the literature, hierarchical classification has been applied to hierarchical domains, regardless of whether the hierarchical structure is explicitly provided or assumed to be implicit (in which case it becomes necessary to first infer the hierarchical structure). Hierarchical classification has demonstrated better performance in hierarchical domains compared to flat classification (which does not take into account the hierarchical structure of the domain). In this thesis, we propose to solve the problems of multiclass classification by breaking it down hierarchically according to a class hierarchy inferred by a plane classifier. We propose two scenarios depending on the type of classifier used in the classifier hierarchy: hard classifiers (crisp) and soft classifiers (soft). On the other hand, a classification problem may change once the models have been trained. A frequent change is the appearance of a new target class. Since the existing classifiers have not been trained with data belonging to the new class, they will not be able to find correct predictions for the new instances, which will negatively affect the performance of the classifiers. This problem can be solved by two alternatives: retraining the entire model or adapting the model to respond to this new situation. As part of the study of hierarchical classification algorithms, several methods are presented to adapt the model to changes in target classes. The methods and approaches defined in the thesis have been evaluated experimentally with a large collection of data sets that have different characteristics, using different learning techniques to generate the base classifiers. In general, the results show that the proposed methods can be an alternative to traditional methods and other techniques presented in the literature to address the specific situations raised.
Silva Palacios, DA. (2021). Clasificación Jerárquica Multiclase [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/167015
TESIS
Lizares, Castillo Mónica. „Comparación de modelos de clasificación: regresión logística y árboles de clasificación para evaluar el rendimiento académico“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2017. https://hdl.handle.net/20.500.12672/7122.
Der volle Inhalt der QuelleTesis
Tapia, Farías Juan Eduardo. „Clasificación de Género en Imágenes Faciales Usando Información Mutua“. Tesis, Universidad de Chile, 2012. http://repositorio.uchile.cl/handle/2250/102779.
Der volle Inhalt der QuelleSandoval, Rodríguez Rodrigo Antonio. „Metodología de clasificación dinámica utilizando Support Vector Machine“. Tesis, Universidad de Chile, 2007. http://www.repositorio.uchile.cl/handle/2250/102921.
Der volle Inhalt der QuelleVigo, Chacón Geraldine Judith. „Método de clasificación para evaluar el riesgo crediticio : una comparación“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2010. https://hdl.handle.net/20.500.12672/3327.
Der volle Inhalt der Quelle--- Two classics methods of classification are compared: Analysis of Logistic Regression and Classification Trees with the method of Neural Networks. The comparison realized through his power of classification and prediction of the models obtains in the evaluation of credit risk, Neural Networks is the best method, because it has high power of classification and prediction. For the analysis used a database of credit risk. Likewise found the advantages and disadvantages in the use of each method. -- Key Words: Analysis Logistic Regression, Classification Trees, Neural Networks.
Tesis
Oviedo, Vega Pamela Andrea. „Clasificación mediante parámetros instrumentales de la intensidad de Mercalli modificada“. Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/146124.
Der volle Inhalt der QuelleLa evaluación de los daños y/o pérdidas en un sitio determinado ocurridos como consecuencia de un terremoto es un tema importante en el ámbito de la ingeniería sísmica. Las escalas de intensidades permiten identificar en primera instancia y en forma rápida el nivel de severidad del movimiento, pero estas son de carácter cualitativo ya que están basadas en la observación y el juicio humano. Por lo anterior, se han buscado relaciones entre los parámetros instrumentales asociados a un movimiento sísmico y las escalas de intensidades. En particular, este trabajo tiene como objetivo principal estimar la Intensidad de Mercalli Modificada (IMM) mediante el uso de parámetros instrumentales utilizando métodos estadísticos tanto de clasificación como de regresión. Además, se busca identificar que variables son las más influyentes en el valor de la escala de la Intensidad de Mercalli Modificada asignado luego de la ocurrencia de un sismo. Para lograr los objetivos de este trabajo se utilizan dos métodos estadísticos que son clasificados dentro de lo que se conoce como Aprendizaje Automático (AA): Redes Neuronales Artificiales (RNA) y Regresión Logística Multinomial (RGM). Los parámetros instrumentales considerados son: Aceleración Máxima de Suelo (PGA), Velocidad Máxima de Suelo (PGV), duración fase fuerte, Intensidad de Arias (Ia), Intensidad Espectral de Housner (SI), Intensidad Instrumental de la Agencia Meteorológica de Japón (IJMA), velocidad absoluta acumulada (CAV), intensidad de cruces por cero (ν), frecuencia central, espectros de respuesta (Sa, Sv y Sd), distancia al hipocentro, profundidad hipocentro y fuente sismogénica. Del desarrollo de este trabajo y el análisis de los resultados obtenidos, se tienen como conclusiones y observaciones principales que el método de RLM presenta un mejor desempeño que RNA. En cuanto a qué parámetros instrumentales son los más influyentes, se obtiene que son: log(PGV), log(PGA), log(Ia), log(SI) e IJMA. El modelo generado mediante RLM ocupando solo estas variables arroja un mayor porcentaje de clasificación que ocupando todos los parámetros. Sin embargo, para ambos métodos el uso de cada variable por separado (las más influyentes) es levemente mejor que utilizar las cinco juntas, siendo la que mejor resultados entrega log(PGV). Por último, de los resultados se observa que el conocimiento a priori del tipo de suelo no es influyente en los resultados.
Galván, Arbeiza Cristina. „Clasificación de estuarios a diferentes escalas espaciales mediante la integración de modelos físicos y biológicos“. Doctoral thesis, Universidad de Cantabria, 2014. http://hdl.handle.net/10803/284434.
Der volle Inhalt der QuelleIn this thesis, a classification system of the estuaries located in the North-East Atlantic European region is established. A hierarchical approach is proposed to identify ecological typologies at a regional and local scale and, at a higher level of detail, biotopes within an estuary. This methodology is based on a set of abiotic descriptors that determine the distribution of the biological communities in estuaries depending on the spatial scale. Latitudinal and geographic variables are proposed in order to classify estuaries at a regional scale, while indicators of morphology and hydrology of these systems are used at a local scale. The approach to classify biotopes at different levels of detail consists of a hierarchical integration of environmental variables representative of the corresponding spatial scale. The biological characterization of biotopes allows defining ecotopes, which are predictive models of the potential distribution of species within estuaries.
modelos predictivos
Moreno, Zapata Carla Natalí. „Comparación de modelos perceptrón multicapa y función de base radial para la clasificación de clientes de alto valor de una entidad financiera“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2017. https://hdl.handle.net/20.500.12672/7480.
Der volle Inhalt der QuelleCompara dos métodos de redes neuronales: perceptrón multicapa y función de base radial para la clasificación de los clientes más rentables de una entidad financiera que permita la gestión del riesgo crediticio como apoyo a la toma de decisiones. La comparación se realizó en base al poder de predicción y clasificación de los modelos, siendo el perceptrón multicapa el mejor método por tener mayor poder de predicción y clasificación. Para el análisis se utilizó una base de datos de una entidad financiera. Desarrolla una investigación aplicada, de diseño no experimental de corte transversal. Los datos utilizados son clientes de la entidad financiera que desembolsaron créditos de julio a octubre del 2014.
Trabajo de suficiencia profesional
Castañeda, Guillén Celina Julia. „Tasa de cesáreas aplicando el modelo de clasificación de Robson en el Instituto Nacional Materno Perinatal, periodo enero - diciembre 2015“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2017. https://hdl.handle.net/20.500.12672/6134.
Der volle Inhalt der QuelleTesis
Lagos, Flores Gustavo Patricio. „Implementacion de un algoritmo de monitoreo de salud estructural basado en objetos simbolicos y clasificación por agrupamiento“. Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/146599.
Der volle Inhalt der QuelleEl presente trabajo de Tesis muestra la implementación y análisis de variados métodos de aprendizaje de máquinas y minería de datos, desde la fase de extracción de características sensibles usando objetos simbólicos y clasificación mediante algoritmos de agrupamiento, para el estudio y monitoreo de la condición estructural de obras civiles, con énfasis en la detección temprana de la ocurrencia de daños estructurales. El monitoreo de salud estructural mediante algoritmos de minería de datos, reconocimiento de patrones y aprendizaje de máquinas es un campo moderno y activo en la Ingeniería Civil. El flujo general es que a partir de mediciones de aceleración en sitio y utilizando metodologías de identificación de sistemas, se extrae la información modal que representa algún modelo clásico de la dinámica estructural. En este trabajo se busca extender el tipo de información que se puede extraer desde las series de aceleración, estudiando el uso de las series de aceleración en bruto y a su vez mediante la extracción de características sensibles usando ajustes de modelos autoregresivos. La metodología global que se utiliza está basada en el agrupamiento de objetos simbólicos que representan el comportamiento estadístico de características sensibles, y se implementa tanto en series de aceleración obtenidas en laboratorio como en un edificio en operación instrumentado. En el segundo capítulo se estudian las series de aceleración en bruto como entrada para la transformación a objetos simbólicos con uso de histogramas e intervalos intercuartiles, concluyéndose que la energía de entrada es altamente determinante en los grupos obtenidos por los algoritmos de clasificación. Aún así, se puede extraer información del estado estructural si se analizan series de aceleración obtenidas desde un misma condición operacional y ambiental. En el tercer capítulo se estudia la extracción de otro tipo de característica basada en modelos autoregresivos, con las que se generan series de coeficientes de modelos AR(p) ajustados a las series de aceleración originales, encontrándose que los parámetros AR son mucho más sensibles a los cambios estructurales que la aceleración y que dicha sensibilidad puede aumentarse sin pérdida de robustez si se consideran líneas base de referencia. En el cuarto capítulo se analiza el uso de las series de coeficientes AR como entrada para la condensación a objetos simbólicos con los que realizar el agrupamiento, consiguiendo una mejora considerable en la separación de con respecto al uso de las series de aceleración en bruto.
López, Úbeda Isabel. „Clasificación morfológica de las playas y modelado del perfil transversal en Valencia, Alicante y Murcia“. Doctoral thesis, Universidad de Alicante, 2006. http://hdl.handle.net/10045/58897.
Der volle Inhalt der QuelleLópez, Isabel. „Clasificación morfológica de las playas y modelado del perfil transversal en Valencia, Alicante y Murcia“. Doctoral thesis, Universidad de Alicante, 2016. http://hdl.handle.net/10045/58897.
Der volle Inhalt der QuelleSaravia, Estrada Jacob Alejandro. „Desarrollo de un Método de Clasificación de Edad para Imágenes Faciales Basado en Análisis Antropométrico y de Texturas“. Tesis, Universidad de Chile, 2011. http://www.repositorio.uchile.cl/handle/2250/104183.
Der volle Inhalt der QuelleUn sistema que ayude a determinar la edad de las personas se transforma en una gran ayuda para facilitar una serie de tareas, como estudios de mercadeo, selección de contenidos aptos para ciertos grupos etarios, entre otros sistemas basados en interacciones humanas. El presente trabajo expone el desarrollo de un algoritmo que sea capaz de estimar edad y clasificar en rangos etarios utilizando rostros frontales, realizando para ello un análisis antropométrico de proporciones faciales en conjunto con un análisis de textura de la piel en determinadas zonas claves del rostro. Para ello es que se calculan ciertas proporciones del rostro y, por otro lado, se determina el nivel de arrugas, mediante la obtención de la intensidad, cantidad y distribución espacial de dichos surcos en la piel. Con tales datos se efectúa un procedimiento de clasificación, contrastando un par de algoritmos de aprendizaje computacional conocidos como redes neuronales artificiales y máquinas de soporte vectorial. Para ajustar los parámetros del algoritmo anteriormente descrito, se aplica una optimización por enjambre de partículas. Con todo esto en mente, el clasificador con mejor desempeño es el que en función de la cantidad de grupos previamente definidos (e.g. niño, joven o adulto) entregue la mayor tasa de aciertos, o el que mediante una aproximación de la edad real (en cantidad de años) presente un menor error. Para dichas tareas se obtuvo una clasificación con una tasa de aciertos de un 98% en promedio para 2 clases, y 6 años de error en promedio para la estimación de la edad real del sujeto.
Landa, Baella María del Pilar. „Comparación de modelos de regresión logística binomial y árbol de decisión para la clasificación de pacientes con presión arterial de una clínica privada“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2017. https://hdl.handle.net/20.500.12672/7381.
Der volle Inhalt der QuellePresenta la comparación de dos modelos de clasificación para pacientes con presión arterial de una clínica privada, cuyo análisis se realizó mediante dos modelos predictivos de regresión logística binomial y árboles de decisión. El comportamiento de los dos modelos fue medido por tres indicadores: Sensibilidad, Curva Roc e Índice de GINI. En general, el mejor modelo para la clasificación de los pacientes con presión arterial es el modelo de árboles de decisión (Sensibilidad=80.7%, Curva Roc=79.8% e Índice de GINI=59.6%).
Trabajo de suficiencia profesional
Lara, Martínez Guillermo-Fernán. „Caracterización y modelado de la producción de sonidos de las ballenas beluga (Delphinapterus Leucas) basado en modelos de análisis / síntesis de voz“. Doctoral thesis, Universitat Politècnica de València, 2016. http://hdl.handle.net/10251/74645.
Der volle Inhalt der Quelle[ES] Esta tesis doctoral aborda el estudio de los sonidos producidos por las ballenas beluga (Delphinapterus Leucas) con un objetivo fundamental: su caracterización y su modelado. Para ello, se propone una serie de algoritmos de análisis / síntesis de los sonidos producidos por estos animales inspirados en las recientes investigaciones sobre el funcionamiento y la fisionomía del aparato fonador de las ballenas beluga. Se trata de un trabajo multidisciplinar, en el que para alcanzar este objetivo, se analiza la generación de sonidos en instrumentos musicales, se repasan técnicas de análisis tiempo-frecuencia junto con métodos de reconocimiento de patrones, se aplican técnicas de selección de características, se analiza el potencial de incluir algoritmos que trabajen en el dominio cepstral y se realiza un análisis cuantitativo de los Recurrence Plots como medida del determinismo. Todo esto permite plantear un modelo de producción de sonidos capaz de adaptarse a las peculiaridades de ésta especie y reproducir con una alta fidelidad su amplio repertorio de sonidos. Además, con la finalidad de dar validez al modelo propuesto, se analizan y sintetizan diferentes sonidos de una base de datos de vocalizaciones de ballenas beluga para compararlos con los generados con un modelo de análisis/ síntesis genérico. De manera adicional, se propone emplear los parámetros del modelo de síntesis para realizar una nueva clasificación de sonidos de la especie basada en su naturaleza de producción, consiguiendo mejorar los resultados obtenidos con clasificadores basados en características del diagrama tiempo-frecuencia. Las hipótesis propuestas han sido validadas con la realización de medidas acústicas de las ballenas beluga del Oceanografic de València (supervisadas por los cuidadores del parque), así como con un gran número grabaciones de audio de laboratorio en condiciones controladas. Finalmente se describe el dispositivo de monitorización acústica pasiva SAMARUC, diseñado con la funcionalidad de incluir los algoritmos implementados en entornos de aguas abiertas, pudiendo ofrecer datos de la grabación de los sonidos, la clasificación de éstos, así como los indicadores del buen estado medioambiental de nuestros mares y océanos. Estos indicadores incluyen los niveles de ruido submarino tal y como se recoge en el descriptor 11 de la Directiva Marina Europea y es por ello que se prevé que esta línea de investigación tenga un auge considerable en años futuros.
[CAT] Aquesta tesi doctoral aborda l'estudi dels sons produïts per les ballenes beluga (Delphinapterus Leucas) amb un objectiu fonamental: la seua caracterització y modelat. Es proposen una sèrie d'algoritmes d'anàlisi / síntesi d'aquestos sons inspirats en recents investigacions sobre el funcionament i la fisonomia del aparell fonador de les ballenes beluga. Es tracta d'un treball multidisciplinar, on per a arribar a aquest objectiu s'analitza la generació de sons en instruments musicales, es repassen tècniques d'anàlisi temps-freqüencia junt a mètodes de reconeixement de patrons, s'apliquen tècniques de selecció de característiques, s'analitza el potencial de la inclusió d'algoritmes que treballen en el domini cepstral i es realitza un anàlisi quantitatiu dels Recurrence Plots com a mètrica del determinisme. Tot aço permet plantejar un model de producción de sons capaç d'adaptar-se a les peculiaritats d'aquesta espècie i reproduir amb una alta fidelitat el seu amplíssim repertori de sons. Ademés, amb la finalitat de donar validesa al model proposat, s'analitzen i sintetitzen diferents sons d'una base de dades de vocalitzacions de ballenes beluga per a comparar-les amb les generades per un model d'anàlisi / síntesi genèric. De manera addicional es proposa emprar els paràmetres del model de síntesi disenyat per a fer una nova classificació de sons basada en la seua naturalesa de producció, aconseguint millorar el resultats obtinguts amb classificadors basats en característiques del diagrama temps-freqüencia. Les hipòtesis proposades han sigut validades amb la realització de mesures acústiques de les ballenes beluga de l'Oceanogràfic de Valéncia (supervisades pels cuidadors del parc), així com una gran quantitat de grabacions d'àudio de laboratori en condicions controlades. Finalment es descriu el dispositiu de monitorització acústica pasiva SAMARUC, disenyat amb la funcionalitat d'incloure els algoritmes implementats en entorns d'aigües obertes, podent oferir dades de la grabació dels sons, la seua classificació, així com els indicadors del benestar mediambiental dels nostres mars i oceans. Aquestos indicadors inclueixen els nivells de so submarí tal com es diu al descriptor 11 de la Directiva Marina Europea. Es per aço que es preveu que aquesta línia d'investigació tinga un auge considerable als anys futurs.
Lara Martínez, G. (2016). Caracterización y modelado de la producción de sonidos de las ballenas beluga (Delphinapterus Leucas) basado en modelos de análisis / síntesis de voz [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/74645
TESIS
Bazan, Guzman Jorge Luis, und Oscar Millones. „Una clasificación de modelos de regresión binaria asimétrica: el uso del BAYES-PUCP en una aplicación sobre la decisión del cultivo ilícito de hoja de coca“. Economía, 2012. http://repositorio.pucp.edu.pe/index/handle/123456789/118039.
Der volle Inhalt der QuelleMolina, Gómez Nidia Isabel. „Incidencia de la calidad el aire en el desarrollo urbano sostenible. Metodología de pronóstico basado en herramientas de aprendizaje automático“. Doctoral thesis, Universitat Politècnica de València, 2021. http://hdl.handle.net/10251/168398.
Der volle Inhalt der Quelle[CA] La qualitat de l'aire és un determinant de la salut i benestar de les poblacions; la seua millora és part d'algunes metes dels objectius de desenvolupament sostenible (ODS) amb l'Agenda 2030. Sobre aquest tema, s'han definit a nivell mundial protocols, acords, convenis i alineaments de política per a aconseguir avançar en el compliment dels ODS. Existeixen reportes nacionals d'avanç sobre la implementació de metes específiques, segons l'agenda de cada país i en alguns casos en l'àmbit de ciutat, els indicadors de la qual poden integrar-se en les dimensions més conegudes del desenvolupament sostenible: la dimensió ambiental, la social i l'econòmica. Existeix informació sobre el monitoratge de l'estat de la qualitat dels recursos i de les condicions del territori en diversos temes. No obstant això, no en tots els territoris, en les seues diferents escales espacials, es realitza contínua avaluació del seu acompliment sostenible i, a més a més, factors de deterioració ambiental com la contaminació de l'aire, són tractats com a determinants aïllats amb la generació de reportes del seu comportament i el desenvolupament de plans de monitoratge i de mitigació. De la mateixa manera, per als diferents temes que fan part de les dimensions de la sostenibilitat, existeixen eines de modelatge per a avaluar el comportament dels seus indicadors; no obstant això, no es compta amb un instrument que pronostique el nivell d'avanç en el desenvolupament sostenible i a més que identifique la influència de la qualitat de l'aire en el seu comportament. Les eines d'aprenentatge automàtic poden aportar en la resposta a aquesta situació, en ser instruments útils en el pronòstic del comportament d'un conjunt de dades. Per consegüent, l'objectiu central d'aquest treball doctoral és establir la incidència de la qualitat de l'aire sobre el desenvolupament urbà sostenible, en les seues dimensions ambiental, social i econòmica, mitjançant l'ús d'eines d'aprenentatge automàtic, com a suport per a la presa de decisions. Aquest objectiu involucra el disseny i execució d'una metodologia per a identificar la influència d'indicadors en matèria de qualitat de l'aire, sobre el desenvolupament urbà sostenible. Aquest treball doctoral es va desenvolupar com a compendi d'un conjunt de publicacions que inclouen 1) la revisió de l'estat de l'art per a la identificació de les variables i paràmetres que podrien qualificar les dimensions individuals de l'acompliment sostenible, 2) l'avaluació del nivell d'avanç en el desenvolupament sostenible d'una zona urbana i l'anàlisi estadística del seu acompliment sostenible segons les variables analitzades; 3) la identificació, selecció i aplicació de les eines d'aprenentatge automàtic i finalment 4) la identificació del grau d'influència de la qualitat de l'aire en el pronòstic del nivell de sostenibilitat establit. Per a això es va fer ús del programari ArcGIS per a l'anàlisi espacial i del programari d'accés lliure R per a les anàlisis estadístiques i l'aplicació de les eines d'aprenentatge automàtic. Aquesta investigació es va realitzar a partir d'un estudi de cas en una localitat de la ciutat de Bogotà, a Colòmbia que és la capital del país, situada sobre una planícia altitudinal en la serralada oriental i a 2625 metres sobre el nivell de la mar. Bogotà és una de les ciutats més poblades a Amèrica Llatina i és una de les capitals mundials que ha presentat alts nivells de contaminació per material particulat, sent aquest un factor de risc per a la seua població. La metodologia construïda permet avaluar la influència de la qualitat de l'aire en el desenvolupament urbà sostenible mitjançant l'ús d'eines d'aprenentatge automàtic. És aplicable a zones urbanes i orienta el pas a pas per a la determinació dels factors de major rellevància en cadascuna de les dimensions de la sostenibilitat, constituint-se en un instrument de suport per a la presa d
[EN] Air quality is a determinant to the health and well-being of populations; its improvement is part of some of the targets of the Sustainable Development Goals (SDGs) with the 2030 Agenda. In this regard, protocols, agreements, pacts, and policy guidelines have been defined worldwide to progress in the SDGs' achievement. Additionally, there are national progress reports on reaching specific goals, based on each country's agenda. In certain cases, these include city-level reports, whose indicators, both at the national and city levels, can be integrated into the central and best-known dimensions of sustainable development, namely the environmental, social, and economic dimensions. There is information concerning the monitoring of the state of resource quality and territorial conditions in various areas. However, not all territories in their different spatial scales are continuously evaluated for their sustainable performance. Moreover, environmental deterioration factors such as air pollution are handled as isolated determinants with reports generated on their behavior, in addition to developing monitoring and mitigation plans. Likewise, there are modeling tools to evaluate the behavior of different components that are part of the dimensions of sustainability. However, there is no instrument that forecasts the level of progress in sustainable development that also identifies the influence of air quality on its behavior. Machine learning tools can contribute to responding to this situation, as they are able to predict the behavior of a data set. Therefore, the primary objective of this doctoral work is to establish the incidence of air quality on urban sustainable development, in its environmental, social, and economic dimensions, through the use of machine learning tools to support decision-making. This objective entails designing and implementing a methodology to identify the influence of air quality indicators on urban sustainable development. This doctoral thesis was developed as a compendium of a set of publications which include: 1) the review of the state of the art for identifying variables and parameters that could qualify the individual dimensions of sustainable performance; 2) the evaluation of the level of progress of the sustainable development of an urban area, and the statistical analysis of its sustainable performance based on the variables analyzed; 3) the identification, selection, and use of machine learning tools, and lastly 4) the identification of the influence of air quality on the prediction of the established sustainability level. The ArcGIS program was used for the spatial analysis, and the free-access software R for the statistical analysis, and the use of the machine learning tools. This research was performed based on a case study of a locality in the capital of Colombia; Bogotá, which is located on an altitudinal plain in the eastern mountain range at 2625 meters above sea level. Bogotá is one of the most populated cities in Latin America and is one of the world capitals with the highest levels of air pollution from particulate matter, which is a risk factor for its population. The methodology developed enables evaluating the influence of air quality on urban sustainable development with machine learning tools. This methodology is valid in urban areas, and through a step-by-step approach, determines the most relevant factors for each sustainability dimension. It has become a tool to support decision-making regarding the implementation and progress of the SDGs from the micro-territory level.
Molina Gómez, NI. (2021). Incidencia de la calidad el aire en el desarrollo urbano sostenible. Metodología de pronóstico basado en herramientas de aprendizaje automático [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/168398
TESIS
Jiménez, Alcañiz Cesáreo. „Análisis de las Metodologías para la recuperación patrimonial de entornos urbanos protegidos. Propuesta Metodológica: desde los valores históricos a los nuevos modelos energéticos. Russafa desde el siglo XIX“. Doctoral thesis, Universitat Politècnica de València, 2014. http://hdl.handle.net/10251/37014.
Der volle Inhalt der QuelleJiménez Alcañiz, C. (2014). Análisis de las Metodologías para la recuperación patrimonial de entornos urbanos protegidos. Propuesta Metodológica: desde los valores históricos a los nuevos modelos energéticos. Russafa desde el siglo XIX [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/37014
TESIS
Premiado
Bruna, Paez Eduardo Andrés. „Modelo preventivo de morosidad temprana de clientes HFC mediante clasificación bayesiana“. Tesis, Universidad de Chile, 2012. http://www.repositorio.uchile.cl/handle/2250/112522.
Der volle Inhalt der QuelleEste proyecto, formó parte del plan de mitigación de clientes morosos implementado por una empresa de telecomunicaciones en el año 2009, dónde una de las líneas de acción estaba enfocada en disminuir la morosidad de los nuevos clientes en su primera factura. Se propuso un modelo que clasifique a los nuevos clientes en pagadores y no pagadores, permitiendo con ello, reorientar recursos y realizar acciones preventivas de morosidad de manera más focalizada y efectiva, las cuales estaban siendo hasta ese momento aplicadas al universo total de nuevos clientes. El éxito de este proyecto requería el compromiso del área de cobranzas, usuaria del modelo, por esto, la elección del modelo consideró aspectos tanto teóricos como prácticos. La simpleza y la fácil ejecución del modelo, idealmente programable, eran variables deseables y decidoras del éxito de éste. Se ejecutó basado en Clasificación Bayesiana por su forma simple de utilizar y presentar una confiabilidad aceptable [17]. Los métodos de inducción bayesiana han demostrado ser una clase de algoritmos tan competitivos como los métodos árboles de decisión y redes neuronales [29], que permiten implementar algoritmos en Wolfram Mathematica 6.0 cuyas sentencias de programación son muy similares al lenguaje C++, permitiendo su programación posterior. El modelo se confeccionó con 42.087 clientes, contratantes entre el 15 de julio y el 15 de octubre del 2009, de estos, 40.087 formaron la base de aprendizaje para calibrar y realizar los cálculos de probabilidades, y 2.000 como base de testing. Los clientes a clasificar en pagadores y no pagadores correspondieron a 9.328, quienes ingresaron a la empresa entre el 16 de Octubre y el 15 de Noviembre del 2009. En base a establecer una probabilidad a priori, se plantea en valores estimados de corte probabilístico basado en la experiencia o un método de clasificación [19], por una probabilidad de corte de 0,4 para clasificar a un cliente pagador por la necesidad que enfrenta la empresa de mejorar el % de clientes morosos en su primera boleta y a la vez reducir los costos actuales involucrados en la cobranza. El modelo clasificó a 2.910 clientes como no pagadores, 2.179 de ellos efectivamente no cancelaron su boleta al vencimiento (75%). Este resultado es compatible con el esperado en el análisis teórico, debido a la eficiencia de los estimadores estimados, como también, el tamaño de los set de datos empleados que en forma teórica respalda los resultados obtenidos con un 80% de confiabilidad. Como trabajo futuro, resulta interesante evaluar el aporte del modelo en la reducción real del porcentaje de clientes morosos al permitir reorientar recursos y focalizarse en ciertos clientes, como a su vez, actualizar la base de aprendizaje de tal forma ir considerando la actualidad al modelo.
Reyes, Olvera Guadalupe Mireya. „Modelo teórico de cuadro de clasificación para archivos municipales en México“. Tesis de doctorado, Universidad Nacional Autónoma de México, 2020. http://hdl.handle.net/20.500.11799/109953.
Der volle Inhalt der QuelleAdriazola, Román Nicolás Leonardo. „Construcción de un modelo rating de admisión para la clasificación de riesgo crédito“. Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/137352.
Der volle Inhalt der QuelleEl presente documento busca construir un modelo de rating de admisión para créditos de empresas, que adicionalmente sirva como herramienta de apoyo a la clasificación de riesgo de una institución financiera. Homologa el resultado del modelo con las clasificaciones exigidas por la SBIF, para la cartera de evaluación individual. El rating al igual que el scoring, busca otorgar un puntaje a los clientes que ingresan o están dentro de una institución financiera, con el fin de identificar el nivel de riesgo que tiene tanto una empresa como persona. Este tipo de modelos busca estimar una probabilidad de incumplimiento que logre discriminar entre clientes que cumplen versus los que incumplen en sus pagos. El cálculo de este modelo utiliza una base de una institución financiera, donde la cartera estudiada corresponde a los créditos comerciales de los mayores deudores, cuyos clientes principales son pequeñas y medianas empresas. La creación de este modelo permite tener un parámetro objetivo y cuantitativo de cada cliente, ayudando a la clasificación de riesgo basada en la opinión de expertos del banco. Los resultados obtenidos muestran que el modelo puede discriminar entre clientes que cumplen versus los que incumplen sus obligaciones de crédito, dando un ordenamiento según su nivel de riesgo. La creación de perfiles a través de bad rates fue la solución más adecuada para homologar a las clasificaciones de riesgo, exigidas por el ente supervisor (SBIF). Lo conseguido en esta tesis fue desarrollar una metodología cuantitativa que complementa la labor de la evaluación individual. Dado el desarrollo de esta herramienta, es posible realizar un análisis cuantitativo como cualitativo, con el fin de tener una mejor gestión de riesgo y mejorar la calidad crediticia de la cartera, como así también aportar en el cálculo de provisiones por riesgo de crédito.
Salazar, Campos Juan Orlando. „Diseño de un modelo basado en redes neuronales artificiales para la clasificación de palta hass“. Master's thesis, Pontificia Universidad Católica del Perú, 2020. http://hdl.handle.net/20.500.12404/17400.
Der volle Inhalt der QuellePeru has become one of the main producers of Hass avocado, in this aspect a fundamental stage is the classification, this situation led to the approach of this research work which aimed to design a model based on Artificial Neural Networks that allows the classification of said fruit considering as criteria the state of physiological maturity and the evaluation of the damages and defects that it presents, said considerations are contemplated in the Peruvian Technical Standard NTP 011.018-2018. In the initial stage, a controlled environment was designed with a cold-day light level, which allowed the acquisition of images, building a dataset of 310 labeled images, on which Data Augmentation was applied. Then we proceeded to define the parameterization of a convolutional neural network architecture, obtaining a CNN model on which 4 criteria were evaluated, the resolution of the input images, the number of convolution and pooling layers, the learning factor and the number of training seasons. Finally, the results obtained were shown, defining the resolution of the input images in 64 x 64 pixels, 3 convolution layers accompanied by pooling, with 3x3 and 2x2 masks respectively and with ReLU activation functions, then moving to a fully layer layer connected, which was connected to a hidden layer and this to the output layer, which consisted of 4 neurons under the One Hot Encoding representation, with a softmax activation function, and a learning factor of 0.001, using in its training 50 epochs. After evaluating the parameterized model, a correct identification of the Hass avocado images was achieved with an accuracy of 87.5%.
Trabajo de investigación
Pinto, Valdiviezo Luis Alejandro. „Modelo algorítmico para la clasificación de documentos de carácter judicial en lenguaje portugués según su contenido“. Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/6233.
Der volle Inhalt der QuelleTesis
Muñoz, Oliveros Juan Andrés. „Aplicación de un modelo de aprendizaje basado en la experiencia a juegos de clasificación de adversarios“. Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/169226.
Der volle Inhalt der QuelleMemoria para optar al título de Ingeniero Civil Industrial
Un juego de clasificación de adversarios típico considera un clasificador y un adversario, que puede ser de tipo regular o malicioso. El clasificador debe intentar clasificar bien al adversario, sin conocer su tipo; mientras que el adversario conoce las preferencias del clasificador, y puede adaptar sus jugadas (tipo de mensaje enviado) para burlar la clasificación. La literatura se ha centrado en modelar este juego desde distintos enfoques, siempre bus- cando encontrar la estrategia óptima del adversario. Luego, con ella, se deduce la estrategia óptima que debe seguir el clasificador. Las pruebas con datos reales han arrojado resultados muy superiores a los algoritmos típicos de clasificación, que no incorporan técnicas de la teoría de juegos. En esta investigación se plantea un modelo basado en la estructura de los juegos de señalización, que deja completamente de lado los supuestos de información pública sobre el clasificador, y la capacidad de los jugadores de observar las acciones del otro. Para ello, se introduce un algoritmo de aprendizaje mediante la regla de elección aleatoria Logit, que los induce a adaptarse desde el ensayo y error. De esta manera los jugadores son capaces de adaptar sus estrategias turno a turno, observando únicamente sus propias estrategias y las utilidades obtenidas en el pasado. Utilizando este modelo, los jugadores son capaces de converger rápidamente al equilibrio bayesiano perfecto del juego, de manera mixta: los adversarios de tipo regular juegan estra- tegias puras sobre su mensaje preferido, mientras que los de tipo malicioso juegan estrategias mixtas entre los distintos mensajes disponibles. Por su parte, en el equilibrio las estrategias del clasificador se han ajustado a la proporción de adversarios maliciosos que envía cada mensaje en el equilibrio. En el equilibrio de este juego, los adversarios maliciosos se mueven dinámicamente entre los mensajes que escogen enviar, buscando burlar la clasificación. El error de clasificación asociado a ellos oscila constantemente, incluso en el equilibrio; lo que demuestra un compor- tamiento de gato y ratón constante entre el clasificador y los adversarios maliciosos. La mayor contribución del modelo, es que logra capturar la evolución hacia el equilibrio, las estrategias, el dinamismo del juego y la persecución constante entre los jugadores; sin que estos se puedan observar directa o indirectamente en todo el juego.
Malca, Bulnes Susana Milagros. „Modelo algorítmico para la clasificación de una hoja de planta en base a sus características de forma y textura“. Bachelor's thesis, Pontificia Universidad Católica del Perú, 2015. http://tesis.pucp.edu.pe/repositorio/handle/123456789/6053.
Der volle Inhalt der QuelleTesis
Palacios, Alcantara Lenin Alfredo. „Tasa de cesáreas por modelo de clasificación de robson en el Hospital II Cañete - Essalud, 2013 – 2014“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2016. https://hdl.handle.net/20.500.12672/4648.
Der volle Inhalt der Quelle--- Objective: To determine the rate of caesarean sections using the classification model cesarean Robson, for the years 2013 and 2014 Level II Hospital Cañete - ESSALUD. Methods: Observational, retrospective, descriptive study, statistical data and record book of births in a hospital in II level over a period of 2 years. All pregnant women admitted to hospital and culminating in childbirth, especially all occurred by cesarean are included. The information is handled and stored in a database created in the package spreadsheet Microsoft Excel 2015 and statistical analysis was performed and evaluated with R statistical package. Results: The sample consisted of 542 patients who underwent cesarean sections during the 2013-2014 period a total of 1876 births. The prevalence of cesarean sections during the study period was 28.6%; 26.7% in 2013 and 30.7% in 2014. In all study periods, types of Robson number 3, 1 and 5 were the most frequent. Conclusions: The rate of cesarean Hospital exceeds the rules set forth by WHO, during the study period, using the Robson classification model, we verified in this study, an increase in caesarean rates particularly in groups 3, 1 and 5. The results of cesarean rates by Robson classification model, show how simple, adaptable and feasible application model. Keywords: Robson classification model, rate of caesarean sections.
Tesis
Romeo, Lauren Michele. „The Structure of the lexicon in the task of the automatic acquisition of lexical information“. Doctoral thesis, Universitat Pompeu Fabra, 2015. http://hdl.handle.net/10803/325420.
Der volle Inhalt der QuelleLa información de clase semántica de los nombres es fundamental para una amplia variedad de tareas del procesamiento del lenguaje natural (PLN), como la traducción automática, la discriminación de referentes en tareas como la detección y el seguimiento de eventos, la búsqueda de respuestas, el reconocimiento y la clasificación de nombres de entidades, la construcción y ampliación automática de ontologías, la inferencia textual, etc. Una aproximación para resolver la construcción y el mantenimiento de los léxicos de gran cobertura que alimentan los sistemas de PNL, una tarea muy costosa y lenta, es la adquisición automática de información léxica, que consiste en la inducción de una clase semántica relacionada con una palabra en concreto a partir de datos de su distribución obtenidos de un corpus. Precisamente, por esta razón, se espera que la investigación actual sobre los métodos para la producción automática de léxicos de alta calidad, con gran cantidad de información y con anotación de clase como el trabajo que aquí presentamos, tenga un gran impacto en el rendimiento de la mayoría de las aplicaciones de PNL. En esta tesis, tratamos la adquisición automática de información léxica como un problema de clasificación. Con este propósito, adoptamos métodos de aprendizaje automático para generar un modelo que represente los datos de distribución vectorial que, basados en ejemplos conocidos, permitan hacer predicciones de otras palabras desconocidas. Las principales preguntas de investigación que planteamos en esta tesis son: (i) si los datos de corpus proporcionan suficiente información para construir representaciones de palabras de forma eficiente y que resulten en decisiones de clasificación precisas y sólidas, y (ii) si la adquisición automática puede gestionar, también, los nombres polisémicos. Para hacer frente a estos problemas, realizamos una serie de validaciones empíricas sobre nombres en inglés. Nuestros resultados confirman que la información obtenida a partir de la distribución de los datos de corpus es suficiente para adquirir automáticamente clases semánticas, como lo demuestra un valor-F global promedio de 0,80 aproximadamente utilizando varios modelos de recuento de contextos y en datos de corpus de distintos tamaños. No obstante, tanto el estado de la cuestión como los experimentos que realizamos destacaron una serie de retos para este tipo de modelos, que son reducir la escasez de datos del vector y dar cuenta de la polisemia nominal en las representaciones distribucionales de las palabras. En este contexto, los modelos de word embedding (WE) mantienen la “semántica” subyacente en las ocurrencias de un nombre en los datos de corpus asignándole un vector. Con esta elección, hemos sido capaces de superar el problema de la escasez de datos, como lo demuestra un valor-F general promedio de 0,91 para las clases semánticas de nombres de sentido único, a través de una combinación de la reducción de la dimensionalidad y de números reales. Además, las representaciones de WE obtuvieron un rendimiento superior en la gestión de las ocurrencias asimétricas de cada sentido de los nombres de tipo complejo polisémicos regulares en datos de corpus. Como resultado, hemos podido clasificar directamente esos nombres en su propia clase semántica con un valor-F global promedio de 0,85. La principal aportación de esta tesis consiste en una validación empírica de diferentes representaciones de distribución utilizadas para la clasificación semántica de nombres junto con una posterior expansión del trabajo anterior, lo que se traduce en recursos léxicos y conjuntos de datos innovadores que están disponibles de forma gratuita para su descarga y uso.
Lexical semantic class information for nouns is critical for a broad variety of Natural Language Processing (NLP) tasks including, but not limited to, machine translation, discrimination of referents in tasks such as event detection and tracking, question answering, named entity recognition and classification, automatic construction and extension of ontologies, textual inference, etc. One approach to solve the costly and time-consuming manual construction and maintenance of large-coverage lexica to feed NLP systems is the Automatic Acquisition of Lexical Information, which involves the induction of a semantic class related to a particular word from distributional data gathered within a corpus. This is precisely why current research on methods for the automatic production of high- quality information-rich class-annotated lexica, such as the work presented here, is expected to have a high impact on the performance of most NLP applications. In this thesis, we address the automatic acquisition of lexical information as a classification problem. For this reason, we adopt machine learning methods to generate a model representing vectorial distributional data which, grounded on known examples, allows for the predictions of other unknown words. The main research questions we investigate in this thesis are: (i) whether corpus data provides sufficient distributional information to build efficient word representations that result in accurate and robust classification decisions and (ii) whether automatic acquisition can handle also polysemous nouns. To tackle these problems, we conducted a number of empirical validations on English nouns. Our results confirmed that the distributional information obtained from corpus data is indeed sufficient to automatically acquire lexical semantic classes, demonstrated by an average overall F1-Score of almost 0.80 using diverse count-context models and on different sized corpus data. Nonetheless, both the State of the Art and the experiments we conducted highlighted a number of challenges of this type of model such as reducing vector sparsity and accounting for nominal polysemy in distributional word representations. In this context, Word Embeddings (WE) models maintain the “semantics” underlying the occurrences of a noun in corpus data by mapping it to a feature vector. With this choice, we were able to overcome the sparse data problem, demonstrated by an average overall F1-Score of 0.91 for single-sense lexical semantic noun classes, through a combination of reduced dimensionality and “real” numbers. In addition, the WE representations obtained a higher performance in handling the asymmetrical occurrences of each sense of regular polysemous complex-type nouns in corpus data. As a result, we were able to directly classify such nouns into their own lexical-semantic class with an average overall F1-Score of 0.85. The main contribution of this dissertation consists of an empirical validation of different distributional representations used for nominal lexical semantic classification along with a subsequent expansion of previous work, which results in novel lexical resources and data sets that have been made freely available for download and use.
Macari, Rosales Orlando Antonio. „Generación de una metodología de caracterización remota de suelos mediante un modelo predictivo, Región de Coquimbo, Chile“. Tesis, Universidad de Chile, 2015. http://repositorio.uchile.cl/handle/2250/148118.
Der volle Inhalt der QuelleLa clasificación remota de suelos es una técnica que puede resultar de gran utilidad para generar una aproximación fidedigna de la realidad de este recurso, especialmente en condiciones donde la información es escasa, parcializada, o inexistente. Este es el caso de la Región de Coquimbo, Chile, donde una amplia superficie no ha sido clasificada en detalle en cuanto a sus suelos, tal que solo en sus valles agrícolas se han realizado estudios de carácter agrológico. En este contexto, en el presente trabajo se propuso clasificar los suelos de la Región de Coquimbo según el sistema de Clases de Capacidad de Uso de suelos. Para este fin, se utilizaron Sistemas de Información Geográfica y Percepción Remota para generar los insumos necesarios para ejecutar la clasificación. Se consideraron los siguientes factores de formación de suelos: Material Parental, mediante el uso de información espacializada de geología de la zona; Clima, a partir de datos de precipitaciones y temperaturas; y Relieve, referido a las pendientes y Geoformas del paisaje, estas últimas determinadas por el método “Topographic Position Index” (TPI). Con esta información, se procedió a diseñar e implementar un Modelo experto de decisión, técnica que se vale del conocimiento experto en una disciplina para generar la regla de decisión. El modelo dio como resultado una clasificación que abarcó un 93,09% de la superficie regional, donde el restante 6,91% fue considerado como inclusiones, por representar unidades espacialmente disgregadas y fuera de contexto. La clasificación incluyó dos categorías que agruparon suelos que no fueron asignables a una Clase de Capacidad de Uso particular, pero sí a un rango: categoría Clases I a IV, y categoría Clases VI a VIII. Del total de unidades clasificadas según Clases de Capacidad de Uso, los resultados fueron los siguientes: 0,62% correspondió a Clase I; 0,74% a Clase II; 1,05% a Clase III; 5,06% a Clase IV; 11,63% a Clase VI; 36,22% a Clase VII; 26,33% a Clase VIII; 6,61% para la categoría Clases I a IV y 4,27% para la categoría Clases VI a VIII. Posterior a la obtención de los resultados, se efectuó una validación en base a consulta a un experto, evaluándose siete puntos particulares. El resultado indicó cuatro puntos que no calzaron con la clasificación realizada, lo que se debió a que dos de estos últimos se encontraron dentro de inclusiones (puntos San Julián y Maitencillo) y un tercero en una condición con limitantes químicas (punto Huentelauquén), estas últimas fuera del ámbito de predicción del modelo.
Remote soil classification is a technique that can be useful to generate an accurate approximation of the reality of this resource, especially in spatial conditions where information is scarce, biased, or nonexistent. This is the case of the Coquimbo Region, Chile, where a large area has not been classified in detail about their soils; such that only in their agricultural valleys are soil survey studies. In this context, this work proposes soils classify of the Coquimbo Region according to Land Capability Classes system. To this goal, Geographic Information Systems (GIS) and Remote Sensing were used to generate the inputs needed to run a classification. The considered soil formation factors with this purpose were: Parental material, for which we used specialized geology information of the area; Climate, in terms of rainfall and temperature data; and Relief, based on landscape landforms, were considered using the Topographic Position Index (TPI) method. With this information, it was proceeded to design and implement a technical expert decision model, which uses expert knowledge in a discipline to generate the decision rule. The model resulted in a classification which covered 93.09% of the region, where the remaining 6.91% was considered inclusions, because representing spatially disaggregated units out of context. The classification included two categories with soils that were not associated to a particular Land Capability Class, but were included in a range: Classes I to IV category and Classes VI to VIII category. On the total surface classified as Land Capability Classes, the results were as follows: 0.62 % was classified as Class I; 0.74% was Class II; 1.05% was Class III; 5.06% was Class IV; 11.63% was Class VI; 36.22% was Class VII; 26.33% was Class VIII; 6.61% was Classes I to IV category and 4.27% to Class VI to VIII category. Finally, a validation was performed based on expert criteria, evaluating seven specific points. Four points were not in agreement with the original result, which was due to two of the latter were within inclusions (San Julian and Maitencillo points) and a third point was a condition with chemical limiting condition (Huentelauquén point), outside the scope of model prediction.
Pandia, Fajardo Elma Alcira. „Modelo presión, estado, respuesta (P-E-R), para la clasificación de indicadores ambientales y gestión de la calidad del agua“. Master's thesis, Universidad Nacional Mayor de San Marcos, 2015. https://hdl.handle.net/20.500.12672/4647.
Der volle Inhalt der Quelle--- The Puyango-Tumbes River Basin comes from polluting sources located mainly in the upper and middle of it, which incorporate a considerable amount of heavy water and more to the sediment metals. The main activities that generate pollutants and incorporate the river Puyango - Tumbes are mining in the towns of Portovelo and Zaruma in the province of El Oro Ecuador, as well as the generation and disposal of solid waste and sewage of the populations in the river. This situation has already led to some problems in the lower basin of the Peruvian industry, polluting rice soils of the left bank of the Tumbes River and mangroves of Tumbes; damaging sources of direct feeding of the population and endangering human health. Under the mentioned this project aims Sort environmental indicators and contribute to the quality management of surface water in the basin of Puyango-Tumbes River through the Pressure - State- Response model (P-ER), study was performed on the Peruvian side , management programs of surface waters of the basin Puyango-Tumbes influence the classification of environmental indicators in the Puyango-Tumbes river and points sewage discharges were evaluated , identifying possible causes of contamination. The results show that the Tumbes River Basin has an Environmental Quality Index (EQI) of 22.97 and Zarumilla river basin has a EQI of 61.51. Keywords: Puyango-Tumbes Basin, Environmental Water Quality Model Pressure- State - Response , environmental quality
Tesis
Abarca, Cusimayta Daekef Rosendo. „Diseño de un modelo algorítmico basado en visión computacional para la detección y clasificación de retinopatía diabética en imágenes retinográficas digitales“. Bachelor's thesis, Pontificia Universidad Católica del Perú, 2018. http://tesis.pucp.edu.pe/repositorio/handle/123456789/12171.
Der volle Inhalt der QuelleTesis
Basurto, Contreras César Marino, und Contreras César Marino Basurto. „Modelo “Cebaco” aplicado al control de procesos en el circuito de Molienda-Clasificación en una planta concentradora de minerales mediante el software LabVIEW“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2011. http://cybertesis.unmsm.edu.pe/handle/cybertesis/377.
Der volle Inhalt der Quelle-- The process control in a concentrating plant appears like a problem of imponderable from the moment that the gross mineral falls to the tubes of the mill, the process is continuous and this continuity only stops when the product finally emerges to rest in the fields of storage of the concentrates and the fields of re-wash of the tails. The material in process cannot be weighed without interrupting such continuity; consequently, the control of the plant will depend much on the suitable sampling of the treated material that is like pulp. From these samples the essential and useful information of the analysis will be obtained, as far as the content of the metal, distribution as large as particles and water Content or other ingredients of the mineral pulp. With such information by hand, we can calculate the efficiency and the effectiveness of the work that takes place by means of the use of formulas and tabulations. But by the tedious that is the work to obtain information of the fact, more than everything by delay of the tests in laboratory, so, decisions cannot be taken right away to improve the production process. in the present work a methodology of process control, sets out called “cebaco” that consists basically of three parts main, first, the control method that set out, these are the operative variables in the circuit of milling-classification in a concentrating plant that is based on a humid malla in the same site of sampling, for which 2 are only needed, these can be No.60 and 200 that are the most recommendable and also to have a Densimeter (balance MARCY) with their respective monogram, we can weight pulp of 1litro of Capacity, knowing the mineral specific gravity, the pulp density with these data the solids percentage can be calculated in an instant in each flow of the filing cabinet, and with this data it calculates the negative accumulated percentage and positive of you enmesh mentioned, with these data collected using the mathematical models Gaudin-Schuhmann[64] and Rosin-Rammler [61], but used in mineral processing, with which the grain sized profiles are obtained almost right away and in an instant, the second contribution is the proposal of the mathematical model that is based on the density of the pulp taken these on each flow from the filing cabinet and of the density obtained when doing the humid mallaje respectively in you enmesh already mentioned; and the third party is I elaboration of software Goliat 0,2 in the programming language LabVIEW with the mathematical models that sets out where the obtained results is possible to be visualized in a computer. The tests of application and verification were realized, in Plants Concentrating of “Austria Duvaz” in Morococha, “Crown” of Chumpe in Yauricocha, Yauyos and “Huari” located in UNCP. Whish results were very flattering, agreeing almost in total with the proposition hypothesis. Like demonstration of which the methodology works optimally, as much in the process control like in the simulation, we can verify with the following obtained results, the size of cuts (d50) calculated [51]; with the data taken from the book of Juan Rivera Zevallos[58] in pages 307-324, is 77,31 microns and the classification efficiency is of 42,32 and making the calculations with the methodology, it gives that d50 is 77,32 microns and the classification efficiency gives a value of 42,71, is possible to be clearly noticed that almost there is no difference, In the second case in the comparison of the results of the data collected in the concentrating plant of “Chumpe” Yauricocha, when doing the process control and the respective calculations by the traditional methodology, as it is realized in the majority of the plants, it gives a value of d50 of 81,31 microns and the classification efficiency gives a value of 57,93% and when doing the control and its respective calculations with the methodology “Cebaco” give as result d50 of 83,56 microns and the efficiency of classification of 53,18% can also be noticed mainly in this completes that the difference is not significant, being the level of significance of 0.08 and with a approximation of 92%, in the third case also when evaluating another test of the data taken from the concentrating plant mentioned when doing the calculations with the traditional method, it gives an efficiency of classification of 48,49% and with the methodology “Cebaco” the classification efficiency is about 48,02%, also almost are similar, in the fourth case when doing the evaluation of the results obtained in the concentrating plant “Austria located Duvaz” in Morococha, the d50 calculated by the traditional methodology gives a value of 88,3061 and d50 calculated with the methodology “Cebaco” gives a value of 85,2559 existing a difference of so only 3,45 and the value of the efficiency of classification by the traditional methodology gives a value of 51,8102 and the calculated with the methodology “Cebaco” gives a value of 51,6255 existing an insignificant difference of 0,36 and the reason of circulating load calculated by the traditional methodology gives a value of 1.903 and the calculated one with the methodology “Cebaco” gives a value of 1,887 whose difference is of so only 0.84. So, the demonstration more important, where it is verified that the method “Cebaco” is an suitable proposal, occurs with the increase of the utility for the concentrating plant and this was obtained from valuations of the concentrates in both cases, first with the obtained metallurgical balance with the traditional method and the other with the metallurgical balance obtained of the works carried out with the proposed method, this is based on a better time of control, as for the time with the traditional method in the best cases is of 4 hours and with the proposed method is of so only 5 minutes, this implies that the corrections are made right away and in an instant, so it brings consequently theimprovement of the recoveries laws of the concentrates and therefore increase of the productivity. By the calculations done I determine a utility of 11. 53 dollars American more by ton of mineral treated, when realizing the control with the proposed method.
Tesis
Basurto, Contreras César Marino. „Modelo “Cebaco” aplicado al control de procesos en el circuito de Molienda-Clasificación en una planta concentradora de minerales mediante el software LabVIEW“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2011. https://hdl.handle.net/20.500.12672/377.
Der volle Inhalt der Quelle-- The process control in a concentrating plant appears like a problem of imponderable from the moment that the gross mineral falls to the tubes of the mill, the process is continuous and this continuity only stops when the product finally emerges to rest in the fields of storage of the concentrates and the fields of re-wash of the tails. The material in process cannot be weighed without interrupting such continuity; consequently, the control of the plant will depend much on the suitable sampling of the treated material that is like pulp. From these samples the essential and useful information of the analysis will be obtained, as far as the content of the metal, distribution as large as particles and water Content or other ingredients of the mineral pulp. With such information by hand, we can calculate the efficiency and the effectiveness of the work that takes place by means of the use of formulas and tabulations. But by the tedious that is the work to obtain information of the fact, more than everything by delay of the tests in laboratory, so, decisions cannot be taken right away to improve the production process. in the present work a methodology of process control, sets out called “cebaco” that consists basically of three parts main, first, the control method that set out, these are the operative variables in the circuit of milling-classification in a concentrating plant that is based on a humid malla in the same site of sampling, for which 2 are only needed, these can be No.60 and 200 that are the most recommendable and also to have a Densimeter (balance MARCY) with their respective monogram, we can weight pulp of 1litro of Capacity, knowing the mineral specific gravity, the pulp density with these data the solids percentage can be calculated in an instant in each flow of the filing cabinet, and with this data it calculates the negative accumulated percentage and positive of you enmesh mentioned, with these data collected using the mathematical models Gaudin-Schuhmann[64] and Rosin-Rammler [61], but used in mineral processing, with which the grain sized profiles are obtained almost right away and in an instant, the second contribution is the proposal of the mathematical model that is based on the density of the pulp taken these on each flow from the filing cabinet and of the density obtained when doing the humid mallaje respectively in you enmesh already mentioned; and the third party is I elaboration of software Goliat 0,2 in the programming language LabVIEW with the mathematical models that sets out where the obtained results is possible to be visualized in a computer. The tests of application and verification were realized, in Plants Concentrating of “Austria Duvaz” in Morococha, “Crown” of Chumpe in Yauricocha, Yauyos and “Huari” located in UNCP. Whish results were very flattering, agreeing almost in total with the proposition hypothesis. Like demonstration of which the methodology works optimally, as much in the process control like in the simulation, we can verify with the following obtained results, the size of cuts (d50) calculated [51]; with the data taken from the book of Juan Rivera Zevallos[58] in pages 307-324, is 77,31 microns and the classification efficiency is of 42,32 and making the calculations with the methodology, it gives that d50 is 77,32 microns and the classification efficiency gives a value of 42,71, is possible to be clearly noticed that almost there is no difference, In the second case in the comparison of the results of the data collected in the concentrating plant of “Chumpe” Yauricocha, when doing the process control and the respective calculations by the traditional methodology, as it is realized in the majority of the plants, it gives a value of d50 of 81,31 microns and the classification efficiency gives a value of 57,93% and when doing the control and its respective calculations with the methodology “Cebaco” give as result d50 of 83,56 microns and the efficiency of classification of 53,18% can also be noticed mainly in this completes that the difference is not significant, being the level of significance of 0.08 and with a approximation of 92%, in the third case also when evaluating another test of the data taken from the concentrating plant mentioned when doing the calculations with the traditional method, it gives an efficiency of classification of 48,49% and with the methodology “Cebaco” the classification efficiency is about 48,02%, also almost are similar, in the fourth case when doing the evaluation of the results obtained in the concentrating plant “Austria located Duvaz” in Morococha, the d50 calculated by the traditional methodology gives a value of 88,3061 and d50 calculated with the methodology “Cebaco” gives a value of 85,2559 existing a difference of so only 3,45 and the value of the efficiency of classification by the traditional methodology gives a value of 51,8102 and the calculated with the methodology “Cebaco” gives a value of 51,6255 existing an insignificant difference of 0,36 and the reason of circulating load calculated by the traditional methodology gives a value of 1.903 and the calculated one with the methodology “Cebaco” gives a value of 1,887 whose difference is of so only 0.84. So, the demonstration more important, where it is verified that the method “Cebaco” is an suitable proposal, occurs with the increase of the utility for the concentrating plant and this was obtained from valuations of the concentrates in both cases, first with the obtained metallurgical balance with the traditional method and the other with the metallurgical balance obtained of the works carried out with the proposed method, this is based on a better time of control, as for the time with the traditional method in the best cases is of 4 hours and with the proposed method is of so only 5 minutes, this implies that the corrections are made right away and in an instant, so it brings consequently theimprovement of the recoveries laws of the concentrates and therefore increase of the productivity. By the calculations done I determine a utility of 11. 53 dollars American more by ton of mineral treated, when realizing the control with the proposed method.
Tesis
Rodríguez, López Pau. „Towards robust neural models for fine-grained image recognition“. Doctoral thesis, Universitat Autònoma de Barcelona, 2019. http://hdl.handle.net/10803/667196.
Der volle Inhalt der QuelleReconocer e identificar diferentes subcategorías en nuestro entorno es una actividad crucial en nuestras vidas. Reconocer un amigo, encontrar cierta bacteria en imágenes de microscopio, o descubrir un nuevo tipo de galaxia son solo algunos ejemplos. Sin embargo, el reconocimiento de subcategorías en imágenes aún es una tarea ardua en el campo de la visión por computador, ya que las diferencias entre dos imágenes de la misma subcategoría eclipsan los detalles que distinguen dos subcategorías diferentes. En este tipo de problema, en que la distinción entre categorías radica en diferencias sutiles, las redes neuronales más insensibles a perturbaciones se centran en los cambios más obvios y tienden a errar, ya que ignoran aquellos detalles que permiten desambiguar entre diferentes categorías. Por otro lado, los modelos con demasiada capacidad tienden a memorizar detalles únicos de imágenes concretas, por lo que fallan al generalizar con nuevas imágenes nunca vistas. En esta tesis doctoral, motivados por el impacto potencial del reconocimiento automático de subcategorías, abordamos los desafíos presentados y demostramos que es posible obtenermodelos generales y robustos. Concretamente, estudiamos las diferentes fases de los algoritmos de reconocimiento de imágenes: preproceso de los datos, atención a diferentes regiones, actividad de las neuronas y el espacio de categorías. En cada fase, abordamos diferentes problemas que merman la precisión de los modelos al clasificar diferentes tipos de datos, y proponemos diferentes soluciones en cada capítulo: i) Primero abordamos el problema de la sensibilidad al alineamiento de las imágenes en el reconocimiento de expresiones faciales, como el dolor. ii) A continuación, proponemos un mecanismo de atención que permite a las redes neuronales centrarse y procesar en detalle las partes más informativas de las imágenes. iii) Extendemos losmecanismos de atenciónmás allá de los píxeles, permitiendo las redes atender su propia actividad neuronal para corregir las predicciones finales. iv)Después proponemos una nueva función de coste para regularizar las conexiones de las capas de neuronas, incentivando el aprendizaje de patrones distintos y, por lo tanto, previniendo la memorización de detalles únicos en objetos. v) Finalmente, estudiamos las ventajas de modelar explícitamente el espacio de categorías usando la teoría de códigos correctores de errores. Como resultado, en esta tesis demostramos que los mecanismos de atención y regularización pueden ser la clave para solucionar los problemas del reconocimiento de subcategorías, así como una buena modelización del espacio de entrada y salida de losmodelos.
Fine-grained recognition, i.e. identifying similar subcategories of the same superclass, is central to human activity. Recognizing a friend, finding bacteria in microscopic imagery, or discovering a new kind of galaxy, are just but few examples. However, fine-grained image recognition is still a challenging computer vision task since the differences between two images of the same category can overwhelm the differences between two images of different fine-grained categories. In this regime, where the difference between two categories resides on subtle input changes, excessively invariant CNNs discard those details that help to discriminate between categories and focus on more obvious changes, yielding poor classification performance. On the other hand, CNNs with too much capacity tend to memorize instance-specific details, thus causing overfitting. In this thesis,motivated by the potential impact of automatic fine-grained image recognition, we tackle the previous challenges and demonstrate that proper alignment of the inputs, multiple levels of attention, regularization, and explicitmodeling of the output space, results inmore accurate fine-grained recognitionmodels, that generalize better, and are more robust to intra-class variation. Concretely, we study the different stages of the neural network pipeline: input pre-processing, attention to regions, feature activations, and the label space. In each stage, we address different issues that hinder the recognition performance on various fine-grained tasks, and devise solutions in each chapter: i)We deal with the sensitivity to input alignment on fine-grained human facial motion such as pain. ii) We introduce an attention mechanism to allow CNNs to choose and process in detail the most discriminate regions of the image. iii)We further extend attention mechanisms to act on the network activations, thus allowing them to correct their predictions by looking back at certain regions, at different levels of abstraction. iv) We propose a regularization loss to prevent high-capacity neural networks to memorize instance details by means of almost-identical feature detectors. v)We finally study the advantages of explicitly modeling the output space within the error-correcting framework. As a result, in this thesis we demonstrate that attention and regularization seem promising directions to overcome the problems of fine-grained image recognition, as well as proper treatment of the input and the output space.
Ruiz, Álvarez Johanna. „Diseño e implementación de un sistema de apoyo a la decisión clínica en la prescripción basado en un modelo de clasificación del riesgo farmacológico“. Tesis, Universidad de Chile, 2018. http://repositorio.uchile.cl/handle/2250/168192.
Der volle Inhalt der QuelleEl uso de medicamentos en pacientes pediátricos es un desafío diario; el estado madurativo, la compleja individualización de dosis, la falta de presentaciones pediátricas en el mercado, entre otras situaciones, convierten a los niños en una población más vulnerable a riesgos farmacológicos. En la atención de hospitalizados del Hospital Dr. Exequiel González Cortés, dos de cada tres pacientes tienen al menos un error de medicación a lo largo de toda la cadena y hoy no se disponen de herramientas tecnológicas para reducir dichos errores. Este trabajo se propone diseñar e implementar un sistema de apoyo a la decisión clínica en la prescripción basado en un modelo de clasificación del riesgo farmacológico en el área de hospitalizados del HEGC. Para el diseño del modelo fue empleada la metodología de Ingeniería de negocios propuesta por Barros y otros métodos de apoyo. Se consideró un análisis piloto a un total de 1085 recetas con prescripciones de antibióticos, los cuales representan el 53% del consumo total de fármacos del Hospital. El resultado fue un modelo de riesgo que incorpora conocimiento clínico para apoyar las tareas de fármacovigilancia. Usando el modelo se detectó el 100% de los EM de los errores que hoy son detectados manualmente y su clasificación en riesgo en alto, medio o bajo. El proyecto evidenció los beneficios del trabajo interdisciplinar entre clínicos, químicos e ingenieros; las ventajas del uso de las tecnologías de la información para el apoyo de los procesos hospitalarios y la factibilidad de la aplicación del conocimiento científico emergente de farmacia clínica en el proceso asistencial pediátrico.
Llanos, Soto Renato Jorge Emilio. „Rediseño del proceso de creación de propuestas de negocios mediante gestión del conocimiento y la aplicación de un modelo de clasificación de minería de datos“. Tesis, Universidad de Chile, 2017. http://repositorio.uchile.cl/handle/2250/150552.
Der volle Inhalt der QuelleEl conocimiento es un recurso que se encuentra en las personas, en los objetos que ellas utilizan, en el medio en que ellas se mueven y en los procesos de las organizaciones a las cuales pertenecen, permitiendo actuar e interpretar sobre lo que sucede en el entorno. El mercado minero actualmente vive un complejo panorama económico, dado principalmente, por una importante disminución de la inversión a nivel mundial en proyectos que repercute directamente a las empresas que suministran servicios a la minería en Chile. Debido a esto se ha generado una disminución en la demanda de servicios en el mercado, dando como resultado una disminución en la oferta de propuestas de proyectos y una mayor competencia por ganarlas. Empresa de Ingeniería Minera se dedica a la extracción y refinación de petróleo-gas, energía y minería en la mayor parte del planeta. La organización busca seguir siendo competitiva y mantenerse vigente en este mercado cambiante y saturado. Sus ingresos están dados principalmente por la cantidad de nuevos proyectos que se realicen de forma exitosa, por lo que generar un posible aumento la fuente de ingresos de la organización es un tema clave, y es precisamente este punto el que se busca apoyar con el estudio. Bajo este contexto se buscará generar una mayor posibilidad para la organización de obtener nuevos negocios en base a un análisis de la situación actual de la organización y la aplicación de un rediseño de procesos apoyado por un modelo de clasificación de minería de datos que permita mejorar la gestión del departamento con los recursos disponibles, aprovechar la información y el conocimiento existente para aumentar la posibilidad de ganar más proyectos y por ende aumentar las utilidades de la organización en relación al año anterior.
Saleh, Alraimi Adel. „Development of New Models for Vision-Based Human Activity Recognition“. Doctoral thesis, Universitat Rovira i Virgili, 2019. http://hdl.handle.net/10803/670893.
Der volle Inhalt der QuelleLos métodos de reconocimiento de acciones permiten que los sistemas inteligentes reconozcan acciones humanas en videos de la vida cotidiana. No obstante, muchos métodos de reconocimiento de acciones dan tasas notables de error de clasificación debido a las grandes variaciones dentro de los videos de la misma clase y los cambios en el punto de vista, la escala y el fondo. Para reducir la clasificación errónea, Łproponemos un nuevo método de representación de video que captura la evolución temporal de la acción que ocurre en el video completo, un nuevo método para la segmentación de manos y un nuevo método para el reconocimiento de actividades humanas en imágenes fijas.
Action recognition methods enable intelligent systems to recognize human actions in daily life videos. However, many action recognition methods give noticeable misclassification rates due to the big variations within the videos of the same class, and the changes in viewpoint, scale and background. To reduce the misclassification rate, we propose a new video representation method that captures the temporal evolution of the action happening in the whole video, a new method for human hands segmentation and a new method for human activity recognition in still images.
Tafur, Tembladera Edelina Anyela. „Análisis de árboles de clasificación para la creación de un modelo que permita describir el perfil de los morosos y no morosos en una entidad financiera de Lima Metropolitana en el 2014“. Bachelor's thesis, Universidad Nacional Mayor de San Marcos, 2016. https://hdl.handle.net/20.500.12672/7432.
Der volle Inhalt der QuelleLas entidades financieras están desarrollando constantemente modelos que les ayuden a predecir el comportamiento de sus clientes, con el fin de mejorar sus ganancias o de reducir las pérdidas, como el riesgo de “no pago” o de “morosidad”. El objetivo es crear un modelo predictivo de Árboles de Decisión por Clasificación con minería de datos para predecir la morosidad financiera en Lima Metropolitana, describiendo y analizando las variables independientes con el algoritmo CHAID (Detector automático de Chi-cuadrado de interacción) siguiendo la metodología CRISP-DM en una base de datos de una entidad financiera. La principal ventaja de esta metodología es que no está sujeta a supuestos estadísticos, este método es muy usado cuando se busca predecir o clasificar comportamientos de riesgo, como la morosidad, y se cuenta con más variables cualitativas que cuantitativas. La metodología persigue la separación óptima en la muestra, de tal modo que los grupos de la variable respuesta ofrecen distintos perfiles de riesgo.
Trabajo de suficiencia profesional
Barrueta, Meza Renzo André, und Villarreal Edgar Jean Paul Castillo. „Modelo de análisis predictivo para determinar clientes con tendencia a la deserción en bancos peruanos“. Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2018. http://hdl.handle.net/10757/626023.
Der volle Inhalt der QuelleCurrently, the role played by banks in the country's economy and the impact they have on different social classes is increasingly important. These have always been a market that has historically received a large number of complaints and claims. It is therefore, poor service by the supplier, poor product quality and a price outside the market are the main reasons why customers leave a bank. This situation is increasingly and banks. In addition, there is a high level of competition that forces financial institutions and the loyalty of their customers to try to maintain them and increase their profitability. This project proposes a Predictive Analysis Model supported with the SAP Predictive Analytics tool, in order to help in making decisions for the retention or loyalty of clients with the tendency to drop out in the bank. This proposal was made through the need to know the accuracy of the desertion of its categorized clients. A web interface is shown as a channel between the Predictive Analysis Model and the bank, in order to show the result by the model that indicates the accuracy, in percentage, of clients with a tendency to defect. In addition, as a continuity plan, 2 projects are proposed based on the scalability of the Predictive Analysis Model, based on the information in the analysis stage of the model itself.
Tesis
Aragonés, Luis. „Procesos litorales en el área de Alicante y Valencia“. Doctoral thesis, Universidad de Alicante, 2015. http://hdl.handle.net/10045/47629.
Der volle Inhalt der QuelleBosch, Rué Anna. „Image classification for a large number of object categories“. Doctoral thesis, Universitat de Girona, 2007. http://hdl.handle.net/10803/7884.
Der volle Inhalt der QuelleThe release of challenging data sets with ever increasing numbers of object categories is
forcing the development of image representations that can cope with multiple classes and
of algorithms that are efficient in training and testing. This thesis explores the problem of
classifying images by the object they contain in the case of a large number of categories. We first investigate weather the hybrid combination of a latent generative model with a discriminative classifier is beneficial for the task of weakly supervised image classification.
We introduce a novel vocabulary using dense color SIFT descriptors, and then investigate classification performances by optimizing different parameters. A new way to incorporate spatial information within the hybrid system is also proposed showing that contextual information provides a strong support for image classification. We then introduce a new shape descriptor that represents local image shape and its spatial layout, together with a spatial pyramid kernel. Shape is represented as a compact
vector descriptor suitable for use in standard learning algorithms with kernels. Experimental
results show that shape information has similar classification performances and sometimes outperforms those methods using only appearance information. We also investigate how different cues of image information can be used together. We
will see that shape and appearance kernels may be combined and that additional information
cues increase classification performance. Finally we provide an algorithm to automatically select the regions of interest in training. This provides a method of inhibiting background clutter and adding invariance to the object instance's position. We show that shape and appearance representation over the regions of interest together with a random forest classifier which automatically selects the best cues increases on performance and speed. We compare our classification performance to that of previous methods using the authors'own datasets and testing protocols. We will see that the set of innovations introduced here lead for an impressive increase on performance.
Rodríguez, Díaz Daniela del Pilar. „Antes NIC 39 ahora NIIF 9: nuevos desafíos para los contadores“. Pontificia Universidad Católica del Perú, 2017. http://repositorio.pucp.edu.pe/index/handle/123456789/114754.
Der volle Inhalt der QuelleEn este trabajo, se busca sintetizar las principales diferencias en la aplicación de laNIIF 9 «Instrumentos Financieros» a implementarse de forma obligatoria en el Perú desde el inicio del ejercicio 2018 con respecto a la actual NIC 39 «Instrumentos Financieros: Reconocimiento y Medición», específicamente en clasificación y medición de las partidas de activos financieros. Además, se realiza un análisis práctico aplicado a instrumentos financieros del rubro de la banca de inversión.
Neste artigo, retomaremos as principais diferenças entre a aplicação da Normas Internacionais de Relatório Financeiro (IFRS) 9 «Instrumentos Financeiros» a implementar de forma imperativa no Peru desde o início do exercício de 2018 no que se refere ao atual Normas internacionais de contabilidade (IAS) 39 «Instrumentos Financeiros: Reconhecimento e Medição», focado em A classificação e mensuração de ativos financeiros. Além disso, uma análise prática será aplicada aos instrumentos financeiros no setor de banca de investimento.
„Solución al problema de clasificación de alelos de HLA, usando modelos de optimización discreta“. Tesis, Universidad de las Américas Puebla, 2003. http://catarina.udlap.mx/u_dl_a/tales/documentos/lma/luna_o_bc/.
Der volle Inhalt der QuelleGodoy, Facundo Eduardo. „Métodos clásicos de clasificación : comparación y aplicación“. Bachelor's thesis, 2021. http://hdl.handle.net/11086/19768.
Der volle Inhalt der QuelleLos problemas de clasificación o discriminación son aquellos en los que se dispone de un conjunto de elementos que provienen de dos o más poblaciones conocidas y para cada uno se ha observado una serie de variables explicativas o predictoras. Se desea clasificar un nuevo elemento en alguna de esas poblaciones utilizando los valores, conocidos, de las variables explicativas. Actualmente, los métodos de clasificación son muy estudiados y utilizados en Aprendizaje Automático y Ciencia de Datos pero aparecen en estadística desde los años 30. En este trabajo se estudió el marco teórico de los métodos clásicos de clasificación: Análisis Discriminante Lineal, Análisis Discriminante Cuadrático, Regresión logística y k - vecinos más próximos. Luego, se ideó y llevó a cabo un estudio de simulación para compararlos en distintos escenarios. Por último, se aplicaron y compararon los métodos utilizando un conjunto de datos reales en el contexto la utilización de señales Bluetooth para la trazabilidad de contactos estrechos.
Classification or discrimination problems are a set of elements that come from two or more known populations, and for each one a series of explanatory or predictable variables has been observed. The aim is to classify a new element in any of these populations using the known values of the explanatory variables. Currently, classification methods are widely studied and used in Machine Learning and Data Science; however, they have appeared in statistics since the 30s. In this research, the theoretical framework of the classic classification methods was studied: Linear Discriminant Analysis, Quadratic Discriminant Analysis, Logistic regression and k - nearest neighbors. Afterwards, a simulation study was devised and carried out to compare them in different scenarios. Lastly, these methods were applied and compared using a set of real data in the context of the use of Bluetooth signals for traceability of close contacts.
publishedVersion
Fil: Godoy, Facundo Eduardo. Universidad Nacional de Córdoba. Facultad de Matemática, Astronomía, Física y Computación; Argentina.
Torres, Auad Lía. „Localización y clasificación de objetos de aprendizaje para la enseñanza-aprendizaje del Modelado de Bases de Datos en asignaturas de carreras de Ciencias Informáticas“. Tesis, 2014. http://hdl.handle.net/10915/39024.
Der volle Inhalt der Quelle