Thèses sur le sujet « Sistemi informativi statistici »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Sistemi informativi statistici.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 35 meilleures thèses pour votre recherche sur le sujet « Sistemi informativi statistici ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Sanchi, Martina. « Progettazione di un'applicazione web-oriented per la gestione di un sistema informativo aziendale ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/5878/.

Texte intégral
Résumé :
L’azienda committente vuole ampliare la possibilità di accedere al suo database, sia dall’esterno che dall’interno, non solamente da parte di un unico utente amministratore, ma anche da tutti gli agenti distribuiti sul territorio nazionale e tutti gli impiegati degli uffici. Si vuole inoltre creare un sistema di notifiche via email che permetta a tutti gli utenti (agenti) registrati di avere in tempo reale informazioni sempre aggiornate riguardo i propri clienti. La ditta si chiama Tropical Lane S.p.A. e vuole realizzare questo progetto per rendere maggiormente accessibili le informazioni per i propri agenti, distribuiti nelle varie regioni italiane, direttamente tramite un loro dispositivo mobile, come smartphone o tablet, senza dover necessariamente telefonare continuamente in ditta dove è presente una segretaria che svolge solamente questa mansione. In questo modo si cerca di velocizzare la procedura di accesso ai dati così da liberare una risorsa utile per lo svolgimento di altre funzioni interne. Si è deciso quindi di creare un sito web, basato su tecnologia Active Server Pages e interfacciato al database aziendale, che sia fruibile dall’esterno della rete aziendale e sul quale vengono mostrati i dati, organizzati in modo da essere facilmente comprensibili e visualizzabili da tutti. La realizzazione del sito è stata effettuata utilizzando notepad++ sia per le pagine ASP che per le poche pagine di HTML statico presenti. Gli script sono stati realizzati in linguaggio Javascript, compatibile con le specifiche dei browser più diffusi. Il sito è supportato da un unico database realizzato in precedenza con Microsoft SQL ed integrato.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Marin, Igor. « Kelių automatinio vertimo sistemų integracija ». Master's thesis, Lithuanian Academic Libraries Network (LABT), 2012. http://vddb.laba.lt/obj/LT-eLABa-0001:E.02~2012~D_20120723_105347-53344.

Texte intégral
Résumé :
Baigiamajame magistro darbe nagrinėjamos automatinės vertimo sistemos, pagrindiniai jų veikimo principai ir šių sistemų integracijos būdai. Detaliai aprašoma populiarių šiuo metu statistinių vertimo sistemų struktūra, pateikiami šių ir tradicinių (taisyklėmis paremtų) sistemų privalumai ir trūkumai. Pristatomos visos šiuo metu egzistuojančios automatinio vertimo sistemos lietuvių ir anglų kalbų porai, išaiškinami jų privalumai ir trūkumai. Lingvistiniu požiūriu nagrinėjamos lietuvių ir anglų kalbos, išvardinami šių kalbų panašumai, skirtumai ir sunkumai, kylantys verčiant iš vienos kalbos į kitą. Taip pat pateikiami įvairūs automatinio vertimo įvertinimo būdai, įskaitant populiarų BLEU įvertinimo metodą. Išvardinamos ir analizuojamos užsienio autorių siūlomos automatinio vertimo sistemų integracijos architektūros. Apžvelgiami sumaišymo tinklai, kurie naudojami kuriant integruotą vertimo sistemą. Pateikiama originali mišriosios vertimo sistemos įgyvendinimo metodika. Integruota sistema yra praktiškai įgyvendinama. Šios sistemos ir kitų vertimo sistemų anglų ir lietuvių kalbų porai rezultatai yra įvertinami ir palyginami. Atlikus teorinę automatinio vertimo sistemų apžvalgą ir praktiškai įgyvendinus mišriąją vertimo sistemą, pateikiamos baigiamojo darbo išvados ir siūlymai. Darbą sudaro 6 dalys: įvadas, automatinio vertimo sistemų analizė, mišriųjų automatinio vertimo sistemų analizė, mišriosios automatinio vertimo sistemos sukūrimas, išvados, literatūros sąrašas. Darbo apimtis... [toliau žr. visą tekstą]
The Master’s thesis analyses machine translation systems, their principles of operation and the methods used in integrating these systems. The structure of popular statistical machine translation systems, as well as the advantages and disadvantages of such systems is described in detali. The existing machine translation systems for the Lithuanian-English language pair along with their abilities and shortcomings are presented. Lithuanian and English languages are analysed from the linguistic perspective. The similarities and differences between these languages, as well as the difficulties, arising in translating the text from one language to another are discussed. Moreover, different machine translation evaluation methods, including the popular BLEU metric, are reviewed. Various architectures for integrating multiple machine translation systems, offered by foreign authors, are presented and analysed. Confusion networks, which are used in integrating machine translation systems, are discussed. An original method of implementing the hybrid machine translation system is offered. The hybrid system is implemented in practice. The translation results obtained from the created system and the existing systems for the Lithuanian-English language pair are assessed and compared. Finally, after performing the theoretical review of machine translation systems and implementing the hybrid system, conclusions and recommendations are provided. The thesis consists of 6 parts: introduction, the... [to full text]
Styles APA, Harvard, Vancouver, ISO, etc.
3

Andrėkus, Eduardas. « Portalo duomenų apdorojimo ir analizės sistema ». Master's thesis, Lithuanian Academic Libraries Network (LABT), 2006. http://vddb.library.lt/obj/LT-eLABa-0001:E.02~2006~D_20060602_145314-11816.

Texte intégral
Résumé :
Web analysis is important task in web portals development. Web measurement can answer to many questions related to user activity. Web analytics is the study of whether the web site is meeting its diverse goals. Just as important, it is the presentation of the results to the various divisions of the company in a comprehensible format. The core of the web analytical system is built on traditional decision support technologies that are focused specifically on capturing, analyzing and reporting on web visitor data. In this work analyzed methods ant technologies required for web portal analysis system design. This paper compares possible data gathering sources and methods for reports creation. There is offered conceptual design of analysis system using hybrid data collection sources. System realization is used in KTU Computer Cathedral activity.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Flamigni, Bianca. « Supporto all'Analisi Statistica basata su R in Ambiente Apache Spark ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Trouver le texte intégral
Résumé :
Le ultime tendenze nell’analisi di Big Data indicano il sempre più crescente bisogno di poter effettuare analisi interattiva su questi grandi dataset. Tipicamente si utilizza il linguaggio R per fare analisi avanzata sui dati, ma, a causa di limitazioni di livello tecnico, questo non è in grado di gestire Big Data in modo efficiente. Per tale motivo è stato ideato SparkR, un progetto, basato su Spark, per l’esecuzione distribuita di programmi in R scalabili e adatti a diversi tipi di carichi di lavoro. In questo documento, analizzeremo approfonditamente il progetto SparkR e ne osserveremo le prestazioni, a fronte di diverse applicazioni tipiche dell’analisi di Big Data (algoritmi di clustering e query interattive), in modo da poter identificare possibili limiti o colli di bottiglia e, grazie alla conoscenza acquisita, proporremo delle soluzioni in grado di ottenere buoni miglioramenti prestazionali. Tra queste, un componente che, sfruttando lo storico delle applicazioni lanciate, è capace di configurare in automatico alcune proprietà interne a Spark ed ottenere di conseguenza una riduzione nei tempi di esecuzione degli applicativi in R. Forniremo i risultati che dimostrano come grazie alla nostra proposta sia possibile ottenere un miglioramento del 18% rispetto alla configurazione di default di Spark. Infine, proporremo l’implementazione di un supporto efficiente e ben scalabile ad un algoritmo di clustering gerarchico, Bisecting K-means, e dimostreremo, tramite un’attenta valutazione delle prestazioni, come rappresenti un buon compromesso per garantire l’utilizzo di una tecnica così diffusa, come quella del clustering gerarchico, in un ambiente distribuito, nonostante algoritmi di questo genere siano noti per non essere particolarmente compatibili con un modello di programmazione tale.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Caroli, Massimo. « Analisi dei comportamenti degli utenti per lo sviluppo di un sistema di App Recommendation ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Trouver le texte intégral
Résumé :
Negli ultimi cinque anni lo sviluppo di applicazioni mobile ha visto un grandissimo incremento dovuto pricipalmente all’esplosione della diffusione di smartphone; questo fenomeno ha reso disponibile agli analisti una enorme quantità di dati sulle abitudini degli utenti. L’approccio centralizzato nella distribuzione delle applicazioni da parte dei grandi provider quali Apple, Google e Microsoft ha permesso a migliaia di sviluppatori di tutto il mondo di raggiungere con i loro prodotti gli utenti finali e diffondere l’utilizzo di applicativi installabili; le app infatti sono diventate in poco tempo fondamentali nella vita di tutti i giorni e in alcuni casi hanno sostituito funzioni primarie del telefono cellulare. Obiettivo principale di questo studio sarà inferire pattern comportamentali dall’analisi di una grossa mole di dati riguardanti l’utilizzo dello smartphone e delle app installabili da parte di un gruppo di utenti. Ipotizzando di avere a disposizione tutte le azioni che un determinato bacino di utenza effettua nella selezione delle applicazioni di loro interesse quando accedono al marketplace (luogo digitale da cui è possibile scaricare nuove applicazioni ed installarle) è possibile stimare, ovviamente con un certo margine di errore, dati sensibili dell’utente quali: Sesso, Età, Interessi e così via analizzandoli in relazione ad un modello costruito su dati di un campione di utenti ben noto. Costruiremo così un modello utilizzando dati di utenti ben noti di cui conosciamo i dettagli sensibili e poi, tramite avanzate tecniche di regressione e classificazione saremo in grado di definire se esiste o meno una correlazione tra le azioni effettuate su uno Smartphone e il profilo dell’utente. La seconda parte della tesi sarà incentrata sull'analisi di sistemi di raccomandazioni attualmente operativi e ci concentreremo sullo studio di possibili sviluppi sviluppi futuri di questi sistemi partendo dai risultati sperimentali ottenuti.
Styles APA, Harvard, Vancouver, ISO, etc.
6

PISTACCHIO, Giuseppe. « Il Sistema Informativo Geografico della popolazione studentesca per la gestione dei flussi e il miglioramento dell'offerta formativa dell'Ateneo molisano ». Doctoral thesis, Università degli studi del Molise, 2018. http://hdl.handle.net/11695/85840.

Texte intégral
Résumé :
Geographical Information Systems (GIS) represent today a key tool for the analysis of the territorial context, allowing its visualization and, at the same time, the updating of information with statisticalterritorial content, whose knowledge is essential for an effective understanding and planning of the spatial organization of individuals’ activities. The present work, a thorough study of the student population of the University of Molise in the years 2010-2017, in fact presents the opportunity to test the potential offered by the use of such an innovative approach to geo-territorial analysis. It has been implemented with a methodology of analysis allowing to combine the territorial, cartographic, and locational aspects of the investigated phenomenon, with statistical contents, represented by the set of different sources of socio-economic spatial data linked to it. The research carried out therefore aims to provide a knowledge of the “footprint” of the University of Molise through the use of different geographical approaches. The analysis of the Miur data contributed to define the migratory flows of the Molise students to the different university locations and the chosen degree programs. The study of the geographical origins of students enrolled at the University of Molise has then allowed to understand the degree of attractiveness of the various degree programs offered by the University. Finally, the attention was paid to the flow of students from the various “educational clusters,” that is the sets of local institutes where they obtained their high school degree, representing a different territorial footprint from which the University of Molise draws its students. This allowed us also to confirm that, among the current information support technologies, GIS is the best performing tool for decision support activities.
I sistemi informativi geografici, meglio noti con l’acronimo GIS (Geographic Information System), rappresentano oggi uno strumento di analisi del contesto territoriale in grado di rappresentare e, al contempo, aggiornare le informazioni a contenuto statistico-territoriale, la cui conoscenza è basilare per una efficace comprensione e, conseguentemente, progettazione dell’organizzazione spaziale delle attività degli individui. Il presente lavoro, un approfondito studio della popolazione studentesca dell’Università degli Studi del Molise nel periodo 2010-2017, presenta infatti l’opportunità di dimostrare le potenzialità che il ricorso a tale approccio innovativo di analisi geo-territoriale offre. Esso è stato implementato su una metodologia di analisi in grado di coniugare l’aspetto prettamente territoriale, cartografico e localizzativo del fenomeno indagato con aspetti a contenuto statistico, rappresentati dall’insieme delle diverse fonti di dati spaziali socio-economici ad esso riconducibili. Ciò consente, dunque, di affermare che, tra le attuali tecnologie a supporto dell’informazione, i GIS rappresentano lo strumento più performante per l’attività di supporto alle decisioni. La ricerca condotta ha dunque l’obiettivo di fornire una conoscenza del bacino di utenza dell’Ateneo molisano attraverso l’impiego di approcci geografici diversi. L’analisi dei dati Miur ha contribuito a definire i flussi migratori degli studenti molisani verso le diverse sedi universitarie e i corsi di studi scelti. Lo studio delle provenienze geografiche degli immatricolati all’Ateneo molisano ha consentito invece di comprendere il grado di attrattività dei corsi di studio proposti dall’Ateneo. Infine l’attenzione è stata rivolta a flussi di studenti provenienti dai diversi poli scolastici che rappresentano gli ambiti territoriali da cui l’Università del Molise attinge studenti.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Carvalho, Arthur Alves Borges de. « Estudo sobre os registros do serviço de verificação de óbitos no sistema de informação de mortalidade para o estado do Tocantins, 2010-2012 ». Universidade de São Paulo, 2016. http://www.teses.usp.br/teses/disponiveis/17/17143/tde-06062017-155652/.

Texte intégral
Résumé :
O Serviço de Verificação de Óbitos (SVO) foi criado para elucidar causas de óbitos naturais mal definidas por meio de exames necroscópicos e registrar informações mais completas sobre as causas de morte no Sistema de Informação de Mortalidade (SIM). Desde a criação da rede nacional de SVO, poucos estudos avaliaram a qualidade dos registros de óbitos dos SVO no SIM. Foram estudados 19780 registros de óbitos não fetais de residentes no Estado do Tocantins entre os anos de 2012, 2011 e 2012, obtidos por download do site do DATASUS do Ministério da Saúde. Além de estabelecer o perfil social demográfico dos óbitos, foram estudadas a completude das informações, as cinco principais causas de morte e as causas básicas registradas pelo SVO e demais atestantes dentro do SIM. Óbitos do sexo masculino, cor parda, casados, sem escolaridade, hospitalares de aposentados e maiores de 75 anos predominaram. A incompletude de dados registrados no SIM para o Estado do Tocantins foi superior a 10% e não houve diferença estatística significativa entre a completude de dados registrados pelo SVO e pelos demais atestantes. As doenças do aparelho circulatório foram as principais causas de morte registradas pelos atestantes, exceto pelo IML, onde as causas externas predominaram. 15% dos registros de causas básicas externas não pertenciam ao IML e o SVO apresentou uma grande proporção de registros de causas básicas mal definidas. A qualificação das informações sobre mortalidade, imprescindível à elaboração de políticas públicas sanitárias, persiste desafiadora no Estado do Tocantins. A criação de uma cultura da informação epidemiológica passa pela inserção curricular, educação e sensibilização médica continuada.
The Death Verification Service (SVO) was created to elucidate causes of natural deaths poorly defined by postmortem examinations and record more complete information on the causes of death in the Mortality Information System (SIM). Since the establishment of the national network of SVO, few studies have evaluated the quality of death records of SVO SIM. We studied 19780 no fetal death records of residents in the State of Tocantins between the years 2012, 2011 and 2012, downloaded the DATASUS website of the Ministry of Health. In addition to establishing the demographic social profile of the deaths were studied completeness information, the five leading causes of death and root causes recorded by the SVO and other informers within the SIM. Deaths male, mulatto, married, uneducated, retired hospital and over 75 years predominated. The incompleteness of data in SIM for the State of Tocantins was higher than 10% and there was no statistically significant difference between the completeness of data recorded by the SVO and the other informers. The circulatory diseases were the main causes of death recorded by informers except for IML, where external causes predominated. 15% of the records of external root causes did not belong to the IML and the SVO had a large proportion of ill-defined basic causes records. The qualification of information on mortality, essential to the development of health policies, remains defiant in the State of Tocantins. Creating a culture of epidemiological information passes through curriculum integration, education and continuing medical awareness.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Montecchio, Nicola. « Alignment and Identification of Multimedia Data : Application to Music and Gesture Processing ». Doctoral thesis, Università degli studi di Padova, 2012. http://hdl.handle.net/11577/3422091.

Texte intégral
Résumé :
The overwhelming availability of large multimedia collections poses increasingly challenging research problems regarding the organization of, and access to data. A general consensus has been reached in the Information Retrieval community, asserting the need for tools that move past metadata-based techniques and exploit directly the information contained in the media. At the same time, interaction with content has evolved beyond the traditional passive enjoyment paradigm, bringing forth the demand for advanced control and manipulation options. The aim of this thesis is to investigate techniques for multimedia data alignment and identification. In particular, music audio streams and gesture-capture time series are considered. Special attention is given to the efficiency of the proposed approaches, namely the realtime applicability of alignment algorithms and the scalability of identification strategies. The concept of alignment refers to the identification and matching of corresponding substructures in related entities. The focus of this thesis is directed towards alignment of sequences with respect to a single dimension, aiming at the identification and matching of significant events in related time series. The alignment of audio recordings of music to their symbolic representations serves as a starting point to explore different methodologies based on statistical models. A unified model for the real time alignment of music audio streams to both symbolic scores and audio references is proposed. Its advantages are twofold: unlike most state-of-the-art systems, tempo is an explicit parameter within the stochastic framework; moreover, both alignment problems can be formulated within a common framework by exploiting a continuous representation of the reference content. A novel application of audio alignment techniques was found in the domain of studio recording productions, reducing the human effort spent in manual repetitive tasks. Gesture alignment is closely related to the domain of music alignment, as the artistic aims and engineering solutions of both areas largely overlap. Expressivity in gesture performance can be characterized by both the choice of a particular gesture and the way the gesture is executed. The former aspect involves a gesture recognition task, while the latter is addressed considering the time-evolution of features and the way these differ from pre-recorded templates. A model, closely related to the mentioned music alignment strategy, is proposed, capable of simultaneously recognizing a gesture among many templates and aligning it against the correct reference in realtime, while jointly estimating signal feature such as rotation, scaling, velocity. Due to the increasingly large volume of music collections, the organization of media items according to their perceptual characteristics has become of fundamental importance. In particular, content-based identification technologies provide the tools to retrieve and organize music documents. Music identification techniques should ideally be able to identify a recording -- by comparing it against a set of known recordings -- independently from the particular performance, even in case of significantly different arrangements and interpretations. Even though alignment techniques play a central role in many works of the music identification literature, the proposed methodology addresses the task using techniques that are usually associated to textual IR. Similarity computation is based on hashing, attempting at creating collisions between vectors that are close in the feature space. The resulting compactness of the representation of audio content allows index-based retrieval strategies to be exploited for maximizing computational efficiency. A particular application is considered, regarding Cultural Heritage preservation institutions. A methodology is proposed to automatically identify recordings in collections of digitized tapes and vinyl discs. This scenario differs significantly from that of a typical identification task, as a query most often contains more than one relevant result (distinct music work). The audio alignment methodology mentioned above is finally exploited to carry out a precise segmentation of recordings into their individual tracks.
La crescente disponibilità di grandi collezioni multimediali porta all'attenzione problemi di ricerca sempre più complessi in materia di organizzazione e accesso ai dati. Nell'ambito della comunità dell'Information Retrieval è stato raggiunto un consenso generale nel ritenere indispensabili nuovi strumenti di reperimento in grado di superare i limiti delle metodologie basate su meta-dati, sfruttando direttamente l'informazione che risiede nel contenuto multimediale. Lo scopo di questa tesi è lo sviluppo di tecniche per l'allineamento e l'identificazione di contenuti multimediali; la trattazione si focalizza su flussi audio musicali e sequenze numeriche registrate tramite dispositivi di cattura del movimento. Una speciale attenzione è dedicata all'efficienza degli approcci proposti, in particolare per quanto riguarda l'applicabilità in tempo reale degli algoritmi di allineamento e la scalabilità delle metodologie di identificazione. L'allineamento di entità comparabili si riferisce al processo di aggiustamento di caratteristiche strutturali allo scopo di permettere una comparazione diretta tra elementi costitutivi corrispondenti. Questa tesi si concentra sull'allineamento di sequenze rispettivamente ad una sola dimensione, con l'obiettivo di identificare e confrontare eventi significativi in sequenze temporali collegate. L'allineamento di registrazioni musicali alla loro rappresentazione simbolica è il punto di partenza adottato per esplorare differenti metodologie basate su modelli statistici. Si propone un modello unificato per l'allineamento in tempo reale di flussi musicali a partiture simboliche e registrazioni audio. I principali vantaggi sono collegati alla trattazione esplicita del tempo (velocità di esecuzione musicale) nell'architettura del modello statistico; inoltre, ambedue i problemi di allineamento sono formulati sfruttando una rappresentazione continua della dimensione temporale. Un'innovativa applicazione delle tecnologie di allineamento audio è proposta nel contesto della produzione di registrazioni musicali, dove l'intervento umano in attività ripetitive è drasticamente ridotto. L'allineamento di movimenti gestuali è strettamente correlato al contesto dell'allineamento musicale, in quanto gli obiettivi artistici e le soluzioni ingegneristiche delle due aree sono largamente coincidenti. L'espressività di un'esecuzione gestuale è caratterizzata simultaneamente dalla scelta del particolare gesto e dal modo di eseguirlo. Il primo aspetto è collegato ad un problema di riconoscimento, mentre il secondo è affrontato considerando l'evoluzione temporale delle caratteristiche del segnale ed il modo in cui queste differiscono da template pre-registrati. Si propone un modello, strettamente legato alla controparte musicale sopra citata, capace di riconoscere un gesto in tempo reale tra una libreria di templates, simultaneamente allineandolo mentre caratteristiche del segnale come rotazione, dimensionamento e velocità sono congiuntamente stimate. Il drastico incremento delle dimensioni delle collezioni musicali ha portato all'attenzione il problema dell'organizzazione di contenuti multimediali secondo caratteristiche percettive. In particolare, le tecnologie di identificazione basate sul contenuto forniscono strumenti appropriati per reperire e organizzare documenti musicali. Queste tecnologie dovrebbero idealmente essere in grado di identificare una registrazione -- attraverso il confronto con un insieme di registrazioni conosciute -- indipendentemente dalla particolare esecuzione, anche in caso di arrangiamenti o interpretazioni significativamente differenti. Sebbene le tecniche di allineamento assumano un ruolo centrale in letteratura, la metodologia proposta sfrutta strategie solitamente associate al reperimento di informazione testuale. Il calcolo della similarità musicale è basato su tecniche di hashing per creare collisioni fra vettori prossimi nello spazio. La compattezza della risultante rappresentazione del contenuto acustico permette l'utilizzo di tecniche di reperimento basate su indicizzazione, allo scopo di massimizzare l'efficienza computazionale. Un'applicazione in particolare è considerata nell'ambito della preservazione dei Beni Culturali, per l'identificazione automatica di collezioni di nastri e dischi in vinile digitalizzati. In questo contesto un supporto generalmente contiene più di un'opera rilevante. La metodologia di allineamento audio citata sopra è infine utilizzata per segmentare registrazioni in tracce individuali.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Santos, Luciano dos. « Análise dos acidentes de trânsito do Município de São Carlos utilizando o Sistema de Informação Geográfica - SIG e ferramentas de estatística espacial ». Universidade Federal de São Carlos, 2006. https://repositorio.ufscar.br/handle/ufscar/4216.

Texte intégral
Résumé :
Made available in DSpace on 2016-06-02T20:00:16Z (GMT). No. of bitstreams: 1 DissLS.pdf: 7958498 bytes, checksum: 72fd51dc4f0a7e88e90a7ab3929a73b1 (MD5) Previous issue date: 2006-02-20
Financiadora de Estudos e Projetos
The traffic accidents have reached high records, registering a great amount of wounded and material damages. One of the largest concerns of the responsible organs for the planning of the traffic and transport is to find solutions that can come to reduce the numbers of traffic accidents. In this context, this work had as main objective to accomplish a spatial analysis of the accidents of traffic on the municipal district of São Carlos - SP, using a of Geographic Information System (GIS) associated to tools of Spatial Statistics, with the intention of identifying the points and areas of larger occurrence of accidents, as well as the spatial tendencies of growth. The work has been developed in two stages: a) determination of punctual patterns; and b) determination of critical zones. For the accomplishment of this work was necessary to make a geographic reference of the traffic accidents, happened between 2001 and 2003. The Spatial Statistics tools used in this work were the Index of Moran, Average Space Piece of furniture, among others; they were used for the accomplishment of groupings of traffic accidents, determination of the critical zones of accidents and the tendencies of displacement of the accidents. The work showed that the traffic accidents happen in all the mesh of urban way, with a larger incidence of accidents with material damages in the central areas of the city and accidents with victims in the outlying areas. It was possible to observe that a displacement of the accidents of traffic exists for almost all the areas of the São Carlos city, it being a spatial phenomenon of difficult treatment. The largest difficulty founded for the accomplishment of this work were linked to the analysis of the consistence of the information, it mean that the analyses of the traffic accidents will be each time more satisfactory, if we pay a larger attention in the collection process and storage of those information.
Os acidentes de trânsito têm assumido números elevados, registrando uma grande quantidade de feridos e danos materiais. Uma das maiores preocupações dos órgãos responsáveis pelo planejamento do trânsito e transporte é encontrar soluções que possam vir a reduzir os números de acidentes de trânsito. Neste contexto, esse trabalho teve como principal objetivo o de realizar uma análise espacial dos acidentes de trânsito do município de São Carlos - SP, fazendo-se uso de Sistemas de Informações Geográficas SIG, associados a ferramentas de Estatística Espacial, com a intenção de identificar os pontos e áreas de maior ocorrência de acidentes, bem como as tendências espaciais de crescimento. O trabalho divide-se em duas etapas: a)identificação de padrões pontuais; e b)identificação de zonas críticas. Para a realização deste trabalho foi necessário efetuar o georreferenciamento dos acidentes de trânsito, ocorridos entre 2001 e 2003. As ferramentas de Estatística Espacial utilizadas, tais como Índice de Moran, Média Espacial Móvel, dentre outras, serviram para a realização de agrupamentos de acidentes de trânsito, identificação das zonas críticas de acidentes e identificação de tendências de deslocamento dos acidentes. A pesquisa mostrou que os acidentes de trânsito ocorrem por toda malha viária, de maneira geral, com uma maior incidência de acidentes com danos materiais nas áreas centrais da cidade e acidentes com vítimas mais nas regiões periféricas. Foi possível observar que existe um deslocamento dos acidentes de trânsito para quase todas as regiões da cidade de São Carlos, tornando um fenômeno espacial de difícil tratamento. As maiores dificuldades encontradas para a realização deste trabalho estão ligadas à análise da consistência das informações. Concluiu-se que, para que as análises dos acidentes de trânsito obtenham resultados cada vez mais satisfatórios, é necessária uma maior atenção no processo de coleta e armazenamento dessas informações, tornando-as cada vez melhores.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Vedovato, Maria Aparecida 1953. « A mortalidade infantil e a relação com o espaço geografico na Cidade de Rio Claro, SP, BR ». [s.n.], 2009. http://repositorio.unicamp.br/jspui/handle/REPOSIP/311817.

Texte intégral
Résumé :
Orientadores: Roberto Wagner Lourenço, Maria Rita Donalisio Cordeiro
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Ciencias Medicas
Made available in DSpace on 2018-08-13T01:35:35Z (GMT). No. of bitstreams: 1 Vedovato_MariaAparecida_M.pdf: 3058198 bytes, checksum: 089898e03e21b107835a01e5356048ad (MD5) Previous issue date: 2009
Resumo: A mortalidade infantil em populações urbanas é de grande importância para as políticas de saúde pública. Foi realizado um estudo ecológico exploratório com dados espaciais com o objetivo de contribuir para o entendimento das causas contextuais da mortalidade infantil, tendo em vista a distribuição territorial dos eventos. Neste trabalho são apresentados os resultados obtidos das análises estatística e espacial realizadas por meio de técnicas de geoprocessamento da mortalidade neonatal, mortalidade de crianças com até um ano de idade e de natimortos entre o período de 2000 a 2007, bem como da construção de seus coeficientes por áreas de abrangência em unidades de atendimento da saúde na área urbana do município de Rio Claro, SP, Brasil. Foram identificadas durante o período estudado as tendências do comportamento espaçotemporal da distribuição da mortalidade infantil e da natimortalidade no cenário urbano que neste trabalho se mostraram distribuídos irregularmente pela área de estudo com grande oscilação nos dados e que apesar de apresentar correlação positiva com as variáveis sócio-ambientais, estas foram pouco significativas. A correlação mais significativa observada foi entre o coeficiente de natimortalidade e o índice de qualidade sócio ambiental que registrou maior valor de correlação estatística linear de Pearson (r=0.2733), mostrando ser uma variável de influencia significativa na MI. Espera-se que com os resultados obtidos o estudo possa auxiliar no entendimento de determinantes de agravos à saúde e ajudar na implementação de programas de gestão e planejamento de diversos setores administrativos em áreas urbanas, inclusive o setor de saúde
Abstract: The child mortality in urban populations is of great importance for the policies of public health. An exploratory and ecological study using spatial data was carried out aiming to contribute for the understanding of the contextual causes of child mortality considering the territorial distribution of the events. This paper presents the results obtained in the spatial and statistical analysis carried out through geoprocessing techniques considering neonatal mortality, mortality of children up to one year old and stillbirths between 2000 and 2007 as well as the construction of coefficients considering the areas serviced by health centers in the urban area of Rio Claro, São Paulo state, Brazil. During the studied period spatial and temporal tendencies of the distribution of child mortality and stillbirths could be identified in the urban setting and were irregularly spread over the studied area with large oscillation in the data and, although they showed a positive correlation with the social and environmental variables this correlation was little significant. The most significant correlation was between the stillbirths between coefficient and the social environmental quality index which showed the higher Pearson statistical correlation linear value (r=0.2733) turning out to be influential in CM. It is expected that the study can help in the understanding of health hazards determiners and in the implementation of administrative programs of several sectors in the urban areas, including the health sector
Mestrado
Saude Coletiva
Mestre em Saude Coletiva
Styles APA, Harvard, Vancouver, ISO, etc.
11

D'eça, Junior Aurean. « Avaliação da qualidade dos dados do Sistema de Informações sobre Nascidos Vivos (SINASC) em São Luís-MA e Ribeirão Preto-SP ». Universidade Federal do Maranhão, 2015. http://tedebc.ufma.br:8080/jspui/handle/tede/1014.

Texte intégral
Résumé :
Made available in DSpace on 2016-08-19T17:24:50Z (GMT). No. of bitstreams: 1 Tese-AureanDEcaJunior.pdf: 1288393 bytes, checksum: a2ffa691714b1f559fb869901954f2c8 (MD5) Previous issue date: 2015-12-16
The present study aimed to evaluate the quality of information (System coverage, completeness of the data fulfillment and reliability of the information) of SINASC in the city of Ribeirão Preto, São Paulo, through the linkage technique, comparing them to the data obtained from the project entitled Etiology factors of pre-term birth and consequences of perinatal factors on children's health , which studies birth cohorts in São Luís-Maranhão and Ribeirão Preto-São Paulo (BRISA cohort); as well as to analyze and compare the temporal trend of completeness of fulfillment of the variables of SINASC in these two Brazilian cities that make up the study of BRISA cohort, in a time series of 1996-2013. Evaluative study that analyzed the following variables: newborn sex, birth weight, Apgar indices, presence of congenital anomaly, race/color, mother's age, education, marital status, number of living children, length of gestation, type of childbirth, type of pregnancy and number of prenatal visits. The degree of concordance (reliability) of the information was evaluated by Kappa and intraclass correlation coefficients (ICC) for categorical variables and by the Bland-Altman method for numerical variables. Completeness referred to the degree of fulfillment of the field analyzed following the scoring system proposed by Romero and Cunha: excellent, when the variable presents less than 5% of incomplete fulfillment; good (5.0 to 9.9%); regular (10.0 to 19.9%); bad (20.0 to 49.9%) and very bad (50.0% or more). The trend analysis was done by estimation of polynomial regression models. In Ribeirão Preto, the estimated coverage of SINASC, in 2010, classified as good, was 88.3% (95% CI; 87.6% to 89.0%), according to the eight hospitals analyzed. In São Paulo city, the variables that showed nearly perfect or excellent agreement were: hospital of birth, newborn sex, type of pregnancy, type of childbirth, birth weight, maternal age and marital status. The variables number of prenatal visits and length of gestation obtained moderate reliability. The following variables had poor/low reliability: presence of congenital anomaly, race/color, Apgar score at 1st and 5th minutes and number of living children. On the completeness, the variables mother's age, marital status, type of pregnancy, type of childbirth, newborn sex, Apgar scores and birth weight had excellent completeness in the both cities studied. The variables congenital anomaly and race/color of the newborn obtained completeness ranging from bad to very in the capital of Maranhão, unlike the city of Ribeirão Preto, where they had a non-fulfillment percentage of less than 5%. The variable length of gestation showed variation in completeness for all time series, achieving excellence in fulfillment between the years 1999-2010. In Ribeirão Preto, this same variable had excellent completeness between 2000-2013. The chosen polynomial regression models pointed upward trend of non-fulfillment for the variable congenital anomaly in the two cities. In São Luís, the variable marital status had a declining trend for incompleteness, which did not occur in Ribeirão Preto. In São Paulo city, the variable maternal education was presented with decreasing trend of non-fulfillment, which was not evidenced in the capital of Maranhão. The other variables had decreasing trend for the incompleteness in the two cities with statistically significant values in the tested models. This research adds to the evidence of the potential of secondary data as an important source for epidemiological research. Although the results can be translated in advance, it is important to continuously invest in training in order to ensure a system capable of subsidizing policies of intervention and organization of maternal and child health.
Este estudo propôs analisar a qualidade das informações do SINASC nas cidades de São Luís- Maranhão e Ribeirão Preto- São Paulo. Em Ribeirão Preto, a técnica linkage foi utilizada para comparar os dados do SINASC com aqueles obtidos do projeto intitulado Fatores etiológicos do nascimento pré-termo e consequências dos fatores perinatais na saúde da criança, que estuda coortes de nascimentos (coorte BRISA) e a tendência temporal da completitude do preenchimento de variáveis do SINASC por modelos de regressão polinomial foi analisada nestas duas cidades brasileiras, numa série cronológica de 1996-2013. As variáveis analisadas foram: sexo do recém-nascido, peso ao nascer, índices Apgar, presença de anomalia congênita, raça/cor, idade da mãe, escolaridade, situação conjugal, número de filhos vivos, duração da gestação, tipo de parto, tipo de gravidez e número de consultas pré-natal. Em Ribeirão Preto, a cobertura estimada do SINASC, em 2010, classificada como boa, foi de 88,3% (IC95%; 87,6% a 89,0%) segundo os oito hospitais analisados. Na cidade paulista, as variáveis que apresentaram concordância quase perfeita ou excelente foram: hospital de nascimento, sexo do recém-nascido, tipo de gravidez, tipo de parto, peso ao nascer, idade da mãe e situação conjugal. As variáveis número de consultas pré-natal e duração da gestação obtiveram confiabilidade moderada. Tiveram confiabilidade sofrível/fraca as variáveis: presença de anomalia congênita, raça/cor, índice de Apgar no 1° e 5° minutos e número de filhos vivos. Sobre a completitude, as variáveis idade da mãe, estado civil, tipo de gravidez, tipo de parto, sexo do recém-nascido, índices de Apgar e peso ao nascer tiveram excelente completitude nas duas cidades estudadas. As variáveis anomalia congênita e raça/cor do RN obtiveram completitude oscilando entre ruim a muito ruim na capital do Maranhão, ao contrário da cidade de Ribeirão Preto, onde as mesmas tiveram percentual de não preenchimento menor que 5%. Em São Luís, a variável duração da gestação apresentou variação na completitude em toda a série temporal, atingindo excelência no preenchimento entre os anos de 1999-2010. Em Ribeirão Preto, esta mesma variável teve excelente completitude entre 2000-2013. A análise temporal do Sistema nas duas cidades por regressão polinomial evidenciou que a variação no preenchimento de todas as variáveis estudadas não seguiu uma ordem linear, ou seja, toda análise indicou modelos erráticos o que representou a escolha da tendência predominante a cada modelo selecionado que melhor explicava a relação entre completitude de cada variável na série de tempo analisada. Os modelos de regressão polinomial escolhidos apontaram tendência ascendente do não preenchimento para a variável anomalia congênita nas duas cidades. Em São Luís, a variável estado civil teve tendência decrescente para a incompletude, o que não ocorreu em Ribeirão Preto. Na cidade paulista, a variável escolaridade da mãe apresentou-se com tendência decrescente do não preenchimento, o que não se evidenciou na capital maranhense. As demais variáveis tiveram tendência decrescente para a incompletude nas duas cidades com valores estatisticamente significantes nos modelos testados. Da pesquisa, concluiu-se no artigo 1: A cobertura do Sistema na cidade de Ribeirão Preto, classificada como boa revela a necessidade da atenção dos gestores em saúde em ampliar estratégias e investimento em treinamento aos profissionais que preenchem a DNV; importantes variáveis da DNV que tiveram confiabilidade e completitude excelente podem ser utilizadas como cálculo de indicadores de saúde; ainda que o acesso aos serviços de saúde pública em Ribeirão Preto sejam de excelência, as informações do SINASC precisam avançar em estruturação e consolidação de dados robustos afim de que se possa garantir completa e adequada avaliação epidemiológica da saúde materno-infantil. Do artigo 2, pôde-se concluir que: Em ambas as cidades estudadas, o SINASC revelou-se em potencial como fonte de informação epidemiológica de nascimentos; a completitude mostrou-se excelente na maioria das variáveis investigadas e a análise da séria temporal sugere predominância em tendência decrescente do não preenchimento de variáveis do SINASC, configurando avanços. Ainda assim, qualificação profissional e supervisão devem ser garantidos, visto que variáveis ainda apresentam-se com limitações no preenchimento e as causas dessas limitações precisam ser mais detalhadas para que se possam efetivar estratégias de melhorias em seu preenchimento.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Sousa, Maria Helena de. « Utilização de sistemas de informações em saude na area de morbidade materna grave (near miss) e mortalidade materna ». [s.n.], 2006. http://repositorio.unicamp.br/jspui/handle/REPOSIP/312621.

Texte intégral
Résumé :
Orientadores: Jose Guilherme Cecatti, Ellen Hardy
Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Ciencias Medicas
Made available in DSpace on 2018-08-06T20:37:00Z (GMT). No. of bitstreams: 1 Sousa_MariaHelenade_D.pdf: 3645996 bytes, checksum: 2da8a09da4948fa1321c12c5e8548c1c (MD5) Previous issue date: 2006
Resumo: Objetivos: inicialmente o objetivo foi identificar os óbitos registrados como maternos no ¿Sistema de Informações sobre Mortalidade¿ (SIM), os nascimentos no ¿Sistema de Informações sobre Nascidos Vivos¿ (SINASC), obter as Razões de Mortalidade Materna (RMM) e identificar diagnósticos e procedimentos aproximados pelos critérios mais conhecidos de morbidade materna grave, analisando as mortes de mulheres residentes nas capitais brasileiras no ¿Sistema de Informações Hospitalares¿ (SIH) em 2002. Posteriormente o objetivo foi identificar no SIH todos os registros de mulheres no período grávido-puerperal que tivessem informações indicativas de morbidade materna grave; descrever os diagnósticos e procedimentos utilizados, propor a definição de um escore de morbidade materna e identificar as variáveis associadas à morte materna. Método: Estudo descritivo, populacional, análise de dados secundários. Inicialmente utilizaram-se dois sistemas vitais e o hospitalar, para as 26 capitais estaduais e o Distrito Federal do Brasil, em 2002. Para a primeira etapa foram obtidas as RMM e informações básicas das mortes maternas declaradas. A partir dessas mortes relacionou-se probabilisticamente o SIM com o SINASC e, em seguida, com o SIH, utilizando-se o programa ¿Reclink II¿, com estratégia de blocagem em múltiplos passos. Em seguida, realizou-se análise descritiva simples. Para a segunda etapa, as principais variáveis foram o diagnóstico principal e secundário e o procedimento solicitado e realizado durante a internação. Houve uma seleção inicial de registros de mulheres de 10 a 49 anos de idade, seguida de uma seleção daquelas que apresentaram pelo menos um item indicativo de morbidade materna grave (near miss). Para os relacionamentos do SIH com o SIM e do SIH com ele mesmo, estabeleceu-se estratégia de blocagem em três passos independentes. Para a análise dos dados foram calculadas as razões de near miss, descritos os diagnósticos e procedimentos, utilizada a técnica multivariada de componentes principais e ajustado o modelo de regressão logística. Resultados: Foram identificadas 339 mortes maternas em 2002, com RMM oficial e ajustada, respectivamente, de 46,4 e 64,9 (mortes por 100.000 nascidos vivos). Com o primeiro relacionamento foi possível localizar 46,5% das mortes maternas e, com o segundo, localizaram-se 55,2% das mortes. O diagnóstico mais freqüente foi o de infecção (13,9%), e o procedimento com maior porcentagem (39,0%) foi o de admissão à UTI. Para a segunda etapa, a RNM para o total dos municípios foi de 44,3/ 1.000 nascidos vivos. Foram identificadas 154 mortes maternas dentre os registros indicativos de near miss. A análise descritiva apontou como mais freqüentes os critérios graves relativos a infecção, pré-eclâmpsia e hemorragia. A análise por regressão logística resultou em 12 variáveis, entre elas quatro interações significativas. Conclusões: Os diagnósticos e procedimentos relatados no SIH mostraram a gravidade da condição mórbida materna em 66% dos óbitos maternos declarados, apesar das inconsistências entre os diversos sistemas. Para a segunda etapa, conclui-se que, apesar das limitações existentes no SIH, é promissora a perspectiva de utilizá-lo de forma rotineira, mas com esforços no sentido de melhorar a qualidade da AIH
Abstract: Objectives: initially the objective was to identify maternal deaths in the ¿Mortality Information System¿ (SIM), births in the ¿Live Births Information System¿ (SINASC), to obtain the Maternal Mortality Ratios (MMR) and to identify diagnosis and procedures related with the most common criteria of severe maternal morbidity, evaluating the deaths of women living in Brazilian capitals in the ¿Hospital Information System¿ (SIH) in 2002. Sequentially the objective was to identify in SIH all registers from women during pregnancy, delivery and post partum period who had information indicating severe maternal morbidity; to describe the diagnosis and procedures used; to propose a score of maternal morbidity and to identify variables associated to maternal death. Method: A population descriptive study, secondary data analysis. For the first step two vital systems and hospital system for the 26 capitals and the Federal District of Brazil, in 2002, were used. The MMR and basic information on maternal deaths were obtained. Using data available for these deaths, SIM was probabilistically linked with SINASC and after with SIH, using the software ¿Reclink II¿, with a multiple steps blocking strategy. Simple descriptive analysis was then performed. For the second step the main variables were the primary and secondary diagnosis and the requested and performed procedure during hospitalization. Initially there was a selection of registries of women between 10 and 49 years of age, followed by a selection of those presenting at least one criteria indicating severe maternal morbidity (near miss). For the linkages of SIH with SIM and with itself, a three independent steps blockage strategy was established. For data analysis the Near Miss Ratios were calculated and the diagnosis and procedures were described; the multivariate technique of principal components was used and then a logistic regression model was adjusted. Results: 339 maternal deaths were identified in 2002 with an official and adjusted MMR of respectively 46.4 and 64.9 (maternal deaths per 100.000 live births). With the first linkage it was possible to find 46.5% of the maternal deaths and 55.2% with the second one. The most frequent diagnosis was infection (13.9%) and the most frequent procedure was admission to ICU (39.0%). For the second step, the NMR for the total municipalities was 44,3/ 1.000 live births. Among the registries indicating near miss, 154 maternal deaths were identified. The descriptive analysis pointed out as more frequent the severe criteria related to infection, pre-eclampsia and hemorrhage. The analysis with logistic regression resulted in 12 variables, among them four significant interactions. Conclusions: The diagnosis and procedures informed in the SIH showed the severity of maternal morbidity in 66% of the deaths certified as maternal, despite the inconsistencies among the different systems. For the second step, although the existing limitations in the SIH, the perspective of using it routinely is promising, but only with efforts in order to improve the quality of the document which provides information for the registry
Doutorado
Ciencias Biomedicas
Doutor em Tocoginecologia
Styles APA, Harvard, Vancouver, ISO, etc.
13

Endo, Wagner. « Modelagem de circuitos neurais do sistema neuromotor e proprioceptor de insetos com o uso da transferência de informação entre conexões neurais ». Universidade de São Paulo, 2014. http://www.teses.usp.br/teses/disponiveis/18/18153/tde-06052014-163332/.

Texte intégral
Résumé :
Apresenta-se, neste trabalho, o desenvolvimento de um modelo bioinspirado a partir do circuito neural de insetos. Este modelo é obtido através da análise de primeira ordem dada pelo STA (Spike Triggered Average) e pela transferência de informação entre os sinais neurais. São aplicadas técnicas baseadas na identificação dos atrasos de tempo da máxima coerência da informação. Utilizam-se, para esta finalidade, os conceitos da teoria de informação: a DMI (Delayed Mutual Information) e a TE (Transfer Entropy). Essas duas abordagens têm aplicação em transferência de informação, cada uma com suas particularidades. A DMI é uma ferramenta mais simples do que a TE, do ponto de vista computacional, pois depende da análise estatística de funções densidades de probabilidades de segunda ordem, enquanto que a TE, de funções de terceira ordem. Dependendo dos recursos computacionais disponíveis, este é um fator que deve ser levado em consideração. Os resultados de atraso da informação são muito bem identificados pela DMI. No entanto, a DMI falha em distinguir a direção do fluxo de informação, quando se tem sistemas com transferência de informação indireta e com sobreposição da informação. Nesses casos, a TE é a ferramenta mais indicada para a determinação da direção do fluxo de informação, devido à dependência condicional imposta pelo histórico comum entre os sinais analisados. Em circuitos neurais, estas questões ocorrem em diversos casos. No gânglio metatorácico de insetos, os interneurônios locais possuem diferentes padrões de caminhos com sobreposição da informação, pois recebem sinais de diferentes neurônios sensores para o movimento das membros locomotores desses animais. O principal objetivo deste trabalho é propor um modelo do circuito neural do inseto, para mapear como os sinais neurais se comportam, quando sujeitos a um conjunto de movimentos aleatórios impostos no membro do inseto. As respostas neurais são reflexos provocados pelo estímulo táctil, que gera o movimento na junção femorotibial do membro posterior. Nestes circuitos neurais, os sinais neurais são processados por interneurônios locais dos tipos spiking e nonspiking que operam em paralelo para processar a informação vinda dos neurônios sensores. Esses interneurônios recebem sinais de entrada de mecanorreceptores do membro posterior e da junção motora dos insetos. A principal característica dos interneurônios locais é a sua capacidade de se comunicar com outros neurônios, tendo ou não a presença de impulsos nervosos (spiking e nonspiking). Assim, forma-se um circuito neural com sinais de entradas (neurônios sensores) e saídas (neurônios motores). Neste trabalho, os algoritmos propostos analisam desde a geração aleatória dos movimentos mecânicos e os estímulos nos neurônios sensores que chegam até o gânglio metatorácico, incluindo suas respostas nos neurônios motores. São implementados os algoritmos e seus respectivos pseudocódigos para a DMI e para a TE. É utilizada a técnica de Surrogate Data para inferir as medidas de significância estatística em relação à máxima coerência de informação entre os sinais neurais. Os resultados a partir dos Surrogate Data são utilizados para a compensação dos erros de desvio das medidas de transferência de informação. Um algoritmo, baseado na IAAFT (Iterative Amplitude Adjusted Fourier Transform), gera os dados substitutos, com mesmo espectro de potência e diferentes distribuições dos sinais originais. Os resultados da DMI e da TE com os Surrogate Data fornecem os valores das linhas de base quando ocorre a mínima transferência de informação. Além disso, foram utilizados dados simulados, para uma discussão sobre os efeitos dos tamanhos das amostras e as forças de associação da informação. Os sinais neurais coletados estão disponíveis em um banco de dados com diversos experimentos no gânglio metatorácico dos gafanhotos. No entanto, cada experimento possui poucos sinais coletados simultaneamente; assim, para diferentes experimentos, os sinais ficam sujeitos às variações de tamanho de amostras, além de ruídos que interferem nas medidas absolutas de transferência de informação. Para se mapear essas conexões neurais, foi utilizada a metodologia baseada na normalização e compensação dos erros de desvio para os cálculos da transferência de informação. As normalizações das medidas utilizam as entropias totais do sistema. Para a DMI, utiliza-se a média geométrica das entropias de X e Y , para a TE aplica-se a CMI (Conditional Mutual Information) para a sua normalização. Após a aplicação dessas abordagens, baseadas no STA e na transferência de informação, apresenta-se o modelo estrutural do circuito neural do sistema neuromotor de gafanhotos. São apresentados os resultados com o STA e a DMI para os neurônios sensores, dos quais são levantadas algumas hipóteses sobre o funcionamento desta parte do FeCO (Femoral Chordotonal Organ). Para cada tipo de neurônio foram identificados múltiplos caminhos no circuito neural, através dos tempos de atraso e dos valores de máxima coerência da informação. Nos interneurônios spiking obtiveram-se dois padrões de caminhos, enquanto que para os interneurônios nonspiking identificaram-se três padrões distintos. Esses resultados são obtidos computacionalmente e condizem com que é esperado a partir dos modelos biológicos descritos em Burrows (1996).
Herein, we present the development of a bioinspired model by the neural circuit of insects. This model is obtained by analyzing the first order from STA (Spike Triggered Average) and the transfer of information among neural signals. Techniques are applied based on the identification of the time delays of the information maximum coherence. For this purpose we use the concepts of the theory of information: DMI (Delayed Mutual Information) and TE (Transfer Entropy). These two approaches have applications on information transfer and each one has peculiarities. The DMI is a simpler tool than the TE, from the computational point of view. Therefore, DMI depends on the statistical analysis of second order probability density functions, whereas the TE depends on third order functions. If computational resources are a problem, those questions can be taken into consideration. The results of the information delay are very effective for DMI. However, DMI fails to distinguish the direction of the information flow when we have systems subjected to indirect information transfer and superposition of the information. In these cases, the TE is the most appropriate tool for determining the direction of the information flow, due to the conditional dependence imposed by a common history among the signals. In neural circuits, those issues occur in many cases. For example, in metathoracic ganglion of insects, the local interneurons have different pathways with superposition of the information. Therefore, the interneurons receive signals from different sensory neurons for moving the animals legs . The main objective of this work is propose a model of the neural circuit from an insect. Additionally, we map the neural signals when the hind leg is subjected to a set of movements. Neural responses are reflexes caused by tactile stimulus, which generates the movement of femoro-tibial joint of the hind leg. In these neural circuits, the signals are processed by neural spiking and nonspiking local interneurons. These types of neurons operate in parallel processing of the information from the sensory neurons. Interneurons receive input signals from mechanoreceptors by the leg and the insect knees. The main feature of local interneurons is their ability to communicate with others neurons. It can occur with or without of the presence of impulses (spiking and nonspiking). Thus, they form a neural circuit with input signals (sensory neurons) and outputs (motor neurons). The proposed algorithms analyze the random generation of movements and mechanical stimuli in sensory neurons. Which are processing in the metathoracic ganglion, including their responses in the motor neurons. The algorithms and the pseudo-code are implemented for TE and DMI. The technique of Surrogate Data is applied to infer the measures of statistical significance related to the information maximum coherence among neural signals. The results of the Surrogate Data are used for bias error compensation from information transfer. An algorithm, based on IAAFT (Iterative Amplitude Adjusted Fourier Transform), generates Surrogate Data with the same power spectrum and different distributions of the original signals. The results of the surrogate data, for DMI and TE, achieve the values of baselines when there are minimum information transfer. Additionally, we used simulated data to discuss the effects of sample sizes and different strengths of information connectivity. The collected neural signals are available from one database based on several experiments of the locusts metathoracic ganglion. However, each experiment has few simultaneously collected signals and the signals are subjected of variations in sample size and absolute measurements noisy of information transfer. We used a methodology based on normalization and compensation of the bias errors for computing the information transfer. The normalization of the measures uses the total entropy of the system. For the DMI, we applied the geometric mean of X and Y . Whereas, for the TE is computed the CMI (Conditional Mutual Information) for the normalization. We present the neural circuit structural model of the locusts neuromotor system, from those approaches based on STA and the information transfer. Some results are presented from STA and DMI for sensory neurones. Then, we achieve some new hypothesis about the neurophisiology function of FeCO. For each type of neuron, we identify multiple pathways in neural circuit through the time delay and the information maximum coherence. The spiking interneurons areyielded by two pathways, whereas the nonspiking interneurons has revealed three distinct patterns. These results are obtained computationally and are consistent with biological models described in Burrows (1996).
Styles APA, Harvard, Vancouver, ISO, etc.
14

Capela, Matheus. « Kolmogorov-Sinai entropy and dissipation in driven classical hamiltonian systems ». Universidade Federal de Goiás, 2018. http://repositorio.bc.ufg.br/tede/handle/tede/8216.

Texte intégral
Résumé :
Submitted by Luciana Ferreira (lucgeral@gmail.com) on 2018-03-14T12:45:08Z No. of bitstreams: 2 Dissertação - Matheus Capela - 2018.pdf: 943525 bytes, checksum: 2ce883be9d4c829f92c7048e5fa718c4 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Approved for entry into archive by Luciana Ferreira (lucgeral@gmail.com) on 2018-03-14T12:47:20Z (GMT) No. of bitstreams: 2 Dissertação - Matheus Capela - 2018.pdf: 943525 bytes, checksum: 2ce883be9d4c829f92c7048e5fa718c4 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5)
Made available in DSpace on 2018-03-14T12:47:20Z (GMT). No. of bitstreams: 2 Dissertação - Matheus Capela - 2018.pdf: 943525 bytes, checksum: 2ce883be9d4c829f92c7048e5fa718c4 (MD5) license_rdf: 0 bytes, checksum: d41d8cd98f00b204e9800998ecf8427e (MD5) Previous issue date: 2018-02-23
Conselho Nacional de Pesquisa e Desenvolvimento Científico e Tecnológico - CNPq
Diversas relações entre física e teoria de informação foram estabelecidas desde o trabalho de Shannon. Entropia é um elemento essencial nesta conexão, quantificando a informação transferida em um experimento. Mecânica estatística está conectada à teoria de informação através do princípio de máxima entropia, definindo as distribuições de probabilidade de estados de equilíbrio como aquelas que maximizam a entropia sujeita as condições físicas apropriadas. A energia dissipada em um processo clássico está conectada a divergência de Kullback-Leibler. Recentemente, Still e colaboradores mostraram que a ineficiência energética em um processo estocástico Markoviano é equivalente a ineficiência do modelo, definida como a diferença em informação que o estado do sistema compartilha com as variáveis externas no futuro e passado. Isto sugere que imprevisibilidade e ineficiência energética estejam relacionadas no âmbito da física clássica. O objetivo deste trabalho é estabelecer uma relação entre o comportamento randômico de sistemas clássicos, quantificado pela entropia de Kolmogorov-Sinai, com a ineficiência energética.
Many connections between physics and information theory have been revealed since the development of classical information theory by Shannon. A key concept in this connection is entropy, which represents the amount of information transferred to the observer who performs measurements in an experiment. Statistical mechanics is a physical theory deeply connected to information by Jaynes’ Maximum Entropy principle, which defines equilibrium probability distributions as the ones that maximizes entropy under some physical constraints. In this way, these distributions are the less unbiased probabilities that can be assignment to an event. Following this path, the dissipated energy in a classical Hamiltonian process (also known as the thermodynamic entropy production) was connected to the relative entropy between the forward and backward probability densities. A recent work by Still et al. has revealed that energetic inefficiency and model inefficiency are equivalent concepts in Markovian processes, where the latter is defined as the difference in mutual information that the system’s state shares with the future and past environmental variables. This raises the question whether model unpredictability and energetic inefficiency are connected in the framework of classical physics. The aim of this study is to connect the concepts of random behavior of a classical Hamiltonian system with its energetic inefficiency. The random behavior of a classical system is quantified by the Kolmogorov-Sinai entropy associated with its dynamics, an information-theoretic approach to chaos, whereas energetic inefficiency is measured by the dissipated work.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Krempi, Ana Paula. « Explorando recursos de estatística espacial para análise da acessibilidade da cidade de Bauru ». Universidade de São Paulo, 2004. http://www.teses.usp.br/teses/disponiveis/18/18137/tde-10032005-064613/.

Texte intégral
Résumé :
A acessibilidade está relacionada com a maneira como a disponibilidade de transportes e os usos do solo afetam os indivíduos na realização de viagens para o desenvolvimento de suas atividades habituais. Freqüentemente se assume que os moradores de baixa renda da periferia são os mais afetados pela falta de acesso aos meios de transporte. A questão subjacente a esta afirmação, no entanto, permanece sem uma resposta definitiva: o nível de renda, por si só, seria um indicativo do nível de acessibilidade? O objetivo deste estudo é explorar a união de ferramentas de estatística espacial e SIG (Sistema de Informações Geográficas) com um propósito específico, que é o de analisar as relações entre aspectos da distribuição espacial de características da população (como a renda, por exemplo) de uma cidade média brasileira e os diversos níveis de acessibilidade por diferentes modos de transporte nela observados, buscando possíveis respostas para esta pergunta. Quando se utiliza procedimentos de visualização e classificação de dados espaciais comuns em SIG, nem sempre as informações são diretamente perceptíveis. Logo, deve-se utilizar ferramentas que ampliem as possibilidades de compreensão e análise dos dados. Inicialmente, as ferramentas selecionadas para uso neste trabalho são apresentadas e discutidas quanto à sua aplicação e utilização na análise proposta. Para tal foram utilizados dados coletados em uma pesquisa origem–destino (O-D) realizada na cidade de Bauru - SP, agrupados por setores censitários e adicionados ao SIG, aplicando técnicas de estatística espacial utilizadas para entidades do tipo área. Os resultados obtidos são apresentados na forma de mapas e de índices que medem a associação espacial global e local entre estas zonas. Uma das conclusões interessantes da aplicação foi a identificação de regiões da cidade com dinâmica particular, que contrariam o padrão global observado nas demais partes da área urbana. Pôde-se constatar ainda particularidades a respeito do uso de cada modo de transportes. O modo automóvel como motorista, por exemplo, possui agrupamento espacial bem definido no nível de renda alta tanto nas regiões de periferia, como nas de transição e central. Já o modo ônibus é predominantemente utilizado nas zonas de renda baixa das regiões de periferia e transição, enquanto que os modos não motorizados possuem uma dinâmica bem diversificada em toda a área urbana. Estes e outros resultados do estudo de caso deixam claro que as análises de estatística espacial em ambiente SIG criam uma ferramenta para ampliar a análise convencional de acessibilidade em transportes
Transportation accessibility is directly related to the level of transportation supply and land uses and the way they affect individuals in their trip desires for accomplishing regular-basis activities. It is often assumed that low-income segments of the population living at the periphery of the cities are those affected the most by poor conditions of transportation accessibility. There is a subjacent question behind this statement, however, which is: can the income level or the location of an individual alone explain his/her accessibility level? In order to look for answers to this question, the aim of this study is to analyze, making use of spatial statistics tools in a GIS (Geographic Information System) environment, the relationships between accessibility and income and their geographical distributions in a medium-sized Brazilian city. The application of the most commonly used GIS resources, such as visualization and spatial data classification tools, not always assures a full comprehension of the phenomenon under analysis. As a consequence, many problems require tools that enhance the possibilities of observation and analysis. As tools with this characteristic have been used in this work, they were initially introduced. Thereafter, the possibilities of use of these tools in the problem analyzed were also discussed. Data of an origin-destination (O-D) survey carried out in the city of Bauru, located in the state of São Paulo, which brings information about four different transportation modes, were used in this study. Such data, grouped following the census tracts, were carefully examined in a Geographic Information System in order to look for spatial patterns of accessibility that are not visible in the traditional approaches. The results of the analysis are presented in maps and as indices that are able to capture glabal and local spatial association patterns in areas. One of the interesting outcomes of the application was the identification of regions with particular dynamics, which go against the pattern found in the overall urban area. Particularities regarding each particular transportation mode have also been noticed. The zones where the automobile is most used (by drivers, not by passengers) are spatially clustered, regardless if the zone is at the periphery, transition zone or central area of the city. The bus trips are predominantly carried out in low-income areas of the periphery and transition rings, while the non-motorized modes (walk and bicycle) have shown a very diversified dynamics in the entire urban area. This and other results of the case study clearly indicate that spatial statistics analyses in a GIS environment create a powerful tool to extend conventional transportation accessibility analysis
Styles APA, Harvard, Vancouver, ISO, etc.
16

Almeida, Marcelo Bustamante de. « Otimização do processo de coleta dos resíduos industriais da usina e minas do Complexo Minerador de Ferro de Carajás, PA ». reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2014. http://hdl.handle.net/10183/127916.

Texte intégral
Résumé :
Este trabalho estuda formas de otimizar a coleta dos resíduos industriais gerados pelas áreas da usina e minas situadas no complexo de minério de ferro de Carajás – PA. Para chegar ao objetivo proposto são aplicadas em conjunto tecnologias dos Sistemas de Informações Geográficas (SIG) e estudos estatísticos. O Sistema de Informações Geográficas permite realizar, através da utilização do software Arcview 9.0 e de imagens de satélites Ikonos, coleta de dados de campo, armazenamento dos dados relacionados à gestão da coleta, análise e integração geográfica da vetorização das rotas. Através dos estudos estatísticos planilhas serão alimentadas e analisadas quantitativamente e qualitativamente resultando assim numa melhor compreensão e tratamento das variáveis que influenciam a eficácia da coleta e o transporte dos resíduos gerados nas áreas. Com a utilização das ferramentas dos Sistemas de Informação Geográfica foram obtidas as melhores rotas de coleta para cada um dos veículos coletores, com as análises estatísticas foi possível conhecer e avaliar as principais dificuldades inerentes ao processo de coleta dos resíduos bem como identificar as praças que necessitavam de adequações. O estudo fomentou a inclusão de aproximadamente 75 caçambas/mês na operação de coleta e ao mesmo tempo diminuiu os custos do contrato de operação em R$ 22.417,66/mês.
Este trabalho estuda formas de otimizar a coleta dos resíduos industriais gerados pelas áreas da usina e minas situadas no complexo de minério de ferro de Carajás – PA. Para chegar ao objetivo proposto são aplicadas em conjunto tecnologias dos Sistemas de Informações Geográficas (SIG) e estudos estatísticos. O Sistema de Informações Geográficas permite realizar, através da utilização do software Arcview 9.0 e de imagens de satélites Ikonos, coleta de dados de campo, armazenamento dos dados relacionados à gestão da coleta, análise e integração geográfica da vetorização das rotas. Através dos estudos estatísticos planilhas serão alimentadas e analisadas quantitativamente e qualitativamente resultando assim numa melhor compreensão e tratamento das variáveis que influenciam a eficácia da coleta e o transporte dos resíduos gerados nas áreas. Com a utilização das ferramentas dos Sistemas de Informação Geográfica foram obtidas as melhores rotas de coleta para cada um dos veículos coletores, com as análises estatísticas foi possível conhecer e avaliar as principais dificuldades inerentes ao processo de coleta dos resíduos bem como identificar as praças que necessitavam de adequações. O estudo fomentou a inclusão de aproximadamente 75 caçambas/mês na operação de coleta e ao mesmo tempo diminuiu os custos do contrato de operação em R$ 22.417,66/mês.
Styles APA, Harvard, Vancouver, ISO, etc.
17

CAMPOS, Marcus Jos ? de Oliveira. « Limites e formas de representa??o das informa??es estat?sticas sobre o agroneg?cio : abordagem pela classifica??o nacional de atividades econ?micas ». Universidade Federal Rural do Rio de Janeiro, 2008. https://tede.ufrrj.br/jspui/handle/tede/1039.

Texte intégral
Résumé :
Made available in DSpace on 2016-04-28T20:19:52Z (GMT). No. of bitstreams: 1 2008 - Marcus Jose de oliveira Campos.pdf: 728541 bytes, checksum: 4da0889ed97922b676fb8aa4b889f9d8 (MD5) Previous issue date: 2008-09-15
This thesis analyses classification schemes used in Brazilian agribusiness measurement. Defining agribusiness boundaries for economic calculation implies in rearrange the international and official statistical classification, resulting undesirable consequences, stressing temporal instability and non-comparability. The international family of reference classifications is broadly accepted and worldwide used to statistical processing the economic phenomena. Economic classifications schemes are both, a benchmark to organize the data collection and a system of languages used in economic statistics communication. This thesis supports that the definition of alternative activities aggregations for analytical use, in order to better reflect its economic importance, must follow the requirements for homogeneity and temporal comparability present in official classifications systems.
Este trabalho avalia e discute o alcance e as limita??es dos resultados da instrumentaliza??o do c?lculo da participa??o do agroneg?cio na economia brasileira. Em particular, consiste no confronto das escolhas operacionais realizadas com os esquemas de classifica??o empregadas nas tentativas de operacionaliza??o do c?lculo, com o sistema internacional, oficial e formal, estabelecido por conven??o e adotado por pa?ses, blocos regionais e institui??es multilaterais de pesquisas estat?sticas. O sistema de classifica??o convencional fornece o instrumental para a organiza??o das formas de representa??o das atividades econ?micas, usadas nas publica??es estat?sticas oficiais h? mais de cinq?enta anos. A fun??o prec?pua desses dispositivos ? a organiza??o dos registros coletados, analisados e tabulados durante as pesquisas realizadas por institui??es especializadas. Funcionam, assim, como marcos estruturais, possibilitando a cria??o de s?ries temporais e as compara??es entre pa?ses e regi?es. Portanto, determinam as condi??es de armazenamento e recupera??o das informa??es sobre atividades econ?micas nos bancos de dados dessas organiza??es. Sob tal ?tica, a pesquisa procura mostrar o resultado das avalia??es das adapta??es realizadas, em busca da cria??o de um novo agregado econ?mico, representativo do agroneg?cio. As evid?ncias encontradas apontam na dire??o da elabora??o de uma agrega??o alternativa das categorias da classifica??o formal, para fins de tabula??es especiais. Como um esquema ad hoc relacionado ao sistema formal de classifica??o, os blocos de constru??o de suas categorias devem ser pactuados e est?veis por, pelo menos, dois per?odos no tempo, para garantir avalia??es de desempenho. Embora discordando da vis?o mercadol?gica embutida na concep??o do agroneg?cio, s?o apresentadas proposi??es para a sua tabula??o como um agregado alternativo, transparente, harmonizadas ?s ?ltimas vers?es da Classifica??o Nacional de Atividades Econ?micas (CNAE).
Styles APA, Harvard, Vancouver, ISO, etc.
18

Lisboa, Eugênio Pedroso. « VITAIS : uma nova ferramenta para análise dos sistemas de informação sobre mortalidade e sobre nascidos vivos ». reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2009. http://hdl.handle.net/10183/78490.

Texte intégral
Résumé :
O Sistema Único de Saúde (SUS) produz excelentes bases de dados, entre as quais, destacam-se o Sistema de Informação sobre Nascidos Vivos (SINASC) e o Sistema de Informação sobre Mortalidade (SIM). O objetivo desta dissertação é apresentar o VITAIS, uma ferramenta baseada nos aplicativos Access® e Excel® que permite disponibilizar, de forma simplificada, os dados desses sistemas, possibilitando a análise da situação de saúde por parte de gestores, profissionais da saúde, comunidade acadêmica e população em geral. Esta ferramenta permite a geração de relatórios e gráficos automáticos e pré-definidos e faz relacionamentos entre as bases do SIM e do SINASC. Como tal, apresenta vantagens significativas em relação ao tabulador TABWIN.
The Brazilian Health System (SUS) produces excellent data bases such as those for live births (SINASC) and mortality (SIM). The objective of this report is to present VITAIS, a tool based on Access® and Excel® applications that permits presentation of data from these systems in manners facilitating analysis of the health situation of the population of states, municipalities and micro-areas by health managers, health professionals, the academic community and the general population. This tool generates automatic reports and charts, and permits linkage between the SIM and SINASC databases. As such, it presents significant advantages over the TABWIN tabulator.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Roggero, Marilia Araujo. « Um ensaio metodológico sobre a qualidade de vida no distrito de Cachoeirihna, zona norte da cidade de São Paulo ». Universidade de São Paulo, 2009. http://www.teses.usp.br/teses/disponiveis/8/8135/tde-04022010-134606/.

Texte intégral
Résumé :
A qualidade de vida urbana tem sido estudada pelas mais diversas áreas do conhecimento e é uma temática complexa. O tema qualidade de vida envolve questões multidisciplinares apresentadas por meio de perspectivas diferenciadas, de acordo com a relevância do momento histórico, das condições sociais, bem como da ideologia dominante a partir dos objetivos propostos. Isso posto, a abordagem adotada no presente estudo está focada na satisfação das necessidades básicas da população, de modo a garantir o pleno desenvolvimento físico, mental e social. Para isso, foram abordadas quatro dimensões: condições de saneamento, situação socioeconômica e demografia, por meio da utilização dos dados censitários (IBGE, 2000) e as zonas residenciais homogêneas, por meio de técnicas de interpretação de imagens de satélite com alta resolução espacial. Para a espacialização e processamento dos dados quantitativos e qualitativos foram utilizadas técnicas de Geoprocessamento, por meio do uso de um Sistema de Informação Geográfica e técnicas estatísticas, que garantiram a distribuição espacial dos dados levantados. A partir dos resultados alcançados por meio dessas técnicas, foi possível elaborar o mapa síntese da qualidade de vida do distrito da Cachoeirinha, zona norte da cidade de São Paulo.
The quality of urban life has been studied in various areas of academic specialization and is a complex theme. The subject\'s quality of life involves multi-disciplinary questions presented with different perspectives, according to the relevance of the historical moment, social conditions, as well as the dominant ideology shaping the objectives in question. The approach adopted in the present study is focused on the satisfaction of the basics needs of the population, in order to guarantee complete physical, mental and social development. For this, four dimensions were considered: conditions of sanitation; the socioeconomic situation and demography; using data of the last demographic Census in 2000 (IBGE, 2000); and homogeneous residential zones, by means of technical interpretation of satellite images with high spatial resolution. For the spatial results and processing of quantitative and qualitative data, techniques of Geoprocessing had been used, using Geographic Information System and statistical techniques, which had guaranteed the spatial distribution of the listed data. From the results obtained with these techniques, it was possible to elaborate the map synthesis of the quality of life of Cachoeirinha District, northern zone of São Paulo, Brazil.
Styles APA, Harvard, Vancouver, ISO, etc.
20

Martins, Renata Cristófani. « Avaliação da eficácia do software Iris para uso no Brasil ». Universidade de São Paulo, 2017. http://www.teses.usp.br/teses/disponiveis/6/6132/tde-19072017-115153/.

Texte intégral
Résumé :
Introdução: As estatísticas de mortalidade são usadas pelo mundo inteiro e por isso precisa ter dados confiáveis e comparáveis. Uma das estratégias para melhorar sua qualidade é a automação de etapas do fluxo dos dados. O Iris é um sistema que codifica as causas de morte da declaração de óbito (DO) e seleciona a causa básica de morte. Objetivos: adaptar o software para uso no Brasil, testá-lo e comparar seu uso com a codificação manual e com a seleção do sistema usado na rotina brasileira, o Sistema de Seleção da Causa Básica de Morte (SCB). Métodos: foram utilizadas uma amostra de declarações de óbito de óbitos ocorridos no período de janeiro a junho de 2014 em nove cidades representando as cinco regiões do Brasil. Foram selecionados óbitos pelas causas mais comuns, com menção de doença transmissível, assim como óbitos infantis, maternos e óbitos com menção de causa externa ou cirurgia. A fase 1 visou a conclusão do dicionário e a fase 2 testar e comparar o uso do Iris. Resultados: 1848 DO, com uma média de 3,1 linhas preenchidas por DO. Foram realizadas 618 ajustes ou adições nas tabelas do dicionário ou nas tabelas de padronização. Em 45,9 por cento das DO o Iris codificou todas as causas de morte presente na DO assim como selecionou a causa básica de morte. Das DO que o Iris não conseguiu concluir o processo, a maioria (97,8 por cento) dessas rejeições foi por dificuldade em encontrar ou processar um código da CID. A concordância do Iris com a codificação manual nos níveis de 4 caracteres, 3 caracteres e 1 caractere dos códigos da CID-10 foi de 73,3 por cento, 78,2 por cento e 83,9 por cento respectivamente. Isso representou uma discordância em 49,1 por cento das DO. A concordância da causa básica de morte com o SCB foi de 74,2por cento, 84,3 por cento e 91,8 por cento nos níveis de 4 caracteres, 3 caracteres e 1 caractere dos códigos da CID-10 respectivamente. A principal causa de discordância (71 por cento) foi por codificações diferentes. Após as pequenas correções, o Iris finaliza 66,6 por cento das DO. Conclusão: As discordâncias tiveram como causa os hábitos e rotinas dos codificadores que variam entre eles, enquanto no Iris a codificação de uma causa é sempre a mesma. As tabelas de decisão do SCB precisam ser revistas. Os dados mostram que é possível usar esta ferramenta e que ela vai diminuir o trabalho dos codificadores. O Iris teve uma boa taxa de finalização, semelhante a países que o utilizam na sua rotina.
Introduction: Mortality statistics is used all over the world and therefore needs reliable and comparable data. One of the strategies to improve quality is an automated data collection. Iris is a system that codes the causes of death of the death certificate (DC) and selects the underlying cause of death. Objective: To adapt Iris software to Brazil finalising the Portuguese dictionary, to test Iris and to compare it with manual coding and with the selection of the Basic Death Cause Selection System (Portuguese acronym is SCB). Methods: The sample was death certificates occurred from January to June of 2014 in nine cities representing the five regions of Brazil. Were selected to compose the sample: routine deaths, DC with mention of communicable disease, infant death, maternal death and DC with mention of external cause or surgery. Phase 1 aimed to complete the dictionary and phase 2 aimed to test and compare Iris. Results: The sample was1848 DC, with an average of 3.1 lines filled by DC. There were 618 adjustments or additions to dictionary tables or standardization tables. In 45.9 per cent of DC Iris coded all causes of death and selected the underlying cause of death. Of the DC that Iris was unable to complete the process, the majority (97.8 per cent) of these rejections were due to difficulty in finding or processing an ICD code. Iris agreement with manual coding at the 4-character, 3- character, and 1-character levels of ICD-10 codes was 73.3 per cent, 78.2 per cent and 83.9 per cent, respectively. This represented a disagreement in 49.1 per cent of DC. The concordance of the underlying cause of death with SCB was 74.2 per cent, 84.3 per cent and 91.8 per cent at the 4- character, 3-character and 1-character levels respectively. The main cause of discordance (71 per cent) was by different codes for the same cause of death. After the small corrections, Iris finalised 66.6 per cent of the DC. Conclusion: The disagreements were caused by coders routines that can vary between them, whereas in Iris the codification of a cause is always the same. The SCB decision tables need to be reviewed. The data show that it is possible to use this tool and that it will decrease the work of the coders. Iris had a good finalisation rate, similar to countries that use it in their routine.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Marchetto, Enrico. « Automatic Speaker Recognition and Characterization by means of Robust Vocal Source Features ». Doctoral thesis, Università degli studi di Padova, 2011. http://hdl.handle.net/11577/3427390.

Texte intégral
Résumé :
Automatic Speaker Recognition is a wide research field, which encompasses many topics: signal processing, human vocal and auditory physiology, statistical modelling, cognitive sciences, and so on. The study of these techniques started about thirty years ago and, since then, the improvement has been dramatic. Nonetheless the field still poses open issues and many active research centers around the world are working towards more reliable and better performing systems. This thesis documents a Philosophiae Doctor project funded by the private held company RT - Radio Trevisan Elettronica Industriale S.p.A. The title of the fellowship is "Automatic speaker recognition with applications to security and intelligence". Part of the work was carried out during a six-month visit in the Speech, Music and Hearing Department of the KTH Royal Institute of Technology, Stockholm. Speaker Recognition research develops techniques to automatically associate a given human voice to a previously recorded version of it. Speaker Recognition is usually further defined as Speaker Identification or Speaker Verification; in the former the identity of a voice has to be found among a (possibly high) number of speaker voices, while in the latter the system is provided with both a voice and a claimed identity, and the association has to be verified as a true/false statement. The recognition systems also provides a confidence score about the found results. The first Part of the thesis reviews the state of the art of Speaker Recognition research. The main components of a recognition system are described: audio features extraction, statistical modelling, and performance assessment. During the years the research community developed a number of Audio Features, use to describe the information carried by the vocal signal in a compact and deterministic way. In every automatic recognition application, even speech or language, the feature extraction process is the first step, in charge of compressing substantially the size of the input data without loosing any important information. The choice of the best fitted features for a specific application, and their tuning, are crucial to obtain satisfactory recognition results; moreover the definition of innovative features is a lively research direction because it is generally recognized that existing features are still far from the exploitation of the whole information load carried by the vocal signal. There are audio features which during the years have proved to perform better than other; some of them are described in Part I: Mel-Frequency Cepstral Coefficients and Linear Prediction Coefficients. More refined and experimental features are also introduced, and will be explained in Part III. Statistical modelling is introduced, particularly by discussing the Gaussian Mixture Models structure and their training through the EM algorithm; specific modelling techniques for recognition, such as Universal Background Model, are described. Scoring is the last phase of a Speaker Recognition process and involves a number of normalizations; it compensates for different recording conditions or model issues. Part I continues presenting a number of audio databases that are commonly used in the literature as benchmark databases to compare results or recognition systems, in particular TIMIT and NIST Speaker Recognition Evaluation - SRE 2004. A recognition prototype system has been built during the PhD project, and it is detailed in Part II. The first Chapter describes the proposed application, referring to intelligence and security. The application fulfils specific requirements of the Authorities when investigations involve phone wiretapping or environmental interceptions. In these cases Authorities have to listen to a large amount of recordings, most of which are not related to the investigations. The application idea is to automatically detect and label speakers, giving the possibility to search for a specific speaker through the recording collection. This can avoid time wasting, resulting in an economical advantage. Many difficulties arises from the phone lines, which are known to degrade the speech signal and cause a reduction of the recognition performances; main issues are the narrow audio bandwidth, the additive noises and the convolution noise, the last resulting in phase distortion. The second Chapter in Part II describes in detail the developed Speaker Recognition system; a number of design choices are discussed. During the development the research scope of the system has been crucial: a lot of effort has been put to obtain a system with good performances and still easily and deeply modifiable. The assessment of results on different databases posed further challenges, which has been solved with a unified interface to the databases. The fundamental components of a speaker recognition system have been developed, with also some speed-up improvements. Lastly, the whole software can run on a cluster computer without any reconfiguration, a crucial characteristic in order to assess performance on big database in reasonable times. During the three-years project some works have been developed which are related to the Speaker Recognition, although not directly involved with it. These developments are described in Part II as extensions of the prototype. First a Voice Activity Detector suitable for noisy recordings is explained. The first step of feature extraction is to find and select, from a given record, only the segments containing voice; this is not a trivial task when the record is noisy and a simple "energy threshold" approach fails. The developed VAD is based on advanced features, computed from Wavelet Transforms, which are further processed using an adaptive threshold. One second developed application is Speaker Diarization: it permits to automatically segment an audio recording when it contains different speakers. The outputs of the diarization are a segmentation and a speaker label for each segment, resulting in a "who speaks when" answer. The third and last collateral work is a Noise Reduction system for voice applications, developed on a hardware DSP. The noise reduction algorithm adaptively detects the noise and reduces it, keeping only the voice; it works in real time using only a slight portion of the DSP computing power. Lastly, Part III discusses innovative audio features, which are the main novel contribution of this thesis. The features are obtained from the glottal flow, therefore the first Chapter in this Part describes the anatomy of the vocal folds and of the vocal tract. The working principle of the phonation apparatus is described and the importance of the vocal folds physics is pointed out. The glottal flow is an input air flow for the vocal tract, which acts as a filter; an open-source toolkit for the inversion of the vocal tract filter is introduced: it permits to estimate the glottal flow from speech records. A description of some methods used to give a numerical characterization to the glottal flow is given. In the subsequent Chapter, a definition of the novel glottal features is presented. The glottal flow estimates are not always reliable, so a first step detects and deletes unlikely flows. A numerical procedure then groups and sorts the flow estimates, preparing them for a statistical modelling. Performance measures are then discussed, comparing the novel features against the standard ones, applied on the reference databases TIMIT and SRE 2004. A Chapter is dedicated to a different research work, related with glottal flow characterization. A physical model of the vocal folds is presented, with a number of control rules, able to describe the vocal folds dynamic. The rules permit to translate a specific pharyngeal muscular set-up in mechanical parameters of the model, which results in a specific glottal flow (obtained after a computer simulation of the model). The so-called Inverse Problem is defined in this way: given a glottal flow it has to be found the muscular set-up which, used to drive a model simulation, can obtain the same glottal flow as the given one. The inverse problem has a number of difficulties in it, such as the non-univocity of the inversion and the sensitivity to slight variations in the input flow. An optimization control technique has been developed and is explained. The final Chapter summarizes the achievements of the thesis. Along with this discussion, a roadmap for the future improvements to the features is sketched. In the end, a resume of the published and submitted articles for both conferences and journals is presented.
Il Riconoscimento Automatico del Parlatore rappresenta un campo di ricerca esteso, che comprende molti argomenti: elaborazione del segnale, fisiologia vocale e dell'apparato uditivo, strumenti di modellazione statistica, studio del linguaggio, ecc. Lo studio di queste tecniche è iniziato circa trenta anni fa e, da allora, ci sono stati grandi miglioramenti. Nondimeno, il campo di ricerca continua a porre questioni e, in tutto il mondo, gruppi di ricerca continuano a lavorare per ottenere sistemi di riconoscimento più affidabili e con prestazioni migliori. La presente tesi documenta un progetto di Philosophiae Doctor finanziato dall'Azienda privata RT - Radio Trevisan Elettronica Industriale S.p.A. Il titolo della borsa di studio è "Riconoscimento automatico del parlatore con applicazioni alla sicurezza e all'intelligence". Parte del lavoro ha avuto luogo durante una visita, durata sei mesi, presso lo Speech, Music and Hearing Department del KTH - Royal Institute of Technology di Stoccolma. La ricerca inerente il Riconoscimento del Parlatore sviluppa tecnologie per associare automaticamente una data voce umana ad una versione precedentemente registrata della stessa. Il Riconoscimento del Parlatore (Speaker Recognition) viene solitamente meglio definito in termini di Verifica o di Identificazione del Parlatore (in letteratura Speaker Verification o Speaker Identification, rispettivamente). L'Identificazione consiste nel recupero dell'identità di una voce fra un numero (anche alto) di voci modellate dal sistema; nella Verifica invece, date una voce ed una identità, si chiede al sistema di verificare l'associazione tra le due. I sistemi di riconoscimento producono anche un punteggio (Score) che attesta l'attendibilità della risposta fornita. La prima Parte della tesi propone una revisione dello stato dell'arte circa il Riconoscimento del Parlatore. Vengono descritte le componenti principali di un prototipo per il riconoscimento: estrazione di Features audio, modellazione statistica e verifica delle prestazioni. Nel tempo, la comunità di ricerca ha sviluppato una quantità di Features Acustiche: si tratta di tecniche per descrivere numericamente il segnale vocale in modo compatto e deterministico. In ogni applicazione di riconoscimento, anche per le parole o il linguaggio (Speech o Language Recognition), l'estrazione di Features è il primo passo: ha lo scopo di ridurre drasticamente la dimensione dei dati di ingresso, ma senza perdere alcuna informazione significativa. La scelta delle Features più idonee ad una specifica applicazione, e la loro taratura, sono cruciali per ottenere buoni risultati di riconoscimento; inoltre, la definizione di nuove features costituisce un attivo campo di ricerca perché la comunità scientifica ritiene che le features esistenti siano ancora lontane dallo sfruttamento dell'intera informazione portata dal segnale vocale. Alcune Features si sono affermate nel tempo per le loro migliori prestazioni: Coefficienti Cepstrali in scala Mel (Mel-Frequency Cepstral Coefficients) e Coefficienti di Predizione Lineare (Linear Prediction Coefficients); tali Features vengono descritte nella Parte I. Viene introdotta anche la modellazione statistica, spiegando la struttura dei Modelli a Misture di Gaussiane (Gaussian Mixture Models) ed il relativo algoritmo di addestramento (Expectation-Maximization). Tecniche di modellazione specifiche, quali Universal Background Model, completano poi la descrizione degli strumenti statistici usati per il riconoscimento. Lo Scoring rappresenta, infine, la fase di produzione dei risultati da parte del sistema di riconoscimento; comprende diverse procedure di normalizzazione che compensano, ad esempio, i problemi di modellazione o le diverse condizioni acustiche con cui i dati audio sono stati registrati. La Parte I prosegue poi presentando alcuni database audio usati comunemente in letteratura quali riferimento per il confronto delle prestazioni dei sistemi di riconoscimento; in particolare, vengono presentati TIMIT e NIST Speaker Recognition Evaluation (SRE) 2004. Tali database sono adatti alla valutazione delle prestazioni su audio di natura telefonica, di interesse per la presente tesi; tale argomento verrà ulteriormente discusso nella Parte II. Durante il progetto di PhD è stato progettato e realizzato un prototipo di sistema di riconoscimento, discusso nella Parte II. Il primo Capitolo descrive l'applicazione di riconoscimento proposta; la tecnologia per Riconoscimento del Parlatore viene applicate alle linee telefoniche, con riferimento alla sicurezza e all'intelligence. L'applicazione risponde a una specifica necessità delle Autorità quando le investigazioni coinvolgono intercettazioni telefoniche. In questi casi le Autorità devono ascoltare grandi quantità di dati telefonici, la maggior parte dei quali risulta essere inutile ai fini investigativi. L'idea applicativa consiste nell'identificazione e nell'etichettatura automatiche dei parlatori presenti nelle intercettazioni, permettendo così la ricerca di uno specifico parlatore presente nella collezione di registrazioni. Questo potrebbe ridurre gli sprechi di tempo, ottenendo così vantaggi economici. L'audio proveniente da linee telefoniche pone difficoltà al riconoscimento automatico, perché degrada significativamente il segnale e peggiora quindi le prestazioni. Vengono generalmente riconosciute alcune problematiche del segnale audio telefonico: banda ridotta, rumore additivo e rumore convolutivo; quest'ultimo causa distorsione di fase, che altera la forma d'onda del segnale. Il secondo Capitolo della Parte II descrive in dettaglio il sistema di Riconoscimento del Parlatore sviluppato; vengono discusse le diverse scelte di progettazione. Sono state sviluppate le componenti fondamentali di un sistema di riconoscimento, con alcune migliorie per contenere il carico computazionale. Durante lo sviluppo si è ritenuto primario lo scopo di ricerca del software da realizzare: è stato profuso molto impegno per ottenere un sistema con buone prestazioni, che però rimanesse semplice da modificare anche in profondità. La necessità (ed opportunità) di verificare le prestazioni del prototipo ha posto ulteriori requisiti allo sviluppo, che sono stati soddisfatti mediante l'adozione di un'interfaccia comune ai diversi database. Infine, tutti i moduli del software sviluppato possono essere eseguiti su un Cluster di Calcolo (calcolatore ad altre prestazioni per il calcolo parallelo); questa caratteristica del prototipo è stata cruciale per permettere una approfondita valutazione delle prestazioni del software in tempi ragionevoli. Durante il lavoro svolto per il progetto di Dottorato sono stati condotti studi affini al Riconoscimento del Parlatore, ma non direttamente correlati ad esso. Questi sviluppi vengono descritti nella Parte II quali estensioni del prototipo. Viene innanzitutto presentato un Rilevatore di Parlato (Voice Activity Detector) adatto all'impiego in presenza di rumore. Questo componente assume particolare importanza quale primo passo dell'estrazione delle Features: è necessario infatti selezionare e mantenere solo i segmenti audio che contengono effettivamente segnale vocale. In situazioni con rilevante rumore di fondo i semplici approcci a "soglia di energia" falliscono. Il Rilevatore realizzato è basato su Features avanzate, ottenute mediante le Trasformate Wavelet, ulteriormente elaborate mediante una sogliatura adattiva. Una seconda applicazione consiste in un prototipo per la Speaker Diarization, ovvero l'etichettatura automatica di registrazioni audio contenenti diversi parlatori. Il risultato del procedimento consiste nella segmentazione dell'audio ed in una serie di etichette, una per ciascun segmento; il sistema fornisce una risposta del tipo "chi parla quando". Il terzo ed ultimo studio collaterale al Riconoscimento del Parlatore consiste nello sviluppo di un sistema di Riduzione del Rumore (Noise Reduction) su piattaforma hardware DSP dedicata. L'algoritmo di Riduzione individua il rumore in modo adattivo e lo riduce, cercando di mantenere solo il segnale vocale; l'elaborazione avviene in tempo reale, pur usando solo una parte molto limitata delle risorse di calcolo del DSP. La Parte III della tesi introduce, infine, Features audio innovative, che costituiscono il principale contributo innovativo della tesi. Tali Features sono ottenute dal flusso glottale, quindi il primo Capitolo della Parte discute l'anatomia del tratto e delle corde vocali. Viene descritto il principio di funzionamento della fonazione e l'importanza della fisica delle corde vocali. Il flusso glottale costituisce un ingresso per il tratto vocale, che agisce come un filtro. Viene descritto uno strumento software open-source per l'inversione del tratto vocale: esso permette la stima del flusso glottale a partire da semplici registrazioni vocali. Alcuni dei metodi usati per caratterizzare numericamente il flusso glottale vengono infine esposti. Nel Capitolo successivo viene presentata la definizione delle nuove Features glottali. Le stime del flusso glottale non sono sempre affidabili quindi, durante l'estrazione delle nuove Features, il primo passo individua ed esclude i flussi giudicati non attendibili. Una procedure numerica provvede poi a raggruppare ed ordinare le stime dei flussi, preparandoli per la modellazione statistica. Le Features glottali, applicate al Riconoscimento del Parlatore sui database TIMIT e NIST SRE 2004, vengono comparate alle Features standard. Il Capitolo finale della Parte III è dedicato ad un diverso lavoro di ricerca, comunque correlato alla caratterizzazione del flusso glottale. Viene presentato un modello fisico delle corde vocali, controllato da alcune regole numeriche, in grado di descrivere la dinamica delle corde stesse. Le regole permettono di tradurre una specifica impostazione dei muscoli glottali nei parametri meccanici del modello, che portano ad un preciso flusso glottale (ottenuto dopo una simulazione al computer del modello). Il cosiddetto Problema Inverso è definito nel seguente modo: dato un flusso glottale si chiede di trovare una impostazione dei muscoli glottali che, usata per guidare il modello fisico, permetta la risintesi di un segnale glottale il più possibile simile a quello dato. Il problema inverso comporta una serie di difficoltà, quali la non-univocità dell'inversione e la sensitività alle variazioni, anche piccole, del flusso di ingresso. E' stata sviluppata una tecnica di ottimizzazione del controllo, che viene descritta. Il capitolo conclusivo della tesi riassume i risultati ottenuti. A fianco di questa discussione è presentata un piano di lavoro per lo sviluppo delle Features introdotte. Vengono infine presentate le pubblicazioni prodotte.
Styles APA, Harvard, Vancouver, ISO, etc.
22

Ghisi, Tatiana Cristina Schneider. « O índice de desenvolvimento humano como o subsídio ao planejamento urbano no município de Francisco Beltrão - PR ». Universidade Tecnológica Federal do Paraná, 2016. http://repositorio.utfpr.edu.br/jspui/handle/1/1945.

Texte intégral
Résumé :
A presente dissertação constitui um estudo de caso aplicado no município de Francisco Beltrão, localizado no sudoeste do estado do Paraná. A escala de trabalho contempla os limites urbanos do município através da análise pelo Sistema de Informação Geográfica – SIG. O objetivo desse estudo é realizar um levantamento quantitativo dos índices de desenvolvimento humano nos bairros de Francisco Beltrão mensurando a qualidade de vida urbana. Como complementação, buscou-se analisar a cidade através de seu contexto histórico de expansão urbana e demais condicionantes que envolvem as questões urbanas: infraestrutura, equipamentos urbanos, áreas verdes, vazios urbanos e problemas urbanos. Todos esses fatores foram determinantes para a contextualização e avaliação dos resultados obtidos. Para complementar a análise foi realizada um estudo sobre a evolução das cidades voltado para o planejamento urbano. Também buscou-se apresentar o conceito de qualidade de vida, como forma de mensuração e utilização de uma ferramenta para o planejamento urbano. A qualidade de vida pode ser mensurada como uma condição de vida objetiva, através de índices que representam qual é o padrão social que a população vive, assim como quais as necessidades para melhorias e em que setores as organizações públicas devem atuar. A metodologia aplicada foi a mensuração da qualidade de vida composta por um índice a partir de indicadores de qualidade ambiental, nível socioeconômico e educação. Para a composição dos dados, espacialização e processamento utilizou-se técnicas do SIG. Foram coletadas informações cartográficas, dados dos setores censitários, pesquisa em fontes institucionais e levantamento através da pesquisa de campo. A principal fonte de referências partiu das informações disponíveis, principalmente do IBGE e dos órgãos públicos atuantes no município. Os resultados obtidos demonstram a contextualização da expansão urbana, bem como a compreensão das condicionantes encontradas atualmente. Quanto a análise dos mapas temáticos de qualidade de vida urbana, foi possível identificar as disparidades de índices com relação as áreas centrais e periféricas da cidade. Com o apoio dos mapas temáticos discute-se os resultados obtidos da qualidade de vida urbana, destacando-se os resultados mais favoráveis e as situações que devem ser tomadas medidas de intervenção através do planejamento urbano pela gestão pública.
This dissertation is a study case applied in the municipality of Francisco Beltrão, located in the southwestern state of Paraná. The working range includes the urban boundaries of the municipality by analyzing generated by the Geographic Information System - GIS. The aim of this study is to conduct a quantitative survey of human development indices in the neighborhood of the city of Francisco Beltrão measuring the quality of urban life. As a complement, it sought to analyze the city through its historical context of urban expansion and other conditions involving urban issues: infrastructure, urban facilities, green areas, urban voids and urban problems. All these factors were decisive in the context and evaluation of results. To complement the analysis, it was carried out a study on the evolution of cities facing urban planning. Also sought to introduce the concept of quality of life as a way to measure and use of a tool for urban planning. Quality of life can be measured as an objective condition of life through indexes that represent what is the social pattern that the population lives, and where the needs for improvement and in which sectors the public organizations must act. The methodology used was the measurement of quality of life made by an index from indicators of environmental quality, socioeconomic status and education. For the composition of the data, and spatial processing was used techniques of GIS. Cartographic information, data from census sectors, research on institutional sources and survey through field research were collected. The main source of reference set out the information available mainly from the IBGE and public bodies operating in the municipality. The results demonstrate the context of urban expansion, as well as understanding of the conditions currently found. The analysis of thematic maps of urban quality of life, it was possible to identify the rates of disparities regarding the central and peripheral areas of the city. With the support of thematic maps discusses the results of the quality of urban life, highlighting the most favorable results and situations that should be taken intervention measures through urban planning by the public administration.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Verzotto, Davide. « Advanced Computational Methods for Massive Biological Sequence Analysis ». Doctoral thesis, Università degli studi di Padova, 2011. http://hdl.handle.net/11577/3426282.

Texte intégral
Résumé :
With the advent of modern sequencing technologies massive amounts of biological data, from protein sequences to entire genomes, are becoming increasingly available. This poses the need for the automatic analysis and classification of such a huge collection of data, in order to enhance knowledge in the Life Sciences. Although many research efforts have been made to mathematically model this information, for example finding patterns and similarities among protein or genome sequences, these approaches often lack structures that address specific biological issues. In this thesis, we present novel computational methods for three fundamental problems in molecular biology: the detection of remote evolutionary relationships among protein sequences, the identification of subtle biological signals in related genome or protein functional sites, and the phylogeny reconstruction by means of whole-genome comparisons. The main contribution is given by a systematic analysis of patterns that may affect these tasks, leading to the design of practical and efficient new pattern discovery tools. We thus introduce two advanced paradigms of pattern discovery and filtering based on the insight that functional and conserved biological motifs, or patterns, should lie in different sites of sequences. This enables to carry out space-conscious approaches that avoid a multiple counting of the same patterns. The first paradigm considered, namely irredundant common motifs, concerns the discovery of common patterns, for two sequences, that have occurrences not covered by other patterns, whose coverage is defined by means of specificity and extension. The second paradigm, namely underlying motifs, concerns the filtering of patterns, from a given set, that have occurrences not overlapping other patterns with higher priority, where priority is defined by lexicographic properties of patterns on the boundary between pattern matching and statistical analysis. We develop three practical methods directly based on these advanced paradigms. Experimental results indicate that we are able to identify subtle similarities among biological sequences, using the same type of information only once. In particular, we employ the irredundant common motifs and the statistics based on these patterns to solve the remote protein homology detection problem. Results show that our approach, called Irredundant Class, outperforms the state-of-the-art methods in a challenging benchmark for protein analysis. Afterwards, we establish how to compare and filter a large number of complex motifs (e.g., degenerate motifs) obtained from modern motif discovery tools, in order to identify subtle signals in different biological contexts. In this case we employ the notion of underlying motifs. Tests on large protein families indicate that we drastically reduce the number of motifs that scientists should manually inspect, further highlighting the actual functional motifs. Finally, we combine the two proposed paradigms to allow the comparison of whole genomes, and thus the construction of a novel and practical distance function. With our method, called Unic Subword Approach, we relate to each other the regions of two genome sequences by selecting conserved motifs during evolution. Experimental results show that our approach achieves better performance than other state-of-the-art methods in the whole-genome phylogeny reconstruction of viruses, prokaryotes, and unicellular eukaryotes, further identifying the major clades of these organisms.
Con l'avvento delle moderne tecnologie di sequenziamento, massive quantità di dati biologici, da sequenze proteiche fino a interi genomi, sono disponibili per la ricerca. Questo progresso richiede l'analisi e la classificazione automatica di tali collezioni di dati, al fine di migliorare la conoscenza nel campo delle Scienze della Vita. Nonostante finora siano stati proposti molti approcci per modellare matematicamente le sequenze biologiche, ad esempio cercando pattern e similarità tra sequenze genomiche o proteiche, questi metodi spesso mancano di strutture in grado di indirizzare specifiche questioni biologiche. In questa tesi, presentiamo nuovi metodi computazionali per tre problemi fondamentali della biologia molecolare: la scoperta di relazioni evolutive remote tra sequenze proteiche, l'individuazione di segnali biologici complessi in siti funzionali tra loro correlati, e la ricostruzione della filogenesi di un insieme di organismi, attraverso la comparazione di interi genomi. Il principale contributo è dato dall'analisi sistematica dei pattern che possono interessare questi problemi, portando alla progettazione di nuovi strumenti computazionali efficaci ed efficienti. Vengono introdotti così due paradigmi avanzati per la scoperta e il filtraggio di pattern, basati sull'osservazione che i motivi biologici funzionali, o pattern, sono localizzati in differenti regioni delle sequenze in esame. Questa osservazione consente di realizzare approcci parsimoniosi in grado di evitare un conteggio multiplo degli stessi pattern. Il primo paradigma considerato, ovvero irredundant common motifs, riguarda la scoperta di pattern comuni a coppie di sequenze che hanno occorrenze non coperte da altri pattern, la cui copertura è definita da una maggiore specificità e/o possibile estensione dei pattern. Il secondo paradigma, ovvero underlying motifs, riguarda il filtraggio di pattern che hanno occorrenze non sovrapposte a quelle di altri pattern con maggiore priorità, dove la priorità è definita da proprietà lessicografiche dei pattern al confine tra pattern matching e analisi statistica. Sono stati sviluppati tre metodi computazionali basati su questi paradigmi avanzati. I risultati sperimentali indicano che i nostri metodi sono in grado di identificare le principali similitudini tra sequenze biologiche, utilizzando l'informazione presente in maniera non ridondante. In particolare, impiegando gli irredundant common motifs e le statistiche basate su questi pattern risolviamo il problema della rilevazione di omologie remote tra proteine. I risultati evidenziano che il nostro approccio, chiamato Irredundant Class, ottiene ottime prestazioni su un benchmark impegnativo, e migliora i metodi allo stato dell'arte. Inoltre, per individuare segnali biologici complessi utilizziamo la nozione di underlying motifs, definendo così alcune modalità per il confronto e il filtraggio di motivi degenerati ottenuti tramite moderni strumenti di pattern discovery. Esperimenti su grandi famiglie proteiche dimostrano che il nostro metodo riduce drasticamente il numero di motivi che gli scienziati dovrebbero altrimenti ispezionare manualmente, mettendo in luce inoltre i motivi funzionali identificati in letteratura. Infine, combinando i due paradigmi proposti presentiamo una nuova e pratica funzione di distanza tra interi genomi. Con il nostro metodo, chiamato Unic Subword Approach, relazioniamo tra loro le diverse regioni di due sequenze genomiche, selezionando i motivi conservati durante l'evoluzione. I risultati sperimentali evidenziano che il nostro approccio offre migliori prestazioni rispetto ad altri metodi allo stato dell'arte nella ricostruzione della filogenesi di organismi quali virus, procarioti ed eucarioti unicellulari, identificando inoltre le sottoclassi principali di queste specie.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Silva, Wenderson Alexandre de Sousa. « Aspectos de física estatística na evolução e no crescimento molecular ». Universidade de São Paulo, 2009. http://www.teses.usp.br/teses/disponiveis/87/87131/tde-22022010-163030/.

Texte intégral
Résumé :
A evolução molecular, impulsionada pela Teoria Sintética da Evolução, tornou um assunto indispensável na compreensão da evolução da vida. O crescimento genômico, etapa responsável pelo maior potencial de armazenamento de informação e estabilidade, também foi submetido à indelével ação da seleção natural. Utilizando a metodologia dos ciclos de amplificação-mutação-seleção, tal como o SELEX (systematic evolution of ligands by exponential enrichment), que mimetizam a seleção natural, e ferramentas da Teoria de Informação, foram desenvolvidos e implementados programas para simular a evolução, considerando, além de outros, um parâmetro pouco explorado na literatura: a variação do tamanho do genoma. Foram estudados dois cenários distintos; no primeiro a seleção era dependente da busca exata de uma sequência pré-determinada (o filtro). Além disso, a entropia de Shannon considerada era referente ao alinhamento da molécula toda. Avaliando configurações simples desse modelo, foi possível desenvolver uma equação analítica que descreveu bem os resultados (para tamanho de genoma constante). No segundo cenário, foram exploradas a seleção não específica de uma sequência, o número máximo de bases constante, a entropia apenas das regiões de interesse e a presença de até cinco filtros de seleção. A entropia da molécula toda se mostrou pouco significativa (primeiro cenário), diferentemente da avaliada em apenas uma região. Foi possível observar que o crescimento do genoma foi pouco acentuado, predominando as moléculas menores, mesmo com grande quantidade de filtros, o que indica que o sistema está sob \"seleção por compressão\", sendo, pois, necessário atribuir explicitamente vantagens às moléculas mais complexas para poder haver aumento no crescimento médio.
Molecular Evolution, stimulated and supported by Evolution Synthetic Theory, became essential to understand evolution of life. Genomic growth was responsible to increase the capacity of storage information and to stability of the molecule; besides, it was also submitted to natural selection. Using amplification-mutation-selection methodology, such as SELEX (systematic evolution of ligands by exponential enrichment), and tools of Information Theory, it was developed computer program to simulate macromolecule evolution taking into account, besides other, a less study parameter in specialized journal: the genome size variation. It was studied two different scenarios. In the first one, selection was dependent of a specific sequence to be searched; moreover, Shannon entropy took into account all nucleotides of all molecules and it was studied with until two sequence target. It was possible develop an analytical equation to well describe simple settings of this model. In the second scenario, in another hand, selection depends on a specific sequence, but is not required to match the whole sequence. Also, to compute Shannon entropy it was taking into account only the least Hamming distance sequence of each molecule. It was studied until five sequence target in this scenario. Entropy was not significant in first scenario as it was in the second one. Size genome evolution shows the system were under compression selection, being necessary to get other advantage to become possible an increase in genome size.
Styles APA, Harvard, Vancouver, ISO, etc.
25

Biju, Bárbara Pavani. « Utilização do sistema de informação geográfica (SIG) na indicação de possíveis áreas aptas à disposição de resíduos de construção e de demolição ». Universidade Tecnológica Federal do Paraná, 2015. http://repositorio.utfpr.edu.br/jspui/handle/1/1328.

Texte intégral
Résumé :
CAPES
Os resíduos oriundos da construção e demolição quando não têm uma destinação final adequada acarretam em problemas de ordem social, econômica e ambiental. O descarte que muitas vezes acontece em locais inapropriados, demonstra a necessidade de áreas para a correta disposição final em acordo com as normas vigentes. Visando a diminuição dos impactos causados por esse tipo de resíduos, buscando atender a legislação pertinente, a indicação de áreas aptas à implantação de aterros de resíduos de construção e demolição ou aterro classe A faz-se necessária. Para isso, foi utilizada a ferramenta de Sistema de Informação Geográfica (SIG), apoiada pela análise e decisão por multicritérios. O SIG utilizado como ferramenta base na identificação de possíveis áreas adequadas tem como vantagem: o baixo custo; maior rapidez no processo de tomada de decisão e a diversidade de cenários que podem ser analisados ao mesmo tempo, sendo de grande valia nas etapas de gerenciamento dos resíduos de construção e demolição. Integrando o SIG com a ferramenta de análise e tomada de decisão por multicritérios, tem-se como resultado a indicação de possíveis áreas aptas à implantação de aterros de construção civil e inertes para o Núcleo Central Urbano da Região Metropolitana de Curitiba.
The construction and demolition (C&D) waste when do not have a proper final disposal; result in social, economic and environmental problems. The disposal often happens in inappropriate locations and demonstrates the necessity of adequate areas for the waste final disposal but also the selected site must be in accordance with local standards and regulations. Considering all these facts, the aim of this work is to indicate possible suitable areas for C&D waste landfill, using the Geographic Information System (GIS) tool, supported by Multi-criteria Decision Analysis (MCDA). The GIS used as a basic tool to identify possible suitable areas has several advantages: low cost; faster decision-making process and various scenarios can be analyzed simultaneously, being a valuable tool in all the construction and demolition waste management steps. Integrating GIS with MCDA has resulted in the indication of possible suitable areas for C&D waste disposal, having as a study area the Urban Central Core of Metropolitan Region of Curitiba. Keywords: Geographic Information System. Co
Styles APA, Harvard, Vancouver, ISO, etc.
26

Sá, Marcia Martiniano de Sousa e. « Registros Hospitalares de Câncer de São Paulo : produção e utilização de informações ». Universidade de São Paulo, 2017. http://www.teses.usp.br/teses/disponiveis/5/5137/tde-11052017-144425/.

Texte intégral
Résumé :
Introdução - O Registro de Câncer foi proposto para coletar, gerir e analisar dados de pacientes com câncer, e é considerado parte essencial de qualquer programa de controle de câncer. Os dados têm potencial para serem utilizados em investigação etiológica, prevenção primária e secundária, planejamento de cuidados de saúde e assistência ao paciente, sendo proposto para acompanhar os pacientes nos hospitais em que realizam o tratamento. Objetivo - Estudar a produção de informações nos Registros Hospitalares de Câncer e as condições para a sua utilização na pesquisa e gestão nos serviços de oncologia no Município de São Paulo. Para isso, foi analisada a base de dados disponível na FOSP e foram realizadas entrevistas com gestores de registro de câncer do município de São Paulo. Resultados e Discussão - A análise dos indicadores produzidos pela FOSP mostram a qualidade dos dados e as principais tendências entre pacientes atendidos em hospitais com RHC. Quando os gestores foram questionados sobre o que poderia melhorar a qualidade do RHC, três pontos foram os principais: a formação dos registradores, a melhoria das informações clínicas no prontuário e a possibilidade de calcular a curva de sobrevida dos pacientes. Em relação à produção de indicadores, foi observada a pouca compreensão entre os gestores sobre as suas definições técnicas e que utilizam os dados disponíveis no sistema da FOSP, mas não de forma rotineira. Conclusão - Os RHC mostraram-se heterogêneos e há dificuldade na produção da informação. Demonstrar aos gestores as informações disponíveis no RHC por meio de relatórios periódicos contendo as análises dos casos e os indicadores de qualidade pode sensibilizar a gestão sobre a potencialidade do uso das informações, e, com isso, gerar ciclos de melhoria no próprio registro de câncer, e, a partir de então, propor melhorias no serviço de oncologia. Aumentar a visualização do RHC pode ser uma forma de aumentar a credibilidade do serviço, e, assim, aumentar sua utilização
Introduction - The Cancer Registry has been designated to collect, manage and analyze the data of patients with cancer and it is considered the essential part to any program of cancer control. Data have potential to be used in etiological investigation, primary and secondary prevention, planning of healthcare to patient, being proposed to assist the patients at the hospitals where they had the treatment. Objects - The purpose is to study the production of information at the Cancer Registry Hospital (CRH) and the conditions to its using at the research and the management at the oncology service at the municipality of São Paulo. Results and discussion - The analysis of the indicators produced by FOSP show the data quality and the main tendency between patients attended in hospitals with CRH. When the managers where questioned about what could improve the CRC´s qualities three points were the main one: register´s education, improvement of the clinical information in the charts and the possibility to calculate the patient´s survival curve. In relation to production indicators, a manager demonstrated total lack of knowledge about the subject, the others answered that they used those which are available in the FOSP´s system but not as a routine. When the managers where questioned about what could improve the CRC´s qualities three points were the main one: register´s education, improvement of the clinical information in the charts and the possibility to calculate the patient´s survival curve. Conclusion - The CRH has been shown as heterogeneous and there are difficulties in production of information. To demonstrate to managers the available information in RHC trough periodic reports containing the cases analysis and the quality indicator might sensitize the management about the potentiality of using of information and generate improvement cycle in its own cancer register and from then on to propose improvements in the oncology services. To raise the visualization of RHC might be a way to increase the credibility of the service and thus increase its use
Styles APA, Harvard, Vancouver, ISO, etc.
27

Cerqueira, Mauricio da Concei????o Passos. « An??lise da evolu????o de T.I. numa corretora de seguros sob a ??tica do modelo DEQ : um estudo de caso ». FECAP - Faculdade Escola de Com??rcio ??lvares Penteado, 2004. http://132.0.0.61:8080/tede/handle/tede/635.

Texte intégral
Résumé :
Made available in DSpace on 2015-12-04T11:45:32Z (GMT). No. of bitstreams: 1 Mauricio_da_Conceicao_Passos_Cerqueira.pdf: 1452284 bytes, checksum: 22ebb81abb78a4ac11bb7e1f848b2961 (MD5) Previous issue date: 2004-09-27
The principal aim of this dissertation it's to verifying if the use of Information Technology (I.T.) in a Insurance Broker Company provides best information to this. The major emphasis in I.T. occurs in the implantation of a corporative data warehouse that lately should be used like a query source. In the proposed model, are use some others tools with specific application. First, it's proposed the Activity Based Costing (ABC) like a pattern for input data. It's be used in searching of the data quality. It's used too the Bayesian Theorem like a statistical tool in search of the best use for selected information during the decision-making process. Evaluating the use of data warehouse with this tools, it's make use of Quantified Exception Decision with the aim to compare the actual situation, the solution project and the future scenery. In the conclusion of this work, using DEQ tool, it was possible to prove the hypothesis of competitive improvement across the use of Information Technology (I.T.). It's proposed that I.T. can produce good effects to other kinds of companies and not only to Insurance Broker Companies.
O objetivo principal desta disserta????o ?? verificar se a utiliza????o da Tecnologia da Informa????o (T.I) em uma Corretora de Seguros faz com que a empresa obtenha melhores informa????es. A ??nfase maior em Tecnologia da Informa????o est?? a proposta de implanta????o de um data warehouse corporativo que posteriormente serviria de fonte de consultas. O modelo proposto, s??o utilizadas outras ferramentas com fins espec??ficos. Primeiramente, ?? colocado o custeio por Atividade (Activity Based Costing - ABC) como uma forma de padroniza????o na entrada de dados. Sua utiliza????o se d?? pela busca na qualidade dos dados. ?? utilizada tamb??m o Teorema de Bayes como ferramenta estat??stica na busca de melhor direcionamento das informa????es selecionadas durante o processo de tomada de decis??es. Avaliando a utiliza????o do data warehouse com estas duas ferramentas como acess??rios, faz-se uso da ferramenta de Decis??o por Exce????o Quantificada (DEQ) com o intuito de comparar a situa????o atual, do projeto da solu????o e do cen??rio futuro. Na conclus??o deste trabalho, por meio da ferramenta DEQ, foi poss??vel a comprova????o da hip??tese de gera????o de melhores informa????es atrav??s da utiliza????o da Tecnologia da Informa????o (T.I.). Tamb??m sugere-se que a T.I. pode produzir efeitos ben??ficos em outras empresas e ao somente a Corretoras de Seguros.
Styles APA, Harvard, Vancouver, ISO, etc.
28

Fasina, Neto João. « Estudo da distribuição espacial da vegetação natural em Areas de Preservação Permanente : subsidios a gestão da APA Municipal de Campinas (SP) ». [s.n.], 2007. http://repositorio.unicamp.br/jspui/handle/REPOSIP/286876.

Texte intégral
Résumé :
Orientador: Lindon Fonseca Matias
Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Geociencias
Made available in DSpace on 2018-08-09T00:53:44Z (GMT). No. of bitstreams: 1 FasinaNeto_Joao_M.pdf: 54741769 bytes, checksum: f1592f15220f7ff4c901e97f61b37a62 (MD5) Previous issue date: 2007
Resumo: As Áreas de Preservação Permanente (APPs) e as Áreas de Proteção Ambiental (APAs) são instrumentos jurídicos definidos por Legislação Federal, que prevê a criação de unidades territoriais com o intuito de proteger a diversidade biológica e garantir a qualidade ambiental dos ecossistemas. O presente trabalho tem como objetivo central avaliar a distribuição espacial da vegetação natural em APPs. O recorte escolhido foi a APA Municipal de Campinas, que ocupa uma região estratégica em recursos naturais e culturais; mas que, no entanto, tem-se mostrado bastante vulnerável aos impactos ambientais produzidos durante os processos de uso e ocupação do território, culminando com grande parte de suas APPs desprovidas de vegetação natural e em situação de conflito com a legislação. O mapeamento e análise obedeceram a seguinte seqüência: (1) mapeamento da vegetação natural e uso da terra; (2) mapeamento das APPs; e (3) integração e análise dos dados obtidos. Os resultados foram editados em uma base cartográfica dinâmica, que permite, de forma interativo-amigável, visualizar e consultar informações sobre a configuração dos elementos naturais e culturais da área de estudo, contribuindo para a construção de um conhecimento crítico, fundamental à identificação de soluções alternativas de gestão territorial para a introdução de medidas de recuperação e conservação
Abstract: The Permanent Preservation Areas (PPAs) and the Environmental Protection Areas (EPAs) are juridical instruments defined by Brazilian Federal Legislation, which takes care of the creation of territorial units, with the purpose of protecting biological diversity and to guaranteeing the environmental quality of the ecosystems. The purpose of this work is to evaluate the spatial distribution of the natural vegetation in PPAs. The chosen region was the EPA of Campinas City, in the State of São Paulo, Brazil, which occupies a strategic region in natural and cultural resources; however, it has shown itself to be quite vulnerable to the environmental impacts produced during the processes of territorial utilization and occupancy, resulting in a great part of the PPAs being deprived of their natural vegetation and left in a conflict situation with legislation. The mapping and analysis was done according to the following sequence: (1) mapping of the natural vegetation and land use; (2) mapping of the PPAs; and (3) integration and analysis of the obtained data. The results were edited in a dynamic cartographic base, which permits, in an interact-friendly way, to visualize and query informations about the natural and cultural elements configuration of the studied area, which serves as an aid for the construction of a fundamental critical knowledge to identify territorial management alternative solutions to introduce recuperation and conservation actions
Mestrado
Análise Ambiental e Dinâmica Territorial
Mestre em Geografia
Styles APA, Harvard, Vancouver, ISO, etc.
29

Ferreira, Jacson Hudson Inácio. « Uma contribuição ao estudo da estimativa do potencial hidrelétrico de pequenas centrais hidráulicas ». Universidade Federal de Uberlândia, 2014. https://repositorio.ufu.br/handle/123456789/14586.

Texte intégral
Résumé :
The aim of this masterthesis is to study and develop a methodology for the first stage of the deployment of a Small Hydraulic Plant (SHP), the Estimate Hydroelectric Potential, stage in which is studied the favorable and unfavorable situations to the deployment of small plants. Basing on environmental, technical and economic criteria of a watershed, according secondary data that are provided by agencies and institutions responsible for each criterion. Data collections for the study observe the geological and geotechnical, environmental, infrastructure and logistics, water availability and topography aspects. Moreover, it presents the use of GIS (Geographic Information Systems) to generate maps where relevant aspects are presented and analyzed, and it use the Hydrology Statistics for the hydrological study, to verify the flow of a river or precipitation at a local or region. At the end, it presents the estimate average energy generated, or average power, basing first on the variation of flow over an average year, and constant height, then with constant values of flow and height, estimating the specific power location, the type of water turbine, power and voltage of electric generator. It was applied a study case of the methodology in the watershed of the Tijuco river, limited to the city of Ituiutaba MG.
Esta dissertação tem como objetivo estudar e desenvolver uma metodologia para a primeira etapa do ciclo de implantação de uma Pequenas Centrais Hidráulica (PCH), a Estimativa do Potencial Hidrelétrico, etapa em que se estudam as situações favoráveis e desfavoráveis à implantação de pequenas usinas. Basea-se em critérios socioambientais, técnicos e econômicos de uma bacia hidrográfica, conforme dados secundários que são disponibilizados pelas agências e instituições responsáveis por cada critério. Os dados da coleta para o estudo observam os aspectos geológicos geotécnicos, socioambientais, infraestrutura e logística, disponibilidade hídrica e topografia. Além disso, apresenta o uso da ferramenta de Sistema de Informação Geográfica SIG, sistema com capacidade para aquisição, manipulação e exibição de informações digitais georreferenciadas, capaz de gerar mapas onde os aspectos relevantes são apresentados e analisados, e utiliza a Hidrologia Estatística para o estudo hidrológico, onde se verifica a vazão de um rio ou a precipitação em um local ou região. Ao final, apresenta a estimativa da energia média gerada, ou potência média, baseando-se primeiro na variação dos valores de vazão ao longo de um ano médio, e queda constante, depois com valores constantes de vazão e queda, estimando a potência específica do local, o tipo de turbina hidráulica, potência e tensão do gerador elétrico. Foi aplicado um estudo de caso da metodologia em questão na bacia hidrográfica do rio Tijuco, limitado ao município de Ituiutaba MG.
Mestre em Ciências
Styles APA, Harvard, Vancouver, ISO, etc.
30

Paraiso, Maria Leticia de Souza. « Avaliação do impacto à saúde causado pela queima prévia de palha de cana-de-açúcar no Estado de São Paulo ». Universidade de São Paulo, 2013. http://www.teses.usp.br/teses/disponiveis/5/5137/tde-20022014-145043/.

Texte intégral
Résumé :
O etanol de cana-de-açúcar se consolida como combustível renovável, o que promove nova expansão da cultura da cana-de-açúcar no Brasil e, principalmente, no Estado de São Paulo. Como a queima prévia controlada da palha de cana-de-açúcar ainda é considerada uma prática agrícola necessária para a viabilização econômica da colheita, em mais de 70% dos municípios do Estado de São Paulo a população é obrigada a conviver com essa poluição. Para estudar a distribuição desse fator de risco e sua relação com a saúde, realizei um estudo epidemiológico ecológico nos 645 municípios de São Paulo. Usei um modelo Bayesiano de regressão multivariada relacionando os efeitos na saúde com a exposição à queima prévia da palha de cana-de-açúcar, sendo controlados os efeitos das variações socioeconômicas (saneamento, educação e renda) e climáticas (temperatura máxima, umidade mínima e precipitação), através da inserção das mesmas no modelo. O efeito sobre a saúde foi medido por meio da Razão de Mortalidade e Morbidade Padronizada (RMP) dos desfechos: óbitos por doenças respiratórias nas faixas etárias acima de 65 anos e internações por doença respiratória, nas faixas etárias menores de 5 anos e acima de 65 anos de cada um dos municípios. Usei como medida de exposição à queima prévia dados obtidos no INPE: percentual da área de cana colhida com queima (PMQ), níveis médios de Aerossol e Focos de queima, testadas separadamente. Para resolver a autocorrelação entre os dados, estes foram considerados conforme sua disposição espacial, através da construção de uma matriz de vizinhança dos 645 municípios do Estado. Utilizei o método de simulação de Monte Carlo via Cadeias de Markov (MCMC) para \'suavizar\' as estimativas da RMP. A análise demonstrou que existe associação entre a queima prévia da palha de cana-de-açúcar e a ocorrência de doenças respiratórias, porque o aumento nos focos de queima (Focos) esteve associado significativamente com o aumento das internações por doenças respiratórias, na faixa etária de menores de cinco anos. Os resultados mostraram que a queima prévia da palha da cana-de-açúcar oferece efetivamente risco à saúde da população e, adicionados aos mapas coropléticos gerados, oferecem subsídios para a vigilância epidemiológica e contribuem para o estabelecimento de políticas públicas para controle da poluição do ar, que contemplem além dos grandes centros urbanos, os pequenos municípios. A eliminação desse fator de risco deve fazer parte das medidas primordiais de prevenção à saúde a serem adotadas no Estado
Ethanol from sugarcane is consolidated as a renewable fuel which promotes further expansion of the culture of sugarcane in Brazil and especially in the State of São Paulo. As the controlled pre-harvest burning of sugarcane straw is still considered an agricultural practice necessary for the economic viability of this crop in more than 70% of municipalities in the State of São Paulo the population is forced to live with this pollution. To study the distribution of this risk factor and its relationship with the health of the population, I conducted an ecological study in the 645 municipalities of São Paulo. I used a Bayesian multivariate regression model relating the health effects and the exposure to previous straw burning of sugarcane, controlling the effects of socioeconomic factors (sanitation, education and income) and climate (maximum temperature, minimum humidity and precipitation) by the insertion of these variables in the model. The effect on health was measured by Standardized Mortality and Morbidity Ratio (SMR) of the outcomes: deaths from respiratory diseases in the age group above 65 years old and admissions for respiratory disease in children less than 5 years old and above 65 years old of each of the municipalities. I used as a measure of exposure to the pre-harvest burning data obtained at INPE: percent of sugarcane area harvest with burning (PMQ), levels of Aerosol and Spotlights of burning, tested separately. To solve the autocorrelation in the data these were considered as their spatial arrangement, by building a neighborhood matrix of the 645 municipalities in the state. I used the Markov Chain-Monte Carlo simulation method (MCMC) to \'soften\' the estimates of the SMR. The analysis showed that there is an association between previous straw burning of sugarcane and respiratory diseases, because the increase in outbreaks of burning (Spotlights) was significantly associated with increased hospital admissions for respiratory diseases in children aged under five years old. The results show that the previous straw burning of sugarcane effectively offers health risk to the population and added to the choropleth maps generated provide valuable information for epidemiological surveillance and contribute to the establishment of public policies for the control of air pollution, which should contemplate beyond the major urban centers, the small towns. The elimination of this risk factor should be part of a primordial prevention measure to be taken in the state
Styles APA, Harvard, Vancouver, ISO, etc.
31

Jaume, Bennasar Andrés. « Las nuevas tecnologías en la administración de justicia. La validez y eficacia del documento electrónico en sede procesal ». Doctoral thesis, Universitat de les Illes Balears, 2009. http://hdl.handle.net/10803/9415.

Texte intégral
Résumé :
La tesis se encarga de analizar, por un lado, la integración y el desarrollo de las nuevas tecnologías en la Administración de Justicia; y, por otro, los parámetros que constituyen la validez y eficacia del documento electrónico.
La primera cuestión se centra en la configuración de los Sistemas de Información de la Oficina Judicial y del Ministerio Fiscal, así como de la informatización de los Registros Civiles, donde el art. 230 LOPJ es la pieza clave. Se estudian sus programas, aplicaciones, la videoconferencia, los ficheros judiciales y las redes de telecomunicaciones que poseen la cobertura de la firma electrónica reconocida, donde cobran gran relevancia los convenios de colaboración tecnológica. La digitalización de las vistas quizá sea una de las cuestiones con más trascendencia, teniendo en cuenta que el juicio es el acto que culmina el proceso. Aunque no todos los proyectos adoptados en el ámbito de la e.justicia se han desarrollado de forma integral, ni han llegado a la totalidad de los órganos judiciales. El objetivo final es lograr una Justicia más ágil y de calidad, a lo cual aspira el Plan Estratégico de Modernización de la Justicia 2009-2012 aprobado recientemente.
En referencia a la segunda perspectiva, no cabe duda que el Ordenamiento jurídico y los tribunales, en el ámbito de la justicia material, otorgan plena validez y eficacia al documento electrónico. Nuestra línea de investigación se justifica porque cada vez son más los procesos que incorporan soportes electrónicos de todo tipo, ya sea al plantearse la acción o posteriormente como medio de prueba (art. 299.2 LEC). Entre otros temas examinamos el documento informático, la problemática que rodea al fax, los sistemas de videograbación y el contrato electrónico.
La tesi s'encarrega d'analitzar, per una part, la integració i el desenvolupament de les noves tecnologies dins l´Administració de Justícia; i, per l'altra, els paràmetres que constitueixen la validesa i l'eficàcia del document electrònic.
La primera qüestió es centra en la configuració dels Sistemes d´Informació de l´Oficina Judicial i del Ministeri Fiscal, així com de la informatització dels Registres Civils, on l'art. 230 LOPJ es la peça clau. S'estudien els seus programes, aplicacions, la videoconferència, el fitxers judicials i les xarxes de telecomunicacions que tenen la cobertura de la firma electrònica reconeguda, on cobren gran rellevància els convenis de col·laboració tecnològica. La digitalització de les vistes tal vegada sigui una de les qüestions amb més transcendència, tenint amb compte que el judici es l'acte que culmina el procés. Però no tots el projectes adoptats en l'àmbit de la e.justicia s'han desenvolupat d'una manera integral ni han arribat a la totalitat dels òrgans judicials. L'objectiu final es assolir una Justícia més àgil i de qualitat, al que aspira el Pla Estratègic de Modernització de la Justícia 2009-2012 aprovat recentment.
En referència a la segona perspectiva, no hi ha dubte que l´Ordenament jurídic i els tribunals, en l'àmbit de la justícia material, donen plena validesa i eficàcia al document electrònic. La nostra línia d'investigació es justifica perquè cada vegada son més el processos que incorporen suports electrònics de tot tipus, ja sigui quant es planteja l'acció o posteriorment como a medi de prova (art. 299.2 LEC). Entre altres temes examinem el document informàtic, la problemàtica que envolta al fax, els sistemes de videogravació i el contracte electrònic.
The thesis seeks to analyse, on the one hand, the integration and development of the new technologies in the Administration of Justice; and, on the other, the parameters which constitute the validity and efficiency of the electronic document.
The first question centres on the configuration of the Information Systems of the Judicial Office and the Public Prosecutor, as well as the computerisation of the Civil Registers, where the art. 230 LOPJ it's the part key. Their programmes, applications, the Video Conferencing, the judicial registers and the telecommunication networks which are covered by the recognised electronic signatures, are studied, where the agreements on technological collaboration gain great relevance. The digitalisation of evidence might perhaps be one of the questions with most consequence, bearing in mind that the judgment is the act by which the process is culminated. Although not all the projects adopted within the compass of e.justice have developed completely nor have reached all the judicial organs. The final objective is to achieve an agile, quality Justice, to which the recently approved Strategic Plan for the Modernisation of Justice aspires.
With reference to the second perspective, there is no doubt that the juridical Ordinance and the tribunals within the compass of material justice grant full validity and efficacy to the electronic document. Our line of investigation is justified because there are more and more processes which are sustained by electronic supports of all kinds, whether it be at the establishment of the action or later, as a proof of it (art. 299.2 LEC). Amongst other things, we examine the computerised document, the problems which surround the fax, the systems for video recording and the electronic contract.
Styles APA, Harvard, Vancouver, ISO, etc.
32

KAHLAWI, ADHAM. « Il ruolo di approcci e tecnologie semantiche nella predisposizione di sistemi informativi statistici a supporto delle decisioni in ambienti complessi ». Doctoral thesis, 2016. http://hdl.handle.net/2158/1036349.

Texte intégral
Résumé :
Le nuove tecnologie semantiche rappresentano una sfida, un’opportunità ed un rischio per la statistica ufficiale: consentono infatti di gestire le informazioni quantitative con una potenza elaborativa inedita, ma rischiano di generare sistemi informativi molto lontani da quegli standard di qualità che sono indispensabili per l’analisi statistica. In questo lavoro si è ripensato al riuso statistico delle fonti amministrative alla luce delle potenzialità che potrebbero venire da una consapevole integrazione con la tecnologia semantica. Si è pensato cioè ad una strategia che consenta di contenere il grande spreco di memoria pubblica dovuto alla difficoltà di integrazione delle fonti: sistemi informativi adeguati alla gestione di problemi e servizi risultano inservibili se ripensati per il riuso dei loro dati. Naturalmente esistono e sono sempre più diffuse le metodologie big data, ma difficilmente con questi approcci si può arrivare al dettaglio informativo e alla qualità e precisione di misura necessari quando si devono affrontare problemi di grande specificità e delicatezza, come tipicamente sono quelli sanitari o quelli legati alle condizioni sociali e di lavoro. Per questo ci si è concentrati su come usare queste tecnologie per supportare tutto il processo di generazione degli archivi, fin dal momento della loro concettualizzazione. Al di là dei risultati di fattibilità tecnica, discussi nel caso di studio, è interessante aver evidenziato degli inediti ambiti di presenza delle agenzie statistiche: il presidio del linguaggio e delle concettualizzazioni che, se adottate il modo ampio, consentirebbero una ben diversa qualità delle fonti amministrative. Si tratta di una integrazione che non va solo nel senso di una più vasta diffusione delle codifiche ufficiali, ma che supporta anche il percorso inverso: quello del riconoscimento delle modalità di denotazione degli esperti dei diversi domini, per conoscerli, apprenderli, integrarli e diffonderli ufficialmente. La possibilità di connotare ogni concetto di un suo identificativo ufficiale memorizzato su internet, la scelta di far adottare queste modalità agli attori sociali ed economici che agiscono sui territori e nei processi, la costituzione di grandi testi interpretabili automaticamente, sposta gli usuali orizzonti di chi si occupa di sistemi informativi statistici: processi come quelli di linkage o di test delle condizione di rispetto della privacy assumono una scala e una problematicità di ordine estremamente maggiore e nuovo per la comunità statistica.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Gomes, Cátia Quenira de Pina. « Plataforma Geo-económica de Sintra : Análise e disponibilização de informação ao cidadão com recurso a Sistemas de Informação Geográfica ». Master's thesis, 2018. http://hdl.handle.net/10362/50794.

Texte intégral
Résumé :
A análise e a estatística espacial são meios para se obter respostas a perguntas afim de tomarmos decisões inteligentes. Em alguns casos o próprio mapa é a análise. Noutros casos, usam-se ferramentas e métodos em SIG para se criar novos dados que são exibidos em mapas para que possamos analisa-los e tirar conclusões. Assim, para este projeto onde deseja-se gerar uma base para a criação de uma plataforma geoeconómica a partir da cartografia das atividades comerciais do Município, pretende-se ter o conhecimento espacial da atividade económica no concelho, possibilitando a adoção de estratégias de desenvolvimento municipal, mas também fornecer os operadores económicos de conhecimento apropriado a uma tomada de posição quanto ao investimento. Sendo assim, após serem realizadas análises espaciais e estatística espacial constata-se que a densidade é divergente uma vez que há casos em que a densidade se apresenta em ‘’polos’’ específicos e outros casos em que ela é mais dispersa. Exemplo de um caso em que a densidade se apresenta em polo é o caso dos Estabelecimentos Comerciais. Para o segundo caso temos o exemplo dos restaurantes em que a densidade é mais dispersa. Para as características espaciais de distribuição dos pontos, observa-se que os centros médios estão concentrados, maioritariamente, ao sul do município. As amplitudes das elipses são largas, menos no caso dos Estabelecimentos Comerciais. Estes têm uma orientação muito bem definida na área do corredor urbano expandindo-se ao longo da U.F. de Sintra e das freguesias rurais. Com o Hot Spot, no caso dos Estabelecimentos Comerciais, percebe-se que os aglomerados de pontos quentes e pontos frios estão bem agrupados em lugares específicos. Contrariamente, a análise Hot Spot dos restaurantes mostra que esta é mais dispersa ao longo do município.
Analysis and spatial statistics are the ways to get answers to questions in order to make an intelligent decisions.In some cases, the map itself is the analysis. And in others, GIS tools and methods are used to create new datas which is displayed on maps so that we can analyze and draw conclusions.Therefore, for this project where it is desired to generate a base for the creation of a geo-economic platform based on cartography of the commercial activities of the Municipality, it is intended to have the spatial knowledge about the economic activity in the county, enabling the adoption of those strategies for the municipal development, but also to provide economic operators with appropriate knowledge to a positioning when it comes to an investment. Thus, after performing both spatial analyzes and spatial statistical, it is observed that the density is divergent since there are cases in which the density appears in "poles" and other cases in which it is more dispersed. An example of the first case where the density appears in polo is the case of Commercial Establishments. For the second case we have the example of restaurants in which the density is more dispersed. For the spatial distribution characteristics of the points, it is observed that the mean centers are concentrated, mainly, to the south of the municipality. The amplitudes of the ellipses are wide, less in the case of Commercial Establishments.These have a very well defined orientation in the area of the urban corridor expanding along the U.F of Sintra and the rural area.With the Hot Spot, in the case of Commercial Establishments, it is noticed that the clusters of hot spots and cold spots are well grouped in specific places.Conversely, the Hot Spot analysis of the restaurants shows that it is more dispersed throughout the municipality.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Bourbon, Fernando Afonso Peixoto Juncá Sottomayor. « Estudo da evolução da estrutura urbana da região Norte de Portugal recorrendo à análise espacial ». Master's thesis, 2016. http://hdl.handle.net/1822/70434.

Texte intégral
Résumé :
Dissertação de mestrado integrado em Engenharia Civil
O objetivo deste trabalho é apresentar uma análise espacial que visa efetuar a caracterização da estrutura urbana da região Norte de Portugal, tendo por base os dados dos Censos de 1991, 2001 e 2011. Este tema e a metodologia proposta são pertinentes e atuais, face ao crescimento das zonas urbanas a nível internacional e à importância na respetiva caracterização, tendo em vista melhorar os modelos de governação e de definição estratégica para o desenvolvimento dos territórios. A modelação proposta explora duas subáreas da Análise Espacial: a Estatística Espacial e a Modelação Espacial. Serão adotadas ferramentas de Estatística Espacial para identificar as características locais da estrutura urbana da região, que depois de combinadas com a utilização de uma Rede Neural permitem construir um modelo de previsão para a Modelação Espacial. A análise implementada, recorre a ferramentas de Exploratory Spatial Data Analyses, dados dos censos e previsão de evolução populacional apresentada pelo Instituto Nacional de Estatística, permitindo um reconhecimento de agrupamentos de zonas urbanas com características semelhantes e a sua articulação a nível regional no Norte de Portugal. O presente estudo mostra-nos que existe uma região Norte de Portugal Continental pouco uniforme, uma zona litoral dinâmica em termos de densidade populacional, com zonas densamente povoadas, em contraste com um Alto Minho e um interior com muito menor concentração demográfica.
The objective of this work is to present a Spatial Analysis that aims to characterize the urban structure of the northern region of Portugal based on censuses data from 1991, 2001 and 2011. This theme and the proposed methodology are pertinent and actual topics for the characterization of the growth and consolidation of urban areas at international level. That will be helpful to improve the models of governance and strategic definition for the development of the territories. The proposed model explores two fields of Spatial Analysis: The Spatial Statistics and the Spatial Modelling. Spatial Statistics tools will be used to identify the local characteristics of the urban structure of the region which will then be combined with a Neural Network in order to build a predictive model for the spatial modelling. The analysis was conducted using Geographic Information Systems which uses Exploratory Spatial Data Analysis (censuses data and forecast of population growth published by the National Institute of Statistics) allowing the recognition of groupings of urban areas with similar characteristics and their articulation at regional level at the North of Portugal. The present study shows that there is a relatively uniform North Portugal region, a dynamic coastal zone in terms of population density, with densely populated areas, in contrast to a Alto Minho and an interior with much lower demographic concentration. The present study shows that there is a relatively uniform North Portugal region, a dynamic coastal zone in terms of population density, with densely populated areas, in contrast to a Alto Minho and an interior with much lower demographic concentration.
Styles APA, Harvard, Vancouver, ISO, etc.
35

Moniz, Teresa Brito Oliveira Barros. « Métodos estatísticos aplicados a estudo da distribuição territorial das desigualdades sociais em Cabo Verde ». Master's thesis, 2017. http://hdl.handle.net/10400.2/7117.

Texte intégral
Résumé :
As desigualdades sociais vêm sendo estudadas há vários anos, no entanto a sua mais-valia para a elaboração de estratégias políticas para a sua diminuição iniciou com o desenvolvimento de medidas que as quantificam. O aparecimento da análise e ferramentas de estatística espacial permitiu estudar as desigualdades, não apenas em termos globais, mas também por regiões, por forma a serem comparáveis, e considerar a relação entre o fenómeno e o espaço. É objectivo deste trabalho explorar técnicas de análise e estatística espacial para caracterizar a distribuição espacial das desigualdades em Cabo Verde. Utilizam-se índices para quantificar as desigualdades sociais em diferentes vertentes, como a desigualdade de género, económica, ambiental e em saúde. Para a realização do estudo foram utilizados dados oriundos dos inquéritos e recenseamento realizados pelo Instituto Nacional de Estatística de Cabo Verde (INE-CV), dados do Ministério de Saúde e Conselho Nacional das Eleições (CNE), registados dos anos 2000 e 2010 a 2015. A quantificação da desigualdade económica e em saúde, deu-se através do índice de Gini e índice de concentração, respectivamente, e as desigualdades de género e ambiental através de medidas sintéticas. Utilizaram-se medidas de estatística descritiva, a análise de autocorrelação para averiguar a associação espacial entre concelhos, a análise de Hot Spot para identificar concelhos com desigualdade elevada e a análise de clusters, para identificar concelhos semelhantes. Recorreu-se ao software de Sistemas de Informação Geográfica (ArcGIS), para a análise e estatística espacial, SPSS, para análises clássicas (não espacial) e Excel para organização dos dados e cálculos intermédios. A desigualdade social abrange todo o país, sendo mais concentrada ao norte das ilhas de Santo Antão, Santiago e Fogo. A desigualdade de género apresenta um desvio menos significativo da desigualdade quando comparado a desigualdade ambiental. Os concelhos da ilha de Santiago são semelhantes, com excepção do concelho da Praia. Com o passar dos anos verificou-se semelhança entre os concelhos próximos e que partilham a mesma fronteira.
The Social inequalities have been studied for several years, however its added value to the elaboration of political strategies for its decrease has begun with the development of measures that quantify them. The emergence of the analysis and tools of spatial statistics has allowed to study inequalities, not only in global terms, but also by regions, in order to be comparable, and to consider the relationship between the phenomenon and space. It is the objective of this work to explore techniques of analysis and spatial statistics to characterize the spatial distribution of inequalities in Cape Verde. Indexes are used to quantify social inequalities in different strands such as gender inequality, economic, environmental and health. For the realization of the study, data originating from the surveys and census conducted by the National Institute of Statistics of Cape Verde (INE-CV), data from the Ministry of Health and National Council of Elections (CNE), registered from the years 2000 and 2010 to 2015. The quantification of economic and health inequality is given by the index of Gini and concentration index, respectively, and gender and environmental inequalities through synthetic measures. Descriptive statistical measures were used the autocorrelation analysis to ascertain the spatial association between municipalities, the analysis of Hot Spot to identify municipalities with high inequality and the analysis of clusters, to identify similar municipalities. The software of Geographic Information Systems (ArcGIS), for analysis spatial and statistics, SPSS, for classical (nonspatial) analyses, and Excel for organizing data and intermediate calculations. Social inequality covers the whole country, being more concentrated north of the islands of Santo Antão, Santiago and fire. Gender inequality shows a less significant deviation from inequality when compared to environmental inequality. The municipalities of the island of Santiago are similar, except for the municipality of the beach. Over the years, there was a similarity between the nearby municipalities and sharing the same frontier.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie