Dissertations / Theses on the topic 'Parse data'

To see the other types of publications on this topic, follow the link: Parse data.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 49 dissertations / theses for your research on the topic 'Parse data.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Mansfield, Martin F. "Design of a generic parse tree for imperative languages." Virtual Press, 1992. http://liblink.bsu.edu/uhtbin/catkey/834617.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Since programs are written in many languages and design documents are not maintained (if they ever existed), there is a need to extract the design and other information that the programs represent. To do this without writing a separate program for each language, a common representation of the symbol table and parse tree would be required.The purpose of the parse tree and symbol table will not be to generate object code but to provide a platform for analysis tools. In this way the tool designer develops only one version instead of separate versions for each language. The generic symbol table and generic parse tree may not be as detailed as those same structures in a specific compiler but the parse tree must include all structures for imperative languages.
Department of Computer Science
2

Andrén, August, and Patrik Hagernäs. "Data-parallel Acceleration of PARSEC Black-Scholes Benchmark." Thesis, KTH, Skolan för informations- och kommunikationsteknik (ICT), 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-128607.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The way programmers has been relying on processor improvements to gain speedup in their applications is no longer applicable in the same fashion. Programmers usually have to parallelize their code to utilize the CPU cores in the system to gain a signicant speedup. To accelerate parallel applications furthermore there are a couple of techniques available. One technique is to vectorize some of the parallel code. Another technique is to move parts of the parallel code to the GPGPU and utilize this very good multithreading unit of the system. The main focus of this report is to accelerate the data-parallel workload Black-Scholes of PARSEC benchmark suite. We are going to compare three accelerations of this workload, using vector instructions in the CPU, using the GPGPU and using a combination of them both. The two fundamental aspects are to look at the speedup and determine which technique requires more or less programming eort. To accelerate with vectorization in the CPU we use SSE & AVX techniques and to accelerate the workload in the GPGPU we use OpenACC.
3

Alvestad, Gaute Odin, Ole Martin Gausnes, and Ole-Jakob Kråkenes. "Development of a Demand Driven Dom Parser." Thesis, Norwegian University of Science and Technology, Department of Computer and Information Science, 2006. http://urn.kb.se/resolve?urn=urn:nbn:no:ntnu:diva-9311.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:

XML is a tremendous popular markup language in internet applications as well as a storage format. XML document access is often done through an API, and perhaps the most important of these is the W3C DOM. The recommendation from W3C defines a number of interfaces for a developer to access and manipulate XML documents. The recommendation does not define implementation specific approaches used behind the interfaces. A problem with the W3C DOM approach however, is that documents often are loaded in to memory as a node tree of objects, representing the structure of the XML document. This tree is memory consuming and can take up to 4-10 times the document size. Lazy processing have been proposed, building the node tree as it accesses new parts of the document. But when the whole document has been accessed, the overhead compared to traditional parsers, both in terms of memory usage and performance, is high. In this thesis a new approach is introduced. With the use of well known indexing schemes for XML, basic techniques for reducing memory consumption, and principles for memoryhandling in operation systems, a new and alternative approach is introduced. By using a memory cache repository for DOM nodes and simultaneous utilize principles for lazy processing, the proposed implementation has full control over memory consumption. The proposed prototype is called Demand Driven Dom Parser, D3P. The proposed approach removes least recently used nodes from the memory when the cache has exceeded its memory limit. This makes the D3P able to process the document with low memory requirements. An advantage with this approach is that the parser is able to process documents that exceed the size of the main memory, which is impossible with traditional approaches. The implementation is evaluated and compared with other implementations, both lazy and traditional parsers that builds everything in memory on load. The proposed implementation performs well when the bottleneck is memory usage, because the user can set the desired amount of memory to be used by the XML node tree. On the other hand, as the coverage of the document increases, time spend processing the node tree grows beyond what is used by traditional approaches.

4

Seppecher, Manon. "Mining call detail records to reconstruct global urban mobility patterns for large scale emissions calculation." Electronic Thesis or Diss., Lyon, 2022. http://www.theses.fr/2022LYSET002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En milieu urbain, le trafic routier contribue de manière significative aux émissions atmosphériques, enjeu majeur de la lutte contre le changement climatique. Par conséquent, la surveillance conjointe du trafic routier et des émissions qu’il génère constitue un support essentiel de la décision publique. Au-delà de simples procédures de suivi, les pouvoirs publics ont besoin de méthodes d’évaluation des politiques de transport selon des critères environnementaux.Le couplage de modèles de trafic avec des modèles d’émissions constitue une réponse adaptée à ce besoin. Cependant, l’intégration de tels models à des outils d'aide à la décision nécessite une ca-ractérisation fine et dynamique de la mobilité urbaine. Les données de téléphonie mobile, et en particulier les statistiques d'appel (données CDR), sont une alternative aux données traditionnelles pour estimer cette mobilité. Elles sont riches, massives, et disponibles partout dans le monde. Néanmoins, leur utilisation pour la caractérisation systématique du trafic routier est restée limitée. Cela s'explique par une faible résolution spatiale et des taux d'échantillonnage temporels sensible aux comportements de communication.Cette thèse de doctorat interroge l'estimation des variables de trafic nécessaires au calcul d'émis-sions atmosphériques (distances totales parcourues et vitesses moyennes de trafic) à partir de telles données, et malgré leurs biais. Une première contribution importante est d’articuler des méthodes de classification des individus avec deux approches distinctes de reconstruction de la mobilité. Un seconde contribution est le développement d'une méthode d'estimation des vitesses de trafic basée sur la fusion de larges quantité de données de déplacements. Enfin, un processus méthodologique complet de modélisation et de traitement des données est avancé. Il articule de façon cohérente les méthodes proposées dans cette thèse
Road traffic contributes significantly to atmospheric emissions in urban areas, a major issue in the fight against climate change. Therefore, joint monitoring of road traffic and related emissions is essential for urban public decision-making. And beyond this kind of procedure, public authorities need methods for evaluating transport policies according to environmental criteria.Coupling traffic models with traffic-related emission models is a suitable response to this need. However, integrating this solution into decision support tools requires a refined and dynamic char-acterization of urban mobility. Cell phone data, particularly Call Detail Records, are an interesting alternative to traditional data to estimate this mobility. They are rich, massive, and available worldwide. However, their use in literature for systematic traffic characterization has remained limited. It is due to low spatial resolution and temporal sampling rates sensitive to communication behaviors.This Ph.D. thesis investigates the estimation of traffic variables necessary for calculating air emis-sions (total distances traveled and average traffic speeds) from such data, despite their biases. The first significant contribution is to articulate methods of classification of individuals with two distinct approaches of mobility reconstruction. A second contribution is developing a method for estimating traffic speeds based on the fusion of large amounts of travel data. Finally, we present a complete methodological process of modeling and data processing. It relates the methods proposed in this thesis coherently
5

Shah, Meelap (Meelap Vijay). "PARTE : automatic program partitioning for efficient computation over encrypted data." Thesis, Massachusetts Institute of Technology, 2013. http://hdl.handle.net/1721.1/79239.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Thesis (S.M.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 2013.
Cataloged from PDF version of thesis.
Includes bibliographical references (p. 45-47).
Many modern applications outsource their data storage and computation needs to third parties. Although this lifts many infrastructure burdens from the application developer, he must deal with an increased risk of data leakage (i.e. there are more distributed copies of the data, the third party may be insecure and/or untrustworthy). Oftentimes, the most practical option is to tolerate this risk. This is far from ideal and in case of highly sensitive data (e.g. medical records, location history) it is unacceptable. We present PARTE, a tool to aid application developers in lowering the risk of data leakage. PARTE statically analyzes a program's source, annotated to indicate types which will hold sensitive data (i.e. data that should not be leaked), and outputs a partitioned version of the source. One partition will operate only on encrypted copies of sensitive data to lower the risk of data leakage and can safely be run by a third party or otherwise untrusted environment. The second partition must have plaintext access to sensitive data and therefore should be run in a trusted environment. Program execution will flow between the partitions, levaraging third party resources when data leakage risk is low. Further, we identify operations which, if efficiently supported by some encryption scheme, would improve the performance of partitioned execution. To demonstrate the feasiblity of these ideas, we implement PARTE in Haskell and run it on a web application, hpaste, which allows users to upload and share text snippets. The partitioned hpaste services web request 1.2 - 2.5 x slower than the original hpaste. We find this overhead to be moderately high. Moreover, the partitioning does not allow much code to run on encrypted data. We discuss why we feel our techniques did not produce an attractive partitioning and offer insight on new research directions which could yield better results.
by Meelap Shah.
S.M.
6

Bucciarelli, Stefano. "Un compilatore per un linguaggio per smart contract intrinsecamente tipato." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019. http://amslaurea.unibo.it/19573/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Dall, Rasmus. "Statistical parametric speech synthesis using conversational data and phenomena." Thesis, University of Edinburgh, 2017. http://hdl.handle.net/1842/29016.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Statistical parametric text-to-speech synthesis currently relies on predefined and highly controlled prompts read in a “neutral” voice. This thesis presents work on utilising recordings of free conversation for the purpose of filled pause synthesis and as an inspiration for improved general modelling of speech for text-to-speech synthesis purposes. A corpus of both standard prompts and free conversation is presented and the potential usefulness of conversational speech as the basis for text-to-speech voices is validated. Additionally, through psycholinguistic experimentation it is shown that filled pauses can have potential subconscious benefits to the listener but that current text-to-speech voices cannot replicate these effects. A method for pronunciation variant forced alignment is presented in order to obtain a more accurate automatic speech segmentation something which is particularly bad for spontaneously produced speech. This pronunciation variant alignment is utilised not only to create a more accurate underlying acoustic model, but also as the driving force behind creating more natural pronunciation prediction at synthesis time. While this improves both the standard and spontaneous voices the naturalness of spontaneous speech based voices still lags behind the quality of voices based on standard read prompts. Thus, the synthesis of filled pauses is investigated in relation to specific phonetic modelling of filled pauses and through techniques for the mixing of standard prompts with spontaneous utterances in order to retain the higher quality of standard speech based voices while still utilising the spontaneous speech for filled pause modelling. A method for predicting where to insert filled pauses in the speech stream is also developed and presented, relying on an analysis of human filled pause usage and a mix of language modelling methods. The method achieves an insertion accuracy in close agreement with human usage. The various approaches are evaluated and their improvements documented throughout the thesis, however, at the end the resulting filled pause quality is assessed through a repetition of the psycholinguistic experiments and an evaluation of the compilation of all developed methods.
8

Erozel, Guzen. "Natural Language Interface On A Video Data Model." Master's thesis, METU, 2005. http://etd.lib.metu.edu.tr/upload/12606251/index.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The video databases and retrieval of data from these databases have become popular in various business areas of work with the improvements in technology. As a kind of video database, video archive systems need user-friendly interfaces to retrieve video frames. In this thesis, an NLP based user interface to a video database system is developed using a content-based spatio-temporal video data model. The data model is focused on the semantic content which includes objects, activities, and spatial properties of objects. Spatio-temporal relationships between video objects and also trajectories of moving objects can be queried with this data model. In this video database system, NL interface enables flexible querying. The queries, which are given as English sentences, are parsed using Link Parser. Not only exact matches but similar objects and activities are also returned from the database with the help of the conceptual ontology module to return all related frames to the user. This module is implemented using a distance-based method of semantic similarity search on the semantic domain-independent ontology, WordNet. The semantic representations of the given queries are extracted from their syntactic structures using information extraction techniques. The extracted semantic representations are used to call the related parts of the underlying spatio-temporal video data model to calculate the results of the queries.
9

Abel, Donald Randall. "The Parser Converter Loader: An Implementation of the Computational Chemistry Output Language (CCOL)." PDXScholar, 1995. https://pdxscholar.library.pdx.edu/open_access_etds/4926.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
A necessity of managing scientific data is the ability to maintain experimental legacy information without continually modifying the applications that create and use that information. By facilitating the management of scientific data we hope to give scientists the ability to effectively use additional modeling applications and experimental data. We have demonstrated that an extensible interpreter, using a series of stored directives, allows the loading of data from computational chemistry applications into a generic database. Extending the interpreter to support a new application involves supplying a list of directives for each piece of information to be loaded. This research confirms that an extensible interpreter can be used to load computational chemistry experimental data into a generic database. This procedure may be applicable to the loading and retrieving of other types of experimental data without requiring modifications of the loading and retrieving applications.
10

Sodhi, Bir Apaar Singh. "DATA MINING: TRACKING SUSPICIOUS LOGGING ACTIVITY USING HADOOP." CSUSB ScholarWorks, 2016. https://scholarworks.lib.csusb.edu/etd/271.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
In this modern rather interconnected era, an organization’s top priority is to protect itself from major security breaches occurring frequently within a communicational environment. But, it seems, as if they quite fail in doing so. Every week there are new headlines relating to information being forged, funds being stolen and corrupt usage of credit card and so on. Personal computers are turned into “zombie machines” by hackers to steal confidential and financial information from sources without disclosing hacker’s true identity. These identity thieves rob private data and ruin the very purpose of privacy. The purpose of this project is to identify suspicious user activity by analyzing a log file which then later can help an investigation agency like FBI to track and monitor anonymous user(s) who seek for weaknesses to attack vulnerable parts of a system to have access of it. The project also emphasizes the potential damage that a malicious activity could have on the system. This project uses Hadoop framework to search and store log files for logging activities and then performs a ‘Map Reduce’ programming code to finally compute and analyze the results.
11

Costa, Galligani Stéphanie. "Le français parlé par des migrants espagnols de longue date : biographie et pratiques langagières." Grenoble 3, 1998. http://www.theses.fr/1998GRE39041.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Situee au croisement des domaines disciplinaires relevant de la linguistique, de la sociolinguistique et de l'acquisition d'une langue etrangere, la problematique de cette etude repose sur les pratiques langagieres en francais parle de migrants espagnols de longue date. Il s'agira de mettre en lumiere la specificite de leur comportement langagier dont le fonctionnement doit s'etudier dans le rapport langue d'origine/langue d'accueil. Les objectifs linguistiques se limiteront au traitement de donnees langagieres recueillies aupres de quatre migrants espagnols observes en situation d'entretien. Il va s'agir, des lors, de decrire linguistiquement le parler des sujets bilingues, peu scolarises et n'ayant recu, pour la plupart, aucun cours de francais, a partir des entretiens enregistres. Cette operation de description vise a mettre en lumiere les particularites linguistiques (en termes de marques transcodiques) de leur comportement langagier en francais qui sera apprecie a partir de domaines grammaticaux selectionnes selon la variabilite des formes de realisation qu'ils presentent. Les objectifs socio linguistiques s'attacheront aux aspects individuels du bilinguisme, en particulier aux regards que les sujets jettent sur leur propre bilinguisme, a la situation des langues dans leur repertoire verbal, aux attitudes par rapport aux langues et enfin, a leur trajectoire d'acquisition. Les consequences qu'engendre le bilinguisme en contexte migratoire, seront apprehendees, dans une plus large mesure, sur le plan identitaire a partir de l'ensemble des strategies developpees par ces sujets comme, par exemple le maintien de leur accent espagnol en signe de valorisation de l'identite bilingue
This study, which is at the intersection of the following disciplines linguistics, sociolinguistics and language acquisition, focuses on the french language skills, usages and practices of long term spanish migrants. It highlights the specificity of their language behaviour with regard to the relationship between their native language and french, the language of the country of migration. The linguistic objectives aim at a analysis of the data collected from four spanish migrants observed during an interview. A linguistic description of the speech of bilingual subjects, having received little schooling and no formal french lessons, is undertaken from the recorded interviews. This descriptive phase highlights their language behaviour in french (in terms of code-switching) which is examined in terms of grammatical categories selected according to the variance of forms. The sociolinguistic objectives embrace more individual aspects of bilingualism, particularly the vision subjects have of their own bilingualism, but also the importance of the languages in their verbal repertoire, their attitudes to the languages and finally the path of acquisition. The consequences of bilingualism in the context of migration will be apprehended largely from the point of view of identity with regard to the strategies developed by the subjects, such as the maintenance of their spanish accent as a sign of recognition of their bilingual identity
12

Lopes, Eduarda Escila Ferreira. "O uso dos dispositivos móveis e da internet como parte da cultura escolar de estudantes universitários." Universidade Estadual Paulista (UNESP), 2018. http://hdl.handle.net/11449/154311.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Submitted by Eduarda Escila Ferreira Lopes (eduardaescila@gmail.com) on 2018-06-19T23:50:49Z No. of bitstreams: 1 termino tese.pdf: 9993132 bytes, checksum: d77d2d3fe8eeed049bc73493f86974a2 (MD5)
Approved for entry into archive by Ana Paula Santulo Custódio de Medeiros null (asantulo@rc.unesp.br) on 2018-06-20T12:26:27Z (GMT) No. of bitstreams: 1 lopes_eef_dr_rcla.pdf: 9848538 bytes, checksum: afc699b16f6bde99cec693ea78f77265 (MD5)
Made available in DSpace on 2018-06-20T12:26:27Z (GMT). No. of bitstreams: 1 lopes_eef_dr_rcla.pdf: 9848538 bytes, checksum: afc699b16f6bde99cec693ea78f77265 (MD5) Previous issue date: 2018-04-13
O trabalho aqui apresentado é composto por estudos teóricos e empíricos com o objetivo de investigar a interferência da cultura digital no processo educacional de estudantes de cursos superiores. Considera-se a premissa de que a cada dia é maior a presença de dispositivos móveis e da internet como recursos para a vida escolar. No nível superior, a tecnologia digital torna-se cada vez mais presente como recurso das atividades acadêmicas e como resultado de uma cultura digital da sociedade atual. É proposta deste trabalho estudar o conceito de cultura, cultura digital e cultura escolar e em uma segunda etapa, serão revisados aspectos do desenvolvimento dos meios de comunicação e seus impactos até a compreensão da contemporaneidade com a presença dos dispositivos móveis. Como procedimento teórico-metodológico, a pesquisa está ancorada em diferentes autores que tematizaram as questões das práticas e da cultura escolar, como Marilena Chauí, Pierre Bourdieu, Pierre Levy, Raymond Williams, Roger Chartier, Anne Marie Chartier, Bernard Lahire, Marsall McLuhan, Melvin Defleur, Peter Burke, Asa Briggs, entre outros. O trabalho apresenta também estudos sobre a evolução do ensino superior no Brasil frente à expansão provocada por políticas públicas. São analisados dados da expansão em universidades públicas e privadas, assim como dados relativos aos cursos de graduação pesquisados. No presente estudo, também são abordados os preâmbulos da pesquisa empírica, composta por duas fases de investigação, sendo uma de caráter quantitativo e, outra, qualitativo. São apresentados, por fim, os resultados e uma análise das entrevistas com universitários dos cursos de Pedagogia, Biologia, Publicidade e Propaganda, Jornalismo e Design Digital de uma instituição de ensino pública e uma particular da cidade de Araraquara, no interior do estado de São Paulo.
The work presented here is based on the development of studies about culture, school culture and digital culture and will present the first notes on theoretical reflections. It considers the premise that the presence of mobile devices and the internet as a resource for school life is increasing every day. At the higher level, digital technology becomes more and more present as a resource for academic activities and as a result of a digital culture of today’s society. The purpose of this study is to review the theoretical issues involved in the process that will lead us to identify the changes in the daily life of the school culture, taking into account the use of mobile devices, the Internet and social networks by university students. In a second moment, aspects of communication means and its impact will be revisited on the comprehension about contemporaneity with presence of mobile devices. As a theoretical-methodological procedure, the research is anchored in different authors who have studied the issues of school practices and culture, such as Marilena Chauí, Pierre Bourdieu, Pierre Levy, Raymond Williams, Roger Chartier, Anne Marie Chartier, Bernard Lahire, Marsall McLuhan, Melvin Defleur, Peter Burke, Asa Briggs and others. This work presents also studies about the evolution of higher education in Brazil with regard to expansion on public and private universities, as well as data about the graduate courses researched. In the present study, will be approached the preambles of empirical research, formed by interviews with Pedagogy, Biology, Marketing and Advertising, Journalism and Digital Design students.
13

Pause, Marion [Verfasser], and Karsten [Akademischer Betreuer] Schulz. "Soil moisture retrieval using high spatial resolution Polarimetric L-Band Multi-beam Radiometer (PLMR) data at the field scale / Marion Pause. Betreuer: Karsten Schulz." München : Universitätsbibliothek der Ludwig-Maximilians-Universität, 2011. http://d-nb.info/1015083978/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Israelsson, Sigurd. "Energy Efficiency Analysis of ARM big.LITTLE Global Task Scheduling." Thesis, Högskolan i Skövde, Institutionen för informationsteknologi, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:his:diva-11296.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
In this paper an ARM big.LITTLE system with Global Task Scheduling is evaluated in terms of its energy efficiency and performance measured in execution time. The big.LITTLE system is evaluated against the same system but with only the big or LITTLE processor active. The evaluation is done by performing experiments that target three different levels of load: full load, varying load and low load. The benchmarking software PARSEC Blackscholes and BBench are used to put the system under a synthetic workload in the tests. The results show that overall big.LITTLE achieves an improvement in execution time for all test scenarios, although very slim for varying load, and is more energy efficient than the big processor with the possible exception of a low load scenario. However, the LITTLE processor by itself is found to be the most energy efficient system even though it showed the slowest execution time.
15

Fusco, Elvis. "Modelos conceituais de dados como parte do processo da catalogação : perspectiva de uso dos FRBR no desenvolvimento de catálogos bibliográficos digitais /." Marília : [s.n.], 2010. http://hdl.handle.net/11449/103369.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Orientador: Plácida Leopoldina Ventura Amorim da Costa Santos
Banca: Ricardo César Gonçalves Sant'Ana
Banca: José Remo Ferreira Brega
Banca: Virgínia Bentes Pinto
Banca: Alex Sandro Romeu de Souza Poleto
Resumo: O processo de catalogação ocupa-se dos registros bibliográficos, enquanto suporte de informação, servindo como base para a interoperabilidade entre ambientes informacionais, levando em conta objetos diversificados de informação e bases cooperativas e heterogêneas. Dentre as principais propostas da área de catalogação estão os FRBR - Functional Requirements for Bibliographic Records (Requisitos Funcionais para Registros Bibliográficos), que constituem novos conceitos nas regras de catalogação. As regras dos FRBR mostram um caminho na reestruturação dos registros bibliográficos de maneira a refletir a estrutura conceitual de persistência e buscas de informação, levando em conta a diversidade de usuários, materiais, suporte físico e formatos. Neste contexto, o objetivo desta pesquisa é refletir e discutir, a partir de uma arquitetura conceitual, lógica e de persistência de ambientes informacionais, baseada nos FRBR e na Modelagem Entidade- Relacionamento e estendido pelo uso dos conceitos da Orientação a Objetos, o processo de catalogação no contexto do projeto de catálogos utilizando a metodologia computacional de Modelagem Conceitual de Dados, considerando a evolução dessa área no âmbito da Ciência da Informação em relação ao contexto da representação da informação com vistas ao uso e à interoperabilidade de todo e qualquer recurso informacional, que vise a preencher a lacuna entre o projeto conceitual de um domínio de aplicação e a definição dos esquemas de metadados das estruturas de registros bibliográficos. Esta pesquisa defende a necessidade e a urgência da releitura do processo de catalogação adicionado de elementos da Ciência da Computação com utilização de metodologias de Tratamento Descritivo da Informação (TDI) no âmbito da representação da informação na camada de... (Resumo completo, clicar acesso eletrônico abaixo)
Abstract: The cataloguing process is aimed at dealing with bibliographic registers as information support, serving as a basis for an interoperability among information environments, taking into account different objects and cooperative and heterogeneous basis. Among the main propositions of the cataloguing field are the FRBR - Functional Requirements for Bibliographic Records, which constitute of new concepts in cataloguing standards. These standards indicate access to the rearrangement of bibliographic registers in order to reflect on the conceptual framework of persistence and search of information, considering the diversity of users, material, physical support, and formats. In this context, the present research is aimed at reflecting and discussing, from a conceptual architecture, logic and information environment persistence based on FRBR and Entity-Relationship Modeling and extended by the use of concepts of Object Orientation, the process of cataloguing in the context of the catalogs project by using computation methodology of Data Conceptual Modeling, considering the evolution of this area in the scope of Information Science in relation to the context of the representation of information aiming use and interoperability of every and each information resource to fill the lack between the conceptual project of an application domain and the definition of the metadata scheme of bibliographic registers structures. Thus, this research defends the necessity and urgency to review the cataloguing process adding the elements of Computing Science with the use of Information Descriptive Treatment methodologies in the scope of the information representation in the layer of persistence of an automated information environment. The research issue is based in the presupposition of the existence in a relation of community among... (Complete abstract click electronic access below)
Doutor
16

Fusco, Elvis [UNESP]. "Modelos conceituais de dados como parte do processo da catalogação: perspectiva de uso dos FRBR no desenvolvimento de catálogos bibliográficos digitais." Universidade Estadual Paulista (UNESP), 2010. http://hdl.handle.net/11449/103369.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Made available in DSpace on 2014-06-11T19:32:42Z (GMT). No. of bitstreams: 0 Previous issue date: 2010-10-04Bitstream added on 2014-06-13T20:43:41Z : No. of bitstreams: 1 fusco_e_dr_mar.pdf: 4364055 bytes, checksum: f2e106af462188a82143f7a1c932c538 (MD5)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
O processo de catalogação ocupa-se dos registros bibliográficos, enquanto suporte de informação, servindo como base para a interoperabilidade entre ambientes informacionais, levando em conta objetos diversificados de informação e bases cooperativas e heterogêneas. Dentre as principais propostas da área de catalogação estão os FRBR - Functional Requirements for Bibliographic Records (Requisitos Funcionais para Registros Bibliográficos), que constituem novos conceitos nas regras de catalogação. As regras dos FRBR mostram um caminho na reestruturação dos registros bibliográficos de maneira a refletir a estrutura conceitual de persistência e buscas de informação, levando em conta a diversidade de usuários, materiais, suporte físico e formatos. Neste contexto, o objetivo desta pesquisa é refletir e discutir, a partir de uma arquitetura conceitual, lógica e de persistência de ambientes informacionais, baseada nos FRBR e na Modelagem Entidade- Relacionamento e estendido pelo uso dos conceitos da Orientação a Objetos, o processo de catalogação no contexto do projeto de catálogos utilizando a metodologia computacional de Modelagem Conceitual de Dados, considerando a evolução dessa área no âmbito da Ciência da Informação em relação ao contexto da representação da informação com vistas ao uso e à interoperabilidade de todo e qualquer recurso informacional, que vise a preencher a lacuna entre o projeto conceitual de um domínio de aplicação e a definição dos esquemas de metadados das estruturas de registros bibliográficos. Esta pesquisa defende a necessidade e a urgência da releitura do processo de catalogação adicionado de elementos da Ciência da Computação com utilização de metodologias de Tratamento Descritivo da Informação (TDI) no âmbito da representação da informação na camada de...
The cataloguing process is aimed at dealing with bibliographic registers as information support, serving as a basis for an interoperability among information environments, taking into account different objects and cooperative and heterogeneous basis. Among the main propositions of the cataloguing field are the FRBR - Functional Requirements for Bibliographic Records, which constitute of new concepts in cataloguing standards. These standards indicate access to the rearrangement of bibliographic registers in order to reflect on the conceptual framework of persistence and search of information, considering the diversity of users, material, physical support, and formats. In this context, the present research is aimed at reflecting and discussing, from a conceptual architecture, logic and information environment persistence based on FRBR and Entity-Relationship Modeling and extended by the use of concepts of Object Orientation, the process of cataloguing in the context of the catalogs project by using computation methodology of Data Conceptual Modeling, considering the evolution of this area in the scope of Information Science in relation to the context of the representation of information aiming use and interoperability of every and each information resource to fill the lack between the conceptual project of an application domain and the definition of the metadata scheme of bibliographic registers structures. Thus, this research defends the necessity and urgency to review the cataloguing process adding the elements of Computing Science with the use of Information Descriptive Treatment methodologies in the scope of the information representation in the layer of persistence of an automated information environment. The research issue is based in the presupposition of the existence in a relation of community among... (Complete abstract click electronic access below)
17

Almeida, Carolina Porto de. "Ensinando professoras a analisar o comportamento do aluno: análise e interpretação de dados como parte de uma análise de contingências." Pontifícia Universidade Católica de São Paulo, 2009. https://tede2.pucsp.br/handle/handle/16847.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Made available in DSpace on 2016-04-29T13:18:11Z (GMT). No. of bitstreams: 1 Carolina Porto de Almeida.pdf: 1590702 bytes, checksum: 48a16ba9ae0ac65f8d1533e382419465 (MD5) Previous issue date: 2009-04-29
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
Many studies about functional analysis (or contingency analysis) can be found in the literature and they are inserted in a diversity of research lines. The present study is part of a research line that employs the method proposed by Iwata, Dorsey, Slifer, Bauman e Richman (1982/1994) of systematic manipulation of environmental events for testing what happens to the frequency of the behavior of interest in a few sessions. The purpose of the current study was teaching school-teachers who had taken no prior courses and had no prior experience in behavior analysis to perform part of a contingency analysis: the analysis and the interpretation of data generated by the application of this method. Three preschool teachers participated in the study, all of which had students who presented behaviors considered inappropriate by the teachers. Data were collected in the school where the participants taught. Fourteen movies were used, with 9 minutes each one, that showed, in a simulated situation, one teacher implementing the method proposed by Iwata et al. (1982/1994) with one student who exhibited behaviors considered inappropriate. Seven movies showed the student s behavior maintained by a contingency of positive reinforcement (teacher s attention) and the other seven, by a contingency of negative reinforcement (escape from academic tasks). A training program was carried out in which the participants observed and recorded the occurrence or non occurrence of the student s target behavior (inappropriate behavior), the antecedent event and the consequence, on 30 second intervals. Then they answered five questions based on the records made, related to the data analysis and interpretation. The training included three phases: pre-test, training procedures and pos-test. The training procedure included the gradual removal of information, in which the register and the answers to all the questions were initially presented to the participants and, at each new step, one item of these models was removed. The pre-test results indicate that the participants made mistakes in the majority of the records about the three terms contingency at each 30 second interval. They also made the wrong interpretation about what was maintaining the behavior occurring in the movies exhibited. By comparing the results of the pre-test with those of the pos-test, in which they made correct records and correct interpretations in almost all the items, it is possible to say that the training procedure was effective to teach the participants to analyze and to interpret the recorded data. Based on the positive results about the performance of the participants, and considering that the maximum duration of the training was of 8 hours, it is possible to conclude that school-teachers can learn to perform part of a contingency analysis in a relatively short time when appropriately taught
Muitos estudos sobre análise funcional (ou análise de contingências) são encontrados na literatura e diversas são as linhas de pesquisa em que eles estão inseridos. O presente estudo faz parte de uma linha de pesquisa que se utiliza do método proposto por Iwata, Dorsey, Slifer, Bauman e Richman (1982/1994) de manipulação sistemática de eventos ambientais para se testar o que acontece com a frequência do comportamento de interesse em poucas sessões. O estudo teve por objetivo ensinar professoras sem formação ou experiência prévia em análise do comportamento a realizar parte de uma análise de contingências: a análise e a interpretação de dados gerados pela aplicação desse método. Participaram do estudo três professoras de educação infantil, que apresentavam alunos com comportamentos considerados por elas inadequados. A coleta ocorreu na própria escola onde as participantes trabalhavam. Foram utilizados 14 filmes, de 9 minutos cada, que mostravam, em uma situação simulada, uma professora aplicando o método proposto por Iwata et al. (1982/1994) diante de um aluno que exibia comportamentos tidos como inadequados. Sete filmes mostravam o comportamento do aluno mantido por uma contingência de reforçamento positivo (atenção da professora) e os outros sete, por uma contingência de reforçamento negativo (fuga de tarefas escolares). Foi realizado um treinamento, em que as participantes deveriam observar e registrar por escrito a ocorrência ou não ocorrência do comportamento alvo do aluno (inadequado), o evento antecedente e a consequência, em intervalos de 30 segundos. Além disso, deveriam responder cinco questões sobre os registros feitos, referentes à analise e à interpretação de dados. O treinamento foi composto por três fases: pré-teste, treino e pós-teste. Empregou-se no treino um procedimento de remoção gradual de informações, em que, inicialmente, foram apresentados às participantes todos os modelos de registros e de respostas às questões, sendo que a cada passo um item desses modelos era retirado. No pré-teste, constatou-se que as participantes erraram a grande maioria dos registros sobre a contingência de três termos em cada um dos intervalos de 30 segundos, bem como a interpretação sobre o que mantinha o comportamento alvo do aluno ocorrendo nos filmes exibidos. Comparando-se os resultados do pré e do pósteste, no qual acertaram todos ou quase todos os registros e as questões, verificou-se que o treino foi efetivo para ensiná-las a analisar e interpretar os dados sobre os registros. Com base nos resultados positivos sobre o desempenho das participantes e considerando que a duração máxima do treino foi de 8 horas, é possível dizer que professoras podem aprender a realizar parte de uma análise de contingências em um tempo relativamente curto, quando ensinadas adequadamente
18

Pugliese, Francesca. "Il controllo della posta elettronica e dell'utilizzo delle risorse informatiche da parte dei lavoratori nella giurisprudenza dell'Autorità Garante per la protezione dei dati personali." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2010. http://amslaurea.unibo.it/1614/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Kondo, Daishi. "Preventing information leakage in NDN with name and flow filters." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0233/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au cours des dernières années, les réseaux de type (NDN) sont devenus une des architectures réseau les plus prometteuses. Pour être adopté à l'échelle d'Internet, NDN doit résoudre les problèmes inhérents à l'Internet actuel. La fuite d’informations fait partie de ces problèmes, et il est très important d’évaluer ce risque pour les réseaux de type NDN. La thèse se propose d'évaluer ce risque. En supposant (i) qu'un ordinateur appartient au réseau d'une entreprise basée sur une architecture NDN, (ii) que l'ordinateur a déjà été compromis par un support malveillant, et (iii) que la société installe un pare-feu, la thèse évalue la situation dans laquelle l’ordinateur infecté tente de divulguer des données à un attaquant externe à l'entreprise. Les contributions de cette thèse sont au nombre de cinq. Tout d'abord, cette thèse propose une attaque par fuite d'informations via un paquet donné et un paquet intérêt propres à NDN. Deuxièmement, afin de remédier à l'attaque fuite d'informations, cette thèse propose un pare-feu basé sur l'utilisation d'une liste blanche et d'une liste noire afin de surveiller et traiter le trafic NDN provenant des consommateurs. Troisièmement, cette thèse propose un filtre de noms NDN pour classifier un nom dans un paquet d'intérêt comme étant légitime ou non. Le filtre de noms peut ainsi réduire le débit par paquet d'intérêt. Cependant, pour adapter la vitesse de l'attaque, les logiciels malveillants peuvent envoyer de nombreux intérêts en très peu de temps. De même, le logiciel malveillant peut exploiter un intérêt avec une information explicite dans le nom (comme peut le faire un message véhiculé par un POST sur HTTP). Cela dépasse alors la portée du filtre de nom proposé et rend le filtre inefficace. Pour prendre en compte le flux de trafic analysé par le pare-feu NDN, cette thèse propose comme quatrième contribution la surveillance du flux NDN à travers le pare-feu. Enfin, afin de traiter les inconvénients du filtre de noms NDN, cette thèse propose un filtre de flux NDN permettant de classer un flux comme légitime ou non. L'évaluation des performances montre que le filtre de flux complète de manière tout à fait performante le filtre de nom et réduit considérablement le débit de fuite d'informations
In recent years, Named Data Networking (NDN) has emerged as one of the most promising future networking architectures. To be adopted at Internet scale, NDN needs to resolve the inherent issues of the current Internet. Since information leakage from an enterprise is one of the big issues even in the Internet and it is very crucial to assess the risk before replacing the Internet with NDN completely, this thesis investigates whether a new security threat causing the information leakage can happen in NDN. Assuming that (i) a computer is located in the enterprise network that is based on an NDN architecture, (ii) the computer has already been compromised by suspicious media such as a malicious email, and (iii) the company installs a firewall connected to the NDN-based future Internet, this thesis focuses on a situation that the compromised computer (i.e., malware) attempts to send leaked data to the outside attacker. The contributions of this thesis are fivefold. Firstly, this thesis proposes an information leakage attack through a Data and through an Interest in NDN. Secondly, in order to address the information leakage attack, this thesis proposes an NDN firewall which monitors and processes the NDN traffic coming from the consumers with the whitelist and blacklist. Thirdly, this thesis proposes an NDN name filter to classify a name in the Interest as legitimate or not. The name filter can, indeed, reduce the throughput per Interest, but to ameliorate the speed of this attack, malware can send numerous Interests within a short period of time. Moreover, the malware can even exploit an Interest with an explicit payload in the name (like an HTTP POST message in the Internet), which is out of scope in the proposed name filter and can increase the information leakage throughput by adopting a longer payload. To take traffic flow to the NDN firewall from the consumer into account, fourthly, this thesis proposes an NDN flow monitored at an NDN firewall. Fifthly, in order to deal with the drawbacks of the NDN name filter, this thesis proposes an NDN flow filter to classify a flow as legitimate or not. The performance evaluation shows that the flow filter complements the name filter and greatly chokes the information leakage throughput
20

Vrána, Pavel. "Webový portál pro správu a klasifikaci informací z distribuovaných zdrojů." Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2011. http://www.nusl.cz/ntk/nusl-237043.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
This master's thesis deals with data mining techniques and classification of the data into specified categories. The goal of this thesis is to implement a web portal for administration and classification of data from distributed sources. To achieve the goal, it is necessary to test different methods and find the most appropriate one for web articles classification. From the results obtained, there will be developed an automated application for downloading and classification of data from different sources, which would ultimately be able to substitute a user, who would process all the tasks manually.
21

Casalprim, Ramonet Montserrat. "L’eficiència del procés educatiu de maternal i primera ensenyança a Andorra." Doctoral thesis, Universitat d'Andorra, 2014. http://hdl.handle.net/10803/284699.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
This work presents an efficiency assessment of public elementary schools in Andorra, a small country where there are three public educational systems (Andorran, Spanish -congregational and non congregational-, and French), with four different organizational environment. This particular framework, with different systems in the same country can give new results to the existent literature. The method used to measure the efficiency of the educational process in this study is the DEA (Data Envelopment Analysis), introduced by Charnes, Cooper, and Rhodes in 1978. In this study the DEA technique is applied with bootstrap (Simar and Wilson, 2000). To make the comparative study, Li test (Li, 1996) is used to confirm results by comparing the distribution of each educational system. To get the authorisation to obtain the data for this study it has been necessary to identify anonymously the different schools and educational systems in the results of the study. It is for this reason that the terms: A, B, C and D identify the four different educational systems. The results before introducing the effect of the environment variables show that school of educational system C have higher efficiency scores than other schools, and schools of educational system B, have lower efficiency scores. These results may be explained by the organizational environment of each educational system and can give indications to improve the efficiency of the schools. Some differences in the organizational environment of educational system C are: a higher level of management autonomy by the leadership (Purkey & Smith, 1983), which facilitates the role of the principal of the school (Antunex, 1994); and more school hours for students and more work hours for teachers (Gimenez et al., 2007; Naper, 2010). The results after introducing the effect of the socioeconomic environment of families and individual characteristics of the students (motivation and attitude towards the study) show that most differences in efficiency between educational systems disappear. It can be explained by the less favourable environment of educational system B, which appeared with lower efficiency scores before introducing the effect of these variables, and the opposite effect in schools of educational system C. As Coleman Report (Coleman et al., 1966) shows, the environmental variables role in educational process is truly important, and these results confirm that. Finally, results in last chapter show that efficiency is a variable that explains parental satisfaction. Previous studies that analyse the factors influencing parental satisfaction focus on involvement and participation of parents, school size, facilities, location and socioeconomic environment. This result provides new applications for efficiency studies, which can provide policies for improving the performance of public resources but also allow these policies to improve citizens' satisfaction with public services (Roch & Poister, 2006, and Van Ryzin et aI., 2004).
En aquest treball es realitza un estudi d'eficiència de les escoles públiques de maternal i primera ensenyança d'Andorra. Les particularitats de I'entorn on es desenvolupa I'estudi, on conviuen tres sistemes educatius públics (I'andorrà, I'espanyol -congregacional i no congregacional- i el francès) que representen quatre entorns organitzatius diferents, en un mateix país, permeten fer noves aportacions a la literatura existent sobre I'eficiència del procés educatiu i identificar factors organitzatius que poden influir en I'eficiència de les escoles. EI mètode utilitzat per mesurar I'eficiència es el DEA (Data Envelopment Analisys), introduït per Charnes, Cooper i Rhodes el 1978. En una segona fase s'aplica la tècnica del bootstrap (Simar & Wilson, 2000). Per analitzar les diferències entre sistemes educatius s'utilitza el test de Li (Li, 1996). EI procés de recollida de dades ha estat laboriós i ha requerit la necessitat de garantir I'anonimat de les escoles i dels sistemes. És per aquest motiu que s'identifiquen els quatre sistemes educatius diferents miljançant lIetres: A, B, C i D. Els resultats abans d'introduir I'efecte de les variables d'entorn mostren que les escoles del sistema educatiu C obtenen puntuacions d'eficiència més altes que la resta, i les escoles del sistema educatiu B obtenen puntuacions d'eficiència més altres. Aquests resultats poden ser explicats pels trets diferencials de I'entorn organitzatiu que dibuixen els diferents sistemes educatius i poden donar indicacions amb I'objectiu de millorar I'eficiència de les escoles. Alguns dels trets diferencials del sistema educatiu C són: un nivell més elevat d'autonomia en la gestió (Purkey & Smith, 1983), que facilita el rol de lideratge per part de la direcció (Antunez, 1994); i un horari lectiu i laboral més extens (Gimenez et al., 2007; Naper, 2010). Després d'incloure I'efecte de I'entorn socioeconòmic de les famílies i les característiques individuals de I'alumne (en termes de motivació i actitud) s'observa que desapareixen la major part de diferències en I'eficiència de les escoles per sistemes educatius. Aquest canvi pot venir explicat per I'entorn menys favorable en el que treballen les escoles del sistema educatiu B i en I'entorn més favorable de les del sistema educatiu C. Tal i com es va començar a debatre amb la publicació de I'informe Coleman (Coleman et aI., 1966), I'entorn familiar i les característiques individuals de I'alumne són variables que intervenen al procés educatiu, i aquests resultats ho constaten. Per acabar, en I'anàlisi de les variables que expliquen la satisfacció dels pares, s'ha trobat que I'eficiència de les escoles n'és una. Aquest darrer resultat aporta noves aplicacions als estudis d'eficiència que s'han fet fins ara, que no només permeten estudiar polítiques de millora del rendiment dels recursos públics sinó que també permeten orientar aquestes polítiques a la millora de la satisfacció dels ciutadans amb els serveis públics (Roch & Poister, 2006 i Van Ryzin el al., 2004).
22

Puna, Petr. "Extrakce dat z dynamických WWW stránek." Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2009. http://www.nusl.cz/ntk/nusl-236686.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
This work contains a brief overview of technologies for representation and obtaining data on WWW and describes selected web data extraction tools. The work designs a new tool for obtaining pages generated by filling in web forms, which allows its user to define data on such web pages and which can extract those data and offer it in a XML format suitable for future machine processing.
23

Silva, Sónia Sofia Mendes. "Perceções de comportamentos (Des)adequados e relacionamento com pares na escola: um estudo com alunos de 9º ano." Master's thesis, Universidade de Évora, 2016. http://hdl.handle.net/10174/18734.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Os comportamentos e as relações entre pares na escola são importantes para o desenvolvimento social e pessoal dos jovens. A influência exercida pelos pares pode ser positiva ou negativa. Esta investigação visa conhecer as perceções que os jovens têm sobre os comportamentos e relacionamentos adequados/desadequados entre pares. Participaram no estudo 16 estudantes do 9ºano, do sexo masculino, identificados como tendo bom/mau comportamento. A recolha dos dados foi realizada através de questionário constituído por questões abertas. Os dados foram tratados qualitativa e quantitativamente. Os bons e maus comportamentos são conceptualizados por relação com atitudes individuais e relacionais. A perceção dos professores sobre o comportamento dos jovens é diferente da perceção que estes têm do seu próprio comportamento. Os alunos consideram maioritariamente não serem influenciados pelos pares, nem exercerem influência sobre eles. A promoção do relacionamento entre pares é vista como passando pela realização de atividades especificas. O grupo de alunos identificado com mau comportamento apresenta menor variedade conceptual; ABSTRACT: The behaviors and relationships in peers at school are important to the social and personal development of young people. The influence exerted by peers can be positive or negative. This research aims to analyses the perception that young people have about the appropriate/inappropriate behaviors and relationships among peers. Sixteen male students of the 9thyear made part of this study, indentified with bad/good behavior. The data collection was made through questionnaires consisted of open questions. The data was evaluated qualitatively and quantitatively. The good and bad behaviors are conceptualized by individual and relational attitudes. The teachers’ perception of the behavior is different from the perception that the young people has of themselves. The majority of the students do not consider themselves as an influence to the peers, and not even the peers as an influence to them. The promotion of peer relationship is seen as through the realization of specific activities. The student group which was identified with bad behavior presents a lower conceptual variety.
24

Asplund, Fredrik. "Parsing of X.509 certificates in a WAP environment." Thesis, Linköping University, Department of Electrical Engineering, 2002. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-1455.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:

This master thesis consists of three parts. The first part contains a summary of what is needed to understand a X.509 parser that I have created, a discussion concerning the technical problems I encountered during the programming of this parser and a discussion concerning the final version of the parser. The second part concerns a comparison I made between the X.509 parser I created and a X.509 parser created"automatically"by a compiler. I tested static memory, allocation of memory during runtime and utilization of the CPU for both my parser (MP) and the parser that had a basic structure constructed by a compiler (OAP). I discuss changes in the parsers involved to make the comparison fair to OAP, the results from the tests and when circumstances such as time and non-standard content in the project make one way of constructing a X.509 parser better than the other way. The last part concerns a WTLS parser (a simpler kind of X.509 parser), which I created.

25

Raška, Jiří. "Dolování dat v prostředí sociálních sítí." Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2013. http://www.nusl.cz/ntk/nusl-236409.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
This thesis deals with knowledge discovery from social media. This thesis is focused on feature based opinion mining from user reviews. In theoretical part were described methods of opinion mining and natural language processing. Main parts of this thesis were design and implementation of library for opinion mining based on Stanford Parser and lexicon WordNet. For feature identi cation was used dependency grammar, implicit features were mined with method CoAR and opinions were classi ed with supervised algorithm. Finally were given experiments with implemented library and examples of usage.
26

Mostafa, Mahmoud. "Analyse de sécurité et QoS dans les réseaux à contraintes temporelles." Thesis, Toulouse, INPT, 2011. http://www.theses.fr/2011INPT0074/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le domaine des réseaux, deux précieux objectifs doivent être atteints, à savoir la QoS et la sécurité, plus particulièrement lorsqu’il s’agit des réseaux à caractère critique et à fortes contraintes temporelles. Malheureusement, un conflit existe : tandis que la QoS œuvre à réduire les temps de traitement, les mécanismes de sécurité quant à eux requièrent d’importants temps de traitement et causent, par conséquent, des délais et dégradent la QoS. Par ailleurs, les systèmes temps réel, la QoS et la sécurité ont très souvent été étudiés séparément, par des communautés différentes. Dans le contexte des réseaux avioniques de données, de nombreux domaines et applications, de criticités différentes, échangent mutuellement des informations, souvent à travers des passerelles. Il apparaît clairement que ces informations présentent différents niveaux de sensibilité en termes de sécurité et de QoS. Tenant compte de cela, le but de cette thèse est d’accroître la robustesse des futures générations de réseaux avioniques de données en contrant les menaces de sécurité et évitant les ruptures de trafic de données. A cet effet, nous avons réalisé un état de l’art des mécanismes de sécurité, de la QoS et des applications à contraintes temporelles. Nous avons, ensuite étudié la nouvelle génération des réseaux avioniques de données. Chose qui nous a permis de déterminer correctement les différentes menaces de sécurité. Sur la base de cette étude, nous avons identifié à la fois les exigences de sécurité et de QoS de cette nouvelle génération de réseaux avioniques. Afin de les satisfaire, nous avons proposé une architecture de passerelle de sécurité tenant compte de la QoS pour protéger ces réseaux avioniques et assurer une haute disponibilité en faveur des données critiques. Pour assurer l’intégration des différentes composantes de la passerelle, nous avons développé une table de session intégrée permettant de stocker toutes les informations nécessaires relatives aux sessions et d’accélérer les traitements appliqués aux paquets (filtrage à états, les traductions d’adresses NAT, la classification QoS et le routage). Cela a donc nécessité, en premier lieu, l'étude de la structure existante de la table de session puis, en second lieu, la proposition d'une toute nouvelle structure répondant à nos objectifs. Aussi, avons-nous présenté un algorithme permettant l’accès et l’exploitation de la nouvelle table de session intégrée. En ce qui concerne le composant VPN IPSec, nous avons détecté que le trafic chiffré par le protocole ESP d’IPSec ne peut pas être classé correctement par les routeurs de bordure. Afin de surmonter ce problème, nous avons développé un protocole, Q-ESP, permettant la classification des trafics chiffrés et offrant les services de sécurité fournis par les protocoles AH et ESP combinés. Plusieurs techniques de gestion de bande passante ont été développées en vue d’optimiser la gestion du trafic réseau. Pour évaluer les performances offertes par ces techniques et identifier laquelle serait la plus appropriée dans notre cas, nous avons effectué une comparaison basée sur le critère du délai, par le biais de tests expérimentaux. En dernière étape, nous avons évalué et comparé les performances de la passerelle de sécurité que nous proposons par rapport à trois produits commerciaux offrant les fonctions de passerelle de sécurité logicielle en vue de déterminer les points forts et faibles de notre implémentation pour la développer ultérieurement. Le manuscrit s’organise en deux parties : la première est rédigée en français et représente un résumé détaillé de la deuxième partie qui est, quant à elle, rédigée en anglais
QoS and security are two precious objectives for network systems to attain, especially for critical networks with temporal constraints. Unfortunately, they often conflict; while QoS tries to minimize the processing delay, strong security protection requires more processing time and causes traffic delay and QoS degradation. Moreover, real-time systems, QoS and security have often been studied separately and by different communities. In the context of the avionic data network various domains and heterogeneous applications with different levels of criticality cooperate for the mutual exchange of information, often through gateways. It is clear that this information has different levels of sensitivity in terms of security and QoS constraints. Given this context, the major goal of this thesis is then to increase the robustness of the next generation e-enabled avionic data network with respect to security threats and ruptures in traffic characteristics. From this perspective, we surveyed the literature to establish state of the art network security, QoS and applications with time constraints. Then, we studied the next generation e-enabled avionic data network. This allowed us to draw a map of the field, and to understand security threats. Based on this study we identified both security and QoS requirements of the next generation e-enabled avionic data network. In order to satisfy these requirements we proposed the architecture of QoS capable integrated security gateway to protect the next generation e-enabled avionic data network and ensure the availability of critical traffic. To provide for a true integration between the different gateway components we built an integrated session table to store all the needed session information and to speed up the packet processing (firewall stateful inspection, NAT mapping, QoS classification and routing). This necessitates the study of the existing session table structure and the proposition of a new structure to fulfill our objective. Also, we present the necessary processing algorithms to access the new integrated session table. In IPSec VPN component we identified the problem that IPSec ESP encrypted traffic cannot be classified appropriately by QoS edge routers. To overcome this problem, we developed a Q-ESP protocol which allows the classifications of encrypted traffic and combines the security services provided by IPSec ESP and AH. To manage the network traffic wisely, a variety of bandwidth management techniques have been developed. To assess their performance and identify which bandwidth management technique is the most suitable given our context we performed a delay-based comparison using experimental tests. In the final stage, we benchmarked our implemented security gateway against three commercially available software gateways. The goal of this benchmark test is to evaluate performance and identify problems for future research work. This dissertation is divided into two parts: in French and in English respectively. Both parts follow the same structure where the first is an extended summary of the second
27

Celis, Carranza Ines Jeovana, Haro Jhajaira Luz Marín, Zavala Edith Rosalina Palomino, Babilonia Fiorella Stefania Villafuerte, and Salazar Karen Villanueva. "Modelo para el manejo del impacto de la identidad cultural dada la adquisición de una empresa peruana por parte de la subsidiaria latinoamericana de una empresa japonesa en el año 2015." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2016. http://hdl.handle.net/10757/618237.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Los procesos de reestructuración empresarial a través de Fusiones o Adquisiciones se han convertido en un punto vulnerable para una óptima integración de ambas empresas; dado que en la mayoría de casos los colaboradores se resisten al cambio. Para este fin, se propone un modelo que brindará estrategias para la mejor administración en este proceso, enfocado en las culturas organizacionales de una empresa peruana que fue adquirida por una empresa japonesa. En específico, se tratará el caso de la empresa comercializadora RICOH LATIN AMERICAN, subsidiaria de RICOH COMPANY Ltd. que adquiere a la empresa distribuidora peruana denominada Perú Office S.A (STANSA) la cual hasta ese momento era uno de sus principales distribuidores en el Perú. Se presentarán los motivos y los resultados de operaciones similares al caso específico. El capítulo 1 comprenderá el marco teórico con los principales temas y conceptos a abarcar en el presente trabajo. Asimismo, en el capítulo 2 se analizará la problemática observada en la empresa generada por el proceso de fusión y adquisición. Por último, en el capítulo 3 se presentará la propuesta de solución a dicha problemática.
Tesis
28

Piwko, Karel. "Nativní XML rozhraní pro relační databázi." Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2010. http://www.nusl.cz/ntk/nusl-235541.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
XML has emerged as leading document format for exchanging data. Because of vast amounts of XML documents available and transfered, there is a strong need to store and query information in these documents. However, the most companies are still using a RDBMS for their data warehouses and it is often necessary to combine legacy data with the ones in XML format, so it might be useful to consider storage possibilities for XML documents in a relation database. In this thesis we focused on structured and semi-structured data-based XML documents, because they are the most common when exchanging data and they can be easily validated against an XML schema. We propose a slightly modified Hybrid algorithm to shred doc- uments into relations using an XSD scheme and we allowed redundancy to make queries faster. Our goal was not to provide an academic solution, but fully working system supporting latest standards, which will beat up native XML databases both by performance and vertical scalability.
29

SANTOS, Danilo Abreu. "Recomendação pedagógica para melhoria da aprendizagem em redações." Universidade Federal de Campina Grande, 2015. http://dspace.sti.ufcg.edu.br:8080/jspui/handle/riufcg/550.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Submitted by Johnny Rodrigues (johnnyrodrigues@ufcg.edu.br) on 2018-05-02T13:28:09Z No. of bitstreams: 1 DANILO ABREU SANTOS - DISSERTAÇÃO PPGCC 2015..pdf: 2955839 bytes, checksum: 45290d85cdffbae0320f29fc5e633cb6 (MD5)
Made available in DSpace on 2018-05-02T13:28:09Z (GMT). No. of bitstreams: 1 DANILO ABREU SANTOS - DISSERTAÇÃO PPGCC 2015..pdf: 2955839 bytes, checksum: 45290d85cdffbae0320f29fc5e633cb6 (MD5) Previous issue date: 2015-08-24
A modalidade de educação online tem crescido significativamente nas últimas décadas em todo o mundo, transformando-se em uma opção viável tanto àqueles que não dispõem de tempo para trabalhar a sua formação acadêmica na forma presencial quanto àqueles que desejam complementá-la. Há também os que buscam ingressar no ensino superior por meio do Exame Nacional do Ensino Médio (ENEM) e utilizam esta modalidade de ensino para complementar os estudos, objetivando sanar lacunas deixadas pela formação escolar. O ENEM é composto por questões objetivas (subdivididas em 4 grandes áreas: Linguagens e Códigos; Matemática; Ciências Humanas; e Ciências Naturais) e a questão subjetiva (redação). Segundo dados do Ministério da Educação (MEC), mais de 50% dos candidatos que fizeram a prova do ENEM em 2014 obtiveram desempenho abaixo de 500 pontos na redação. Esta pesquisa utilizará recomendações pedagógicas baseadas no gênero textual utilizado pelo ENEM, visando prover uma melhoria na escrita da redação dissertativa. Para tanto, foi utilizado, como ferramenta experimental, o ambiente online de aprendizagem MeuTutor. O ambiente possui um módulo de escrita de redação, no qual é utilizada para correção dos textos elaborados pelos alunos, a metodologia de avaliação por pares, cujo pesquisas mostram que os resultados avaliativos são significativos e bastante similares aos obtidos por professores especialistas. Entretanto, apenas apresentar a pontuação da redação por si só, não garante a melhora da produção textual do aluno avaliado. Desta forma, visando um ganho em performance na produção da redação, foi adicionado ao MeuTutor um módulo de recomendação pedagógica baseado em 19 perfis resultados do uso de algoritmos de mineração de dados (DBScan e Kmeans) nos microdados do ENEM 2012 disponibilizado pelo MEC. Estes perfis foram agrupados em 6 blocos que possuíam um conjunto de tarefas nas áreas de escrita, gramática e coerências e concordância textual. A validação destas recomendações foi feita em um experimento de 3 ciclos, onde em cada ciclo o aluno: escreve a redação; avalia os seus pares; realiza a recomendação pedagógica que foi recebida. A partir da análise estatística destes dados, foi possível constatar que o modelo estratégico de recomendação utilizado nesta pesquisa, possibilitou um ganho mensurável na qualidade da produção textual.
Online education has grown significantly in recent years throughout the world, becoming a viable option for those who don’t have the time to pursuit traditional technical training or academic degree. In Brazil, people seek to enter higher education through the National Secondary Education Examination (ENEM) and use online education to complement their studies, aiming to remedy gaps in their school formation. The ENEM consists of objective questions (divided into 4 main areas: languages and codes; Mathematics; Social Sciences, and Natural Sciences), and the subjective questions (the essay). According to the Brazilian Department of Education (MEC), more than 50% of the candidates who took the test (ENEM) in 2014, obtained performance below 500 points (out of a 1000 maximum points) for their essays. This research uses educational recommendations based on the five official correction criteria for the ENEM essays, to improve writing. Thus, this research used an experimental tool in an online learning environment called MeuTutor. The mentioned learning environment has an essay writing/correction module. The correction module uses peer evaluation techniques, for which researches show that the results are, significantly, similar to those obtained by specialists’ correction. However, to simply display the scores for the criteria does not guarantee an improvement in students’ writing. Thus, to promote that, an educational recommendation module was added to MeuTutor. It is based on 19 profiles obtained mining data from the 2012 ENEM. It uses the algorithms DBSCAN and K-Means, and grouped the profiles into six blocks, to which a set of tasks were associated to the areas of writing, grammar and coherence, and textual agreement. The validation of these recommendations was made in an experiment with three cycles, where students should: (1) write the essay; (2) evaluate their peers; (3) perform the pedagogical recommendations received. From the analysis of these data, it was found that the strategic model of recommendation used in this study, enabled a measurable gain in quality of textual production.
30

Sekhi, Ikram. "Développement d'un alphabet structural intégrant la flexibilité des structures protéiques." Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCC084/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objectif de cette thèse est de proposer un Alphabet Structural (AS) permettant une caractérisation fine et précise des structures tridimensionnelles (3D) des protéines, à l’aide des chaînes de Markov cachées (HMM) qui permettent de prendre en compte la logique issue de l’enchaînement des fragments structuraux en intégrant l’augmentation des conformations 3D des structures protéiques désormais disponibles dans la banque de données de la Protein Data Bank (PDB). Nous proposons dans cette thèse un nouvel alphabet, améliorant l’alphabet structural HMM-SA27,appelé SAFlex (Structural Alphabet Flexibility), dans le but de prendre en compte l’incertitude des données (données manquantes dans les fichiers PDB) et la redondance des structures protéiques. Le nouvel alphabet structural SAFlex obtenu propose donc un nouveau modèle d’encodage rigoureux et robuste. Cet encodage permet de prendre en compte l’incertitude des données en proposant trois options d’encodages : le Maximum a posteriori (MAP), la distribution marginale a posteriori (POST)et le nombre effectif de lettres à chaque position donnée (NEFF). SAFlex fournit également un encodage consensus à partir de différentes réplications (chaînes multiples, monomères et homomères) d’une même protéine. Il permet ainsi la détection de la variabilité structurale entre celles-ci. Les avancées méthodologiques ainsi que l’obtention de l’alphabet SAFlex constituent les contributions principales de ce travail de thèse. Nous présentons aussi le nouveau parser de la PDB (SAFlex-PDB) et nous démontrons que notre parser a un intérêt aussi bien sur le plan qualitatif (détection de diverses erreurs)que quantitatif (rapidité et parallélisation) en le comparant avec deux autres parsers très connus dans le domaine (Biopython et BioJava). Nous proposons également à la communauté scientifique un site web mettant en ligne ce nouvel alphabet structural SAFlex. Ce site web représente la contribution concrète de cette thèse alors que le parser SAFlex-PDB représente une contribution importante pour le fonctionnement du site web proposé. Cette caractérisation précise des conformations 3D et la prise en compte de la redondance des informations 3D disponibles, fournies par SAFlex, a en effet un impact très important pour la modélisation de la conformation et de la variabilité des structures 3D, des boucles protéiques et des régions d’interface avec différents partenaires, impliqués dans la fonction des protéines
The purpose of this PhD is to provide a Structural Alphabet (SA) for more accurate characterization of protein three-dimensional (3D) structures as well as integrating the increasing protein 3D structure information currently available in the Protein Data Bank (PDB). The SA also takes into consideration the logic behind the structural fragments sequence by using the hidden Markov Model (HMM). In this PhD, we describe a new structural alphabet, improving the existing HMM-SA27 structural alphabet, called SAFlex (Structural Alphabet Flexibility), in order to take into account the uncertainty of data (missing data in PDB files) and the redundancy of protein structures. The new SAFlex structural alphabet obtained therefore offers a new, rigorous and robust encoding model. This encoding takes into account the encoding uncertainty by providing three encoding options: the maximum a posteriori (MAP), the marginal posterior distribution (POST), and the effective number of letters at each given position (NEFF). SAFlex also provides and builds a consensus encoding from different replicates (multiple chains, monomers and several homomers) of a single protein. It thus allows the detection of structural variability between different chains. The methodological advances and the achievement of the SAFlex alphabet are the main contributions of this PhD. We also present the new PDB parser(SAFlex-PDB) and we demonstrate that our parser is therefore interesting both qualitative (detection of various errors) and quantitative terms (program optimization and parallelization) by comparing it with two other parsers well-known in the area of Bioinformatics (Biopython and BioJava). The SAFlex structural alphabet is being made available to the scientific community by providing a website. The SAFlex web server represents the concrete contribution of this PhD while the SAFlex-PDB parser represents an important contribution to the proper function of the proposed website. Here, we describe the functions and the interfaces of the SAFlex web server. The SAFlex can be used in various fashions for a protein tertiary structure of a given PDB format file; it can be used for encoding the 3D structure, identifying and predicting missing data. Hence, it is the only alphabet able to encode and predict the missing data in a 3D protein structure to date. Finally, these improvements; are promising to explore increasing protein redundancy data and obtain useful quantification of their flexibility
31

Malakhovski, Ian. "Sur le pouvoir expressif des structures applicatives et monadiques indexées." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30118.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Il est bien connu que des constructions théoriques très simples telles que les structures Either (équivalent type théorique de l'opérateur logique "ou"), State (représentant des transformateurs d'état composables), Applicative (application des fonctions généralisée) et Monad (composition de programmes séquentielles généralisée), nommés structures en Haskell, couvrent une grande partie de ce qui est habituellement nécessaire pour exprimer avec élégance la plupart des idiomes informatiques utilisés dans les programmes classiques. Cependant, il est usuellement admis qu'il existe plusieurs classes d'idiomes couramment utilisés qui ne s'intègrent pas bien à ces structures, les exemples les plus remarquables étant les transformations entre arbres (types de données, dont l'utilisation doit s'appuyer soit sur les motifs généralisés soit sur une infrastructure de méta programmation lourde) et traitement des exceptions (qui sont d'habitude supposés nécessiter un langage spécial et une prise en charge de l'exécution). Ce travail a pour but de montrer que beaucoup de ces idiomes peuvent, en fait, être exprimés en réutilisant ces structures bien connues avec des modifications mineures (le cas échéant). En d'autres termes, le but de ce travail est d'appliquer les principes du rasoir KISS (Keep It Stupid Simple) et/ou d'Occam aux structures algébriques utilisées pour résoudre des problèmes de programmation courants. Techniquement parlant, ce travail a pour but de montrer que les généralisations naturelles de classes de types Applicative et Monad de Haskell, associées à la possibilité d'en faire des produits cartésiens, en produisent un cadre commun très simple pour exprimer de nombreuses choses pratiques, dont certaines sont des nouvelles méthodes très commodes pour exprimer des idées de programmation communes, tandis que les autres peuvent être vues comme systèmes d'effets. Sur ce dernier point, si l'on veut généraliser des exemples présentés dans une approche de la conception de systèmes d'effets en général, on peut alors considérer la structure globale de cette approche comme un cadre quasi syntaxique qui permet d'ériger une structure générale du cadre "mariage" au dessus de différents systèmes d'effets adhérant aux principes de base. (Bien que ce travail ne soit pas trop approfondi dans la dernière, car il est principalement motivé par des exemples qui peuvent être immédiatement appliqués à la pratique de Haskell.) Il convient toutefois de noter qu'en fait, ces observations techniques n'ont rien d'étonnant: Applicative et Monad sont respectivement des généralisations de composition fonctionnelle et linéaire des programmes; ainsi, naturellement, les produits cartésiens de ces deux structures doivent couvrir en grande partie ce que les programmes font habituellement
It is well-known that very simple theoretic constructs such as Either (type-theoretic equivalent of the logical "or" operator), State (composable state transformers), Applicative (generalized function application), and Monad (generalized sequential program composition) structures (as they are named in Haskell) cover a huge chunk of what is usually needed to elegantly express most computational idioms used in conventional programs. However, it is conventionally argued that there are several classes of commonly used idioms that do not fit well within those structures, the most notable examples being transformations between trees (data types, which are usually argued to require ether generalized pattern matching or heavy metaprogramming infrastructure) and exception handling (which are usually argued to require special language and run-time support). This work aims to show that many of those idioms can, in fact, be expressed by reusing those well-known structures with minor (if any) modifications. In other words, the purpose of this work is to apply the KISS (Keep It Stupid Simple) and/or Occam's razor principles to algebraic structures used to solve common programming problems. Technically speaking, this work aims to show that natural generalizations of Applicative and Monad type classes of Haskell combined with the ability to make Cartesian products of them produce a very simple common framework for expressing many practically useful things, some of the instances of which are very convenient novel ways to express common programming ideas, while others are usually classified as effect systems. On that latter point, if one is to generalize the presented instances into an approach to design of effect systems in general, then the overall structure of such an approach can be thought of as being an almost syntactic framework which allows different effect systems adhering to the general structure of the "marriage" framework to be expressed on top of. (Though, this work does not go into too much into the latter, since this work is mainly motivated by examples that can be immediately applied to Haskell practice.) Note, however, that, after the fact, these technical observation are completely unsurprising: Applicative and Monad are generalizations of functional and linear program compositions respectively, so, naturally, Cartesian products of these two structures ought to cover a lot of what programs usually do
32

Banerji, Ranajoy. "Optimisation d’une mission spatiale CMB de 4eme génération." Thesis, Sorbonne Paris Cité, 2017. http://www.theses.fr/2017USPCC199/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le rayonnement du Fond Diffus Cosmologique est une source riche et propre d’informations cosmologiques. L’étude du CMB au cours des dernières décennies a conduit à la mise en place d’un modèle standard pour la cosmologie et a permis de mesurer précisément ses principaux paramètres. Il a également transformé le domaine, en le basant davantage sur les données observationnelles et les approches numériques et statistiques.A l’heure actuelle, l’inflation est le principal paradigme décrivant les premiers moments de notre Univers. Elle prédit la génération de fluctuations de la densité de matière primordiale et des ondes gravitationnelles. Le signal de polarisation du CMB porte la signature de ces ondes gravitationnelles sous la forme de modes-B primordiaux. Une future génération de missions spatiale d’observation de la polarisation du CMB est bien adaptée à l’observation de cette signature de l’inflation.Cette thèse se concentre sur l’optimisation d’une future mission spatiale CMB qui observera le signal en modes-B pour atteindre une sensibilité de r = 0,001. Plus précisément, j’étudie la stratégie d’observation et l’impact des effets systématiques sur la qualité de la mesure de polarisation
The Cosmic Microwave Background radiation is a rich and clean source of Cosmological information. Study of the CMB over the past few decades has led to the establishment of a “Standard Model” for Cosmology and constrained many of its principal parameters. It hasalso transformed the field into a highly data-driven domain.Currently, Inflation is the leading paradigm describing the earliest moments of our Universe. It predicts the generation of primordial matter density fluctuations and gravitational waves. The CMB polarisation carries the signature of these gravitational waves in the form of primordial “B-modes”. A future generation of CMB polarisation space mission is well suited to observe this signature of Inflation.This thesis focuses on optimising a future CMB space mission that will observe the B-modesignal for reaching a sensitivity of r = 0.001. Specifically, I study the optimisation of the scanning strategy and the impact of systematics on the quality of polarisation measurement
33

Poliziani, Cristian. "Analisi dei percorsi ciclabili registrati tramite smartphone sulla rete stradale di Bologna nell'ultimo triennio." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/11247/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La diffusione di smartphone con GPS si è rilevata utile per lo studio di modelli di scelta del percorso da parte di utenti che si muovono in bicicletta. Nel 2012 è stata ideata la ‘European Cyclinq Challenge’ (ECC), che consiste in una “gara” europea tra città: vince quella nella quale i rispettivi abitanti registrano il maggior numero di chilometri effettuati in bicicletta. In questo modo è possibile conoscere in forma anonima i percorsi realmente seguiti dai partecipanti alla gara: nel caso in esame, sono state fornite le tracce GPS registrate a Bologna sotto forma di punti catalogati ogni 10-15 secondi, a cui sono associate informazioni di coordinate, codice identificativo e istante di registrazione. Una fase di map-matching associa tali punti alla rete stradale di Bologna, descritta nel caso in esame dalla rete di Open Street Maps (OSM). Un elemento che garantisce al meglio la comprensione relativa alle scelte dei ciclisti, è quello di confrontarle con l’alternativa più breve, per capire quanto un utente sia disposto a discostarsi da essa per privilegiare ad esempio la sicurezza personale, il fatto di evitare pendenze elevate o incroci pericolosi. A partire dai punti GPS, che rappresentano l’origine e la destinazione di ogni viaggio, è possibile individuare sulla rete il percorso più corto che li congiunge, eseguendo sulla stessa rete tramite l’algoritmo di Dijkstra, considerando come unico attributo di costo la lunghezza. È stato possibile, mediante questi dati, effettuare un confronto nei tre anni di studio, relativamente alla distribuzione statistica delle lunghezze dei viaggi percorsi dagli utenti, a quanto questi si discostino dal percorso più breve ed infine come varia la percentuale dei viaggi effettuati nelle diverse tipologie stradali. Un’ultima analisi evidenzia la possibile tendenza degli utenti che si spostano in bicicletta nella città di Bologna, a utilizzare percorsi caratterizzati dalla presenza di numerosi incroci semaforizzati.
34

Biagini, Giulio. "Studio delle Problematiche ed Evoluzione dello Streaming Adattivo su HTTP." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/15474/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Negli ultimi anni abbiamo assistito ad un notevole aumento del traffico dati mobile, trend confermato anche per il futuro, generato in gran parte da dispositivi smart e perlopiù legato alla metodica di accesso e scambio dati nota con il nome di video streaming. Si stima infatti che circa l'80% della bandwidth mobile mondiale nel 2021 sarà utilizzata per lo scambio di dati audio/video. Risulta dunque di fondamentale importanza per i provider di rete e dei servizi di video streaming, soprattutto quelli forniti on-demand, cercare di comprendere quali sono i parametri che maggiormente influenzano la cosiddetta QoE - Quality of Experience sperimentata dagli utenti finali, in modo da garantire loro il miglior servizio possibile (QoS - Quality of Service), mantenendo comunque alti i profitti. Nell'ambito delle applicazioni e servizi di video streaming, in particolare, la qualità percepita dagli utenti finali risulta fortemente influenzata da diversi effetti di degradazione che possono verificarsi a causa di cattive condizioni di rete, soprattutto nello specifico ambito della mobilità. Da questi studi risulta come, ad esempio, gli utenti preferiscono sperimentare effetti di degradazione temporale durante la riproduzione di contenui multimediali piuttosto che effetti di degradazione della qualità, risultati da cui derivano scelte implementative quali, ad esempio, l'utilizzo del protocollo TCP e la nascita del cosiddetto HTTP-based adaptive streaming, ovvero quella tecnica che permette di adattare la qualità dei segmenti scaricati in base al throughput, in modo da minimizzare il numero di interruzioni del servizio e massimizzare, al contempo, la qualità del media in download. Dopo una rapida analisi delle principali tecnologie oggi utilizzate, si evince come vi sia la necessità di definire un unico formato per il manifest e per la struttura dei segmenti. Si arriva così alla definizione dello standard MPEG-DASH con le proprie euristiche di adattamento.
35

Tsai, Feng-Tse, and 蔡豐澤. "The Research on Improvement of the Tunstall Parse Tree for Data Compression." Thesis, 2008. http://ndltd.ncl.edu.tw/handle/79054446942455141098.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
碩士
淡江大學
資訊管理學系碩士班
96
There are lossy and lossless techniques for data compression. Most lossless compression techniques are vulnerable to noise. When bit flips occur due to noise, serious error propagation will be seen in such lossless compression techniques as Huffman coding, arithmetic coding, and Ziv-Lempel coding. By using fixed-length codewords and not using an adaptive dictionary, Tunstall coding stands out as an error-resilient lossless compression technique. However the compression ratio of Tunstall coding is not good. Therefore the aim of this work is to enhance the compression ratio of Tunstall coding without compromising its error-resilience. Traditional Tunstall coding grows a parse tree by iterative expansion of the maximum probability leaf. On each node expansion, it adopts the exhaustive branching of all symbol leaves, which will cause some precious codewords unassigned or waste of codewords on low probability nodes. In this work, three revised versions A, B, C of Tunstall coding are proposed. Versions A and B are based on the traditional Tunstall parse tree and aim to improve assignment of the complete codewords to high probability nodes via node insertion and deletion respectively. Version C is based on an infinitely extended parse tree and aims to grow the optimal parse tree by assigning the complete codewords only to top probability nodes in the infinite tree. For evaluation, the performances of the three revised versions are compared with that of the traditional Tunstall coding. The experiment shows that on common datasets, version C has better performance than versions A and B and can have up to 6% increase of compression ratio over traditional Tuntsall Coding. Furthermore, version C is not worse than version A and B in terms of compression time.
36

Panse, Christian [Verfasser]. "Visualizing geo-related data using cartograms / vorgelegt von Christian Panse." 2005. http://d-nb.info/976691841/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

"A robust unification-based parser for Chinese natural language processing." 2001. http://library.cuhk.edu.hk/record=b5895881.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Chan Shuen-ti Roy.
Thesis (M.Phil.)--Chinese University of Hong Kong, 2001.
Includes bibliographical references (leaves 168-175).
Abstracts in English and Chinese.
Chapter 1. --- Introduction --- p.12
Chapter 1.1. --- The nature of natural language processing --- p.12
Chapter 1.2. --- Applications of natural language processing --- p.14
Chapter 1.3. --- Purpose of study --- p.17
Chapter 1.4. --- Organization of this thesis --- p.18
Chapter 2. --- Organization and methods in natural language processing --- p.20
Chapter 2.1. --- Organization of natural language processing system --- p.20
Chapter 2.2. --- Methods employed --- p.22
Chapter 2.3. --- Unification-based grammar processing --- p.22
Chapter 2.3.1. --- Generalized Phase Structure Grammar (GPSG) --- p.27
Chapter 2.3.2. --- Head-driven Phrase Structure Grammar (HPSG) --- p.31
Chapter 2.3.3. --- Common drawbacks of UBGs --- p.33
Chapter 2.4. --- Corpus-based processing --- p.34
Chapter 2.4.1. --- Drawback of corpus-based processing --- p.35
Chapter 3. --- Difficulties in Chinese language processing and its related works --- p.37
Chapter 3.1. --- A glance at the history --- p.37
Chapter 3.2. --- Difficulties in syntactic analysis of Chinese --- p.37
Chapter 3.2.1. --- Writing system of Chinese causes segmentation problem --- p.38
Chapter 3.2.2. --- Words serving multiple grammatical functions without inflection --- p.40
Chapter 3.2.3. --- Word order of Chinese --- p.42
Chapter 3.2.4. --- The Chinese grammatical word --- p.43
Chapter 3.3. --- Related works --- p.45
Chapter 3.3.1. --- Unification grammar processing approach --- p.45
Chapter 3.3.2. --- Corpus-based processing approach --- p.48
Chapter 3.4. --- Restatement of goal --- p.50
Chapter 4. --- SERUP: Statistical-Enhanced Robust Unification Parser --- p.54
Chapter 5. --- Step One: automatic preprocessing --- p.57
Chapter 5.1. --- Segmentation of lexical tokens --- p.57
Chapter 5.2. --- "Conversion of date, time and numerals" --- p.61
Chapter 5.3. --- Identification of new words --- p.62
Chapter 5.3.1. --- Proper nouns ´ؤ Chinese names --- p.63
Chapter 5.3.2. --- Other proper nouns and multi-syllabic words --- p.67
Chapter 5.4. --- Defining smallest parsing unit --- p.82
Chapter 5.4.1. --- The Chinese sentence --- p.82
Chapter 5.4.2. --- Breaking down the paragraphs --- p.84
Chapter 5.4.3. --- Implementation --- p.87
Chapter 6. --- Step Two: grammar construction --- p.91
Chapter 6.1. --- Criteria in choosing a UBG model --- p.91
Chapter 6.2. --- The grammar in details --- p.92
Chapter 6.2.1. --- The PHON feature --- p.93
Chapter 6.2.2. --- The SYN feature --- p.94
Chapter 6.2.3. --- The SEM feature --- p.98
Chapter 6.2.4. --- Grammar rules and features principles --- p.99
Chapter 6.2.5. --- Verb phrases --- p.101
Chapter 6.2.6. --- Noun phrases --- p.104
Chapter 6.2.7. --- Prepositional phrases --- p.113
Chapter 6.2.8. --- """Ba2"" and ""Bei4"" constructions" --- p.115
Chapter 6.2.9. --- The terminal node S --- p.119
Chapter 6.2.10. --- Summary of phrasal rules --- p.121
Chapter 6.2.11. --- Morphological rules --- p.122
Chapter 7. --- Step Three: resolving structural ambiguities --- p.128
Chapter 7.1. --- Sources of ambiguities --- p.128
Chapter 7.2. --- The traditional practices: an illustration --- p.132
Chapter 7.3. --- Deficiency of current practices --- p.134
Chapter 7.4. --- A new point of view: Wu (1999) --- p.140
Chapter 7.5. --- Improvement over Wu (1999) --- p.142
Chapter 7.6. --- Conclusion on semantic features --- p.146
Chapter 8. --- "Implementation, performance and evaluation" --- p.148
Chapter 8.1. --- Implementation --- p.148
Chapter 8.2. --- Performance and evaluation --- p.150
Chapter 8.2.1. --- The test set --- p.150
Chapter 8.2.2. --- Segmentation of lexical tokens --- p.150
Chapter 8.2.3. --- New word identification --- p.152
Chapter 8.2.4. --- Parsing unit segmentation --- p.156
Chapter 8.2.5. --- The grammar --- p.158
Chapter 8.3. --- Overall performance of SERUP --- p.162
Chapter 9. --- Conclusion --- p.164
Chapter 9.1. --- Summary of this thesis --- p.164
Chapter 9.2. --- Contribution of this thesis --- p.165
Chapter 9.3. --- Future work --- p.166
References --- p.168
Appendix I --- p.176
Appendix II --- p.181
Appendix III --- p.183
38

Aguiar, Daniel José Gomes. "IP network usage accounting: parte I." Master's thesis, 2015. http://hdl.handle.net/10400.13/1499.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Um Internet Service Provider (ISP) tem a seu cargo a gestão de redes compostas por milhares de clientes, onde é necessário haver um controlo rígido da largura de banda e evitar o congestionamento da mesma. Para isso os ISPs precisam de sistemas capazes de analisar os dados de tráfego e atribuir a qualidade de serviço (QoS) adequada com base nesses dados. A NOS Madeira é o ISP líder na ilha da Madeira, com milhares de clientes por toda a Região. O sistema de controlo de largura de banda existente nesta empresa era obsoleto e levou à necessidade da criação de um novo sistema de controlo de largura de banda. Este novo sistema, denominado IP Network Usage Accounting, é composto por três subsistemas: IP Mapping System, Accounting System e Policy Server System. Este relatório, fala sobre o desenho, a implementação e testes do primeiro subsistema, IP Mapping System. O IP Mapping System é responsável por realizar a recolha de dados de tráfego realizado pelos clientes da NOS Madeira e a fornecê-los ao segundo subsistema, (Accounting System). Este, por sua vez, realiza uma análise desses mesmos dados e envia os resultados ao terceiro subsistema (Policy Server System) que aplica o QoS correspondente a cada IP dos clientes.
An Internet Service Provider (ISP) is responsible for the management of networks made up of thousands of customers, where there must be strict control of bandwidth and avoid congestion of it. For that ISPs need systems capable of analyzing traffic data and assign the Quality of Service (QoS) suitable in reliance thereon. NOS Madeira is the leading ISP in Madeira, with thousands of customers throughout the region. The existing bandwidth control system in this company was obsolete and led to the need to create a new bandwidth control system. This new system, called IP Network Usage Accounting, consists of three subsystems: IP Mapping System, Accounting System and Policy Server System. This report talks about the design, implementation and testing of the first subsystem, IP Mapping System. The IP Mapping System is responsible for performing the collection of traffic data held by customers of NOS Madeira and provide them to the second subsystem (Accounting System). This, in turn, performs an analysis of these data and sends the results to the third subsystem (Policy Server System) applying QoS corresponding to each of the clients IP.
39

Chia-Yi, Pan. "An Extended PROMELA Parser Which Generates Compact CCS State Graphs Using Data Flow Analysis for Refactoring Automation." 2002. http://www.cetd.com.tw/ec/thesisdetail.aspx?etdun=U0021-1904200715423664.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Pan, Chia Yi, and 潘珈逸. "An Extended PROMELA Parser Which Generates Compact CCS State Graphs Using Data Flow Analysis for Refactoring Automation." Thesis, 2003. http://ndltd.ncl.edu.tw/handle/50929352371886929884.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
碩士
國立臺灣師範大學
資訊教育研究所
91
Automated finite-state verification techniques have matured considerably in the past decades, but state-space explosion remains an obstacle to their use. Theoretical lower bounds on complexity imply that all of the techniques that have been developed to avoid or mitigate state-space explosion depend on models that are “well-formed” in some way, and will usually fail for other models. This further implies that, when analysis is applied to models derived from designs or implementations of actual software systems, a model of the system “as built” is unlikely to be suitable for automated analysis. In particular, compositional hierarchical analysis (where state-space explosion is avoided by simplifying models of subsystems at several levels of abstraction) depends on the modular structure of the model to be analyzed. We describe how as-built finite-state models can be refactored for compositional state-space analysis, applying a series of transformations to produce an equivalent model whose structure exhibits suitable modularity. In this thesis, we adopt Promela the as front-end language to automate refactoring. We select a subset of Promela and add some keywords for refactoring. The extended syntax is called rc-Promela, where “r” stands for “refactor” and “c” stands for “ccs.” We build a parser for rc-Promela, and use the parser to construct AST for rc-Promela model. Finally, we apply data flow analysis on AST to generate compact CCS state graphs for refactoring.
41

Bhattacharjee, Abhinaba. "A Data Requisition Treatment Instrument For Clinical Quantifiable Soft Tissue Manipulation." Thesis, 2019. http://hdl.handle.net/1805/19009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Indiana University-Purdue University Indianapolis (IUPUI)
Soft tissue manipulation is a widely used practice by manual therapists from a variety of healthcare disciplines to evaluate and treat neuromusculoskeletal impairments using mechanical stimulation either by hand massage or specially-designed tools. The practice of a specific approach of targeted pressure application using distinguished rigid mechanical tools to breakdown adhesions, scar tissues and improve range of motion for affected joints is called Instrument-Assisted Soft Tissue Manipulation (IASTM). The efficacy of IASTM has been demonstrated as a means to improve mobility of joints, reduce pain, enhance flexibility and restore function. However, unlike the techniques of ultrasound, traction, electrical stimulation, etc. the practice of IASTM doesn't involve any standard to objectively characterize massage with physical parameters. Thus, most IASTM treatments are subjective to practitioner or patient subjective feedback, which essentially addresses a need to quantify therapeutic massage or IASTM treatment with adequate treatment parameters to document, better analyze, compare and validate STM treatment as an established, state-of-the-art practice. This thesis focuses on the development and implementation of Quantifiable Soft Tissue Manipulation (QSTM™) Technology by designing an ergonomic, portable and miniaturized wired localized pressure applicator medical device (Q1), for characterizing soft tissue manipulation. Dose-load response in terms of forces in Newtons; pitch angle of the device ; stroke frequency of massage measured within stipulated time of treatment; all in real-time has been captured to characterize a QSTM session. A QSTM PC software (Q-WARE©) featuring a Treatment Record System subjective to individual patients to save and retrieve treatment diagnostics and a real-time graphical visual monitoring system has been developed from scratch on WINDOWS platform to successfully implement the technology. This quantitative analysis of STM treatment without visual monitoring has demonstrated inter-reliability and intra-reliability inconsistencies by clinicians in STM force application. While improved consistency of treatment application has been found when using visual monitoring from the QSTM feedback system. This system has also discriminated variabilities in application of high, medium and low dose-loads and stroke frequency analysis during targeted treatment sessions.
42

FICCADENTI, Valerio. "A rank-size approach to the analysis of socio-economics data." Doctoral thesis, 2018. http://hdl.handle.net/11393/251181.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Questa tesi è volta ad investigare due importanti fenomeni, uno naturale ed uno umano. Il primo riguarda i terremoti, mentre il secondo è legato al contenuto dei discorsi ufficiali dei presidenti americani. Per il primo caso, il nostro obiettivo è quello di definire un indicatore dei danni economici causati dai terremoti, proponendo un indice calibrato su una lunga serie di magnitudo rilevate in lunghi periodi di tempo. Mentre per il caso dei discorsi presidenziali, vogliamo quantificare il loro impatto sul mercato finanziario, in particolare studiamo l’effetto che essi hanno sull’indice “Standard and Poor’s 500”. Il nostro obiettivo principale è quello di contribuire nell’ambito delle scelte di politica economica prendendo in considerazione tali fenomeni ed analizzandoli con un approccio diverso ed innovativo. L’analisi esposta in questa tesi è sviluppata per mezzo di strumenti econofisici strettamente collegati all’ambito dell’analisi “rank-size”. Tale analisi consiste nell’uso di una serie di funzioni particolarmente utili per l’esplorazione delle proprietà di grandi dataset, anche quando essi sono distribuiti nel tempo e hanno bande di errore non perfettamente definite per via di particolari condizioni di campionamento. Nei capitoli che riguardano i terremoti così come in quelli dedicati all’analisi dei discorsi dei presidenti americani sono mostrati e commentati i risultati di regressioni non lineari impiegate per stimare i coefficienti di varie leggi “rank-size”. Tali stime sono state manipolate in modo tale da poter giungere a conclusioni dal rilievo economico. I risultati più robusti sono stati raggiunti grazie alla straordinaria capacità di interpretare i dati da parte delle leggi “rank-size”. Nell’ambito della valutazione dell’impatto economico dei discorsi presidenziali, un’analisi aggiuntiva è stata svolta valutando diverse distanze tra serie storiche. In particolare considerando la serie storica delle parole semanticamente legate all’economica e pronunciate dai presidenti americani nel corso della storia e le serie storiche del volume, dei prezzi e dei rendimenti dell’indice “Standard & Poor's 500”. Per questa analisi abbiamo impiegato un approccio probabilistico ed anche uno meramente topologico. Infatti abbiamo misurato l’entropia delle serie storiche e comparato le conclusioni valutando le differenze fra diverse misure di distanza vettoriale.
43

GUIDI, Arianna. "Il reato a concorso necessario improprio." Doctoral thesis, 2018. http://hdl.handle.net/11393/251080.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Oggetto del presente lavoro è stata la tematica dei reati a concorso necessario (detti anche plurisoggettivi): una categoria penalistica scarsamente presa in considerazione da parte della dottrina e giurisprudenza più recenti, eppure dai risvolti sistematici di un certo rilievo, in quanto coinvolge profili sia di parte generale che speciale del diritto penale. L’indagine è partita dal piano definitorio e classificatorio: sono state riportate dettagliatamente le diverse tesi dottrinali sviluppatesi sul tema (suddivisibili in due macrocategorie, quella dei sostenitori di una concezione ampia di reato a concorso necessario e quella dei sostenitori di una concezione ristretta dello stesso), nonché le pronunce della Cassazione ritenute maggiormente significative. Un’attenzione particolare è stata dedicata alla delimitazione – in negativo – del campo d’indagine, tracciando le differenze intercorrenti fra i reati a concorso necessario (o plurisoggettivi, a seconda della terminologia impiegata) ed istituti ritenuti erroneamente contigui, primo fra tutti quello del concorso eventuale di persone nel reato. Dopodiché, all’interno del secondo capitolo si è scelto di riflettere sulle questioni maggiormente rilevanti e problematiche attinenti ai reati a concorso necessario impropri: in primis, la ratio che giustifica l’esenzione dalla pena in capo ad un soggetto; secondariamente, la possibilità di punire o meno la condotta tipica, nonché le eventuali condotte atipiche, poste in essere dal soggetto non punibile per mezzo dell’applicazione degli artt. 110 ss. c.p. in funzione incriminatrice. La panoramica di orientamenti dottrinali e giurisprudenziali quanto mai oscillanti e fra loro divergenti su questioni di particolare importanza, non è stata solo funzionale ad offrire al lettore una dettagliata ricognizione in generale, piuttosto, da questa è scaturita una vera e propria esigenza di (ri)considerare l’intera materia in modo organico e chiarificatore. Per tale ragione, nel terzo capitolo è stata introdotta una nuova definizione, in sostituzione a quella maggiormente impiegata da dottrina e giurisprudenza: “fattispecie incriminatrici normativamente plurisoggettive”. Una definizione idonea a ricomprendere tutti quegli illeciti penali che, a livello astratto, presentano caratteristiche simili: il riscontro di una pluralità di soggetti e di condotte quali elementi costitutivi del fatto tipico. Pertanto, si è cercato di individuare i confini della categoria assumendo quale criterio di partenza il piano normativo astratto, in considerazione del fatto che ciò che il legislatore ha scelto di codificare come tipo criminoso è dato dall’insieme degli elementi oggettivi e soggettivi, i quali compaiono nella descrizione della norma incriminatrice. La visione d’insieme ha permesso di non limitare l’attenzione al solo soggetto punibile, bensì di spostarla anche sul soggetto non punibile, il quale, con la sua condotta rientrante fra gli elementi oggettivi del fatto tipico, contribuisce alla configurabilità del reato. Infine, all’interno del quarto capitolo si è proceduto all’analisi dei principali reati classificati da parte della dottrina come a concorso necessario impropri, per verificare, tenuto conto della nuova definizione proposta, se possano o meno essere qualificati come fattispecie incriminatrici normativamente plurisoggettive improprie. Il confronto con la parte speciale ha permesso di evidenziare l’estrema delicatezza dell’operazione d’individuazione di fattispecie incriminatrici normativamente plurisoggettive (in senso lato): anzitutto, perché non sempre la pluralità di soggetti e di condotte costitutive del fatto tipico è oggetto di descrizione espressa, risultando alle volte ricavabile solo a seguito di un attento esame della tipologia e del significato delle parole impiegate dal legislatore; secondariamente, perché alle volte è facile lasciarsi confondere dal piano naturalistico della realtà concreta, mentre l’individuazione di una fattispecie incriminatrice in termini di plurisoggettività normativa dovrebbe avvenire, secondo l’impostazione adottata, a partire dal piano normativo astratto. Da ultimo, ci si è soffermati sul ruolo del soggetto non punibile che tenga rispettivamente la condotta tipica o una condotta ulteriore e diversa da quella descritta, cercando di offrire una possibile soluzione al problema. Nel primo caso, si è concluso per l’impossibilità di applicare l’art. 110 c.p. in funzione incriminatrice, pena la violazione delle garanzie proprie del sistema penalistico. Nel secondo, invece, si è concluso in senso affermativo, precisando che l’interprete è tenuto a prestare attenzione a diversi aspetti, fra cui il tipo d’equilibrio intercorrente fra le condotte dei soggetti parte della fattispecie incriminatrice normativamente plurisoggettiva impropria, nonché l’alterità effettiva della condotta atipica rispetto a quella descritta, pena la violazione dei principi di legalità, tipicità e certezza del diritto.
44

GORLA, Sandra. "Metamorfosi e magia nel Roman de Renart. Traduzione e commento delle branches XXII e XXIII." Doctoral thesis, 2018. http://hdl.handle.net/11393/251268.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Il presente lavoro è incentrato su due branches del Roman de Renart, delle quali propone la prima traduzione completa del testo in italiano e un’analisi al contempo interpretativa, letteraria e filologico-testuale. Il lavoro risulta diviso in due grandi nuclei contraddistinti. La prima parte, comprensiva di due capitoli, affronta l'analisi della tradizione manoscritta e la traduzione del testo delle due branches in italiano (considerando anche le interpolazioni del ms. M). La seconda parte, nuovamente suddivisa in due capitoli, costituisce il necessario accompagnamento critico-letterario al lavoro di traduzione. Tradizione e traduzione. Prima ancora di affrontare la traduzione del testo e la sua interpretazione, è stato necessario porsi il problema di quale testo tradurre. Il primo capitolo, pertanto, affronta la tradizione – e dunque l’edizione – del Roman de Renart, tenendo in considerazione che per quest’opera medievale è praticamente impossibile stabilire uno stemma codicum che sia utile ad una ricostruzione del testo in senso lachmanniano, e dunque scegliere tra una delle edizioni disponibili significa nei fatti scegliere uno dei codici relatori. Viene altresì discussa la questione riguardante l'ordine in cui restituire le due branches. E' risultato impossibile stabilire quale fosse l’ordine migliore e più fedele alla tradizione. Per questo ci si è arresi all’evidenza che anche la disposizione stessa del testo non possa essere assolutamente neutrale, ma includa elementi interpretativi. Il lavoro di traduzione – che occupa il secondo capitolo – costituisce una parte fondamentale della tesi, sia per la voluminosità del testo originale sia per i numerosi problemi 'tecnici' che necessariamente si susseguono sul cammino di chi affronti l'opera di traduzione-interpretazione di un testo medievale. La traduzione è accompagnata da un apparato di note che rendono conto delle scelte operate nei passaggi più complessi e che forniscono indicazioni utili alla comprensione del testo, soprattutto nel caso di riferimenti sottesi a un’enciclopedia presumibilmente condivisa dall’autore e il suo pubblico ma difficilmente discernibili dal lettore moderno. Il terzo capitolo è interamente dedicato alla branche XXII nella versione ‘indipendente’ (BCL); vengono messe in luce le peculiarità e le caratteristiche che la avvicinano al genere dei fabliaux e vengono avanzate delle ipotesi interpretative che evidenziano quelli che si ritengono essere aspetti unici e significativi dell’episodio all’interno dell'intero ciclo. Viene messo in rilievo come il ricorso a temi relativi alla sfera sessuale e corporea e l’uso di un lessico esplicito e a tratti osceno, sebbene ovviamente non esclusivi di questa branche del Roman de Renart, venga qui presentato in un contesto narrativo unico. L'ultimo capitolo della tesi si concentra invece sui testi tramandati da M delle branches XXII e XXIII. Si è cercato innanzitutto di ricostruire i numerosi legami intertestuali che la branche XXIII intesse innanzitutto con le altre branches del RdR (in particolare I, Va, VI, X) e di analizzare le specifiche tecniche narrative dialogiche e polifoniche impiegate all'interno del testo. Per la prima parte del commento, che riguarda poco più di metà della branche ed è dedicata alla lunga narrazione di uno dei processi giudiziari di cui è protagonista Renart, si è scelto di seguire l’ordine diegetico dell’episodio; la complessità dell'ambiente legale impone infatti di seguire con la massima attenzione il serrato alternarsi di accuse, contro-accuse e testimonianze. Data la concentrazione di diversi nuclei narrativi che caratterizza questa seconda parte, l'analisi del testo si discosta a questo punto dall'impostazione cronologica e procede invece per tematiche. Vengono dunque analizzati la figura e l'inedito ruolo di consigliera di Hermeline. Il commento procede poi con un'analisi delle ulteriori peculiarità presenti nella branche XXIII, nel momento in cui il protaginista si reca a Toledo per apprendere le arti magiche: questo viaggio è l’unico vero viaggio che la volpe compie al di fuori del regno nell’intero Roman. Spiccano, qui, la dimensione quasi epica, arturiana, del viaggio, che si traduce in un percorso di formazione per il personaggio; le nuove qualità acquisite da Renart magicien – un intermediario fra due mondi – e l’importanza delle parole nel veicolare il potere dell’art d’enchantement. L'originalità della branche XXIII ha così una vera e propria evoluzione di Renart, che si presenta come un Renart demiurgo. Il commento prosegue a questo punto tornando nuovamente alla branche XXII, questa volta nella versione del ms. M. Benché il testo di M riporti un’importante lacuna (per la caduta del bifolio centrale di un fascicolo) che impedisce di valutare complessivamente l’operazione di riscrittura, sono state esaminate, per quanto possibile, le modalità con cui il testo è stato interpolato dal codice e avanzato delle ipotesi su come e perché possa essere stata compiuta questa operazione, tenendo presente anche i rapporti che intercorrono tra M e il ms. C della sua stessa famiglia, che operano entrambi importanti scelte di riorganizzazione della materia narrativa e dell’ordine di disposizione delle branches rispetto agli altri codici relatori del Roman de Renart.
45

VALENTE, LAURA. "GREGORIO NAZIANZENO Eij" ejpiskovpou" [carm. II,1,13. II,1,10] Introduzione, testo critico, commento e appendici." Doctoral thesis, 2018. http://hdl.handle.net/11393/251619.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Invitato a Costantinopoli da una delegazione nicena, che ne chiedeva l’intervento a sostegno della comunità ortodossa locale, Gregorio di Nazianzo accantonò il desiderio di dedicarsi alla vita contemplativa e si recò nella Neja ÔRwvmh: non poteva certo immaginare che negli anni trascorsi nella capitale (dagli inizi del 379 al luglio del 381) avrebbe conosciuto, a distanza di breve tempo, l’apice e il fallimento della sua attività politico-ecclestiastica. Alla guida di un piccolo gruppo di fedeli, radunati in una sala udienze privata ribattezzata Anastasia, Gregorio esercitò con impegno i suoi doveri pastorali, spendendosi soprattutto nella lotta dottrinale contro l’eresia ariana. L’elezione come vescovo della città, avvenuta per volere dell’imperatore Teodosio, rappresentò il riconoscimento dei meriti del Cappadoce nella restaurazione e nel consolidamento dell’ortodossia nicena, ma, allo stesso tempo, aprì la strada a una stagione tutt’altro che scevra di asprezze, destinata a lasciare amari ricordi nel cuore dell’autore. Chiamato a presiedere il concilio episcopale del 381, indetto con l’obiettivo di risolvere lo scisma antiocheno e condannare le eresie del tempo, il Nazianzeno sperimentò sulla propria i conflitti interni ed i giochi di potere cui si era ridotto l’episcopato. Alla malattia, che debilitò il fisico dell’autore e ne ostacolò la partecipazione a svariate attività pubbliche, si aggiunse l’ostilità dei colleghi, in particolare di alcuni vescovi egiziani, che contestarono la legittimità della sua elezione sul seggio di Costantinopoli, in quanto già vescovo nella sede di Sasima. Stanco e malato, amareggiato dai continui scontri e dall’ennesimo attacco subito dagli avversari, Gregorio decise di farsi da parte e, rassegnate le dimissioni dalla cattedra episcopale, lasciò Costantinopoli, senza neppure aspettare la conclusione del sinodo. Nella natia Cappadocia, lontano fisicamente dal clima tumultuoso e dai dispiaceri della capitale, ma turbato dalle calunnie e dalle ingiustizie subite da coloro che riteneva amici, il Nazianzeno sfogò le proprie delusioni nella scrittura poetica. All’esperienza costantinopolitana e in particolare al contesto delle dimissioni dalla cattedra vescovile fanno riferimento i carmi oggetto di questa tesi di dottorato: II,1,10 (Ai sacerdoti di Costantinopoli e alla città stessa) e II,1,13 (Ai vescovi), rispettivamente di 18 distici elegiaci e 217 esametri. In essi si intrecciano più suggestioni: la meditazione e il riecheggiamento interiore degli eventi che hanno coinvolto l’autore, la difesa del suo operato, ma soprattutto la violenta invettiva contro i vescovi, scaturita non solo dal risentimento per le vicende personali, ma dallo sdegno dell’autore per la corruzione morale e l’impreparazione della gerarchia ecclesiastica. La tesi di dottorato si apre con una bibliografia ricca e aggiornata degli studi concernenti il Cappadoce; in essa sono indicati i diversi contributi, cui si fa riferimento nel mio lavoro. Segue un’ampia introduzione che presenta i carmi sotto molteplici aspetti. Dal momento che l’invettiva contro i vescovi costituisce l’argomento principale di entrambi i componimenti, ho approfondito innanzitutto questo aspetto, ripercorrendone le testimonianze nell’esperienza biografica e nell’opera letteraria dell’autore: da quanto emerso, la polemica contro la gerarchia ecclesiastica raggiunge certamente il suo apice negli eventi costantinopolitani, ma non va ad essi circoscritta, dal momento che se ne ha traccia anche negli scritti gregoriani riconducibili ai primi anni del sacerdozio e al periodo successivo al ritorno a Nazianzo. Si è cercato poi di stabilire la data di composizione dei carmi in analisi, che, dati i contenuti, furono sicuramente scritti dall’autore nel periodo di ritorno in patria, fase in cui gli studiosi collocano buona parte della produzione poetica del Cappadoce. Più precisamente ho individuato il terminus post quem nel luglio del 381, mese in cui la cattedra costantinopolitana lasciata vacante dal Nazianzeno fu affidata a Nettario: in entrambi i testi, infatti, si fa riferimento a questo personaggio, sebbene non sia menzionato esplicitamente. Segue un’analisi dettagliata della struttura compositiva e delle tematiche dei carmi, nella quale si mostra come, pur nella loro diversità, le due poesie presentino moltissime consonanze e parallelismi a livello strutturale, in particolare nella parte incipitaria, in cui si registra la condivisione dello stesso verso iniziale, e nella sezione conclusiva. Sempre nell’introduzione è affrontato lo studio della tradizione manoscritta e dei rapporti tra i codici: i carmi in oggetto risultano attestati in 34 manoscritti (di cui 17 fondamentali per la costituzione del testo) databili dall’XI al XVI secolo e riconducibili alle raccolte antiche Σ e Δ, nei quali sono traditi sempre uno di seguito all’altro: nello specifico II,1,13 precede immediatamente II,1,10. La parte centrale della tesi è costituita dal testo critico di ciascun carme, seguito da traduzione e commento. La tesi costituisce il primo lavoro di questo tipo per il carme II,1,13; II,1,10 è stato invece oggetto di studio di due recenti edizioni: quella dei primi undici poemata de seipso del Nazianzeno curata da Tuilier - Bady - Bernardi per LesBL ed edita nel 2004 e un’edizione commentata di Simelidis, pubblicata nel 2009. Suddetti lavori non hanno rappresentato un ostacolo al progetto. Nessuno di essi infatti ha previsto lo studio simultaneo dei due testi poetici, che, a mio giudizio, non possono essere compresi a fondo se svincolati l’uno dall’altro; non sono risultati immuni da pecche sotto il profilo della critica testuale; il commento è assente nell’edizione francese, scarno e non sempre condivisibile in quella del Simelidis. La tesi è infine corredata da tre appendici che permettono di seguire la fortuna dei componimenti poetici. La prima di esse è dedicata al Commentario di Cosma di Gerusalemme ai Carmi del Nazianzeno, collocato tra la fine del VII e inizio l’VIII secolo. Il commentario, tradito da un unico manoscritto, il Vaticanus graecus 1260 del XII secolo, ha visto la sua editio princeps nel 1839 a cura del cardinale Angelo Mai nel secondo volume del suo Spicilegium Romanum, ristampata con lievi modifiche nel volume 38 della Patrologia Graeca. Una più recente edizione è stata curata da Lozza nel 2000. Nell’opera di Cosma vengono analizzati trentaquattro versi di carme II,1,13 e due di carme II,1,10; l’ampiezza delle citazioni va da un minimo di un verso a un massimo di 5. Segue un’appendice dedicata alle parafrasi bizantine, che in alcuni manoscritti contenenti i carmi, accompagnano il testo poetico. Tali spiegazioni in prosa, composte in un momento non precisabile della trasmissione dell’opera gregoriana, sono anonime, di diverso livello letterario e da intendere come un testo in continua evoluzione, oggetto di modifiche da parte di ciascun copista. Nel caso dei testi in oggetto le parafrasi trasmesse sono tre, chiamate, sulla scia di studi precedenti, Paraphr. 1, Paraphr. 2, Paraphr. 3 e delle quali la tesi fornisce l’editio princeps. L’ultima appendice è costituita dalla traduzione latina dei carmi di Giacomo Oliva da Cremona, redatta nella seconda metà del XVI secolo per incarico del Cardinal Guglielmo Sirleto e testimonianza del grande interesse per il Cappadoce in questo periodo storico. Il lavoro dell’Oliva, rimasta inedito per la morte del committente e probabilmente anche per il suo scarso valore letterario, è trasmesso da due manoscritti autografi, il Vaticanus Barberinianus lat. 636 (B) e il Vaticanus lat. 6170 (V) e trova nella tesi la sua editio princeps.
46

FORMICONI, Cristina. "LÈD: Il Lavoro È un Diritto. Nuove soluzioni all’auto-orientamento al lavoro e per il recruiting online delle persone con disabilità." Doctoral thesis, 2018. http://hdl.handle.net/11393/251119.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
INTRODUZIONE: Il presente progetto di ricerca nasce all’interno di un Dottorato Eureka, sviluppato grazie al contributo della Regione Marche, dell’Università di Macerata e dell’azienda Jobmetoo by Jobdisabili srl, agenzia per il lavoro esclusivamente focalizzata sui lavoratori con disabilità o appartenenti alle categorie protette. Se trovare lavoro è già difficile per molti, per chi ha una disabilità diventa un percorso pieno di ostacoli. Nonostante, infatti, la legge 68/99 abbia una visione tra le più avanzate in Europa, l’Italia è stata ripresa dalla Corte Europea per non rispettare i propri doveri relativamente al collocamento mirato delle persone con disabilità. Tra chi ha una disabilità, la disoccupazione è fra il 50% e il 70% in Europa, con punte dell’80% in Italia. L’attuale strategia europea sulla disabilità 2010-2020 pone come obiettivi fondamentali la lotta alla discriminazione, le pari opportunità e l’inclusione attiva. Per la realizzazione di tali obiettivi assume un’importanza centrale l’orientamento permanente: esso si esercita in forme e modalità diverse a seconda dei bisogni, dei contesti e delle situazioni. La centralità di tutti gli interventi orientativi è il riconoscimento della capacità di autodeterminazione dell’essere umano, che va supportato nel trovare la massima possibilità di manifestarsi e realizzarsi. Ciò vale ancora di più per le persone con disabilità, in quanto risultano fondamentali tutte quelle azioni che consentono loro di raggiungere una consapevolezza delle proprie capacità/abilità accanto al riconoscimento delle caratteristiche della propria disabilità. L’orientamento assume così un valore permanente nella vita di ogni persona, garantendone lo sviluppo e il sostegno nei processi di scelta e di decisione con l’obiettivo di promuovere l’occupazione attiva, la crescita economica e l’inclusione sociale. Oggi giorno il frame work di riferimento concettuale nel campo della disabilità è l’International Classification of Functioning, Disability and Health (ICF), il quale ha portato a un vero e proprio rovesciamento del termine disabilità dal negativo al positivo: non si parla più di impedimenti, disabilità, handicap, ma di funzioni, strutture e attività. In quest’ottica, la disabilità non appare più come mera conseguenza delle condizioni fisiche dell’individuo, ma scaturisce dalla relazione fra l’individuo e le condizioni del mondo esterno. In termini di progetto di vita la sfida della persona con disabilità è quella di poter essere messa nelle condizioni di sperimentarsi come attore della propria esistenza, con il diritto di poter decidere e, quindi, di agire di conseguenza in funzione del proprio benessere e della qualità della propria vita, un una logica di autodeterminazione. OBIETTIVO: Sulla base del background e delle teorie di riferimento analizzate e delle necessità aziendali è stata elaborata la seguente domanda di ricerca: è possibile aumentare la consapevolezza negli/nelle studenti/esse e laureati/e con disabilità che si approcciano al mondo del lavoro, rispetto alle proprie abilità, competenze, risorse, oltre che alle limitazioni imposte dalla propria disabilità? L’obiettivo è quello di sostenere i processi di auto-riflessione sulla propria identità e di valorizzare il ruolo attivo della persona stessa nella sua autodeterminazione, con la finalità ultima di aumentare e migliorare il match tra le persone con disabilità e le imprese. L’auto-riflessione permetterà di facilitare il successivo contatto dialogico con esperti di orientamento e costituirà una competenza che il soggetto porterà comunque come valore aggiunto nel mondo del lavoro. METODI E ATTIVITÀ: Il paradigma teorico-metodologico adottato è un approccio costruttivista: peculiarità di questo metodo è che ciascuna componente della ricerca può essere riconsiderata o modificata nel corso della sua conduzione o come conseguenza di cambiamenti introdotti in qualche altra componente e pertanto il processo è caratterizzato da circolarità; la metodologia e gli strumenti non sono dunque assoggettati alla ricerca ma sono al servizio degli obiettivi di questa. Il primo passo del progetto di ricerca è stato quello di ricostruzione dello stato dell’arte, raccogliendo dati, attraverso la ricerca bibliografica e sitografica su: l’orientamento, la normativa vigente in tema di disabilità, i dati di occupazione/disoccupazione delle persone con disabilità e gli strumenti di accompagnamento al lavoro. A fronte di dati mancanti sul territorio italiano relativi alla carriera e ai fabbisogni lavorativi degli/delle studenti/esse e laureati/e con disabilità, nella prima fase del progetto di ricerca è stata avviata una raccolta dati su scala nazionale, relativa al monitoraggio di carriera degli studenti/laureati con disabilità e all’individuazione dei bisogni connessi al mondo del lavoro. Per la raccolta dati è stato sviluppato un questionario ed è stata richiesta la collaborazione a tutte le Università italiane. Sulla base dei dati ricavati dal questionario, della letteratura e delle indagini esistenti sulle professioni, nella fase successiva della ricerca si è proceduto alla strutturazione di un percorso di auto-orientamento, volto ad aumentare la consapevolezza nelle persone con disabilità delle proprie abilità e risorse, accanto a quella dei propri limiti. In particolare, il punto di partenza per la costruzione del percorso è stata l’Indagine Istat- Isfol sulle professioni (2012) e la teoria delle Intelligenze Multiple di H. Gardner (1983). Si è arrivati così alla strutturazione del percorso di auto-orientamento, composto da una serie di questionari attraverso i quali il candidato è chiamato ad auto-valutare le proprie conoscenze, le competenze, le condizioni di lavoro che gli richiedono più o meno sforzo e le intelligenze che lo caratterizzano, aggiungendo a questi anche una parte più narrativa dove il soggetto è invitato a raccontare i propri punti di forza, debolezza e le proprie aspirazioni in ambito professionale. Per sperimentare il percorso di auto-orientamento creato, nell’ultima fase della ricerca è stato predisposto uno studio pilota per la raccolta di alcuni primi dati qualitativi con target differenti, studenti/esse universitari/e e insegnanti di scuola superiore impegnati nel tema del sostegno e dell’orientamento, e utilizzando diversi strumenti (autopresentazioni, test multidimensionale autostima, focus group). CONCLUSIONI: I dati ottenuti dallo studio pilota, seppur non generalizzabili, in quanto provenienti da un campione esiguo, hanno evidenziato come il percorso di auto-orientamento attivi una riflessione sulla visione di sé nei diversi contesti e un cambiamento, in positivo o in negativo, nell’autostima e nella valutazione di sé in diverse aree, ad esempio nell’area delle relazioni interpersonali, del vissuto corporeo, dell’emotività ecc. Tali dati ci hanno permesso soprattutto di evidenziare punti di forza e debolezza del percorso creato e di apportare modifiche per una maggiore comprensione e adattabilità del prodotto stesso. Il valore del percorso orientativo è connesso al ruolo attivo di auto-valutatore giocato dal candidato con disabilità, affiancando a questa prima fase di autovalutazione un successivo confronto dialogico con un esperto, tale da permettere un ancoraggio alla realtà esterna, al contesto in cui il soggetto si trova a vivere. In questo senso, l’orientamento assume il valore di un processo continuo e articolato, che ha come scopo principale quello di sostenere la consapevolezza di sé e delle proprie potenzialità, agendo all’interno dell’area dello sviluppo prossimale della persona verso la realizzazione della propria identità personale, sociale e professionale.
47

FORESI, Elisa. "A Multisectoral Analysis for economic policy: an application for healthcare systems and for labour market composition by skills." Doctoral thesis, 2018. http://hdl.handle.net/11393/251178.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’Agenda Digitale Europea stabilisce il ruolo chiave delle tecnologie dell’informazione e della comunicazione (TIC) grazie a un mercato digitale unico basato su internet veloce e superveloce e su applicazioni interoperabili, al fine di ottenere vantaggi socioeconomici sostenibili COM(2010)245. Le TIC producono un'innovazione di prodotto e cambiamenti strutturali all'interno di tutto il sistema economico e possiamo affermare che dal punto di vista multisettoriale hanno un ruolo moltiplicativo sulla crescita economica, poiché l’aumento della domanda di TIC stimola a sua volta tutte le altre produzioni. Inoltre come riscontrato in letteratura economica, nelle istituzioni internazionali, nonché confermate dai dati periodici rilasciati dagli uffici statistici nazionali, una maggiore incidenza della popolazione attiva formalmente istruita in associazione con l'adozione delle TIC è altamente correlata ad una crescita robusta, sostenibile ed equa. In questo quadro è importante valutare il ruolo delle TIC nel sistema economico, in particolare verrà analizzato il ruolo delle TIC sia rispetto ad un particolare settore quello della sanità, che dal lato dei soggetti che dovrebbero essere parte attiva nella gestione delle TIC ovvero la situazione delle abilità digitali dei lavoratori dipendenti. Il primo articolo si focalizza sul ruolo delle TIC nella determinazione dell’output del settore sanitario, utilizzando il database WIOD (World Input Output Database), di 24 paesi nell’arco temporale 2000-2014, tenendo conto anche dei differenti sistemi sanitari nazionali. La produzione del settore “Sanità e Servizi Sociali” assume, almeno in alcuni paesi specifici, il ruolo di stimolo all’innovazione che compensa ampiamente quello di peso sul bilancio pubblico. Nel secondo articolo analizziamo come l’uso delle TIC stia progressivamente aumentando nel sistema sanitario italiano e in particolare come l'introduzione del Fascicolo Sanitario Elettronico (FSE), strumento di condivisione dei dati sanitari del singolo cittadino, potrebbe determinare cambiamenti nella produzione sui servizi sanitari. Verranno analizzati gli eventuali cambiamenti strutturali dei processi produttivi e della produzione totale applicando l'Analisi Strutturale di Decomposizione (SDA). La base dati di riferimento sarà la tavola di Input-Output riferita a due diversi periodi al fine di individuare i risultati sia degli effetti tecnologici sia della domanda finale a livello settoriale. Infine l’ultimo articolo ha l’obiettivo di valutare le conseguenze dei cambiamenti nella composizione dell'occupazione per competenza digitale all’interno del flusso di produzione e distribuzione del reddito. Verrà costruita una Matrice di Contabilità Sociale (SAM) che consente di rappresentare le relazioni tra i cambiamenti di produzione delle attività e i cambiamenti di compensazione dei dipendenti per competenze, grado di digitalizzazione e genere. LA SAM sviluppata nel documento è relativa all'Italia nel 2013; il lavoro è disaggregato in competenze formali / non formali / informali e, inoltre, competenze digitali / non digitali. Le abilità digitali del lavoro seguono la definizione di “competenza formale” della Commissione Europea (2000): i) competenza formale a seconda del livello di istruzione e formazione; ii) competenza non formale acquisita sul posto di lavoro e attraverso le attività delle organizzazioni e dei gruppi della società civile; iii) competenza informale non acquisita intenzionalmente durante la vita. In questo quadro è stata introdotta un'ulteriore classificazione di input di lavoro basata sull'uso / non utilizzo di computer collegati a Internet. Sulla base della SAM, è stato implementato un modello multisettoriale esteso. Infine, verrà individuata una struttura adeguata di domanda finale che consente di ottenere i migliori risultati in termini di valore aggiunto distribuiti a lavoratori più qualificati con una elevata competenza digitale.
48

PETRINI, Maria Celeste. "IL MARKETING INTERNAZIONALE DI UN ACCESSORIO-MODA IN MATERIALE PLASTICO ECO-COMPATIBILE: ASPETTI ECONOMICI E PROFILI GIURIDICI. UN PROGETTO PER LUCIANI LAB." Doctoral thesis, 2018. http://hdl.handle.net/11393/251084.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Con l’espressione “marketing internazionale” ci si riferisce a quell’insieme di attività adottate dall’impresa al fine di sviluppare o perfezionare la propria presenza sul mercato estero. Oggetto della presente ricerca è l’analisi degli aspetti problematici che tali attività sollevano sul piano giuridico: attraverso un approccio basato sull’integrazione della cultura economica del marketing d’impresa con quella più propriamente giuridica, l’indagine mira ad individuare le fattispecie di marketing rilevanti sotto il profilo giuridico e giuspubblicistico, ad analizzarne i profili che risultano più critici per l’impresa e proporre soluzioni concrete. La ricerca è stata condotta in collaborazione all’azienda Gruppo Meccaniche Luciani, che oltre ad essere un affermato fornitore di stampi per calzature, progetta design innovativi attraverso una sua articolazione organizzativa creativa, denominata Luciani LAB. L’impresa investe molto nell’innovazione, ed in questo senso, particolarmente significativo è stato l’acquisto di una potente stampante 3D, tecnologicamente all’avanguardia, che ha consentito all’azienda di progettare diversi prodotti, tra cui una borsa, realizzarli in prototipazione rapida, e successivamente renderli oggetto di specifiche campagne promozionali, illustrate nel presente lavoro. Viene evidenziato come queste rispecchino la peculiarità dell’approccio al marketing da parte della piccola/media impresa, descritto dalla dottrina maggioritaria come intuitivo ed empirico, distante da quello teorico e strategico del marketing management. La collaborazione con l’impresa partner del progetto ha costituito il riferimento principale per l’elaborazione del metodo con cui condurre la ricerca: l’azienda ha promosso i propri prodotti mediante diverse strumenti di marketing, come inserti pubblicitari su riviste, campagne di e-mail marketing e fiere di settore. Queste attività si distinguono tra esse non solo rispetto alle funzioni, alle differenti modalità con cui vengono impiegate e al pubblico cui si rivolgono, ma anche e soprattutto rispetto alla disciplina giuridica di riferimento: ognuna di esse infatti è regolata da un determinato complesso di regole e solleva questioni che si inseriscono in una specifica cornice giuridica. Al fine di giungere ad una sistematica trattazione dei profili giuridici connessi, si è scelto di classificare le diverse azioni di marketing in tre gruppi: quelle riferite alla comunicazione, quelle inerenti l’aspetto del prodotto e quelle che si riferiscono al cliente Per ognuna di queste aree si individua una precisa questione critica per l’impresa, e se ne trattano i profili problematici dal punto di vista giuridico. In relazione al primo gruppo, ovvero la comunicazione pubblicitaria d’impresa, si evidenziano le criticità connesse alla possibilità di tutelare giuridicamente l’idea creativa alla base del messaggio pubblicitario: si mette in discussione l’efficacia degli strumenti giuridici invocabili a sua tutela, in particolare della disciplina del diritto d’autore, della concorrenza sleale e dell’autodisciplina. Si prende come riferimento principale il contesto italiano, considerando la pluralità degli interessi pubblici, collettivi ed individuali coinvolti. Il secondo profilo d’indagine riguarda la disciplina giuridica riconducibile all’e-mail marketing, uno degli strumenti più diffusi di comunicazione digitale. L’invasività di questo sistema nella sfera personale dei destinatari impone l’adozione di adeguati rimedi da parte delle imprese per evitare di incorrere nella violazione delle disposizioni a tutela della privacy. Si trattano le diverse implicazioni derivanti dall’uso di tale strumento, in particolare quelle riferite al trattamento dei dati personali alla luce della normativa vigente in Italia e nell’Unione Europea, e connesse alle modalità di raccolta degli indirizzi e-mail dei destinatari potenzialmente interessati. Infine, la costante partecipazione alle fiere di settore da parte dell’azienda dimostra quanto l’esteriorità del prodotto costituisca uno strumento di marketing decisivo per la competitività aziendale, dunque grande è l’interesse dell’impresa a che il suo aspetto esteriore venga protetto dall’imitazione dei concorrenti. Il tema giuridico più significativo che lega il processo di marketing al prodotto dell’azienda è proprio la protezione legale del suo aspetto, ovvero la tutela del diritto esclusivo di utilizzarlo, e vietarne l’uso a terzi. L’aspetto di un prodotto può essere oggetto di protezione sulla base di diverse discipline che concorrono tra loro, sia a livello nazionale che sovranazionale, dei disegni e modelli, del marchio di forma, del diritto d’autore e della concorrenza sleale. Si è scelto di concentrare il lavoro, in particolare, sulla prima: si ricostruisce il quadro normativo e l’assetto degli interessi implicati dalla fattispecie, per arrivare ad evidenziare le principali criticità nell’interpretazione delle norme, sia a livello nazionale, che nell’Unione Europea. Si approfondiscono gli orientamenti di dottrina e giurisprudenza di alcune disposizioni chiave per l’applicazione della disciplina, quali gli artt. 6 e 7 del Regolamento CE, n. 6/2002, concernenti rispettivamente il «carattere individuale» e la «divulgazione», i due requisiti fondamentali per ottenere la registrazione e conseguente protezione giuridica del disegno. Tali nozioni sono soggette ad interpretazioni parzialmente difformi da parte dei giudici dei diversi Stati membri, e ciò contribuisce a minare l’applicazione omogenea della disciplina in tutto il territorio UE. In questo senso, viene messo in evidenza il ruolo chiave dell’orientamento della Corte di Giustizia dell’Unione Europea nell’interpretazione di tali concetti, avente l’effetto di uniformare l’approccio degli Stati. La Direttiva 98/71/CE ha introdotto la possibilità di cumulare la protezione conferita all’aspetto del prodotto dalla disciplina dei disegni e modelli con quella riconosciuta dalle altre normative. Tale previsione solleva questioni di rilievo sistematico e concorrenziale: ci si interroga su quali problemi di tipo sistematico e di concorrenza vengano sollevati dal riconoscimento su uno stesso prodotto della protezione sia come disegno che come marchio di forma, e sia come disegno che come opera dell’ingegno. In particolare nell’ambito del diritto dei marchi d’impresa e del diritto d’autore, le tutele hanno durata potenzialmente perpetua, diversamente dalla registrazione come disegno o modello, che garantisce la titolarità del diritto di utilizzare il proprio disegno in via esclusiva per un periodo limitato di massimo 25 anni. Questa differenza temporale rende il cumulo problematico sia a livello di coordinamento, che di concorrenza, poiché incentiva il sorgere di “monopoli creativi” sulle forme del prodotto. Il presente lavoro ha come obiettivo l’ampliamento della conoscenza sul tema del marketing con particolare riferimento ai profili giuridici che si pongono, con riguardo alla promozione del prodotto nell’ambito dell’Unione Europea. Si ritiene che il valore aggiunto e l’aspetto più originale della ricerca consista nella sua forte aderenza alla realtà della piccola/media impresa: tramite l’integrazione della ricerca giuridica e dello studio dei fenomeni di marketing si delineano i problemi pratici che questa si trova a dover affrontare nell’implementazione delle attività quotidiane di marketing. Tale indagine vuole essere utile a tutte le piccole/medie imprese che si trovano impreparate nell’affrontare le sfide poste dal marketing e nel conoscere le implicazioni giuridiche che da questo derivano.
49

RECCHI, Simonetta. "THE ROLE OF HUMAN DIGNITY AS A VALUE TO PROMOTE ACTIVE AGEING IN THE ENTERPRISES." Doctoral thesis, 2018. http://hdl.handle.net/11393/251122.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ogni azienda che si riconosca socialmente responsabile deve occuparsi dello sviluppo delle carriere dei propri dipendenti da due punti di vista: quello individuale e personale e quello professionale. La carriera all’interno di un’azienda coinvolge, infatti, la persona in quanto individuo con un proprio carattere e una precisa identità e la persona in quanto lavoratore con un bagaglio specifico di conoscenze e competenze. L’azienda ha, quindi, il compito di promuovere carriere professionalmente stimolanti che si sviluppino in linea con i suoi stessi valori, la sua visione e la sua missione. Nel panorama moderno, aziende che sviluppano la propria idea di business nel rispetto dei lavoratori proponendo loro un percorso di crescita, si mostrano senza dubbio lungimiranti. Un tale approccio, però, non basta a far sì che vengano definite socialmente responsabili. I fattori della Responsabilità Sociale d’Impresa sono infatti numerosi e, ad oggi, uno dei problemi principali da affrontare è quello del progressivo invecchiamento della popolazione. Dal momento che la forza lavoro mondiale sta invecchiando e che si sta rispondendo al problema spostando la linea del pensionamento, tutte le aziende sono obbligate a mantenere le persone il più a lungo possibile attive e motivate a lavoro. L’età è spesso visto come un fattore di diversità e di discriminazione, ma nello sviluppare la mia argomentazione, cercherò di dimostrare che una politica del lavoro che supporti l’idea dell’invecchiamento attivo può trasformare questo fattore da limite in opportunità. Il rispetto degli esseri umani, a prescindere dalle differenze legate all’età, dovrebbe essere uno dei valori fondanti di ogni impresa. Nel primo capitolo della tesi, svilupperò il tema della dignità umana così come è stato concepito a partire dalla filosofia greca fino alla modernità. La dignità intesa come valore ontologico, legato all’essenza dell’uomo, diventerà con Kant il fattore di uguaglianza tra tutti gli esseri viventi, la giustificazione del rispetto reciproco. Il concetto di dignità verrà, poi, definito nel secondo capitolo come il principale valore che deve ispirare l’azione sociale delle imprese, come l’elemento che garantisce il rispetto di ogni dipendente che prima ancora di essere un lavoratore è un essere umano. La dignità è ciò che rende l’essere umano degno di essere considerato un fine in se stesso piuttosto che un mezzo per il raggiungimento di un fine esterno. Nell’era della globalizzazione, dove il denaro è il valore principale, gli esseri umani rischiano di diventare un mezzo al servizio dell’economia. A questo punto, il rispetto della dignità deve divenire il fondamento di un ambiente di lavoro che promuove la crescita e la fioritura dell’essere umano. Nel secondo capitolo cercherò quindi di dimostrare come l’idea di dignità possa promuovere un management “umanistico” centrato sul rispetto dell’essere umano. Un’impresa socialmente responsabile può promuovere il rispetto di ogni lavoratore se fa propri i valori di dignità e uguaglianza. Attraverso la teoria dello Humanistic Management che veicola tali valori, il lavoro diventa un luogo in cui l’uomo può esprimere se stesso, la sua identità, le sue conoscenze e competenze. Inoltre, dal momento che la popolazione sta invecchiando, le aziende devono farsi carico della forza lavoro più anziana, come è emerso sopra. A questo punto, nel terzo capitolo, il concetto della Responsabilità Sociale d’Impresa sarà analizzato nel suo legame con i temi dell’invecchiamento attivo e della diversità sul posto di lavoro. Conosciamo diverse ragioni di differenza a lavoro: genere, cultura, etnia, competenze, ma qui ci concentreremo sul fattore età. È naturale che i lavoratori anziani abbiano un’idea di lavoro diversa da quella dei giovani e che le loro abilità siano differenti. Ma questa diversità non deve essere valutata come migliore o peggiore: essa dipende da fattori che analizzeremo e che l’impresa socialmente responsabile conosce e valorizza per creare un ambiente di lavoro stimolante e collaborativo, eliminando possibili conflitti intergenerazionali. Alcune delle teorie che permettono di raggiungere tali obiettivi sono il Diversity Management e l’Age Management: ogni impresa può promuovere pratiche per valorizzare gli anziani, permettendo loro di rimanere più a lungo attivi e proattivi a lavoro e di condividere le proprie conoscenze e competenze. L’ultimo capitolo della tesi si concentrerà su un caso di azienda italiana che ha sviluppato uno strumento di valorizzazione di collaboratori over 65. Sto parlando della Loccioni, presso cui ho svolto la ricerca applicata e che promuove il progetto Silverzone, un network di persone in pensione che hanno conosciuto l’azienda nel corso della loro carriera e che continuano a collaborare con essa ancora dopo il pensionamento. Per capire l’impatto qualitativo e quantitativo che il progetto ha sull’azienda, ho portato avanti un’analisi qualitativa dei dati ottenuti grazie a due tipi di questionari. Il primo ha visto il coinvolgimento dei 16 managers della Loccioni a cui sono state sottoposte le seguenti domande: 1. Chi sono i silver nella tua area di business? Quali i progetti in cui essi sono coinvolti? 2. Qual è il valore del loro supporto per l’azienda? E, allo stesso tempo, quali sono le difficoltà che possono incontrarsi durante queste collaborazioni? 3. Qual è la frequenza degli incontri con i silver? 4. Perché l’azienda ha bisogno di questo network? Successivamente, ho sottoposto un altro questionario agli 81 silver della rete. Di seguito i dettagli: 1. Qual è il tuo nome? 2. Dove sei nato? 3. Dove vivi? 4. Qual è stato il tuo percorso formativo? 5. Qual è stata la tua carriera professionale? 6. Come e con chi è avvenuto il primo contatto Loccioni? 7. Come sei venuto a conoscenza del progetto Silverzone? 8. Con quali dei collaboratori Loccioni stai lavorando? 9. In quali progetti sei coinvolto? 10. Potresti descrivere il progetto in tre parole? 11. Che significato ha per te fare parte di questa rete? 12. Nella tua opinione, come deve essere il Silver? 13. Che tipo di relazioni hai con i collaboratori Loccioni? 14. Quali dimensioni umane (dono, relazione, comunità, rispetto) e professionali (innovazione, tecnologia, rete) emergono lavorando in questo progetto? Il progetto Silverzone è sicuramente una buona pratica di Age Management per mantenere più a lungo attivi i lavoratori over 65. I progetti in cui i Silver sono coinvolti hanno un importante impatto economico sull’impresa, in termini di investimento ma anche di guadagno. Ad ogni modo, qui la necessità di fare profitto, stando a quanto è emerso dai risultati delle interviste, è subordinata al più alto valore del rispetto dei bisogni umani che diventa garante di un posto di lavoro comfortable, dove si riesce a stringere relazioni piacevoli, collaborative e produttive.

To the bibliography