Dissertations / Theses on the topic 'Conjoined data'

To see the other types of publications on this topic, follow the link: Conjoined data.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 21 dissertations / theses for your research on the topic 'Conjoined data.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Pierrot, Henri Jan, and n/a. "Artificial intelligence architectures for classifying conjoined data." Swinburne University of Technology, 2007. http://adt.lib.swin.edu.au./public/adt-VSWT20070426.102059.

Full text
Abstract:
This thesis is concerned with the development of novel methods of classifying data that is not inherently clustered. The performance of these novel algorithms in finding classifications in this data will be compared with that of existing artificial intelligence methods.
APA, Harvard, Vancouver, ISO, and other styles
2

Pierrot, Henri Jan. "Artificial intelligence architectures for classifying conjoined data." Australasian Digital Thesis Program, 2007. http://adt.lib.swin.edu.au/public/adt-VSWT20070426.102059/index.html.

Full text
Abstract:
Thesis (MSc) - Information and Communication Technology, Swinburne University of Technology, 2007.
Submitted in partial fulfilment of the requirements for the degree of Master of Science (IT), [Information and Communication Technology], Swinburne University of Technology - 2007. Typescript. Includes bibliographical references.
APA, Harvard, Vancouver, ISO, and other styles
3

Yuan, Yuan. "Bayesian Conjoint Analyses with Multi-Category Consumer Panel Data." University of Cincinnati / OhioLINK, 2021. http://rave.ohiolink.edu/etdc/view?acc_num=ucin162766827512258.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Wong, Shing-tat. "Disaggregate analyses of stated preference data for capturing parking choice behavior." Click to view the E-thesis via HKUTO, 2006. http://sunzi.lib.hku.hk/hkuto/record/B36393678.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Natter, Martin, and Markus Feurstein. "Correcting for CBC model bias. A hybrid scanner data - conjoint model." SFB Adaptive Information Systems and Modelling in Economics and Management Science, WU Vienna University of Economics and Business, 2001. http://epub.wu.ac.at/880/1/document.pdf.

Full text
Abstract:
Choice-Based Conjoint (CBC) models are often used for pricing decisions, especially when scanner data models cannot be applied. Up to date, it is unclear how Choice-Based Conjoint (CBC) models perform in terms of forecasting real-world shop data. In this contribution, we measure the performance of a Latent Class CBC model not by means of an experimental hold-out sample but via aggregate scanner data. We find that the CBC model does not accurately predict real-world market shares, thus leading to wrong pricing decisions. In order to improve its forecasting performance, we propose a correction scheme based on scanner data. Our empirical analysis shows that the hybrid method improves the performance measures considerably. (author's abstract)
Series: Report Series SFB "Adaptive Information Systems and Modelling in Economics and Management Science"
APA, Harvard, Vancouver, ISO, and other styles
6

Wong, Shing-tat, and 黃承達. "Disaggregate analyses of stated preference data for capturing parking choice behavior." Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 2006. http://hub.hku.hk/bib/B36393678.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Goudia, Dalila. "Tatouage conjoint a la compression d'images fixes dans JPEG2000." Thesis, Montpellier 2, 2011. http://www.theses.fr/2011MON20198.

Full text
Abstract:
Les technologies numériques et du multimédia ont connu de grandes avancées ces dernières années. La chaîne de transmission des images est constituée de plusieurs traitements divers et variés permettant de transmettre un flux de données toujours plus grand avec toujours plus de services à la clé. Nous citons par exemple, la compression, l'augmentation de contenu, la confidentialité, l'intégrité et l'authenticité des images pendant leur transmission. Dans ce contexte, les approches conjointes ont suscité un intérêt certain de la part de la communauté du traitement d'images car elles permettent d'obtenir des systèmes de faible complexité calculatoire pouvant être utilisés dans des applications nécessitant peu de ressources matérielles. La dissimulation de données ou Data Hiding, est l'art de cacher un message dans un support numérique. L'une des branches les plus importantes du data hiding est le tatouage numérique ou watermarking. La marque doit rester présente dans l'image hôte même si celle-ci subit des modifications appelées attaques. La compression d'images a comme objectif de réduire la taille des images stockées et transmises afin d'augmenter la capacité de stockage et de minimiser le temps de transmission. La compression représente une opération incontournable du stockage ou du transfert d'images. Elle est considérée par le data hiding comme une attaque particulièrement destructrice. La norme JPEG2000 est le dernier standard ISO/ITU-T pour le codage des images fixes. Dans cette thèse, nous étudions de manière conjointe la compression avec perte et le data hiding dans le domaine JPEG2000. L'approche conjointe offre de nombreux avantages dont le plus important est que la compression ne constitue plus une attaque vis-à-vis du data hiding. Les contraintes à respecter sont exprimées en termes de compromis à atteindre: compromis entre la quantité d'information insérée (payload), le taux de compression, la distorsion induite par l'insertion du message et la robustesse de la marque dans le cas du tatouage.Nos travaux de recherche ont conduit à l'élaboration de plusieurs schémas conjoints : un schéma conjoint d'insertion de données cachées et deux schémas conjoints de tatouage dans JPEG2000. Tous ces systèmes conjoints reposent sur des stratégies d'insertion informée basées sur la quantification codée par treillis (TCQ). Les propriétés de codage de canal de la TCQ sont exploitées pour pouvoir à la fois quantifier et insérer un message caché (ou une marque) pendant l'étape de quantification de JPEG2000
Technological advances in the fields of telecommunications and multimedia during the two last decades, derive to create novel image processing services such as copyright protection, data enrichment and information hiding applications. There is a strong need of low complexity applications to perform seveval image processing services within a single system. In this context, the design of joint systems have attracted researchers during the last past years. Data hiding techniques embed an invisible message within a multimedia content by modifying the media data. This process is done in such a way that the hidden data is not perceptible to an observer. Digital watermarking is one type of data hiding. The watermark should be resistant to a variety of manipulations called attacks. The purpose of image compression is to represent images with less data in order to save storage costs or transmission time. Compression is generally unavoidable for transmission or storage purposes and is considered as one of the most destructive attacks by the data hiding. JPEG2000 is the last ISO/ ITU-T standard for still image compression.In this thesis, joint compression and data hiding is investigated in the JPEG2000 framework. Instead of treating data hiding and compression separately, it is interesting and beneficial to look at the joint design of data hiding and compression system. The joint approach have many advantages. The most important thing is that compression is no longer considered as an attack by data hiding.The main constraints that must be considered are trade offs between payload, compression bitrate, distortion induced by the insertion of the hidden data or the watermark and robustness of watermarked images in the watermarking context. We have proposed several joint JPEG2000 compression and data hiding schemes. Two of these joint schemes are watermarking systems. All the embedding strategies proposed in this work are based on Trellis Coded Quantization (TCQ). We exploit the channel coding properties of TCQ to reliably embed data during the quantization stage of the JPEG2000 part 2 codec
APA, Harvard, Vancouver, ISO, and other styles
8

Kim, Hyowon. "Improving Inferences about Preferences in Choice Modeling." The Ohio State University, 2020. http://rave.ohiolink.edu/etdc/view?acc_num=osu1587524882296023.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Fournier, Marie-Cecile. "Pronostic dynamique de l'évolution de l'état de santé de patients atteints d'une maladie chronique." Thesis, Nantes, 2016. http://www.theses.fr/2016NANT1004/document.

Full text
Abstract:
Pour de nombreuses pathologies chroniques,l’amélioration de la prise en charge des patients passe par une meilleure compréhension de la progression de la pathologie et par la capacité à pronostiquer précocement la survenue d’événements délétères.L’évolution de l’état de santé des patients peut être appréciée à travers des mesures répétées d’un marqueur longitudinal, comme la créatinine sérique en transplantation rénale.Ce travail de thèse en Epidémiologie et Biostatistique appliqué à la transplantation rénale s’intéresse aux modèles conjoints pour données longitudinales et de temps d’évènement. Ces derniers présentent de nombreux avantages mais ils restent encore peu utilisés en pratique. Dans une première partie du travail, nous proposons d’utiliser cette méthodologie afin d’étudier le rôle spécifique des déterminants de santé sur l’évolution du sérum de créatinine et/ou sur le risque d’échec de greffe. Cette modélisation apporte une vision épidémiologique très riche et met en évidence certains facteurs qui pourraient être intéressants à intégrer dans la prise en charge des patients puisqu’ils semblent associés au risque d’échec de greffe sans reflet préalable sur le marqueur de suivi, la créatinine sérique.Dans une seconde partie, nous nous sommes intéressés aux prédictions dynamiques. Calculables à partir d’un modèle conjoint, les prédictions sont dites dynamiques car elles se mettent à jour tout au long du suivi en fonction de l’information longitudinale récoltée jusqu’au temps de prédiction. L’utilité clinique de ce type de score dynamique doit être évaluée et repose en partie sur des performances adéquates en termes de calibration et de discrimination. Des outils d’évaluation,tels que le Brier Score ou la courbe ROC, ont déjà été développés. En complément de ces indicateurs, nous proposons le développement d’un indicateur de type R² afin de pallier certaines de leurs limites
For many chronic diseases, the monitoring of patients can be improved by a better understanding of disease growth and the ability to predict the occurrence of major events. Health status evolution can be measured by repeated measurements of a longitudinal marker, as serumcreatinine in renal transplantation.This thesis work in epidemiology and biostatistics applied to renal transplantation focuses on jointmodels for longitudinal and time-to-event data.These models have various benefits but their use is still uncommon in practice. In a first part, we use this methodology to identify the specific role of risk factors on serum creatinine evolution and/or graftfailure risk. We give a rich epidemiological overview and highlights some features which deserve additional attention as they seemassociated with graft failure risk without previousmodification of the longitudinal marker, the serumcreatinine. In a second part, we focus on dynamic predictions, which can be estimated from a jointmodel. They are called dynamic because of an update performed at each new measurement of the longitudinal marker. The clinical usefulness of this type of predictions has to be evaluated and should be based on good accuracy in terms of discrimination and calibration. To assess the prognostic capacities, the Brier Score or the ROCcurve have already been developed. To complete them, we propose an R² type indicator in order to complement some limitations of previous tools
APA, Harvard, Vancouver, ISO, and other styles
10

Ferrer, Loic. "Modélisation et prédiction conjointe de différents risques de progression de cancer à partir des mesures répétées de biomarqueurs." Thesis, Bordeaux, 2017. http://www.theses.fr/2017BORD0875/document.

Full text
Abstract:
Dans les études longitudinales en cancer, une problématique majeure est la description de l’évolution de la maladie d’un patient ou la prédiction de son état futur, à partir de mesures répétées d’un marqueur biologique. La modélisation conjointe permet de répondre à ces objectifs, mais elle a principalement été développée pour l’étude simultanée d’un marqueur longitudinal Gaussien et d’un unique temps d’événement. Afin de caractériser les transitions entre événements successifs qu’un patient peut connaître, nous étendons la méthodologie classique en introduisant un modèle conjoint pour un processus longitudinal Gaussien et un processus multi-états Markovien non homogène. Le modèle suppose que les temps de transition individuels sont indépendants conditionnellement aux covariables incluses. Nous proposons aussi un score test afin de tester cette hypothèse. Ces développements sont appliqués à deux cohortes d’hommes avec un cancer de la prostate localisé traité par radiothérapie. Le modèle permet de quantifier l’impact des dynamiques de l’antigène spécifique de la prostate, et d’autres facteurs pronostiques mesurés à la fin du traitement, sur chaque intensité de transition entre états cliniques prédéfinis. Cette thèse fournit ensuite des outils statistiques et des lignes directrices pour le calcul de prédictions dynamiques individuelles d’événements cliniques, dans le cadre de risques compétitifs. Enfin, un dernier travail amène une réflexion sur la modélisation conjointe de données longitudinales ordinales et de données de survie, avec une technique d’inférence innovante. Ainsi, ce travail introduit des méthodes statistiques adaptées à divers types de données longitudinales et d’histoire d’événements, qui permettent de répondre aux besoins des cliniciens. Des recommandations méthodologiques et des outils logiciels sont associés à chaque développement, pour une utilisation pratique par les communautés clinique et statistique
In longitudinal studies in cancer, a major problem is the description of the patient’s disease evolution or the prediction of his future state, based on repeated measurements of a biological marker. Joint modelling enables to meet these objectives but it has mainlybeen developed for the simultaneous study of a Gaussian longitudinal marker and a single event time. In order to characterize the transitions between successive events that a patient may experience, we extend the classical methodology by introducing a joint model for a Gaussian longitudinal process and a non-homogeneous Markovian multi-state process. The model assumes that individual transition times are independent conditionally to included covariates. We also propose a score test to assess this assumption. These developments are applied on two cohorts of men with localized prostate cancer treated with radiotherapy. The model quantifies the impact of prostate specific antigen dynamics, and other prognostic factors measured at the end of treatment, on each transition intensity between predefined clinical states. This thesis then provides statistical tools and guidelines for the computation of individual dynamic predictions of clinical events in the context of competitive risks. Finally, a last work leads to a reflection on joint modelling of longitudinal ordinal data and survival data with an innovative inference technique. To conclude, this work introduces statistical methods adapted to various types of longitudinal data and event history data, which meet the needs of clinicians. Methodological recommendations and software tools are associated with each development, for practical use by the clinical and statistical communities
APA, Harvard, Vancouver, ISO, and other styles
11

Dantan, Etienne. "Modèles conjoints pour données longitudinales et données de survie incomplètes appliqués à l'étude du vieillissement cognitif." Thesis, Bordeaux 2, 2009. http://www.theses.fr/2009BOR21658/document.

Full text
Abstract:
Dans l'étude du vieillissement cérébral, le suivi des personnes âgées est soumis à une forte sélection avec un risque de décès associé à de faibles performances cognitives. La modélisation de l'histoire naturelle du vieillissement cognitif est complexe du fait de données longitudinales et données de survie incomplètes. Par ailleurs, un déclin accru des performances cognitives est souvent observé avant le diagnostic de démence sénile, mais le début de cette accélération n'est pas facile à identifier. Les profils d'évolution peuvent être variés et associés à des risques différents de survenue d'un événement; cette hétérogénéité des déclins cognitifs de la population des personnes âgées doit être prise en compte. Ce travail a pour objectif d'étudier des modèles conjoints pour données longitudinales et données de survie incomplètes afin de décrire l'évolution cognitive chez les personnes âgées. L'utilisation d'approches à variables latentes a permis de tenir compte de ces phénomènes sous-jacents au vieillissement cognitif que sont l'hétérogénéité et l'accélération du déclin. Au cours d'un premier travail, nous comparons deux approches pour tenir compte des données manquantes dans l'étude d'un processus longitudinal. Dans un second travail, nous proposons un modèle conjoint à état latent pour modéliser simultanément l'évolution cognitive et son accélération pré-démentielle, le risque de démence et le risque de décès
In cognitive ageing study, older people are highly selected by a risk of death associated with poor cognitive performances. Modeling the natural history of cognitive decline is difficult in presence of incomplete longitudinal and survival data. Moreover, the non observed cognitive decline acceleration beginning before the dementia diagnosis is difficult to evaluate. Cognitive decline is highly heterogeneous, e.g. there are various patterns associated with different risks of survival event. The objective is to study joint models for incomplete longitudinal and survival data to describe the cognitive evolution in older people. Latent variable approaches were used to take into account the non-observed mechanisms, e.g. heterogeneity and decline acceleration. First, we compared two approaches to consider missing data in longitudinal data analysis. Second, we propose a joint model with a latent state to model cognitive evolution and its pre-dementia acceleration, dementia risk and death risk
APA, Harvard, Vancouver, ISO, and other styles
12

Karimi, Maryam. "Modélisation conjointe de trajectoire socioprofessionnelle individuelle et de la survie globale ou spécifique." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS120/document.

Full text
Abstract:
Appartenir à une catégorie socio-économique moins élevée est généralement associé à une mortalité plus élevée pour de nombreuses causes de décès. De précédentes études ont déjà montré l’importance de la prise en compte des différentes dimensions des trajectoires socio-économiques au cours de la vie. L’analyse des trajectoires professionnelles constitue une étape importante pour mieux comprendre ces phénomènes. L’enjeu pour mesurer l’association entre les parcours de vie des trajectoires socio-économiques et la mortalité est de décomposer la part respective de ces facteurs dans l’explication du niveau de survie des individus. La complexité de l’interprétation de cette association réside dans la causalité bidirectionnelle qui la sous-tend: Les différentiels de mortalité sont-ils dus à des différentielsd’état de santé initial influençant conjointement la situation professionnelle et la mortalité, ou l’évolution professionnelle influence-t-elle directement l’état de santé puis la mortalité?Les méthodes usuelles ne tiennent pas compte de l’interdépendance des changements de situation professionnelle et de la bidirectionnalité de la causalité qui conduit à un biais important dans l’estimation du lien causale entre situation professionnelle et mortalité. Par conséquent, il est nécessaire de proposer des méthodes statistiques qui prennent en compte des mesures répétées (les professions) simultanément avec les variables de survie. Cette étude est motivée par la base de données Cosmop-DADS qui est un échantillon de la population salariée française.Le premier objectif de cette thèse était d’examiner l’ensemble des trajectoires professionnelles avec une classification professionnelle précise, au lieu d’utiliser un nombre limité d’états dans un parcours professionnel qui a été considéré précédemment. A cet effet, nous avons défini des variables dépendantes du temps afinde prendre en compte différentes dimensions des trajectoires professionnelles, à travers des modèles dits de "life-course", à savoir critical period, accumulation model et social mobility model, et nous avons mis en évidence l’association entre les trajectoires professionnelles et la mortalité par cause en utilisant ces variables dans un modèle de Cox.Le deuxième objectif a consisté à intégrer les épisodes professionnel comme un sous-modèle longitudinal dans le cadre des modèles conjoints pour réduire le biais issude l’inclusion des covariables dépendantes du temps endogènes dans le modèle de Cox. Nous avons proposé un modèle conjoint pour les données longitudinales nominaleset des données de risques concurrents dans une approche basée sur la vraisemblance. En outre, nous avons proposé une approche de type méta-analyse pour résoudre les problèmes liés au temps des calculs dans les modèles conjoints appliqués à l’analyse des grandes bases de données. Cette approche consiste à combiner les résultats issus d’analyses effectuées sur les échantillons stratifiés indépendants. Dans la même perspective de l’utilisation du modèle conjoint sur les grandes bases de données, nous avons proposé une procédure basée sur l’avantage computationnel de la régression de Poisson.Cette approche consiste à trouver les trajectoires typesà travers les méthodes de la classification, et d’appliquerle modèle conjoint sur ces trajectoires types
Being in low socioeconomic position is associated with increased mortality risk from various causes of death. Previous studies have already shown the importance of considering different dimensions of socioeconomic trajectories across the life-course. Analyses of professional trajectories constitute a crucial step in order to better understand the association between socio-economic position and mortality. The main challenge in measuring this association is then to decompose the respectiveshare of these factors in explaining the survival level of individuals. The complexity lies in the bidirectional causality underlying the observed associations:Are mortality differentials due to differences in the initial health conditions that are jointly influencing employment status and mortality, or the professional trajectory influences directly health conditions and then mortality?Standard methods do not consider the interdependence of changes in occupational status and the bidirectional causal effect underlying the observed association and that leads to substantial bias in estimating the causal link between professional trajectory and mortality. Therefore, it is necessary to propose statistical methods that consider simultaneously repeated measurements (careers) and survivalvariables. This study was motivated by the Cosmop-DADS database, which is a sample of the French salaried population.The first aim of this dissertation was to consider the whole professional trajectories and an accurate occupational classification, instead of using limitednumber of stages during life course and a simple occupational classification that has been considered previously. For this purpose, we defined time-dependent variables to capture different life course dimensions, namely critical period, accumulation model and social mobility model, and we highlighted the association between professional trajectories and cause-specific mortality using the definedvariables in a Cox proportional hazards model.The second aim was to incorporate the employment episodes in a longitudinal sub-model within the joint model framework to reduce the bias resulting from the inclusion of internal time-dependent covariates in the Cox model. We proposed a joint model for longitudinal nominal outcomes and competing risks data in a likelihood-based approach. In addition, we proposed an approach mimicking meta-analysis to address the calculation problems in joint models and large datasets, by extracting independent stratified samples from the large dataset, applying the joint model on each sample and then combining the results. In the same objective, that is fitting joint model on large-scale data, we propose a procedure based on the appeal of the Poisson regression model. This approach consist of finding representativetrajectories by means of clustering methods and then applying the joint model on these representative trajectories
APA, Harvard, Vancouver, ISO, and other styles
13

Krasnowski, Piotr. "Codage conjoint source-chiffrement-canal pour les canaux de communication vocaux sécurisés en temps réel." Thesis, Université Côte d'Azur, 2021. http://www.theses.fr/2021COAZ4029.

Full text
Abstract:
Les risques croissants de violation de la vie privée et d’espionnage associés à la forte croissance des communications mobiles ont ravivé l’intérêt du concept originel de chiffrement de la parole sous forme de signaux audio transmis sur des canaux vocaux non spécifiques. Les méthodes habituelles utilisées pour la transmission de données cryptées par téléphonie analogique se sont révélées inadaptées pour les communications vocales modernes (réseaux cellulaires, VoIP) avec leurs algorithmes de compression de la voix, de détection d’activité vocale et de suppression adaptative du bruit. La faible bande passante disponible, les distorsions non linéaires des canaux et les phénomènes d’évanouissements du signal motivent l’introduction d’une approche conjointe du codage et du chiffrement de la parole adaptée aux canaux vocauxbruités modernes.Dans cette thèse sont développés, analysés et validés divers schémas sûrs et efficaces pour le chiffrement et la transmission de la parole en temps réel pour les canaux vocaux modernes. En plus du chiffrement de la parole, cette étude couvre les aspects sécurité et algorithmique de l’ensemble du système de communication vocale - aspects critiques d’un point de vue industriel. La thèse détaille un système de chiffrement de la parole associé à un codage avec perte, par brouillage aléatoire des paramètres vocaux (volume, hauteur, timbre) de certaines représentations de la parole. En résulte un pseudo-signal vocal chiffré robuste aux erreurs ajoutées par les canaux de transmission modernes. La technique de chiffrement repose sur l’introduction de translations et rotations aléatoires sur des maillages de tores plats associés à des codes sphériques. Face aux erreurs de transmission, le schéma déchiffre approximativement les paramètres vocaux et reconstruit, grâce à un synthétiseur vocal utilisant un réseau de neurones par apprentissage, un signal de parole perceptuellement très proche du signal d’origine. Le dispositif expérimental a été validé par la transmission de signaux de type pseudo-voix chiffrés sur un canal vocal réel. Les signaux de parole déchiffrés ont été favorablement notés lors d’une évaluation subjective de qualité incluant environ 40 participants.La thèse décrit également une nouvelle technique de transmission de données sur canaux vocaux en utilisant un dictionnaire d’ondes harmoniques courtes représentant les mots d’un code quaternaire. La technique fournit un débit binaire variable allant jusqu’à 6.4 kbps et a été testée avec succès sur différents canaux vocaux réels. Enfin, est présenté aussi un protocole d’échange de clés cryptographiques dédié pour les canaux vocaux authentifiés par signatures et vérification vocale. La sécurité du protocole a été vérifiée sous forme d’un modèle symbolique par l’assistant de preuve formelle Tamarin.L’étude conclut qu’une communication vocale sécurisée sur des canaux vocaux numériques réels est techniquement et de fait viable lorsque les canaux vocaux utilisés pour la communication sont stables et ne présentent que des distorsions prévisibles
The growing risk of privacy violation and espionage associated with the rapid spread of mobile communications renewed interest in the original concept of sending encrypted voice as audio signal over arbitrary voice channels. The usual methods used for encrypted data transmission over analog telephony turned out to be inadequate for modern vocal links (cellular networks, VoIP) equipped with voice compression, voice activity detection, and adaptive noise suppression algorithms. The limited available bandwidth, nonlinear channel distortion, and signal fadings motivate the investigation of a dedicated, joint approach for speech encodingand encryption adapted to modern noisy voice channels.This thesis aims to develop, analyze, and validate secure and efficient schemes for real-time speech encryption and transmission via modern voice channels. In addition to speech encryption, this study covers the security and operational aspects of the whole voice communication system, as this is relevant from an industrial perspective.The thesis introduces a joint speech encryption scheme with lossy encoding, which randomly scrambles the vocal parameters of some speech representation (loudness, pitch, timbre) and outputs an encrypted pseudo-voice signal robust against channel noise. The enciphering technique is based on random translations and random rotations using lattices and spherical codes on flat tori. Against transmission errors, the scheme decrypts the vocal parameters approximately and reconstructs a perceptually analogous speech signal with the help of a trained neural-based voice synthesizer. The experimental setup was validated by sending encrypted pseudo-voice over a real voice channel, and the decrypted speech was tested using subjective quality assessment by a group of about 40 participants.Furthermore, the thesis describes a new technique for sending data over voice channels that relies on short harmonic waveforms representing quaternary codewords. This technique achieves a variable bitrate up to 6.4 kbps and has been successfully tested over various real voice channels. Finally, the work considers a dedicated cryptographic key exchange protocol over voice channels authenticated by signatures and a vocal verification. The protocol security has been verified in a symbolic model using Tamarin Prover.The study concludes that secure voice communication over real digital voice channels is technically viable when the voice channels used for communication are stable and introduce distortion in a predictable manner.stabintroduce distortion in a predictable manner
APA, Harvard, Vancouver, ISO, and other styles
14

Bouhou, Boutayeb. "Recherche conjointe d'ondes gravitationnelles et de neutrino cosmiques de haute énergie avec les détecteurs VIRGO-LIGO et ANTARES." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00819985.

Full text
Abstract:
L'objectif de ce travail est la détection conjointe d'ondes gravitationnelles et de neutrinos cosmique de haute énergie à travers une approche multi-messagers. Les astronomies "neutrinos" et "ondes gravitationnelles" sont encore en phase de développement, mais elles sont appelées à jouer un rôle fondamental dans le futur. En effet, ces "messagers" peuvent parcourir de grandes distances grâce à leur faible interaction avec la matière (contrairement aux photons qui, à haute énergie, sont rapidement absorbés), sans être affectés par les champs magnétiques (contrairement aux rayons cosmiques chargés). Ils peuvent également s' échapper de milieux denses et fournir des informations sur les processus qui ont lieu au coeur des sources astrophysique (les photons s' échappent des couches périphériques des objets célestes). En un mot, ces astronomies sont susceptibles d'ouvrir une nouvelle fenêtre d'observation sur le cosmos. La collaboration ANTARES a construit en Méditerranée un télescope sous-marin de neutrino de haute énergie d'une surface de détection proche de 0.1 km². C'est le télescope le plus sensible pour la partie du ciel observée. Les interféromètres VIRGO et LIGO sont des détecteurs terrestres pour l'observation directe d'ondes gravitationnelles, instalés en Europe et aux états-Unis d'Amérique respectivement. Les instruments ANTARES, VIRGO et LIGO offrent une sensibilité inégalée dans la zone de recherche commune. Le premier chapitre de cette thèse introduit les motivations théoriques pour une recherche jointe d'ondes gravitationnelles et de neutrinos de haute énergies en développant les différents scénarios d'émission. Le deuxième et troisième chapitres sont consacrés à l'étude des techniques de détection avec les interféromètres VIRGO-LIGO et le télescope à neutrinos ANTARES. Les quatriéme et cinquième chapitres de ce travail présentent les résultats d'analyses de données combinées d'ANTARES, VIRGO et LIGO prises séparement pendant les années 2007 et 2009-2010.
APA, Harvard, Vancouver, ISO, and other styles
15

Gamatié, Abdoulaye. "Design and Analysis for Multi-Clock and Data-Intensive Applications on Multiprocessor Systems-on-Chip." Habilitation à diriger des recherches, Université des Sciences et Technologie de Lille - Lille I, 2012. http://tel.archives-ouvertes.fr/tel-00756967.

Full text
Abstract:
Avec l'intégration croissante des fonctions, les systèmes embarqués modernes deviennent très intelligents et sophistiqués. Les exemples les plus emblématiques de cette tendance sont les téléphones portables de dernière génération, qui offrent à leurs utilisateurs un large panel de services pour la communication, la musique, la vidéo, la photographie, l'accès à Internet, etc. Ces services sont réalisés au travers d'un certain nombre d'applications traitant d'énormes quantités d'informations, qualifiées d'applications de traitements intensifs de données. Ces applications sont également caractérisées par des comportements multi-horloges car elles comportent souvent des composants fonctionnant à des rythmes différents d'activations lors de l'exécution. Les systèmes embarqués ont souvent des contraintes temps réel. Par exemple, une application de traitement vidéo se voit généralement imposer des contraintes de taux ou de délai d'affichage d'images. Pour cette raison, les plates-formes d'exécution doivent souvent fournir la puissance de calcul requise. Le parallélisme joue un rôle central dans la réponse à cette attente. L'intégration de plusieurs cœurs ou processeurs sur une seule puce, menant aux systèmes multiprocesseurs sur puce (en anglais, "multiprocessor systems-on-chip - MPSoCs") est une solution-clé pour fournir aux applications des performances suffisantes, à un coût réduit en termes d'énergie pour l'exécution. Afin de trouver un bon compromis entre performance et consommation d'énergie, l'hétérogénéité des ressources est exploitée dans les MPSoC en incluant des unités de traitements aux caractéristiques variées. Typiquement, des processeurs classiques sont combinés avec des accélérateurs (unités de traitements graphiques ou accélérateurs matériels). Outre l'hétérogénéité, l'adaptativité est une autre caractéristique importante des systèmes embarqués modernes. Elle permet de gérer de manière souple les paramètres de performances en fonction des variations de l'environnement et d'une plate-forme d'exécution d'un système. Dans un tel contexte, la complexité du développement des systèmes embarqués modernes paraît évidente. Elle soulève un certain nombre de défis traités dans nos contributions, comme suit : 1) tout d'abord, puisque les MPSoC sont des systèmes distribués, comment peut-on aborder avec succès la correction de leur conception, de telle sorte que les propriétés fonctionnelles des applications multi-horloges déployées puissent être garanties ? Cela est étudié en considérant une méthodologie de distribution "correcte-par-construction" pour ces applications sur plates-formes multiprocesseurs. 2) Ensuite, pour les applications de traitement intensif de données à exécuter sur de telles plates-formes, comment peut-on aborder leur conception et leur analyse de manière adéquate, tout en tenant pleinement compte de leur caractère réactif et de leur parallélisme potentiel ? 3) Enfin, en considérant l'exécution de ces applications sur des MPSoC, comment peut-on analyser leurs propriétés non fonctionnelles (par exemple, temps d'exécution ou énergie), afin de pouvoir prédire leurs performances ? La réponse à cette question devrait alors servir à l'exploration d'espaces complexes de conception. Nos travaux visent à répondre aux trois défis ci-dessus de manière pragmatique, en adoptant une vision basée sur des modèles. Pour cela, ils considèrent deux paradigmes complémentaires de modélisation flot de données : la "modélisation polychrone" liée à l'approche synchrone réactive, et la "modélisation de structures répétitives" liée à la programmation orientée tableaux pour le parallélisme de données. Le premier paradigme permet de raisonner sur des systèmes multi-horloges dans lesquels les composants interagissent, sans supposer l'existence d'une horloge de référence. Le second paradigme est quant à lui suffisamment expressif pour permettre la spécification du parallélisme massif d'un système.
APA, Harvard, Vancouver, ISO, and other styles
16

Mesanovic, Diana, Dijana Rubil, and Beatrice Rylander. "A Conjoint based study on meat preferences. The effect of Country-of-Origin, Price, Quality and Expiration date on the consumer decision making process." Thesis, Jönköping University, JIBS, EMM (Entrepreneurship, Marketing, Management), 2009. http://urn.kb.se/resolve?urn=urn:nbn:se:hj:diva-11589.

Full text
Abstract:

This study will examine the importance of Country-of-Origin, Price, Quality and Expiration date, in the consumer decision making process for fresh meat. Country-of-Origin has earlier been investigated, however the research has been focusing on manipulating one single cue. With the recent scandals in the fresh meat industry, were animals being abused and expiration dates being changed, it is interesting to investigate how important the consumers find the four attributes; Country-of-Origin, price, quality and expiration date.In order to answer the research questions, and fulfil the purpose, the authors will use a mix of different data collection methods. Qualitative data will be gathered by performing interviews and quantitative data will be gathered by conducting a pilot study and an experiment. The data will be retrieved with the use of SPSS 17.0 and the conjoint analysis procedure. Country-of-origin has been found to be the most preferred attribute for consumers in their purchasing process for fresh meat, closely followed by expiration date. The consumer did find price and quality to be of importance, however the attributes were not found to be as important as Country-of-Origin and expiration date. As Country-of-Origin was found to be the most significant attribute for consumers in their decision making process, this indicates that the consumers are ethnocentric in their behaviour, i.e. they consider their own country and culture to be above others, which leads to a purchase of Swedish meat. It has also been found that the purchasing process of fresh meat is of great complexity, especially with the negative attention the fresh meat industry has induced.

APA, Harvard, Vancouver, ISO, and other styles
17

Gaultier, Lucile. "Couplage des observations spatiales dynamiques et biologiques pour la restitution des circulations océaniques : une approche conjointe par assimilation de données altimétriques et de traceurs." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-01067698.

Full text
Abstract:
Depuis quelques années, les observations spatiales des traceurs, comme la température de surface de l'océan (SST) ou la couleur de l'océan, ont révélé la présence de filaments à sous-mésoéchelle, qui ne peuvent être détectées par les satellites altimétriques. Ce travail de thèse explore la possibilité d'utiliser les informations dynamiques contenues dans les images traceur haute résolution pour compléter l'estimation de la dynamique océanique de surface effectuée par les satellites altimétriques. Pour ce faire, la méthode d'inversion développée est inspirée de l'assimilation de données images. A l'aide d'une fonction coût, on mesure la distance entre une image du flot dynamique et l'image des structures présentes sur le traceur. On a choisi pour cette étude d'utiliser le FSLE (Finite-Size Lyapunov Exponents) comme proxy image de la dynamique. Cette méthode est testée avec succès sur plusieurs cas test d'observations spatiales. Un modèle de processus couplé physique-biogéochimie ainsi qu'un modèle réaliste de la mer des Salomon sont utilisés pour estimer l'erreur associée à la méthode d'inversion et la pertinence de la correction effectuée. L'utilisation conjointe d'images traceurs et de données altimétriques présente un fort intérêt pour le contrôle de la circulation océanique.
APA, Harvard, Vancouver, ISO, and other styles
18

Lima, Mariana Sarmanho de Oliveira. "A aplicabilidade do gás natural do ponto de vista mercadológico, econômico e ambiental: um estudo para os Estados do Amazonas e de São Paulo." Universidade de São Paulo, 2011. http://www.teses.usp.br/teses/disponiveis/18/18140/tde-27062011-141122/.

Full text
Abstract:
A atividade industrial é um dos principais causadores dos impactos negativos ao meio ambiente, pois, para operar um processo produtivo, é indispensável o uso de insumos oriundos de recursos naturais. Para amenizar esse problema, é importante ampliar a participação de insumos energéticos mais limpos na matriz energética da indústria brasileira, a fim de promover um crescimento calcado nas propostas do desenvolvimento sustentável. Uma alternativa energética, que passou a ter importância diante da crise energética de 2000/2001, foi o gás natural (GN). O GN traz grandes expectativas ao consumidor do setor industrial, quando comparado com alguns dos seus energéticos substitutos, pois é capaz de contribuir com a redução de custos, mitigar a poluição e garantir o nível de produção sem riscos de interrupção em períodos de estiagem dos reservatórios nas hidroelétricas. Com base nisso, o presente trabalho analisa a aplicabilidade do gás natural do ponto de vista mercadológico, econômico e ambiental, por meio da identificação dos atributos que interferem na adoção do GN como energético alternativo nos principais setores industriais dos Estados de São Paulo (SP) e do Amazonas (AM) e da análise da eficiência produtiva relativa de um conjunto de equipamentos (caldeiras e aquecedores) do setor industrial, a fim de comparar o desempenho dos equipamentos que utilizam o gás natural com os que utilizam os demais energéticos. Como forma de atingir os objetivos expostos, o método compreendeu uma combinação da utilização da técnica do incidente crítico (TIC) e da análise conjunta (AC). A aplicação da técnica do incidente crítico forneceu os atributos considerados importantes para a adoção desse energético no setor industrial, e a análise conjunta serviu para determinar a utilidade e importância relativa dos atributos relevantes na escolha do consumidor. Além disso, foi utilizada a análise por envoltória de dados (DEA) como forma de analisar a eficiência produtiva relativa dos equipamentos estudados. Vale ressaltar que a análise por meio da DEA foi baseada na relação custo/benefício dos equipamentos. Os benefícios considerados eram de natureza econômica e ambiental. Com o presente trabalho, foram obtidos resultados importantes que podem ajudar as empresas usuárias e não usuárias do GN a mensurar, de forma mais objetiva, os benefícios oriundos da utilização deste energético nos processos produtivos e, também permitir ao governo estabelecer estratégias adequadas para incentivar o uso do gás depois da prevista ampliação da sua oferta devido às descobertas recentes de reservas na camada pré-sal e do funcionamento do novo gasoduto Urucu-Coari-Manaus.
Industrial activity is one of the main originators of negative impacts to the environment, given that the use of raw materials from natural resources is indispensable when operating a production process. To mitigate this problem, it is important to broaden the participation of cleaner energy inputs in the Brazilian energy sector in order to promote growth based on the proposals of sustainable development. An alternative energy is natural gas (NG), which became important after the energy crisis of 2000/2001. When compared with some of its energy substitutes, NG brings great expectations to the consumer industry since it is able to reduce costs, mitigate pollution and ensure the level of production without the risk of supply interruption from the hydroelectric plants during the dry periods. Based on this context, this paper analyzes the applicability of natural gas from a marketing, economic and environmental point of view, by identifying the attributes that influence the adoption of natural gas as alternative energy in the major industrial sectors of the states of São Paulo (SP) and Amazonas (AM), and examines the relative productive efficiency of a set of equipments (boilers and heaters) in the industrial sector, in order to compare the performance of equipments that use natural gas with those using other energy sources. To achieve the stated objectives, the method used included a combination of the critical incident technique (CIT) and conjoint analysis (CA). The application of the critical incident technique provided the attributes considered important for the adoption of this energy source in the industrial sector, and the conjoint analysis determined the usefulness and relative importance of the pertinent attributes in the consumers choice. Additionally, the data envelopment analysis (DEA) was used as a way to analyze the relative productive efficiency of the equipments that were studied. It should be noted that the DEA analysis was based on the equipments cost-effective ratio. The benefits considered were essentially economic and environmental. This study obtained important results that can help NG user and nonuser companies to more objectively measure the benefits of applying this energy source in production processes, as well as enable the government to establish appropriate strategies to encourage gas use after its foreseen production expansion, on account of recent discoveries of reserves in the pre-salt layers and the operation of the new Urucu-Coari-Manaus gas pipeline.
APA, Harvard, Vancouver, ISO, and other styles
19

Majidi, Mohammad Hassan. "Bayesian estimation of discrete signals with local dependencies." Thesis, Supélec, 2014. http://www.theses.fr/2014SUPL0014/document.

Full text
Abstract:
L'objectif de cette thèse est d'étudier le problème de la détection de données dans le système de communication sans fil, à la fois pour le cas de l'information d'état de canal parfaite et imparfaite au niveau du récepteur. Comme on le sait, la complexité de MLSE est exponentielle en la mémoire de canal et la cardinalité de l'alphabet symbole est rapidement ingérable, ce qui force à recourir à des approches sousoptimales. Par conséquent, en premier lieu, nous proposons une nouvelle égalisation itérative lorsque le canal est inconnu à l'émetteur et parfaitement connu au niveau du récepteur. Ce récepteur est basé sur une approche de continuation, et exploite l'idée d'approcher une fonction originale de coût d'optimisation par une suite de fonctions plus dociles et donc de réduire la complexité de calcul au récepteur.En second lieu, en vue de la détection de données sous un canal dynamique linéaire, lorsque le canal est inconnu au niveau du récepteur, le récepteur doit être en mesure d'effectuer conjointement l'égalisation et l'estimation de canal. De cette manière, on formule une représentation de modèle état-espace combiné du système de communication. Par cette représentation, nous pouvons utiliser le filltre de Kalman comme le meilleur estimateur des paramètres du canal. Le but de cette section est de motiver de façon rigoureuse la mise en place du filltre de Kalman dans l'estimation des sequences de Markov par des canaux dynamiques Gaussien. Par la présente, nous interprétons et explicitons les approximations sous-jacentes dans les approaches heuristiques.Enfin, si nous considérons une approche plus générale pour le canal dynamique non linéaire, nous ne pouvons pas utiliser le filtre de Kalman comme le meilleur estimateur. Ici, nous utilisons des modèles commutation d’espace-état (SSSM) comme modèles espace-état non linéaires. Ce modèle combine le modèle de Markov caché (HMM) et le modèle espace-état linéaire (LSSM). Pour l'estimation de canal et la detection de données, l'approche espérance et maximisation (EM) est utilisée comme approche naturelle. De cette façon, le filtre de Kalman étendu (EKF) et les filtres à particules sont évités
The aim of this thesis is to study the problem of data detection in wireless communication system, for both case of perfect and imperfect channel state information at the receiver. As well known, the complexity of MLSE being exponential in the channel memory and in the symbol alphabet cardinality is quickly unmanageable and forces to resort to sub-optimal approaches. Therefore, first we propose a new iterative equalizer when the channel is unknown at the transmitter and perfectly known at the receiver. This receiver is based on continuation approach, and exploits the idea of approaching an original optimization cost function by a sequence of more tractable functions and thus reduce the receiver's computational complexity. Second, in order to data detection under linear dynamic channel, when the channel is unknown at the receiver, the receiver must be able to perform joint equalization and channel estimation. In this way, we formulate a combined state-space model representation of the communication system. By this representation, we can use the Kalman filter as the best estimator for the channel parameters. The aim in this section is to motivate rigorously the introduction of the Kalman filter in the estimation of Markov sequences through Gaussian dynamical channels. By this we interpret and make clearer the underlying approximations in the heuristic approaches. Finally, if we consider more general approach for non linear dynamic channel, we can not use the Kalman filter as the best estimator. Here, we use switching state-space model (SSSM) as non linear state-space model. This model combines the hidden Markov model (HMM) and linear state-space model (LSSM). In order to channel estimation and data detection, the expectation and maximization (EM) procedure is used as the natural approach. In this way extended Kalman filter (EKF) and particle filters are avoided
APA, Harvard, Vancouver, ISO, and other styles
20

Lin, Tse-Ju, and 林則如. "Data-driven Handwriting Synthesis with Conjoined Manner." Thesis, 2014. http://ndltd.ncl.edu.tw/handle/70128227713746511044.

Full text
Abstract:
碩士
國立臺灣大學
資訊工程學研究所
102
A person''s handwriting appears differently within a typical range of variations, and the shapes of handwriting characters also show complex interaction with their nearby neighbours. This makes automatic synthesis of handwriting characters and paragraphs very challenging. In this paper, we propose a method for synthesizing handwriting texts according to a writer''s handwriting style. The synthesis algorithm is composed by two phases. First, we create the shape models for different characters based on one writer''s data. Then, we compute the cursive probability to decide whether each pair of neighbouring characters are conjoined together or not. By jointly modelling the handwriting style and conjoined property through a novel trajectory optimization, final handwriting words can be synthesized from a set of collected samples. Furthermore, the paragraphs'' layouts are also automatically generated and adjusted according to the writer''s style obtained from the same dataset. We demonstrate that our method can successfully synthesize an entire paragraph that imitate a writer''s handwriting using his/her collected handwriting samples.
APA, Harvard, Vancouver, ISO, and other styles
21

Pirot, Dorian. "Reconstruction des structures magnéto-convectives solaires sous une région active, par l’utilisation conjointe d’un modèle de convection anélastique et d’une méthode d’assimilation de données." Thèse, 2012. http://hdl.handle.net/1866/8662.

Full text
Abstract:
L’utilisation d’une méthode d’assimilation de données, associée à un modèle de convection anélastique, nous permet la reconstruction des structures physiques d’une partie de la zone convective située en dessous d’une région solaire active. Les résultats obtenus nous informent sur les processus d’émergence des tubes de champ magnétique au travers de la zone convective ainsi que sur les mécanismes de formation des régions actives. Les données solaires utilisées proviennent de l’instrument MDI à bord de l’observatoire spatial SOHO et concernent principalement la région active AR9077 lors de l’ ́évènement du “jour de la Bastille”, le 14 juillet 2000. Cet évènement a conduit à l’avènement d’une éruption solaire, suivie par une importante éjection de masse coronale. Les données assimilées (magnétogrammes, cartes de températures et de vitesses verticales) couvrent une surface de 175 méga-mètres de coté acquises au niveau photosphérique. La méthode d’assimilation de données employée est le “coup de coude direct et rétrograde”, une méthode de relaxation Newtonienne similaire à la méthode “quasi-linéaire inverse 3D”. Elle présente l’originalité de ne pas nécessiter le calcul des équations adjointes au modèle physique. Aussi, la simplicité de la méthode est un avantage numérique conséquent. Notre étude montre au travers d’un test simple l’applicabilité de cette méthode à un modèle de convection utilisé dans le cadre de l’approximation anélastique. Nous montrons ainsi l’efficacité de cette méthode et révélons son potentiel pour l’assimilation de données solaires. Afin d’assurer l’unicité mathématique de la solution obtenue nous imposons une régularisation dans tout le domaine simulé. Nous montrons enfin que l’intérêt de la méthode employée ne se limite pas à la reconstruction des structures convectives, mais qu’elle permet également l’interpolation optimale des magnétogrammes photosphériques, voir même la prédiction de leur évolution temporelle.
We use a data assimilation technique, together with an anelastic convection model, in order to reconstruct the convective patterns below a solar active region. Our results yield information about the magnetic field emergence through the convective zone and the mechanisms of active region formation. The solar data we used are taken from the instrument MDI on board the spatial observatory SOHO on July 2000 the 14th for the event called ”bastille day event”. This specific event leads to a solar flare followed by a coronal mass ejection. Assimilated data (magnetograms, temperature maps and vertical velocity maps) cover an area of 175 Mm × 175 Mm at photospheric level. The data assimilation technique we used, the ”Nudging Back and Forth”, is a Newtonian re- laxation technique similar to the ”quasi linear inverse 3D”. Such a technique does not require computation of the adjoint equations. Thus, simplicity of this method is a numerical advantage. Our study shows with a simple test case the applicability of this method to a convection model treated with the anelastic approximation. We show the efficiency of the NBF technique and we detail its potential for solar data assimi- lation. In addition, to ensure mathematical unicity of the obtained solution, a regularization has been imposed in the whole simulation domain. This is a new approach. Finally, we show that the interest of such a technique is not limited to the reconstruction of convective patterns but that it also allows optimal interpolation of photospheric magnetograms and predictions.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography