Rozprawy doktorskie na temat „Récupération d'horloge et de données”

Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Récupération d'horloge et de données.

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 24 najlepszych rozpraw doktorskich naukowych na temat „Récupération d'horloge et de données”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

Tall, Ndiogou. "Etude et réalisation de circuits de récupération d'horloge et de données analogiques et numériques pour des applications bas débit et très faible consommation". Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4717.

Pełny tekst źródła
Streszczenie:
Les circuits de récupération d'horloge et de données sont nécessaires au bon fonctionnement de plusieurs systèmes de communication sans fil. Les travaux effectués dans le cadre de cette thèse concernent le développement de ces circuits avec d'une part la réalisation, en technologie HCMOS9 0,13 μm de STMICROELECTRONICS, de circuits CDR analogiques à 1 et 54 Mbit/s, et d'autre part, la mise en œuvre de fonctions CDR numériques programmables à bas débit. Un circuit CDR fonctionnant à plus bas débit (1 Mbit/s) a été conçu dans le cadre de la gestion d'énergie d'un récepteur ULB impulsionnel non cohérent. Ces deux structures ont été réalisées à l'aide de PLL analogiques du 3ème ordre. Un comparateur de phase adapté aux impulsions issues du détecteur d'énergie a été proposé dans cette étude. Les circuits ont ensuite été dimensionnés dans le but d'obtenir de très bonnes performances en termes de jitter et de consommation. En particulier, les performances mesurées (sous pointes) du circuit CDR à 1 Mbit/s permettent d'envisager une gestion d'énergie efficace (réduction de plus de 97% de la consommation du récepteur). Dans le cadre d'une chaîne de télémesure avion vers sol, deux circuits CDR numériques ont également été réalisés durant cette thèse. Une PLL numérique du second degré a été implémentée en vue de fournir des données et une horloge synchrone de celles-ci afin de piloter une chaîne SOQPSK entièrement numérique. Un circuit ELGS a également mis au point pour fonctionner au sein d'un récepteur PCM/FM
Clock and data recovery circuits are required in many wireless communication systems. This thesis is about development of such circuits with: firstly, the realization, in HCMOS9 0.13 μm of STMICROELECTRONICS technology, of 1 and 54 Mb/s analog CDR circuits, and secondly, the implementation of programmable digital circuits at low rates. In the aim of an impulse UWB transceiver dealing with video transmission, a CDR circuit at 54 Mb/s rate has been realized to provide clock signal synchronously with narrow pulses (their duration is about a few nanoseconds) from the energy detector. Another CDR circuit has been built at 1 Mb/s rate in a non-coherent IR- UWB receiver power management context. Both circuits have been implemented as 3rd order analog PLL. In this work, a phase comparator suitable for “RZ low duty cycle” data from the energy detector has been proposed. Circuits have been sized to obtain very good performances in terms of jitter and power consumption. Particularly, measured performances of the 1 Mb/s CDR circuit allow to plan an efficient power management (a decrease of more than 97% of the receiver total power consumption). In the context of a telemetry system from aircraft to ground, two digital CDR circuits have also been implemented. A second order digital PLL has been adopted in order to provide synchronous clock and data to an SOQPSK digital transmitter. Also, a digital ELGS circuit has been proposed to work in a PCM/FM receiver. For both CDR structures, the input signal rate is programmable and varies globally from 1 to 30 Mb/s
Style APA, Harvard, Vancouver, ISO itp.
2

Withitsoonthorn, Suwimol. "Photodiode UTC et oscillateur différentiel commande en tension à base de TBdH InP pour récupération d'horloge dans un réseau de transmission optique à très haut débit". Paris 6, 2004. https://tel.archives-ouvertes.fr/tel-00006403v2.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
3

Withitsoonthorn, Suwimol. "Photodiode UTC et oscillateur différentiel commandé en tension à base de TBdH InP pour récupération d'horloge dans un réseau de transmission optique à très haut débit". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2004. http://tel.archives-ouvertes.fr/tel-00006403.

Pełny tekst źródła
Streszczenie:
L'intégration optoélectronique d'un récepteur dans une transmission sur fibre optique concerne l'assemblage de trois principales fonctions : la photodétection, la récupération d'horloge et la régénération des données. Cette thèse contribue au développement d'un tel concept avec, d'une part, l'étude d'une structure de photodiode appelée UTC (Uni-Travelling Carrier) compatible avec le transistor bipolaire à double hétérojonction (TBdH), et d'autre part, la réalisation dans cette même technologie TBdH d'un oscillateur commandé en tension ou VCO (Voltage-Controlled Oscillator) pour la récupération d'horloge et des données à 40 et 43 Gbit/s. La photodiode UTC présente de très bonnes performances en bande passante et en courant de saturation par rapport à la photodiode PIN classique. La première partie de ce travail présente une étude approfondie de la structure UTC ainsi que son intégration avec la structure TBdH sur substrat InP. La compatibilité entre ces deux structures a été validée avec quelques critères à respecter. En particulier, le dopage et l'épaisseur de la base constituent les principaux compromis entre la sensibilité et la rapidité du dispositif. Le VCO de type différentiel permettra, après intégration dans une boucle à verrouillage de phase ou PLL (Phase-Locked Loop), de générer un signal stable fournissant deux phases d'horloge complémentaires aux circuits numériques, notamment au circuit de décision utilisé pour la régénération des données. L'architecture « à varactor interne » choisie offre un fort potentiel pour la réalisation des VCO de très hautes fréquences. Le circuit VCO réalisé au cours de cette thèse présente de bonnes performances en plage d'accord (10%) autour de la fréquence d'oscillation de 45 GHz. La précision de cette fréquence est liée aux modèles du transistor et de la ligne coplanaire utilisés dans la simulation, ainsi qu'à la reproductibilité technologique. Ces résultats permettent de franchir une étape importante et nécessaire à la réalisation d'un récepteur monolithique à base de TBdH InP pour les applications à très haut débit.
Style APA, Harvard, Vancouver, ISO itp.
4

Gosset, Christophe. "Mélange à quatre ondes dans les structures semi-conductrices actives et ses applications à la regénération". Paris, ENST, 2002. http://www.theses.fr/2002ENST0035.

Pełny tekst źródła
Streszczenie:
La croissance du trafic de données a conduit à la généralisation des transmissions sur fibre optique dans les réseaux interurbains et transcontinentaux. Face à la montée en débit occasionnée, on assiste actuellement au développement du traitement tout-optique de l'information pour apporter une solution alternative au traitement électronique. La régénération " 3r " (reamplifying, reshaping and retiming) des signaux est un des éléments photoniques clés pour le traitement du signal à très haut débit. Les milieux à semi-conducteurs, de par leurs non-linéarités et leur temps de réponse rapide, apparaissent comme des candidats intéressants pour la réalisation de telles fonctions. Les propriétés du mélange à quatre ondes dans ces structures sont étudiées et appliquées à la réalisation de sous-fonctions optiques, nécessaires à régénération tout-optique, comme la récupération d'horloge, l'auto-synchronisation de trames multiplexées en longueurs d'onde et la régénération du taux d'extinction
Data traffic growth leads to generalisation of fibre optic in telecommunication networks. Optical technologies allow to overcome physical limitations in electronic data processing for high speed (> 40 gbit/s) transmission. All-optical 3r regeneration will be one of the key functions in such future networks. Semiconductor devices appear to be adapted thanks to nanosecond scale radiative lifetime. We propose to use four-wave mixing properties in semiconductor amplifiers and lasers to achieve fundamental elements of 3r regeneration such as frames synchronisation, clock recovery and d-bascule
Style APA, Harvard, Vancouver, ISO itp.
5

Mao, Yuqing. "Nouvelle génération de générateurs de fréquence par auto-calibration de la grille arrière des transistors en technologie FDSOI". Electronic Thesis or Diss., Université Côte d'Azur, 2023. http://www.theses.fr/2023COAZ4123.

Pełny tekst źródła
Streszczenie:
Les systèmes modernes de communication de données s'appuient fortement sur des techniques de transmission synchrone pour optimiser la largeur de bande et minimiser la consommation d'énergie. Dans ces systèmes, seul le signal de données est transmis, ce qui nécessite la mise en œuvre de circuits de récupération d'horloge et de données (CDR) au niveau du récepteur. Cette thèse explore la nouvelle application de la technologie Fully-Depleted Silicon-On-Insulator (FDSOI) 28 nm pour améliorer les performances des circuits CDR en atténuant les effets de canaux courts grâce à des structures de transistors innovantes.L'une des contributions de cette thèse est le développement d'un circuit à résistance négative utilisant la grille arrière du transistor FDSOI. Ce circuit utilise un miroir de courant contrôlé par la grille arrière pour créer un oscillateur LC à résistance négative. En parallèle, ce travail présente l'implémentation de deux types d'oscillateurs : un oscillateur en anneau complémentaire et un oscillateur en anneau rapide. L'oscillateur en anneau complémentaire capitalise sur les inverseurs complémentaires, offrant un retour de biais automatique par le contrôle de la grille arrière, améliorant ainsi ses performances. L'oscillateur en anneau rapide utilise quant à lui des inverseurs rapides en combinaison avec des inverseurs complémentaires conçus pour minimiser les délais de propagation. La thèse présente une analyse comparative détaillée de ces oscillateurs, mettant en évidence leurs points forts et leurs limites. En outre, nous introduisons un signal d'injection dans l'oscillateur en anneau, ce qui permet de créer un oscillateur verrouillé par injection (ILO) à faible jitter. Cet oscillateur présente des caractéristiques de performance remarquables, notamment en ce qui concerne la réduction du bruit de phase et l'amélioration de la stabilité de la fréquence. Tirant parti des bonnes performances de l'ILO, nous proposons une nouvelle récupération d'horloge et de données verrouillée par injection (ILCDR) à faible coût et à faible consommation d'énergie, avec un temps de verrouillage rapide et une bonne jitter pour les applications en mode burst.Pour valider les conceptions proposées et leurs performances à différentes fréquences opérationnelles, des simulations approfondies ont été réalisées à l'aide de Cadence Virtuoso à 868 MHz et 2.4 GHz. En outre, la conception de layout et la simulation post layout de l'ILCDR basé sur l'oscillateur en anneau complémentaire sont également étudiées
Modern data communication systems heavily rely on synchronous transmission techniques to optimize bandwidth and minimize power consumption. In such systems, only the data signal is transmitted, necessitating the implementation of Clock and Data Recovery (CDR) circuits at the receiver end. This thesis explores the novel application of Fully-Depleted Silicon-On-Insulator (FDSOI) 28nm technology to enhance the performance of CDR circuits by mitigating short-channel effects through innovative transistor structures.One contribution of this thesis is the development of a negative resistance circuit using the back gate of the FDSOI transistor. This circuit employs a current mirror controlled by the back gate to create a negative resistance LC oscillator. In parallel, this work presents the implementation of two types of oscillators: a complementary ring oscillator and a fast ring oscillator. The complementary ring oscillator capitalizes on complementary inverters, offering automatic bias feedback by the back gate control, thereby enhancing its performance. Meanwhile, the fast ring oscillator uses fast inverters in combination with complementary inverters designed to minimize propagation delays. The thesis presents a detailed comparative analysis of these oscillators, highlighting their individual strengths and limitations. Furthermore, we introduce an injection signal into the ring oscillator, resulting in the creation of a low-jitter Injection-Locked Oscillator (ILO). This ILO exhibits remarkable performance characteristics, particularly in reducing phase noise and enhancing frequency stability. Taking advantage of the good performance of the ILO, we propose a novel low-cost and low-power Injection-Locked Clock and Data Recovery (ILCDR) with a fast-locking time and good jitter for burst-mode applications.To validate the proposed designs and their performance at different operational frequencies, extensive simulations have been carried out using Cadence Virtuoso at 868 MHz and 2.4 GHz. In addition, the layout design and post layout simulation of the ILCDR based on the complementary ring oscillator are also studied
Style APA, Harvard, Vancouver, ISO itp.
6

Duverdier, Alban. "Cyclostationnarité et changements d'horloge périodiques". Toulouse, INPT, 1997. http://www.theses.fr/1997INPT136H.

Pełny tekst źródła
Streszczenie:
Parmi les modeles de signaux, on rencontre souvent des processus qui subissent des perturbations, deterministes ou aleatoires, le long de l'axe des temps. Une telle transformation est appelee changement d'horloge ou jitter. Elle modifie en general les proprietes du signal. Par exemple, lorsque le changement d'horloge possede des proprietes periodiques, un signal stationnaire devient cyclostationnaire. L'objectif de cette these est axe sur deux questions. Comment peut-on definir au mieux les changements d'horloge ? qu'apportent les changements d'horloge periodiques, lorsqu'ils sont introduits volontairement ? nous les avons utilises dans des domaines nouveaux. Tout d'abord, ils ont permis de realiser de l'etalement spectral. Puis, nous avons propose une methode originale de transmission multi-utilisateurs. Enfin, nous les avons employes en modelisation. Notre travail est presente suivant cinq chapitres. Le premier chapitre rappelle tout d'abord ce qu'est la cyclostationnarite. Puis, il presente les principales classes de signaux cyclostationnaires et les applications classiques qui s'y rapportent. Dans le second chapitre, apres une synthese bibliographique du filtrage lineaire periodique variant par rapport au temps et de son cas particulier, le changement d'horloge periodique, nous avons defini la notion plus generale de filtrage lineaire cyclostationnaire. Le troisieme chapitre presente une partie originale de notre travail qui est une methode non-conventionnelle d'etalement spectral, realisee a l'aide de filtres lineaires periodiques. Elle peut etre utilisee en particulier en communication pour du brouillage de l'information. Le quatrieme chapitre est consacre a une extension de la methode precedente pour de la transmission multi-utilisateurs. Il s'agit d'une generalisation des methodes a acces multiple faisant appel a un code (cdma). Dans le dernier chapitre, on modelise un signal large bande par un signal a bande limitee soumis a une somme de changements d'horloge periodiques. Cela permet ainsi d'introduire une nouvelle methode de compression.
Style APA, Harvard, Vancouver, ISO itp.
7

Pham, Guillaume. "Contribution à l'étude du phénomène d'autopulsation dans les lasers a semi-conducteurs et de la récupération d'horloge". Paris, ENST, 1998. http://www.theses.fr/1998ENST0004.

Pełny tekst źródła
Streszczenie:
Cette thèse s'inscrit dans le cadre de l'effort actuel visant à concevoir les futurs réseaux optiques des télécommunications. Plus particulièrement, elle s'intéresse à la fonction de la récupération d'horloge tout-optique utilisant les lasers à semi-conducteurs dfb autopulsants. Le phénomène d'autopulsation apparait dans certains lasers et se manifeste par une modulation périodique de la puissance optique émise alors que le courant de polarisation est constant. Son origine dans les lasers à structure dfb n'est pas encore bien déterminée et une partie importante du travail consiste à en expliquer le mécanisme. Pour cela, un modèle de laser dfb a deux sections a été développe à partir de la méthode de la fonction de green. Il a mis en évidence que pour certaines conditions la valeur du gain différentiel effectif peut devenir négative. Dans ce cas, une analyse de la stabilité montre que l'autopulsation peut être induite. Une fois le mécanisme d'autopulsation bien compris, la faisabilité et les performances de la récupération d'horloge au moyen d'un laser autopulsant ont été étudiées. La transparence du dispositif en longueur d'onde et une extraction d'horloge de qualité à 4 gbit/s ont été démontrées. Parallèlement, les propriétés de la bande d'accrochage ont été étudiées analytiquement en partant d'une analogie entre l'autopulsation et l'oscillateur laser. Les résultats obtenus ont été vérifiés par des approches expérimentale et numérique.
Style APA, Harvard, Vancouver, ISO itp.
8

Lorrière, Nominoë. "Cellules photovoltaïques pour la récupération d'énergie et la communication de données". Electronic Thesis or Diss., Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0570.

Pełny tekst źródła
Streszczenie:
L’invention des LED bleues de forte intensité en 1993 a permis une révolution générale de l’éclairage pour le grand public aussi bien que pour les commerces. Ces nouveaux dispositifs, proposent un rendement énergétique bien supérieur aux technologies commerciales précédentes, ce qui explique leur déploiement massif depuis la fin des années 2000. Les matériaux semiconducteurs composant les LED sont déjà utilisés dans le domaine de la microélectronique pour effectuer des fonctions logiques à hautes fréquences.La technologie LiFi tend à cumuler ces deux propriétés en ajoutant une fonction de transmission d’information aux points d’éclairages existants. L’information est transmise en modulant l’intensité de la lumière à haute fréquence, bien au delà des capacités distinctives de l’oeil. Cette technologie devrait subir un déploiement avec l’arrivée de l’Internet des Objets (IoT) qui apporte une grande demande de connections sans fil, incompatible avec les réseaux radiofréquences actuels. Le travail présenté ici porte sur la réception de cette modulation lumineuse. Les récepteurs usuellement utilisés sont des photodiodes mais ces dernières imposent des contraintes d’éclairage et de consommation difficilement corrélables avec les impératifs de l’IoT. Ainsi, ces travaux étudient la possibilité de réception de la modulation LiFi par des cellules et modules photovoltaïques, dont les deux principales qualités restent les grandes dimensions du détecteur permettant une omnidirectionnalité de réception et une résistance à l’ombrage ainsi que le caractère passif de la détection
The invention of high-intensity blue LED hit the market and the retail industry in 1993. It even brought a revolution in lighting history. These new devices significantly improved energy efficiency than ever before and led to their massive deployment since the end of the 2000s. Semiconductor materials for LED devices are used in the microelectronics domain to implement high-frequency logic functions.Light fidelity (LiFi) technologies combine illumination and communication capabilities by implanting information transmission function to existing lighting equipment. Information is transmitted by using intensity modulation of optical sources at high frequencies, far beyond the range of visual perception. LiFi is an enabling technology for the Internet of Things (IoT) systems. IoT requires a large number of wireless connections, so it is not compatible with existing radiofrequency networks.This work is based on the reception of light modulation. Photodiodes are the mostly used receivers, however their constraints on lighting and consumption make it difficult to meet the requirements of the IoT. On the ground of this, this research is aimed at studying the possibility of receiving LiFi modulation by photovoltaic cells and modules due to their two main qualities: passive detection and large dimensions (omnidirectional reception and shade resistance)
Style APA, Harvard, Vancouver, ISO itp.
9

Noumon, Allini Elie. "Caractérisation, évaluation et utilisation du jitter d'horloge comme source d'aléa dans la sécurité des données". Thesis, Lyon, 2020. http://www.theses.fr/2020LYSES019.

Pełny tekst źródła
Streszczenie:
Cette thèse, financée par la DGA, est motivée par la problématique d’évaluation des TRNG pour des applications à très haut niveau de sécurité. Les standards actuels tels que AIS-31 n’étant pas suffisants pour ces types d’applications, la DGA propose une procédure complémentaire, validée sur les TRNG utilisant les oscillateurs en anneau (RO), qui vise à caractériser la source d’aléa des TRNG afin d’identifier les bruits électroniques présents dans celle-ci. Ces bruits se traduisent dans les circuits numériques par le jitter d’horloge générée dans les RO. Ils peuvent être caractérisés par leur densité spectrale de puissance reliée à la variance d’Allan temporelle qui permet, contrairement à la variance standard pourtant encore largement utilisée, de discriminer ces différents types de bruit (thermique, flicker principalement). Cette étude a servi de base à l’estimation de la part du jitter due au bruit thermique utilisé dans les modèles stochastiques décrivant la sortie des TRNG. Afin d’illustrer et de valider l’approche de certification DGA sur d’autres principes de TRNG que les RO, nous proposons une caractérisation de la PLL en tant que source d’aléa. Nous avons modélisé la PLL en termes de fonctions de transfert. Cette modélisation a conduit à l’identification de la source de bruit en sortie de la PLL, ainsi que de sa nature en fonction des paramètres physiques de la PLL. Cela a permis de proposer des recommandations quant au choix des paramètres afin de garantir une entropie maximale. Afin d’aider à la conception de ce type de TRNG, nous proposons également un outil de recherche des paramètres non physiques du générateur assurant le meilleur compromis sécurité/débit
This thesis, funded by the DGA, is motivated by the problem of evaluation of TRNG for applications with a very high level of security. As current standards such as AIS-31 are not sufficient for these types of applications, the DGA proposes a complementary procedure, validated on TRNG using ring oscillators (RO), which aims to characterize the source of randomness of TRNG in order to identify electronic noises present in it. These noises are manifested in the digital circuits by the clock jitter generated in the RO. They can be characterized by their power spectral density related to the time Allan variance which allows, unlike the standard variance which is still widely used, to discriminate these different types of noise (mainly thermal, flicker). This study was used as a basis for estimating the proportion of jitter due to thermal noise used in stochastic models describing the output of TRNG. In order to illustrate and validate the DGA certification approach on other principles of TRNG apart from RO, we propose a characterization of PLL as a source of randomness. We have modeled the PLL in terms of transfer functions. This modeling has led to the identification of the source of noise at the output of the PLL, as well as its nature as a function of the physical parameters of the PLL. This allowed us to propose recommendations on the choice of parameters to ensure maximum entropy. In order to help in the design of this type of TRNG, we also propose a tool to search for the non-physical parameters of the generator ensuring the best compromise between security and throughput
Style APA, Harvard, Vancouver, ISO itp.
10

Essid, Mehdi. "Intégration des données et applications hétérogènes et distribuées sur le Web". Aix-Marseille 1, 2005. http://www.theses.fr/2005AIX11035.

Pełny tekst źródła
Streszczenie:
Cette thèse se situe dans le cadre général de l'intégration de données hétérogènes sur le Web et plus particulièrement dans le cadre applicatif du domaine géographique. Nous avons orienté nos travaux selon deux directions : 1 - un axe "modèle structuré" : nous avons proposé l'algorithme de réécriture Grouper/Diviser dans le cas de présence de clés. Ensuite, nous avons construit un système de médiation relationnel pour les SIG implantant cet algorithme. L'originalité de notre système est l'extension des capacités manquantes dans les sources par l'intégration d'outils. 2 - un axe "modèle semi-structuré" : nous avons utilisé la même stratégie que Grouper/Diviser afin de proposer un algorithme de réécriture dans un cadre XML. Ensuite, nous avons construit le système VirGIS : un système de médiation conforme à des standards. Grâce à sa conformité aux standards de l'OpenGIS et du W3C, nous avons déployé notre système dans le cadre géographique tout en restant générique à d'autres domaines
Style APA, Harvard, Vancouver, ISO itp.
11

Kaba, Bangaly. "Décomposition de graphes comme outil de regroupement et de visualisation en fouille de données". Clermont-Ferrand 2, 2008. http://www.theses.fr/2008CLF21871.

Pełny tekst źródła
Streszczenie:
La fouille de données est un domaine largement étudié et les méthodes utilisées pour l'aborder ont fait le sujet de nombreux travaux. Ces méthodes reposent en général sur les outils de classification classiques supervisés et non supervisés. Ces méthodes forment des clusters disjoints, attribuant les éléments à un seul groupe. Dans de nombreux cas réels, les éléments à classer peuvent appartenir à plusieurs groupes. Nous abordons cette problématique avec une nouvelle approche basée sur la décomposition des graphes. Cette décomposition est basée sur les séparateurs minimaux complets qui sont des ensembles de sommets formant des cliques dont le retrait déconnecte le graphe en une ou plusieurs composantes et pour lesquels des résultats en théorie des graphes donnent des outils algorithmiques puissants. Cette décomposition fournit des groupes d'éléments recouvrants. Nous dérivons de cette décomposition un outil de visualisation permettant de mettre en évidence la structure du graphe formé par ces données. Nous avons travaillé sur des données issues de 2 domaines (bioinformatique et fouille de données textuelles) afin de valider cette approche de décomposition. 1. Bioinformatique : Les mesures de l'activité génique des cellules vivantes par des biopuces fournissent des données sous forme de matrices symétriques. Nous construisons des graphes de gènes en fixant des seuils sur ces matrices. Nous examinons la stucture de ces graphes afin de mettre en évidence des groupes de gènes qui ont des profils d'expression similaires et dont on peut estimer la probabilité de participation à des fonctions similaires. 2. Fouille de données textuelles : les relations entre données textuelles d'un corpus donné sont modélisées par un graphe de termes. Ces relations sont fondées soit sur la cooccurence, soit sur des variations linguistiques. Nous proposons une méthode de visualisation basée sur la décomposition de graphes en atomes (sous-graphes recouvrants sans séparateurs minimaux complets). Ces atomes sont structurés dans un graphe appelé graphe des atomes. Ce graphe des atomes met en évidence les thématiques donnant une vue globale sur l'ensemble des documents contenus dans un corpus
Style APA, Harvard, Vancouver, ISO itp.
12

Contat, Marc. "Etude de stratégies d'allocation de ressources et de fusion de données dans un système multi-capteurs pour la classification et la reconnaissance de cibles aériennes". Paris 11, 2002. http://www.theses.fr/2002PA112310.

Pełny tekst źródła
Streszczenie:
La nécessité d'obtenir une situation opérationnelle fidèle et de plus en plus précise dans des applications militaires ou civiles a conduit à un développement rapide des systèmes multi-capteurs. La multiplication des moyens de mesure et l'augmentation de leurs performances ont renforcé le besoin d'améliorer les stratégies d'acquisition de l'information. Ainsi une collaboration entre les capteurs d'un même système fournirait la possibilité d'accroître l'efficacité globale par un raffinement des mécanismes de prise de décision dépendant des caractéristiques des capteurs et de l'environnement. Par ailleurs, l'allocation des ressources gère le problème de l'adéquation entre les ressources physiques disponibles à capacité limitée et le volume d'informations à traiter. L'objet de cette thèse est d'étudier les stratégies d'allocation de ressources et de fusion de données pour le suivi et l'identification simultanés de plusieurs cibles. Dans cette optique, la classification et la reconnaissance des objets doivent être effectuées le plus rapidement possible, sans attendre toutes les données que peuvent fournir les capteurs. Un mécanisme est proposé afin d'ordonner le choix des attributs à déterminer en premier et ainsi la sélection du capteur et de son mode. Il effectue la gestion des requêtes adressées aux capteurs en fonction des informations a priori et des données reçues des précédentes mesures. Etabli sous forme modulaire, l'algorithme a été ensuite amélioré pour tenir compte de données contextuelles, dans le choix des modes de capteurs à mettre en oeuvre, en vue de les utiliser de façon optimale. Les résultats ont été validés sur un logiciel développé dans le cadre d'une application de reconnaissance non coopérative de cibles en surveillance aérienne
The need for obtaining a faithful and more and more precise operational situation in military or civil applications led to a fast development of the multisensor systems. The multiplication of the means of measurement and the increase in their performances reinforced the need to improve the strategies of acquisition for information. Thus a collaboration between the sensors of the same system would provide the possibility of increasing the total effectiveness by a refinement of the mechanisms of decision-making depending on the characteristics of the sensors and the environment. In addition, the resource allocation manages the problem of the adequacy between the available physical resources with limited capacity and the volume of information to be treated. The object of this thesis is to study the strategies of resource allocation and data fusion for the simultaneous follow-up and the identification of several targets. Accordingly, the classification and the recognition of the objects must be carried out as soon as possible, without awaiting all the data which the sensors can provide. A mechanism is proposed in order to rank the choice of the attributes to be determined in first and thus the selection of the sensor and its mode. It carries out the management of the requests addressed to the sensors according to a priori information and to the received data of preceding measurements. Firstly in modular form, the algorithm was then improved to take account of contextual information, for the choice of the modes of sensors to be implemented, in order to use them in an optimal way. The results were validated on a software developed within the framework of an application of non cooperative target recognition in air monitoring
Style APA, Harvard, Vancouver, ISO itp.
13

Redi, Miriam. "Nouvelles méthodes pour la recherche sémantique et esthétique d'informations multimédia". Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00866867.

Pełny tekst źródła
Streszczenie:
A l'ère d'Internet, la classification informatisée des images est d'une importance cruciale pour l'utilisation efficace de l'énorme quantité de données visuelles qui sont disponibles. Mais comment les ordinateurs peuvent-ils comprendre la signification d'une image? La Recherche d'Information Multimédia (RIM) est un domaine de recherche qui vise à construire des systèmes capables de reconnaître automatiquement le contenu d'une image. D'abord, des caractéristiques de bas niveau sont extraites et regroupées en signatures visuelles compactes. Ensuite, des techniques d'apprentissage automatique construisent des modèles qui font la distinction entre les différentes catégories d'images à partir de ces signatures. Ces modèles sont finalement utilisés pour reconnaître les propriétés d'une nouvelle image. Malgré les progrès dans le domaine, ces systèmes ont des performances en général limitées. Dans cette thèse, nous concevons un ensemble de contributions originales pour chaque étape de la chaîne RIM, en explorant des techniques provenant d'une variété de domaines qui ne sont pas traditionnellement liés avec le MMIR. Par exemple, nous empruntons la notion de saillance et l'utilisons pour construire des caractéristiques de bas niveau. Nous employons la théorie des Copulae étudiée en statistique économique, pour l'agrégation des caractéristiques. Nous réutilisons la notion de pertinence graduée, populaire dans le classement des pages Web, pour la récupération visuelle. Le manuscrit détaille nos solutions novatrices et montre leur efficacité pour la catégorisation d'image et de vidéo, et l'évaluation de l'esthétique.
Style APA, Harvard, Vancouver, ISO itp.
14

Béraud-Sudreau, Quentin. "Étude, conception optimisée et réalisation d’un prototype ASIC d’une extraction d’horloge haut débit pour une nouvelle génération de liaison à 80 Gbit/sec". Thesis, Bordeaux 1, 2013. http://www.theses.fr/2013BOR14765/document.

Pełny tekst źródła
Streszczenie:
La demande croissante de toujours plus de débit pour les télécommunications entraine une augmentation de la fréquence de fonctionnement des liaisons séries. Cette demande se retrouve aussi dans les systèmes embarqués du fait de l'augmentation des performances des composants et périphériques. Afin de s'assurer que le train de données est bien réceptionné, un circuit de restitution d'horloge et de données est placé avant tout traitement du coté du récepteur. Dans ce contexte, les activités de recherche présentées dans cette thèse se concentrent sur la conception d'une CDR (Clock and Data Recovery). Nous détaillerons le comparateur de phase qui joue un rôle critique dans un tel système. Cette thèse présente un comparateur de phase ayant comme avantage d'avoir une mode de fenêtrage et une fréquence de fonctionnement réduite. La topologie spéciale utilisée pour la CDR est décrite, et la théorie relative aux oscillateurs verrouillés en injection est expliquée. L'essentiel du travail de recherche s'est concentrée sur la conception et le layout d'une restitution d'horloge dans le domaine millimétrique, à 80 Gbps. Pour cela plusieurs prototypes ont été réalisés en technologie BiCMOS 130 nm de STMicrolectronics
The increasing bandwidth demand for telecommunication leads to an important rise of serial link operating frequencies. This demand is also present in embedded systems with the growth of devices and peripherals performances. To ensure the data stream is well recovered, a clock and data recovery (CDR) circuit is placed before any logical blocks on the receiver side. The research activities presented in this thesis are related to the design of such a CDR. The phase detector plays a critical role in the CDR circuit and is specially studied. This thesis presents a phase comparator that provides an enhancement by introducing a windowed mode and reducing its operating frequency. The used CDR has a special topology, which is described, and the injection locked oscillator theory is explained. Most of the research of this study has focused on the design and layout of a 80 Gbps CDR. Several prototypes are realized in 130 nm SiGe process from STMicroelectronics
Style APA, Harvard, Vancouver, ISO itp.
15

Béraud-Sudreau, Quentin. "Étude, conception optimisée et réalisation d'un prototype ASIC d'une extraction d'horloge haut débit pour une nouvelle génération de liaison à 80 Gbit/sec". Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00821890.

Pełny tekst źródła
Streszczenie:
La demande croissante de toujours plus de débit pour les télécommunications entraine une augmentation de la fréquence de fonctionnement des liaisons séries. Cette demande se retrouve aussi dans les systèmes embarqués du fait de l'augmentation des performances des composants et périphériques. Afin de s'assurer que le train de données est bien réceptionné, un circuit de restitution d'horloge et de données est placé avant tout traitement du coté du récepteur. Dans ce contexte, les activités de recherche présentées dans cette thèse se concentrent sur la conception d'une CDR (Clock and Data Recovery). Nous détaillerons le comparateur de phase qui joue un rôle critique dans un tel système. Cette thèse présente un comparateur de phase ayant comme avantage d'avoir une mode de fenêtrage et une fréquence de fonctionnement réduite. La topologie spéciale utilisée pour la CDR est décrite, et la théorie relative aux oscillateurs verrouillés en injection est expliquée. L'essentiel du travail de recherche s'est concentrée sur la conception et le layout d'une restitution d'horloge dans le domaine millimétrique, à 80 Gbps. Pour cela plusieurs prototypes ont été réalisés en technologie BiCMOS 130 nm de STMicrolectronics.
Style APA, Harvard, Vancouver, ISO itp.
16

Flouvat, Frédéric. "Vers des solutions adaptatives et génériques pour l'extraction de motifs intéressants dans les données". Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2006. http://tel.archives-ouvertes.fr/tel-00844480.

Pełny tekst źródła
Streszczenie:
La découverte de motifs fréquents est un des problèmes en fouille de données. Afin de mieux comprendre l'influence des données sur les algorithmes, nous présentons une étude expérimentale des jeux de données communément utilisés par la communauté. Cette étude permet d'aboutir à une nouvelle classification des données en fonction des bordures : stable et en accord avec les performances des algorithmes. Malgré le grand nombre de travaux et un cadre théorique des problèmes d'extraction de motifs intéressants, l'utilisation de ces algorithmes pour résoudre des problèmes "équivalents" est peu répandue et reste délicate. Face à ces limites, nous proposons un algorithme générique de découverte des bordures des motifs intéressants, appelé ABS (Adaptive borders Search), adaptant dynamiquement sa stratégie en fonction des données. De plus, une librairie générique de composants C++ a été proposée pour faciliter le développement de solutions logicielles pour cette famille de problèmes.
Style APA, Harvard, Vancouver, ISO itp.
17

Ngo, Minh Nguyet. "Etude théorique et expérimentale de composants photoniques à semiconducteurs pour le traitement tout optique du signal à 40 Gbit/s et plus". Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00554333.

Pełny tekst źródła
Streszczenie:
Face à l'augmentation constante du trafic lié notamment à Internet, la demande de capacité dans les réseaux cœur ne cesse de croitre : le débit par canal des systèmes WDM a atteint 40 Gbit/s et va bientôt atteindre 100 Gbit/s. A partir de 40 Gbit/s, le traitement tout optique du signal peut offrir une solution intéressante pour réduire la consommation ainsi que le coût des systèmes optiques du futur. L'objectif de cette thèse est de développer des portes optiques non linéaires et d'explorer des méthodes de récupération d'horloge optiques, toutes à base des semiconducteurs, pour la régénération tout optique de signaux à un débit égal ou supérieur à 40 Gbit/. La dynamique ultrarapide du gain des amplificateurs optiques à semiconducteur (SOA) est étudiée afin de l'exploiter pour développer des fonctions simples et compactes permettant la remise en forme du signal. Concernant la fonction de resynchronisation, différentes récupérations d'horloge tout optiques ont été étudiées dans cette thèse. La première partie des travaux a été consacrée entièrement aux portes optiques non linéaires à base des SOA pour des applications à la régénération 2R. L'expérience pompe sonde permettant mesurer le temps de récupération du gain a été réalisée pour étudier la dynamique des SOA. Dans cette thèse, il a été démontré que le SOA massif à fort confinement et le SOA ultra-long à boîtes quantiques sont les plus adaptés pour un fonctionnement à 40 Gbit/s avec des temps de récupération du gain respectivement de 20 ps et 10 ps. Les études expérimentales ainsi que numériques ont mis en évidence la contribution importante des effets intrabandes à la dynamique du gain lorsque des SOA sont saturés par des impulsions courtes (quelques picosecondes). Le SOA massif de fort confinement a été associé avec un absorbant saturable (SA) pour constituer une fonction de régénération 2R complète. L'efficacité du régénérateur SOA SA pour la remis en forme du signal à 40 Gbit/s a été démontrée expérimentalement and numériquement. La deuxième partie des travaux a été dédiée à la récupération d'horloge à base de lasers auto pulsants en vue d'une application à la régénération 3R à 40 Gbit/s. Nous avons proposé une technique originale pour évaluer la performance des fonctions de récupération d'horloge, qui consiste à remoduler l'horloge récupérée. Une nouvelle configuration a été élaborée pour améliorer la qualité de l'horloge récupérée par le laser auto pulsant à base de matériau massif. Elle consiste à introduire un pré filtrage passif devant le laser. La sensibilité à la polarisation des récupérations d'horloge a été également étudiée. La récupération d'horloge utilisant le laser massif suivi par le laser à boîtes quantiques a montré son insensibilité à la polarisation du signal injecté par la mesure du taux d'erreur binaire. Enfin, une étude préliminaire sur la tolérance des récupérations d'horloge à la dispersion modale de polarisation a été menée.
Style APA, Harvard, Vancouver, ISO itp.
18

Madera, Cedrine. "L’évolution des systèmes et architectures d’information sous l’influence des données massives : les lacs de données". Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS071/document.

Pełny tekst źródła
Streszczenie:
La valorisation du patrimoine des données des organisation est mise au cœur de leur transformation digitale. Sous l’influence des données massives le système d’information doit s’adapter et évoluer. Cette évolution passe par une transformation des systèmes décisionnels mais aussi par l’apparition d’un nouveau composant du système d’information : Les lacs de données. Nous étudions cette évolution des systèmes décisionnels, les éléments clés qui l’influence mais aussi les limites qui apparaissent , du point de vue de l’architecture, sous l’influence des données massives. Nous proposons une évolution des systèmes d’information avec un nouveau composant qu’est le lac de données. Nous l’étudions du point de vue de l’architecture et cherchons les facteurs qui peuvent influencer sa conception , comme la gravité des données. Enfin, nous amorçons une piste de conceptualisation des lacs de données en explorant l’approche ligne de produit.Nouvelle versionSous l'influence des données massives nous étudions l'impact que cela entraîne notamment avec l'apparition de nouvelles technologies comme Apache Hadoop ainsi que les limite actuelles des système décisionnel.Les limites rencontrées par les systèmes décisionnels actuels impose une évolution au système d 'information qui doit s'adapter et qui donne naissance à un nouveau composant : le lac de données.Dans un deuxième temps nous étudions en détail ce nouveau composant, formalisons notre définition, donnons notre point de vue sur son positionnement dans le système d information ainsi que vis à vis des systèmes décisionnels.Par ailleurs, nous mettons en évidence un facteur influençant l’architecture des lacs de données : la gravité des données, en dressant une analogie avec la loi de la gravité et en nous concentrant sur les facteurs qui peuvent influencer la relation donnée-traitement.Nous mettons en évidence , au travers d'un cas d'usage , que la prise en compte de la gravité des données peut influencer la conception d'un lac de données.Nous terminons ces travaux par une adaptation de l'approche ligne de produit logiciel pour amorcer une méthode de formalisations et modélisation des lacs de données. Cette méthode nous permet :- d’établir une liste de composants minimum à mettre en place pour faire fonctionner un lac de données sans que ce dernier soit transformé en marécage,- d’évaluer la maturité d'un lac de donnée existant,- de diagnostiquer rapidement les composants manquants d'un lac de données existant qui serait devenu un marécage,- de conceptualiser la création des lacs de données en étant "logiciel agnostique”
Data is on the heart of the digital transformation.The consequence is anacceleration of the information system evolution , which must adapt. The Big data phenomenonplays the role of catalyst of this evolution.Under its influence appears a new component of the information system: the data lake.Far from replacing the decision support systems that make up the information system, data lakes comecomplete information systems’s architecture.First, we focus on the factors that influence the evolution of information systemssuch as new software and middleware, new infrastructure technologies, but also the decision support system usage itself.Under the big data influence we study the impact that this entails especially with the appearance ofnew technologies such as Apache Hadoop as well as the current limits of the decision support system .The limits encountered by the current decision support system force a change to the information system which mustadapt and that gives birth to a new component: the data lake.In a second time we study in detail this new component, formalize our definition, giveour point of view on its positioning in the information system as well as with regard to the decision support system .In addition, we highlight a factor influencing the architecture of data lakes: data gravity, doing an analogy with the law of gravity and focusing on the factors that mayinfluence the data-processing relationship. We highlight, through a use case, that takingaccount of the data gravity can influence the design of a data lake.We complete this work by adapting the software product line approach to boot a methodof formalizations and modeling of data lakes. This method allows us:- to establish a minimum list of components to be put in place to operate a data lake without transforming it into a data swamp,- to evaluate the maturity of an existing data lake,- to quickly diagnose the missing components of an existing data lake that would have become a dataswamp- to conceptualize the creation of data lakes by being "software agnostic “
Style APA, Harvard, Vancouver, ISO itp.
19

Nos, Jérémy. "Modèle conceptuel d'une exploitation d'uranium par récupération in situ; interprétation des données de production et apport de la modélisation du transport réactif en milieu hétérogène". Centre de géosciences (Fontainebleau, Seine et Marne), 2011. http://www.theses.fr/2011ENMP0002.

Pełny tekst źródła
Streszczenie:
La récupération in situ d'uranium consiste à mettre en circulation l'eau de l'aquifère dans lequel se trouve le gisement et à y introduire les réactifs nécessaires à la dissolution des minéraux uranifères. Les solutions enrichies en uranium sont envoyées vers des installations de traitement. Après séparation de l'uranium et reconditionnement, elles sont recyclées vers le gisement. L'objectif de cette thèse est de modéliser ce procédé en vue d'une meilleure planification et d'une optimisation de la production, sur le gisement de Muyunkum, Kazakhstan, actuellement en exploitation. Ce travail s'appuie sur les différentes données disponibles: la pétrographie, la minéralogie, les expériences de laboratoire et plus particulièrement les données de production. La modélisation commence par une représentation à l'équilibre thermodynamique et sans dimension spatiale pour aboutir à une représentation 3D tenant compte de l'importance des cinétiques chimiques, des hétérogénéités spatiales et du recyclage des solutions. Le fer ferrique, qui apparaît naturellement dans les solutions de lixiviation, est identifié comme un facteur clé dans l'oxydation de l'uranium. Ses variations de concentration sont donc particulièrement analysées. Et l'optimisation de l'apport en fer ferrique fait l'objet des principales recommandations opérationnelles. Enfin, les bases d'un outil de planification sont posées : une approche probabiliste est développée pour étudier l'impact potentiel des hétérogénéités sur la production d'uranium
The in situ recovery of uranium involves pumping the water from the aquifer where the deposit is located, adding the reagents that will dissolve uranium minerals and injecting the solution obtained in this way. The solutions enriched in uranium are sent to the treatment plant. Once the uranium is removed, reagents are added again and the solutions are sent back to the deposit. The purpose of this thesis is to model this process to better plan and optimize the production, on the deposit of Muyunkum, Kazakhstan, whose exploitation is underway. This work is based upon the different available data: petrography, mineralogy, laboratory experiments and particularly production data. The modeling starts with a representation at thermodynamic equilibrium and without spatial dimension and it concludes with a 3D representation including the chemical kinetics, the spatial heterogeneities and the recycling of the solutions. Ferric iron, which appears naturally in the leaching solutions, is identified as a key factor for the oxidation of uranium. Its concentration variations are therefore particularly analyzed. And the main operational recommendations deal with optimizing the supply of ferric iron. To conclude, focus is put on the possible development of a planning tool: a probabilistic approach is proposed to study the potential impact of heterogeneities on the uranium production
Style APA, Harvard, Vancouver, ISO itp.
20

Boher, Laurent. "Etude et mise en oeuvre de récepteurs itéractifs pour systèmes MIMO". Rennes, INSA, 2008. http://www.theses.fr/2008ISAR0017.

Pełny tekst źródła
Streszczenie:
Les systèmes MIMO constitués de plusieurs antennes à l'émission et à la réception offrent un gain en capacité grâce à l'exploitation de la diversité spatiale. La plupart des techniques MIMO introduisent cependant de l'interférence co-antenne qui doit être annulée pour profiter au mieux de la diversité. Les techniques itératives basées sur le principe de la turbo-égalisation permettent de traiter cette interférence mais souffrent d'une forte complexité. On étudie ici la faisabilité et la complexité de solutions itératives pour des systèmes MIMO. Tout d'abord, l'étude des solutions itératives existantes nous mène vers un détecteur à base de filtres linéaires qui offre un bon compromis performances/complexité. Ensuite, une architecture de récepteur performante est définie. On étudie notamment la réalisation des calculs matriciels du filtrage MMSE et l'ordonnancement des échanges entre détection et décodage. Enfin, une intégration sur FPGA permet d'évaluer les architectures proposées
MIMO systems, associating multiple antennas at transmission and reception, allow a significant gain in capacity thanks to exploitation of spatial diversity. Though they are promising, most of MIMO techniques insert co-antenna interference that must be cancelled to fully exploit the diversity of the channel. Iterative solutions based on turbo-equalization principle allow the interference to be treated but are relatively complex to implement. The aim of this thesis is to study the feasibility and the complexity of the integration of iterative receivers for MIMO systems. Firstly, an analysis of existing iterative solutions leads us to consider a MIMO detector based on linear filters that offers an interesting performance/complexity trade-off. Then, an efficient receiver architecture has been defined. We especially study the integration of matrix calculations for MMSE filtering and the scheduling of the exchanges between detection and decoding. Finally, an integration on FPGA allows the evaluation of proposed architectures
Style APA, Harvard, Vancouver, ISO itp.
21

Fernandez, Arnaud. "Étude théorique et expérimentale des impulsions optiques générées par un amplificateur optique à semi-conducteurs (SOA) en blocage de modes". Phd thesis, Brest, 2009. http://www.theses.fr/2009BRES2020.

Pełny tekst źródła
Streszczenie:
Cette thèse est basée sur l’étude des propriétés d’un laser fibré à blocage de modes actif opérant à un taux de répétition supérieur à 10 Gb/s. Par laser fibré nous entendons que la fibre optique fait partie intégrante de la cavité optique de notre laser. Elle joue le rôle de milieu de propagation du signal optique reliant chaque composant de la cavité laser. Ce laser comporte aussi un amplificateur optique à semiconducteurs (SOA) comme milieu amplificateur, dont le gain est modulé par un signal optique externe. L’objectif de ces travaux consiste à proposer une méthode élégante, simple et bas coût, de génération tout-optique d’impulsions “propres” dédiées à la télécommunication optique. Par impulsions “propres”, nous entendons une impulsion se rapprochant au mieux d’une forme mathématique reconnue intéressante à la propagation dans une fibre comme la fonction soliton ou la gaussienne limitées par la diffraction. L’hypothèse qu’une forte dispersion négative de la cavité laser, produite par l’insertion d’une fibre à dispersion négative, pouvant largement contribuer à améliorer les propriétés de fonctionnement du laser et des impulsions générées, a constitué la motivation majeure à l’élaboration de ce projet de thèse. Cette étude propose une approche à la fois théorique et expérimentale
This thesis is based on the study of an active mode-locked laser operating at a repetition rate helow 10 Gb/s. The ring cavity of this laser is made with optical fibre acting as a propagating medium for optical pulses. This laser includes a semiconductor optical amplifier (SOA) whose gain is modulated by an external optical signal. The goal of this thesis is to put forward a cheap, simple, and elegant method to generate all-optical “clean” pulses dedicated to optical telecommunication. By “clean” pulses, we mean a pulse which fits a mathematical equation which is known to he interesting for fibre propagation, such as the transform limited soliton or gaussian functions. The assumption that a laser with a strong negative dispersion ring cavity, produced by a dispersion compensating fibre, may widely contribute to increasing the laser and pulse properties prompted the elaboration of this project. In this study we offer a theoretical and experimental approach
Style APA, Harvard, Vancouver, ISO itp.
22

Darishchev, Alexander. "Analyse de connectivité et techniques de partitionnement de données appliquées à la caractérisation et la modélisation d'écoulement au sein des réservoirs très hétérogènes". Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S162.

Pełny tekst źródła
Streszczenie:
Les techniques informatiques ont gagné un rôle primordial dans le développement et l'exploitation des ressources d'hydrocarbures naturelles ainsi que dans d'autres opérations liées à des réservoirs souterrains. L'un des problèmes cruciaux de la modélisation de réservoir et les prévisions de production réside dans la présélection des modèles de réservoir appropriés à la quantification d'incertitude et au le calage robuste des résultats de simulation d'écoulement aux réelles mesures et observations acquises du gisement. La présente thèse s'adresse à ces problématiques et à certains autres sujets connexes.Nous avons élaboré une stratégie pour faciliter et accélérer l'ajustement de tels modèles numériques aux données de production de champ disponibles. En premier lieu, la recherche s'était concentrée sur la conceptualisation et l'implémentation des modèles de proxy reposant sur l'analyse de la connectivité, comme une propriété physique intégrante et significative du réservoir, et des techniques avancées du partitionnement de données et de l'analyse de clusters. La méthodologie développée comprend aussi plusieurs approches originales de type probabiliste orientées vers les problèmes d'échantillonnage d'incertitude et de détermination du nombre de réalisations et de l'espérance de la valeur d'information d'échantillon. Afin de cibler et donner la priorité aux modèles pertinents, nous avons agrégé les réalisations géostatistiques en formant des classes distinctes avec une mesure de distance généralisée. Ensuite, afin d'améliorer la classification, nous avons élargi la technique graphique de silhouettes, désormais appelée la "séquence entière des silhouettes multiples" dans le partitionnement de données et l'analyse de clusters. Cette approche a permis de recueillir une information claire et compréhensive à propos des dissimilarités intra- et intre-cluster, particulièrement utile dans le cas des structures faibles, voire artificielles. Finalement, la séparation spatiale et la différence de forme ont été visualisées graphiquement et quantifiées grâce à la mesure de distance probabiliste.Il apparaît que les relations obtenues justifient et valident l'applicabilité des approches proposées pour améliorer la caractérisation et la modélisation d'écoulement. Des corrélations fiables ont été obtenues entre les chemins de connectivité les plus courts "injecteur-producteur" et les temps de percée d'eau pour des configurations différentes de placement de puits, niveaux d'hétérogénéité et rapports de mobilité de fluides variés. Les modèles de connectivité proposés ont produit des résultats suffisamment précis et une performance compétitive au méta-niveau. Leur usage comme des précurseurs et prédicateurs ad hoc est bénéfique en étape du traitement préalable de la méthodologie. Avant le calage d'historique, un nombre approprié et gérable des modèles pertinents peut être identifié grâce à la comparaison des données de production disponibles avec les résultats de
Computer-based workflows have gained a paramount role in development and exploitation of natural hydrocarbon resources and other subsurface operations. One of the crucial problems of reservoir modelling and production forecasting is in pre-selecting appropriate models for quantifying uncertainty and robustly matching results of flow simulation to real field measurements and observations. This thesis addresses these and other related issues. We have explored a strategy to facilitate and speed up the adjustment of such numerical models to available field production data. Originally, the focus of this research was on conceptualising, developing and implementing fast proxy models related to the analysis of connectivity, as a physically meaningful property of the reservoir, with advanced cluster analysis techniques. The developed methodology includes also several original probability-oriented approaches towards the problems of sampling uncertainty and determining the sample size and the expected value of sample information. For targeting and prioritising relevant reservoir models, we aggregated geostatistical realisations into distinct classes with a generalised distance measure. Then, to improve the classification, we extended the silhouette-based graphical technique, called hereafter the "entire sequence of multiple silhouettes" in cluster analysis. This approach provided clear and comprehensive information about the intra- and inter-cluster dissimilarities, especially helpful in the case of weak, or even artificial, structures. Finally, the spatial separation and form-difference of clusters were graphically visualised and quantified with a scale-invariant probabilistic distance measure. The obtained relationships appeared to justify and validate the applicability of the proposed approaches to enhance the characterisation and modelling of flow. Reliable correlations were found between the shortest "injector-producer" pathways and water breakthrough times for different configurations of well placement, various heterogeneity levels and mobility ratios of fluids. The proposed graph-based connectivity proxies provided sufficiently accurate results and competitive performance at the meta-level. The use of them like precursors and ad hoc predictors is beneficial at the pre-processing stage of the workflow. Prior to history matching, a suitable and manageable number of appropriate reservoir models can be identified from the comparison of the available production data with the selected centrotype-models regarded as the class representatives, only for which the full fluid flow simulation is pre-requisite. The findings of this research work can easily be generalised and considered in a wider scope. Possible extensions, further improvements and implementation of them may also be expected in other fields of science and technology
Style APA, Harvard, Vancouver, ISO itp.
23

Vallet, Laurent. "Contribution au renforcement de la protection de la vie privée. : Application à l' édition collaborative et anonyme des documents". Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4043/document.

Pełny tekst źródła
Streszczenie:
Ce travail de thèse a pour objectif de renforcer la protection de la vie privée dans l'édition collaborative de documents dématérialisés. Une première partie de notre travail a consisté en l'élaboration d'un modèle sécurisé d'éditeur collaboratif de documents. La confidentialité des documents est assurée grâce à un contrôle d'accès décentralisé. Une seconde partie a été de protéger l'identité des utilisateurs communicants en assurant leur anonymat lors de l'édition des documents. Notre concept d'éditeur collaboratif est fondé sur l'utilisation d'ensembles de modifications apportées à un document, que nous nommons deltas, lesquels définissent des versions du document. Les deltas permettent de conserver l'historique des modifications successives. Lorsqu'une nouvelle version d'un document apparait, seul le nouveau delta qui en découle doit être transmis et stocké : les documents sont ainsi distribués à travers un ensemble de sites de stockage. Cela permet, d'une part, d'alléger la charge du gestionnaire des versions des documents, et d'autre part, d'améliorer la sécurité générale. La récupération décentralisée d'une nouvelle version nécessite seulement celle des deltas manquants par rapport à une version précédente; elle est donc moins coûteuse que la récupération du document en entier. L'information du lien entre les deltas est enregistrée directement avec les deltas et non dans une table ou dans un objet de métadonnées ce qui améliore leur sécurité. La gestion des versions est faite afin de maintenir une cohérence entre les versions
This thesis aims to strengthen the protection of privacy of authors in collaborative editing of electronic documents. The first part of our work consisted in the design a secured model for a collaborative document editor. Documents' confidentiality is ensured through a decentralized access control mechanism. A second part of the work was to protect the identity of communicating users by ensuring their anonymity during collaborative document editing. Our concept of collaborative editor is based on the use of sets of modifications for a document, which we call textit{deltas}. Thus, deltas define versions of the document and they can keep the history of subsequent modifications. When a new version of a document appears, only the new delta that results must be transmitted and stored : documents are thus distributed across a set of storage sites (servers). We show how this allows, first, to reduce the load of document version control system, and secondly, to improve overall security of the collaborative system. Decentralized recovery of a new version requires only recovery of appropriate deltas against a previous version and is therefore more efficient than recovering the entire document. The information of the link between deltas is stored directly with deltas and not in a table or a metadata object, that improves their security. The version control system maintains consistency between versions. Once a user has retrieved versions, she holds them in local, and the history can be accessed at any time without being necessary to connect to the central server. Deltas can be identified, indexed and maintained their integrity through the use of hash functions
Style APA, Harvard, Vancouver, ISO itp.
24

Axelrad, David. "Application des technologies CMOS sur SOI aux fonctions d'interface des liens de communication haut débit (> 10 Gbit/s)". Phd thesis, 2005. http://tel.archives-ouvertes.fr/tel-00010675.

Pełny tekst źródła
Streszczenie:
L'objectif de ce travail est d'étudier les avantages de la technologie CMOS/SOI 0.13µm partiellement désertée, pour la conception des circuits d'interface des liens haut débit (10 et 40Gbit/s). Nous avons identifié une fonction critique: la récupération de l'horloge et des données (CDR). L'étude de cette fonction nous a conduit à une analyse approfondie de l'oscillateur commandé en tension (VCO). Neuf circuits VCO et oscillateurs 10GHz ont ainsi été conçus pour valider les choix technologiques offerts par le CMOS/SOI. Les performances mesurées démontrent l'intérêt du CMOS/SOI pour les applications à hautes fréquences. Pour les applications à 40Gbit/s, nous avons ensuite conçu, réalisé et testé un VCO multi-phases 4x10GHz. Les résultats expérimentaux montrent une amélioration significative de la figure de mérite lorsque l'on compare ce circuit en CMOS/SOI avec les résultats précédemment publiés.
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii