To see the other types of publications on this topic, follow the link: Accès au haut débit.

Dissertations / Theses on the topic 'Accès au haut débit'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Accès au haut débit.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Adjih, Cédric. "Multimédia et accès à l'Internet haut débit : l'analyse de la filière du câble." Versailles-St Quentin en Yvelines, 2001. http://www.theses.fr/2001VERS0017.

Full text
Abstract:
"La thèse a abordé trois thèmes : - L'accès multiple sur les réseaux câblés. -Un algorithme de contrôle d'admission adaptatif. -Une compression/décompression vidéo par ondelettes adaptative. Les différents thèmes et leur articulation sont les suivants : Accès multiple : Une condition nécessaire pour le haut débit est une transmission efficace des paquets de données IP. A cause du grand délai de propagation, la couche d'accès multiple (MAC) des réseaux câblés constitue un défi important : cette thèse a expérimenté différents variantes d'algorithmes d'accès multiple. Qualité de service : Une fois le problème de transmission résolu, la transmission de flux multimédia pose le problème de "qualité de service" en période de congestion. . . "
APA, Harvard, Vancouver, ISO, and other styles
2

Hadam, Pawel. "Transports nouvelle génération dans les réseaux à très haut débit." Phd thesis, Grenoble INPG, 2005. http://tel.archives-ouvertes.fr/tel-00010643.

Full text
Abstract:
Cette thèse a été motivée par le développement des réseaux à très haut débit (au-delà de 1 Gb/s). Nous avons étudié comment ce type de réseaux peut changer les concepts et les protocoles utilisés actuellement. Nous avons considéré deux problèmes : le premier est le multihoming : la possibilité pour un hôte de bénéficier de plusieurs connexions simultanées aux fournisseurs d'accès, et le deuxième la distribution de contenu. Nous avons étudié le nouveau protocole de niveau transport SCTP et proposé des extensions qui permettent d'augmenter les performances et la fiabilité de communication grâce au multi-accès. Le protocole SCTP et les extensions proposées ont été testés et validés sur le réseau à très haut débit VTHD++. Pour le deuxième problème, nous avons conçu et prototypé un protocole de diffusion de contenu basé sur la notion d'inondation. Grâce au routage par contenu proposé pour le protocole, le contenu peut être livré aux consommateurs sans connaître leur localisation.
APA, Harvard, Vancouver, ISO, and other styles
3

Khawam, Kinda. "L'ordonnancement opportuniste dans les réseaux mobiles de nouvelle génération." Paris, ENST, 2006. http://www.theses.fr/2006ENST0030.

Full text
Abstract:
L'Internet a connu un essor remarquable ces dernières années. Cet essor n'a pas été restreint aux réseaux fixes mais a gagné récemment les réseaux mobiles. Les réseaux sans fil, initialement conçus pour véhiculer exclusivement des services voix, s'adaptent progressivement à ces changements pour transporter des services data. Avec un besoin grandissant pour accéder à ces nouveaux services, proposer des méthodes performantes pour gérer la ressource radio et fournir des garanties de performances aux services data mobiles est désormais d'une importance capitale. L'ordonnancement est l'un des mécanisme clé visant à augmenter l'efficacité du spectre mobile tout en faisant face aux caractéristiques uniques du canal mobile et à une demande croissante pour un accès haut débit à l'Internet mobile. Notre travail s'est concentré sur les politiques d'ordonnancement dites opportunistes qui, utilisant l'information relative à l'état du canal, donnent une sorte de priorité aux utilisateurs ayant un bon état de canal dans le but d'optimiser l'allocation des ressources. Diverses politiques d'ordonnancement opportunistes sont proposées dans le cadre de cette thèse pour les services data des réseaux mobiles de nouvelle génération. Elles sont conçues pour mettre à profit les variations du canal dans le but d'augmenter la capacité globale du système tout en satisfaisant différents critères en terme de qualité de service
The scarce resources in wireless systems compounded by their highly variable and error prone propagation characteristics stress the need for efficient resource management. Scheduling is a key tool to allocate efficiently the radio frequency spectrum. While fading effects have long been combated in wireless networks, primarily devoted to voice calls, they are now seen as an opportunity to increase the capacity of novel wireless networks that incorporate data traffic. For data applications, there is a service flexibility afforded by the delay tolerance of elastic traffic and by their ability to adapt their rate to the variable channel quality. Channel-aware scheduling exploit these characteristics by making use of channel state information to ensure that transmission occurs when radio conditions are most favourable. When users have heterogeneous characteristics and quality of service requirements, channel-aware scheduling becomes a challenging task. In this thesis, channel-aware transmission schemes for supporting downlink non-real time services are proposed and analyzed for novel cellular systems. The proposed schemes are designed for providing various QoS requirements for users while increasing the system global throughput
APA, Harvard, Vancouver, ISO, and other styles
4

Youssef, Mazen. "Modélisation, simulation et optimisation des architectures de récepteur pour les techniques d’accès W-CDMA." Thesis, Metz, 2009. http://www.theses.fr/2009METZ007S/document.

Full text
Abstract:
Ce mémoire porte sur la conception de l'interface numérique s'occupant, lors de la réception au sein d'un système de transmission de données, des problèmes d'accès au canal dans les protocoles large bande de type W-CDMA (Wideband Code Division Multiple Access / Multiplexage à large bande par code). Le cœur de la problématique se situe dans la partie numérique en bande de base, le récepteur RAKE. Ce récepteur est responsable de la démodulation du signal et de l'exploitation de la diversité du signal en identifiant et combinant les composantes de trajets multiples d'un même signal. En effet, cette dernière fonction est particulièrement importante d’une part de son rôle pour contrer les effets d'évanouissement causés par les trajets multiples, et d’autre part du rôle central du récepteur RAKE. La conception et l'implantation de celui-ci revêtent un caractère primordial. Dans ce mémoire, nous proposons une nouvelle architecture pour le récepteur RAKE : CodeRAKE. Les caractéristiques architecturales principales recherchées sont une grande flexibilité et une extensibilité aisée, tout en préservant la fonctionnalité et un bon équilibre entre ressources utilisées (et donc surface consommée) et performances (vitesse de fonctionnement). Pour satisfaire les contraintes de flexibilité et d'extensibilité, l'architecture CodeRAKE est partitionnée (pour être modulaire) en fonction du nombre d'utilisateurs et du nombre de codes par utilisateur, sans perdre de vue les contraintes de limitions de ressources utilisées et de préservation des performances. La modularité élevée de CodeRAKE permet l'application aisée de techniques de parallélisation permettant d'augmenter facilement les performances pour satisfaire notamment les besoins du côté de la station de base. L'approche architecturale mise en œuvre est souple et peut être facilement adaptée à d'autres protocoles existants ou futurs. Elle répond ainsi au défi des années à venir, où les récepteurs devront être capables de supporter de multiples protocoles et interfaces d'accès, notamment sous le contrôle de couches logicielles
This thesis focuses on the design of the air interface of W-CDMA (Wideband Code Division Multiple Access) systems, particularly on the aspects related to the channel access problems at the reception side. The main concern herein is the design of the baseband digital parts, that is, the RAKE receiver. This receiver is in charge of the signal demodulation and responsible for making profit of signal diversity. This late functionality is particularly important as it allows to counter signal fading by detecting and combining multipath components (leading to signal reinforcement) Given the central role of the RAKE receiver, its design and implementation are of paramount importance. In this thesis, we propose a new architecture for the RAKE receiver: CodeRAKE. The main architectural characteristics being aimed are high flexibility and scalability, yet preserving a good trade-off between resource use (and hence, area consumption) and performance (operation speed). In order to satisfy the flexibility and scalability constraints, the CodeRAKE architecture is modular and partitioned according to the number of users and the number of codes per user, with the resource limitation and performance preservation constraints in mind. The high levels of modularity of the CodeRAKE architecture allow an easy use of parallelisation techniques, which in turn allow an easy increase of performances, particularly at the base station side.The architectural approach proposed herein are versatile and can be easily adapted to other existing or future protocols. It responds to the challenge of the coming years, where the receiver will have to support multiple protocols and access interfaces, including control software layers
APA, Harvard, Vancouver, ISO, and other styles
5

Barros, Francisco Ricardo Magalhães. "The role of public policies in the development of broadband infrastructures : The Case of Brazil." Electronic Thesis or Diss., Institut polytechnique de Paris, 2025. http://www.theses.fr/2025IPPAT013.

Full text
Abstract:
La libéralisation des monopoles d'État dans le secteur des communications électroniques vise à promouvoir un environnement compétitif pour attirer de nouveaux acteurs et investissements grâce à une réglementation sectorielle. Au Brésil, cette approche a été adoptée pour étendre les infrastructures de communication et assurer un accès local universel, avec des résultats partiellement atteints dans les grandes villes. Cependant, la croissance des réseaux de fibre optique a ralenti entre 2010 et 2012, nécessitant des interventions réglementaires et des incitations gouvernementales. Le cas brésilien met en lumière le rôle croissant du régulateur et du gouvernement dans l'expansion des réseaux, freinée par une lente évolution réglementaire, des coûts élevés et un manque d'attractivité économique pour les petites et moyennes municipalités. Un modèle compétitif plus récent, soutenu par la dérégulation et des incitations, a permis à de petits opérateurs de combler en partie les lacunes dans les infrastructures locales, bien que ces efforts n'aient pas complètement répondu aux objectifs de réduction des inégalités régionales. Cette thèse explore la relation entre l'expansion des infrastructures de communication, notamment le haut débit, et les variables économiques clés, avec un accent sur l'inégalité sociale et l'exclusion numérique
The liberalization of state monopolies in the electronic communications sector aims to foster a competitive environment that attracts new players and investments through sector-specific regulation. In Brazil, this approach was adopted to expand communications infrastructure and ensure universal local access, with partial success, especially in large cities. However, growth in fiber-optic networks stalled between 2010 and 2012, prompting regulatory interventions and government incentives. The Brazilian case highlights the expanding role of regulators and the government in network expansion, challenged by slow regulatory evolution, high costs, and low investment appeal in small and medium municipalities. Recently, a new competitive model, supported by deregulation and incentives, enabled small local operators to partially address infrastructure gaps, though these efforts have not fully met public policy goals to reduce regional inequalities. This thesis investigates the relationship between the expansion of communications infrastructure, particularly broadband, and key economic variables, with a focus on social inequality and digital exclusion
APA, Harvard, Vancouver, ISO, and other styles
6

Youssef, Mazen. "Modélisation, simulation et optimisation des architectures de récepteur pour les techniques d’accès W-CDMA." Electronic Thesis or Diss., Metz, 2009. http://www.theses.fr/2009METZ007S.

Full text
Abstract:
Ce mémoire porte sur la conception de l'interface numérique s'occupant, lors de la réception au sein d'un système de transmission de données, des problèmes d'accès au canal dans les protocoles large bande de type W-CDMA (Wideband Code Division Multiple Access / Multiplexage à large bande par code). Le cœur de la problématique se situe dans la partie numérique en bande de base, le récepteur RAKE. Ce récepteur est responsable de la démodulation du signal et de l'exploitation de la diversité du signal en identifiant et combinant les composantes de trajets multiples d'un même signal. En effet, cette dernière fonction est particulièrement importante d’une part de son rôle pour contrer les effets d'évanouissement causés par les trajets multiples, et d’autre part du rôle central du récepteur RAKE. La conception et l'implantation de celui-ci revêtent un caractère primordial. Dans ce mémoire, nous proposons une nouvelle architecture pour le récepteur RAKE : CodeRAKE. Les caractéristiques architecturales principales recherchées sont une grande flexibilité et une extensibilité aisée, tout en préservant la fonctionnalité et un bon équilibre entre ressources utilisées (et donc surface consommée) et performances (vitesse de fonctionnement). Pour satisfaire les contraintes de flexibilité et d'extensibilité, l'architecture CodeRAKE est partitionnée (pour être modulaire) en fonction du nombre d'utilisateurs et du nombre de codes par utilisateur, sans perdre de vue les contraintes de limitions de ressources utilisées et de préservation des performances. La modularité élevée de CodeRAKE permet l'application aisée de techniques de parallélisation permettant d'augmenter facilement les performances pour satisfaire notamment les besoins du côté de la station de base. L'approche architecturale mise en œuvre est souple et peut être facilement adaptée à d'autres protocoles existants ou futurs. Elle répond ainsi au défi des années à venir, où les récepteurs devront être capables de supporter de multiples protocoles et interfaces d'accès, notamment sous le contrôle de couches logicielles
This thesis focuses on the design of the air interface of W-CDMA (Wideband Code Division Multiple Access) systems, particularly on the aspects related to the channel access problems at the reception side. The main concern herein is the design of the baseband digital parts, that is, the RAKE receiver. This receiver is in charge of the signal demodulation and responsible for making profit of signal diversity. This late functionality is particularly important as it allows to counter signal fading by detecting and combining multipath components (leading to signal reinforcement) Given the central role of the RAKE receiver, its design and implementation are of paramount importance. In this thesis, we propose a new architecture for the RAKE receiver: CodeRAKE. The main architectural characteristics being aimed are high flexibility and scalability, yet preserving a good trade-off between resource use (and hence, area consumption) and performance (operation speed). In order to satisfy the flexibility and scalability constraints, the CodeRAKE architecture is modular and partitioned according to the number of users and the number of codes per user, with the resource limitation and performance preservation constraints in mind. The high levels of modularity of the CodeRAKE architecture allow an easy use of parallelisation techniques, which in turn allow an easy increase of performances, particularly at the base station side.The architectural approach proposed herein are versatile and can be easily adapted to other existing or future protocols. It responds to the challenge of the coming years, where the receiver will have to support multiple protocols and access interfaces, including control software layers
APA, Harvard, Vancouver, ISO, and other styles
7

Moise, Diana Maria. "Optimisation de la gestion des données pour les applications MapReduce sur des infrastructures distribuées à grande échelle." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2011. http://tel.archives-ouvertes.fr/tel-00696062.

Full text
Abstract:
Les applications data-intensive sont largement utilisées au sein de domaines diverses dans le but d'extraire et de traiter des informations, de concevoir des systèmes complexes, d'effectuer des simulations de modèles réels, etc. Ces applications posent des défis complexes tant en termes de stockage que de calcul. Dans le contexte des applications data-intensive, nous nous concentrons sur le paradigme MapReduce et ses mises en oeuvre. Introduite par Google, l'abstraction MapReduce a révolutionné la communauté intensif de données et s'est rapidement étendue à diverses domaines de recherche et de production. Une implémentation domaine publique de l'abstraction mise en avant par Google, a été fournie par Yahoo à travers du project Hadoop. Le framework Hadoop est considéré l'implémentation de référence de MapReduce et est actuellement largement utilisé à des fins diverses et sur plusieurs infrastructures. Nous proposons un système de fichiers distribué, optimisé pour des accès hautement concurrents, qui puisse servir comme couche de stockage pour des applications MapReduce. Nous avons conçu le BlobSeer File System (BSFS), basé sur BlobSeer, un service de stockage distribué, hautement efficace, facilitant le partage de données à grande échelle. Nous étudions également plusieurs aspects liés à la gestion des données intermédiaires dans des environnements MapReduce. Nous explorons les contraintes des données intermédiaires MapReduce à deux niveaux: dans le même job MapReduce et pendant l'exécution des pipelines d'applications MapReduce. Enfin, nous proposons des extensions de Hadoop, un environnement MapReduce populaire et open-source, comme par example le support de l'opération append. Ce travail inclut également l'évaluation et les résultats obtenus sur des infrastructures à grande échelle: grilles informatiques et clouds.
APA, Harvard, Vancouver, ISO, and other styles
8

Moise, Diana. "Optimisation de la gestion des données pour les applications MapReduce sur des infrastructures distribuées à grande échelle." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2011. http://tel.archives-ouvertes.fr/tel-00653622.

Full text
Abstract:
Les applications data-intensive sont largement utilisées au sein de domaines diverses dans le but d'extraire et de traiter des informations, de concevoir des systèmes complexes, d'effectuer des simulations de modèles réels, etc. Ces applications posent des défis complexes tant en termes de stockage que de calcul. Dans le contexte des applications data-intensive, nous nous concentrons sur le paradigme MapReduce et ses mises en oeuvre. Introduite par Google, l'abstraction MapReduce a révolutionné la communauté data-intensive et s'est rapidement étendue à diverses domaines de recherche et de production. Une implémentation domaine publique de l'abstraction mise en avant par Google a été fournie par Yahoo à travers du project Hadoop. Le framework Hadoop est considéré l'implémentation de référence de MapReduce et est actuellement largement utilisé à des fins diverses et sur plusieurs infrastructures. Nous proposons un système de fichiers distribué, optimisé pour des accès hautement concurrents, qui puisse servir comme couche de stockage pour des applications MapReduce. Nous avons conçu le BlobSeer File System (BSFS), basé sur BlobSeer, un service de stockage distribué, hautement efficace, facilitant le partage de données à grande échelle. Nous étudions également plusieurs aspects liés à la gestion des données intermédiaires dans des environnements MapReduce. Nous explorons les contraintes des données intermédiaires MapReduce à deux niveaux: dans le même job MapReduce et pendant l'exécution des pipelines d'applications MapReduce. Enfin, nous proposons des extensions de Hadoop, un environnement MapReduce populaire et open-source, comme par example le support de l'opération append. Ce travail inclut également l'évaluation et les résultats obtenus sur des infrastructures à grande échelle: grilles informatiques et clouds.
APA, Harvard, Vancouver, ISO, and other styles
9

François, Nicolas. "Analyse d'interactions moléculaires à haut débit." Paris 5, 2010. http://www.theses.fr/2010PA05S003.

Full text
Abstract:
Cette thèse s'attaque aux verrous posés par les technologies émergentes d'analyse d'interactions moléculaires à haut débit, permettant des mesures en continu d'interactions parallèles. Deux techniques s'avèrent prometteuses : celle par marquage des cibles en fluorescence, éprouvée en biologie ; et celle en résonance des plasmons de surface (SPR), ne nécessitant pas d'étiquetage moléculaire. Cette thèse propose une approche automatique originale pour l'analyse des images d'interactions, aussi bien en fluorescence qu'en SPR. Développée à partir d'un modèle mathématique fondé sur les caractéristiques communes aux études expérimentales menées, elle combine opérateurs géodésiques 2D et 3D, contraintes de classification et comportement physique. Couplée au protocole expérimental spécifique à chacune des méthodes à haut débit, impliquant calibrages et filtrage spatiotemporel du bruit, elle fournit une méthode complète d'analyse. Evaluée qualitativement et quantitativement sur un ensemble de données synthétiques et expérimentales, elle confirme nos attentes concernant la sensibilité de détection des systèmes à haut débit, même à faible concentration de cibles. Les caractéristiques des interactions étudiées sont en accord à celles obtenues par des méthodes de référence, ou à des valeurs théoriques. Les résultats valident de fait l'utilisation des techniques à haut débit pour l'analyse d'interactions moléculaires, ainsi que la méthodologie développée pour l'exploitation de ces données. Cette étude ouvre des perspectives nouvelles sur l'utilisation de ces technologies aussi bien dans le cadre de la recherche, que dans un contexte clinique d'aide au diagnostic ou de thérapie génique
This thesis tackles the locks held by emerging technologies for analyzing high throughput molecular interactions, allowing to acquire continuous measurements upon parallel interactions. Two technologies are promising: the target marking by fluorescence, which is a proven technique in biology; and the surface plasmon resonance (SPR), requiring no labeling of molecules. This thesis suggests an original automatic approach for image analysis of high throughput interactions, applicable to both fluorescence and SPR methods. From a mathematical model based upon common characteristics describing experimental studies, it combines 2D and 3D geodesic operators, classification and constraints of physical behavior. Coupled with the experimental protocol specific to each of the high throughput methods, involving calibrations and spatiotemporal filtering of noise, it ultimately provides a complete technology for the analysis of high throughput data. Assessed qualitatively and quantitatively on a data set, both synthetic and experimental, it confirms our expectations regarding the sensitivity of detection systems with high throughput, even at low concentrations of target. The characteristics of the interactions studied thus estimated were compared with those obtained by reference methods, or theoretical values. The results are in agreement, validating that the use of high throughput techniques for analyzing molecular interactions and the methodology developed for the exploitation of such data. This study thus opens new perspectives on the use of these technologies as well as part of research in biology, in a clinical setting to aid diagnosis or gene therapy
APA, Harvard, Vancouver, ISO, and other styles
10

Faudeil, Stéphane. "Les turbo-codes à haut débit." Brest, 1994. http://www.theses.fr/1994BRES2019.

Full text
Abstract:
Les turbo-codes constituent une nouvelle classe de codes correcteurs d'erreurs elaboree a partir d'une concatenation parallele de 2 codes convolutifs systematiques recursifs a faible nombre d'etats separes par un entrelaceur. Leur decodage, realise sous forme iterative, conduit a des performances superieures a celles de tout autre code correcteur. Le processus iteratif se traduit en pratique par une structure modulaire de decodage. Le module etant d'une complexite limitee, les problemes de dissipation aux hautes frequences sont evacues. Les turbo-codes semblent donc etre bien adaptes aux applications a haut debit (> 150 moits/s). Le travail de these a porte sur l'etude d'architectures paralleles permettant d'atteindre ces debits eleves. Le temps d'acces des memoires ram utilisees dans les entrelaceurs limite la frequence de fonctionnement du turbo-codeur/decodeur. Un entrelacement parallele, de performances identiques a celles de l'entrelaceur classique, a ete imagine, pour en diminuer artificiellement les temps critiques. Une seconde contrainte temporelle apparait dans les deux decodeurs de viterbi a decisions ponderees presents dans le module. Trois solutions sont proposees: l'utilisation de l'arithmetique carry save dans les processeurs acs (add compare select), le traitement de deux etapes de treillis en une seule recursion des processeurs acs, le decodage de facon concurrente de 2 ou 3 sequences independantes et alternees. Une comparaison de performances (complexite, vitesse et dissipation) permet de degager la seconde solution comme etant la plus appropriee. Pour un debit de transmission de 150 moits/s, sur la base d'une technologie cmos 0. 6 , la puissance dissipee par le module est de 2. 2 w, et la surface occupee (cur du circuit) est de 30 mm#2
APA, Harvard, Vancouver, ISO, and other styles
11

Perrine, Clency. "Modem vectoriel HF à haut débit." Rennes 1, 2005. http://www.theses.fr/2005REN1S159.

Full text
Abstract:
Le canal ionosphérique autorise (3-30 MHz) des transmissions longues distances de plusieurs milliers de kilomètres sans avoir recours aux satellites. L'ionosphère est un milieu anisotrope et inhomogène qui induit des distorsions sur le signal reçu et limite par conséquent les performances d'un système de communication. C'est pourquoi le standard actuel des modems HF ne dépasse pas 4,8 kbits/s. Pour augmenter de façon significative le débit, un traitement multivoies est utilisé mettant en œuvre un réseau d'antennes hétérogènes. L'application visée est la transmission d'images fixes basée sur la technique de compression/décompression WTSOM (Wavelet Transform / Self-Organized feature Maps). Deux méthodes d'égalisation ont été mises en oeuvre : la première repose sur l'algorithme LMS (Least Mean Square) et la seconde sur l'algorithme CMA (Constant Modulus Algorithm). Deux liaisons expérimentales ont permis d'atteindre des débits de 40 kbits/s (traitement différé) et 20 kbits/s (temps réel).
APA, Harvard, Vancouver, ISO, and other styles
12

Belmiloud, Naser. "Microrhéomètre sur silicium pour chimie haut débit." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2008. http://tel.archives-ouvertes.fr/tel-00399501.

Full text
Abstract:
Cette thèse concerne la construction d'un micro-rhéomètre. Il assure la mesure des propriétés viscoélastiques linéaires des fluides complexes sur une large gamme de fréquence (de 1 Hz à 100 kHz). Afin de répondre à la problématique de mesure des propriétés rhéologiques de petites quantités de fluide pour des gammes de fréquence étendues, la dynamique en milieu liquide des microstructures résonantes en silicium a été analysée. A cette échelle micrométrique, les vibrations de micropoutres dépendent non seulement des propriétés de la microstructure (géométrie, matériaux) mais aussi des propriétés du fluide environnant (densité, viscoélasticité). En effet, de façon schématique, la présence du fluide se traduit par deux phénomènes : un phénomène d'inertie (‘effet de masse') et un phénomène dissipatif (‘effet de pertes visqueuses').
Ainsi l'analyse de la réponse fréquentielle des microstructures mobiles permet de remonter aux
propriétés des fluides en fonction de la fréquence.
APA, Harvard, Vancouver, ISO, and other styles
13

Gonzales, Chavez Julio. "Etude des jonctions optiques à haut débit." Limoges, 1989. http://www.theses.fr/1989LIMO4003.

Full text
Abstract:
Le présent travail est une contribution à l'étude des interfaces optiques plésiochrones et synchrones à haut débit (>150 Mbit/s). Les applications concernent soit la hiérarche plésiochrone CEPT (éventuel 5ème niveau à 565 Mbit/s) et les interfaces de la nouvelle hiérarchie synchrone de transmission, normalisée par le CCITT en novembre 1988 (Recommandations G707, G708 et G709). En effet, les paramètres en ce qui concerne les caractéristiques physiques des interfaces STM-1, STM-4 et STM-16 (STM : Synchronous Transport Module) de cette hiérarchie restent à définier. Les débits correspondants sont 155,52 Mbit/s, 622,08 Mbit/s et 2,48 Gbit/s. Une jonction optique entre équipements à 565 Mbit/s a été réalisée et évaluée. Cette maquette utilise des composants logiques en arséniure de gallium et silicium haut de gamme. Les composants optiques utilisés sont des lasers BH multimodes à 1,3 µm et des photodiodes PIN et APD. La transmission est réalisée sur fibre monomode en utilisant un code CMI. Des résultats théoriques et expérimentaux sur la pénalité de puissance apportée par les divers facteurs qui dégradent la qualité du système de transmission sont présentés. De même, des études sur la forme de l'impulsion des interfaces optiques de la hiérarchie synchrone (STM-1, STM-4 et STM-16) ont été réalisées, et des gabarits du diagramme de l'oeil correspondants sont proposés.
APA, Harvard, Vancouver, ISO, and other styles
14

Muthlethaler, Paul. "Protocole d'accès pour réseaux à haut-débit." Paris 9, 1989. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1989PA090028.

Full text
Abstract:
Le partage d'un canal unique n'est pas un nouveau problème. Des solutions pratiques ont été trouvées dans les deux cas suivants : 1) hypothèses restrictives sur la nature du trafic ou 2) sur un canal de débit faible ou moyen et qui s'étend sur une distance de quelques kilomètres. Le problème général qui consiste à accéder à un canal haut-débit qui peut s'étendre sur une vaste zone et avec un trafic quelconque est un problème bien plus compliqué. Ce problème est le sujet de cette thèse. D'abord une classe de topologies variées incluant : étoile, arbre, bus unidirectionnel est introduite pour accueillir des protocoles à compétition synchrones. Ces protocoles résolvent les collisions avec des algorithmes en arbre. Ces solutions sont simples et flexibles. Elles permettent une bonne efficacité dans l'emploi de la bande passante. Différents algorithmes sont présentés. Le plus simple permet d'utiliser jusqu'à 36% du canal alors que le plus sophistiqué permet d'aller jusqu'à 100%. Sur des média à propagation unidirectionnelle, des protocoles procurant un service de type round-robin ont déjà été proposés. Après une étude de leur comportement, une classe de protocoles synchrones qui utilise un mécanisme de réservation et permet d'obtenir de meilleures performances que la technique round-robin est décrite. Les performances de tous les nouveaux protocoles introduits sont étudiées à la fois par des modèles mathématiques et par simulation. Pour finir, un aperçu des autres protocoles haut-débit existant et des voies possibles de futures recherches sont présentés
APA, Harvard, Vancouver, ISO, and other styles
15

Cuevas, Ordaz Francisco Javier. "Turbo décodage de code produit haut débit." Lorient, 2004. http://www.theses.fr/2004LORIS033.

Full text
Abstract:
Cette thèse s’inscrit dans la continuité des recherches menées sur les nouvelles techniques de codes correcteurs d’erreurs, faisant suite aux travaux sur les turbo codes, TCB, introduits en 1994 par R. Pyndiah. Elle propose une architecture novatrice de turbo décodage des codes produits, utilisant des codes BCH étendus comme codes élémentaires. Cette nouvelle architecture qui oblige à stocker plusieurs données à une même adresse mémoire, permet de traiter un débit d’information élevé. Dans un premier temps, nous proposons une nouvelle architecture haut débit de turbo décodage mettant en œuvre un code BCH (32,26,4) à entrées et sorties pondérées corrigeant 1 erreur (code de Hamming). Puis, nous consacrons la seconde série de résultats au décodage haut débit de code BCH (128,106,8) à fort pouvoir de correction, corrigeant 3 erreurs (distance minimale du code produit d=64) et à fort rendement (R proche de 0,7). Le premier avantage de ces conceptions est d’utiliser un seul plan mémoire (n2 échantillons regroupés par bloc de m2) en entrée. Les conceptions des décodeurs élémentaires présentés sont capables de traiter m données à la fois, m=1, 2, 4 et 8. Le deuxième résultat est qu’en parallélisant m décodeurs de ce type pour l’architecture du turbo décodeur, on obtient une vitesse de décodage m2 fois plus élevée pour une surface m2/2 fois plus grande des décodeurs élémentaires. Pour comparer les performances et la complexité entre les différents décodeurs, le langage C a été utilisé pour les simulations, le langage VHDL pour les simulations fonctionnelles et Synopsys Design Compiler pour la synthèse. Les résultat ainsi obtenus ouvrent la possibilité d’intégration sur le silicium de turbo décodeurs à fort pouvoir de correction (distance de 64, rendement de 0,8) et à très haut débit (6,4 Gbits/s dans une technologie CMOS 0. 18μm)
This thesis continues research undertaken on new error correcting code techniques, following work on block turbo codes, BTCs, introduced in 1994 by R. Pyndiah. It proposes an innovative architecture for the turbo decoding of product codes, using extended BCH codes as elementary codes. This innovative architecture stores several data at the same address and performs parallel decoding to increase the data rate. First, we propose a new high rate turbo decoding architecture using a BCH (32,26,4) code with a soft input-soft output (SISO), correcting 1 error (Hamming code). Then, we dedicate the second group of results to decoding BCH (128,106,8) code for high data rates with strong error correction power, correcting 3 errors (minimum distance of product code d=64) and high code rates (R close to 0,7). The first advantage of theses designs is that they use only one memory (n2 data grouped into blocks of m2) at the input. The elementary decoder designs presented are capable of treating m data simultaneously, with m=1, 2, 4 and 8. The second result is that by using m parallel decoders of the same type for the architecture of the turbo decoder, we obtain a decoding m2 higher speed and a m2/2 surface area, for these elementary decoders. To compare the performance and complexity of the decoders, we use C language for behavioural simulations, VHDL for functional simulations and Synopsys Design Compiler for the synthesis. The results obtained open up the possibility of future integration on silicon for turbo decoders with strong error correction power (minimum distance 64, code rate 0. 8) and very high data rate (6. 4 Gbits/s with a CMOS 0. 18μm target library)
APA, Harvard, Vancouver, ISO, and other styles
16

Yan, Yiqing. "Scalable and accurate algorithms for computational genomics and dna-based digital storage." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS078.

Full text
Abstract:
La réduction des coûts et l'amélioration du débit de la technologie de séquençage ont entraîné de nouvelles avancées dans des applications telles que la médecine de précision et le stockage basé sur l'ADN. Cependant, le résultat séquencé contient des erreurs. Pour mesurer la similitude entre le résultat séquencé et la référence, la distance d'édition est préférée en pratique à la distance de Hamming en raison des indels. Le calcul de la distance d'édition est complexe quadratique. Par conséquent, l'analyse de similarité de séquence nécessite beaucoup de calculs. Dans cette thèse, nous introduisons deux algorithmes d'analyse de similarité de séquence précis et évolutifs, i) Accel-Align, un mappeur et un aligneur de séquence rapide basé sur la méthodologie seed–embed–extend, et ii) Motif-Search, une structure-efficace algorithme conscient pour récupérer les informations codées par les motifs composites à partir de l'archive ADN. Ensuite, nous utilisons Accel-Align comme un outil efficace pour étudier la conception d'accès aléatoire dans le stockage basé sur l'ADN
Cost reduction and throughput improvement in sequencing technology have resulted in new advances in applications such as precision medicine and DNA-based storage. However, the sequenced result contains errors. To measure the similarity between the sequenced result and reference, edit distance is preferred in practice over Hamming distance due to the indels. The primitive edit distance calculation is quadratic complex. Therefore, sequence similarity analysis is computationally intensive. In this thesis, we introduce two accurate and scalable sequence similarity analysis algorithms, i) Accel-Align, a fast sequence mapper and aligner based on the seed–embed–extend methodology, and ii) Motif-Search, an efficient structure-aware algorithm to recover the information encoded by the composite motifs from the DNA archive. Then, we use Accel-Align as an efficient tool to study the random access design in DNA-based storage
APA, Harvard, Vancouver, ISO, and other styles
17

Jolly, Julien. "Préparation et caractérisation haut débit de catalyseurs nanostructurés." Poitiers, 2010. http://theses.edel.univ-poitiers.fr/theses/2010/Jolly-Julien/2010-Jolly-Julien-These.pdf.

Full text
Abstract:
Le terme de pollution intérieure est apparu depuis peu,i. E. La pollution dans les milieux confinés tels que les bâtiments (maison, bureau, etc…) ou les moyens de transports (avions, trains, voitures, etc…). L'objectif principal est de pouvoir détruire ces polluants, plus particulièrement les composés organiques volatils (COVs) et ceci à moindre coût énergétique. La solution reposant sur l'oxydation catalytique peut être un moyen d'y remédier. Il se pose ensuite la question suivante : quelle stratégie adopter pour aboutir au résultat souhaité ? deux possibilités sont envisageables : une approche classique reposant essentiellement sur les connaissances antérieures et le savoir-faire ou bien une approche plus pragmatique appelée expérimentation haut débit (EHD). C’est cette dernière qui est choisie dans ce projet. Dans un premier temps, les étapes clés de cette démarche ainsi que les outils nécessaires seront présentés avant de l'appliquer à un cas d'étude concret ; l'oxydation de l'isopropanol. La thermographie infrarouge est choisie comme technique principale de sélection des meilleurs candidats (criblage primaire). Nous démontrerons aussi l'intérêt d'utiliser cette technique dans la caractérisation des propriétés fondamentales des matériaux catalytiques telles que la mesure de la surface spécifique ou encore de l'acido-basicité. Enfin, la thermographie infrarouge a permis de mettre en évidence des phénomènes catalytiques oscillants dans des conditions de température et de pression données dont la combinaison de différentes techniques analytiques in situ ont abouti à une meilleure compréhension du processus lié à ces systèmes non linéaires
The term of indoor air pollution has emerged recently, i. E. Pollution in confined spaces such as buildings (home, office, etc…) or transports (planes, trains, cars, etc…). The main objective is to eliminate these polluants, especially volatile organic compounds (VOCs) and this at a lower energy cost. The solution based on the catalytic oxidation may be a good way to achieve that. But another question still remains: what strategy to use in order to reach the desired result? Different strategies can be chosen: a classical approach based primarily on prior knowledge and know-how or a more pragmatic approach called high-throughput experimentation (THE). It is the latter which is chosen in this project. Firstly, the key steps and the tools related to this approach will be presented before applying it to a concrete case study, the oxidation is isopropyl alcohol. Infrared thermography is chosen as the main analytical technique in order to select the best candidates (primary screening). Moroever, we will present the potentiality of this technique about the characterization of fundamental properties of catalytic materials such as specific surface area or the acid-base properties. Finally, an oscillating catalytic phenomenon in fixed conditions of temperature and pressure is highlighted. Combination of different analytical techniques in situ as led to a better understanding of this oscillating behavior
APA, Harvard, Vancouver, ISO, and other styles
18

Reminiac, François. "Aérosolthérapie et dispositifs de haut débit nasal humidifié." Thesis, Tours, 2017. http://www.theses.fr/2017TOUR3302.

Full text
Abstract:
L’aérosolthérapie est une modalité thérapeutique complexe souvent prescrite dans les services de réanimation et de surveillance continue, les services d’urgences et les unités de soins intensifs, notamment chez les patients obstructifs, ce qui fait des bronchodilatateurs la classe médicamenteuse la plus prescrite par voie aérosolisée. Les patients de ces unités de soins aiguë nécessitent aussi fréquemment un support ventilatoire parmi lesquels le haut débit nasal humidifié se montre être une modalité prometteuse en raison de ses effets physiologiques, y compris chez les patients obstructifs. La question de l’administration d’aérosols de médicaments et notamment de bronchodilatateurs chez des patients soumis au haut débit nasal est donc posée. L’administration d’aérosols médicamenteux au cours du haut débit nasal directement dans le circuit de ce support ventilatoire pourrait être une méthode simple, efficace, voire même bénéfique
Aerosol therapy is a complex method of drug delivery frequently used in intensive care units, step down units and emergency departments, especially in obstructive patients which makes bronchodilators the most prescribed drug class in critical care. Critically ill patients often require ventilatory support, including nasal high flow therapy which showed promising clinical benefits. Given the physiologic effects of nasal high flow therapy, its implementation may be beneficial for obstructive patients. Consequently, the question of aerosol administration, especially bronchodilators, in patients undergoing nasal high flow arises. Aerosol administration during nasal high flow therapy directly in the high flow circuit could be a simple, efficient and possibly beneficial method. However, technical and physiological issues may jeopardize efficacy of this combined administration
APA, Harvard, Vancouver, ISO, and other styles
19

Lalanne, aulet David. "Développement d'outils miniaturisés pour la microbiologie haut-débit." Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0160/document.

Full text
Abstract:
La microbiologie est la science qui s'attache à l'étude des microorganismes et de leurs propriétés. Depuis ses débuts au XV II siècle, les méthodes développées par les microbiologistes ont permis de révéler un énorme potentiel de connaissances et d'applications. Dans les dernières décennies, les industriels ont vu un intérêt tout particulier dans ce domaine d'étude. Le besoin de prévenir les contaminations en inhibant le développement microbien, ou au contraire la volonté de l'optimiser pour profiter des capacités de transformations chimiques des microorganismes a fait naître une demande croissante de tests microbiologiques. Le faible rendement des méthodes traditionnelles ne permettant pas de satisfaire à cette demande, la recherche de nouvelles méthodes de test focalise les intérêts. Les outils fluidiques miniaturisés ont d'ores et déjà fait preuve de leur potentiel pour ce type d'application, bien que leur validation vis-à-vis des méthodes classiques manque souvent.Dans ce travail de thèse, nous avons développé des incubateurs miniaturisés et des méthodes de suivi de populations de microorganismes optimisés. L'objectif est d'aborder l'impact de la réduction d'échelle d'incubation sur la croissance par rapport aux dispositifs de culture traditionnel, pour ensuite aboutir à un outil haut-débit pour la caractérisation de biocides
Microbiology is the part of science linked with the study of microorganisms and their properties. Since its beginnings in the XV IIth century, the methods developped by the microbiologists revealed a huge potential of knowledge and applications.In the last decades, industrials realized the interests of this study areaThe need to prevent contaminations by inhibiting microbial development, or on the contrary the will to improve it to enjoy the chemical transformations capacities of the microorganisms gave birth to an increasing demand for microbiological tests. The poor yield of traditionnal methods does not allow to satisfy this need, and the search for new test methods is thus focalizing interests. Miniaturized fluidic tools have already proven their potential for this kind of applications, and yet, their validation towards traditionnal methods often lacks.In this work, we aim at developping miniaturized cultivation techniques and optimized growth analysis methods, to study the scale reduction impact of incubator's size on growth, in order to end up with a high-throughput tool for biocide caracterization
APA, Harvard, Vancouver, ISO, and other styles
20

Aubert, Julie. "Analyse statistique de données biologiques à haut débit." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS048/document.

Full text
Abstract:
Les progrès technologiques des vingt dernières années ont permis l’avènement d'une biologie à haut-débit reposant sur l'obtention de données à grande échelle de façon automatique. Les statisticiens ont un rôle important à jouer dans la modélisation et l'analyse de ces données nombreuses, bruitées, parfois hétérogènes et recueillies à différentes échelles. Ce rôle peut être de plusieurs natures. Le statisticien peut proposer de nouveaux concepts ou méthodes inspirées par les questions posées par cette biologie. Il peut proposer une modélisation fine des phénomènes observés à l'aide de ces technologies. Et lorsque des méthodes existent et nécessitent seulement une adaptation, le rôle du statisticien peut être celui d'un expert, qui connaît les méthodes, leurs limites et avantages. Le travail présenté dans cette thèse se situe à l'interface entre mathématiques appliquées et biologie, et relève plutôt des deuxième et troisième type de rôles mentionnés.Dans une première partie, j’introduis différentes méthodes développées pour l'analyse de données biologiques à haut débit, basées sur des modèles à variables latentes. Ces modèles permettent d'expliquer un phénomène observé à l'aide de variables cachées. Le modèle à variables latentes le plus simple est le modèle de mélange. Les deux premières méthodes présentées en sont des exemples: la première dans un contexte de tests multiples et la deuxième dans le cadre de la définition d'un seuil d'hybridation pour des données issues de puces à ADN. Je présente également un modèle de chaînes de Markov cachées couplées pour la détection de variations du nombre de copies en génomique prenant en compte de la dépendance entre les individus, due par exemple à une proximité génétique. Pour ce modèle, nous proposons une inférence approchée fondée sur une approximation variationnelle, l'inférence exacte ne pouvant pas être envisagée dès lors que le nombre d'individus augmente. Nous définissons également un modèle à blocs latents modélisant une structure sous-jacente par bloc de lignes et colonnes adaptées à des données de comptage issue de l'écologie microbienne. Les données issues de méta-codebarres ou de métagénomique correspondent à l'abondance de chaque unité d'intérêt (par exemple micro-organisme) d'une communauté microbienne au sein d'environnement (rhizosphère de plante, tube digestif humain, océan par exemple). Ces données ont la particularité de présenter une dispersion plus forte qu'attendue sous les modèles les plus classiques (on parle de sur-dispersion). La classification croisée est une façon d'étudier les interactions entre la structure des communautés microbiennes et les échantillons biologiques dont elles sont issues. Nous avons proposé de modéliser ce phénomène à l'aide d'une distribution Poisson-Gamma et développé une autre approximation variationnelle pour ce modèle particulier ainsi qu'un critère de sélection de modèle. La flexibilité et la performance du modèle sont illustrées sur trois jeux de données réelles.Une deuxième partie est consacrée à des travaux dédiés à l'analyse de données de transcriptomique issues des technologies de puce à ADN et de séquençage de l’ARN. La première section concerne la normalisation des données (détection et correction de biais techniques) et présente deux nouvelles méthodes que j’ai proposées avec mes co-auteurs et une comparaison de méthodes à laquelle j’ai contribuée. La deuxième section dédiée à la planification expérimentale présente une méthode pour analyser les dispositifs dit en dye-switch.Dans une dernière partie, je montre à travers deux exemples de collaboration, issues respectivement d'une analyse de gènes différentiellement exprimés à partir de données issues de puces à ADN, et d'une analyse du traductome chez l'oursin à partir de données de séquençage de l'ARN, la façon dont les compétences statistiques sont mobilisées et la plus-value apportée par les statistiques aux projets de génomique
The technological progress of the last twenty years allowed the emergence of an high-throuput biology basing on large-scale data obtained in a automatic way. The statisticians have an important role to be played in the modelling and the analysis of these numerous, noisy, sometimes heterogeneous and collected at various scales. This role can be from several nature. The statistician can propose new concepts, or new methods inspired by questions asked by this biology. He can propose a fine modelling of the phenomena observed by means of these technologies. And when methods exist and require only an adaptation, the role of the statistician can be the one of an expert, who knows the methods, their limits and the advantages.In a first part, I introduce different methods developed with my co-authors for the analysis of high-throughput biological data, based on latent variables models. These models make it possible to explain a observed phenomenon using hidden or latent variables. The simplest latent variable model is the mixture model. The first two presented methods constitutes two examples: the first in a context of multiple tests and the second in the framework of the definition of a hybridization threshold for data derived from microarrays. I also present a model of coupled hidden Markov chains for the detection of variations in the number of copies in genomics taking into account the dependence between individuals, due for example to a genetic proximity. For this model we propose an approximate inference based on a variational approximation, the exact inference not being able to be considered as the number of individuals increases. We also define a latent-block model modeling an underlying structure per block of rows and columns adapted to count data from microbial ecology. Metabarcoding and metagenomic data correspond to the abundance of each microorganism in a microbial community within the environment (plant rhizosphere, human digestive tract, ocean, for example). These data have the particularity of presenting a dispersion stronger than expected under the most conventional models (we speak of over-dispersion). Biclustering is a way to study the interactions between the structure of microbial communities and the biological samples from which they are derived. We proposed to model this phenomenon using a Poisson-Gamma distribution and developed another variational approximation for this particular latent block model as well as a model selection criterion. The model's flexibility and performance are illustrated on three real datasets.A second part is devoted to work dedicated to the analysis of transcriptomic data derived from DNA microarrays and RNA sequencing. The first section is devoted to the normalization of data (detection and correction of technical biases) and presents two new methods that I proposed with my co-authors and a comparison of methods to which I contributed. The second section devoted to experimental design presents a method for analyzing so-called dye-switch design.In the last part, I present two examples of collaboration, derived respectively from an analysis of genes differentially expressed from microrrays data, and an analysis of translatome in sea urchins from RNA-sequencing data, how statistical skills are mobilized, and the added value that statistics bring to genomics projects
APA, Harvard, Vancouver, ISO, and other styles
21

Truffot, Jérôme. "Conception de réseaux haut débit sous contrainte de sécurisation." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2007. http://tel.archives-ouvertes.fr/tel-00718379.

Full text
Abstract:
L'augmentation constante des débits de transmission de données a fait évoluer les réseaux IP vers de nouveaux services. Dans ce contexte, ces travaux de thèse étudient l'influence des nouveaux protocoles dans la conception de réseaux haut débit tolérants aux pannes. Dans un premier temps, nous nous sommes intéressés aux spécificités du routage dans les réseaux MPLS (MultiProtocol Label Switching). Pour limiter la taille des tables de commutation, il est nécessaire de limiter le nombre de routes. Cette contrainte forte sur le support des flux change considérablement la complexité des problèmes de routage. Notre contribution porte principalement sur la modélisation des problèmes de flots k-séparables par des programmes linéaires en nombres entiers adaptés à une résolution exacte. D'autre part nous nous sommes intéressés à la contrainte de délai de bout-en-bout. Nos modèles de flots k-séparables offrent des possibilités intéressantes pour gérer cette contrainte
APA, Harvard, Vancouver, ISO, and other styles
22

Muller, Olivier. "Architectures multiprocesseurs monopuces génériques pour turbo-communications haut-débit." Phd thesis, Université de Bretagne Sud, 2007. http://tel.archives-ouvertes.fr/tel-00545236.

Full text
Abstract:
Les applications dans le domaine des communications numériques deviennent de plus en plus complexes et diversifiées. En témoigne l'apparition des turbo-communications qui représentent la généralisation du principe de processus itératif introduit par les turbocodes. La mise en œuvre de systèmes de turbo-communications, communément appelés turbo- récepteurs, est devenue primordiale pour atteindre les performances aujourd'hui exigées en terme de qualité de transmission. Des architectures matérielles dédiées implantant ces systèmes ont déjà vu le jour dans plusieurs équipes de recherches académiques et industrielles. Cependant, pour des exigences de flexibilité de l'implantation (pour supporter les évolutions d'une norme ou des applications multi-standards), de qualité de transmission et de haut débit de communication, des architectures multiprocesseurs adéquates deviennent incontournables. Le sujet de cette thèse porte sur la mise en œuvre d'une plate-forme architecturale multiprocesseur générique adaptée aux turbo-récepteurs et plus particulièrement aux turbo-décodeurs convolutifs. Ainsi, le sujet gravite autour de deux axes de recherche : un axe algorithmique autour des systèmes de turbo-décodage et un autre autour de la conception numérique ces derniers. Sur l'axe algorithmique, ces travaux présentent une étude approfondie des algorithmes de turbo-décodage autour des techniques de parallélisme. Les fondations de cette étude reposent sur une classification des parallélismes existants qui distingue les parallélismes selon leurs granularités et leurs pouvoirs d'accélération. L'analyse de cette classification a révélé la nécessité d'investiguer les parallélismes de sous-bloc et de décodeur composant pour améliorer l'efficacité de leur mise en œuvre. Les recherches menées mettent en évidence que le parallélisme de sous-bloc s'avère plus efficace avec la technique d'initialisation par passage de message. Nous avons également montré que le parallélisme de décodeur composant, grâce à la technique du décodage combiné ou « shuffled decoding » , améliore l'efficacité des architectures de turbo-décodeur fortement parallèles et que cette dernière peut être optimisée en contraignant la conception de l'entrelaceur du turbocode. Sur l'axe architectural, ces avancées algorithmiques ont été mises à profit dans une plate-forme multiprocesseur qui exploite au mieux les compromis matériel/logiciel (i .e. performance/flexibilité) tant au niveau du calcul qu'au niveau des communications. Au niveau du calcul, un processeur ASIP (Application-Specific Instruction-set Processor) dédié au décodage des codes convolutifs a été proposé et conçu de manière à ne fournir que la flexibilité désirée, tout en conservant des performances élevées grâce à un chemin de données fortement parallélisé. Au niveau des communications, la plate-forme a été dotée de réseaux sur puce dédiés pour assurer la bande passante nécessaire aux échanges itératifs d'information. Cette plate-forme multi-ASIP flexible a été prototypée sur une carte d'émulation intégrant des circuits FPGA. La flexibilité de la plate-forme proposée autorise le support de tous les standards de turbocodes convolutifs actuels et émergeants et peut trouver un intérêt industriel dans les domaines des télécommunications mobiles et satellitaires, de la diffusion de contenu ou de l'Internet haut-débit.
APA, Harvard, Vancouver, ISO, and other styles
23

Gouret, Wilfried. "Implantation de la communication CPL haut débit en embarqué." Phd thesis, INSA de Rennes, 2007. http://tel.archives-ouvertes.fr/tel-00286944.

Full text
Abstract:
L'evolution du nombre de systèmes électroniques dans les véhicules engendre un accroissement des échanges entre les systemes electroniques et necessite une multiplication des faisceaux de cˆablage. Ces faisceaux point-a-point ou multiplexes atteignent des longueurs superieures a 2 km sur les voitures haut de gamme. Pour reduire le nombre fils, le concept de multiplexage est une solution. Ce concept consiste a faire transiter sur une seule et mˆeme ligne de liaison des communications appartenant a plusieurs paires d'equipements emetteurs et recepteurs. Les solutions basees sur les protocoles CAN, Flexray, LIN sont deja presentent sur les vehicules actuels. Les avantages d'une telle solution sont multiples, mais engendrent aussi des disparites sur les protocoles et supports associes. Les communications entre les protocoles necessitent des interfaces, qui des lors pénalisent les debits et ne sont plus temps réel. Afin de réduire cette disparite et reduire le nombre de cables, nous nous sommes intéressés à une solution basee sur les techniques dites de courant porteur en ligne (CPL/PLC). Demontrer la faisabilite d'un tel systeme sur un vehicule est l'objet de ces travaux. La première partie de l'etude a porté sur la description de l'etude. Après avoir developpe le contexte, les principes des techniques de transmission par CPL dans le domaine Indoor sont rappelés. Dans la seconde partie du document, l'etude porte dans un premier temps sur les caracteristiques du canal de transmission puis sur la presentation des techniques CDMA, OFDM. La troisième partie de l'etude a porte sur l'aspect simulation. Elle a consisté à étudier la modulation Homeplug en presence d'un canal automobile. Au cours de cette étude, plusieurs optimisations ont ete apportees pour obtenir un gain en taux d'erreur et debit. Enfin, la derniere partie de l'etude a porte sur les mesures et experimentations sur véhicules. Une description des modems CPL adaptes est realisee. Cette partie a permit de classifier les organes influenc¸ant la transmission, de mesurer les taux de transfert et de demontrer la robustesse de la modulation. Ainsi, ces différents travaux montrent la pertinence des solutions proposees pour la transmission CPL au sein d'un vehicule.
APA, Harvard, Vancouver, ISO, and other styles
24

Agha, Khaldoun Al. "Optimisation des ressources pour réseaux mobiles à haut débit." Versailles-St Quentin en Yvelines, 1998. http://www.theses.fr/1998VERS0016.

Full text
Abstract:
Du fait de l'étroite bande passante affectée au lien de transmission radio, L'optimisation de l'allocation de ressources dans les réseaux mobiles s'avère cruciale pour pouvoir y intégrer le support haut dépit. En effet, la diminution de la taille des cellules permet une réutilisation des ressources plus importante et demultiplie le nombre de transferts intercellulaires. Ceci implique une gestion complexe des ressources à travers les stations de base. Cette thèse s'est donc proposée d'étudier les schémas d'allocation existants, et d'élaborer des solutions pour les adapter aux variations de trafic, par essence, instantanées et peu prévisibles dans les réseaux sans fil. Tout d'abord, l'attention s'est portée sur le schéma fixe d'allocation. Partant de ce schéma, a été proposée une nouvelle méthode fixe d'allocation qui permet d'équilibrer la charge du trafic, souvent non uniforme, en fonction des ressources disponibles. Cet ajustement s'est appuyé sur un concept de seuil d'alarme géré par un système multi-agent. Les effort se sont ensuite concentrés sur le schéma d'allocation hybride, en particulier sur la répartition fixe et dynamique des ressources aux stations de base. Cette répartition étant invariable dans le temps, La démarche a consisté à la rendre flexible et à la faire évoluer en fonction du temps et par apprentissage. Pour ce faire, une architecture watm intégrant un système multi-agent a été conçue, laquelle a permis de réaliser un nouveau schéma capable d'offrir une répartition adaptative et qui prend en considération les conditions de trafic du réseau. Cette thèse s'est achevée sur la mise au point de trois schémas dynamiques issus du channel ségrégation. Fondés sur la communication entre les stations de base avoisinantes, ces schémas sont capables d'offrir plusieurs qualités de service à différentes classes de trafic. En effet, les agents intelligents installés dans les stations de base coopèrent pour se partager les ressources avec un minimum de conflits
Du fait de l'etroite bande passante affectee au lien de transmission radio, l'optimisation de l'allocation de ressources dans les reseaux mobiles s'avere cruciale pour pouvoir y integrer le support haut debit. En effet, la diminution de la taille des cellules permet une reutilisation des ressources plus importante et demultiplie le nombre de transferts intercellulaires. Ceci implique une gestion complexe des ressources a travers les stations de base. Cette these s'est donc proposee d'etudier les schemas d'allocation existants, et d'elaborer des solutions pour les adapter aux variations de trafic, par essence, instantanees et peu previsibles dans les reseaux sans fil. Tout d'abord, l'attention s'est portee sur le schema fixe d'allocation. Partant de ce schema, a ete proposee une nouvelle methode fixe d'allocation qui permet d'equilibrer la charge du trafic, souvent non uniforme, en fonction des ressources disponibles. Cet ajustement s'est appuye sur un concept de seuil d'alarme gere par un systeme multi-agent. Les effort se sont ensuite concentres sur le schema d'allocation hybride, en particulier sur la repartition fixe et dynamique des ressources aux stations de base. Cette repartition etant invariable dans le temps, la demarche a consiste a la rendre flexible et a la faire evoluer en fonction du temps et par apprentissage. Pour ce faire, une architecture watm integrant un systeme multi-agent a ete concue, laquelle a permis de realiser un nouveau schema capable d'offrir une repartition adaptative et qui prend en consideration les conditions de trafic du reseau. Cette these s'est achevee sur la mise au point de trois schemas dynamiques issus du channel segregation. Fondes sur la communication entre les stations de base avoisinantes, ces schemas sont capables d'offrir plusieurs qualites de service a differentes classes de trafic. En effet, les agents intelligents installes dans les stations de base cooperent pour se partager les ressources avec un minimum de conflits
APA, Harvard, Vancouver, ISO, and other styles
25

Muller, Olivier David. "Architectures multiprocesseurs monopuces génériques pour turbo-communications haut-débit." Lorient, 2007. http://www.theses.fr/2007LORIS106.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Pujol, Hubert. "Réseau d'interconnexion haut débit pour les architectures parallèles connexionnistes." Paris 11, 1994. http://www.theses.fr/1994PA112192.

Full text
Abstract:
La taille des réseaux de neurones formels croit rapidement d'année en année. Si le parallélisme massif des architectures permet d'atteindre des puissances de calcul satisfaisantes, la réalisation des communications devient critique. Le cross bar, généralement utilisé dans les machines spécialisées pour les réseaux de neurones formels, ne peut suivre cette évolution. Le but de cette thèse est de concevoir un réseau d'interconnexion réalisable pour les architectures parallèles connexionnistes. Pour cela, j'ai d'abord identifié les primitives de communications induites par les graphes de réseaux de neurones formels (diffusions partielles multiples et communication locales), puis, j'ai défini un réseau d'interconnexion original adapté à ces primitives: le bus sécable. C'est une architecture à base de bus multiples fractionnés en tronçons. Ces tronçons sont reliés par des commutateurs ouverts ou fermés suivant les besoins des communications. Sur chacun de ces tronçons se trouvent des noeuds qui peuvent être des processeurs, des mémoires ou des entrées sorties. Je compare ensuite le bus sécable avec différents réseaux classiques. L'originalité de cette comparaison vient du choix des critères qui sont théoriques (degré, diamètre) ou pratiques (dilatation dans une grille, nombre de commutateurs élémentaires, le nombre de liens). La conclusion de ces comparaisons met en avant les excellentes caractéristiques du bus sécable. J'écris ensuite la mise en oeuvre de l'accélérateur de machine de Boltzmann, l'implantation physique du bus sécable dans un composant programmable, l'utilisation de circuits analogiques numériques qui servent à la partie calcul et des contrôleurs cablés et programmés. Je montre enfin que le bus sécable peut servir dans le contexte des machines parallèles à usage généraliste. Pour cela, je compare pour les réseaux classiques et le bus sécable, le nombre de reconfigurations nécessaires pour exécuter trois primitives fréquemment utilisées pour le calcul scientifique. Je montre ainsi qu'en diminuant le nombre de ces reconfigurations, le bus sécable réduit la latence des communications
APA, Harvard, Vancouver, ISO, and other styles
27

Truffot, Jérome. "Conception de réseaux haut débit sous contrainte de sécurisation." Clermont-Ferrand 2, 2007. http://www.theses.fr/2007CLF21793.

Full text
Abstract:
L'augmentation constante des débits de transmission de données a fait évoluer les réseaux IP vers de nouveaux services. Dans ce contexte, ces travaux de thèse étudient l'influence des nouveaux protocoles dans la conception de réseaux haut débit tolérants aux pannes. Dans un premier temps, nous nous sommes intéressés aux spécificités du routage dans les réseaux MPLS (MultiProtocol Label Switching). Pour limiter la taille des tables de commutation, il est nécessaire de limiter le nombre de routes. Cette contrainte forte sur le support des flux change considérablement la complexité des problèmes de routage. Notre contribution porte principalement sur la modélisation des problèmes de flots k-séparables par des programmes linéaires en nombres entiers adaptés à une résolution exacte. D'autre part nous nous sommes intéressés à la contrainte de délai de bout-en-bout. Nos modèles de flots k-séparables offrent des possibilités intéressantes pour gérer cette contrainte
APA, Harvard, Vancouver, ISO, and other styles
28

Claude, Jean-Baptiste. "Développement d'outils de résolution de structure à haut débit." Aix-Marseille 2, 2007. http://www.theses.fr/2007AIX22063.

Full text
Abstract:
La résolution de structures des protéines par cristallographie aux rayons X connaît une croissance fulgurante avec le lancement des grands projets de génomique structurale. Dans un premier temps, nous avons résolu à 2 Ǻ la structure de la protéine yhbO d'Escherichia coli , dans le cadre d'un projet de génomique structurale, le projet ASG. L'étude structurale et bioinformatique d'yhbO permet de mieux comprendre sa place au sein de la vaste famille DJ-1/ThiJ/PfpI, et plus largement au sein de la superfamille des glutamines amidotransférases. La protéine yhbO est probablement une protéase à cystéine, comme la protéine PfpI de Pyrococcus horikoshii, son plus proche homologue structural. Dans un second temps, nous avons mis en place et développé CaspR, un serveur qui propose de résoudre les structures cristallographiques par la méthode du remplacement moléculaire. CaspR est capable de tester un très grand nombre de structures de façon entièrement automatique. En utilisant la modélisation par homologie, il est possible de générer une grande variété de modèles, qui sont automatiquement testés en remplacement moléculaire et en affinement. La génération de modèles multiples associée à des troncations choisies permet de résoudre des structures, même avec des homologues lointains (entre 20% et 35% d'identité de séquence).
APA, Harvard, Vancouver, ISO, and other styles
29

Wagner, Frédéric. "Redistribution de données à travers un réseau à haut débit." Phd thesis, Université Henri Poincaré - Nancy I, 2005. http://tel.archives-ouvertes.fr/tel-00011705.

Full text
Abstract:
Nous considérons ici le problème où deux programmes différents situés sur deux grappes d'ordinateurs distantes, reliées par un réseau à haut débit, forment un couplage de code et échangent
régulièrement des données. Un tel échange s'effectue par une redistribution de données. Nous étudions comment effectuer une telle redistribution le plus efficacement possible en minimisant temps de communication et congestion du réseau.

Nous utilisons pour ce faire, une modélisation du problème à l'aide de graphes bipartis. Le modèle choisi permet une prise en compte du délai d'initialisation des communications, des différentes bandes passantes et impose une limite d'une communication simultanée par interface réseau (modèle 1-port) et de k communications simultanées sur la dorsale.

Nous effectuons une validation expérimentale du modèle puis l'utilisons pour développer deux algorithmes d'ordonnancement
des communications. Nous montrons que chacun d'entre eux
est un algorithme d'approximation garantissant un temps d'exécution dans le pire des cas 8/3 fois plus élevé que le temps optimal.
Nous concluons l'étude de ces algorithmes par une série d'expériences démontrant de bonnes performances en pratique.


Enfin, nous étendons le problème initial au cas de grappes hétérogènes :
ce cas imposant de sortir du modèle 1-port, nous montrons comment modifier nos algorithmes pour en tirer parti.
Nous étudions également le cas de redistributions exécutées en régime permanent sur un réseau d'une topologie plus complexe autorisant les communications locales.
APA, Harvard, Vancouver, ISO, and other styles
30

Jacquin, Ludovic. "Compromis performance/sécurité des passerelles très haut débit pour Internet." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00911075.

Full text
Abstract:
Dans cette thèse nous abordons le problème de la conception de passerelle IPsec très haut débit pour la sécurisation des communications entre réseaux locaux. Pour cela, nous proposons deux architectures : une passerelle purement logicielle sur un unique serveur, dite intégrée, et une passerelle utilisant plusieurs serveurs et un module matériel cryptographique, dite en rupture. La première partie de nos travaux étudie l'aspect performance des deux architectures proposées. Nous commençons par montrer qu'un serveur générique est limité par sa puissance de calcul pour atteindre l'objectif de chiffrement et communication à 10 Gb/s. De plus, les nouvelles cartes graphiques, bien que prometteuses en terme de puissance, ne sont pas adaptées au problème du chiffrement de paquets réseau (à cause de leur faible taille). Nous mettons alors en place une pile réseau répartie sur plusieurs machines et procédons à sa parallélisation dans le cadre de l'architecture en rupture. Dans un second temps, nous analysons l'intégration d'une passerelle dans un réseau, notamment l'interaction du protocole de contrôle ICMP avec IPsec. ICMP est particulièrement important pour atteindre le haut débit par son implication dans le mécanisme d'optimisation de la taille des paquets. Pour cela, nous avons développé IBTrack, un logiciel d'étude du comportement des routeurs, par rapport à ICMP, le long d'un chemin. Nous montrons ensuite qu'ICMP est un vecteur d'attaque contre IPsec en exploitant un défaut fondamental des normes IP et IPsec : le surcoût des paquets IP créé par le mode tunnel entre en conflit avec le minimum de la taille maximale prévue par IP.
APA, Harvard, Vancouver, ISO, and other styles
31

Mirat, Olivier. "Analyse haut-débit du comportement spontané d'un organisme modèle " simple "." Phd thesis, Université René Descartes - Paris V, 2013. http://tel.archives-ouvertes.fr/tel-00881755.

Full text
Abstract:
L'utilisation d'organismes génétiques modèles a permis l'investigation à grande échelle de mécanismes cellulaires et moléculaires pour la biologie. La larve de poisson zèbre (Danio rerio) est un organisme vertébré modèle simple qui présente plusieurs avantages pour identifier les bases moléculaires et pharmacologiques du développement et du comportement à travers des cribles génétiques et chimiques respectivement. Plusieurs paradigmes expérimentaux reposent sur une caractérisation précise du phénotype comportemental associé avec un génotype ou l'application d'une drogue. Ce processus de phénotypage bénéficierait d'une compréhension globale des manœuvres possibles afin de caractériser précisément le comportement globale de larves observé au cours d'une expérience. L'analyse sur plusieurs minutes de la locomotion spontanée des larves de poisson zèbre en groupe fournit un cadre idéal pour atteindre ces objectifs.Si l'analyse manuelle du comportement animal est possible pour l'observation de manœuvres isolées et stéréotypées, elle n'est pas compatible avec une approche à grande échelle. A partir de cinq jours, la larve de poisson zèbre se meut sous forme de bouffées natatoires qui arrivent à haute fréquence et sont séparées par quelques secondes. La difficulté d'observation à haute fréquence et d'analyse de la locomotion en bouffée rend une analyse manuelle simple à partir de séquences vidéos du comportement impossible. Le développement récent de caméras rapides avec acquisition en mode continu, couplé aux avancées en informatique et en intelligence artificielle rend possible une analyse automatique du comportement. Les systèmes commerciaux actuels permettent des enregistrements sur des longues durées mais sans capturer la complexité et la diversité des mouvements réalisés. Nous avons donc créé ZebraZoom, notre système d'analyse haut débit permettant de suivre, de quantifier et de catégoriser le comportement spontané de chaque larve de poisson zèbre au sein d'un groupe.Nous avons monté un dispositif expérimental qui consiste à placer sept larves de poisson zèbre âgées d'entre cinq et sept jours dans huit boîtes de pétri. Les boîtes de pétri sont disposées sur une table lumineuse et une caméra rapide positionnée au-dessus enregistre le comportement spontané à 337 Hz pendant quatre minutes. Une fois la vidéo acquise, ZebraZoom localise automatiquement chacune des huit boîtes de pétri, puis suit tête et queue de chacun des animaux sur l'ensemble de la vidéo, grâce à des procédures de vision par ordinateur. ZebraZoom identifie automatiquement chaque bouffée natatoire. Le phénotypage du comportement a été réalisé grâce à deux méthodes complémentaires : l'extraction de paramètres globaux caractérisant la dynamique des mouvements et la catégorisation automatique des mouvements en différents manœuvres stéréotypées. Nous avons utilisé l'analyse des paramètres globaux afin de caractériser l'effet de drogues agissant sur les récepteurs de neurotransmetteurs et l'analyse d'un mutant aveugle. La catégorisation automatique des mouvements est réalisée grâce a des procédures d'apprentissage automatique (" Machine Learning "). Nous avons illustré l'utilité de cette catégorisation pour étudier les interactions entre larves à ces stades précoces. En conclusion, notre programme ZebraZoom permet de réaliser un phénotypage automatique et complet, et cette approche pourra être appliquée dans d'autres systèmes et contextes expérimentaux.
APA, Harvard, Vancouver, ISO, and other styles
32

Doan, Trung-Tung. "Epidémiologie moléculaire et métagénomique à haut débit sur la grille." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00778073.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Guéguen, Emeric. "Etude et optimisation des techniques UWB haut débit multibandes OFDM." Phd thesis, INSA de Rennes, 2009. http://tel.archives-ouvertes.fr/tel-00361467.

Full text
Abstract:
L'engouement du grand public pour les objets communicants et l'évolution des technologies a entraîné le besoin de transférer des quantités grandissantes d'informations en un minimum de temps. L'arrivée de l'UWB à la fin des années 90 a apporté aux communications sans fil une solution à cette problématique. L'UWB permet en effet d'atteindre de très hauts débits de transmission sur de courtes distances dans des environnements intra-bâtiment. Parmi les solutions envisagées pour cette nouvelle couche physique très haut débit, le système MB-OFDM répond bien aux contraintes environnementales. L'objectif des travaux réalisés dans le cadre de cette thèse est d'étudier et de proposer une amélioration du système MB-OFDM.

Après la présentation du système MB-OFDM et de ses performances, nous proposons une nouvelle forme d'onde pour l'UWB nommée LP-OFDM. Elle est obtenue en ajoutant au système MB-OFDM une fonction de précodage linéaire combinant avantageusement l'OFDM et la technique d'étalement de spectre. L'utilisation du précodage linéaire permet une meilleure exploitation de la diversité fréquentielle du canal. Il offre également une plus grande granularité dans le choix des débits, augmentant ainsi la flexibilité du système. Il est important de souligner que l'ajout de la fonction de précodage linéaire s'accompagne d'une augmentation minime de la complexité du système.

Des techniques d'optimisation du système sont proposées. Afin de minimiser l'interférence entre les codes d'étalement, une technique reposant sur l'allocation des séquences d'étalement est décrite et un critère de sélection proposé. Nous avons également mis en évidence la nécessité de trouver un compromis entre le rendement de codage et la longueur des séquences d'étalement afin de tirer au mieux partie de la diversité du canal tout en limitant l'interférence entre les codes. Une amélioration notable des performances du système LP-OFDM est ainsi obtenue par rapport au système MB-OFDM. Le système LP-OFDM étendu au cas du MIMO utilisant un codage temps-espace d'Alamouti est également étudié. Les résultats obtenus montrent là encore une amélioration significative des performances permettant d'envisager une augmentation de la portée ou des débits de transmission.

Enfin, l'impact d'un interférent à bande étroite de type WiMAX sur les performances du système LP-OFDM est étudié comparativement au système MB-OFDM. Il en ressort que le système LP-OFDM est plus robuste que le système MB-OFDM face à un brouilleur. L'utilisation du précodage linéaire permet en effet d'étaler la puissance du signal interférent en réception lors du déprécodage linéaire.
APA, Harvard, Vancouver, ISO, and other styles
34

Elsankary, Kamal. "Dévelopement [sic] de gestionnaires de périphériques génériques à haut débit." Thèse, Université du Québec à Trois-Rivières, 2001. http://depot-e.uqtr.ca/2725/1/000098655.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Saade, Gaëlle. "Toxicité de la hadronthérapie à ultra-haut débit de dose." Electronic Thesis or Diss., Nantes Université, 2024. http://www.theses.fr/2024NANU4043.

Full text
Abstract:
La radiothérapie à Ultra-Haut Débit de Dose (RT-UHDD), de l’ordre du Gray/msec, est une technique prometteuse pour réduire la toxicité aux tissus sains. Par ailleurs, la balistique des hadrons (protons/ions d'hélium) permet un meilleur ciblage des tumeurs, limitant la dose délivrée aux tissus sains environnants. Nous avons émis l’hypothèse que la hadronthérapie à UHDD est la méthode optimale pour limiter les séquelles. Nos travaux montrent que la hadronthérapie UHDD préserve le développement d’embryons de poisson- zèbres par rapport à la radiothérapie conventionnelle (conv-RT). Par expression transcriptionnelle, nous avons montré que l’arrêt du cycle cellulaire est moins affecté après la protonthérapie UHDD (PT-UHDD) qu'après la conv-PT. Également, la PT-UHDD a montré moins de dommages à l’ADN et d’apoptose. Nous avons ensuite étudié les effets précoces de la PT-UHDD sur le système vasculaire, en utilisant des embryons de poisson-zèbres transgéniques. Nos résultats montrent que les vaisseaux existants ne sont pas structurellement affectés par l’irradiation. Par contre, la formation de nouveaux vaisseaux est bloquée. Des résultats similaires ont été obtenus avec des pseudo-tubes formés par des cellules endothéliales in vitro. Cependant, une augmentation des péricytes autour des vaisseaux inter-segmentaux a été observée après PT-UHDD. De plus, par RT- qPCR, nous avons observé une augmentation de gènes de réponse vasculaire après PT-UHDD, notamment la VE-cadhérine. En conclusion, ce travail met en évidence une protection du développement des embryons de poisson-zèbre par la hadronthérapie UHDD. Ce phénotype semble partiellement indépendant d’une meilleure protection vasculaire
Ultra-High Dose Rate Radiotherapy (UHDR-RT), on the order of Gray/msec, is a promising technique for reducing toxicity to healthy tissues. Furthermore, the ballistic properties of hadrons (protons/helium ions) allow better tumor targeting and reduced dose delivery to surrounding healthy tissues. We hypothesized that UHDR hadrontherapy is the optimal method to limit side effects. Our research shows that UHDR hadrontherapy preserves the development of zebrafish embryos compared to conventional radiotherapy (conv-RT). Through transcriptional expression, we have also shown, that cell cycle arrest is less affected after UHDR protontherapy (UHDR- PT) than after conv-PT. Additionally, UHDR-PT showed less DNA damage and apoptosis. We then investigated the early effects of UHDR-PT on the vascular system, using transgenic zebrafish embryos. Our results indicate that existing vessels are not structurally affected by irradiation. However, new vessel development was inhibited. Similar results were obtained with pseudo-tubes formed by endothelial cells in vitro. Nevertheless, an increase in pericytes around intersegmental vessels was observed after PT-UHDD. Moreover, by RT- qPCR, we observed an increase in vascular response genes following UHDR-PT, notably VE-cadherin. In conclusion, this work highlights the protective effect of UHDR hadrontherapy on the development of zebrafish embryos. This phenotype appears to be partially independent of improved vascular protection
APA, Harvard, Vancouver, ISO, and other styles
36

Drouard, Joeffrey. "Analyse économique du marché du haut débit : contributions théoriques et empiriques." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00543896.

Full text
Abstract:
Le thème central de cette thèse est l'analyse économique du marché du haut débit et plus particulièrement l'économie des infrastructures de l'information. Les infrastructures de l'information désignent des réseaux numériques qui permettent de délivrer des services de communication et d'information exigeant des débits de transmission de données de plus en plus élevés. Cette thèse s'articule autour de trois problématiques. La première partie est consacrée à la demande de services haut débit et plus particulièrement aux inégalités d'accès à ces services. À partir d'une base de données regroupant des informations sur plus de 5600 ménages français, on propose deux analyses économétriques de la fracture numérique. La seconde partie est consacrée aux politiques de dégroupage. Tout d'abord, à partir d'une analyse économétrique portant sur 14 pays européens, on cherche à déterminer si le niveau du tarif de dégroupage a influencé positivement ou négativement la pénétration du haut débit. Ensuite, on propose un modèle dans lequel le concept de l'échelle d'investissement développé par Cave (2006) est analysé formellement. La troisième partie est consacrée aux exclusivités de distribution de contenus audiovisuels. À partir d'un modèle théorique, on analyse dans quels cas une firme verticalement intégrée, présente sur le marché du haut débit et également sur celui de la distribution de contenus, est incitée à réserver l'exclusivité de la distribution de son contenu à ses abonnées haut débit.
APA, Harvard, Vancouver, ISO, and other styles
37

Crenne, Jérémie. "Sécurité Haut-débit pour les Systèmes Embarqués à base de FPGAs." Phd thesis, Université de Bretagne Sud, 2011. http://tel.archives-ouvertes.fr/tel-00655959.

Full text
Abstract:
" [...] Puis, l'on ferra des récepteurs de télévision bijoux, comme il y a des postes de TSF bijoux. Des postes de poches, grands comme une lampe électrique. Plus besoin d'acheter un journal, l'on se branchera sur l'émission d'information, ou sur l'éditorial politique, ou sur la chronique de mode, ou sur le compte rendu sportif. Voir même sur un problème de mots croisés. Et la rue présentera un singulier spectacle. " R. Barjavel, " La télévision, oeil de demain ", 1947. C'est ainsi que l'auteur de romans de science fiction et d'anticipation René Barjavel, avait prédit dés la fin des années 40 l'avènement de ce que nous connaissons sous le nom de smartphones. Drôle de scène, en effet, que de voir des individus déambuler dans les rues, les yeux rivés sur l'objet au creux de leur main. Pour le meilleur et pour le pire, l'avènement de la mise en réseau à l'échelle mondiale a rendu les systèmes embarqués omniprésents dans notre quotidien. Désormais dans le nuage, le nombre d'information personnel en transit et les vitesses de transfert toujours plus importants, imposent une sécurité adéquate. Cependant, le coût en général associé est économiquement dissuasif. Proposer des solutions de sécurité ad-hoc pour ces systèmes restreints en ressources, est le propos de nos travaux. S'appuyant sur des techniques à la fois anciennes et récentes, nous montrons que le couple embarqué/sécurité peut s'accorder, et éviter ainsi, une inévitable procédure de divorce.
APA, Harvard, Vancouver, ISO, and other styles
38

Vanstraceele, Christophe. "Turbo codes et estimation paramétrique pour les communications à haut débit." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2005. http://tel.archives-ouvertes.fr/tel-00133951.

Full text
Abstract:
Dans ce travail, nous nous intéressons au problème du codage canal, dont le but est de corriger les erreurs dûes au canal lors d'une transmission numérique. En particulier, les turbo codes constituent la dernière avancée dans ce domaine et atteignent la borne prédite par C.E. Shannon en 1948. Nous présentons une simplification de la mise en oeuvre du turbo décodeur de R. Pyndiah, ainsi que des systèmes de synchronisation profitant des informations apportées par le turbo décodeur.
APA, Harvard, Vancouver, ISO, and other styles
39

Limasset, Antoine. "Nouvelles approches pour l'exploitation des données de séquences génomique haut débit." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S049/document.

Full text
Abstract:
Cette thèse a pour sujet les méthodes informatiques traitant les séquences ADN provenant des séquenceurs haut débit. Nous nous concentrons essentiellement sur la reconstruction de génomes à partir de fragments ADN (assemblage génomique) et sur des problèmes connexes. Ces tâches combinent de très grandes quantités de données et des problèmes combinatoires. Différentes structures de graphe sont utilisées pour répondre à ces problèmes, présentant des compromis entre passage à l'échelle et qualité d'assemblage. Ce document introduit plusieurs contributions pour répondre à ces problèmes. De nouvelles représentations de graphes d'assemblage sont proposées pour autoriser un meilleur passage à l'échelle. Nous présentons également de nouveaux usages de ces graphes, différent de l'assemblage, ainsi que des outils pour utiliser ceux-ci comme références dans les cas où un génome de référence n'est pas disponible. Pour finir nous montrons comment utiliser ces méthodes pour produire un meilleur assemblage en utilisant des ressources raisonnables
Novel approaches for the exploitation of high throughput sequencing data In this thesis we discuss computational methods to deal with DNA sequences provided by high throughput sequencers. We will mostly focus on the reconstruction of genomes from DNA fragments (genome assembly) and closely related problems. These tasks combine huge amounts of data with combinatorial problems. Various graph structures are used to handle this problem, presenting trade-off between scalability and assembly quality. This thesis introduces several contributions in order to cope with these tasks. First, novel representations of assembly graphs are proposed to allow a better scaling. We also present novel uses of those graphs apart from assembly and we propose tools to use such graphs as references when a fully assembled genome is not available. Finally we show how to use those methods to produce less fragmented assembly while remaining tractable
APA, Harvard, Vancouver, ISO, and other styles
40

Gazal, Steven. "La consanguinité à l'ère du génome haut-débit : estimations et applications." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA11T026/document.

Full text
Abstract:
Un individu est dit consanguin si ses parents sont apparentés et s’il existe donc dans sa généalogie au moins une boucle de consanguinité aboutissant à un ancêtre commun. Le coefficient de consanguinité de l’individu est par définition la probabilité pour qu’à un point pris au hasard sur le génome, l’individu ait reçu deux allèles identiques par descendance qui proviennent d’un seul allèle présent chez un des ancêtres communs. Ce coefficient de consanguinité est un paramètre central de la génétique qui est utilisé en génétique des populations pour caractériser la structure des populations, mais également pour rechercher des facteurs génétiques impliqués dans les maladies. Le coefficient de consanguinité était classiquement estimé à partir des généalogies, mais des méthodes ont été développées pour s’affranchir des généalogies et l’estimer à partir de l’information apportée par des marqueurs génétiques répartis sur l’ensemble du génome.Grâce aux progrès des techniques de génotypage haut-débit, il est possible aujourd’hui d’obtenir les génotypes d’un individu sur des centaines de milliers de marqueurs et d’utiliser ces méthodes pour reconstruire les régions d’identité par descendance sur son génome et estimer un coefficient de consanguinité génomique. Il n’existe actuellement pas de consensus sur la meilleure stratégie à adopter sur ces cartes denses de marqueurs en particulier pour gérer les dépendances qui existent entre les allèles aux différents marqueurs (déséquilibre de liaison). Dans cette thèse, nous avons évalué les différentes méthodes disponibles à partir de simulations réalisées en utilisant de vraies données avec des schémas de déséquilibre de liaison réalistes. Nous avons montré qu’une approche intéressante consistait à générer plusieurs sous-cartes de marqueurs dans lesquelles le déséquilibre de liaison est minimal, d’estimer un coefficient de consanguinité sur chacune des sous-cartes par une méthode basée sur une chaîne de Markov cachée implémentée dans le logiciel FEstim et de prendre comme estimateur la médiane de ces différentes estimations. L’avantage de cette approche est qu’elle est utilisable sur n’importe quelle taille d’échantillon, voire sur un seul individu, puisqu’elle ne demande pas d’estimer les déséquilibres de liaison. L’estimateur donné par FEstim étant un estimateur du maximum de vraisemblance, il est également possible de tester si le coefficient de consanguinité est significativement différent de zéro et de déterminer la relation de parenté des parents la plus vraisemblable parmi un ensemble de relations. Enfin, en permettant l’identification de régions d’homozygoties communes à plusieurs malades consanguins, notre stratégie peut permettre l’identification des mutations récessives impliquées dans les maladies monogéniques ou multifactorielles.Pour que la méthode que nous proposons soit facilement utilisable, nous avons développé le pipeline, FSuite, permettant d’interpréter facilement les résultats d’études de génétique de populations et de génétique épidémiologique comme illustré sur le panel de référence HapMap III, et sur un jeu de données cas-témoins de la maladie d’Alzheimer
An individual is said to be inbred if his parents are related and if his genealogy contains at least one inbreeding loop leading to a common ancestor. The inbreeding coefficient of an individual is defined as the probability that the individual has received two alleles identical by descent, coming from a single allele present in a common ancestor, at a random marker on the genome. The inbreeding coefficient is a central parameter in genetics, and is used in population genetics to characterize the population structure, and also in genetic epidemiology to search for genetic factors involved in recessive diseases.The inbreeding coefficient was traditionally estimated from genealogies, but methods have been developed to avoid genealogies and to estimate this coefficient from the information provided by genetic markers distributed along the genome.With the advances in high-throughput genotyping techniques, it is now possible to genotype hundreds of thousands of markers for one individual, and to use these methods to reconstruct the regions of identity by descent on his genome and estimate a genomic inbreeding coefficient. There is currently no consensus on the best strategy to adopt with these dense marker maps, in particular to take into account dependencies between alleles at different markers (linkage disequilibrium).In this thesis, we evaluated the different available methods through simulations using real data with realistic patterns of linkage disequilibrium. We highlighted an interesting approach that consists in generating several submaps to minimize linkage disequilibrium, estimating an inbreeding coefficient of each of the submaps based on a hidden Markov method implemented in FEstim software, and taking as estimator the median of these different estimates. The advantage of this approach is that it can be used on any sample size, even on an individual, since it requires no linkage disequilibrium estimate. FEstim is a maximum likelihood estimator, which allows testing whether the inbreeding coefficient is significantly different from zero and determining the most probable mating type of the parents. Finally, through the identification of homozygous regions shared by several consanguineous patients, our strategy permits the identification of recessive mutations involved in monogenic and multifactorial diseases.To facilitate the use of our method, we developed the pipeline FSuite, to interpret results of population genetics and genetic epidemiology studies, as shown on the HapMap III reference panel, and on a case-control Alzheimer's disease data
APA, Harvard, Vancouver, ISO, and other styles
41

Giovannini-Chami, Lisa. "Déterminants épithéliaux de la maladie asthmatique : apports des approches haut débit." Nice, 2011. http://www.theses.fr/2011NICE4091.

Full text
Abstract:
L’asthme est apparu récemment comme une pathologie de « barrière » liée aux caractéristiques intrinsèques de l’épithélium respiratoire. La susceptibilité épithéliale à des stress notamment viro-induits aboutit à une altération des mécanismes de réparation épithéliaux, favorable à la mise en place du remodelage. Les déterminants moléculaires de cette susceptibilité restent encore à ce jour mal connus. Les techniques d’analyses à « haut débit » rendent possible une analyse globale du répertoire de variants génétiques associés à la pathologie. Nous avons voulu identifier les altérations des voies de signalisation associées aux cellules épithéliales dans différents phénotypes de maladie allergie respiratoire de l’enfant. Nous avons établi, à partir de brossages nasaux, les profils d’expression géniques d’enfants présentant une rhinite allergique aux acariens associée ou non avec un asthme, lui-même contrôlé ou pas. La comparaison de ces profils à ceux obtenus dans un modèle de culture primaire d’épithélium nasal différenciée stimulés par les interleukines IL-4 ou IL-13, par les interférons IFN-α IFN-β ou IFN-γ, ou durant les étapes de la différentiation in-vitro nous a permis de mettre en évidence un profil d’activation épithéliale commun à l’ensemble des enfants allergiques, principalement induit par les cytokines Th2. Au-delà, les enfants présentant un asthme non contrôlé présentaient une diminution du niveau de transcrits induits par l’interféron. Ce travail fait apparaître l’interaction de l’épithélium avec les virus pathogènes de la petite enfance comme un élément clé dans la genèse de l’asthme et son contrôle
Asthma has been proposed as a « barrier » disease linked with intrinsic susceptibility of respiratory epithelium. Epithelial susceptibility to stress, in particular viral-induced stress, leads to alteration of epithelial repair mechanisms, and provides a substratum for the development of remodelling. The molecular determinants of this susceptibility still remain unknown. Recent high throughput techniques now make possible a comprehensive analysis of the repertoire of genetic variants associated with the disease. In complement to genetic studies based on large cohorts of patients, we aimed at identifying altered gene expression affecting signalling pathways associated with epithelial cells in different well-defined phenotypes of paediatric allergic respiratory disease. We have established gene expression profiles in nasal brushings from children with allergic rhinitis, and sensitized to house dust mites. Children were (or not) asthmatics. Asthma was controlled (or not). Comparison of all these different profiles with those obtained in a model of primary culture of differentiated nasal epithelium, and stimulated by interleukins IL-4 or IL-13, by interferons IFN- α IFN-β or IFN-γ or at different stages of in vitro differentiation allowed us to demonstrate an epithelial activation signature common to all allergic children. The signature was primarily driven by Th2 cytokines. In addition, children with uncontrolled asthma showed a decrease in the level of transcripts induced by interferon. This work shows the interaction of the epithelium with viral pathogens in early childhood as a key element in the genesis of asthma and its control
APA, Harvard, Vancouver, ISO, and other styles
42

Lecat-Guillet, Nathalie. "Identification d’inhibiteurs du symporteur sodium-iode par criblage à haut débit." Paris 11, 2006. http://www.theses.fr/2006PA112345.

Full text
Abstract:
Ce travail de thèse a été consacré à la recherche d'inhibiteurs du Symporteur Sodium-Iode ou NIS. Le NIS est une protéine membranaire localisée sur la membrane basolatérale des thyrocytes. Il permet le transport de ions iodures du plasma dans le thyrocyte, ce qui constitue la première étape de la biosynthèse des hormones iodées T 3 et T 4 produites par la thyroïde. La campagne de criblage à haut débit, mise au point sur les cellules HEK-293 sur exprimant la protéine NIS, sur une chimiothèque de 16 720 composés a permis de sélectionner 413 composés bloquant l'entrée d'iodures dans les cellules. Des tests de validation ainsi que la caractérisation de ces composés ont finalement permis d'identifier 10 inhibiteurs puissants et spécifiques du NIS humain, du rat et de la souris possédant des ECSO proches du micro-molaire. Un inhibiteur supplémentaire a été identifié en criblant une chimiothèque interne de 320 peptidomimétiques issus de chimie combinatoire. Parallèlement, un criblage orienté d'une chimiothèque d'organotrifluoroborates a permis de caractériser 3 autres inhibiteurs spécifiques du NIS. Un autre composé a été identifié comme activateur d'entrée d'iodures dans les thyrocytes de rats en culture. L'analyse de son mode d'action a permis de suggérer un mécanisme de maintien des ions iodures dans le thyrocyte. La synthèse d'analogues de ce composé a permis d'identifier un composé encore plus actif et aussi de proposer des relations de structure-activité de cette famille de molécules. Enfin, la synthèse de sondes photoactivables a été initiée afin d'identifier le mode d'action de ce composé sur les thyrocytes.
APA, Harvard, Vancouver, ISO, and other styles
43

Mieyeville, Fabien. "Modélisation de liaisons optiques inter- et intra-puces à haut débit." Ecully, Ecole centrale de Lyon, 2001. http://www.theses.fr/2001ECDL0018.

Full text
Abstract:
Les taux de transfert globaux des systèmes intégrés actuels vont atteindre le Térabit par seconde. A contrario, les interconnexions inter- et intra-puces s'approchent de leurs limites physiques et représentent actuellement un goulot d'étranglement majeur des perforrnances des systèmes. Parmi toutes les solutions étudiées, les interconnexions optiques permettraient de résoudre la majeure partie des problèmes liés aux interconnexions tels que la diaphonie, la distorsion des signaux, la limitation de la bande passante,. . . Les développements industriels intègrent des réseaux de VCSELs (Vertical-Cavity Surface-Emitting Laser) associés à des photodétecteurs, la communication étant assurée en espace libre ou guidé. En effet, les VCSELs sont une génération prometteuse d'émetteurs optiques présentant également des perspectives intéressantes pour la photodétection. Le développement de ces solutions alternatives ne peut se faire sans l'utilisation d'outils de CAO (Conception Assistée par Ordinateur) efficients. De manière générale, la construction de bibliothèques de modèles hiérarchiques, offrant aux concepteurs différentes valeurs du compromis temps de simulation/précision des résultats, est une étape incontournable dans la réalisation de tels outils. Dans le cas de systèmes multidomaines, il est nécessaire de disposer de simulateurs permettant de prendre en cornpte les différentes natures des composants et leurs interactions. VHDL-AMS est un langage à priori capable de répondre à ces besoins. Cette thèse a été réalisée dans le cadre d'un contrat avec le LETI/CEA de Grenoble. L'objectif est de modéliser un lien optoélectronique opérant à 2. 5Gb/s avec un taux d'erreur par bit de 10 puiss. -18 afin d'en évaluer les performances et de l'optimiser.
APA, Harvard, Vancouver, ISO, and other styles
44

Gouret, Wilfried. "Contribution à l'étude des communications courant porteur haut débit pour l'embarqué." Rennes, INSA, 2007. https://tel.archives-ouvertes.fr/tel-00286944.

Full text
Abstract:
L’évolution du nombre de systèmes électroniques dans les véhicules engendre un accroissement des échanges entre les systèmes. Ces faisceaux atteignent des longueurs supérieures à 2 km sur certaines voitures. Pour réduire le nombre de fils, le concept de multiplexage est une solution. Il consiste à faire transiter sur une seule et même ligne de liaison des communications appartenant à plusieurs paires d’équipements. Les solutions à base de protocoles dédiés sont déjà présentes sur les véhicules actuels. Les avantages de telles solutions sont multiples, mais engendrent des disparités sur les protocoles associés. Les communications entre les protocoles nécessitent des interfaces, qui pénalisent les débits et ne sont plus temps réel. Afin de réduire le nombre de câbles, nous nous sommes intéressés à une solution basée sur les techniques dites de courant porteur en ligne. Démontrer la faisabilité d’un tel système sur un véhicule est l’objet de notre contribution au projet PREDIT CCPE
The evolution of the number of electronics systems in the vehicles generates an increase in the exchanges between the systems. These cables reach lengths higher than 2 km on certain cars. To reduce the number of cables, the concept of multiplexing is a solution. It consists in making forward on only one and even flow line of the communications belonging to several pairs of equipment. The solutions containing dedicated protocols are already present on the current vehicles. The advantages of such solutions are multiple, but generate disparities on the associated protocols. The communications between the protocols require interfaces, which penalize the data flows and are not any more real times. In order to reduce the number of cables, we were interested in a solution based on the techniques known as powerline communication. To prove the feasibility of such a system on a vehicle is the object of our contribution of the PREDIT CCPE project
APA, Harvard, Vancouver, ISO, and other styles
45

Frigui, Nejm Eddine. "Maintenance automatique du réseau programmable d'accès optique de très haut débit." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2019. http://www.theses.fr/2019IMTA0127/document.

Full text
Abstract:
Les réseaux optiques passifs (PONs, Passive Optical Networks) représentant l’une des solutions les plus performantes du réseau d’accès FTTH ont été largement déployés par les opérateurs grâce à leur capacité d’offrir des services de très haut débit. Cependant, en raison de la dynamicité du trafic des différents clients, ces réseaux doivent s’appuyer sur un mécanisme efficace pour l’allocation de ressources, plus particulièrement dans le sens montant. Ce mécanisme est actuellement limité par la nature statique des paramètres SLA (Service Level Agreement). Ceci peut avoir une influence négative sur la qualité de service ressentie par les utilisateurs. L’objectif de cette thèse est de proposer une nouvelle architecture pour optimiser l’allocation de ressources dans les réseaux PON tout en agissant uniquement sur les paramètres SLA, désignés comme des paramètres gérables par l’opérateur. Des techniques de classification basées sur l’apprentissage automatique et la prédiction sont utilisées pour analyser le comportement des différents utilisateurs et déterminer leurs tendances de trafic. Un ajustement dynamique sur la base du concept autonomique de certains paramètres SLA est ensuite effectué afin de maximiser la satisfaction globale des clients vis-à-vis du réseau
Passive Optical Network (PON) representing one of the most attractive FTTH access network solutions, have been widely deployed for several years thanks to their ability to offer high speed services. However, due to the dynamicity of users traffic patterns, PONs need to rely on an efficient upstream bandwidth allocation mechanism. This mechanism is currently limited by the static nature of Service Level Agreement (SLA) parameters which can lead to an unoptimized bandwidth allocation in the network. The objective of this thesis is to propose a new management architecture for optimizing the upstream bandwidth allocation in PON while acting only on manageable parameters to allow the involvement of self-decision elements into the network. To achieve this, classification techniques based on machine learning approaches are used to analyze the behavior of PON users and to specify their upstream data transmission tendency. A dynamic adjustment of some SLA parameters is then performed to maximize the overall customers’ satisfaction with the network
APA, Harvard, Vancouver, ISO, and other styles
46

Ric, Audrey Marie Amélie. "Caractérisation d'aptamères par électrophorèse capillaire couplée au séquençage haut-débit Illumina." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30388/document.

Full text
Abstract:
Les aptamères sont des oligomères d'ADN ou d'ARN simple brin qui, en se repliant sous forme de structures tridimensionnelles peuvent avoir des interactions fortes et spécifiques envers un certain nombre de cibles. L'objectif de cette thèse a été de compléter les études existantes sur l'utilisation de l'électrophorèse capillaire (CE) et les aptamères afin de mettre au point une méthode de sélection d'aptamères par CE couplée à la fluorescence induite par laser et le séquençage haut-débit Illumina. Dans un premier temps, nous avons mis au point une méthode de détection et de séparation par électrophorèse capillaire couplée à la double détection UV-LEDIF d'une banque d'ADN en interaction avec une cible : la thrombine. C'est un modèle déjà étudié pour lequel deux aptamères ont fait l'objet de publications. Nous avons utilisé l'aptamère T29 dans le cadre de notre étude car c'est celui qui présente la meilleure affinité. L'électrophorèse capillaire est un puissant outil analytique qui facilite l'efficacité de sélection des aptamères et précise la détermination des paramètres d'interactions. Nous avons ainsi pu déterminer la constante d'affinité KD par CE-UV-LEDIF sur le modèle de base : la thrombine. Par ailleurs, nous montrons également comment l'utilisation du tampon Tris peut dégrader un ADN simple brin en électrophorèse capillaire et nous proposons comme alternative l'utilisation d'un tampon sodium phosphate dibasique qui évite ce phénomène de dégradation. Enfin, nous expliquons la difficulté d'amplification par qPCR et PCR d'un aptamère comme le T29 ayant une structure en G-quadruplex. Nous avons montré que le séquençage haut-débit Illumina nous a permis de trouver une corrélation entre le nombre de molécules séquencées et le nombre de séquences obtenues. L'analyse des séquences obtenues montre une quantité importante (20%) de séquences de T29 qui ne correspondent pas à la séquence de cet aptamère. Cela prouve que les étapes de PCR et de séquençage haut débit pour la détection de G-quadruplex peuvent induire un biais dans l'identification de ces molécules
Aptamers are oligomers of small single-stranded DNA or RNA which can have strong and specific interactions with some targets when they fold into three-dimensional structures. The objective of this thesis was to complete existing studies on the use of capillary electrophoresis in order to develop a method for the selection of aptamers by CE coupled to laser induced fluorescence and Illumina high-throughput sequencing. In a first step, we developed a method of detection and separation by capillary electrophoresis coupled with the double detection UV-LEDIF of a DNA library interacting with a target: thrombin. It is a model already studied and for which two aptamers have been published. We used aptamer T29 as part of our study because it has the best affinity. Capillary Electrophoresis is a powerful analytical tool that facilitates the selection efficiency of aptamers and specifies the determination of the interaction parameters. We thus were able to determine the affinity constant KD by CE-UV-LEDIF on the basic model: thrombin. Moreover, we also show how the use of Tris buffer can degrade single-stranded DNA during capillary electrophoresis and we propose as an alternative the use of a dibasic sodium phosphate buffer which avoids the phenomenon of degradation. Finally, we explain the difficulty of amplification by qPCR and PCR of an aptamer such as T29 with a G-quadruplex structure. We showed that the Illumina high-throughput sequencing allowed us to find a correlation between the number of sequenced molecules and the number of sequences obtained. Analysis of the sequences obtained shows a significant amount (20%) of T29 sequences which do not correspond to the sequence of this aptamer. This shows that the PCR and high-throughput sequencing steps for the detection of G-quadruplex can induce bias in the identification of these molecules
APA, Harvard, Vancouver, ISO, and other styles
47

Benoit, Landry. "Imagerie multimodalité appliquée au phénotypage haut-débit des semences et plantules." Thesis, Angers, 2015. http://www.theses.fr/2015ANGE0084.

Full text
Abstract:
Au cours de ce travail nous avons utilisé les potentialités de différentes modalités d'imagerie, que nous appliquons au domaine du végétal afin de contribuer au phénotypage haut-débit des semences et plantules. Nous nous somme principalement consacré à la recherche de réponses à deux problématiques spécifiques et importantes de ce secteur. Nous commençons par montrer l'applicabilité de l'imagerie en lumière visible inactinique et de l'imagerie thermographique passive pour imager le développement des semences et plantules, un phénomène biologique se déroulant normalement dans le sol et l’obscurité. Nous présentons nos apports à ce type d’imagerie, au travers de nos contributions à la conception et à la réalisation d’un système de vision en imagerie visible inactinique, ayant pour finalité la réalisation de mesures individualisées automatisées sur les semences, les plantules et les organes des plantules. Ce système gère les croisements de plantules, via l'utilisation originale de la diffusion anisotrope, ce qui nous a permis de multiplier, sans perte d'information, les débits par dix. De plus, ce système réalise la séparation des organes au moyen d’un critère générique basé sur le gravitropisme. La validation des algorithmes de traitement d'images du système de vision utilise des voies originales (simulation numérique et test de l'influence de l'incertitude via simulation agronomique). L’imagerie thermographique, qui capte le rayonnement thermique passif des objets, nous permet de visualiser et de mesurer les semences et plantules dans l'obscurité. Elle permet aussi de réaliser la segmentation et le suivi des organes de plantules. Cette technologie d'imagerie nous a aussi permis de montrer la faisabilité d'un dosage non destructif de teneur en sucre des organes de plantules de betterave. Ensuite nous proposons une méthodologie générique permettant la conception de capteurs bas-coût spectralement optimisés, en fonction de tâches applicatives déterminées. Cette méthodologie utilise la théorie de l’information, pour extraire de l’imagerie hyperspectrale, relativement coûteuse, l’information utile à la conception des capteurs dédiés bas-coût. L’intérêt de cette méthodologie pour le phénotypage des plantes est montré et justifie le transfert de celle-ci au monde de la recherche en biologie végétale
Along this work, we have used the potentiality of different modalities of imagery that we apply to the plant domain so as to contribute to the high-throughput phenotyping of seeds and seedlings. We have mainly committed ourselves to the search for answers to two specific and important problematic in this domain. We begin by showing the applicability of visible imaging using an inactinic light and passive thermographic imaging to image the development of seeds and seedlings, a biological phenomenon usually occurring in soil and darkness. We present our contributions to this type of imaging through our contributions to the conception and the realization of a vision system using visible inactinic imaging, whose finality is the realization of individualized automated measurement on the seeds, the seedlings and the organs of the seedlings. This system handle seedling crossing, through the original use of anisotropic diffusion, which allowed us to multiply, without information loss, the output by ten. Furthermore, this system carries out the separation of the organs by means of a generic criterion based on gravitropism. The validation of the image processing algorithms of the vision system use original ways (numerical simulation and test of the influence of the uncertainty through agronomic simulation). Thermographic imaging, which captures the passive heat radiation of objects, allows us to visualize and to measure seeds and seedlings in the darkness. It also allows realizing the segmentation and the tracking of the organs of seedlings. This imaging technology also allowed us to demonstrate the feasibility of a non-destructive determination of sugar quantity in organs of beet seedlings. We then propose a generic methodology that allows the conception of spectrally optimized low-cost sensors, according to determined application tasks. This methodology uses information theory, to extract from, relatively expensive, hyperspectral imaging, the information needed for the conception of the dedicated low-cost sensors. The interest of this methodology for plant phenotyping has been shown and justifies its transfer to the world of research in plant biology
APA, Harvard, Vancouver, ISO, and other styles
48

Hannoun-Lévi, Jean-Michel. "Optimisation de la distribution de dose en curiethérapie de haut débit." Nice, 2008. http://www.theses.fr/2008NICE4060.

Full text
Abstract:
La curiethérapie est une technique d’irradiation qui joue un rôle essentiel dans la prise en charge des cancers. Son principe est basé sur la délivrance d’une forte dose d’irradiation, dans un petit volume en temps court. Pour des raisons de radioprotection civile et militaire, d’optimisation de la dose délivrée au volume cible et aux organes à risque et de la qualité de vie pendant le traitement, la curie thérapie a évolué vers l’utilisation d’un débit de dose élevé associé à des outils informatiques et d’analyse de l’image performants. Notre étude porte sur le développement de la curiethérapie de Haut Débit de Dose dans le cancer du sein, le cancer du col de l’utérus et sur l’impact du gradient de dose sur l’équivalence biologique de la dose délivrée. Nous avons montré que l’optimisation de la dose délivrée permettait une couverture du volume cible significativement meilleure qu’en l’absence d’optimisation. Cette amélioration de couverture se fait au détriment d’une augmentation des volumes d’hyperdose. L’utilisation d’un nouvel Index de Conformité et d’Homogénéité permet d’apprécier la qualité de l’implant. Nous avons développé un nouvel applicateur de curiethérapie gynécologique permettant une meilleure couverture du volume cible sans augmenter la dose aux organes à risque (vessie, rectum). Cet applicateur a été conçu avec la société Nuclétron – Hollande) et un brevet international a été déposé. Le gradient de dose propre à la curiethérapie voit son importance augmenter du fait de l’optimisation de la distribution de la dose. Nous avons intégré le gradient de dose dans le calcul de l’équivalence biologique de la dose délivrée. La Curiethérapie de Haut Débit représente un progrès thérapeutique de première importance. Les outils dosimétriques disponibles basés sur un système d’analyse de l’image et de la détermination des volumes d’intérêt permettent d’envisager l’utilisation de la curiethérapie à plus grande échelle dans un contexte technique et sécuritaire optimal. L’évaluation, la valorisation et l’enseignement de la Curiethérapie de Haut Débit de Dose représentent les prochaines étapes de notre parcours.
APA, Harvard, Vancouver, ISO, and other styles
49

Mumtaz, Sami. "Nouvelles techniques de codage pour les communications optiques à haut-débit." Paris, Télécom ParisTech, 2011. https://pastel.hal.science/pastel-00679068.

Full text
Abstract:
Depuis le développement de l’électronique à très hauts débits, les techniques de traitement du signal ont pris une part essentielle dans les systèmes de communications optiques. Dans cette thèse nous nous intéressons principalement aux techniques de codage du signal. Nous présentons trois nouveaux procédés qui permettent d’améliorer grandement les performances et la complexité des systèmes de transmission optiques à hauts débits. Les techniques proposées couvrent plusieurs domaines : les codes correcteur d’erreur, l’entrelacement des données et le codage espace-temps. Le codage correcteur d’erreurs est utilisé depuis des dizaines d’années dans les systèmes optiques pour assurer des taux d’erreurs extrêmement bas. Les promesses faites par le développement de l’électronique permettent d’envisager une implémentation prochaine de codes de dernière génération, les codes LDPC. Nous proposons une nouvelle construction de code LDPC qui obtient des performances optimales en comparaison aux autres constructions proposées dans la littérature. Dans un second temps, nous présentons une nouvelle technique d’entrelacement qui en générant une structure de donnée très particulière, permet d’améliorer les performances et surtout de réduire très fortement la complexité du décodage des systèmes optiques utilisant un encodage différentiel. Pour finir nous présentons une nouvelle technique de codage basé sur les codes espace-temps. Nous montrons que cette technique permet de lutter très efficacement contre les pertes dépendantes de la polarisation
Since the development of high-speed electronics, digital signal processing has become essential to optical transmission systems. In particular, equalization now allows compensating signal distortions resulting from the propagation in the fiber. In this thesis, we focus on another type of signal processing: the coding techniques. We present three new ideas in order to improve systems performance by reducing either the bit-error rate or the receiver complexity. Forward-error correction has been used for many years in optical transmission systems in order to guarantee very low bit-error rates. With the increase of transmission bit rates, more powerful codes are expected such as low-density parity check (LDPC) codes. We study this new family of codes and show its impressive performance. We also propose a new construction of LDPC code that has optimal performance in comparison to codes proposed in the literature. Then we present a new interleaving scheme for optical transmission systems using differential encoding. Our technique leads to performance improvement and allows a large complexity reduction of the receiver. Finally we present a new coding technique for optical systems, based on space-time coding. We show that polarization dependent loss can be almost entirely suppressed in transmissions systems using polarization division multiplexing
APA, Harvard, Vancouver, ISO, and other styles
50

Alameh, Malak. "Phénotypage à haut débit des variants du canal potassique cardiaque hERG." Electronic Thesis or Diss., Nantes Université, 2024. http://www.theses.fr/2024NANU1023.

Full text
Abstract:
Le syndrome du QT long de type 2 (SQTL2) héréditaire est un trouble du rythme cardiaque, causé par des mutations perte de fonction dans le gène KCNH2, codant pour le canal ionique cardiaque hERG. Aujourd’hui, plus de 3 000 variants du gène KCNH2 sont répertoriés dans la base de données internationale ClinVar, mais la majorité sont classés comme des variants de signification incertaine (Variant of Unknown Significance en anglais VUS), car leur pathogénicité potentielle n’est pas encore déterminée. La reclassification de ces VUS est primordiale pour améliorer le suivi des personnes affectées. Ce projet a porté sur l'étude de variants identifiés dans la base de données française Bamacœur, avec objectif principal, la reclassification rapide des VUS. Nous avons étudié 303 variants au total reporté dans la base Bamacœur, dont 201 VUS, 81 contrôles pathogènes et 21 contrôles bénins. Tous les paramètres biophysiques sont mesurés, l’amplitude du courant, les courbes d’activation et d’inactivation et les cinétiques. Les valeurs de z-score sont utilisées pour déterminer les zones de fonctionnalité normale ou anormale. La reclassification des VUS est rendue possible grâce aux niveaux de preuve élevés de cette étude. Nous avons identifié 149/201 variants VUS dans la zone de fonction normale et 52 variants dans la zone de fonction anormale. De plus, nous avons identifié des anomalies spécifiques à chaque région de la séquence de hERG. Ces données seront utilisées pour créer une base de données intégrant des informations fonctionnelles, cliniques et génétiques, fournissant un outil précieux pour les cliniciens dans le diagnostic et la prévention du LQTS2
Hereditary long QT syndrome type 2 (LQTS2) is a cardiac rhythm disorder caused by loss-of-function mutations in the KCNH2 gene, encoding the Herg cardiac ion channel. Today, over 3,000 variants of the KCNH2 gene are listed in the international ClinVar database, but the majority are classified as Variants of Unknown Significance (VUS), as their potential pathogenicity has yet to be determined. Reclassification of these VUS is essential to improve follow-up of affected individuals. This project focused on the study of variants identified in the French Bamacœur database, with the main aim of rapidly reclassifying VUSs. We studied 303 variants in total, reported in the French database Bamacoeur including 201 VUS, 81 pathogenic controls and 21 benign controls. All biophysical parameters are measured, including current amplitude, activation and inactivation curves and kinetics. Z-score values are used to determine regions of normal or abnormal functionality. The reclassification of VUS is made possible given the high level of evidence in this study. We identified 151/201 VUS variants in the normal function zone and 50 variants in the abnormal function zone. In addition, we identified regionspecific abnormalities in the hERG sequence. These data will be used to create a database integrating functional, clinical and genetic information, providing a valuable tool for clinicians in the diagnosis and prevention of LQTS2
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography