Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Contrôle du débit.

Dissertationen zum Thema „Contrôle du débit“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Contrôle du débit" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Hammi, Rim. „Contrôle actif de transmission de flux vidéo par régulation du débit“. Paris 13, 2002. http://www.theses.fr/2002PA132024.

Der volle Inhalt der Quelle
Annotation:
La vidéo temps réel sur ordinateur est devenue une réalité aujourd'hui. Nous pouvons recevoir à partir d'un micro-ordinateur de bureau un concert à distance, un match de football en direct, nous pouvons aussi participer, dans le cadre d'une visioconférence, à un séminaire ou à une réunion de travail. Les logiciels de visioconférence sur l'Internet sont maintenant d'usage courant. L'amélioration des normes de compression encourage aussi la distribution de la vidéo sur IP. Cependant, la transmission des flux vidéo temps-réel sur l'Internet présente des contraintes de temps que ne subit pas le simple échange de fichier. Les contraintes de temps qui caractérisent les applications vidéo imposent une politique de contrôle et de signalisation particulière pour résoudre les problèmes de transmission IP ainsi que pour adapter en temps réel la communication aux variations de ressources. Nous avons exploré, dans cette thèse, les possibilités que les réseaux actifs offrent pour introduire un nouveau concept de contrôle actif par régulation du débit vidéo par le réseau. Les travaux présentés ont un objectif double. Le premier est de proposer des solutions aux problèmes de transmission d'un flux vidéo temps réel à travers l'Internet Best-Effort. Le second est de montrer les apports et les fonctionnalités d'une nouvelle technologie dite réseau actif. Le réseau, dans notre approche, surveille à l'aide des statistiques de transmission (délai, gigue, taux de pertes et débit) des paquets vidéo prises par les routeurs actifs, la communication et réagit aux variations de flux au plus vite, dans le but d'éviter une dégradation brusque de la qualité perçue provoquée par les pertes de données. Les routeurs du réseau envoient directement et périodiquement au codeur vidéo la valeur du débit dont le réseau dispose instantanément pour son flux. Cette valeur est calculée à l'aide d'un algorithme de compensation basé sur la théorie de l'automatique. Ce dernier a été implanté au niveau des noeuds actifs pour calculer, à l'aide des statistiques de transmission des paquets vidéo, le débit disponible dans le réseau pour la communication vidéo.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Hrarti, Miryem. „Optimisation du contrôle de débit de H. 264/AVC basée sur une nouvelle modélisation Débit-Quantification et une allocation sélective de bits“. Poitiers, 2011. http://nuxeo.edel.univ-poitiers.fr/nuxeo/site/esupversions/181e500b-af8c-42a0-b134-b1ce33fd4c56.

Der volle Inhalt der Quelle
Annotation:
Cette thèse se focalise sur l'optimisation de l'algorithme du contrôle de débit du standard H. 264/AVC. Cet algorithme constitué de deux parties fondamentales : allocation de bits et détermination du paramètre de quantification (QP), ne présente pas les meilleures performances et loin d’être optimal. Ainsi, nous avons proposé de nouvelles techniques permettant de déterminer de manière plus appropriée le QP et d'allouer finement le budget de bits tout en intégrant des propriétés du système visuel humain. Pour une meilleure estimation du QP, deux modèles Débit-Quantification (R-Q) sont proposés. Le premier modèle conçu pour les trames Intra, est un modèle non-linéaire utilisé pour déterminer de manière optimale le QP initial en exploitant la relation entre le débit cible et la complexité des trames Intra. Le second modèle logarithmique, est conçu pour les unités de codage Inter. Outre ses performances, ce modèle se substitue aux deux modèles utilisés par le contrôleur de débit de H. 264/AVC, et offre ainsi une réduction de la complexité calculatoire. L'allocation de bits au niveau trame du profil de base de H. 264/AVC reste basique car elle alloue équitablement le nombre de bits aux unités Inter indépendamment de leur complexité. Pour une allocation plus fine, deux mesures de complexité sont exploitées. La première est un rapport de mouvement déterminé à partir de bits réels utilisés pour coder les trames précédentes. La seconde mesure exploite la différence entre trames adjacentes et l'histogramme de cette différence. Enfin, et pour mieux contrôler la qualité, une carte de saillance est intégrée au processus d'allocation de bits. Au niveau trame, elle est utilisée pour réajuster le QP et attribuer plus de bits aux trames contenant plus de régions saillantes qui sont plus importantes. Au niveau macrobloc, la carte de saillance est exploitée pour répartir efficacement le nombre de bits entre les macroblocs d'une même trame. Cette répartition par "région" d'intérêt permet d'améliorer la qualité visuelle de la trame. Les nombreuses simulations effectuées montrent que chacun des modèles proposés, quand il est comparé avec deux algorithmes (JM15. 0 et JVT-O016), apporte des améliorations qui sont significatives aussi bien au niveau du débit moyen que du PSNR moyen. Une qualité plus consistante et donc un lissage de qualité à travers les trames est également observé
The explosion of multimedia applications is largely due to the efficiency of the compression techniques used. H. 264/AVC, also known as MPEG-4 Part 10 is the newest video coding standard. It is more effective than previous standards (MPEG1, MPEG2, part 4, H26x…) and achieves significant compression gains. As for other standards, the rate control is a key element of H. 264/AVC because it helps to regulate the visual quality of the reconstructed sequence while respecting the bandwidth constraints imposed by the channel transmission. In accordance with the specified target bit-rate, the rate control algorithm determines appropriately the quantization parameters. Basically, a first Rate-Quantization function elaborates a relationship between the rate and the quantization parameter (QP). A second function called Distortion-Quantization estimates the distortion (or quality) of the reconstructed video based on the used quantization parameter. These two functions lead together to a relationship (usually quadratic) between the quantization parameter, the target number of bits and the basic unit (Frame, Slice, macroblock or set of macroblocks) statistics. These functions have been the subject of several studies. The models that have been adopted and therefore recommended by the group standardization, do not generally offer better performances and they are far from optimal. This thesis is in this context. Its main objective is to develop and design new techniques to improve the performance of the rate control algorithm and those of the H. 264/AVC standard. These techniques are based on both a detailed analysis of the major current limitations and a wide literature review. Our purpose is to provide a more appropriate determination of the quantization parameter, a selective bit allocation that integrates Human Visual System properties and enhances the reconstructed video quality. To determine accurately the quantization parameter, two Rate-Quantization models (R-Q) have been proposed. The first model designed for Intra-Frames, is a non-linear one. It is used to determine the optimal initial quantization parameter, while exploiting the relationship between the target bit-rate and the complexity of Intra-Frames. The second model is a logarithmic one and it is designed for Inter coding units. It replaces the two models used by the H. 264/AVC rate controller and reduces the computational complexity. The frame layer bit allocation of the H. 264/AVC baseline profile remains basic. It assumes that GOPs (Groups Of Pictures) have similar characteristics and the target number of bits are fairly allocated to coding units regardless of their complexity. For a more accurate bit allocation, a new model has been proposed including two complexity measures. The first is a motion ratio determined from the actual bits used to encode the previous frames. The second measure uses the difference between adjacent frames and the histogram of this difference. Finally, to better control the visual quality of the reconstructed video, a saliency map is included into the bit allocation process. The saliency map generated by a bottom-up approach, simulates the human visual attention. It has been used to adjust the quantization parameter at frame layer. This adjustment allows the assignment of more bits to frames containing more salient regions (supposed to be more important than others). At macroblock layer, the saliency map is exploited to efficiently allocate the number of bits among the macroblocks of the same frame. This bit repartition by ''region'' of interest improves the visual quality of the frame. Experimental simulations show that the proposed models, when compared with two recent algorithms of rate control (JVT-O016 and JM15. 0), improve significantly the coding performances in terms of average bit-rates and PSNR. More consistent quality and therefore a quality smoothness through frames is also observed
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Ruiz, Marta. „Contrôle actif de la perte par transmission d'une plaque par minimisation du débit volumique“. Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape4/PQDD_0031/MQ67324.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Ruiz, Marta. „Contrôle actif de la perte par transmission d'une plaque par minimisation du débit volumique“. Mémoire, Université de Sherbrooke, 2000. http://savoirs.usherbrooke.ca/handle/11143/1121.

Der volle Inhalt der Quelle
Annotation:
Le mémoire de maîtrise présenté ici porte sur l'étude du contrôle de la perte par transmission d'une plaque rectangulaire. Il s'agit d'un contrôle actif réalisé à l'aide d'actuateurs en céramique piezoélectrique. L'étude a, dans un premier temps, permis d'évaluer les paramètres qui sont impliqués dans le contrôle actif utilisé. Les rôles divers que ces paramètres jouent dans le processus de contrôle de la perte par transmission ont été analysés grâce à une simulation informatique. Des valeurs numériques pour ces paramètres ont alors pu être extraites et ont servis à mettre en oeuvre, dans un deuxième temps, l'expérimentation de ce contrôle. Cette dernière a fait l'objet de deux sessions. La première session a pu être effectuée à l'Université de Sherbrooke (Québec) sous la direction du professeur Alain Berry et la collaboration de François Charrette. Elle a consisté dans la mise au point de la plaque et de ses divers capteurs ainsi que dans sa caractérisation (analyse modale). La deuxième session a eu lieu au Vibrations and Acoustics Laboratory (Blacksburg, Virginie) sous la direction de Catherine Guigou. Cette seconde partie de l'expérimentation a permis l'étude proprement dite du contrôle de la perte par transmission de la plaque placée dans une chambre de transmission. Le mémoire qui suit est présenté dans l'ordre chronologique dans lequel l'étude a été faite, c'est-à-dire, la théorie suivie de l'expérience permettant de la valider. Comme le montrent les graphiques du quatrième chapitre, une bonne performance de la méthode utilisée sur le contrôle des vibrations transmises par la plaque a été obtenue malgré des conditions expérimentales relativement simples. Ce résultat permet d'espérer que le futur pourrait bénéficier d'un monde plus silencieux.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Jiang, Shengming. „Techniques de contrôle d'accès à haut débit basées sur l'ATM pour les applications multimédia“. Versailles-St Quentin en Yvelines, 1995. http://www.theses.fr/1995VERS0001.

Der volle Inhalt der Quelle
Annotation:
Le protocole de contrôle d'accès au canal (en anglais mac pour meduim access control) à haut débit, qui doit être capable de garantir la qualité de service (en anglais qos pour quality of service) et d'offrir les débits demandés par les services multimédias, est indispensable pour la nouvelle génération de réseaux locaux et de réseaux métropolitains à support partagé. En même temps, celui-ci doit être compatible au rnis-lb (réseau numérique à intégration de services large bande) qui est basé sur la technique temporelle asynchrone (en anglais atm pour asynchronous transfer mode), pour faciliter l'interconnexion des réseaux entre eux. Les protocoles mac dans les réseaux existants sont destines à supporter, aux débits bas ou moyens, les applications de données sensibles aux pertes mais pas au délai. Les débits demandés par les services multimédias varient de débit bas jusqu'à des débits très hauts. Par conséquent, les protocoles mac ne peuvent pas convenir simultanément à la transmission des trafics multimédias sensibles aux pertes et au délai. Cette thèse est consacrée au développement d'un protocole mac qui peut satisfaire toutes les exigences des services multimédias. Plus précisément, à partir d'une étude sur les caractéristiques du trafic multimédia, nous analysons plusieurs protocoles mac très connus et nous examinerons des techniques de contrôle d'accès au canal, utilisées par des protocoles mac. Nous améliorons l'efficacité du réseau dqdb et nous proposons un nouveau protocole mac pour répondre aux problèmes rencontres. Enfin, nous discuterons des problèmes relatifs à la couche mac au niveau de l'implémentation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Nicoletti, Nathalie. „Contrôle dimensionnel par vision : Une application à des pièces découpées sur presses à grand débit“. Besançon, 1988. http://www.theses.fr/1988BESA2036.

Der volle Inhalt der Quelle
Annotation:
Automatisation du controle de qualite par vision. Les pieces sont positionnees par un mecanisme a quatre barres. Les traitements d'image permettent d'obtenir des resolutions superieures aux precisions des cameras
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Omnès, Nathalie. „Analyse d'outils de contrôle de la qualité de service dans les réseaux de paquets haut débit“. Rennes 1, 2001. http://www.theses.fr/2001REN10134.

Der volle Inhalt der Quelle
Annotation:
Dans un réseau de télécommunication, les flux correspondant aux applications ayant des contraintes temporelles sont appelés flux rigides. Il faut leur garantir un faible délai de traversée, et parfois les resynchroniser avant de les remettre à l'application. Nous étudions dans la partie B les pertes de paquets induites par cette resynchronisation. Nous y déterminons une borne pour la proportion moyenne de perte. Un contrôleur espaceur permet d'estimer les besoins d'un tel flux. Nous étudions son dimensionnement dans la partie C. Nous établissons une borne pour la probabilité de perte au niveau cellule. Enfin, les flux élastiques peuvent s'adapter aux ressources instantanément disponibles. Nous définissons dans la partie D un protocole distribué qui gère dynamiquement l'allocation du débit à un tel flux. Nous développons un modèle de ce protocole grâce aux réseaux de Petri stochastiques. L'analyse stationnaire est menée via l'étude d'un processus régénératif de Markov.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

German, Yolla. „L'imagerie cellulaire à haut débit révèle le contrôle de la synapse immunologique par le cytosquelette d'actine“. Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30015.

Der volle Inhalt der Quelle
Annotation:
Les lymphocytes cytotoxiques dépendent du remodelage du cytosquelette d'actine pour atteindre leur fonction. En particulier, les lymphocytes T cytotoxiques et les cellules NK assemblent la synapse immunologique (SI), structure complexe riche en actine qui permet l'interaction avec des cellules cibles et la distribution polarisée de granules lytiques (GL). Bien que le remodelage du cytosquelette d'actine soit connu pour être une force motrice de l'assemblage et de la dynamique de la SI, la compréhension du contrôle moléculaire du remodelage de l'actine soutenant la dynamique de la SI reste fragmentée. Ce projet de thèse a consisté à développer une approche d'imagerie à haut débit pour définir de manière impartiale les métriques de la SI des lymphocytes T et NK et caractériser les exigences d'intégrité du cytosquelette d'actine dans l'organisation de l'architecture de la SI.À cette fin, la stimulation et coloration des lignées cellulaires et cellules primaires dans des plaques à puits multiples et l'acquisition d'un ensemble unique d'images confocales avec un imageur à haut contenu entièrement automatisé ont été optimisées. Les images ont été analysées avec deux pipelines complémentaires avec CellProfiler pour définir les caractéristiques morphologiques associées aux différents traitements et à l'état de la maladie. Nous avons d'abord extrait 16 caractéristiques morphologiques se rapportant à la F-actine, LFA-1 ou aux GL, sur la base d'une connaissance préalable de l'assemblage de la SI, et inclus des caractéristiques relatives au noyau. Nous montrons que l'assemblage de la SI dans les lignées est caractérisé par une augmentation de l'intensité de la F-actine et la surface cellulaire. Pour les cellules Jurkat, nous rapportons une augmentation de l'intensité et de la surface LFA-1, et de la de la détection des LG sur le plan SI pour les cellules NK-92. Le traitement des cellules NK-92 avec 7 drogues affectant différents aspects de la dynamique de l'actine et l’étude des effets associés sur les caractéristiques de la SI montrent des effets dépendants de la concentration sur l'intensité de l’actine et sur la polarisation des GL. De plus, un profilage morphologique à haute résolution basé sur> 300 caractéristiques montre que chaque drogue inflige des altérations distinctes sur la morphologie de la SI. Nous avons appliqué ce pipeline à des cellules NK primaires isolées du sang de donneurs sains. Des caractéristiques morphologiques distinctes définissent les cellules NK de différents donneurs, soulignant la sensibilité de notre approche, mais révélant également une variabilité insoupçonnée des morphologies des cellules immunitaires parmi les donneurs. Nous avons appliqué notre approche aux cellules T CD8+ primaires de patients présentant une immunodéficience rare due à des mutations dans le gène codant pour le régulateur d'actine ARPC1B. La carence en ARPC1B entraîne une diminution de l'intensité de l'actine et de la polarisation des GL. Cela nous a incités à évaluer la capacité lytique de ces cellules, qui a été considérablement réduite. Ces résultats illustrent comment l'analyse systématique de la SI pourrait être utilisée pour aider à l'exploration des défauts fonctionnels des populations de lymphocytes dans des contextes pathologiques.En conclusion, notre étude révèle que, bien que l'assemblage de la SI puisse être caractérisé par quelques caractéristiques telles que l'intensité de l'actine et la propagation cellulaire, la capture de fines altérations résultant de la dérégulation du cytosquelette nécessite une analyse à haut débit. Le pipeline développé est prometteur pour le profilage morphologique des lymphocytes de patients atteints d'immunodéficiences primaires dont le défaut génétique n'a pas encore été identifié. De plus, le pouvoir discriminant de notre approche pourrait être exploité pour caractériser la réponse des lymphocytes à divers stimuli et surveiller leur activation dans de multiples pathologies et traitements
Cytotoxic lymphocytes rely on actin cytoskeleton remodeling to achieve their function. In particular cytotoxic T lymphocytes and NK cells assemble the immunological synapse (IS), a complex actin-rich structure that allows the interaction with target cells, such as infected cells or tumor cells, and permits the polarized delivery of lytic granules. Although actin cytoskeleton remodeling is known to be a driving force of IS assembly and dynamics, our understanding of the molecular control of actin remodeling sustaining IS dynamics remains fragmented. This PhD project consisted in developing a high-content imaging approach to unbiasedly define the metrics of IS from human T and NK lymphocytes and to characterize the requirements for actin cytoskeleton integrity in organizing the IS architecture.For that purpose, the stimulation and staining of cell lines and primary cells in multiwell plates and acquisition of a unique set of >100.000 confocal images with a fully automatized high-content imager was optimized. The images were analyzed with two complementary CellProfiler analytical pipelines to characterize the morphological features associated with different treatments and disease status. We first extracted 16 morphological features pertaining to F-actin, LFA-1 or lytic molecules based on prior knowledge of IS assembly, and included features pertaining to the nucleus. We show that IS assembly in Jurkat and NK-92 cells is characterized by increased F-actin intensity and cell area. For Jurkat cells, we report an increase in LFA-1 intensity and surface area, and for NK-92 cells an increase in lytic granule detection at the IS plane. We then treated NK-92 cells with seven drugs known to affect different aspects of actin dynamics and investigated the associated effects on IS features. We report concentration dependent effects, not only on F-actin intensity, as expected, but also on lytic granule polarization. Furthermore, using a high-resolution morphological profiling based on >300 features, we show that each drug inflicts distinct alterations of IS morphology. In a next step, we applied our experimental pipeline to primary NK cells isolated from the blood of healthy donors. Distinct morphological features were characterized among the NK cells from different donors, highlighting the sensitivity of our approach, but also revealing an unsuspected variability of immune cell morphologies among donors. We then further applied our approach to primary CD8+ T cells from patients with a rare immunodeficiency due to mutations in the gene encoding the actin regulator ARPC1B. ARPC1B deficiency results in decreased F-actin intensity, as well as in lytic granule polarization. This prompted us to assess the ability of these cells to kill target cells, which was markedly reduced. These results illustrate how the systematic analysis of the IS might be used to assist the exploration of fonctional defects of lymphocyte populations in pathological settings. In conclusion, our study reveals that although assembly of the IS can be characterized by a few features such as F-actin intensity and cell spreading, capturing fine alterations of that complex structure that arise from cytoskeleton dysregulation requires a high-content analysis. The pipeline we developed through this project holds promises for the morphological profiling of lymphocytes from primary immunodeficiency patients whose genetic defect has not yet been identified. Moreover, the discriminative power of our high-content approach could be exploited to characterize the response of lymphocytes to various stimuli and to monitor lymphocyte activation in multiple immune-related pathologies and treatment settings
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Khalifé, Hicham. „Techniques de contrôle pour réseaux sans fils multi-sauts“. Paris 6, 2008. http://www.theses.fr/2008PA066458.

Der volle Inhalt der Quelle
Annotation:
Nous proposons dans cette thèse trois nouvelles techniques de contrôle spécialement développées pour améliorer le débit observé par un utilisateur final dans un réseau sans fil multi-sauts. Nous présentons d’abord un modèle mathématique qui permet d’évaluer les pertes dues au terminal caché. Ce modèle est ensuite exploité pour présenter une solution au niveau de la couche MAC permettant d’améliorer le débit des connexions TCP. La deuxième technique tente d’exploiter les propriétés de diffusion du canal radio. En effet, HbH, utilise le fait que chaque transmission sans fil peut être entendue par les noeuds à proximité, pour détecter la panne d’un noeud voisin. Avec HbH, chaque noeud et après la transmission d’un message procède à une écoute du canal afin de savoir si son voisin a retransmis le paquet avant que le premier ne prenne la décision de le jeter. HbH peut être utilisé pour détecter la disparition de noeuds voisins due à la mobilité par exemple. Finalement, nous nous intéressons aux réseaux radios cognitifs. Dans ce nouveau, des problèmes de base restent encore non résolus. Une première technique de contrôle envisageable consiste à présenter des mécanismes de routage capables d’établir un chemin de bout en bout tout en tenant compte de l’instabilité de ces réseaux. Pour ces raisons, nous proposons MPP, un algorithme de routage spécialement conçu pour les réseaux radios cognitifs multi-sauts. Notre protocole établit un chemin et un ensemble de canaux radios à utiliser entre un nœud source et une destination en se basant sur des calculs probabilistes qui prennent en compte l’emplacement et l’activité des noeuds primaires plus prioritaires sur les canaux en questions.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Harb, Hassan. „Conception du décodeur NB-LDPC à débit ultra-élevé“. Thesis, Lorient, 2018. http://www.theses.fr/2018LORIS504/document.

Der volle Inhalt der Quelle
Annotation:
Les codes correcteurs d’erreurs Non-Binaires Low Density Parity Check (NB-LDPC) sont connus pour avoir de meilleure performance que les codes LDPC binaires. Toutefois, la complexité de décodage des codes non-binaires est bien supérieure à celle des codes binaires. L’objectif de cette thèse est de proposer de nouveaux algorithmes et de nouvelles architectures matérielles de code NB-LDPC pour le décodage des NBLDPC. La première contribution de cette thèse consiste à réduire la complexité du nœud de parité en triant en amont ses messages d’entrées. Ce tri initial permet de rendre certains états très improbables et le matériel requis pour les traiter peut tout simplement être supprimé. Cette suppression se traduit directement par une réduction de la complexité du décodeur NB-LDPC, et ce, sans affecter significativement les performances de décodage. Un modèle d’architecture, appelée "architecture hybride" qui combine deux algorithmes de l’état de l’art ("l’Extended Min Sum" et le "Syndrome Based") a été proposé afin d’exploiter au maximum le pré-tri. La thèse propose aussi de nouvelles méthodes pour traiter les nœuds de variable dans le contexte d’une architecture pré-tri. Différents exemples d’implémentations sont donnés pour des codes NB-LDPC sur GF(64) et GF(256). En particulier, une architecture très efficace de décodeur pour un code de rendement 5/6 sur GF(64) est présentée. Cette architecture se caractérise par une architecture de check node nœud de parité entièrement parallèle. Enfin, une problématique récurrente dans les architectures NB-LDPC, qui est la recherche des P minimums parmi une liste de taille Ns, est abordée. La thèse propose une architecture originale appelée first-then-second minimum pour une implantation efficace de cette tâche
The Non-Binary Low Density Parity Check (NB-LDPC) codes constitutes an interesting category of error correction codes, and are well known to outperform their binary counterparts. However, their non-binary nature makes their decoding process of higher complexity. This PhD thesis aims at proposing new decoding algorithms for NB-LDPC codes that will be shaping the resultant hardware architectures expected to be of low complexity and high throughput rate. The first contribution of this thesis is to reduce the complexity of the Check Node (CN) by minimizing the number of messages being processed. This is done thanks to a pre-sorting process that sorts the messages intending to enter the CN based on their reliability values, where the less likely messages will be omitted and consequently their dedicated hardware part will be simply removed. This reliability-based sorting enabling the processing of only the highly reliable messages induces a high reduction of the hardware complexity of the NB-LDPC decoder. Clearly, this hardware reduction must come at no significant performance degradation. A new Hybrid architectural CN model (H-CN) combining two state-of-the-art algorithms - Forward-Backward CN (FB-CN) and Syndrome Based CN (SB-CN) - has been proposed. This hybrid model permits to effectively exploit the advantages of pre-sorting. This thesis proposes also new methods to perform the Variable Node (VN) processing in the context of pre-sorting-based architecture. Different examples of implementation of NB-LDPC codes defined over GF(64) and GF(256) are presented. For decoder to run faster, it must become parallel. From this perspective, we have proposed a new efficient parallel decoder architecture for a 5/6 rate NB-LDPC code defined over GF(64). This architecture is characterized by its fully parallel CN architecture receiving all the input messages in only one clock cycle. The proposed new methodology of parallel implementation of NB-LDPC decoders constitutes a new vein in the hardware conception of ultra-high throughput rate decoders. Finally, since the NB-LDPC decoders requires the implementation of a sorting function to extract P minimum values among a list of size Ns, a chapter is dedicated to this problematic where an original architecture called First-Then-Second-Extrema-Selection (FTSES) has been proposed
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Brochu, Francis. „Amélioration du contrôle de qualité de produits sanguins utilisant la spectrométrie de masse à haut-débit et l'apprentissage automatique“. Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/29875.

Der volle Inhalt der Quelle
Annotation:
Ce mémoire décrit plusieurs travaux concernant le traitement de données et l’analyse de spectres de masse à haut débit. La spectrométrie de masse est une méthode connue de mesure chimique. Appliquée à des échantillons biologiques, la spectrométrie de masse devient alors une technique de mesure métabolomique, c’est-à-dire mesurant l’ensemble des métabolites de l’échantillon, soit les petites molécules composant le fluide biologique et qui interagissent avec le métabolisme. Le projet présenté ici est effectué en partenariat avec Héma-Québec afin de concevoir de nouveaux tests de contrôle de qualité à partir de spectrométrie de masse. L’application de la technologie de la source LDTD à la spectrométrie de masse permet d’acquérir des spectres à haut-débit. Cela représente un bénéfice au coût de l’acquisition des spectres ainsi qu’à la rapidité du processus. On peut ainsi obtenir de grandes quantités de spectres afin de construire des ensembles de données. On peut ensuite appliquer le domaine informatique de l’apprentissage automatique à ces données. On peut utiliser ce domaine afin de classifier les spectres d’échantillons de produits sanguins et fournir des garanties statistiques sur cette classification. L’utilisation d’algorithmes parcimonieux et interprétables peut aussi mener à la découverte de biomarqueurs. Les travaux présentés ici concernent la conception de deux méthodes de traitement des spectres de masse. La première méthode est la correction par masses de verrouillage virtuelles, utilisée pour corriger les biais de mesure uniformes. La seconde est une méthode d’alignement, qui est un outil de correction d’erreurs de lecture. De plus, une nouvelle méthode à noyau, soit une méthode mathématique de comparaison entre des exemples, fut mise au point spécifiquement pour le travail avec des spectres de masse. Finalement, des résultats de classification sur spectres de masse acquis par LDTD et par spectrométrie de masse avec chromatographie liquide sont présentés.
This memoir describes work concerning the treatment and analysis of high-throughput mass spectrometry. Mass spectrometry is a tried and tested method of chemical measurement in a sample. Applied to biological samples, mass spectrometry becomes a metabolomic measurement technique, meaning that it measures the metabolites contained in a sample, which are small molecules present in the biological fluid that interact with the individual’s metabolism. The project that is presented here is a partnership with Hema-Québec in order to conceive new quality control tests from mass spectrometry measurements. The application of the LDTD ionisation source in mass spectrometry makes the acquisition of spectra in high-throughput possible. This represents a large benefit in terms of experimental costs and in time. Large datasets of mass spectra can then be obtained in a short period of time. The computer science domain of machine learning can then be applied to this data. Statistical machine learning can then be used to classify the spectra of blood product samples and provide statistical guarantees on this classification. The use of sparse and interpretable machine learning algorithms can also lead to the discovery of biomarkers. The work presented in this memoir concerns the design of two methods of treatment of mass spectra. The first of these methods is the correction by virtual lock masses, used to correct any uniform shift in the masses in a spectra. The second is a new method of peak alignment used to correct slight measuring errors. In addition, a new kernel method, a method to mathematically compare examples, was designed specifically for application on mass spectra data. Finally, results of classification on mass spectra acquired with an LDTD ionisation source and by liquid chromatography mass spectrometry will be presented.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Croville, Guillaume. „Séquençage et PCR à haut débit : application à la détection et la caractérisation d'agents pathogènes respiratoires aviaires et au contrôle de pureté microbiologique des vaccins“. Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEP028/document.

Der volle Inhalt der Quelle
Annotation:
La capacité de détection des agents pathogènes est un enjeu croissant tant les maladies infectieuses représentent un risque pour la santé animale et humaine. La globalisation des échanges commerciaux et des voyages, l’évolution des pratiques agricoles, les changements climatiques ou encore les migrations de masse sont autant de facteurs bouleversant la biologie des micro-organismes et de fait, leurs capacités d’émergence. Ce manuscrit décrit trois approches complémentaires, basées sur trois techniques innovantes de biologie moléculaire pour la détection d’agents pathogènes et appliquées à trois contextes différents : (i) la recherche d’une liste précise de micro-organismes par PCR quantitative en temps réel en format microfluidique, (ii) la détection sans a priori d’agents infectieux dans un milieu complexe par métagénomique et séquençage Illumina (Miseq) et (iii) le génotypage d’un agent infectieux sans amplification préalable des génomes par NGS (Nouvelles Générations de séquençage) de troisième génération, le MinION d’Oxford Nanopore Technologies. Ces trois études ont permis de montrer l’apport de ces techniques, qui présentent toutes des caractéristiques distinctes, adaptées à différentes applications. Au-delà de l’application de ces techniques au domaine du diagnostic microbiologique, leur utilisation dans le cadre du contrôle des médicaments immunologiques vétérinaires est une perspective prioritaire de ce travail. En effet, les préparations vaccinales vétérinaires sont soumises à l’obligation de recherche d’une liste d’agents pathogènes à exclure mais également à la vérification de l’identité génétique des souches vaccinales. L’accessibilité et les performances exponentielles des nouvelles technologies de PCR et de séquençage ouvrent ainsi des perspectives révolutionnaires dans le domaine du diagnostic et du contrôle microbiologique
Detection of pathogens becomes an increasing challenge, since infectious diseases represent major risks for both human and animal health. Globalization of trade and travels, evolution of farming practices and global climatic changes, as well as mass migrations are impacting the biology of pathogens and their emerging potential. This manuscript describes three approaches, based on three innovative technologies of molecular biology applied to the detection of pathogens in three different settings : (i) detection of a list of pathogens using real-time quantitative PCR on a microfluidic platform, (ii) unbiased detection of pathogens in complex matrix, using metagenomics and Illumina (Miseq) sequencing and (iii) genotyping of pathogens without isolation of PCR-enrichment using a 3rd generation NGS (Next Generation Sequencing) platform MinION from Oxford Nanopore Technologies. The three studies shown the contribution of these techniques, each representing distinctive features, suitable for the respective applications. Beyond application of these techniques to the field of microbial diagnostics, their use for the control of veterinary immunological drugs is a priority of this project. Veterinary vaccines are not only submitted to mandatory detection of listed pathogens to be excluded, but also to validation of the genetic identity of vaccine strains. The exponential availability and performances of new PCR or sequencing technologies open cutting-edge perspectives in the field of microbial diagnostic and control
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Slimani, Hicham. „Protocoles coopératifs pour réseaux sans fil“. Phd thesis, Toulouse, INPT, 2013. http://oatao.univ-toulouse.fr/10309/1/slimani.pdf.

Der volle Inhalt der Quelle
Annotation:
La technique MIMO (Multiple-Input Multiple-Output) est l’une des techniques de base qui offre une diversité spatiale. Elle associe plusieurs antennes à l’émission et à la réception. En plus de la diversité spatiale, le système MIMO permet d’augmenter le gain de multiplexage sans avoir besoin de plus de bande passante ou de puissance d’émission. Cependant, la technique MIMO a des limites liées au coût d’installation de plusieurs antennes sur un terminal, et a l’écart minimal exigé entre les antennes. La communication coopérative a été proposée comme une technologie alternative, dans laquelle la diversité spatiale peut être réalisée en coordonnant plusieurs nœuds qui sont proches géographiquement pour former des réseaux d’antennes virtuelles. La coopération permet de lutter contre l’instabilité du canal radio et de faire face aux phénomènes qui le perturbent comme les évanouissements, les bruits, ou les interférences. Elle permet aussi d’améliorer les performances du système en termes de débit global, d’énergie consommée et d’interférences, etc. Dans le cadre des communications coopératives, nous avons proposé deux protocoles MAC coopératifs dans le contexte des réseaux ad hoc. La première proposition est le protocole RACT (Rate Adaptation with Cooperative Transmission). Ce protocole combine la coopération avec un mécanisme d’adaptation de débit. Lorsqu’un lien entre une source et une destination subit de mauvaises conditions de canal, une station relais est sélectionnée dans le voisinage des deux nœuds de sorte que la liaison directe à faible débit de transmission soit remplacée par un lien à deux sauts avec un débit de données plus élevé. La sélection du meilleur relais est fondée sur un processus de contention distribué. La procédure ne nécessite aucune connaissance de la topologie et aucune communication entre les relais potentiels. Lorsque la qualité de la liaison directe est bonne et que la transmission coopérative n’est pas nécessaire, le protocole fonctionne comme un mécanisme d’adaptation de débit. L’adaptation de débit de données est également réalisée sans aucune signalisation supplémentaire. La sélection du meilleur relais et l’adaptation de débit sont fondés sur des mesures instantanées du canal pour s’adapter aux conditions dynamiques du canal radio. Dans le but d’améliorer davantage les performances du système, nous avons proposé notre deuxième protocole MAC coopératif PRACT (Power and Rate Adaptation with Cooperative Transmission). Ce protocole combine un mécanisme d’adaptation de puissance et de débit (TPRC : Transmit Power and Rate Control) avec un mécanisme de coopération. C’est en cela que cette contribution se distingue des solutions proposées dans la littérature. Notre objectif avec cette contribution est d’atteindre une efficacité d’énergie pour la transmission des données tout en augmentant le débit global du réseau. PRACT propose d’ajuster dynamiquement la puissance et le débit de transmission en s’adaptant aux variations de la qualité du canal radio. Cela permet de gagner davantage dans l’énergie économisée. En outre, le contrôle de puissance, réduit les interférences et augmente la réutilisation spatiale entre cellules ad hoc adjacentes en utilisant la même fréquence de transmission. L’idée de base du protocole est de permettre à chaque nœud dans le réseau ad hoc de créer une table avec les combinaisons puissance-débit optimales, en se fondant seulement sur les spécifications de la carte réseau, à savoir, les débits de transmission possible et la consommation en énergie de la carte. Avec la connaissance des qualités des liens obtenue grâce à l’échange des trames de contrôle et en recherchant dans la table puissance-débit, les nœuds choisissent la stratégie de transmission la plus adaptée pour chaque transmission de trames de données, ainsi que le mode de transmission (direct ou coopératif).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Larrieu, Nicolas. „Contrôle de congestion et gestion du trafic à partir de mesures pour l'optimisation de la qualité de service dans l'Internet“. Toulouse, INSA, 2005. http://www.theses.fr/2005ISAT0007.

Der volle Inhalt der Quelle
Annotation:
La métrologie n'est appliquée dans la recherche, l'ingénierie et la conception des réseaux Internet que depuis peu de temps (le début des années 2000), mais cette approche est de plus en plus populaire et devrait tendre à se généraliser. Ses principes consistent à étudier, caractériser, analyser et modéliser le trafic existant sur les liens de l'Internet, afin de comprendre les principes qui régissent le comportement du réseau par rapport à un trafic qui s'avère méconnu. En particulier, garantir la QdS (Qualité de Service) dans l'Internet est un problème essentiel aujourd'hui. L'objectif de cette thèse est de trouver des protocoles de transport qui réduisent la LRD du trafic afin d'optimiser l'utilisation des ressources de communication. Ainsi, ce travail de thèse présente une nouvelle approche pour l'Internet, dont l'objectif est d'améliorer la gestion du trafic, la QdS et plus généralement, les services réseaux. Cette approche, appelée MBN (Measurement Based Networking), repose principalement sur l'utilisation de techniques de métrologie actives et passives qui permettent de mesurer en temps réel différents paramètres du réseau et de son trafic pour ainsi réagir très rapidement et très précisément à des évènements spécifiques se produisant dans le réseau (apparition de congestion par exemple). Nous illustrerons en particulier l'approche MBN au travers du développement d'un mécanisme de contrôle de congestion orienté mesures intitulé MBCC (Measurement Based Congestion Control) et nous l'évaluerons au travers de simulations NS-2 pour montre, en particulier, comment ce nouveau mécanisme permet d'améliorer les caractéristiques du trafic ainsi que la QdS dans l'Internet
Internet monitoring has only been used for research, engineering and design of Internet networks since few years (since the beginning of years 2000), but it is more and more popular and spreads rapidly. It deals with studying, characterizing, analyzing and modeling traffic on the different Internet links in order to understand network behaviors when facing traffics which are largely unknown at this time. In particular, guarantying QoS for the Internet is currently one of the most challenging issues. This thesis aims at designing new communication protocols and architectures able to reduce the traffic LRD in order to optimize the use of communication resources. Then, new protocol and architectural mechanisms could be perfectly suited to users’ needs and traffic constraints. Thus, this PhD work deals with a new approach for the Internet, aiming at improving traffic management, QoS and more generally network services. This approach, called Measurement Based Networking (MBN), is built on the use of active and passive monitoring techniques to evaluate in real time different network parameters and analyze its traffic in order to react very quickly and accurately to specific events arising in the network (for instance, congestion events). We will illustrate, in particular, the MBN approach by designing a new measurement based congestion control mechanism (MBCC) which will be evaluated thanks to NS-2 simulations. We will show, in particular, how this new mechanism can improve traffic characteristics as well as Internet QoS, despite the complexity and variability of current Internet traffics
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Batchati, Pinalessa. „Étude d'une distribution hydraulique pilotée par P. W. M. Et modélisation et contrôle de débit d'une pompe à cylindrée variable pilotée par microprocesseur“. Compiègne, 1994. http://www.theses.fr/1994COMPD702.

Der volle Inhalt der Quelle
Annotation:
Ce travail traite d'une part de la modélisation et la commande d'une distribution hydraulique pilotée en M. L. I. (Modulation en Largeur d'Impulsions) de son application dans un asservissement de position de vérin hydraulique et d'autre part de la modélisation et la commande de débit d'une pompe à cylindrée variable. Après la caractérisation générale de ladite distribution, une modélisation approfondie des différents phénomènes régissant son fonctionnement a été abordée. Les simulations dans le domaine temporel du modèle fortement non linéaire établi, ont permis d'en arriver à la corrélation et l'influence des diverses variables. La technique de linéarisation autour du point de fonctionnement a été introduite pour l'établissement des fonctions de transfert de la distribution en vue de la commande. La faisabilité du contrôle avec cette distribution étant démontrée, la structure de 2 distributeurs a été retenue pour la réalisation et l'étude de l'asservissement de position de vérin hydraulique dont la bande passante est de 2 à 3 Hz. Les structures de correction numérique approchées par une compensation statique des non linéarités suivie d'une compensation dynamique ont permis d'obtenir une bande passante de 5 Hz. La recherche des champs d'application de cette distribution nous a conduit à entreprendre la modélisation d'une pompe à cylindrée variable dont le mécanisme de variation d'angle du plateau est piloté par une servodistribution. La démarche de modélisation identique à celle de la distribution à permis d'établir un modèle dynamique servant de support pour la réalisation et l'étude de l'asservissement de position de plateau de pompe. Malgré le cout économique moindre de cette distribution, ses diverses non linéarités n'autorisent pas son implantation sur ce type de pompe (boucle fermée de bande passante : 8 Hz. ).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Azzam, Tarik. „Aérodynamique et contrôle de l'écoulement de jeu dans un ventilateur axial obtenu par rotomoulage“. Thesis, Paris, ENSAM, 2018. http://www.theses.fr/2018ENAM0080/document.

Der volle Inhalt der Quelle
Annotation:
Aujourd’hui, la fabrication des turbomachines est conditionnée par des normes de plus en plus restrictives. L'enjeu industriel pour les chercheurs est d'envisager des solutions optimales visant à réduire les sources de perte d'énergie, d'instabilité et du bruit, en particulier l'écoulement de jeu (débit de fuite). Des actions préliminaires ont été élaborées à Arts & Métiers ParisTech sur le rotomoulage du ventilateur axial de refroidissement d'automobile. L'idée de ce travail est d'utiliser la forme creuse induite par le rotomoulage afin de l'exploiter dans le controle de l'écoulement de jeu radial par soufflage rotatif. Pour cela, la virole comporte des trous d'injection orientés de façon à réduire simultanément le débit de fuite et le couple. Dans ce travail, trois parties ont été traité. La première concerne la réalisation du ventilateur par rotomoulage. La deuxième concerne l'étude expérimentale menée dans le banc d'essai ISO 5801. Cette étude comporte la réalisation d'un montage dédié au contrôle par soufflage rotatif, la métrologie menée pour la détermination des performances globales et la caractérisation de la vitesse axiale du sillage proche. La troisième partie traite la modélisation numérique des conditions expérimentales rentables ensuite l'extrapolation du travail vers des taux d'injection importants. Pour ce dernier, on arrive à annuler le débit de fuite avec un gain considérable du couple mettant ainsi le ventilateur en autorotation
Nowadays, the manufacture of turbomachinery is conditioned by more and more restrictive rules. The industrial challenge for researchers has to consider optimal solutions to reduce sources of energy loss, instability and noise, particularly the tip clearance flow (leakage flow rate). Preliminary actions have been developed at Arts & ParisTech on rotational molding process used for the automobile cooling axial fan. The idea of this work is to use the hollow shape induced by rotational molding process in order to exploit it in the control of tip clearance flow through rotary steady air injection. For this, the shroud ring is composed of injection holes oriented in such away to reduce both of leakage flow rate and the torque. In this work, the thesis focuses on three parts. The first concerns the build of the fan by rotational molding process. The second concerns the experimental study carried out in the ISO 5801 test bench. This study involves the realization of drive system dedicated to rotary steady air injection, metrology for performance determination and the characterization of the near wake axial velocity. The third part deals with the numerical modeling of efficient experimental conditions, then the extrapolation of work towards high injection rates. For this latter, it is possible to cancel leakage flow rate with a considerable gain of the torque thus putting the fan in autorotation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Guillier, Romaric. „Méthodologies et Outils pour l'évaluation des Protocoles de Transport dans le contexte des réseaux très haut débit“. Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2009. http://tel.archives-ouvertes.fr/tel-00529664.

Der volle Inhalt der Quelle
Annotation:
Au cours des vingt dernières années, c'est une évolution très rapide non seulement en termes de nombre d'éléments inter-connectés mais surtout en termes de capacités des liens qui a pu être constatée au sein des réseaux de communications. A la création du réseau ARPANET en 1969, il y a plus de quarante ans, quatre ordinateurs, tous situés aux États-Unis étaient connectés avec des liens avec un débit de 50 kilobits par seconde. En 1986, à la création du réseau des universités américaines, le NSFNET, le nombre de machines dépassait déjà plusieurs milliers mais le débit des liens de coeur était encore de 56 kilobits par seconde. A partir de ce moment, la croissance à la fois en termes de nombre d'éléments inter-connectés et de capacités des liens a été exponentielle, grâce au succès de nouvelles applications populaires comme le WWW ou les avancées technologiques comme SDH, SONET ou DWDM dans le domaine des réseaux de fibres optiques et ATM et les protocoles DSL qui en dérivent. L'Internet actuel interconnecte des milliards d'utilisateurs (un demi-milliard de machines fin 2006) répartis partout dans le monde, pouvant utiliser des liens de coeur dont les débits cumulés sont supérieurs à plusieurs Térabits par seconde et dont les liens d'accès peuvent atteindre jusqu'à 10 Gigabits par seconde. Une autre évolution technologique fondamentale est que, aujourd'hui, certains liens d'accès ont des débits du même ordre de grandeur que les débits des liens de coeur auxquels ils sont connectés. Il est aujourd'hui courant de trouver des fermes de serveurs où les noeuds sont interconnectés avec des liens à 1 Gbps ou 10 Gbps et qui ont une connexion vers l'extérieur avec un débit similaire. Cette modification est importante car désormais quelques connexions suffisent à provoquer une saturation des liens de coeur. Cette situation risque d'empirer au fur et à mesure du remplacement des technologies DSL par la Fibre-Jusqu'à-La-Maison (FTTH). Des connexions à 5 Mbps agrégées sur des liens OC48 (2.5 Gbps) vont alors être remplacées par des connexions à 100 Mbps, voire 1 Gbps, agrégées sur des liens à 10 Gbps, voire moins suivant la technologie optique utilisée sur le réseau d'accès. Il est fort probable que dans de tels environnements des niveaux de congestion élevés ne soient pas rares, engendrant des perturbations pour de nombreuses applications. Un grand nombre d'applications prometteuses ont émergé et pourraient bénéficier de capacités de communication accrues, comme par exemple la Vidéo-à-la-Demande (VoD) qui permet aux utilisateurs de regarder des films en haute définition chez eux quand ils le désirent ou les expériences scientifiques générant des quantités massives de données (comme le LHC) qui doivent être acheminées dans des centres de calcul répartis tout autour du globe. L'interaction d'utilisateurs avec des objets distants via un réseau de communication ou Téléprésence commence également à prendre un rôle prépondérant dans de nombreux domaines allant du médical au militaire en passant par l'exploration spatiale. Mais ces applications sont encore construites au dessus de logiciels ou de protocoles à succès comme TCP et IP, conçus il y a longtemps pour un contexte de réseaux bas-débit. Le conception était dirigé par un but principal: fournir une interconnexion robuste entre des réseaux existants. Plongés maintenant dans un contexte de réseaux très haut-débit, ces protocoles extrêmement robustes et capables de passer à l'échelle sont toujours en activité mais commencent à montrer leurs limites en termes de performance, sécurité, fonctionnalités et flexibilité. L'exemple le plus typique est TCP au niveau de la couche de transport. TCP a été conçu comme un protocole ``à tout faire'' mais à mesure que la capacité des liens augmente dans les réseaux fixes, que les caractéristiques intrinsèques changent pour les réseaux sans fils et que les besoins des applications divergent, TCP n'est plus capable de permettre une utilisation performante pour tous des capacités nominales des liens du réseau. De nombreuses solutions ont été proposées, mais les concepteurs de protocoles d'aujourd'hui ont un large désavantage par rapport à ceux d'il y a quarante ans. Faire fonctionner ensemble quatre machines identiques n'est pas exactement pareil que concevoir un logiciel de communication ou protocole susceptible d'être utilisé entre des milliards de machines hétérogènes. Apporter du changement dans un système d'une telle ampleur est problématique: il n'est pas possible d'envisager une migration massive du jour au lendemain surtout si des équipements physiques sont concernés. Le changement ne peut être que graduel et via des mises à jour logicielles dans les hôtes d'extrémité. La peur d'un effondrement de l'Internet dû à la congestion comme à la fin des années 80 resurgit. Causés par une surabondance de trafic réseau sur des liens saturés, ces troubles ont mis en avant la nécessité d'introduire un mécanisme de contrôle de congestion dans les protocoles de transport. Si les nouvelles solutions introduites se comportent de façon égoïste quand elles partagent une ressource commune (un lien), alors cette peur est fondée. Il est donc nécessaire de fournir des moyens de vérifier si une solution donnée possède les propriétés adéquates avant de l'introduire dans un système partagé à très large échelle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Burel, Catherine. „Le contrôle de la digestion anaérobie des eaux usées : signification des différents paramètres de la méthanisation : choix du débit de biogaz comme indicateur de fonctionnement“. Compiègne, 1986. http://www.theses.fr/1986COMPI229.

Der volle Inhalt der Quelle
Annotation:
Ayant étudié le processus biologique de méthanisation, il a paru nécessaire, dans une optique de mise en place industrielle, d'optimiser ses performances et sa conduite : — en choisissant un protocole de conduite des installations efficace, — en maintenant un taux de biomasse important dans le réacteur (procédés intensifs), — en évitant tout déséquilibre de ce processus fermentaire, par un suivi attentif des paramètres de contrôle de la fermentation. Ces deux derniers points sont importants, en raison du faible taux de croissance des bactéries méthanigènes ; un lessivage ou un mauvais état de cette biomasse a pour conséquence redémarrage difficile de la fermentation. Il reste que la méthanisation est actuellement utilisée comme technique de traitement biologique de certains rejets et déchets agricoles ou industriels. L’utilisateur recherche le traitement de ses déchets au moindre coût, il souhaite une automatisation de l'installation. Le contrôle d'un fermenteur de méthanisation se heurte principalement aux problèmes de coût et d’automatisation des capteurs (problème d’encrassement par exemple). Cette étude a pour objectifs : — de faire le point sur les paramètres de la méthanisation, en les définissant, en étudiant leur signification, leur importance et leur mesure, — de proposer des paramètres de suivi nécessaires et suffisants pour le contrôle d'un digesteur, en précisant les qualités et limites du contrôle choisi. Nous nous intéresserons à un paramètre « d’alerte », de mesure simple et si possible automatisable, permettant de détecter assez rapidement les accidents de fermentation la nature et l’importance de l’accident ne seront pas pour autant déterminés. Le suivi du digesteur est donc peu précis mais relativement efficace et surtout simple à manier. Les moyens utilisés pour mener à bien cette étude ont été : — une recherche bibliographique, — le suivi d'un pilote de méthanisation, sur une durée d’environ une année (Janvier 1984 - Janvier 1985) le réacteur était de taille semi-industrielle (1. 37 M3) et d'un système complet de mesure. Les points étudiés dans ce rapport sont les suivants — recherche bibliographique. Le processus et les procédés de méthanisation ont été décrits. Les paramètres qui caractérisent le système de méthanisation et ceux qui contrôlent son bon fonctionnement ont été passés en revue et définis minutieusement. Il a été fait une étude cinétique et stoëchiométrique de cette fermentation, permettant une approche vers la modélisation. Des exemples d’accidents de fermentation ont été décrits, quelques propositions de conduite et de suivi d'un fermenteur de méthanisation ont été détaillées. — description du matériel et des méthodes analytiques utilisées lors de nos essais. Un point important concerne la mesure de certains paramètres de suivi : PH, débit de gaz, analyse du gaz, rendement D. C. O. (totale et soluble), A,G,V„ etc. . . , et leurs possibles automatisations. — exploitation des résultats des essais. Nous avons analysé l’évolution de certains paramètres de suivi précédemment cités. Le débit de gaz semble rendre compte, avec un temps de réponse court et de façon très nette, de l’évolution de la charge entrante d’alimentation du digesteur. La mesure de ce paramètre est relativement aisée, son automatisation possible, ce qui ne semble pas le cas pour la mesure des A. G. V. . . Ces constatations ont été appuyées par l’examen de données bibliographiques. L’étude stoëchiométrique et cinétique du processus de méthanisation nous a alors suggéré d’étudier sur ces points d’équilibre (pas d’inhibition de l’activité bactérienne), pour une biomasse adaptée au substrat, les corrélations suivantes : M3 gaz x M-3 DIG x J-1 = f (kg DCO entrée x M—3 DIG x J—1) - M3 CH4 x = fn (kg DCO éliminée x J—1). Nous avons étudié les conditions d’existence de ces corrélations, sur nos résultats et à partir de données de la littérature (traitements d'un effluent de sucrerie à Thumeries par la société S. G. N. D'un effluent de laiterie sur filtre par la société Degrémont, de boues à Achères, etc…). Notre démarche a ensuite été la suivante : — à partir des régressions présentant des valeurs de i2 correctes (r2 >0. 6), calcul d'une zone de confiance de la corrélation linéaire, — étude des points d’accidents de la fermentation et calcul de la probabilité, pour ces points, de se situer en dehors de la zone de confiance, — proposition d'un protocole d' alerte du fonctionnement du digesteur, basé sur le paramètre production de gaz et la connaissance de la zone de confiance de la corrélation correspondante, établie à partir des résultats des essais. Nous avons, en conclusion, établi les limites et les avantages d'une telle proposition de suivi d'un digesteur.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Sarazin, Alexis. „Analyse bioinformatique du contrôle des éléments transposables par les siARN chez Arabidopsis thaliana“. Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112258/document.

Der volle Inhalt der Quelle
Annotation:
De nombreux mécanismes contrôlent et limitent la prolifération des éléments transposables (ET) dans les génomes dont ils menacent l'intégrité structurale et fonctionnelle. Chez les plantes l'interférence ARN (ARNi) joue un rôle important dans ces contrôles via des petits ARN d'environ 20nt qui guident la régulation de l'expression de séquences endogènes ou exogènes par deux types de mécanismes. Un premier mécanisme, partagé par de nombreux organismes eucaryotes, inhibe l'activité d'ARNm par un contrôle post-transcriptionnel. Un deuxième type de régulation, permet un contrôle transcriptionnel de l'activité des ET via un mécanisme appelé RNA directed DNA Methylation (RdDM) qui implique des siARN (« short-interfering RNA ») de 24nt qui guident la méthylation de l'ADN spécifiquement au niveau des séquences d'ET. Les siARN sont impliqués également dans la restauration progressive de la méthylation de l'ADN après une perte induite par la mutation du gène DDM1 (Decrease in DNA Methylation 1). L'objectif de cette thèse est de tirer avantage des technologies de séquençage à haut débit pour caractériser le contrôle des ET par les siARN chez la plante modèle Arabidopsis thaliana.Dans un premier temps, j'ai développé des méthodes et outils bioinformatiques afin de gérer efficacement les données de séquençage à haut débit de banques de petit ARN. Ces outils, regroupés en pipeline, visent à permettre l'étude de l'accumulation des siARN correspondant aux séquences d'ET ou de familles d'ET ainsi que leur visualisation de manière globale ou détaillée.Ces outils ont ensuite été appliqués pour caractériser, dans un contexte sauvage, l'association entre les siARN et les ET afin de déterminer des facteurs pouvant expliquer les différences d'abondance en siARN observées. Ces analyses, réalisées en tenant compte de l'état de méthylation de l'ADN et du contexte génomique des ET apportent une vue statique du contrôle des ET par les siARN et de leur impact sur les gènes situés à proximité.L'analyse de banques de petits ARN de mutants de la voie de l'ARNi a ensuite été réalisée afin mieux caractériser l'impact de la perte de méthylation de l'ADN sur les populations de siARN et notamment définir les mécanismes impliqués dans la production des siARN de 21nt induite dans le mutant ddm1. Ces analyses comparatives du contrôle des ET lors d'une perte de la méthylation de l'ADN ont permis de mettre en évidence une production de siARN de 24nt indépendante de la voie classique du RdDM et de proposer un modèle permettant d'expliquer la production de siARN de 21nt dans le mutant ddm1.Dans un dernier temps, j'ai cherché à mieux définir l'implication des siARN dans la restauration des états de méthylation de l'ADN. Les variations de méthylation de l'ADN induites par la mutation ddm1 ont été caractérisées ainsi que leur stabilité transgénérationnelle au sein d'une population d'epiRIL. La stabilité de l'hypométhylation de l'ADN a été étudiée, au regard de données de séquençage à haut débit de banques de petits ARN de lignées WT, ddm1 ainsi que pour 4 lignées epiRIL, afin d'apporter une notion temporelle à l'étude du contrôle des ET par les siARN.Les résultats soulignent le rôle majeur des petits ARN pour le contrôle des éléments transposables afin de préserver l'intégrité structurale et fonctionnelle du génome et ce, via des mécanismes variés en fonction des ET. Ce travail ouvre la voie vers une analyse du contrôle des ET par les siARN basée sur une approche regroupant les ET en réseaux en fonction des séquences de siARN qu'ils partagent. Cela permettrait d'étudier les « connections-siARN » entre ET afin de, par exemple, explorer l'action en trans des siARN pour la restauration de la méthylation de l'ADN
Many mechanisms control and limit the proliferation of transposable elements (TEs) which could otherwise threaten the structural and functional integrity of the genome. In plants RNA interference (RNAi) plays an important role in this control through small RNAs that guide the expression regulation of endogenous or exogenous sequences by two types of mechanisms. The first such mechanism, shared by many eukaryotic organisms, acts at the post-transcriptionnal level to inhibit the activity of mRNA. A second type of regulation allows the transcriptional control of TEs activity through a mechanism called RNA directed DNA methylation (RdDM) which involves 24nt long siRNA ("short-interfering RNA") that guide DNA methylation specifically on TEs sequences. Furthermore, siRNAs are also involved in the progressive restoration of DNA methylation after a loss induced by mutation of the DDM1 gene (Decrease in DNA Methylation 1). The aim of this thesis is to take advantage of high-throughput sequencing technologies to characterize these TEs controls mechanisms by siRNA in the model plant Arabidopsis thaliana .At first, I developed methods and bioinformatics tools to effectively manage data produced by high-throughput sequencing of small RNA libraries. These tools, combined in a pipeline, are designed to allow the study the accumulation of siRNA corresponding to TE sequences or TE families as well as their global or detailed visualization.These tools were applied to characterize, in a wild type background, the association between siRNA and TEs in order to define factors that may explain the observed differences in siRNA abundance . These analyses were performed by taking into account both DNA methylation states and genomic context. It provides a static view of siRNA control of TEs and their impact on nearby genes. Then, analysis of small RNA libraries from mutants of the RNAi pathway was performed to better characterize the impact of DNA methylation loss on siRNA populations and to define the mechanisms involved in the production of 21nt siRNA induced in the ddm1 mutant. These comparative analyses of the TE control after loss of DNA methylation allow us to highlight the production of 24nt siRNA independently of the classical RdDM pathway and to propose a model explaining the production of 21nt siRNA in the ddm1 mutant. At last, I tried to clarify the involvement of siRNA in the restoration of DNA methylation. Changes in DNA methylation induced by ddm1 mutation were characterized as well as their transgenerational stability in an epiRIL population. The stability of DNA hypomethylation has been studied in relation to high-throughput sequencing of small RNAs data from WT, ddm1 and 4 epiRIL lines. It provides a temporal view of the TE control by siRNA. The results highlight the important role of small RNAs in the control of transposable elements in order to preserve structural and functional integrity of the genome through a variety of mechanisms depending on TE sequences. This work opens the way to the analysis of the siRNA control on TEs based on approaches that combine TEs in networks based on their shared siRNA sequences. It would allow to study "siRNA-connections" between TEs in order to explore, for example, the action in trans of siRNA in the restoration of DNA methylation defect
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Lopez, Pacheco Dino Martín. „Propositions pour une version robuste et inter-operable d' eXpliciit Control Protocol dans des réseaux hétérogènes à haut débit“. Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2008. http://tel.archives-ouvertes.fr/tel-00295072.

Der volle Inhalt der Quelle
Annotation:
Les protocoles de contrôle de congestion ont pour but d'autoriser un partage équitable des ressources entre les utilisateurs et d'éviter la congestion dans les réseaux de communications. Dans cette thèse, nous avons commencé par comparer la performance des différents protocoles dans des modèles de réseaux qui intègrent la notion de variation de bande passante produit par l'agrégation/désagrégation des flux ainsi que la présence des mécanismes fournissant de la Qualité du Service.

Ainsi, nous avons montré que ce sont les protocoles basés sur l'assistance de routeurs fournissant aux émetteurs un taux d'émission explicite (``Explicit Rate Notification'' - ERN) partagent mieux les ressources du réseaux entre les utilisateurs et évitent mieux la congestion que les protocoles de bout-en-bout (comme les protocoles basés sur TCP). Cependant, l'absence d'inter-opérabilité des protocoles ERN avec les routeurs non-ERN (par exemple, les routeurs DropTail) et les protocoles de congestion de bout-en-bout (comme TCP), empêche leur mise en place dans les réseaux actuels.

Pour résoudre les problèmes d'inter-opérabilité des protocoles ERN avec des routeurs non-ERN, nous avons proposé des stratégies et des mécanismes capables de détecter les groupes des routeurs non-ERN entre deux routeurs ERN, d'estimer la bande passante minimale disponible à l'intérieur de ces groupes, et de créer des routeurs virtuels qui remplacent chaque groupe de routeurs non-ERN par un routeur ERN.

Nous avons également proposé un système d'équité intra-protocolaire entre les protocoles ERN et les protocoles de bout-en-bout. Avec notre solution, les routeurs ERN dans une première étape estiment les besoins en terme de bande passante des flux ERN et non-ERN puis, dans une deuxième étape, limitent le débit des flux non-ERN en rejetant leurs paquets avec une probabilité qui dépend des résultats de la première étape.

Le succès des protocoles ERN est basé sur l'information de rétroalimentation, calculée par les routeurs, et renvoyée par les récepteurs aux émetteurs. Nous avons montré que les protocoles ERN deviennent instables face aux pertes de l'information de rétroalimentation dans des environnements hétérogènes et à bande passante variable. Dans ce cadre là, nous avons proposé une nouvelle architecture qui améliore la robustesse des protocoles ERN, ainsi que la réactivité des émetteurs.

Toutes nos propositions, applicables sur d'autres protocoles ERN, ont été expérimentées et validées sur le protocole eXplicit Control Protocol (XCP). Ainsi, nous avons montré que nos solutions surmontent les défis concernant les problèmes d'inter-opérabilité des protocoles ERN dans un grand nombre des scénarios et de topologies.

De cette façon, nous avons développé les bases pour bénéficier d'un protocole ERN capable d'être déployé dans des réseaux hétérogènes à grand produit bande passante - délai où le transfert de grande quantité des données est nécessaire, tels que les réseaux de grilles (ex. GÉANT).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Pampouille, Eva. „Analyse haut-débit du déterminisme de défauts musculaires impactant la qualité de la viande chez le poulet“. Thesis, Tours, 2019. http://www.theses.fr/2019TOUR4010.

Der volle Inhalt der Quelle
Annotation:
L’objectif de la thèse est de préciser les mécanismes génétiques et biologiques mis en jeu dans l’apparition des défauts musculaires de type white striping (WS) et wooden breast (WB) chez le poulet de chair. La deuxième année a consisté à réaliser une caractérisation moléculaire fine des défauts au sein d’un génotype sélectionné par Hubbard sur la croissance et le rendement en filet, et significativement affecté par les deux types de défauts. Pour ce faire, une analyse protéomique de muscles visuellement sains, sévèrement atteints de WS, de WB ou des deux défauts a été mise en œuvre pour les protéines sarcoplasmiques principalement impliquées dans le métabolisme énergétique. 40 protéines différentielles ont été identifiées entre les muscles sains et ceux atteins des deux défauts, mettant en évidence deux voies métaboliques principales liées au stress oxydant et au repliement protéique. Afin de progresser dans la compréhension des modifications structurales et des acteurs moléculaires impliqués dans ces physiopathologies musculaires, nous avons mis en œuvre des études histologiques et une analyse transcriptomique sur des muscles issus d’animaux à Croissance Lente (CL) et des muscles issus d’animaux à Croissance Rapide et visuellement Indemnes de défauts (I-CR), ou atteints de WS (WS-CR), de WB (WB-CR) ou des deux défauts à la fois (WSWB-CR). Grâce à différents co-marquages, nous avons pu mettre en évidence une augmentation marquée du collagène en présence du WB et du tissu adipeux en présence de WS. De nombreuses lésions sont observées en cas de WB (associé ou non au WS). La mise en place d’un début de fibrose et l’existence de lésions chez les animaux à croissance rapide visuellement indemnes de défauts (I-CR) par rapport à la souche à croissance lente (CL) illustrent les modifications histologiques associées à la sélection pour une plus forte croissance musculaire et qui s’amplifient en présence des défauts. Au niveau moléculaire, une première approche deux à deux a permis d’identifier les sondes différentiellement exprimées entre les groupes CL, I-CR et WSWB-CR. Les 10482 gènes différentiellement exprimés dans au moins une des trois comparaisons et ayant les mêmes profils d’expression entre les groupes ont été regroupés en clusters. L’analyse fonctionnelle de ces clusters, grâce à une annotation de Gene Ontology (GO), montre une activation du métabolisme du collagène ainsi qu’un développement de structures de type embryonnaire dans les muscles atteints de WS et WB. Ces observations moléculaires sont cohérentes avec les observations histologiques montrant une extension du tissu conjonctif et des phénomènes de régénération des fibres musculaires dans les muscles atteints de défauts. Les biomarqueurs géniques identifiés lors de la première année de thèse ont également été mesurés par RT-PCR quantitative afin d’évaluer leur intérêt dans de nouvelles populations génétiques et valider l’analyse transcriptomique. Les objectifs de la dernière année de thèse sont de : - Finaliser la caractérisation histologique des défauts et l’analyse transcriptomique avant de rédiger la publication associée. - Mettre en œuvre les méthodologies de détection de QTL acquises lors de la première année de thèse pour préciser les marqueurs génétiques du WS et WB et optimiser la sélection contre ces défauts au sein d’une souche d’intérêt pour l’entreprise. Rédiger le manuscrit de thèse. Les objectifs de la deuxième année ayant été atteints (ponctués par la publication d’un premier article et la rédaction en cours d’un second), et la programmation de la dernière année étant bien définie, sauf souci majeur, la thèse sera soutenue dans les délais impartis
Poultry industry is facing muscular defects which that impair chicken meat quality. Genetic and genomic studies were carried out in addition to histological measuremnets to better understand the etiology of these defects and to contribute to the development of new indicators useful for diagnosis and selection. Studies focused on two complementary genetic models : 1) two divergent chicken lines selectied on breast meat ultimate pH and 2) a line with strong muscular development more severely affected by the defects, qwhich was studied in comparison with a slow-growing strain free from lesions. The thesis helped to describe the metabolic and structural changes observed in case of severe myopathies. It also led to the identification of the first QTL regions controlling muscular defects in chicken and to the establishment of a set of genes correlated with histological measurements of myopathies that will serve after validation as tool for selection and breeding
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Morlot, Thomas. „La gestion dynamique des relations hauteur-débit des stations d'hydrométrie et le calcul des incertitudes associées : un indicateur de gestion, de qualité et de suivi des points de mesure“. Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENU029/document.

Der volle Inhalt der Quelle
Annotation:
Pour répondre à trois enjeux principaux que sont la sûreté des installations, le respect d'exigences règlementaires et l'optimisation des moyens de production, EDF-DTG a développé un réseau d'observations qui comprend les paramètres climatiques tels que la température de l'air, les précipitations et l'enneigement, mais aussi le débit des rivières. Les données collectées permettent la surveillance en « temps réel » des cours d'eau ainsi que la réalisation d'études hydrologiques quantitatives ou de dimensionnement qui nécessitent de disposer de séries patrimoniales de références. Assurer la qualité des données de débits est donc un enjeu de première importance. On ne mesure pourtant pas en continu le débit d'un cours d'eau car les dispositifs à mettre en œuvre restent onéreux et difficilement techniquement réalisable. Le plus souvent, c'est à partir de mesures en continu du niveau des rivières que l'on déduit le débit de ces dernières. Des mesures ponctuelles de débits appelées « jaugeages » permettent de caler un modèle hauteur-débit nommé « courbe de tarage ». Ce sont les équipements installés sur les rivières pour la mesure des niveaux qui sont dénommés « station d'hydrométrie ». Force est de constater que l'ensemble de ce processus constitue une manière indirecte de détermination du débit dont le niveau d'incertitude mérite d'être décrit. À chacune des valeurs de débit produites peut être associé un intervalle de confiance qui tient compte des incertitudes de chacune des étapes. La rapidité de variation de la relation hauteur-débit rend souvent difficile le suivi en temps réel du débit alors que les besoins de la surveillance temps réel des ouvrages imposent une bonne fiabilité des données en continu. Or, en ce qui concerne les stations les moins stables, la méthode historique pour produire la courbe de tarage qui repose sur une construction à partir d'un nombre suffisant de jaugeages chronologiquement contigus et bien répartis sur la plus grande gamme possible reste mal adaptée aux changements rapides ou cycliques de la relation hauteur-débit. Elle ne prend pas assez en compte les phénomènes d'érosion et de sédimentation rapides ainsi que la croissance saisonnière d'herbiers car la capacité à réaliser des jaugeages par les équipes de gestion reste en général assez limitée. Ainsi, pour améliorer la qualité et la fiabilité des données de débits, ces travaux de thèse explorent une méthode de tracé dynamique des courbes de tarage et un calcul des incertitudes associées. Une gestion dynamique de la courbe de tarage est créée de sorte que chaque jaugeage donne lieu au tracé d'une nouvelle courbe de tarage. Après le tracé, un modèle d'incertitudes est construit autour de chaque courbe de tarage. Il prend en compte les incertitudes des jaugeages, les erreurs sur la mesure de hauteur d'eau, la sensibilité de la relation hauteur-débit et l'incertitude sur le tracé lui-même. Une approche variographique est utilisée pour faire vieillir les jaugeages et les courbes de tarage afin d'obtenir un intervalle de confiance augmentant avec le temps, et se réactualisant à chaque nouveau jaugeage puisque ce dernier donne lieu au tracé d'une nouvelle courbe de tarage, plus fiable car plus récente pour l'estimation des débits à venir. Des chroniques de débit sont enfin obtenues de façon homogène et avec un intervalle de confiance prenant en compte le vieillissement des courbes générées. En prenant mieux en compte la variabilité des conditions d'écoulement et la vie des stations, la méthode créée et son modèle d'incertitudes permet de construire des outils de gestion et d'optimisation d'exploitation des points de mesure. Elle répond à des questions récurrentes en hydrométrie comme : « Combien de jaugeages faut-il réaliser en une année pour produire des données de débit avec une incertitude moyenne de X% ? » et « Quand et dans quelle gamme de débit réaliser ces jaugeages ? »
Dealer or owner operator of electricity production structures, EDF is responsible for their operation in safe condition and for the respect of the limits imposed by the regulations. Thus, the knowledge of water resources is one of EDF main concerns since the company remains preoccupied about the proper use of its facilities. The knowledge of streamflow is one of its priorities to better respond to three key issues that are plant safety, compliance with regulatory requirements, and optimizing the means of production. To meet these needs, EDF-DTG (Division Technique Générale) operates an observation network that includes both climatic parameters such as air and temperature, then the precipitations and the snow, but also the streamflow. The data collected allows real time monitoring of rivers, as well as hydrological studies and the sizing of structures. Ensuring the quality of the stream flow data is a priority. Up to now it is not possible to measure continuously the flow of a river since direct measurements of discharge are time consuming and expensive. In common cases the flow of a river can be deduced from continuous measurements of water level. Punctual measurements of discharge called gaugings allow to develop a stage-discharge relationship named rating curve. These are permanently installed equipment on rivers for measuring levels that are called hydrometric station. It is clear that the whole process constitutes an indirect way of estimating the discharge in rivers whose associated uncertainties need to be described. Quantification of confidence intervals is however not the only problem of the hydrometer. Fast changes in the stage-discharge relationship often make the streamflow real time monitoring quite difficult while the needs of continuous high reliability data is obvious. The historical method to produce the rating curve based on a construction from a suffcient number of gaugings chronologically contiguous and well distributed over the widest possible range of discharge remains poorly adapted to fast or cyclical changes of the stage-discharge relationship. The classical method does not take suffciently into account the erosion and sedimentation processes as well as the seasonal vegetation growth. Besides, the ability to perform gaugings by management teams generally remains quite limited. To get the most accurate streamflow data and to improve their reliability, this thesis explores an original dynamic method to compute rating curves based on historical gaugings from a hydrometric station while calculating the associated uncertainties. First, a dynamic rating curve assessment is created in order to compute a rating curve for each gauging of a considered hydrometric station. After the tracing, a model of uncertainty is built around each computed rating curve. It takes into account the uncertainty of gaugings, but also the uncertainty in the measurment of the water height, the sensitivity of the stage discharge relationship and the quality of the tracing. A variographic analysis is used to age the gaugings and the rating curves and obtain a final confidence interval increasing with time, and actualizing at each new gauging since it gives rise to a new rating curve more reliable because more recent for the prediction of discharge to come. Chronological series of streamflow data are the obtained homogeneously and with a confidence interval that takes into consideration the aging of the rating curves. By taking into account the variability of the flow conditions and the life of the hydrometric station, the method can answer important questions in the field of hydrometry such as « How many gauging a year have to be made so as to produce stream flow data with an average uncertainty of X\% ? » and « When and in which range of water flow do we have to realize those gaugings ? »
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Rojatkar, Ashish. „Développement d'une méthodologie pour l'évaluation de l'exposition réelle des personnes aux champs électromagnétiques“. Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC028/document.

Der volle Inhalt der Quelle
Annotation:
Le travail présenté dans cette thèse a pour objectif l’étude des conditions nécessaires pour évaluer l'exposition radio fréquence (RF) due aux téléphones mobiles dans un scenario d’utilisation réelle et le développement d’une méthodologie permettant de prédire et de comparer les téléphones mobiles en fonction de leurs expositions RF réelles. Les téléphones mobiles sont caractérisés par leur débit d'absorption spécifique (DAS) et leur performance en émission et en réception (over-the-air, OTA). En utilisant le DAS et la puissance totale rayonnée (PTR), un indice d'exposition appelée l'indice SAROTA a été proposé précédemment afin de prévoir l'exposition réelle des téléphones mobiles. L’indice SAROTA sert ainsi de métrique permettant de comparer les téléphones mobiles. Afin de déterminer expérimentalement l’exposition réelle aux RF, plusieurs téléphones avec des modifications logicielles permettant d’enregistrer les paramètres du réseau, sont utilisés pour l’étude qui est menée comme suit : (a) caractérisation des outils et des ressources disponibles pour effectuer des mesures ciblées, (b) identification des ressources radio et des paramètres importants pour effectuer ces mesures, (c) étude de la mise en œuvre effective du mécanisme de contrôle de puissance observé dans un réseau mobile réel pour différents niveaux et de qualités du signal reçus, (d) étude de la corrélation entre la performance OTA des téléphones mobiles et l’étendue effective du contrôle de puissance appliquée par le réseau, (e) comparaison entre la valeur réelle de l’exposition et la valeur prédite en utilisant l’indice SAROTA. Comme les défis logistiques et techniques sont plus difficiles à surmonter pour les mesures dans un environnement multi-trajets extérieur, les expériences ont été limitées à des environnements intérieurs pour assurer une meilleure répétabilité des mesures. Lors d’une première phase de l’étude, la stabilité de l’environnement intérieur a été évaluée. Lors d’une deuxième phase, l’influence de la main sur le DAS et la PTR des téléphones mobiles ainsi que sur l’évaluation de l’exposition réelle prédite par l’indice SAROTA a été étudiée. Lors d’une troisième phase, un ensemble de téléphones mobiles identiques ont été modifiés et des mesures effectuées pour vérifier que l’indice SAROTA permet bien de prédire l’exposition réelle des personnes
The work presented in the thesis is directed towards addressing the requirement for determining the radio frequency (RF) exposure due to mobile phones under typical usage/ real-life scenarios and also to develop a method to predict and compare mobile phones for their real-life RF exposure. The mobile phones are characterized for their specific absorption rate (SAR) and for transmit and receive performance given by the over-the-air (OTA) characterization. Using the SAR and the total radiated power (TRP) characterization, an exposure index referred to as the SAROTA index was previously proposed to predict the real-life exposure due to mobile phones which would also serve as a metric to compare individual phones. In order to experimentally determine the real-life RF exposure, various software modified phones (SMP) are utilized for the study. These phones contain an embedded software capable of recording the network parameters. The study is undertaken in the following order: (a) Characterization of the available tools and resources for performing targeted measurements/experiments, (b) identifying the important radio resource parameters and metrics to perform the targeted measurements, (c) investigation of the actual implementation of the power control mechanism in a live network for various received signal level and received quality environments, (d) investigating the correlation of the over-the-air performance of the mobile phones and the extent of actual power control realization, (e) comparing the actual exposure and the real-life exposure as predicted by the SAROTA index. Based on the logistical and technical challenges encountered, the experiments were restricted to indoor environments to enable repeatability. During the first phase of the study, the stability of the indoor environment was evaluated. During the second phase, the influence of hand phantom on the SAR and TRP of the mobile phones and the capability of the SAROTA index to predict the exposure was investigated. Further developing on the insights from the hand phantom experiments, in the third phase, a set of identical software modified phones were externally modified to alter the TRP performance and the methodology to determine the real-life exposure and also verify the capability of the SAROTA index to predict the exposure levels was investigated. The experiments demonstrate that the SAROTA index is capable of predicting the real-life exposure and comparing the mobile phones
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Karray, Mohamed Kadhem. „Evaluation analytique des performanes des réseaux sans-fil par un processus de Markov spatial prenant en compte leur géométrie, leur dynamique et leurs algorithmes de contrôle“. Phd thesis, Télécom ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003009.

Der volle Inhalt der Quelle
Annotation:
Nous proposons des algorithmes de contrôle de charge pour les réseaux cellulaires sans fil et développons des méthodes analytiques pour l'évaluation des performances de ces réseaux par un processus de Markov spatial prenant en compte leur géométrie, dynamique et algorithmes de contrôle. D'abord, nous caractérisons la performnace d'un lien unique en utilisant les techniques de communication numérique. Ensuite les interactions entre les liens sont prises en compte en formulant un problème d'allocation de puissances. Nous proposons des algorithmes de contrôle de charge décentralisés qui tiennent compte de l'influence de la géométrie sur la combinaison des interférences inter-cellules et intra-cellules. Afin d'étudier les performances de ces algorithmes, nous analysons un générateur d'un processus Markovien de saut qui peut être vu comme une généralisation du générateur de naissance-et-mort spatial, qui tient compte de la mobilité des particules. Nous donnons des conditions suffisantes pour la régularité du générateur (c.-à-d., unicité du processus de Markov associé) aussi bien que pour son ergodicité. Enfin nous appliquons notre processus de Markov spatial pour évaluer les performances des réseaux cellulaires sans fil utilisant les algorithmes de contrôle de charge basés sur la faisabilité de l'allocation de puissance.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Tran, Minh Anh. „Insensibilité dans les réseaux de files d'attente et applications au partage de ressources informatiques“. Phd thesis, Télécom ParisTech, 2007. http://tel.archives-ouvertes.fr/tel-00196718.

Der volle Inhalt der Quelle
Annotation:
Nous abordons dans cette thèse le problème de l'insensibilité dans les réseaux de files d'attente et quelques applications au partage de ressources informatiques. Tout d'abord, nous montrons que les réseaux de files d'attente symétriques avec le routage de Jackson ou de Kelly sont tous insensibles à la distribution des demandes de service même si à l'arrivée, au départ ou au changement de files d'un client quelconque, les autres clients dans chaque file sont permutés au hasard selon certaine loi dépendante de l'état du réseau. Nous identifions également certaines disciplines de service non symétriques pour lesquellesla propriété d'insensibilité est satisfaite. Ensuite, nous proposons deux nouvelles métriques de débit pour les réseaux de données. Nous montrons quelques propriétés génériques satisfaites par ces deux métriques et nous illustrons leur différence à travers quelques exemples. Enfin, nous montrons que l'équilibrage de sources de trafic élastique détériore la performance en termes de débit, et en présence de contrôle d'admission, de probabilité de blocage.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Li, Ao. „Performances des codes correcteurs d’erreur LDPC appliqués au lien Fronthaul optique haut-débit pour l’architecture C-RAN du réseau 5G : conception et implantation sur FPGA“. Thesis, Limoges, 2017. http://www.theses.fr/2017LIMO0110/document.

Der volle Inhalt der Quelle
Annotation:
De nos jours, l’architecture du réseau mobile est en pleine évolution pour assurer la montée en débit entre les Centraux (CO) (réseaux coeurs) et différents terminaux comme les mobiles, ordinateurs, tablettes afin de satisfaire les utilisateurs. Pour faire face à ces défis du futur, le réseau C-RAN (Cloud ou Centralized-RAN) est connu comme une solution de la 5G. Dans le contexte C-RAN, toutes les BBUs (Base Band Units) sont centralisées dans le CO, seules les RRH (Remote Radio Head) restent situées à la tête de la station de base (BS). Un nouveau segment entre les BBUs et RRHs apparait nommé « fronthaul ». Il est basé sur des transmissions D-ROF (digital radio-overfiber) et transporte le signal radio numérique à un débit binaire élevé en utilisant le protocole CPRI (Common Public Radio Interface). En prenant en compte le CAPEX et l’OPEX, le projet ANR LAMPION a proposé la technologie RSOA (Reflective Semiconductor Optical Amplifier) auto alimenté afin de rendre la solution plus flexible et s’affranchir d’émetteurs/récepteurs colorés dans le cadre de transmission WDM-PON (Wavelength Division Multiplexing Passive Optical Network). Néanmoins, il est nécessaire d’ajouter un FEC (forward error corrector) dans la transmission pour assurer la qualité de service. Donc l’objectif de cette thèse est de trouver le FEC le plus adéquat à appliquer dans le contexte C-RAN. Nos travaux se sont focalisés sur l’utilisation de codes LDPC, choisis après comparaisons des performances avec les autres types de codes. Nous avons précisé les paramètres (rendement du code, taille de la matrice, cycle, etc.) nécessaires pour les codes LDPC afin d'obtenir les meilleures performances. Les algorithmes LDPC à décisions dures ont été choisis après considération du compromis entre complexités de circuit et performance. Parmi ces algorithmes à décision dures, le GDBF (gradient descent bit-flipping) était la meilleure solution. La prise en compte d’un CAN 2-Bit dans le canal nous a amené à proposer une variante : le BWGDBF (Balanced weighted GDBF). Des optimisations ont également été faites en regard de la convergence de l'algorithme et de la latence. Enfin, nous avons réussi à implémenter notre propre algorithme sur le FPGA Spartan 6 xc6slx16. Plusieurs méthodes ont été proposées pour atteindre une latence de 5 μs souhaitée dans le contexte C-RAN. Cette thèse a été soutenue par le projet ANR LAMPION (Lambada-based Access and Metropolitan Passive Optical networks)
Nowadays, the architecture of the mobile network is in full evolution to ensure the increase in terms of bit rate between the Central (CO) (core networks) and various terminals such as mobiles, computers, tablets in order to satisfy the users. To address these challenges of the future, the C-RAN (Cloud or Centralized-RAN) network is known as a 5G solution. In the C-RAN context, all BBUs (Base Band Units) are centralized in the CO, only the RRH (Remote Radio Head) remain at the head of the base station (BS). A new segment between BBUs and RRHs appears called "fronthaul". It is based on D-ROF (digital radio-overfiber) transmissions and carries the digital radio signal at a high bit rate using the Common Public Radio Interface (CPRI) protocol. Taking into account CAPEX and OPEX, the ANR LAMPION project has proposed the Self-seeded Reflective Semiconductor Optical Amplifier (RSOA) technology in order to make the solution more flexible and overcome the need for colored transmitters / receivers in the context of PON-WDM (Wavelength Division Multiplexing Passive Optical Network). Nevertheless, it is necessary to add a FEC (forward error corrector) in the transmission to ensure the quality of service. So the objective of this thesis is to find the most suitable FEC to apply in the C-RAN context. Our work has focused on the use of LDPC codes, chosen after performance comparisons with other types of codes. We have specified the parameters (code performance, matrix size, cycle, etc.) required for LDPC codes to obtain the best performance. Hard-decision LDPC algorithms were chosen after considering the tradeoff between circuit complexities and performance. Among these hard-decision algorithms, the GDBF (gradient descent bit-flipping) was the best solution. Taking into account a CAN 2-Bit in the channel led us to propose a variant: the BWGDBF (Balanced weighted GDBF). Optimizations have also been made with respect to the convergence of the algorithm and latency. Finally, we managed to implement our own algorithm on the Spartan FPGA 6 xc6slx16. Several methods have been proposed to achieve a latency of 5 μs desired in the C-RAN context. This thesis was supported by the project ANR LAMPION (Lambada-based Access and Metropolitan Passive Optical Networks)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Lopez-Pacheco, Dino-Martin. „Propositions for a robust and inter-operable eXplicit Control Protocol on heterogeneous high speed networks“. Lyon, École normale supérieure (sciences), 2008. http://www.theses.fr/2008ENSL0459.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous avons montré que les protocoles basés sur l'assistance de routeurs fournissant aux émetteurs un taux d'émission explicite (explicit rate notification-ern) partagent mieux les ressources du réseaux entre les utilisateurs et évitent mieux la congestion que les protocoles de bout-en-bout (comme les protocoles basés sur tcp). Cependant, l'absence d'interopérabilité des protocoles ern (par ex. Xcp : explicit control protocol) avec les technologies actuelles empêche leur mise en place dans les réseaux. Nos travaux ont abouti à un ensemble de solutions qui fournissent de l'équité inter-protocolaire, de la robustesse face aux pertes de données et l'interopérabilité entre les équipements ern et les équipements réseaux ip classiques. Cette thèse a jeté les bases pour pouvoir déployer les protocoles ern dans des réseaux hétérogènes à haut débit où le transfert de grande quantité des données est nécessaire
[The congestion control protocols aim to fairly share the network resources between users and avoid congestion. In this thesis, we have shown that the routers-assisted protocols providing explicit rate notification (ern protocols) accomplish those goals better than end-to-end protocols (e. G. Tcp-based protocols). However, ern protocols, like the explicit control protocol (xcp), are not interoperable with current technologies. Thus, ern protocols cannot be gradually deployed in current networks. Our research in this thesis resulted in a set of solutions that allow ern protocols to be tcp-friendly, robust against losses of routers informations and interoperable with non-ern networks equipments in a wide range of scenarios. Thus, we provided the basis for creating an ern protocol able to be gradually deployed in current heterogeneous high speed networks, where users frequently move very large amount of data]
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Duong, Le Minh. „Metric-based Rate Control for Transport Protocols in Multi-hop Wireless Networks“. Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00726025.

Der volle Inhalt der Quelle
Annotation:
In recent years, Multi-hop Wireless Networks (MHWNs) have experienced an explosion of deployment due to the increasing demand for continuous connectivity regardless of the physical location. Internet predominant transport protocols, i.e. Transmission Control Protocol (TCP), face performance degradation in MHWNs because of the high loss and link failure rates. Several solutions have been proposed which are based on network state estimation or use information from MAC layer (called metrics) in a cross-layer manner to better comprehend the network state. The first part of this thesis provides a survey and comprehensive definition of common metrics from Physical, MAC, Network and Transport layers and thus provides a multi-criteria and hierarchical classification. After that, the effectiveness in reflecting network information of MAC metrics is also investigated in a systematic way by simulating various network situations and measuring the MAC metrics. Thus, the good MAC metric for congestion control which is coupled with the network contention level and the medium induced losses will be found out. From the results of the effectiveness study, new rate control schemes for transport protocols are proposed which adapt efficiently the source bit rate depending on the network condition provided by some MAC metrics. Through an extensive set of simulations, the performance of the proposed rate control schemes in MHWNs is investigated thoroughly with several network situations.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Aklouf, Mourad. „Video for events : Compression and transport of the next generation video codec“. Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG029.

Der volle Inhalt der Quelle
Annotation:
L'acquisition et la diffusion de contenus avec une latence minimale sont devenus essentiel dans plusieurs domaines d'activités tels que la diffusion d'évènements sportifs, la vidéoconférence, la télé-présence, la télé-opération de véhicules ou le contrôle à distance de systèmes. L'industrie de la diffusion en direct a connu une croissance en 2020, et son importance va encore croitre au cours des prochaines années grâce à l'émergence de nouveaux codecs vidéo à haute efficacité reposant sur le standard Versatile Video Coding(VVC)et à la cinquième génération de réseaux mobiles (5G).Les méthodes de streaming de type HTTP Adaptive Streaming (HAS) telles que MPEG-DASH, grâce aux algorithmes d'adaptation du débit de transmission de vidéo compressée, se sont révélées très efficaces pour améliorer la qualité d'expérience (QoE) dans un contexte de vidéo à la demande (VOD).Cependant, dans les applications où la latence est critique, minimiser le délai entre l'acquisition de l'image et son affichage au récepteur est essentiel. La plupart des algorithmes d'adaptation de débit sont développés pour optimiser la transmission vidéo d'un serveur situé dans le cœur de réseau vers des clients mobiles. Dans les applications nécessitant un streaming à faible latence, le rôle du serveur est joué par un terminal mobile qui va acquérir, compresser et transmettre les images via une liaison montante comportant un canal radio vers un ou plusieurs clients. Les approches d'adaptation de débit pilotées par le client sont par conséquent inadaptées. De plus, les HAS, pour lesquelles la prise de décision se fait avec une périodicité de l'ordre de la seconde ne sont pas suffisamment réactives lors d'une mobilité importante du serveur et peuvent engendrer des délais importants. Il est donc essentiel d'utiliser une granularité d'adaptation très fine afin de réduire le délai de bout-en-bout. En effet, la taille réduite des tampons d'émission et de réception afin de minimiser la latence rend plus délicate l'adaptation du débit dans notre cas d'usage. Lorsque la bande passante varie avec une constante de temps plus petite que la période avec laquelle la régulation est faite, les mauvaises décisions de débit de transmission peuvent induire un surcroit de latence important.L'objet de cette thèse est d'apporter des éléments de réponse à la problématique de la transmission vidéo à faible latence depuis des terminaux (émetteurs) mobiles. Nous présentons d'abord un algorithme d'adaptation de débit image-par-image pour la diffusion à faible latence. Une approche de type Model Predictive Control (MPC) est proposée pour déterminer le débit de codage de chaque image à transmettre. Cette approche utilise des informations relatives au niveau de tampon de l'émetteur et aux caractéristiques du canal de transmission. Les images étant codées en direct, un modèle reliant le paramètre de quantification (QP) au débit de sortie du codeur vidéo est nécessaire. Nous avons donc proposé un nouveau modèle reliant le débit au paramètre de quantification et à la distorsion de l'image précédente. Ce modèle fournit de bien meilleurs résultats dans le contexte d'une décision prise image par image du débit de codage que les modèle de référence de la littérature.En complément des techniques précédentes, nous avons également proposé des outils permettant de réduire la complexité de codeurs vidéo tels que VVC. La version actuelle du codeur VVC (VTM10) a un temps d'exécution neuf fois supérieur à celui du codeur HEVC. Par conséquent, le codeur VVC n'est pas adapté aux applications de codage et diffusion en temps réel sur les plateformes actuellement disponibles. Dans ce contexte, nous présentons une méthode systématique, de type branch-and-prune, permettant d'identifier un ensemble d'outils de codage pouvant être désactivés tout en satisfaisant une contrainte sur l'efficacité de codage. Ce travail contribue à la réalisation d'un codeur VVC temps réel
The acquisition and delivery of video content with minimal latency has become essential in several business areas such as sports broadcasting, video conferencing, telepresence, remote vehicle operation, or remote system control. The live streaming industry has grown in 2020 and it will expand further in the next few years with the emergence of new high-efficiency video codecs based on the Versatile Video Coding (VVC) standard and the fifth generation of mobile networks (5G).HTTP Adaptive Streaming (HAS) methods such as MPEG-DASH, using algorithms to adapt the transmission rate of compressed video, have proven to be very effective in improving the quality of experience (QoE) in a video-on-demand (VOD) context.Nevertheless, minimizing the delay between image acquisition and display at the receiver is essential in applications where latency is critical. Most rate adaptation algorithms are developed to optimize video transmission from a server situated in the core network to mobile clients. In applications requiring low-latency streaming, such as remote control of drones or broadcasting of sports events, the role of the server is played by a mobile terminal. The latter will acquire, compress, and transmit the video and transmit the compressed stream via a radio access channel to one or more clients. Therefore, client-driven rate adaptation approaches are unsuitable in this context because of the variability of the channel characteristics. In addition, HAS, for which the decision-making is done with a periodicity of the order of a second, are not sufficiently reactive when the server is moving, which may generate significant delays. It is therefore important to use a very fine adaptation granularity in order to reduce the end-to-end delay. The reduced size of the transmission and reception buffers (to minimize latency) makes it more difficult to adapt the throughput in our use case. When the bandwidth varies with a time constant smaller than the period with which the regulation is made, bad transmission rate decisions can induce a significant latency overhead.The aim of this thesis is to provide some answers to the problem of low-latency delivery of video acquired, compressed, and transmitted by mobile terminals. We first present a frame-by-frame rate adaptation algorithm for low latency broadcasting. A Model Predictive Control (MPC) approach is proposed to determine the coding rate of each frame to be transmitted. This approach uses information about the buffer level of the transmitter and about the characteristics of the transmission channel. Since the frames are coded live, a model relating the quantization parameter (QP) to the output rate of the video encoder is required. Hence, we have proposed a new model linking the rate to the QP of the current frame and to the distortion of the previous frame. This model provides much better results in the context of a frame-by-frame decision on the coding rate than the reference models in the literature.In addition to the above techniques, we have also proposed tools to reduce the complexity of video encoders such as VVC. The current version of the VVC encoder (VTM10) has an execution time nine times higher than that of the HEVC encoder. Therefore, the VVC encoder is not suitable for real-time encoding and streaming applications on currently available platforms. In this context, we present a systematic branch-and-prune method to identify a set of coding tools that can be disabled while satisfying a constraint on coding efficiency. This work contributes to the realization of a real-time VVC coder
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Marty, Amélie. „Débit variable contrôlé par la source pour le codec audio AMR-WB+“. Mémoire, Université de Sherbrooke, 2007. http://savoirs.usherbrooke.ca/handle/11143/1399.

Der volle Inhalt der Quelle
Annotation:
Le codage audio à bas débits est un enjeu majeur dans les télécommunications. En effet, avec l'accroissement du nombre d'usagers et la diversification des types de communications, les codeurs doivent désormais encoder n'importe quel type de signal à bas débits avec une excellente qualité.Le standard AMR-WB+ est un codeur hybride alliant à la fois la technologie ACELP pour le codage de la parole et un codeur TCX spécialisé dans le codage de l'audio. Ce codeur multi-débits autorise les changements de débits à chaque trame. Cependant, il ne peut être considéré comme un codeur à débit variable contrôlé par la source car il ne possède pas de classificateur audio. L'extension proposée dans ce mémoire comprend un classificateur parole/non-parole basé sur l'énergie et la corrélation croisée normalisée du signal. Ce classificateur, associé à une fonction d'adaptation du débit, permet de déterminer l'instant adéquat pour un changement de débit et la valeur adaptée à la trame à encoder. Une étude de la variation de la qualité en fonction du débit et du type de signal montre une possible réduction du débit pour les signaux de parole sans perte de qualité significative. En revanche, la diminution du débit pour le reste des signaux audio engendre automatiquement une dégradation des signaux. En conservant le débit maximal possible pour la musique et en diminuant le débit pour la parole, il est possible d'économiser sur le débit moyen. L'extension proposée est robuste et de faible complexité. En utilisant des paramètres de classification simples et des décisions par seuils, on obtient des taux de réussite de l'ordre de 95% pour la parole comme pour la musique et on minimise la complexité ajoutée à l'encodeur. Grâce à la fonction d'adaptation du débit, le signal est encodé à débit variable, au débit moyen souhaité par l'utilisateur, en conservant une excellente qualité.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Chaabane, Chiraz. „Système embarqué autonome en énergie pour objets mobiles communicants“. Phd thesis, Université Nice Sophia Antipolis, 2014. http://tel.archives-ouvertes.fr/tel-01071056.

Der volle Inhalt der Quelle
Annotation:
Le nombre et la complexité croissante des applications qui sont intégrées dans des objets mobiles communicants sans fil (téléphone mobile, PDA, etc.) implique une augmentation de la consommation d'énergie. Afin de limiter l'impact de la pollution due aux déchets des batteries et des émissions de CO2, il est important de procéder à une optimisation de la consommation d'énergie de ces appareils communicants. Cette thèse porte sur l'efficacité énergétique dans les réseaux de capteurs. Dans cette étude, nous proposons de nouvelles approches pour gérer efficacement les objets communicants mobiles. Tout d'abord, nous proposons une architecture globale de réseau de capteurs et une nouvelle approche de gestion de la mobilité économe en énergie pour les appareils terminaux de type IEEE 802.15.4/ZigBee. Cette approche est basée sur l'indicateur de la qualité de lien (LQI) et met en œuvre un algorithme spéculatif pour déterminer le prochain coordinateur. Nous avons ainsi proposé et évalué deux algorithmes spéculatifs différents. Ensuite, nous étudions et évaluons l'efficacité énergétique lors de l'utilisation d'un algorithme d'adaptation de débit prenant en compte les conditions du canal de communication. Nous proposons d'abord une approche mixte combinant un nouvel algorithme d'adaptation de débit et notre approche de gestion de la mobilité. Ensuite, nous proposons et évaluons un algorithme d'adaptation de débit hybride qui repose sur une estimation plus précise du canal de liaison. Les différentes simulations effectuées tout au long de ce travail montrent l'efficacité énergétique des approches proposées ainsi que l'amélioration de la connectivité des nœuds.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Samara, Ziyad. „Etude de l’origine du comportement chaotique de la ventilation“. Paris 6, 2008. http://www.theses.fr/2008PA066243.

Der volle Inhalt der Quelle
Annotation:
En dépit des apparences, le débit ventilatoire humain n’est pas périodique mais chaotique. Ceci signifie qu’il dépend de mécanismes déterministes mais que sa dynamique, bien que confinée dans des limites définies, est complexe, sensible aux conditions initiales et imprédictible à long terme. La théorie du chaos offre des outils mathématiques pour quantifier ces caractéristiques. La signification physiologique et l’intérêt clinique du chaos ventilatoire dépendront de sa source. Le but de cette thèse était de contribuer à l’identifier. En comparant, chez l’homme, le débit ventilatoire enregistré à la bouche avec un pneumotachographe à celui reconstitué par pléthysmographie d’inductance, nous avons montré que ni la voie respiratoire (nez ou bouche), ni la méthode d’enregistrement n’affectait la nature du chaos, même si elles changeaient sa complexité. Elles n’en étaient donc pas la source. L’imposition de charges inspiratoires, à seuil ou résistives, ne modifiait ni la nature ni les caractéristiques du chaos ventilatoire, alors que la compensation respiratoire de ce type de charge dépend du cortex pré-moteur. Celui-ci n’est donc probablement pas une source de chaos ventilatoire. Nous avons finalement montré que la ventilation fictive produite in vitro par le tronc cérébral isolé de têtard post-métamorphique était toujours chaotique. Sa stimulation par le CO2 augmentait l’intensité du chaos. Le chaos était plus rarement détecté dans les préparations pré-métamorphiques, suggérant une influence de l’ontogenèse. En conclusion, la commande automatique de la ventilation, située dans le tronc cérébral, pourrait être une source suffisante de chaos dans la ventilation
Although the human ventilatory flow resembles a periodic phenomenon, it is not and is truly chaotic. This means that the trajectory of the flow is bounded and depends on deterministic processes, but at the same time, is also complex, sensitive to the initial conditions and unpredictable in the long-term. The theory of chaos provides mathematical tools for quantifying these characteristics. However, physiological significance and clinical interest of ventilatory chaos will depend on its source that is unclear. The gaol of this thesis was thus to contribute to its identification. By comparing, in humans, the ventilatory flow recorded at the mouth with a pneumotachometer to that reconstructed by inductive plethysmography, we showed that neither the respiratory route (nose or mouth), nor the recording technique affected the nature of chaos, even if they changed its complexity. Therefore, they could not be its origin. Inspiratory threshold or resistive loading changed neither the nature nor the features of the chaotic dynamics of the ventilatory flow, though respiratory compensation of these kinds of load depends on the pre-motor cortex. The latter is probably not a source of ventilatory chaos either. We finally showed that the neural respiratory output of in vitro isolated brainstems of post metamorphic tadpoles was always chaotic. Stimulation of this output by CO2 augmented the intensity of chaos. Chaos was rarely found in pre-metamorphic preparations, suggesting ontogenetic changes. In conclusion, the intrinsic properties of the automatic ventilatory command, located in the brainstem, could be a sufficient source of ventilatory chaos
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Fiamma, Marie-Noëlle. „Etude de la nature chaotique du comportement ventilatoire“. Paris 6, 2006. http://www.theses.fr/2006PA066362.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Assa, Achy Mathieu. „Mise au point et étalonnage d'un compteur de noyaux de condensation à grand débit“. Paris 12, 1987. http://www.theses.fr/1987PA120023.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Kubler, Béatrice. „Contrôle des marchés et délégations de service public : le délit d'octroi d'avantage injustifié“. Nice, 1999. http://www.theses.fr/1999NICE0028.

Der volle Inhalt der Quelle
Annotation:
Le délit d'octroi d'avantage injustifié, appelé communément par les médias, délit de favoritisme, a été crée par la loi du 3 janvier 1991 dans une période où se sont revélées au grand jour des affaires touchant notamment des élus locaux. Il a été intégré ensuite dans le code pénal à l'article 432-14. Il sanctionne les irrégularités commises par les personnes publiques ou fonctionnaires en violation des règles de mise en concurrence des marchés et délégations de service public et celà, dans le but de procurer un +avantage injustifié à autrui. En l'occurrence, le bénéficiaire du marché concerne. Les règles légales et réglementaires sur la passation des marches publics ont été renforcées et etendues par des lois communautaires et internes et par diverses dispositions du code des marches publics. Leur application a été au surplus mieux controlée par les autorités administratives et financières ainsi que par les juridictions administratives. Les parquets et juridictions pénales, informes par diverses sources des violations graves aux règles de passation des marchés publics auront ainsi à rechercher dans les contrats publics et semi-publics, les cas susceptibles de constituer l'infraction prévue par l'article 432-14 du code pénal et de sanctionner les personnes publiques responsables ou celles agissant pour leur compte. Depuis la création du délit, un certain nombre d'instructions ont été ouvertes et des décisions pénales ont été rendues, essentiellement contre des élus locaux et des fonctionnaires territoriaux.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Messier, David. „Conception d'un contrôleur adaptatif et implantation sur un système de climatisation à débit d'air variable“. Mémoire, École de technologie supérieure, 2005. http://espace.etsmtl.ca/327/1/MESSIER_David.pdf.

Der volle Inhalt der Quelle
Annotation:
Dans la plupart des cas, les systèmes de climatisation sont équipés de contrôleur proportionnel et intégral (PI). Leur fonction est de maintenir le paramètre contrôlé sur la valeur de référence ou point de consigne. Pourtant, plusieurs cas d'oscillation de température d'air d'alimentation ont été observés sur les systèmes à volume d'air variable (VAV). Les cas d'instabilité observés sont occasionnés par une politique d'ajustement des contrôleurs PI élaboré selon des paramètres PI prédéfinis. Pour éviter ce problème, un contrôleur adaptif est proposé. Ce contrôleur adaptatif identifie la dynamique du système en ligne avec un algorithme récursif dans le but d'ajuster adéquatement les paramètres PI du contrôleur. Pour traiter le problème ci haut mentionné, nous avons cherché des concepts de contrôle existants pour ensuite choisir les meilleurs et constituer le contrôleur adaptatif. Enfin nous avons programmé les algorithmes du contrôleur adaptatif sur un microcontrôleur ATmega16 et l'avons installé sur un des systèmes VAV étudié pour effectuer le test final. Les résultats obtenus permettent de conclure que le contrôleur adaptatif proposé permet une plus grande stabilité que le contrôleur PI de référence caractérisé par des paramètres PI prédéfinis.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Laumonier, Janick. „Etude d'un dispositif de contrôle actif des fluctuations de débits pulsés utilisable comme silencieux“. Poitiers, 1990. http://www.theses.fr/1990POIT2257.

Der volle Inhalt der Quelle
Annotation:
L'energie acoustique rayonnee par les ecoulements pulses (echappement de moteur thermique, par exemple) est liee principalement au caractere pulsatoire de l'ecoulement (modulation du debit). La reduction de ces bruits necessite des methodes passives lourdes ("silencieux") et n'est actuellement pas realisable par les methodes d'absorption acoustique active ou les transducteurs utilises sont inappropries dans les basses frequences. Nous proposons un dispositif de controle actif des fluctuations de debits base sur le principe d'un organe de type "perte de charge singuliere" dont on controle, en temps reel, la position. Ce systeme permet d'attenuer sensiblement, a la frequence fondamentale, le taux de pulsation du debit en aval de la singularite et d'obtenir, en consequence, une resuction notable des niveaux sonores rayonnes a l'embouchure. Nous en presentons le principe, les resultats phenomenologiques et les consequences quant a son automatisation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Achouri, Anouar. „Contribution à l'évaluation des technologies CPL bas débit dans l'environnement domestique“. Thesis, Tours, 2015. http://www.theses.fr/2015TOUR4013/document.

Der volle Inhalt der Quelle
Annotation:
Le Smart Grid a révolutionné la politique énergétique et a permis de redistribuer les rôles des différentes entités dans le marché de l'électricité. Le client résidentiel est au cceur de cette révolution. Il est désormais capable de gérer sa consommation à travers le contrôle et la commande des appareils électriques domestiques à distance, de produire de l'électricité, de la stocker et de la vendre. Le CPL bas débit est adopté par plusieurs acteurs de distribution d'électricité à l'échelle mondiale. Ce travail a comme objectif d'évaluer la possibilité de l'utilisation des protocoles CPL bas débit dans des applications de gestion de consommation électrique et de contrôle et de commande des appareils électriques domestiques à distance. Pour ce faire, nous avons réalisé une campagne de mesure de réponse du canal CPL dans 12 maisons pour caractériser et modéliser les fonctions de transfert dans la bande de fréquence [9kHz-500kHz]. A l'issue de cette campagne de mesure, nous avons distingué 5 classes de canaux selon leurs capacités de transmission et nous avons modélisé les fonctions de transfert à l'aide des filtres numériques FIR. En plus des réponses du canal, nous nous sommes intéressés aux perturbations électromagnétiques dans la bande [9kHz-500kHz]. Nous avons réalisé 376 enregistrements de bruits CPL dans différentes maisons. Les mesures de bruits ont été par la suite caractérisées et classifiées en bruits stationnaires, bruits périodiques et bruits apériodiques. Pour chaque type de bruit, nous avons proposé des exemples de régénération
The Smart Grid is an important part of the third technological revolution. The final client is now able to improve his energy consumption efficiency via the control of the domestic appliances. The narrowband power lines protocols are adopted by many international utilities and DSO to ensure the control of the distribution power grid. In this thesis, we propose to use theses protocols for domestic electrical grid management. To assess the performances of the narrowband PLC systems in domestic environment, we have realized two measurements campaigns in many houses. The first campaign is dedicated to the domestic PLC channel response in the band of [9kHz-500kHz]. The measurements are classified into 5 classes according to their transmission capacities. To model the channel measurements, a modeling approach based on FIR filters is adopted. The second measurements campaign aims to characterize and to reproduce the PLC domestic noise in the band of [9kHz-500kHz]. The measurements are classified into stationary noise, periodic noise and aperiodic noise. Some examples of noise generation are proposed for every form of noise
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Castaings, William. „Analyse de sensibilité et estimation de paramètres pour la modélisation hydrologique : potentiel et limitations des méthodes variationnelles“. Grenoble 1, 2007. http://www.theses.fr/2007GRE10154.

Der volle Inhalt der Quelle
Annotation:
Comme tout évènement géophysique, la transformation de la pluie en débit dans les rivières est caractérisée par la complexité des processus engagés et par l'observation partielle, parfois très limitée, de la réponse hydrologique du bassin versant ainsi que du forçage atmosphérique auquel il est soumis. Il est donc essentiel de comprendre, d'analyser et de réduire les incertitudes inhérentes à la modélisation hydrologique (analyse de sensibilité, assimilation de données, propagation d'incertitudes). Les méthodes variationnelles sont très largement employées au sein d'autres disciplines (ex. Météorologie, océanographie. . . ) confrontés aux mêmes challenges. Dans le cadre de ce travail, nous avons appliqué ce type de méthodes à des modèles représentant deux types de fonctionnement des hydrosystèmes à l'échelle du bassin versant. Le potentiel et les limitations de l'approche variationnelle pour la modélisation hydrologique sont illustrés avec un modèle faisant du ruissellement par dépassement de la capacité d'infiltration le processus prépondérant pour la genèse des écoulements superficiels (MARINE) ainsi qu'avec un modèle basé sur le concept des zones contributives d'aire variable (TOPMODEL). L'analyse de sensibilité par linéarisation ou basée sur la méthode de l'état adjoint permet une analyse locale mais approfondie de la relation entre les facteurs d'entrée de la modélisation et les variables pronostiques du système. De plus, le gradient du critère d'ajustement aux observations calculé par le modèle adjoint permet guider de manière très efficace un algorithme de descente avec contraintes de bornes pour l'estimation des paramètres. Les résultats obtenus sont très encourageants et plaident pour une utilisation accrue de l'approche variationnelle afin d'aborder les problématiques clés que sont l'analyse de la physique décrite dans les modèles hydrologiques et l'estimation des variables de contrôle (calibration des paramètres et mise à jour de l'état par assimilation de données)
The rainfall-runoff transformation is characterized by the complexity of the involved processes and by the limited observability of the atmospheric forcing, catchment properties and hydrological response. It is therefore essential to understand, analyse and reduce the uncertainty inherent to hydrological modelling (sensitivity and uncertainty analysis, data assimilation). Variational methods are widely used in other scientific disciplines (ex. Meteorology, oceanography) facing the same challenges. In this work, they were applied to hydrological models characterised by different modelling paradigms (reductionist vs. Systemic) and runoff generation mechanisms (infiltration-excess vs. Saturation excess). The potential and limitations of variational methods for catchment hydrology are illustrated with MARINE from the Toulouse Fluids Mechanics Institute (IMFT) and two models (event based flood model and continuous water balance model) based on TOPMODEL concepts developed at the Laboratory of Environmental Hydrology (LTHE). Forward and adjoint sensitivity analysis provide a local but extensive insight of the relation between model inputs and prognostic variables. The gradient of a performance measure (characterising the misfit with observations), calculated with the adjoint model, efficiently drives a bound-constrained quasi-newton optimization algorithm for the estimation of model parameters. The results obtained are very encouraging and plead for an extensive use of the variational approach to understand and corroborate the processes described in hydrological models but also estimate the model control variables (calibration of model parameters and state estimation using data assimilation)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Blaha, Isabelle. „Laïques et ecclésiastiques entre religion citadine et Contre-réforme à Naples des débuts du XVIe siècle aux début du XVII siècle : résister, contrôler et discipliner“. Electronic Thesis or Diss., Lyon 2, 2022. http://www.theses.fr/2022LYO20048.

Der volle Inhalt der Quelle
Annotation:
Appréhender la foi des laïcs napolitains au XVIe siècle est une entreprise ardue tant en raison des difficultés matérielles d’accès aux sources, que de leur discontinuité temporelle, qui rendent difficile toute reconstruction historique systématique fondée sur la longue durée, ou l’étude de séries homogènes de sources. Malgré cette réalité, les difficultés matérielles ont été contournées par des dépouillements systématiques de fonds d’une grande diversité, tant des archives archidiocésaines ou d’État de Naples,que de la Curie généralice de la Compagnie de Jésus, et que celles du Saint-Siège, tout en recourant à une méthodologie qualitative.Les caractères singuliers d’une piété laïque et urbaine ont d’abord été privilégiés, puis l’analyse s’est attachée, dans la capitale du vice-royaume d’Espagne, aux relations entre laïcs et ecclésiastiques avant et après le concile de Trente. En effet, l’approche diachronique choisie se concentre sur le “siècle de transition” de l’histoire de l’Église catholique moderne, celui du XVIe siècle.Émergent de cette thèse la reconstruction de multiples identités religieuses de laïcs et d’ecclésiastiques napolitains, comme leur manière d’appréhender la religion et l’Église catholique, grâce aux précieux éléments fournis par l’examen des visites pastorales tridentines, ou de celui plus ou moins répressif des procès-verbaux des tribunaux archidiocésains et de “l’Inquisition napolitaine” du Saint Office. Les Napolitains sont ainsi peu enclins à l’application des normes tridentines, alimentant un contexte de tension sociale grandissant, et de criminalisation religieuse. En témoignent également des sources singulières pour l’histoire de la sensibilité religieuse, en l'occurence les procès-verbaux des veilles d’exécutions capitales de laïcs, dressés par les “greffiers” de la Compagnie des Bianchi della Giustizia.Face à cette situation, des stratégies sont mises en œuvre par la Curie généralice et les responsables du Collège jésuite napolitain, afin de réformer la vie religieuse, très contrastée au regard également des sources de la Curie de l’archidiocèse. Enfin, laïcs et clercs font bien souvent cause commune face aux tentatives de réformes romaines, ce qui ne diffère guère d’une grande partie des villes de l’Europe catholique.Le tableau présenté dans cette thèse fait apparaître une religion citadine encore “très médiévale”, -selon toute vraisemblance enracinée dans un héritage byzantin-, témoignant des fortes résistances locales laïques et ecclésiastiques, rendant très laborieuse l’introduction du nouveau modèle de vie chrétienne dans la capitale du royaume de Naples jusqu’à la réforme de 1598 du cardinal et archevêque Alfonso Gesualdo
Understanding Neapolitan lay people’s faith in the sixteenth century is an arduous undertaking, both because of the material difficulties of accessing sources and because of their temporal discontinuity, which makes it difficult to carry out any historical systematic reconstruction based on the long term, orto study homogeneous series of sources. In spite of this reality, material difficulties have been overcome by systematically examining a wide variety of collections, both from the archdiocesan and state archivesof Naples, the General Curia (Curia Generalice) of the Society of Jesus, and the Holy See, using aqualitative methodology.The particular characteristics of a lay and urban piety were first privileged, then the analysis focused on the relations between laymen and ecclesiastics in the capital of the vice-kingdom of Spain before and after the Council of Trent. In fact, the diachronic approach chosen focuses on the "transitional century"of the history of the modern Catholic Church, that of the 16th century.From this thesis emerges the reconstruction of multiple religious identities of Neapolitan laymen and clergymen, as well as their way of apprehending religion and the Catholic Church, thanks to the precious elements provided by the examination of the Tridentine pastoral visits, or of the more or less repressive one of the minutes of the archdiocesan tribunals and of the "Neapolitan Inquisition" of the Holy Office.Thus, Neapolitans were reluctant to apply the Tridentine norms, increasing a context of growing social tension and religious criminalisation. This is also demonstrated by the essential sources for the historyof religious sensitivity, in this case the minutes of the vigil of capital executions of laymen, drawn up by the "clerks" of the Company of the Bianchi della Giustizia. Faced with this situation, strategies were implemented by the General Curia and those in charge of the Neapolitan Jesuit College, in order toreform religious life, which was very contrasted according to the sources of the Curia of the archdiocesetoo. Finally, laymen and clerics often made common cause in the face of attempts at Roman reform,which was not that different from most Catholic European cities.This thesis shows a city religion that is still "very medieval", - in all likelihood rooted in a Byzantine heritage -, testifying to strong local lay and ecclesiastical resistance, making the introduction of the new model of Christian life very laborious in the capital of the Kingdom of Naples until the 1598’s reformof Cardinal and Archbishop Alfonso Gesualdo
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Heurtaux, Benoît. „Synthèse et évaluation de dérivés pulviniques comme agents de protection contre les rayonnements ionisants“. Paris 11, 2006. http://www.theses.fr/2006PA112182.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse est consacré à la préparation de dérivés de pigments de champignons, les acides pulviniques, puis à l'évaluation de leurs propriétés antioxydantes, dans le but de trouver de nouveaux composés susceptibles d'être employés comme agents de protection contre les rayonnements ionisants. Une méthode efficace de synthèse d'acides pulviniques symétriques a été mise au point. Elle est basée sur une double condensation d'acétals de cétènes silylés avec le chlorure d'oxalyle. Le traitement des produits obtenus par du DBU conduit aux esters d'acides pulviniques correspondants, qui sont ensuite saponifiés. De nombreux acides pulviniques comportant divers groupements aromatiques, hétéroaromatiques ou alkyles ont ainsi été synthétisés. Une adaptation de cette méthode à la préparation des acides pulviniques dissymétriques a été réalisée, mais nécessitera des améliorations. Des dérivés pulviniques comportant des fonctions amides, ainsi que des sels d'amines, ayant une meilleure solubilité en milieu biologique, ont également été préparés, avec de bons rendements. Des tests de protection de la thymidine d'une part, et d'un ADN plasmidique d'autre part, vis﷓à﷓vis d'un rayonnement gamma, ont été réalisés. Ils ont montré que plusieurs dérivés d'acides pulviniques préparés possédaient une très bonne activité protectrice. De plus, une nouvelle forme d'ADN a été détectée sur les gels d'électrophorèse de plasmide irradié en présence de certains dérivés pulviniques. Des observations par microscopie électronique ont mis en évidence la formation d'une forme très compactée d'ADN en présence de certains acides pulviniques
The object of this thesis is the elaboration of analogues of these compounds and the evaluation of their antioxidizing properties, as well as their toxicity, to use them as a protective agent. An original and effective method was finalized to synthetize these compounds. A silylated product is synthesized from one acetate, then it is condensed on the oxalyl chloride. The lactone is isolated, after treatment of intermediate compound obtained with the DBU in dichloromethane. The ester is then saponified, to lead to the pulvinic acid. Several pulvinic acids (aromatics or heterocyclics) are obtained with good yields. Derivatives substituted by alkyl groups are obtained with weaker yields. Pulvinic acids were tested to determine their radioprotective properties. At the same time, we setup a strategy of synthesis of dissymmetrical pulvinic acids by making successively condensation of two different silylated derivatives. Another method was setup by making reactions between two different silylated of ketene acetal, however the yield was low. Various derivative amids of pulvinic acids more soluble were synthesized from bis-lactone, which were tested. A test of evaluation of the antioxidizing activity with thymidine and plasmids under the effect of different oxidizing stress was made. Several aromatic pulvinic derivatives revealed a high activity. The microscopy of samples containing of the DNA of plasmid brought together with pulvinic derivatives, irradiated and not irradiated, showed a compaction of the DNA
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Platonova, Natalia. „Le contrôle des finances en France et en Russie : analyse comparative, seconde moitié du XVIIe siècle-début du XVIIIe siècle“. Paris, EHESS, 2003. http://www.theses.fr/2003EHES0064.

Der volle Inhalt der Quelle
Annotation:
Cette recherche a pour objectif d'étudier les expériences du contrôle financier des monarchies russe et française dans la deuxième moitié du XVIIe siècle et au début du XVIIIe siècle. L'étude systématique des notions, des formes institutionnelles et des procédures de contrôle vise à reconstituer le système de contrôle et à montrer son évolution dans des contextes historiques et financiers et des espaces géographiques différents. Cette recherche examine le système de contrôle tant dans le cadre de son insertion "technique" dans le système financier proprement dit, que dans ses rapports avec les domaines politique et social, qui fournissent le cadre approprié pour penser l'important problème de la génèse de l'Etat "moderne". En effet, sous l'angle inhabituel qui est celui du contrôle, pointent des aspects peu connus de l'histoire des finances monarchiques, dont les fondements historiques aussi bien que le fonctionnement peuvent être mis en rapport avec le processus de réformes administratives qu'a connu l'Europe de la seconde moitié du XVIIe siècle et du début du XVIIIe siècle
This research deals with the financial control experiences of the french and the russian monarchies for the second part of the 17th century and for the beginning of the 18th century. In order to reconstruct the control system and its evolution related to the historical, financial and geographical different contexts, systematic studies of its notions, its institutional forms and its procedures are performed. This research deals with the development of the control under "technical" considerations of the financial system itself, as well as its relationship with the political and social domains to contribute to the important problem on the genesis of the "modern" state. On another hand, this contribution yields an exemplary framework for studying under an unusual point of view all the relatively unknown aspects of the history of the monarchical finances, their historical foundations as well as their pratices with respect to the administrative and fiscal reforms process lived by the Europe for the second part of the 17th century and at the beginning of the 18th century
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Caillé, Vincent. „Etude des phénomènes aérodynamiques et aéroacoustiques associés à une vanne papillon utilisée pour le contrôle actif de débits pulsés“. Poitiers, 1996. http://www.theses.fr/1996POIT2333.

Der volle Inhalt der Quelle
Annotation:
Ce travail contribue a la mise en uvre d'un dispositif de controle actif, a l'aide d'une vanne papillon oscillante, de debits pulses etant a l'origine de bruits en basses frequences. L'application des equations de la mecanique des fluides aux ecoulements instationnaires en conduite mene en effet a une relation entre les fluctuations de debit de l'ecoulement et une perte de charge. On modelise ainsi l'evolution instantanee d'une perte de charge necessaire a l'annulation des fluctuations periodiques d'un debit. Cette etude consiste a caracteriser aerodynamiquement la vanne papillon utilisee. On entend par caracterisation aerodynamique l'etude de la structure de l'ecoulement (champs de vitesses moyenne et instantanee et perte de charge) en fonction des parametres lies a la singularite (incidence et intrusion) et aux conditions aerodynamiques d'entree du domaine d'etude (forme du profil de vitesse moyenne, intensite turbulente, amplitude et frequence de l'instationnarite). Ce travail, en grande partie experimental, est base sur l'anemometrie laser a effet doppler. L'etude montre que l'agencement de l'ecoulement moyen au voisinage de l'organe, les fluctuations aerodynamiques periodiques qu'il regenere et sa perte de charge sont correles et fortement dependants des conditions d'instationnarite en amont. Ces grandeurs, regies suivant deux regimes differents en fonction de l'incidence de la vanne (des structures de type sillage et jet confine respectivement sont mises en evidence), apparaissent par contre independantes des parametres de l'ecoulement moyen. Parallelement, nous adoptons des outils de simulation, principalement pour mettre en evidence des tendances dans le comportement aerodynamique de la vanne pour des parametres de l'etude ou les moyens experimentaux sont limites (mauvaise maitrise des parametres, forts rapports signal sur bruit). Nous employons un modele de turbulence approprie aux quantites de l'ecoulement moyen a l'echelle integrale de la turbulence. Une fois validees pour la simulation d'ecoulements internes obstrues non permanents, les methodes numeriques confirment et completent les resultats experimentaux. L'analyse du travail effectue nous permet de concevoir une autre singularite, dont la perte de charge, plus facilement modelisable, serait independante des conditions aerodynamiques de fonctionnement du procede de controle actif
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Mouquet, Joëlle Catherine. „Circulations cerebrale et musculo-cutanee : etude de leur controle a l'aide d'agents vasoactifs“. Paris 5, 1987. http://www.theses.fr/1987PA05S022.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Marimoutou-Oberlé, Michèle. „Engagisme et contrôle sanitaire : quarantaine et lazarets de quarantaine dans les mascareignes aux XIXe siècle et début du XXe siècle“. Nantes, 2015. http://www.theses.fr/2015NANT3015.

Der volle Inhalt der Quelle
Annotation:
Dans la première moitié du XIXe siècle, l'interdiction de la traite puis l'abolition de l'esclavage obligent les planteurs réunionnais et mauriciens à utiliser un nouveau type de main d'oeuvre : les travailleurs engagés. Plus de 600 000 individus vont débarquer recrutés essentiellement en Inde, mais aussi dans d'autres parties du monde comme al Chine, l'Asie du Sud-Est, l'Afrique orientale, Madagascar, les Comores ou l'île Rodrigues. Pour protéger leurs colonies des maladies dites « pestilentielles et épidémiques graves », les gouvernements de Londres et Paris demandent aux gouverneurs de Maurice et de La Réunion de décliner localement les règlements sanitaires métropolitains. L'arrivée d'engagés issus de territoires où la peste, la variole et le choléra sont considérées comme endémiques, provoque un renforcement du contrôle sanitaire à l'arrivée. La visite des navires et la mise en quarantaine dans des lazarets flottants ou terrestres sont au coeur de la politique de contrôle sanitaire car on ignore l'origine et les modes de transmission des maladies. A la fin des années 1850, avec l'introduction massive des engagés et l'internationalisation de la lutte contre les épidémies, des lazarets permanents sont construits à Flat Island à Maurice et à la Grande Chaloupe à la Réunion. Dans cette colonie une originale quarantaine d'observation de dix jours dans un lazaret est imposée systématiquement aux engagés. A al fin du X1Xe siècle alors que les arrivées d'engagés se réduisent, les découvertes médicales des virus et des bactéries augmentent paradoxalement le nombre de maladies soumises à la quarantaine : les lazarets restent un dispositif important du contrôle sanitaire à l'arrivée jusqu'à la fin des années 1930
In the first part of the XIXth century, the prohibition of the slave trade and later the abolition of slavery forced the landowners of Reunion Island and Mauritius Island to use a newtype of labour : indentured workers. More than 600 000 persons landed mainly recruted from India, but also from other parts of the world such as China, South East Asia, East Africa, Madagascar, the Comoros Islands or Rodrigues Island. To protect the colonies against infectious diseases, the governments of London and Paris commanded the governors of Mauritius and Reunion islands to enforce locally the sanitary regulations applied in aminland territories. The arrival of indentured labourers from countries where plague, smallpox and cholera were considered as endemic, led to the reinforcement of sanitary controls on arrival. The inspection of vessels and quarantine on board or in lazarets were the principal measures of this sanitary control policy, because the origin and the form of these diseases were not yet known. At the end of the 1850s, with the massive introduction of indentured labourers and the internalisation of the fight against infectious diseases, permanent quarantine lazarets were built on Mauritian flat island and at La Grande Chaloupe in Reunion Island. In this french colony, an initial "observation quarantine" was systematically imposed on indentured labourers for ten days. At the end of the XIXth century although the landing of indentured workers declined, medical brekthroughs in the field of viruses and bacteriums pardoxically increased the number of diseases subjected to quarantine control. As a result lazarets remained an important component of sanitary control on arrival until the end of the 1930's
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Hourquebie, Fabrice. „Le juge sous la Ve République entre pouvoir et contre-pouvoir : contribution au débat sur la notion de contre-pouvoir“. Bordeaux 4, 2003. http://www.theses.fr/2003BOR40043.

Der volle Inhalt der Quelle
Annotation:
La montée en puissance du juge dans l'état de droit et la nouvelle place qui en résulte doivent s'accompagner d'un renouvellement du statut théorique qui la prend en considération. Recourir à la notion de de contre-pouvoir participe de cette démarche, même si l'idée est encore difficilement acceptée par les auteurs, en raison de ses connotations dérangeantes. Chaque vocation est de modérer le pouvoir concurrent, par l'articulation d'une fonction d'endiguement et de participation. Porté par la doctrine et l'opinion publique, le juge s'affirme alors comme un pouvoir authentique. Il se dote d'un véritable pouvoir décisionnaire, tant par la sanction du comportement des pouvoirs, que par la participation à la co-détermination du sens final de la norme. . .
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Spencer, Consuelo. „Transferts et contre-transfert dans la psychose de type schizophrénique de l'enfant“. Paris 7, 2014. http://www.theses.fr/2014PA070108.

Der volle Inhalt der Quelle
Annotation:
Recherche clinique en psychopathologie, le présent travail porte sur la psychose de type schizophrénique chez l'enfant. Il part d'une observation: celle du trop grand nombre d'enfants qui souffrent d'une désorganisation majeure de leur vie mentale et dont la pathologie n'est pas incluse au sein des classifications internationales actuelles (DSM et CDA). Tout l'intérêt du propos réside dans la rencontre entre clinicien et malade, qu'il opère en se servant des modèles psychanalytiques qui autoriseraient à reconnaître la valeur inestimable des premiers entretiens notamment du concept de psychose de transfert et du principe d'un transfert (et en l'occurrence d'une psychose de transfert) immédiat et spontané chez l'enfant. Les notions de transfert, de contre-transfert et d'affect forment les points d'appui de la réflexion, qui établit alors une différence vis-à-vis des catégories diagnostiques proposées par la psychiatrie. Ces dernières loin de représenter la souffrance et les enjeux cliniques associés à ce champ de la psychopathologie, seraient en effet à l'origine d'un "enchevêtrement nosographique". La méthodologie utilisée est le jeu analytique à visée diagnostique, lequel favoriserait l'instauration d'un lion transféro-contre-transférentiel bref mais très utile pour l'élaboration d'un diagnostic psychodynamique, c'est-à dire qui comprend les mécanismes, les angoisses et les fantasmes agissant à l'intérieur de l'enfant. Les résultats obtenus montrent la spécificité du jeu (par définition étrange et inattendu) mené par ces jeunes malades et qui se trouve au coeur du phénomène transférentiel à l'oeuvre
This work is a research in psychopathology- that focuses on child schizophrenia. It addresses the probiem of children suffering major disruption of their mental life which is not included in the current international classifications (DSM and CIM). The theme developed here is the encounter between clinician and patient, using psychoanalytic models and including the concept of transference psychosis and the principle of transference (a transference psycbosis) immediate and spontaneous in chidren, winch would allow to recognizec the inestimable value of the first interviews. The notions of transference, countertransference and affect are the basis of the reflexion of this work. These concepts differs from psychiatry categories, which far from representing the suffering and the clinical issues associated with the psychopathological' field would be at the origin of the "nosographic entanglement". The methodology used is the analytical play for diagnostic purposes, which would promote the establishment of a brief transference-countertransference linkage but very useful for the implantation of a psychodynamic diagnosis, thatt is, that includes mechanisms, anxieties and fantasies acting Within the child. The results consist mainly on the specificity of the play led by these young patients, by definition strange and always unexpected, and being the heart of the transference phenomenon
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Savin, Étienne. „Facteurs physico-chimiques locaux et controle de la vasomotricite de la main lors de l'hyperemie postischemique“. Paris 5, 1990. http://www.theses.fr/1990PA05S013.

Der volle Inhalt der Quelle
Annotation:
Cette etude a pour but de mettre en evidence l'action de facteurs physico-chimiques locaux sur la vasomotricite arterielle de la main. L'experimentation, effectuee sur six sujets volontaires sains a consiste a mesurer par velocimetrie doppler a emission pulsee, le debit sanguin humeral d'une part dans les conditions basales, d'autre part apres interposition d'un garrot au poignet gonfle a 250 mm hg (ce qui exclut la circulation de la main), et a la levee de celui-ci. Cette etude a ete realisee a la temperature de neutralite thermique et a trois autres temperatures locales (10, 15 et 33 c) de maniere a modifier le metabolisme. Avant la levee du garrot, un prelevement sanguin effectue a la pulpe digitale a permis d'etudier les modifications metaboliques induites par l'ischemie ou les changements de temperature et leurs retentissements sur l'hemodynamique. Ce travail a montre que lors des modifications vasomotrices liees aux variations de la temperature locale, le facteur responsable ne peut etre de nature metabolique, les modifications biochimiques n'etant pas suffisamment importantes pour modifier a elles seules les debits de facon appreciable. Le role de la temperature locale sur le muscle lisse vasculaire par action reflexe sympathique adrenergique est donc preponderant dans les conditions habituelles. Si la stase vasculaire consecutive aux arrets circulatoires modifie grandement la composition du liquide interstitiel local, l'hyperemie postischemique observee a la levee brutale du garrot n'est pas non plus la consequence des modifications metaboliques : elle est d'origine mecanique, liee a l'etat de tension du muscle lisse vasculaire en reponse a l'etat cardiovasculaire local. Par contre, le metabolisme local intervient pour fixer la duree de l'hyperemie.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Belleau, Pascale. „Pour ou contre l'utilisation d'animaux en science? Enquête sur les représentations sociales qui informent le débat“. Thesis, Université d'Ottawa / University of Ottawa, 2014. http://hdl.handle.net/10393/31609.

Der volle Inhalt der Quelle
Annotation:
Notre recherche porte sur le savoir de sens commun créé, partagé et utilisé par les étudiants quant à l’utilisation d’animaux en science, une pratique faisant l’objet d’un débat polarisé. Notre objectif est d’aller au-delà des attitudes individuelles qui varient selon plusieurs facteurs et d’interroger ce qui relève plus généralement du collectif. Nous avons eu recours à la théorie des représentations sociales formulée par Serge Moscovici pour répondre à notre question de recherche: « Quelles sont les représentations sociales de l’utilisation d’animaux en science chez les étudiants? ». L’approche utilisée fut qualitative et empirique. Nous avons mené deux groupes de discussion composés d’étudiants de l’Université d’Ottawa et effectué une analyse qualitative des discussions. Nos résultats montrent que les représentations partagées par ces individus sont générées par les aspects « descriptifs » de l’utilisation, son utilité et sa moralité, souvent antinomiques ou émotives et influencées par les images diffusées dans les médias.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Köhler, Arnaud. „Rôle des cellules dendritiques pre-CD8α Clec9A+ dans la protection contre Listeria monocytogenes en début de vie“. Doctoral thesis, Universite Libre de Bruxelles, 2016. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/235619.

Der volle Inhalt der Quelle
Annotation:
Selon un rapport de l’OMS, les maladies infectieuses figurent parmi les 3 causes les plus fréquentes de mortalité en début de vie. En effet, les nouveau-nés présentent une sensibilité particulièrement importante aux infections, de par leur système immunitaire toujours en développement et donc immature. Parmi les particularités de l’immunité néonatale, l’absence de cDCs CD11chigh CD8α+ durant la 1ère semaine de vie rend compte de l’incapacité du nouveau-né à développer des réponses de type Th1 et T CD8+ cytotoxiques, essentielles à la protection contre certains pathogènes comme Listeria monocytogenes (Lm). Mon travail de thèse a porté sur l’ontogénie des DCs conventionnelles CD11chigh CD8α+ et plus particulièrement sur la fonction de cette lignée de DCs en début de vie lors d’une infection par Lm. Au cours de cette étude, nous avons identifié, chez le nouveau-né, une population splénique de cDCs CD11chigh qui expriment les marqueurs CD24, CD205 et Clec9A mais pas le CD8α. Cette population, qui dépend du facteur de transcription Batf3, acquière le CD8α une fois transférée dans une souris adulte. Ces DCs néonatales, que nous nommerons DCs pre-CD8α Clec9A+, constituent donc les précurseurs des DCs CD8α+. L’étude fonctionnelle de ces DCs pre-CD8α Clec9A+ a montré qu’elles étaient capables de phagocyter Lm et de générer des réponses T CD8+ contre cette bactérie. De plus, ces cellules sécrètent de l’IL-12p40 et de manière unique de l’IL-10 en réponse à une stimulation par Lm. Par contre, contrairement aux cDCs CD8α+ adultes, nous n’avons observé aucune production d’IL-12p70 par les DCs pre-CD8α Clec9A+ en conditions physiologiques. Elles ne sécrètent pas non plus d’IL-23. Nous avons également montré que ces sécrétions d’IL-12p40 et d’IL-10 jouaient respectivement un rôle positif et négatif dans l’induction des réponses T CD8+ contre Lm. Ainsi, la génération des réponses T CD8+ contre Lm semble résulter, en début de vie, d’une balance entre la sécrétion de ces 2 cytokines aux propriétés antagonistes. Par ailleurs, nous avons démontré que ces cellules constituaient une cible privilégiée en vue d’améliorer les stratégies vaccinales en début de vie. En effet, l’administration à des nouveau-nés d’une construction anti-Clec9A/OVA, associée au poly(I:C), induit des réponses T CD8+ anti-Lm mémoires protectrices à l’âge adulte. Finalement, nous montrons que le TNF-α produit par les monocytes et les neutrophiles joue un rôle essentiel dans la génération des réponses T CD8+ en régulant notamment le statut et la fonction des DCs pre-CD8α Clec9A+ en début de vie. En effet, cette cytokine modifie, en faveur d’une production d’IL-12p40, la balance IL-12p40/IL-10 sécrétée par celles-ci. L’inhibition de la production d’IL-10 par le TNF-α pourrait s’expliquer au moins en partie par une inhibition de la β-caténine au sein des DCs pre-CD8α Clec9A+. En conclusion, nous avons caractérisé un précurseur des DCs CD8α+ biologiquement actif au sein de la rate du nouveau-né de 3 jours. Celui-ci représente une cible potentielle pour l’amélioration des stratégies vaccinales contre des bactéries intracellulaires ou des virus en début de vie, et ce pour autant que l’on puisse contrôler ses propriétés régulatrices.
Doctorat en Sciences biomédicales et pharmaceutiques (Médecine)
info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie