Dissertations / Theses on the topic 'Distorsion du signal'

To see the other types of publications on this topic, follow the link: Distorsion du signal.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 19 dissertations / theses for your research on the topic 'Distorsion du signal.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Pagot, Jean-Baptiste. "Modeling and monitoring of new GNSS signal distortions in the context of civil aviation." Phd thesis, Toulouse, INPT, 2016. http://oatao.univ-toulouse.fr/17864/1/PAGOT_JB.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
GNSS is used nowadays in various fields for navigation and positioning including safety -of-life applications. Among these applications is civil aviation that requires a very high quality of service for the most demanding phases of flight in terms of integrity, accuracy, availability and continuity. To meet these requirements any source of potential service degradations has to be accounted for. One such example is GNSS signal distortions due to the satellite payload which can manifest in two ways: nominal distortions that are generated by healthy satellites due to payload imperfections and nonnominal distortions that are triggered by a satellite payload failure. The thesis first looks at the nominal distortions through GPS L1 C/A and Galileo E1C signals. Different types of observations are used based on correlation or chip domain visualization, and using high-gain and omnidirectional antennas. After the observation of nominal distortions, the dissertation investigates the non-nominal distortions due to the payload failure. Supported by the groundwork performed by civil aviation on signal distortion for the GPS L1 C/A signal, this dissertation aims at proposing new distortions models associated to the new GPS and Galileo signals that will be used by civil aviation after 2020. In particular, new TMs for new signals (GPS L5, Galileo E5a and Galileo E1C) are proposed. Finally, in this dissertation is built an appropriate monitor, referred to as SQM that is able to detect any distortion from the proposed TMs (for new signals) that could lead to a position integrity failure. Regarding GPS L1 C/A signal monitoring, such SQM is today implemented in GNSS augmentation systems including GBAS and SBAS. The current monitors are based on the analysis of the correlation function.
2

Da, Silva Jeferson Jhone. "Développement d'outils pour le suivi non-invasif de la pression intracrânienne par des produits de distorsion acoustiques." Thesis, Université Clermont Auvergne‎ (2017-2020), 2019. http://www.theses.fr/2019CLFAS010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La mesure non invasive de la pression intracrânienne (PIC) est un sujet de recherche depuis des décennies, car les méthodes invasives comportent des risques d’hémorragies et d’infections. La surveillance non invasive par des réponses cochléaires a été suggérée comme étant une mesure fiable. Une des réponses couramment analysées dans ces méthodes est celle des produits de distorsion acoustique (PDA). La mesure du PDA est rapide et simple, car il suffit d'envoyer une stimulation sonore et d'enregistrer la réponse acoustique produit par les cellules ciliées externes à l'aide d'une seule sonde (comme une oreillette) dans le conduit auditif externe. Le déphasage du PDA est le paramètre qui nous permet de surveiller les variations de la PIC. Comme il s'agit d'une mesure relative, il est nécessaire de disposer d'une référence individuelle qui ne devrait pas être modifiée pendant ou entre les mesures. Cependant, les phases sont sensibles au positionnement de la sonde et (même de légères) variations de l'impédance de l'oreille. De plus, l’âge du patient influence les niveaux du PDA qui réduisent généralement avec le vieillissement. Ils sont aussi fragiles et très sensibles à l’environnement acoustique, en particulier le bruit généré par le patient. Le présent travail présente initialement le développement d'une méthode de traitement du signal basée sur l'analyse de la distribution du signal pour l'identification et la réjection automatique des sections bruyantes, afin d'améliorer la robustesse de l'extraction du signal du bruit de fond acoustique. La méthode mise au point a été comparée à la rejection de sections sur la base de seuils déterminés par l'opérateur à l'aide de l'analyse visuelle du spectre du signal (méthode standard). Les résultats ont indiqué un niveau de bruit statistiquement inférieur et des signaux plus stables lors de l'utilisation de la méthode automatique. Une deuxième étude présente une technique de détection du positionnement des sondes et des fuites d'air (AFPS), en utilisant l'analyse de la réponse en fréquence de la pression mesurée dans le conduit auditif externe après une stimulation large bande. Dans cette étude une table d'inclinaison a été utilisée pour induire une légère variation de la PIC dans quatre positions (60°, 0°, -20° et encore 60°) en deux séries de mesures. Nous avons analysé la reproductibilité entre les deux essais et les effets sur les résultats du test du déplacement de la sonde et des fuites d’air quand elles étaient identifiées. Ces analyses ont indiqué que la méthode AFPS est en mesure de classer correctement les signaux en fonction de la présence de fuites d'air ou du déplacement de la sonde. Pour la dernière expérience, les deux techniques (rejection automatique et AFPS) ont été adaptées pour être utilisées en temps réel, permettant d'identifier et de corriger les problèmes éventuels avant ou pendant le test. Nous avons comparé l'appareil modifié et l'appareil commercial en deux séances d'essai, de sorte que chaque appareil a été utilisé pour les deux oreilles. Dans chaque séance, trois tests ont été effectués (T1, T2 et T3), chacun avec cinq valeurs enregistrées pour chacune des trois positions (45°, 0° "position couchée" et -10°). Les trois tests ont été effectués afin de permettre l'analyse de la reproductibilité des mesures, sans et avec l’effet du remplacement de sonde, et sa précision (exprimée par l'écarttype des différences). La méthode AFPS augmente la robustesse, fournissant des valeurs plus cohérentes dans toutes les analyses, surtout en cas de repositionnement de la sonde. La réjection automatique réduit la variabilité entre les cinq mesures prises pour la même position, augmentant ainsi la stabilité et la précision des réponses
Non-invasive measurement of intracranial pressure (ICP) has been a research topic for decades, as invasive methods carry risks of hemorrhages and infections. Non-invasive monitoring by cochlear responses has been suggested as a reliable method. One of the most common solutions considered in these methods is the Distortion Products of Otoacoustic Emissions (DPOAE). The DPOAE measurement is quick and simple, as it only requires sending a sound stimulation and recording the cochlear acoustic response using a single probe (such as an earphone). The DPOAE phase shift is the parameter that allows us to monitor the ICP variations. As this is a relative measure, it is necessary to have an individual reference that should not be changed during or between measurements. In addition, the age of the patient influences the DPOAE levels which generally reduce with aging. They are also fragile and very sensitive to the acoustic environment, especially the noise from the patient. This work first presents the development of a signal processing method based on signal distribution analysis for automatic identification and rejection of noisy sections, in order to improve the robustness of the signal extraction from acoustic background noise. The developed method was compared to the rejection thresholds based on operator visual analysis (standard method). The results indicated a statistically lower noise level and more stable signals when using the automatic method. A second study presents a probe positioning and air leak detection technique (AFPS), based on the frequency response analysis of the pressure measured in the external ear canal after wideband stimulation. In this study, a tilt table was used to induce a slight variation in the ICP in four positions (60°, 0°, -20° and again 60°) into two series of measurements. We analyzed the reproducibility between the two tests and the effects on the test results of probe displacement and air leakage when they were identified. These analyses indicated that the AFPS is able to correctly classify the signals according to the occurrence of air leaks or probe movement. In the last experiment, both techniques (automatic rejection and AFPS) were adapted to be used in real time, to identify and correct any problems before or during the test. We compared the modified device and the commercial device in two test sessions, so that each device was used for both ears. In each session, three tests were performed (T1, T2 and T3), each with five values recorded for each of the three positions (45°, 0° "lying down" and -10°). These three tests were performed to allow the analysis of the reproducibility of the measurements, without and with a probe replacement effect, and its accuracy (expressed as the standard deviation of the differences). The AFPS increases robustness, providing more consistent values in all analyses, especially if the probe is repositioned. Automatic rejection reduces the variability between the five measurements taken for the same position, thus increasing the stability and accuracy of the responses
3

Thiesse, Jean-Marc. "Codage vidéo flexible par association d'un décodeur intelligent et d'un encodeur basé optimisation débit-distorsion." Phd thesis, Université de Nice Sophia-Antipolis, 2012. http://tel.archives-ouvertes.fr/tel-00719058.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est dédiée à l'amélioration des performances de compression vidéo. Deux types d'approches, conventionnelle et en rupture, sont explorées afin de proposer des méthodes efficaces de codage Intra et Inter pour les futurs standards de compression. Deux outils sont étudiés pour la première approche. Tout d'abord, des indices de signalisations sont habilement traités par une technique issue du tatouage permettant de les masquer dans les résiduels de luminance et de chrominance de façon optimale selon le compromis débit-distorsion. La forte redondance dans le mouvement est ensuite exploitée pour améliorer le codage des vecteurs de mouvement. Après observation des précédents vecteurs utilisés, un fin pronostic permet de déterminer les vecteurs résiduels à privilégier lors d'une troisième étape de modification de la distribution des résiduels. 90% des vecteurs codés sont ainsi pronostiqués, ce qui permet une nette réduction de leur coût. L'approche en rupture vient de la constatation que H.264/AVC et son successeur HEVC sont basés sur un schéma prédictif multipliant les choix de codage, les améliorations passent alors par un meilleur codage de la texture à l'aide d'une compétition accrue. De tels schémas étant bornés par la signalisation engendrée, il est alors nécessaire de transférer des décisions au niveau du décodeur. Une approche basée sur la détermination conjointe au codeur et au décodeur de paramètres de codage à l'aide de partitions causales et ainsi proposée et appliquée aux modes de prédiction Intra et à la théorie émergente de l'échantillonnage compressé. Des performances encourageantes sont reportées et confirment l'intérêt d'une telle solution innovante.
4

Rossello, Norbert. "Optimisation par traitement de signal et automatique de la pureté spectrale de forts signaux d'émission : application aux émissions sonar." Nice, 1990. http://www.theses.fr/1990NICE4416.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Alors d'une émission sonar, les variations de l'antenne acoustique distordent les signaux d'émission. Cette étude présente une correction permettant de résoudre ce problème. Elle consiste en une régulation en boucle fermée du fonctionnement de la chaine d'émission sonar. C’est la correction par analyse spectrale et bouclage. La correction se réalise comme suit : dans un premier temps l'analyse spectrale du signal d'émission permet de connaitre sa répartition fréquentielle, et d'estimer sa pureté spectrale par rapport à un critère fixe. De par ses qualités développées dans cette étude, nous proposons l'analyse spectrale inspirée de Prony. La distorsion du signal d'émission est alors connue. Dans un deuxième temps nous adressons à la commande le moyen de corriger cette distorsion. Ceci nous impose de résoudre un système non linéaire avec contraintes. Pour cette résolution, dans l'ensemble des algorithmes présentés, nous proposons celui de Newton-Raphson à pas optimisé. La correction est alors totalement définie. Des simulations effectuées pour différentes variations de la charge introduisant de la distorsion harmonique, ainsi que pour des imperfections dans la chaine d'émission, ont parfaitement validé le développement théorique de cette étude
5

Muquet, Bertrand. "Nouveaux schémas de réception et décodage pour les systèmes OFDM sans fil avec préfixe cyclique ou zero-padding." Paris, ENST, 2001. http://www.theses.fr/2001ENST0022.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Guénégo, Béatrice. "Conversion numérique de signaux biologiques de faibles intensités pour les applications biomédicales." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPAST230.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'ischémie cardiaque est une pathologie cardiaque qui est, selon l'Organisation Mondiale de la Santé, la première cause de mortalité. Il s'agit d'une vascularisation insuffisante des cellules du myocarde qui, si elle perdure, entraîne un infarctus cardiaque, c'est-à-dire la nécrose d'une partie du cœur, et met en danger la vie du patient. Néanmoins, si l'ischémie est prise en charge à temps, elle peut n'avoir aucune conséquence sur la santé du patient. Un système embarqué permettant de détecter l'ischémie cardiaque sur des durées longues, sans nécessiter une surveillance de la part du personnel médical, et qui fournirait des alertes permettrait aux patients d'être pris en charge plus tôt, augmentant ainsi leurs chances d'éviter l'infarctus.L'électrocardiogramme (ECG) est une mesure de l'activité électrique du cœur couramment utilisée en médecine pour effectuer un premier diagnostic. Elle permet de détecter de nombreuses pathologies cardiaques via un examen de la morphologie du signal et des intervalles de temps entre les différents évènements. Le diagnostic d'ischémie s'appuie sur les variations de la partie de l'ECG désignée comme le segment ST. Il existe déjà des systèmes embarqués s'appuyant sur l'ECG pour détecter des troubles du rythme cardiaque, mais aucun ne détecte l'ischémie. Dans ce contexte, l'originalité de ce travail de thèse est la conception d'un système intégré qui sera à même de détecter spécifiquement les variations du segment ST pour détecter l'ischémie. Les principaux verrous à la conception d'un tel système sont la préservation du segment ST pendant l'étape d'acquisition et la définition d'un traitement du signal adapté à l'électronique intégrée (consommation, complexité, préservation du segment ST).Par conséquent, dans le cadre de cette thèse, nous avons étudié la conception d'un système intégré adapté à l'acquisition et au traitement de l'ECG dans le cadre de la détection de l'ischémie cardiaque. Les différents circuits, simulations et « layouts » produits ont été réalisés en 180 nm, dans la technologie XFAB xh018. La norme sur les performances minimales des électrocardiogrammes éditée par l'International Electrotechnical Commission (IEC) a été utilisée comme référence pour la quantification de la distorsion du segment ST. Nous avons tout d'abord conçu un étage d'acquisition analogique depuis le niveau système jusqu'au niveau transistor. Des simulations de cet étage ont ensuite été réalisées pour confirmer son adéquation avec la norme IEC et pour estimer sa consommation. La conception d'un convertisseur analogique-numérique n'apportant pas de nouveauté par rapport à l'état de l'art, elle n'a pas été abordée pendant cette thèse. Nous avons ensuite étudié une implémentation de la transformée en ondelettes discrète en intégré, transformée utilisée pour éliminer le bruit et obtenir des informations sur les points caractéristiques du signal tout en conservant la possibilité d'une reconstruction du signal. Pour qualifier les performances de ce traitement numérique, nous avons simulé une implémentation de l'algorithme de Mallat en Python, qui a ensuite été réalisée en VHDL, et enfin un placement-routage de ce circuit numérique a été effectué pour plusieurs ondelettes. De cette manière, les «layouts» et les résultats des simulations «post-layout» ont permis de déterminer quelle ondelette offre le meilleur compromis entre la distorsion du signal, l'élimination de la «baseline wander», la consommation, et la surface du circuit.L'ensemble de ce travail couvre donc la conception et le dimensionnement des blocs essentiels d'une chaîne d'acquisition de l'ECG dédié à la détection du segment ST qui soit intégrable sur une puce. Il pourra être complété par l'implémentation d'une méthode embarquée de prise de décision avant la réalisation physique d'une puce électronique
According to the World Health Organization, cardiac ischemia is the world's leading cause of death. Ischemia is an insufficient vascularization of myocardial cells, which, if prolonged, leads to the necrosis of part of the heart, i.e., a cardiac infarction, endangering the patient's life. However, if ischemia is treated in time, it can have no impact on the patient's health. An embedded system that detects cardiac ischemia over long periods, without requiring medical staff monitoring, and provides alerts would enable patients to be taken care of earlier, increasing their chances of avoiding a heart attack.The electrocardiogram (ECG) is a measurement of the heart's electrical activity, commonly used in medicine to make an initial diagnosis. Examining the signal morphology and the time intervals between different events gives hints of eventual pathologies. The diagnosis of ischemia is based on variations in the part of the ECG named ST segment. Some embedded systems using the ECG to detect cardiac arrhythmias already exist, but none target cardiac ischemia. In this context, the originality of this work is in the design of an integrated system that can detect ST segment variations for ischemia diagnosis. The main difficulties of such a system's design are ST segment preservation during the acquisition stage and the conception of a signal processing method adapted to integrated circuits (power consumption, complexity, ST segment preservation).In this thesis, we studied the design of an integrated system for ECG acquisition and processing for cardiac ischemia detection. The various circuits, simulations, and layouts were realized in 180 nm using XFAB xh018 technology. The standard giving minimum performance for electrocardiograms published by the International Electrotechnical Commission (IEC) was used to quantify ST-segment distortion. We first designed an analog acquisition stage from the system to the transistor level. Simulations of this stage were then carried out to confirm its compliance with the IEC standard and to estimate its power consumption. As the design of an analog-to-digital converter is not new to the state of the art, it was not addressed during this thesis. Then, we conceived an integrated implementation of the discrete wavelet transform, used to eliminate noise and obtain information on the signal's fiducial points while retaining the possibility of reconstructing the signal. We first simulated an implementation of Mallat's algorithm in Python, which was then realized in VHDL, and finally, the place and route step was carried out for several wavelets. Layouts and post-layout simulation results were used to determine which wavelet offered the best trade-off between signal distortion, baseline wander elimination, power consumption, and circuit area.This work covers the design and dimensioning of the essential blocks of an ECG acquisition chain dedicated to ST segment detection that can be integrated. It may be completed by implementing an embedded decision-making method before the physical realization of the chip
7

Payan, Frédéric. "Optimisation du compromis débit/distorsion pour la compression géométrique de maillages surfaciques triangulaires." Phd thesis, Université de Nice Sophia-Antipolis, 2004. http://tel.archives-ouvertes.fr/tel-00011445.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
les travaux développés dans cette thèse portent sur l'optimisation du compromis débit-distorsion pour des maillages triangulaires quantifiés par un codeur géométrique. De nombreux travaux considèrent que la géométrie est la composante la plus importante d'un maillage polygonal. Les codeurs issus de ces travaux appelés codeurs géométriques, incluent une étape de remaillage et une transformée en ondelettes qui permet une analyse multirésolution efficace. L'objectif de nos travaux est de proposer un codeur géométrique incluant une allocation binaire qui optimise la qualité visuelle du maillage reconstruit en fonction du débit. Le but de l'allocation est de minimiser la distance surface-surface entre le maillage d'entrée et le maillage quantifié en fonction d'un débit de consigne. Cette distance qui traduit la différence géométrique entre deux maillages demande un lourd processus d'un point de vue calculatoire. Utiliser une approximation de cette mesure comme critère de distorsion est donc préférable si l'on souhaite une allocation rapide. Nous avons alors montré que sous certaines hypothèses cette mesure pouvait être estimée par une somme pondérée des erreurs de quantification des coefficients d'ondelettes. De plus, les particularités statistiques des coefficients d'ondelettes
géométriques permettent l'utilisation de modèles théoriques pour le
débit et la distorsion des sous-bandes de coefficients. Finalement,
nous proposons un codeur géométrique incluant une allocation rapide et performante qui optimise la quantification des coefficients pour que la qualité visuelle de l'objet reconstruit soit maximisée sous la contrainte d'un débit total fixé. Expérimentalement, l'algorithme
proposé donne de meilleurs résultats que toutes les méthodes de l'état de l'art.
8

Hamoud, Houssam Eddine. "Linéarisation par pré-distorsion numérique d'amplificateurs de puissance pour les nouvelles générations des systèmes de télécommunications." Thesis, Limoges, 2019. http://www.theses.fr/2019LIMO0110.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes de communication modernes convergent vers un fonctionnement multi-standard associé à des formats de modulation à fort PAPR où l’amplificateur de puissance doit être d’abord optimisé en rendement et où la linéarité sera corrigée ensuite par l’ajout d’un prédistorteur. Si cette solution semble fonctionnelle, elle parait inadaptée et peu efficace sur les systèmes 5G où les largeurs de bandes visées posent à la fois des problèmes d’architecture (complexité de la voie d’observation) etde précision des modèles comportementaux usuels basés sur une simplification de la série de Volterra dans sa forme discrète (GMP, DDR) face à des effets de mémoire exacerbés mais également d’efficacité énergétique du système linéarisé (DPD+PA). Il devient nécessaire dans ce contexte d’aller vers un modèle de prédistorteur moins dépendant des caractéristiques du signal à linéariser, notamment par le modèle TPM (Two path Memory) développé à XLIM, basé sur une simplification de la série de Volterra dans sa forme continue, s’avère indépendant des caractéristiques du signal à linéariser.Notre travail s’est attaché à évaluer les performances en linéarité des modèles classiques (GMP, DDR) et du modèle TPM sur différents amplificateurs de puissance, soit à partir de simulations ou à partir de mesures physiques du PA. Pour ce faire nous avons mis en place un environnement de simulation ainsi qu’un banc d’évaluation des modèles de prédistorsion avec le PA physique afin de quantifier les performances en ACPR suivant la variation de caractéristique du signal (puissance, fréquence, statistique). L’ensemble de ces expérimentations ont permis de vérifier d’une part la faible robustesse des approches classiques (GMP/DDR), d’autre part la stabilité des performances de l’approche TPM quel que soit le scenario envisagé. Cette étude ouvre donc la voie d’une nouvelle génération de prédistorteur qui, extrait une fois pour toute, ne nécessiterait qu’une mise à jour sur des phénomènes à dynamique lente (vieillissement) et permettrait d’envisager une architecture simplifiée de la voie d’observation du DPD ; donc une amélioration de l’efficacité énergétique globale du système linéarisé
Modern communications systems converge towards multi-standard operation combined with high PAPR modulation formats where the power amplifier must first be optimized in efficiency and where linearity will then be corrected by adding a predistorter. If this solution seems functional, it seems inadequate and ineffective on 5G systems where the targeted bandwidths pose both architectural problems (complexity of the observation path) and problems of accuracy of the usual behavioural models based on a simplification of the Volterra series in its discrete form (GMP, DDR) in the face of exacerbated memory effects but also of energy efficiency of the linearized system (DPD+PA). In this context, it becomes necessary to move towards a predistorter model less dependent on the characteristics of the signal to be linearized, in particular by the TPM (Two path Memory) model developed at XLIM, based on a simplification of the Volterra series in its continuous form, is independent of the characteristics of the signal to be linearized.Our work focused on evaluating the linearity performance of the classical models (GMP, DDR) and the TPM model on different power amplifiers either from simulations or from physical measurements of the PA. To do this, we have set up a simulation environmentand an evaluation bench for predistortion models with physical PA in order to quantify ACPR performance according to the variation in signal characteristics (power, frequency, statistics). All these experiments made it possible to verify, on the one hand,the poor robustness of traditional approaches (GMP/DDR) and, on the other hand, the stability of the performance of the TPM approach, whatever the scenario envisaged. This study therefore paves the way for a new generation of pre-distributor which, if extracted once and for all, would only require an update on slow dynamic phenomena (ageing) and would make it possible to consider a simplified architecture of the DPD observation path; thus improving the overall energy efficiency of the linearizedsystem
9

Akam, Bita Isidore Paul. "Sur une approche de l'analyse en composantes indépendantes à la compression des images multi composantes." Phd thesis, Université Joseph Fourier (Grenoble), 2007. http://tel.archives-ouvertes.fr/tel-00151987.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans une première partie, nous définissons plusieurs schémas de compression en partant de l'état de l'art qu'est JPEG 2000 aujourd'hui. Les schémas de compressions que nous avons définis proposent d'utiliser une transformation pour la réduction de la redondance spatiale transformée en ondelette discrète (TOD) et une autre transformation pour réduire la redondance spectrale. Les transformations optimales sous les hypothèses faible distortion, permettant de réduire la redondance spectrale, s'obtiennent dans certains cas en minimisant un critère qui peut être interprété comme le critère de l'analyse en composantes indépendantes (ACI) (minimisation de l'information mutuelle) additionné d'un terme toujours positif ou nul qui est une certaine mesure à l'orthogonalité de la transformation obtenue. Les performances obtenues en intégrant ces transformations dans nos schémas de compression montrent une amélioration des performances en comparaison à la transformation de Karhunen Loève (TKL). Dans la deuxième partie, nous proposons un modèle de mélange convolutif pour rechercher une transformation unique réduisant à la fois les redondances spatiales et spectrales. Nous définissons le critère à minimiser sous les hypothèses faibles distortions et nous montrons que ce critère peut s'interprété comme celui de l'ACI pour la séparation et déconvolution lorsque le critère à minimiser est l'information mutuelle auquel s'additionne un terme toujours positif ou nul. Puis nous proposons deux algorithmes permettant d'obtenir d'une part la transformation minimisant le critère dans le cas général, et d'autre part celle qui minimise le critère sous la contrainte que la distorsion dans le domaine transformée est la même que celle du domaine de l'image.
10

Picard, Guillaume. "Traitement statistique des distorsions non-linéaires pour la restauration des enregistrements sonores." Phd thesis, Télécom ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00002315.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de la thèse est l'étude, la modélisation et le traitement des distorsions non linéaires sonores, pour lesquelles les techniques actuelles s'avèrent impuissantes. L'approche retenue consiste à représenter, globalement, à la fois le signal audio à restaurer et le processus de distorsion, dans le cadre d'un modèle statistique. Cette approche présente un bon compromis entre une souhaitable généricité -possibilité de traiter à l'aide d'une méthode globale plusieurs types de distorsions- et l'utilisation de connaissances spécifiques, notamment concernant les sources de distorsions. La première étape de la thèse consiste en une analyse des mécanismes de la distorsion basée sur une série de mesures où plusieurs séquences audio sont enregistrées en entrée et en sortie d'appareils audiofréquences standards (amplificateurs de puissance, convertisseurs numérique-analogique, enregistreurs sur bandes magnétiques). Les éléments d'analyse retenus conduisent à la présentation des hypothèses principales du traitement. La méthode est basée sur un modèle de transmission non-linéaire choisi parmi ceux étudiés dans la littérature (modèles en cascades de Hammerstein simple), ainsi qu'un modèle des signaux à restaurer (modélisation autorégressive et modèle gaussien à écart-type variable). La seconde étape définit d'une part, la méthode d'identification ``autodidacte'' (à partir de la donnée seule du signal distordu) du modèle de distorsion et d'autre part, la technique de reconstruction de l'extrait sonore associée aux modèles de distorsion et de signal.
11

Agostini, Marie Andrée. "New Trends in High Definition Video Compression - Application to Multiple Description Coding." Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00451684.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La problématique principale de cette thèse est la compression de masses de données vidéo haute résolution. Nous proposons un schéma de compression vidéo par transformée en ondelettes compensée en mouvement. Plus précisément, dans le but de réduire le coût des vecteurs mouvement parfois trop élevé dans ce type de schéma, nous avons développé une approche de quantification avec pertes de ces vecteurs, permettant d'adapter leur précision tout en respectant le compromis débit/ distorsion. Cette approche permet d'améliorer considérablement les performances du codeur, spécialement `a bas débit. Pour modéliser l'influence de l'introduction de perte sur l'information de mouvement, nous avons établi un modèle théorique de distorsion de l'erreur de codage, et, enfin, nous avons réalisé une allocation de débit optimale basée modèle entre les vecteurs mouvement et les coefficients d'ondelettes. Pour éviter certains artefacts dus à une mauvaise estimation du mouvement, nous avons ensuite amélioré le schéma lifting utilisé pour la transformée en ondelettes par une approche novatrice : les coefficients du schéma lifting sont adaptés à la norme des vecteurs mouvement. Notre méthode de quantification des vecteurs mouvement a par ailleurs été appliquée au codeur H.264, la norme actuelle de compression vidéo pour la Haute Définition. Enfin, nous avons travaillé sur le Codage par Descriptions Multiples, une approche de codage conjoint source / canal pour la compression robuste de vidéos utilisée dans la transmission sur des canaux de communication bruités. Nous avons développé un codeur vidéo robuste, par des approches de Codage par Descriptions Multiples dans le domaine transformé. Une allocation de débit est réalisée au codeur pour répartir le débit des coefficients d'ondelettes entre les différentes descriptions, en fonction des paramètres du canal. Plus particulièrement, pour reconstruire au mieux la vidéo en sortie du canal, nous avons réalisé des approches de décodage optimal, basées sur la connaissance des densités de probabilités des sous bandes des différentes descriptions, sur un modèle de canal et sur des probabilités à posteriori. En parallèle, le codage de source vidéo distribué a également été exploré.
12

Cheaito, Ali. "Analytical anaysis of in-band and out-of-band distorsions for multicarrier signals : Impact of non-linear amplification, memory effects and predistorsion." Thesis, Rennes, INSA, 2017. http://www.theses.fr/2017ISAR0001/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les techniques multiporteuses de type OFDM sont aujourd'hui largement déployées dans tous les systèmes de communication sans fils notamment dans les réseaux cellulaires (L TE), les réseaux de diffusion (DVB) ou encore les réseaux WiFi. Cependant, les modulations multiporteuses se caractérisent par une très grande dynamique mesurée par le Peak to Average Power Ratio (PAPR), ce qui empêche d'alimenter l'amplificateur de puissance non linéaire (utilisé avant l'émission des signaux) à son point optimal et ainsi conduit à diminuer son efficacité énergétique. Des techniques de réduction du PAPR peuvent alors être mises en oeuvre pour réduire le PAPR du signal et des techniques de prédistorsion peuvent alors être utilisées pour compenser les non-linéarités de l'amplificateur de puissance. L'approche développée dans le cadre de cette thèse a pour objectif d'étudier une solution intelligente pour les implémentations futures pour contrôler la réduction du PAPR et les étapes de linéa risation de manière flexible en fonction de certains paramètres prédéfinis afin qu'ils deviennent adaptatifs et auto-configurables. Plus précisément, notre travail a principalement porté sur l'analyse des différentes distorsions dans la bande (in-band distortions)mesurées par I'EVM ou Error Vector Magnitude et en dehors de la bande de transmission (out-of-band distortions) mesurées par I'ACPR ou Adjacent Channel Power Ratio de signaux à porteuses multiples. En particulier de nombreux résultats analytiques complétés par des résultats de simulation permettant d'évaluer I'EVM et I'ACPR en fonction des caractéristiques de l'amplification nonlinéaire en prenant en compte ou pas l'effet mémoire de l'amplificateur et la mise en oeuvre de techniques d'écrêtage et de pré-distorsion ont été obtenus. Ces résultats constituent une étape importante dans l'optimisation globale de la complexité, de la linéarité et de l'efficacité énergétique des émetteurs aussi bien pour la diffusion de la télévision numérique que pour les réseaux cellulaires de 4 ème génération (L TE) ou de 5""' génération
OFDM multicarrier techniques are now widely deployed in most wireless communication systems, in particular in cellularnetworks (L TE), broadcast networks (DVB) and WiFi networks. However, multi-carrier modulations are characterized by avery large dynamic amplitude measured by the Peak to Average Power Ratio (PAPR). which prevents radio frequencydesigners to feed the signal at the optimal point of the Power Amplifier (PA) which reduces the PA energy efficiency. Inliterature, the PAPR reduction and linearization techniques are the main approaches to solve the PAPR problem, the PAnonlinearities problem. as well as the low PA efficiency problem.The approach developed in this thesis was to study an intelligent solution for future implementations to control thereduction of PAPR and the linearization steps in a flexible way according to some predefined parameters so that theybecome adaptive and self-configurable. More specifically, our work focused on the analytical analysis of in-band measureby the Error Vector Magnitude (EVM) and out-of-band distortions measured by the Adjacent Chanel Power Ratio (ACPR)for clipped multicarrier signals taking into account the impact of non-linear amplification, memory effects and predistortion.In particular. many analytical results complemented by simulation results to evaluate the EVM and ACPR are proposed.These analytical expressions depend on the PA characteristics taking into account or not the PA memory effects and theuse of clipping and pre-distortion techniques. lt is worthwhile to note that our proposed theoretical analyses could be veryuseful for optimizing future transmitter efficiency and linearity in the field of broadcasting applications for the deployment oDVB-T2 transmitters as well as for L TE cellular networks
13

Lajoinie, Jérôme. "Contribution à la conception optimale en terme de linéarité et consommation des amplificateurs de puissance en fonctionnement multiporteuses." Limoges, 2000. http://aurore.unilim.fr/theses/nxfile/default/db9f1c38-f96b-4798-9ae8-94e63c48d9fb/blobholder:0/2000LIMO0007.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les signaux traités par les systèmes de télécommunications actuels sont très complexes : multiporteuses modulées, modulation numérique et signaux à spectre étalé. La particularité de ces signaux est d’être des signaux à enveloppe variable. Pour caractériser la linéarité des amplificateurs de puissance de ces systèmes, l’un des critères qui s’impose aujourd’hui est le NPR (Noise Power Ratio). Après la description des moyens de caractérisations en fonctionnement CW et multiporteuses des amplificateur de puissance ainsi que des outils de simulations, une étude approfondie du facteur de linéarité en fonctionnement multiporteuses (le NPR) est entreprise. Une méthode de conception d’amplificateur de puissance optimisé en linéarité et en consommation a été développée. Cette méthode fait appel à une nouvelle figure de mérite spécifique (C/(N+I))=f(Pdc/N) qui intègre directement le rapport signal à bruit de la liaison dans l’optimisation conjointe de la consommation et du NPR. Une étude systématique des conditions de fonctionnement optimales des amplificateurs de puissances concernant les impédances de fermeture et les classes de fonctionnement est entreprise. On montre l’intérêt de la prise en compte des impédances de charge et de source à la 2ème harmonique dans la linéarité multiporteuse. La nouvelle méthodologie de conception est appliquée à la réalisation de deux amplificateurs optimisés en linéarité et consommation. Les étapes successives de la conception sont exposées en présentant en parallèle une vérification expérimentale des résultats. Une caractérisation complète sur banc des deux amplificateurs réalisés est présentée
The signals used in modern telecommunication systems are very complex in the sense that multicarrier signals, digitally modulated and spread spectrum signals are required. The main characteristic of these signals is their time variant envelope. To characterize the linearity of power amplifiers used in these systems, one of the criterions, which is essential today is the NPR (Noise Power Ratio). After the description of the means of power amplifier characterizations under CW and multicarrier operations as well as CAD tools, an in depth study of the multicarrier linearity factor used (the NPR) is undertaken. A design method for power amplifier in terms of linearity and consumption was developed. This method is based on the optimisation of a new specific figure of merit (C/(N+I)=f(Pdc/N) which directly integrates the total signal to noise ratio of the system in a joint optimization of consumption and NPR. A systematic study of the optimal loading impedance and the operation classes of amplifiers is performed. One shows the interest of taking into account load and source impedances at the 2nd harmonic. The new design methodology is applied to the realization of two amplifiers optimized in linearity and consumption. An experimental checking validates the successive steps of the design. A complete characterization on a NPR measurement set-up of the two produced amplifiers is presented
14

Cornille, Nicolas. "Accurate 3D Shape and Displacement Measurement using a Scanning Electron Microscope." Phd thesis, INSA de Toulouse, 2005. http://tel.archives-ouvertes.fr/tel-00166423.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Avec le développement actuel des nano-technologies, la demande en matière d'étude du comportement des matériaux à des échelles micro ou nanoscopique ne cesse d'augmenter. Pour la mesure de forme ou de déformation tridimensionnelles à ces échelles de grandeur, l'acquisition d'images à partir d'un Microscope Électronique à Balayage (MEB) couplée à l'analyse par corrélation d'images numériques s'est avérée une technique intéressante. Cependant, un MEB est un outil conçu essentiellement pour de la visualisation et son utilisation pour des mesures tridimensionnelles précises pose un certain nombre de difficultés comme par exemple le calibrage du système et la correction des fortes distorsions (spatiales et temporelles) présentes dans les images. De plus, le MEB ne possède qu'un seul capteur et les informations tridimensionnelles souhaitées ne peuvent pas être obtenues par une approche classique de type stéréovision. Cependant, l'échantillon à analyser étant monté sur un support orientable, des images peuvent être acquises sous différents points de vue, ce qui permet une reconstruction tridimensionnelle en utilisant le principe de vidéogrammétrie pour retrouver à partir des seules images les mouvements inconnus du porte-échantillon.

La thèse met l'accent sur la nouvelle technique de calibrage et de correction des distorsions développée car c'est une contribution majeure pour la précision de la mesure de forme et de déformations 3D aux échelles de grandeur étudiées. Elle prouve que, contrairement aux travaux précédents, la prise en compte de la dérive temporelle et des distorsions spatiales d'images est indispensable pour obtenir une précision de mesure suffisante. Les principes permettant la mesure de forme par vidéogrammétrie et le calcul de déformations 2D et 3D sont aussi présentés en détails. Dans le but de valider nos travaux et démontrer en particulier la précision de mesure obtenue, des résultats expérimentaux issus de différentes applications sont présentés tout au long de la thèse. Enfin, un logiciel rassemblant différentes applications de vision par ordinateur a été developpé.
15

Picard, Guillaume. "Traitement statistique des distorsions non-linéaires pour la restauration des enregistrements sonores /." Paris : École nationale supérieure des télécommunications, 2007. http://catalogue.bnf.fr/ark:/12148/cb41024512c.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Mahé, Gaël. "Correction centralisée des distorsions spectrales de la parole sur les réseaux téléphoniques." Phd thesis, Université Rennes 1, 2002. http://tel.archives-ouvertes.fr/tel-00114668.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ces travaux ont pour objet la correction des distorsions spectrales subies par la parole sur les réseaux téléphoniques, en premier lieu le réseau fixe (terrestre) dans sa partie analogique. Ces distorsions sont dues aux fonctions de transfert des terminaux téléphoniques en émission et en réception, et aux lignes téléphoniques analogiques correspondantes. Le but est de restaurer, en aveugle, un "timbre" le plus proche possible de la voix originale du locuteur, au moyen d'un traitement du signal centralisé dans un équipement du réseau.

Nous proposons un algorithme d'égalisation spectrale aveugle consistant à aligner, sur une bande de fréquences limitée (200-3150 Hz), le spectre à long terme du signal traité sur un spectre de référence (spectre de la recommandation P.50 de l'UIT-T). Des évaluations subjectives mettent en évidence une restauration satisfaisante du timbre original des locuteurs, dans la limite de la bande d'égalisation choisie.

Il apparaît toutefois que la quantification en loi A des échantillons de sortie de l'égaliseur induit un bruit gênant en réception. Deux approches sont donc proposées pour masquer perceptivement ce bruit par un reformage spectral. L'une est fondée sur la réinjection à l'entrée du quantificateur de l'erreur de quantification filtrée. L'autre explore selon un algorithme de type Viterbi les séquences temporelles des niveaux de quantification possibles, de manière à maximiser un critère probabiliste de masquage du bruit. Une évaluation subjective montre finalement d'une part que le bruit non reformé est préféré au bruit reformé, plus sporadique mais plus "rauque", d'autre part qu'une voix dont le timbre a été corrigé, au prix de ce bruit de quantification, est préférée à la même voix en réception d'une liaison téléphonique sans correction de timbre (et non bruitée).

Afin d'améliorer l'adéquation du spectre de référence de l'égaliseur aux différents locuteurs, une classification des locuteurs selon leur spectre, en deux ou quatre classes, est étudiée, et des critères de classement robustes aux distorsions de la liaison téléphonique sont définis. Cette classification permet d'utiliser non plus un spectre de référence unique, mais un spectre de référence par classe. Il en résulte une réduction de la distorsion spectrale induite par l'égaliseur, ce qui se traduit, pour certains locuteurs, par une amélioration significative de la correction de timbre.
17

Vivet, Damien. "Perception de l'environnement par radar hyperfréquence. Application à la localisation et la cartographie simultanées, à la détection et au suivi d'objets mobiles en milieu extérieur." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2011. http://tel.archives-ouvertes.fr/tel-00659270.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cadre de la robotique mobile extérieure, les notions de perception et de localisation sont essentielles au fonctionnement autonome d'un véhicule. Les objectifs de ce travail de thèse sont multiples et mènent vers un but de localisation et de cartographie simultanée d'un environnement extérieur dynamique avec détection et suivi d'objet mobiles (SLAMMOT) à l'aide d'un unique capteur extéroceptif tournant de type radar dans des conditions de circulation dites "réalistes", c'est-à-dire à haute vitesse soit environ 30 km/h. Il est à noter qu'à de telles vitesses, les données acquises par un capteur tournant son corrompues par le déplacement propre du véhicule. Cette distorsion, habituellement considérée comme une perturbation, est analysée ici comme une source d'information. Cette étude vise également à évaluer les potentialités d'un capteur radar de type FMCW (onde continue modulée en fréquence) pour le fonctionnement d'un véhicule robotique autonome. Nous avons ainsi proposé différentes contributions : - une correction de la distorsion à la volée par capteurs proprioceptifs qui a conduit à une application de localisation et de cartographie simultanées (SLAM), - une méthode d'évaluation de résultats de SLAM basées segment, - une considération de la distorsion des données dans un but proprioceptif menant à une application SLAM, - un principe d'odométrie fondée sur les données Doppler propres au capteur radar, - une méthode de détection et de pistage d'objets mobiles : DATMO avec un unique radar.
18

Guigue, Lisa. "Evaluation clinique de la pression artérielle centrale à partir de la mesure par cathétérisme radial en utilisant la modélisation de l'arbre artériel, de la liaison hydraulique et du capteur. Intégration de la fonction dans un dispositif de surveillance de la qualité de la mesure de la pression artérielle." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAS036.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La pression centrale est le reflet de l'état hémodynamique du patient et son estimation se fait par l'acquisition de la pression artérielle radiale plus facilement accessible chez la majorité des patients en anesthésie-réanimation et soins intensifs. Cette thèse tente de résoudre les difficultés de l’évaluation de la pression centrale à partir du cathétérisme radial associé à un capteur de pression via une liaison hydraulique. Ces freins à l'évaluation sont :1.les altérations liées à la liaison hydraulique entre le cathéter radial et le capteur;2.les distorsions liées à l’arbre artériel entre le cœur et la périphérie (artère radiale). Il existe des cas cliniques où les propriétés de l’arbre artériel sont modifiées de telle sorte que la pression périphérique n’est plus le reflet de la pression centrale et donc ne peut plus l'estimer correctement. L'un de ces phénomènes est connu sous le terme de découplage entre pressions artérielles centrale et périphérique.Pour la première difficulté, le dispositif médical CAThétérisme Artériel Radial en Soins Intensifs (CATARSI) développé par AII Biomédical apporte une solution à ce problème en fournissant un indice de la qualité de la mesure par cathéter et liaison hydraulique.Dans les cas physiopathologiques entraînant une mauvaise estimation de la PA central, la possibilité d’alerter le personnel soignant sur l’apparition de ces situations serait optimale. Cette fonction pourrait être intégrée au dispositif CATARSI. Au préalable, il faut comprendre, évaluer et modéliser de manière précoce, les mécanismes mis en jeu dans ces situations cliniques particulières.Le travail de thèse s'articule donc selon 3 axes :1.Evaluation expérimentale, par oscillométrie et cathétérisme, de la mesure de la vitesse de propagation de l’onde de pouls le long de l’arbre artériel chez l’homme (Pression artérielle centrale, radiale, fémorale) en situation de découplage entre pression centrale/pression périphérique. Cette évaluation sera faite chez des patients en CEC (Circulation Extra-Corporelle) car ils peuvent présenter des découplages. Plusieurs phases de mesures sont prévues avant, pendant et après la CEC.2.Recherche et optimisation d’une méthode de détection automatique du découplage entre pression artérielle centrale et périphérique à partir de l’analyse du signal de pression radiale en continu et d’une mesure complémentaire effectuée par le clinicien avec un autre capteur sur proposition du dispositif CATARSI.3.Proposition d’un ou plusieurs modèles du segment central-radial de l’arbre artériel afin d’obtenir une meilleure évaluation de la pression artérielle centrale à partir de la mesure de pression radiale par cathéter pour ensuite intégrer de nouvelles fonctionnalités dans le dispositif CATARSI
Aortic pressure is generally recognized as a good index of the hemodynamic state of a patient. In intensive care units, aortic pressure is indirectly estimated via a radial catheter-tansducer system. The present study aims to remove the obstacles to a reliable evaluation of central pressure via the radial catheter-transducer system commonly used in clinics. These obstacles can be due to :1.technical problems occurring between the radial catheter and the sensor;}2.pathophysiological problems affecting the arterial tree between the heart and peripheral arteries. Several clinical situations have been identified in which alterations of the physical properties of the vasculature do not allow a reliable estimation of central arterial pressure using the common radial setting. One of these phenomena is the so called central-to-radial arterial pressure gradient.CATARSI, a medical device developped by AII SAS, affords a solution to the first group of problems by providing an index of the quality of the signal provided by the radial catheter-transducer system.Under pathophysiological conditions affecting the arterial vascualture of the patient, early detection of a mismatch between peripheral and central arterial pressure would also be of great clinical value. In this view, a new functionality could be develop to implement CATARSI. However, to achieve this goal, it is first necessary to understand, evaluate and modelize the precise pathophysiological mechanisms involved in these particular situations.The study contains three steps :1.Experimental evaluation, by oscillometry and catheterization, of AP propagation-time on the human arterial tree (aortic, radial, femoral arterial pressure) during a central-to-radial arterial pressure gradient. This evaluation has been carried out on patients undergoing Cardio Pulmonary Bypass (CPB). Several measurements have been performed: before, during and after CPB.2.Development and optimization of a method allowing the detection of an uncoupling between central and peripheral arterial pressure thanks to AP signal analysis in real time and a potential complementary measurement performed with CATARSI.3.Several central to radial arterial modelling propositions in order to present a better evaluation of central arterial pressure estimated by radial arterial pressure
19

Saad, El Dine Mohamad. "Linéarisation des amplificateurs de puissance à haut rendement en combinant les techniques de pré distorsion numérique et le contrôle de polarisation." Limoges, 2011. http://aurore.unilim.fr/theses/nxfile/default/159b8ebd-0d26-4b99-9c48-fc7f17ff3bf4/blobholder:0/2011LIMO4021.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes de communications modernes requièrent l’utilisation de formats de modulations qui génèrent des signaux hyper fréquences dont l’enveloppe est variable avec des rapports entre la puissance crête et la puissance moyenne (PAPR) très forts. Dans ces conditions, l’amplificateur de puissance de l’émetteur est très contraint par une optimisation difficile du compromis entre son rendement électrique et sa linéarité. Ainsi il apparaît clairement que le développement d’architectures d’amplificateurs visant une amélioration de rendement significative présente un intérêt majeur et on assiste à une tendance assez générale qui consiste à appliquer des techniques correctives de linéarisation aux architectures d’amplificateurs à très haut rendement. Dans ce contexte, il apparaît opportun de concevoir des outils de caractérisation qui sont capables de contribuer efficacement au développement de solutions d’amplifications linéaires et à haut rendement. C’est précisément le développement et l’exploitation d’un tel outil de caractérisation qui fait l’objet de ces travaux de thèse. Une exploitation du système de caractérisation est appliquée à un amplificateur GaN 10W pour deux types de signaux (QAM16 et OFDM). Des résultats de caractérisation de l’amplificateur et une amélioration des performances sont obtenus en appliquant successivement une technique de contrôle de polarisation de drain et une pré distorsion numérique en bande de base. Enfin une étude est également menée en présence d’un signal de contrôle de polarisation volontairement filtré pour diminuer sa bande passante et alléger les contraintes en terme de couple vitesse / puissance du modulateur de polarisation
Modern communication systems require the use of modulation schemes that lead to non envelope constant microwave signals. The peak to average power ratio (PAPR) of these signals is large. In such conditions, power amplifiers used in transmitters are critical devices because they need to be optimized in terms of both electrical efficiency and linearity which are antagonist parameters if conventional power amplifier architectures are considered. Consequently there is a major interest in research activities dealing with new power amplifier architectures that enable to obtain either high efficiency or good linearity performances. This can be reached if linearization techniques are applied to high efficiency power amplifiers designs. In such a context it is of prime interest to develop a laboratory set up that includes dynamic biasing of power amplifiers and digital predistortion capabilities to investigate novel high efficiency and linear amplification solutions. This has been accomplished in this work and applied to the optimisation of both efficiency and linearity of a 10 Watt GaN amplifier at S Band. Finally an experimental study that consists in low pass filtering the dynamic drain bias voltage is reported. The goal is to find a possible solution to enhance the efficiency of the bias modulator circuit without impacting to much linearity performances

To the bibliography