Дисертації з теми "Signaux Faible"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Signaux Faible.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Signaux Faible".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Le, Pelleter Tugdual. "Méthode de discrétisation adaptée à une logique événementielle pour l'utra-faible consommation : application à la reconnaissance de signaux physiologiques." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT043/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes embarqués mobiles font partis intégrante de notre quotidien. Afin de les rendre plus adaptésaux usages, ils ont été miniaturisés et leur autonomie a été augmentée, parfois de façon très considérable.Toutefois, les propositions d’amélioration butent désormais sur les possibilités de la technologie des circuitsintégrés. Pour aller plus loin, il faut donc envisager de repenser la chaîne de traitement du signal afin deréduire la consommation de ces dispositifs. Cette thèse développe une approche originale pour exploiterefficacement l’échantillonnage par traversée de niveaux d’une part et, d’autre part, associe cet échantillonnageà une logique évènementielle afin de réduire drastiquement la consommation d’énergie des systèmesintégrés autonomes. Une méthode de discrétisation adaptée à une application de reconnaissance de signauxphysiologiques, utilisée comme exemple dans cette thèse, y est présentée. Un premier prototype en logiqueévènementielle (asynchrone) sur circuit FPGA a permis de valider cette stratégie et de démontrer les bénéficesde cet échantillonnage dédié en termes de réduction de l’activité par rapport à un échantillonnage uniforme.Un second prototype en logique asynchrone et conçu en technologie CMOS AMS 0.35 μm a permis de validerpar simulation électrique un gain extrêmement important sur la consommation électrique du dispositif
Our everyday life is highly dependent on mobile embedded systems. In order to make them suitable to differentapplications, they have underwent size reduction and lifetime extension. However, these improvementsare currently limited by the possibilities of the integrated circuits technologies. In order to push back theboundaries, it is necessary to reconsider the whole digital signal processing chain from scratch to sustain thepower consumption reduction in this kind of system. This work develops on the first hand a strategy thatsmartly uses the level-crossing sampling scheme and on the other combines this sampling method with eventlogicto highly reduce the power consumption in mobile embedded systems. A discretisation method adaptedto the recognition of physiological patterns application is described. A first event-logic (asynchronous) prototypeimplemented on FPGA proved the potential benefits that an adapted sampling scheme could offersto reduce activity compared to a uniform sampling scheme. Electrical simulations performed on a secondprototype, also designed in asynchronous logic, with CMOS AMS 0.35 μm technology, validated a high gainin power consumption
2

Le, Pas de Sécheval Helman. "Traitement des signaux optiques a tres faible niveau de puissance : application a la detection heterodyne traitement de la phase." Paris 6, 1992. http://www.theses.fr/1992PA066542.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un des problemes theoriques les plus importants des communications optiques quantiques a detection heterodyne est la definition d'un operateur obeissant aux lois de la mecanique quantique. Le present memoire est consacre a l'analyse des differentes approches de cet operateur. La premiere partie est consacree a l'expose des divers criteres permettant d'optimiser les performances d'un recepteur: probabilite d'erreur, capacite, debit critique. Les differents recepteurs (direct, homodyne et heterodyne) sont passes en revue et il est montre qu'ils ne sont tous que sous-optimaux. Dans la deuxieme partie, la detection directe (comptage du nombre de photons et mesure de l'intervalle de temps separant deux photons) pour un canal binaire est etudiee en detail dans deux cas: un processus de poisson issu d'un signal sans memoire dans un canal faiblement bruite; des processus de poisson composes (groupement et antigroupement) dans un canal sans bruit. Il est montre qu'une description approfondie de la lumiere comporte necessairement des aspects non classiques. La derniere partie est consacree a un expose complet des resultats recents demontres pour l'operateur de phase et il est montre comment l'extension non-standard de l'espace de hilbert de l'optique quantique permet la definition d'un operateur de phase auto-adjoint
3

Nicodeme, Marc. "Identifiabilité des signaux parcimonieux structurés et solutions algorithmiques associées : application à la reconstruction tomographique à faible nombre de vues." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0096/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse étudie différents problèmes de minimisations avec des fonctions de régularisations qui promeuvent la parcimonie. Plus précisément, on souhaite reconstruire une image, que l'on suppose parcimonieuse et qui a subit une transformation après un opérateur linéaire, à l'aide de problèmes de minimisations. Dans ce manuscrit, on s'intéressera plus particulièrement à la minimisation l1 synthèse, analyse et bloc qui sont très utilisées pour reconstruction une image que l'on sait parcimonieuse. Ces minimisations produisent en pratique des résultats convaincants qui n'ont été compris théoriquement que récemment. Les différents travaux sur le sujet mettent en évidence le rôle d'un vecteur particulier appelé certificat dual. L'existence d'un certificat dual permet à la fois d'assurer la reconstruction exacte d'une image dans le cas où il n'y a pas de perturbations et d'estimer l'erreur de la reconstruction en présence de perturbations. Dans nos travaux, nous allons introduire l'existence d'un certifical dual optimal pour la minimisation l1 synthèse qui minimisent l'erreur de reconstruction. Ces résultats ayant une forte interprétation géométrique, nous avons développé un critère identifiabilité, c'est à dire que ce critère assure que l'image recherchée est l'unique solution du problème de minimisation. Ce critère permet d'étendre nos travaux à la minimisation l1 analyse, l1 bloc et à d'autres cas
This thesis studies different minimization problems with sparses based regularization. More precisely, we want to reconstruct a sparses image, which undergone a linear transformation, with minimization problems. In this manuscript, we will be focused on l1 synthesis, analysis and block minimization which are widely used in sparse approximations. These problems offer competitive results which are theorietical understood only recntly. Different studies on the subject emphasized the contribution of a particular vector called dual certificate. The existence of this dual certificate allows simultaneously to guarantee the exact recovey of an image in noiseless case and to estimate the noise robustness in noisy case. In this work, we introduce eth existence of an optimal dual certificate for the l1 synthesis minimization which minimizes the reconstruction error. As those results have a strong geometrical interpretation, we develop an identifiability criterion which ensures the uniqueness of a solution. This criterion generalizes the work on l1 synthesis minimization tothe analysis case, block case and others
4

Brizon, Ambre. "Compréhension et gestion des signaux faibles dans le domaine de la santé-sécurité." Phd thesis, École Nationale Supérieure des Mines de Paris, 2009. http://tel.archives-ouvertes.fr/tel-00403623.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de recherche était basé dans le laboratoire CRC des Mines ParisTech, financé par la FonCSI et avait pour terrain de recherche sanofi-aventis (la direction centrale HSE et les sites pharmaceutiques core solid français). Le but de ce travail était de comprendre et d'aider à mieux gérer les signaux faibles sur nos terrains de recherche, dans le domaine des risques d'accidents de travail et de maladies professionnelles. Cette thèse propose une vision holistique des signaux faibles en les observant tout au long de leur vie, au travers des différents groupes d'acteurs, de la hiérarchie et des outils. Les méthodes de travail sont basées sur la grounded theory, en extrayant du terrain le modèle que nous proposons et en travaillant à base d'études de cas. Nous avons donc extrait un modèle permettant de mieux définir les signaux faibles : le « modèle DPTP » : un signal faible est un signal pouvant annoncer un évènement majeur (accident majeur, accident du travail ou maladie professionnelle) et restant faible aux différentes étapes de sa vie (détection, pertinence, transmission, priorisation). Pour chacune des étapes de notre modèle nous avons cherché dans la littérature quelles étaient les connaissances nécessaires à l'avancement de notre travail. Ensuite, nous sommes retournés sur le terrain afin de mener différentes études de cas pour valider et préciser chacune de ces étapes. Au terme de ce travail, nous pouvons proposer le modèle DPTP comme un modèle permettant l'aide à la gestion des signaux faibles.
5

Pelissier, Michaël. "Développement d'architecture et de fonctions RF avancées pour la réception de signaux Ultra Large Bande dans les applications à basse consommation." Grenoble INPG, 2006. http://www.theses.fr/2006INPG0153.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En dehors des applications à haut débit, l'Ultra Large Bande (ULB) offre également un potentiel important pour des applications plus bas débit dont la principale contrainte est la consommation. La thèse présente la réalisation de fonctions critiques du front-end RF d'une architecture de réception ULB innovante dédiée à ces applications. Dans un premier temps, le contexte général associé à l'ULB et les différents types de récepteur de signaux impulsionnels sont présentés. Deux points bloquants sont mis en évidence: la consommation élevée des étages de gain et la difficulté d'atteindre une bonne résolution temporelle à faible coût. Aussi le premier axe de travail a consisté à réaliser un LNA faible consommation basé sur une solution d'amplification adaptée à la forme du signal. Dans un deuxième temps nous avons proposé une nouvelle architecture de récepteur ULB à base de super-régénération. Les résultats de mesures du circuit réalisé en technologie CMOS O,13flm valident le concept
Except high data rate applications, Ultra Wide Band (UWB) shows potential great interest for low date rate systems, in which, major constraints rely on power consumption. This thesis presents the development of critical blocs for RF receiver front end of an innovative architecture dedicated to the latter applications. First, the general context of UWB, and several pulse signal receivers are reminded. Two critical points are highlighted: the excessive power consumption of the gain stages and the difficulty to achieve precise resolution in time do main while keeping low cost devices. Thus, first work objective consisted in the development of low power LNA based on matched amplification to the signal shape. Then, we proposed a novel UWB receiver architecture based on super-regeneration. Measurements results of the chip fabricated in 0,13 flm CMOS process validate the concept
6

Murgia, Carlo. "Codage haute qualité des signaux de parole (20 Hz - 15 kHz) à très faible retard et au débit de 64 kbit/s." Grenoble INPG, 1997. http://www.theses.fr/1997INPG0187.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette etude a pour objectif l'elaboration d'algorithmes performants de compression des signaux audio (parole et musique) de la bande fm (20 hz - 15 khz) a tres faible retard et au debit de 64 kbit/s. Nous avons choisi la technique ld-celp comme algorithme de base. Ce codeur a initialement ete concu pour la quantification a tres faible retard des signaux de parole de la bande telephonique (300-3400 hz) et standardise a l'itu-t sous le sigle g. 728. Une partie de notre travail a consiste a etendre cet algorithme a la bande fm en optimisant sa structure et en exploitant au mieux les proprietes du systeme perceptif humain. Ensuite, en nous basant sur cette technique, nous avons mis au point d'autres schemas de compression de haute qualite et a faible retard. Dans un premier temps nous avons modifie l'algorithme du g. 728 pour l'adapter a la bande fm. Pour ce faire, nous avons mis au point une procedure et des outils de test permettant d'optimiser les parametres de cet algorithme au sens d'un critere de distorsion perceptuelle. En particulier, nous avons developpe un algorithme d'evaluation de la qualite subjective denomme mpeq : mesure perceptuelle d'evaluation de la qualite. Grace a ces optimisations nous avons pu atteindre une bonne qualite des signaux codes. Cependant, la quasi-transparence ne peut etre atteinte que par l'introduction d'algorithmes de mise en forme optimale du bruit de quantification. Nous avons ainsi propose de nouveaux algorithmes bases sur la modelisation par prediction lineaire de la courbe de masquage. Dans un second temps, nous avons etudie des codeurs permettant de reduire la complexite sans perte significative de qualite. Nous avons exploite l'utilisation des dictionnaires ternaires algebriques et propose un codeur predictif adaptatif a faible retard base sur la quantification vectorielle gain-forme. Ces techniques de compression permettent une reduction de la complexite allant jusqu'a 30% tout en garantissant une qualite satisfaisante pour la parole et la musique. Les algorithmes proposes ont ete evalues par des tests d'ecoutes formels. La qualite des signaux codes par nos codeurs est comparable a celle du standard mpeg layer ii et significativement superieure a celle du standard mpeg layer i et ceci pour un retard de seulement 0,15 ms contre un retard de 35 ms pour les codeurs mpeg.
7

Ferreira, Esteves Paulo Alexandre. "Techniques d'acquisition à haute sensibilité des signaux GNSS." Thesis, Toulouse, ISAE, 2014. http://www.theses.fr/2014ESAE0016/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes de navigation par satellite (GNSS) font partie de notre quotidien. On peut présentement les trouver dans un ensemble d’applications. Avec les nouveaux besoins, des nouveaux enjeux sont aussi apparus : le traitement du signal dans les environnements urbains est extrêmement complexe. Dans cette thèse, le traitement des signaux GNSS à faible puissance est abordé, en particulier dans la première phase du traitement, nommé acquisition de signal. Le premier axe de rechercheporte sur l’analyse et la compensation de l’effet Doppler dans l’acquisition. Le décalage Doppler perçu par l’utilisateur est un des paramètres principaux pour la configuration du module d’acquisition. Dans cette étude, des solutions sont proposées pour trouver le meilleur compromis sensibilité-complexité propre à l’acquisition. En deuxième axe, la caractérisation des détecteurs différentiels est abordée, en particulier la quantification de sa sensibilité. Pour l’acquisition des signaux faibles, après une première phase d’intégration cohérente, il faut passer par une intégration «postcohérente» (noncohérente ou différentielle.) L’analyse exécutée ici permet de meilleur identifier le meilleur choix entre les deux possibilités. Le troisième axe de recherche est consacré à la méthode de Détection Collective (CD), une innovation qui fait l’acquisition simultanée de tous les signaux visible par le récepteur. Plusieurs analyses sont réalisées incluant l’amélioration de la procédure de recherche de la CD, et l’hybridisation avec l’acquisition standard. Enfin on effectuel’analyse de la CD dans un contexte multi-constellation, en utilisant simultanément des vrais signaux GPS et Galileo
Satellite navigation (GNSS) is a constant in our days. The number of applications that depend on it is already remarkable and is constantly increasing. With new applications, new challenges have also risen: much of the new demand for signals comes from urban areas where GNSS signal processing is highly complex. In this thesis the issue of weak GNSS signal processing is addressed, in particular at the first phase of the receiver processing, known as signal acquisition. The first axe of research pursued deals with the analysis and compensation of the Doppler effect in acquisition. The Doppler shift that is experienced by a user is one of the main design drivers for the acquisitionmodule and solutions are proposed to improve the sensitivity-complexity trade-off typical of the acquisition process. The second axe of research deals with the characterization of differential GNSS detectors. After a first step of coherent integration, transition to post coherent (noncoherent or differential) integration is required for acquiring weak signals. The quantification of the sensitivity of differential detectors was not found in literature and is the objective of this part of the research. Finally, the third axe of research is devoted to multi-constellation Collective Detection (CD). CD is an innovative approach for the simultaneous processing of all signals in view. Severalissues related to CD are addressed, including the improvement of the CD search process and the hybridization with standard acquisition. Finally, the application of this methodology in the context of a multi-constellation receiver is also addressed, by processing simultaneously real GPS and Galileo signals
8

Rarbi, Fatah-Ellah. "Conception d’un convertisseur analogique numérique pipeline de grande dynamique et de faible consommation pour le codage des signaux de détecteurs à forte granularité." Grenoble INPG, 2010. http://www.theses.fr/2010INPG0128.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’objectif de cette thèse est la conception de convertisseur analogique-numérique (CAN) de type pipeline pour le codage des signaux de détecteurs à forte granularité. Au cours de cette thèse, nous avons développé un modèle pour une étude approfondie des différentes sources d’erreurs et leurs conséquences sur les caractéristiques du convertisseur pipeline 12 bits à 25 MHz. Nous avons également finalisé un prototype aux limites de la technologie choisie par la collaboration CALICE dans le cadre du projet ILC. Une nouvelle architecture de CAN pipeline avec un premier étage MDAC multi-bits incluant une structure DEM a été conçue pour alles au-delà des limites de la technologie. Enfin, en parallèle avec les travaux de conception, un effort a été consacré au développement de programmes de test pour la caractérisation des différents prototypes de convertisseur A/N. Nous expliquons les résultats de tests de trois prototypes de CAN pipeline 12 bits réalisés au cours de ces trois années de thèse. Une comparaison est faite par rapport à d’autres études en cours pour le calorimètre électromagnétique d’ILD
The objective of this thesis is the design of a low power and high dynamic pipeline ADC for high granularity detector read-out. In this thesis, we developed a model for further study of different sources of errors and their consequences on the characteristics of a 12-bit pipeline converter. We also completed an ADC prototype in the limit of technology selected by the CALICE collaboration within the ILC project. New pipeline ADC architecture with a multi-bit MDAC first stage structure including a DEM has been designed to go beyong the limits of technology. Finally, in parallel with the design work, an effort has been devoted to developing test programs for the characterization of different prototypes of A/D converters. We explain the results of testing three prototype 12-bit pipeline ADC achieved during these three years of thesis. A comparison is made with respect to other ongoing studies for the electromagnetic calorimeter of ILD
9

Udupa, Pramod. "Algorithmes parallèles et architectures évolutives de faible complexité pour systèmes optiques OFDM cohérents temps réel." Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S039/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, des algorithmes à faible complexité et des architectures parallèles et efficaces sont explorés pour les systèmes CO-OFDM. Tout d'abord, des algorithmes de faible complexité pour la synchronisation et l'estimation du décalage en fréquence en présence d'un canal dispersif sont étudiés. Un nouvel algorithme de synchronisation temporelle à faible complexité qui peut résister à grande quantité de retard dispersif est proposé et comparé par rapport aux propositions antérieures. Ensuite, le problème de la réalisation d'une architecture parallèle à faible coût est étudié et une architecture parallèle générique et évolutive qui peut être utilisée pour réaliser tout type d'algorithme d'auto-corrélation est proposé. Cette architecture est ensuite étendue pour gérer plusieurs échantillons issus du convertisseur analogique/numérique (ADC) en parallèle et fournir une sortie qui suive la fréquence des ADC. L'évolutivité de l'architecture pour un nombre plus élevé de sorties en parallèle et les différents types d'algorithmes d'auto-corrélation sont explorés. Une approche d'adéquation algorithme-architecture est ensuite appliquée à l'ensemble de la chaîne de l'émetteur-récepteur CO-OFDM. Du côté de l'émetteur, un algorithme IFFT à radix-22 est choisi pour et une architecture parallèle Multipath Delay Commutator (MDC). Feed-forward (FF) est choisie car elle consomme moins de ressources par rapport aux architectures MDC-FF en radix-2/4. Au niveau du récepteur, un algorithme efficace pour l'estimation du Integer CFO est adopté et implémenté de façon optimisée sans l'utilisation de multiplicateurs complexes. Une réduction de la complexité matérielle est obtenue grâce à la conception d'architectures efficaces pour la synchronisation temporelle, la FFT et l'estimation du CFO. Une exploration du compromis entre la précision des calculs en virgule fixe et la complexité du matériel est réalisée pour la chaîne complète de l'émetteur- récepteur, de façon à trouver des points de fonctionnement qui n'affectent pas le taux d'erreur binaire (TEB) de manière significative. Les algorithmes proposés sont validés à l'aide d'une part d'expériences off-line en utilisant un générateur AWG (arbitrary wave- form generator) à l'émetteur et un oscilloscope numérique à mémoire (DSO) en sortie de la détection cohérente au récepteur, et d'autre part un émetteur-récepteur temps-réel basé sur des plateformes FPGA et des convertisseurs numériques. Le TEB est utilisé pour montrer la validité du système intégré et en donner les performances
In this thesis, low-complexity algorithms and architectures for CO-OFDM systems are explored. First, low-complexity algorithms for estimation of timing and carrier frequency offset (CFO) in dispersive channel are studied. A novel low-complexity timing synchro- nization algorithm, which can withstand large amount of dispersive delay, is proposed and compared with previous proposals. Then, the problem of realization of low-complexity parallel architecture is studied. A generalized scalable parallel architecture, which can be used to realize any auto-correlation algorithm, is proposed. It is then extended to handle multiple parallel samples from ADC and provide outputs, which can match the input ADC rate. The scalability of the architecture for higher number of parallel outputs and different kinds of auto-correlation algorithms is explored. An algorithm-architecture approach is then applied to the entire CO-OFDM transceiver chain. At the transmitter side, radix-22 algorithm for IFFT is chosen and parallel Mul- tipath Delay Commutator (MDC) Feed-forward (FF) architecture is designed which con- sumes lesser resources compared to MDC FF architectures of radix-2/4. At the receiver side, efficient algorithm for Integer CFO estimation is adopted and efficiently realized with- out the use of complex multipliers. Reduction in complexity is achieved due to efficient architectures for timing synchronization, FFT and Integer CFO estimation. Fixed-point analysis for the entire transceiver chain is done to find fixed-point sensitive blocks, which affect bit error rate (BER) significantly. The algorithms proposed are validated using opti- cal experiments by the help of arbitrary waveform generator (AWG) at the transmitter and digital storage oscilloscope (DSO) and Matlab at the receiver. BER plots are used to show the validity of the system built. Hardware implementation of the proposed synchronization algorithm is validated using real-time FPGA platform
10

Grégoire, Marie-Claude. "Reconstruction d'images cardiaques dynamiques synchronisées à l'ECG par maximum de vraisemblance sur les signaux obtenus à faible taux de comptage avec une gamma-caméra." Compiègne, 1989. http://www.theses.fr/1989COMPD190.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une méthode de traitement des études cardiaques dynamiques permettant la prise en compte simultanée de toutes les informations spatiales et temporelles, afin d'effectuer un lissage global, a été proposée. Elle repose sur l'utilisation de l'estimation bayésienne, introduisant une loi à priori du type loi de Gibbs. Une étude comparative sur simulations à faible taux de comptage entre cette méthode et diverses méthodes classiques a permis d'une part de révéler les avantages liés à l'utilisation de toute l'information temporelle disponible, d'autre part d'améliorer la qualité des résultats cliniques courants
To do a global smoothing, a processing technic of dynamic cardiac studies has been suggested, allowing the simultaneous integration of all the spatial and temporal informations. This technic uses a bayesian estimation, therefore introducing an a priori law of Gibbs. A comparative study was done on low-count simulations, using this method and other classical methods. It has shown the advantages of using all the available temporal informations, and has increased the quality of current clinical results
11

Dahoumane, Mokrane. "Conception, Réalisation et Caractérisation de l'Electronique Intégrée de Lecture et de Codage des Signaux des Détecteurs de Particules Chargées à Pixels Actifs en Technologie CMOS." Phd thesis, Université de Strasbourg, 2009. http://tel.archives-ouvertes.fr/tel-00475421.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les futures grandes expériences de l'exploration des lois fondamentales de la Nature (e.g. ILC) exigent des détecteurs de vertex de résolution spatiale et de granularité poussées, très minces et radio-tolérants, qui sont hors de portée des technologies de détections actuelles. Ce constat est à l'origine du développement des Capteurs CMOS à Pixels Actifs. La résolution spatiale du capteur est une performance clé. Elle résulte de la répartition des charges libérées par une particule chargée traversant, et ionisant, le volume sensible. L'encodage de la charge collectée par chaque pixel repose sur un CAN (Convertisseur Analogique Numérique) intégrable à même le substrat abritant le volume sensible du capteur. Ce CAN doit être précis, compact, rapide et de faible consommation. L'objectif de cette thèse a donc été de concevoir un CAN répondant à ces exigences conflictuelles. D'abord, plusieurs architectures d'un échantillonneur-bloqueur-amplificateur ont été étudiées pour conditionner le faible signal des pixels. Une architecture originale de cet étage a été conçue. L'architecture pipeline du CAN a été choisie. La configuration de base de 1,5 bit/étage a été implémentée pour tester la validité du concept, puisqu'elle permet de minimiser les contraintes sur chaque étage. Nous avons optimisé l'architecture en introduisant le concept du double échantillonnage dans un premier temps sur une configuration de 2,5 bits/étage, ceci a permis de minimiser les dimensions et la puissance. Le double échantillonnage combiné avec la résolution de 1,5 bit/étage a constitué une seconde amélioration. Une nouvelle architecture du CAN adapté à la séquence des commandes des pixels a été proposée.
12

Maitre, Julien. "Détection et analyse des signaux faibles. Développement d’un framework d’investigation numérique pour un service caché Lanceurs d’alerte." Thesis, La Rochelle, 2022. http://www.theses.fr/2022LAROS020.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce manuscrit s’inscrit dans le cadre du développement d’une plateforme d’analyse automatique de documents associée à un service sécurisé lanceurs d’alerte, de type GlobalLeaks. Nous proposons une chaine d’extraction à partir de corpus de document, d’analyse semi-automatisée et de recherche au moyen de requêtes Web pour in fine, proposer des tableaux de bord décrivant les signaux faibles potentiels. Nous identifions et levons un certain nombre de verrous méthodologiques et technologiques inhérents : 1) à l’analyse automatique de contenus textuels avec un minimum d’a priori, 2) à l’enrichissement de l’information à partir de recherches Web 3) à la visualisation sous forme de tableau de bord et d’une représentation dans un espace 3D interactif. Ces approches, statique et dynamique, sont appliquées au contexte du data journalisme, et en particulier, au traitement, analyse et hiérarchisation d’informations hétérogènes présentes dans des documents. Cette thèse propose également une étude de faisabilité et de prototypage par la mise en œuvre d’une chaine de traitement sous forme d’un logiciel. La construction de celui-ci a nécessité la caractérisation d’un signal faible pour lequel nous avons proposé une définition. Notre objectif est de fournir un outil paramétrable et générique à toute thématique. La solution que nous proposons repose sur deux approches : statique et dynamique. Dans l’approche statique, contrairement aux approches existantes nécessitant la connaissance de termes pertinents dans un domaine spécifique, nous proposons une solution s’appuyant sur des techniques nécessitant une intervention moindre de l’expert du domaine. Dans ce contexte, nous proposons une nouvelle approche de modélisation thématique multi-niveaux. Cette méthode d’approche conjointe combine une modélisation thématique, un plongement de mots et un algorithme où le recours à un expert du domaine permet d’évaluer la pertinence des résultats et d’identifier les thèmes porteurs de signaux faibles potentiels. Dans l’approche dynamique, nous intégrons une solution de veille à partir des signaux faibles potentiels trouvées dans les corpus initiaux et effectuons un suivi pour étudier leur évolution. Nous proposons donc une solution d’agent mining combinant data mining et système multi-agents où des agents animés par des forces d’attraction/répulsion représentant documents et mots se déplacent. La visualisation des résultats est réalisée sous forme de tableau de bord et de représentation dans un espace 3D interactif dans unclient Unity. Dans un premier temps, l’approche statique a été évaluée dans une preuve de concept sur des corpus synthétiques et réelles utilisés comme vérité terrain. L’ensemble de la chaine de traitement (approches statique et dynamique), mise en œuvre dans le logiciel WILD, est dans un deuxième temps appliquée sur des données réelles provenant de bases documentaires
This manuscript provides the basis for a complete chain of document analysis for a whistleblower service, such as GlobalLeaks. We propose a chain of semi-automated analysis of text document and search using websearch queries to in fine present dashboards describing weak signals. We identify and solve methodological and technological barriers inherent to : 1) automated analysis of text document with minimum a priori information,2) enrichment of information using web search 3) data visualization dashboard and 3D interactive environment. These static and dynamic approaches are used in the context of data journalism for processing heterogeneous types of information within documents. This thesis also proposed a feasibility study and prototyping by the implementation of a processing chain in the form of a software. This construction requires a weak signal definition. Our goal is to provide configurable and generic tool. Our solution is based on two approaches : static and dynamic. In the static approach, we propose a solution requiring less intervention from the domain expert. In this context, we propose a new approach of multi-leveltopic modeling. This joint approach combines topic modeling, word embedding and an algorithm. The use of a expert helps to assess the relevance of the results and to identify topics with weak signals. In the dynamic approach, we integrate a solution for monitoring weak signals and we follow up to study their evolution. Wetherefore propose and agent mining solution which combines data mining and multi-agent system where agents representing documents and words are animated by attraction/repulsion forces. The results are presented in a data visualization dashboard and a 3D interactive environment in Unity. First, the static approach is evaluated in a proof-of-concept with synthetic and real text corpus. Second, the complete chain of document analysis (static and dynamic) is implemented in a software and are applied to data from document databases
13

Delcombel, Nicolas. "Cybersécurité en réalité virtuelle : améliorer le processus de détection d’intrusion, d’investigation et de décision via l’utilisation de techniques de visualisations 3D immersives." Electronic Thesis or Diss., Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2023. http://www.theses.fr/2023IMTA0387.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous avons examiné comment la réalité virtuelle pouvait contribuer à aider les opérateurs des centres d’opération cyber qui sont chargés de traiter un grand nombre d’alertes dans des délais restreints. Pour trier ces alertes, les opérateurs comparent le comportement du système surveillé avec son comportement nominal et doivent corréler des données nombreuses et variées. Les outils 2D dont ils disposent actuellement ne fournissent pas de visualisations efficaces. Celles-ci sont limitées par leurs difficultés à corréler des données entre plusieurs visualisations, et à représenter l’évolution du comportement d’un système au fil du temps. Nous avons donc créé un concept de visualisation 3D qui permet de dépasser ces limitations. Nous avons développé un prototype immersif basé sur ce concept que nous avons évalué par rapport à des visualisations 2D. Les résultats montrent une plus grande efficacité de notre prototype pour traiter des données complexes, tout en permettant engagement accru des utilisateurs au prix d’un effort physique supplémentaire et de l’impossibilité d’interagir avec des outils 2D classiques dans l’environnement virtuel. Nous avons donc élaboré un concept d’environnement immersif pour la cybersécurité qui permet d’utiliser des visualisations 3D tout en ayant accès à des outils classiques de cybersécurité. Nous avons démontré que sa réalisation est possible et avons commencé à créer un prototype limité mais fonctionnel
In this thesis, we examined how virtual reality could contribute to assisting operators in cyber operation centers who are responsible for processing a large number of alerts within tight deadlines. To sort through these alerts, operators compare the behavior of the monitored system with its nominal behavior and must correlate numerous and diverse data. The 2D tools they currently have do not provide effective visualizations. They are limited by their difficulty in correlating data between multiple visualizations, and in representing the evolution of a system’s behavior over time. Therefore, we created a 3D visualization concept that overcomes these limitations. We developed an immersive prototype based on this concept, which we evaluated compared to 2D visualizations. The results show greater efficiency of our prototype in processing complex data, while allowing increased user engagement at the cost of additional physical effort and the inability to interact with traditional 2D tools in the virtual environment. We thus devised a concept for an immersive cybersecurity environment that enables the use of 3D visualizations while having access to conventional cybersecurity tools. We demonstrated that all the necessary software components for its realization are available and have begun combining them to create a limited but functional prototype
14

MEVEL, Olivier. "Du role des signaux faibles sur la reconfiguration des processus de la chaîne d e valeur de l'organisation : l'exemple d'une centrale d'achats de la grande distribution française." Phd thesis, Université de Bretagne occidentale - Brest, 2004. http://tel.archives-ouvertes.fr/tel-00009025.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La thèse s'inscrit dans une thématique générale reliée aux difficultés éprouvées par les organisations pour décrypter, comprendre et analyser les variations de leur environnement depuis l'explosion des échanges et la mondialisation des marchés. Nous débutons nos travaux par une double constatation, généralement admise par la littérature en sciences de gestion, à savoir que l'information est devenue en quelques années la matière première et le carburant essentiel de la chaîne de valeur de l'entreprise tandis que la maîtrise des informations émanant de l'environnement émerge, de plus en plus, comme un enjeu stratégique majeur pour l'organisation. Nos travaux se proposent de démontrer que, dans un contexte sans cesse plus turbulent, le processus décisionnel en entreprise doit savoir tenir compte des « signaux faibles » que délivre l'environnement. En effet, parmi l'ensemble des signaux reçus par l'organisation, la thèse distingue entre les « signaux forts » et les « signaux faibles » et montre leurs impacts différenciés sur la stratégie de l'entreprise ainsi que leurs conséquences, en termes organisationnels, sur la reconfiguration des processus au sein de la chaîne de valeur. L'objectif spécifique de la thèse est donc de chercher à reconnaître quelles sont les informations pertinentes que l'entreprise doit absolument traiter. Pour ce faire, nous examinons la façon dont certains signaux informationnels dit « signaux faibles » pénètrent et diffusent des connaissances nouvelles au sein de l'organisation. Dans un second temps, nous envisageons la manière dont ces connaissances peuvent impacter et moduler le format des processus de la chaîne de valeur. Dans un objectif plus global, notre thèse vise à poser les fonts baptismaux d'un management du processus décisionnel fondé sur l'observation, l'analyse et la compréhension des signaux faibles émis par le marché. En ce sens, nous postulons implicitement que le volume et la valeur des informations pertinentes dont peut disposer l'entreprise dépendent essentiellement de la capacité du management à piloter et à ajuster un double processus d'exploration et d'exploitation des informations délivrées par le signal faible. Les tentatives d'apprentissages, tant individuel que collectif, menées autour de la maîtrise du processus de gestion des signaux faibles se révèlent alors comme un enjeu majeur pour l'organisation confrontée à un environnement instable et difficilement probabilisable. Autrement dit, les signaux faibles sont de puissants vecteurs informationnels centripètes et des contributeurs indispensables à la formalisation et à l'exploitation des connaissances au sein de la chaîne de valeur. Les signaux faibles peuvent donc être considérés comme des informations d'essence anticipatoire qui sont, le moment venu, à l'origine de la reconfiguration des processus. La thèse insiste sur l'importance que doit prendre la gestion anticipative au sein des organisations. En effet, nous avons montré que la question de la gestion anticipative est directement reliée aux surprises que recèlent l'environnement de la firme. Le signal faible devient donc la clé informationnelle qui, à partir d'un évènement ou d'un état spécifique de l'environnement, permet de comprendre et d'anticiper le sens des perturbations à venir. La gestion anticipative de l'organisation se fonde alors prioritairement sur des informations pertinentes que l'organisation n'obtient qu'après avoir collecté, traité et analysé les signaux faibles décelés dans son environnement. Au-delà d'une simple vision statique de la recherche d'informations stratégiques, nous avons souhaité insister sur une vision dynamique de la valorisation des signaux faibles au sein de l'organisation. Dans un environnement mouvant, l'information « contextualisée » oxygène et fait respirer l'entreprise. L'exploitation des signaux faibles va, en outre, permettre de régler la fréquence respiratoire de l'organisation afin d'adapter les ressources et compétences de cette dernière aux différentes menaces ou opportunités spécifiques qui peuvent surgir dans son environnement. Au même titre ou sinon plus que le capital et le travail, l'information est devenue un facteur de production à part entière. En effet, issu d'un état instable de l'environnement, le signal faible est une information parcellaire qui présente la caractéristique de pouvoir potentiellement délivrer une charge informationnelle susceptible de venir renforcer la cognition et la cohérence de l'organisation. Dans l'avenir, nous espérons voir des travaux ultérieurs poursuivre dans cette voie de recherche afin de, peut être, mieux mesurer la réceptivité des entreprises au concept de gestion anticipative à partir des signaux faibles de l'environnement.
15

Yaacoub, Tina. "Nouvelles approches pour l'estimation du canal ultra-large bande basées sur des techniques d'acquisition compressée appliquées aux signaux à taux d'innovation fini IR-UWB." Thesis, Brest, 2017. http://www.theses.fr/2017BRES0077/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La radio impulsionnelle UWB (IR-UWB) est une technologie de communication relativement récente, qui apporte une solution intéressante au problème de l’encombrement du spectre RF, et qui répond aux exigences de haut débit et localisation précise d’un nombre croissant d’applications, telles que les communications indoor, les réseaux de capteurs personnels et corporels, l’IoT, etc. Ses caractéristiques uniques sont obtenues par la transmission d’impulsions de très courte durée (inférieure à 1 ns), occupant une largeur de bande allant jusqu’à 7,5 GHz, et ayant une densité spectrale de puissance extrêmement faible (inférieure à -43 dBm/MHz). Les meilleures performances d’un système IR-UWB sont obtenues avec des récepteurs cohérents de type Rake, au prix d’une complexité accrue, due notamment à l’étape d’estimation du canal UWB, caractérisé par de nombreux trajets multiples. Cette étape de traitement nécessite l’estimation d’un ensemble de composantes spectrales du signal reçu, sans pouvoir faire appel aux techniques d’échantillonnage usuelles, en raison d’une limite de Nyquist particulièrement élevée (plusieurs GHz).Dans le cadre de cette thèse, nous proposons de nouvelles approches, à faible complexité, pour l’estimation du canal UWB, basées sur la représentation parcimonieuse du signal reçu, la théorie de l’acquisition compressée, et les méthodes de reconstruction des signaux à taux d’innovation fini. La réduction de complexité ainsi obtenue permet de diminuer de manière significative le coût d’implémentation du récepteur IR-UWB et sa consommation. D’abord, deux schémas d’échantillonnage compressé, monovoie (filtre SoS) et multivoie (MCMW) identifiés dans la littérature sont étendus au cas des signaux UWB ayant un spectre de type passe-bande, en tenant compte de leur implémentation réelle dans le circuit. Ces schémas permettent l’acquisition des coefficients spectraux du signal reçu et l’échantillonnage à des fréquences très réduites ne dépendant pas de la bande passante des signaux, mais seulement du nombre des trajets multiples du canal UWB. L’efficacité des approches proposées est démontrée au travers de deux applications : l’estimation du canal UWB pour un récepteur Rake cohérent à faible complexité, et la localisation précise en environnement intérieur dans un contexte d’aide à la dépendance.En outre, afin de réduire la complexité de l’approche multivoie en termes de nombre de voies nécessaires pour l’estimation du canal UWB, nous proposons une architecture à nombre de voies réduit, en augmentant le nombre d’impulsions pilotes émises.Cette même approche permet aussi la réduction de la fréquence d’échantillonnage associée au schéma MCMW. Un autre objectif important de la thèse est constitué par l’optimisation des performances des approches proposées. Ainsi, bien que l’acquisition des coefficients spectraux consécutifs permette une mise en oeuvre simple des schémas multivoie, nous montrons que les coefficients ainsi choisis, ne donnent pas les performances optimales des algorithmes de reconstruction. Ainsi, nous proposons une méthode basée sur la cohérence des matrices de mesure qui permet de trouver l’ensemble optimal des coefficients spectraux, ainsi qu’un ensemble sous-optimal contraint où les positions des coefficients spectraux sont structurées de façon à faciliter la conception du schéma MCMW. Enfin, les approches proposées dans le cadre de cette thèse sont validées expérimentalement à l’aide d’une plateforme expérimentale UWB du laboratoire Lab-STICC CNRS UMR 6285
Ultra-wideband impulse radio (IR-UWB) is a relatively new communication technology that provides an interesting solution to the problem of RF spectrum scarcity and meets the high data rate and precise localization requirements of an increasing number of applications, such as indoor communications, personal and body sensor networks, IoT, etc. Its unique characteristics are obtained by transmitting pulses of very short duration (less than 1 ns), occupying a bandwidth up to 7.5 GHz, and having an extremely low power spectral density (less than -43 dBm / MHz). The best performances of an IR-UWB system are obtained with Rake coherent receivers, at the expense of increased complexity, mainly due to the estimation of UWB channel, which is characterized by a large number of multipath components. This processing step requires the estimation of a set of spectral components for the received signal, without being able to adopt usual sampling techniques, because of the extremely high Nyquist limit (several GHz).In this thesis, we propose new low-complexity approaches for the UWB channel estimation, relying on the sparse representation of the received signal, the compressed sampling theory, and the reconstruction of the signals with finite rate of innovation. The complexity reduction thus obtained makes it possible to significantly reduce the IR-UWB receiver cost and consumption. First, two existent compressed sampling schemes, single-channel (SoS) and multi-channel (MCMW), are extended to the case of UWB signals having a bandpass spectrum, by taking into account realistic implementation constraints. These schemes allow the acquisition of the spectral coefficients of the received signal at very low sampling frequencies, which are not related anymore to the signal bandwidth, but only to the number of UWB channel multipath components. The efficiency of the proposed approaches is demonstrated through two applications: UWB channel estimation for low complexity coherent Rake receivers, and precise indoor localization for personal assistance and home care.Furthermore, in order to reduce the complexity of the MCMW approach in terms of the number of channels required for UWB channel estimation, we propose a reduced number of channel architecture by increasing the number of transmitted pilot pulses. The same approach is proven to be also useful for reducing the sampling frequency associated to the MCMW scheme.Another important objective of this thesis is the performance optimization for the proposed approaches. Although the acquisition of consecutive spectral coefficients allows a simple implementation of the MCMW scheme, we demonstrate that it not results in the best performance of the reconstruction algorithms. We then propose to rely on the coherence of the measurement matrix to find the optimal set of spectral coefficients maximizing the signal reconstruction performance, as well as a constrained suboptimal set, where the positions of the spectral coefficients are structured so as to facilitate the design of the MCMW scheme. Finally, the approaches proposed in this thesis are experimentally validated using the UWB equipment of Lab-STICC CNRS UMR 6285
16

Caron-Fasan, Marie-Laurence. "Veille stratégique : création de sens à partir de signaux faibles." Grenoble 2, 1997. http://www.theses.fr/1997GRE21022.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette these se situe dans le domaine de la veille strategique et plus exactement dans l'aide a l'exploitation des informations de veille strategique que l'on qualifie de signaux faibles. Nos recherches s'appuient sur un double constat: dans la theorie les methodes d'aide a la formulation des strategies sont inadaptees a l'exploitation des signaux faibles, constat conforte par les dirigeants d'entreprises lorsqu'ils regrettent de ne disposer d'aucune methode pouvant les aider a resoudre leurs difficultes lors de l'exploitation de leurs signaux faibles. Sur la base de ce constat nous avons en etudiant les domaines de la psychologie cognitive, de la creativite et de la cartographie cognitive, construit une methode d'aide a l'exploitation des signaux faibles c'est a dire une methode de creation de sens par la construction d'une vision de l'environnement. Cette construction est evaluee lors d'une etude en laboratoire aupres de 127 etudiants ainsi qu'en entreprises lors de 19 entretiens et d'une etude longitudinale sur 6 mois dans 1 entreprise. Elle vise la mesure de l'utilite et de la praticabilite de la methode ainsi que l'apport de nouvelles connaissances sur les processus individuels de creation de sens a partir de signaux faibles
Our research deals with business intelligence and more specifically supports for a better processing of strategic informations known as weak signals. This work is based on two statements: theoretical observations lead us to state that strategic formulation support methods are inadapted to the process of weak signals; which is confirmed in practice by manager's difficulties to treat strategic information. In order to answer to these difficulties, we have created, by analazing area of creativity and cognitive science, a processing weak signals support method, that is to say an environmental sensemaking method. This method has been evaluated in a laboratory study, presented within 19 companies and implement in 1 firm in order to prove its practibility and utility. Furthemore, our findings have lead us to bring new knowledge concerning individual sensemaking activity
17

Rayne, Alexandre. "Prévenir les ruptures stratégiques : du bon usage des signaux faibles /." Paris : l'Harmattan, 2009. http://catalogue.bnf.fr/ark:/12148/cb41416804j.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Ltaifa, Marwa. "Tests optimaux pour détecter les signaux faibles dans les séries chronologiques." Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0189.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s'intéresse à la construction de tests localement asymptotiquement optimaux pour détecter les ruptures dans la moyenne des modèles Conditional Heteroskedastic AutoRegressiveNonlinear (CHARN) décrits par l'équation stochastique suivante : begin{equation} X_t=T(Z_{t-1})+gamma^{top}omega(t)+V(Z_{t-1})varepsilon_t,quad tinzz, end{equation} où «gamma=(gamma_1,ldots,gamma_k,gamma_{k+1})^{top} inrr^{k+1}» et pour «t_1,ldots,t_k,» «1< t_10,forall xinrr^p» et «n» le nombre des observations. Le modèle (1) contient une large classe de modèles de séries chronologiques comme les modèles AR, MA, ARMA, ARIMA, ARCH etc. L'attention est portée aux petites ruptures. Celle difficilement observables à l'œil nu, contrairement à celles considérées dans la littérature. Une telle étude ne semble pas avoir déjà été réalisée dans le contexte des séries chronologiques. Le test étudié est celui du rapport de vraisemblance, pour tester ««H_0:gamma=gamma_0text{ contre } H^{(n)}_beta:gamma=gamma_0+dfrac{beta}{sqrt{n}}=gamma_{n},quad n>1,»« pour «gamma_0inrr^{k+1}» et «betainrr^{k+1}» caractérisant respectivement la situation où il n'y a pas de rupture, et celle où il y a au moins une rupture à trouver. Ce document est organisé comme suit : Le chapitre 1 constitue l'introduction générale de la thèse. Y sont rappelés quelques notions et outils fondamentaux utiles. Le chapitre 2 fait l'état de l'art sur la détection des ruptures dans les séries chronologiques. Ce chapitre est divisé en deux parties. La première concerne l'estimation des ruptures et leurs localisations. La deuxième concerne les tests d'existence de points de ruptures. Le chapitre 3 traite le cas où les fonctions «T» et «V» sont connues et lorsqu'elles sont connues mais dépendant de paramètres inconnus. Dans ce dernier cas, la situation où le paramètre «gamma_0» est connu et celle où il est inconnu sont étudiées. Dans le cas où il est inconnu, il est estimé par la méthode du maximum de vraisemblance. L' du test étude est basée essentiellement sur la propriété locale asymptotique (LAN) énoncée par exemple dans cite{droesbeke1996}. Le chapitre 4 est une généralisation du chapitre 3. Ici, l'amplitude du saut est quelconque et inconnue. Il s'agit donc de tester ««H_0:gamma=gamma_0text{ contre }H^{(n)}=displaystylebigcup_{betainrr^{k+1}}^{}{ H^{(n)}_beta}.»« Un test de type Cramer-Von-Mises est construit. Les techniques de cite{ngatchou2009} sont utilisées pour trouver la loi asymptotique du test sous l'hypothèse alternative. Le chapitre 5 présente des résultats numériques faites en utilisant le logiciel R. Les résultats obtenus pour des données simulées sont d'abord présentés et commentés. Viennent ensuite ceux des applications à plusieurs jeux de données réelles. Le chapitre 6 conclut la thèse et dégage les perspectives pour la suite
This thesis focuses on the construction of locally asymptotically optimal tests to detect breaks in the mean of Conditional Heteroskedastic AutoRegressive Nonlinear (CHARN) models described by the following stochastic equation: begin{equation} X_t=T(Z_{t-1})+gamma^{top}omega(t)+V(Z_{t-1})varepsilon_t,quad tinzz, end{equation} where «gamma=(gamma_1,ldots,gamma_k,gamma_{k+1})^{top} inrr^{k+1}» and for «t_1,ldots,t_k,» «1< t_10,forall xinrr^p» and «n» the number of observations. The model (2) contains a large class of time series models like AR, MA, ARMA, ARIMA, ARCH etc. Attention is paid to small breaks. Those which are difficult to observe with the naked eye, unlike those considered in the literature. Such a study does not appear to have already been carried out in the context of time series. The test studied is the likelihood ratio test to test ««H_0:gamma=gamma_0text{ against } H^{(n)}_beta:gamma=gamma_0+dfrac{beta}{sqrt{n}}=gamma_{n},quad n>1,»« for «gamma_0inrr^{k+1}» and «betainrr^{k+1}» characterizing respectively the situation where there is no break, and that where there is at least one break to be found. This document is organized as follows: Chapter 1 constitutes the general introduction to the thesis. There, some useful basic concepts and tools are recalled. Chapter 2 reviews the state of the art on the detection of breaks in time series. This chapter is divided into two parts. The first concerns the estimation of breaks and their locations. The second concerns the tests for the existence of break-points. Chapter 3 deals with the case where the functions « T « and « V « are known, and when they are known but depend on unknown parameters. In the latter case, the situation where the parameter « gamma_0 « is known and the one where it is unknown are studied. When it is unknown, it is estimated by the maximum likelihood method. The study of the test is based essentially on the asymptotic local property (LAN) stated for example in cite{droesbeke1996}. Chapter 4 is a generalization of chapter 3. Here, the magnitude of the jump is arbitrary and unknown. Therefore, one has to test ««H_0:gamma=gamma_0text{ against }H^{(n)}=displaystylebigcup_{betainrr^{k+1}}^{}{ H^{(n)}_beta}.»« A Cramer-Von-Mises type test is constructed. The techniques of cite{ngatchou2009} are used to find the asymptotic distribution of the test under the alternative hypothesis. Chapter 5 presents numerical results obtained using software R. The results obtained for simulated data are first presented and commented. This is followed by those for applications with several real datasets. Chapter 6 concludes the thesis and sets out some prospects
19

Bergogne, Christian. "Transmission en mode paquet à faible rapport signal à bruit /." Paris : École nationale supérieure des télécommunications, 1997. http://catalogue.bnf.fr/ark:/12148/cb36165913n.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
20

Guénégo, Béatrice. "Conversion numérique de signaux biologiques de faibles intensités pour les applications biomédicales." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPAST230.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'ischémie cardiaque est une pathologie cardiaque qui est, selon l'Organisation Mondiale de la Santé, la première cause de mortalité. Il s'agit d'une vascularisation insuffisante des cellules du myocarde qui, si elle perdure, entraîne un infarctus cardiaque, c'est-à-dire la nécrose d'une partie du cœur, et met en danger la vie du patient. Néanmoins, si l'ischémie est prise en charge à temps, elle peut n'avoir aucune conséquence sur la santé du patient. Un système embarqué permettant de détecter l'ischémie cardiaque sur des durées longues, sans nécessiter une surveillance de la part du personnel médical, et qui fournirait des alertes permettrait aux patients d'être pris en charge plus tôt, augmentant ainsi leurs chances d'éviter l'infarctus.L'électrocardiogramme (ECG) est une mesure de l'activité électrique du cœur couramment utilisée en médecine pour effectuer un premier diagnostic. Elle permet de détecter de nombreuses pathologies cardiaques via un examen de la morphologie du signal et des intervalles de temps entre les différents évènements. Le diagnostic d'ischémie s'appuie sur les variations de la partie de l'ECG désignée comme le segment ST. Il existe déjà des systèmes embarqués s'appuyant sur l'ECG pour détecter des troubles du rythme cardiaque, mais aucun ne détecte l'ischémie. Dans ce contexte, l'originalité de ce travail de thèse est la conception d'un système intégré qui sera à même de détecter spécifiquement les variations du segment ST pour détecter l'ischémie. Les principaux verrous à la conception d'un tel système sont la préservation du segment ST pendant l'étape d'acquisition et la définition d'un traitement du signal adapté à l'électronique intégrée (consommation, complexité, préservation du segment ST).Par conséquent, dans le cadre de cette thèse, nous avons étudié la conception d'un système intégré adapté à l'acquisition et au traitement de l'ECG dans le cadre de la détection de l'ischémie cardiaque. Les différents circuits, simulations et « layouts » produits ont été réalisés en 180 nm, dans la technologie XFAB xh018. La norme sur les performances minimales des électrocardiogrammes éditée par l'International Electrotechnical Commission (IEC) a été utilisée comme référence pour la quantification de la distorsion du segment ST. Nous avons tout d'abord conçu un étage d'acquisition analogique depuis le niveau système jusqu'au niveau transistor. Des simulations de cet étage ont ensuite été réalisées pour confirmer son adéquation avec la norme IEC et pour estimer sa consommation. La conception d'un convertisseur analogique-numérique n'apportant pas de nouveauté par rapport à l'état de l'art, elle n'a pas été abordée pendant cette thèse. Nous avons ensuite étudié une implémentation de la transformée en ondelettes discrète en intégré, transformée utilisée pour éliminer le bruit et obtenir des informations sur les points caractéristiques du signal tout en conservant la possibilité d'une reconstruction du signal. Pour qualifier les performances de ce traitement numérique, nous avons simulé une implémentation de l'algorithme de Mallat en Python, qui a ensuite été réalisée en VHDL, et enfin un placement-routage de ce circuit numérique a été effectué pour plusieurs ondelettes. De cette manière, les «layouts» et les résultats des simulations «post-layout» ont permis de déterminer quelle ondelette offre le meilleur compromis entre la distorsion du signal, l'élimination de la «baseline wander», la consommation, et la surface du circuit.L'ensemble de ce travail couvre donc la conception et le dimensionnement des blocs essentiels d'une chaîne d'acquisition de l'ECG dédié à la détection du segment ST qui soit intégrable sur une puce. Il pourra être complété par l'implémentation d'une méthode embarquée de prise de décision avant la réalisation physique d'une puce électronique
According to the World Health Organization, cardiac ischemia is the world's leading cause of death. Ischemia is an insufficient vascularization of myocardial cells, which, if prolonged, leads to the necrosis of part of the heart, i.e., a cardiac infarction, endangering the patient's life. However, if ischemia is treated in time, it can have no impact on the patient's health. An embedded system that detects cardiac ischemia over long periods, without requiring medical staff monitoring, and provides alerts would enable patients to be taken care of earlier, increasing their chances of avoiding a heart attack.The electrocardiogram (ECG) is a measurement of the heart's electrical activity, commonly used in medicine to make an initial diagnosis. Examining the signal morphology and the time intervals between different events gives hints of eventual pathologies. The diagnosis of ischemia is based on variations in the part of the ECG named ST segment. Some embedded systems using the ECG to detect cardiac arrhythmias already exist, but none target cardiac ischemia. In this context, the originality of this work is in the design of an integrated system that can detect ST segment variations for ischemia diagnosis. The main difficulties of such a system's design are ST segment preservation during the acquisition stage and the conception of a signal processing method adapted to integrated circuits (power consumption, complexity, ST segment preservation).In this thesis, we studied the design of an integrated system for ECG acquisition and processing for cardiac ischemia detection. The various circuits, simulations, and layouts were realized in 180 nm using XFAB xh018 technology. The standard giving minimum performance for electrocardiograms published by the International Electrotechnical Commission (IEC) was used to quantify ST-segment distortion. We first designed an analog acquisition stage from the system to the transistor level. Simulations of this stage were then carried out to confirm its compliance with the IEC standard and to estimate its power consumption. As the design of an analog-to-digital converter is not new to the state of the art, it was not addressed during this thesis. Then, we conceived an integrated implementation of the discrete wavelet transform, used to eliminate noise and obtain information on the signal's fiducial points while retaining the possibility of reconstructing the signal. We first simulated an implementation of Mallat's algorithm in Python, which was then realized in VHDL, and finally, the place and route step was carried out for several wavelets. Layouts and post-layout simulation results were used to determine which wavelet offered the best trade-off between signal distortion, baseline wander elimination, power consumption, and circuit area.This work covers the design and dimensioning of the essential blocks of an ECG acquisition chain dedicated to ST segment detection that can be integrated. It may be completed by implementing an embedded decision-making method before the physical realization of the chip
21

Polonovski, Jean-Pierre. "Conversion numérique analogique à faible coût." Paris 11, 1985. http://www.theses.fr/1985PA112378.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Deux méthodes de conversion numérique analogique sont investiguées. La première consiste en un moyennage d'un signal numérique de rapport de cycle donné. La seconde utilise deux capacités commutées de même valeur
Two D/A conversion techniques are discussed. The first one consists on averaging a digital signal of a given duty cycle. The second one uses two equal switched capacitors
22

Ka, Ahmad Khoureich. "Méthodes à faible complexité algorithmique pour l'analyse d'ECG." Phd thesis, Rennes 1, 2012. https://ecm.univ-rennes1.fr/nuxeo/site/esupversions/96446b82-5669-4387-bb4f-bda6a14bfe0a.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
This thesis focused on the analysis of electrocardiograms in view of developing new effective methods of classification of arrhythmias (a diagnostic tool) and automatic localisation of abnormal beats (monitoring tool) in real time in an ECG signal. The ECG signals are preprocessed and the extracted beats are compressed and then analysed using wavelet transform. The proposed classification method exploits specificities of the patient by doing a contextuel clustering of beats and using a database of annotated heart beats. The method uses also a similarity function to compare two given beats. The localisation method also uses the wavelet decomposition but operates only on a portion of available data (set of parsimony) to automatically detect in real time abnormal heart beats with the aid of a mask function. Both methods were tested on ECG signals from MIT-BIH arrhythmia database and good results have been obtained
Cette thèse a porté sur l'analyse des électrocardiogrammes en vu de développer de nouvelles méthodes efficaces de classification des arythmies (un outil de diagnostique) et de localisation automatique des battements anormaux en temps réel dans un signal ECG (un outil de surveillance). Les signaux ECG sont prétraités et les battements extraits sont compressés puis analysés à l'aide de la décomposition en ondellettes. La méthode de classification proposée exploite les spécificités du patient en faisant un regroupement contextuel des battements et en utilisant une base de données de battements cardiaques annotés. La méthode utilise également une fonction de similarité pour comparer deux battements donnés. La méthode de localisation exploite aussi la décomposition en ondelettes mais se base sur une partie des données disponibles (set of parsimony) pour détecter automatiquement et temps réel à l'aide d'une fonction masque les battements cardiaques anormaux contenus dans le signal ECG. Les deux méthodes ont été testées sur les signaux électrocardiogrammes du MIT-BIH arrhythmia database et des bons résultats ont été obtenus
23

Ka, Ahmad Khoureich. "Méthodes à faible complexité algorithmique pour l'analyse d'ECG." Phd thesis, Université Rennes 1, 2012. http://tel.archives-ouvertes.fr/tel-00816445.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse a porté sur l'analyse des électrocardiogrammes en vu de développer de nouvelles méthodes efficaces de classification des arythmies (un outil de diagnostique) et de localisation automatique des battements anormaux en temps réel dans un signal ECG (un outil de surveillance). Les signaux ECG sont prétraités et les battements extraits sont compressés puis analysés à l'aide de la décomposition en ondellettes. La méthode de classification proposée exploite les spécificités du patient en faisant un regroupement contextuel des battements et en utilisant une base de données de battements cardiaques annotés. La méthode utilise également une fonction de similarité pour comparer deux battements donnés. La méthode de localisation exploite aussi la décomposition en ondelettes mais se base sur une partie des données disponibles (set of parsimony) pour détecter automatiquement et temps réel à l'aide d'une fonction masque les battements cardiaques anormaux contenus dans le signal ECG. Les deux méthodes ont été testées sur les signaux électrocardiogrammes du MIT-BIH arrhythmia database et des bons résultats ont été obtenus.
24

Grâce, Erwan. "Hiérarchie mémoire reconfigurable faible consommation pour systèmes enfouis." Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00783898.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les progrès des technologies de la micro-électronique ont permis d'embarquer des circuits numériques dans des objets multiples et divers (téléphones, GPS, automobiles, etc.) dont ils ont enrichi les fonctionnalités et amélioré les performances à moindre coût. Conjointement, l'essor rapide et constant de ces applications a amené des contraintes de conception sans précédent (contraintes de coût, de performance, de consommation, etc.). Dans ce contexte, l'émergence des architectures reconfigurables à grain épais a ouvert la voie à de nouveaux compromis entre performances et flexibilité. À ce jour, la mise en oeuvre des mécanismes de reconfiguration matérielle a principalement concerné les aspects calculatoires de ces architectures. Or, les applications embarquées (multimédia) manipulent des volumes de données croissants, engendrant une sollicitation intensive des ressources de mémorisation. En outre, l'hétérogénéité et l'évolutivité des traitements induits ne permet plus d'envisager l'élaboration de solutions de stockage dédiées dans un objectif de performance et de maîtrise de la consommation. Aussi, dans le cadre de cette thèse, nous avons développé le modèle RTL, valide et fonctionnel, d'une architecture reconfigurable que nous avons nommé MOREA (acronyme de Memory-Oriented Reconfigurable Embedded Architecture) et dont la structure mémoire est flexible. Celle-ci est organisée en un pavage de tuiles de traitement et de stockage qui supportent les processus d'une application. Au sein d'une tuile, les tâches du processus sont exécutées par quatre clusters qui intègrent des ressources mémoire et de calcul. Ces clusters communiquent entre eux et avec une mémoire de tuile, contenant les données partagées par les tâches du processus, grâce à une interconnexion flexible de type crossbar. Dès lors, cette structure permet de minimiser les mouvements de données au sein de MOREA et notamment le nombre d'accès mémoire et donc d'en atténuer l'impact sur la puissance de calcul et la dissipation énergétique du système. De plus, les gains obtenus sont maximisés grâce à une unité de génération d'adresses programmable dont l'architecture a été définie en fonction des caractéristiques des applications de traitement du signal et de l'image. Celle-ci intègre notamment un accélérateur matériel pour la génération de séquences d'adresses régulières. Cette architecture permet dès lors, comparativement à une solution programmable classique, d'améliorer significativement les performances de l'unité de génération d'adresses, d'un facteur 6 en terme de Millions d'Adresses générées Par Seconde (MAPS), tout en réduisant drastiquement sa consommation d'énergie de 96%.
25

Graff, Christian. "Signaux électriques et comportement social du poisson à faibles décharges, Marcusenius macrolepidotus (mormyridae, teleostei)." Paris 11, 1986. http://www.theses.fr/1986PA112054.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse concerne Marcusenius macrolepidotus (mormyridae, teleostei), poisson émetteur de faibles impulsions électriques. Elle décrit son comportement social locomoteur et électrique. Les organes émetteurs et récepteurs d'électricité sont révélés histologiquement. Les mouvements de groupes sont observés en milieux variés puis quantifiés en conditions expérimentales permettant simultanément l'enregistrement de l'activité électrique du groupe et celle d'un individu dans le groupe. Les activités électriques sont analysées à l'ordinateur. L'activité électrique présente des stéréotypies propres à chaque individu, elle change avec l'activité locomotrice. Cette espèce présente une tendance variable au regroupement des individus. L'activité électrique globale du groupe diffère d'un mélange d'activités électriques individuelles par des réponses d'arrêts en groupe et des réponses-écho entre individus. Ce travail met en évidence un système social construit sur des signaux de communication auxquels l’homme est insensible
This thesis deals with Marcusenius rnacrolepidotus (mormyridae), a teleost fish, emitter of weak-electric pulses. Its locomotor and electric social behaviours are described. The histology of the electric emitter- and receptor organs is presented. The movements of groups are first observed in various environments, and then quantified in experimental conditions. A novel set-up simultaneously records the electric pulses from the group and from one (individual) fish within the group. A computer analyses the rythm of interpulse intervals. The electric activity of each fish shows individual stereotypies. It changes according to locomotor activity. Fish of this species show a tendancy to aggregate depending on the situation. The group's electric activity differs from a random mix of individual electric activities because of two types of interactions, namely stopping responses (to one fish, from the rest of the group), and echo responses (between two fish in the group). These results show a social system built on communication signals to which humans are insensible
26

Graff, Christian. "Signaux électriques et comportement social du poisson à faibles décharges, Marcusenius macrolepidotus, Mormyridae, teleostei." Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb37598011n.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Morel, Martine. "Exploration des signaux faibles de la perte de confiance pendant une collaboration à distance." Compiègne, 2011. http://www.theses.fr/2011COMP1934.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le développement de la collaboration à distance induit un besoin de nouveaux outils pour suppléer aux instanciations perceptives de la confiance pendant l'interaction en présence physique. Dans cette recherche sur les signaux faibles de la perte de confiance, nous nous sommes intéressés aux sources de la perception de la perte de confiance à partir leur naissance biophysique émotionnelle jusqu'à leur expression dans le discours. Nous avons ensuite croisé les données de l'expression émotionnelle de la perte de confiance que nous avons pu recueillir avec un entretien et la production collective de la collaboration à distance dans le cas d'un développement Web offshore (clients Européens, maître d'oeuvre Pantha Corp. En Australie) en outsourcing (équipe de développeurs Chinois utilisant la méthode AGILE/SCRUM où les interactions sont quotidiennes par internet. Cette recherche conforte d'autres travaux sur le lien entre la vie émotionnelle d'une équipe et sa performance. Parallèlement, dans cette recherche, nous proposons une adaptation des pratiques managériales de contrôles par indicateurs de production et d'évaluation de la qualité, en les basant plutôt sur l'analyse des interactions au travail. Leur composante émotionnelle, pouvant inférer la capacité mutuelle des parties prenantes à maintenir une relation de confiance, est appelée par nous « concept Qualité 2. 0 ». Dans ce concept Qualité 2. 0, l'être humain sensible est placé au centre des interactions au travail. Cependant, cette recherche a été limitée quant à l’exploration biophysique des émotions en situation d'interaction à distance, mais elle contribue à ouvrir plus de perspectives d’étude des liens entre la gestion et les disciplines informatiques, psychosociales et économiques
The remote collaboration growth induces a need of new tools to compensate the perceptive instantiations of trust during a physical presence interaction. In this research about the weak signals of loss in trust, we have been interested in the perception of the loss in trust from the origin in their emotional biophysics birth until their expression in talk. Then, we have crossed the data of emotional expression of loss in trust that we had collect with an interview and with the collective production of the remote collaboration in a case of an offshore web development (European clients, Pantha Corp. Project manager in Australia) in outsourcing (Chinese a distributed software development team) using the AGILE/SCRUM method where the interactions stand everyday and only through computers. This research contributes to others referring to the link between a team emotional life and its performance. In addition Université de Technologie de Compiègne Martine MOREL Thèse en gestion 2011 Page 10 sur 442 to that, this research propose an adaptation of managerial practices of control by production scorecard, and also, of evaluation of quality, by rooting them in the analyze of interactions including their emotional component to infer on the mutual ability of stakeholders to maintain a trust relationship, this new concept is called "Quality 2. 0. " Moreover, in this Quality 2. 0 concept, the sensitive human being is placed in the center of the interaction at work. However, this research has been limited about the biophysics explorations of emotions in a situation in a remote interaction but it contributes to open more perspectives about the links
28

Graces, Erwan. "Hiérarchie mémoire reconfigurable faible consommation pour systèmes enfouis." Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00554158.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les progrès des technologies de la micro-électronique ont permis d'embarquer des circuits numériques dans des objets multiples et divers (téléphones, GPS, automobiles, etc.) dont ils ont enrichi les fonctionnalités et amélioré les performances à moindre coût. Conjointement, l'essor rapide et constant de ces applications a amené des contraintes de conception sans précédent (contraintes de coût, de performance, de consommation, etc.). Dans ce contexte, l'émergence des architectures reconfigurables à grain épais a ouvert la voie à de nouveaux compromis entre performances et flexibilité. À ce jour, la mise en oeuvre des mécanismes de reconfiguration matérielle a principalement concerné les aspects calculatoires de ces architectures. Or, les applications embarquées (multimédia) manipulent des volumes de données croissants, engendrant une sollicitation intensive des ressources de mémorisation. En outre, l'hétérogénéité et l'évolutivité des traitements induits ne permet plus d'envisager l'élaboration de solutions de stockage dédiées dans un objectif de performance et de maîtrise de la consommation. Aussi, dans le cadre de cette thèse, nous avons développé le modèle RTL, valide et fonctionnel, d'une architecture reconfigurable que nous avons nommé MOREA (acronyme de Memory-Oriented Reconfigurable Embedded Architecture) et dont la structure mémoire est flexible. Celle-ci est organisée en un pavage de tuiles de traitement et de stockage qui supportent les processus d'une application. Au sein d'une tuile, les tâches du processus sont exécutées par quatre clusters qui intègrent des ressources mémoire et de calcul. Ces clusters communiquent entre eux et avec une mémoire de tuile, contenant les données partagées par les tâches du processus, grâce à une interconnexion flexible de type crossbar. Dès lors, cette structure permet de minimiser les mouvements de données au sein de MOREA et notamment le nombre d'accès mémoire et donc d'en atténuer l'impact sur la puissance de calcul et la dissipation énergétique du système. De plus, les gains obtenus sont maximisés grâce à une unité de génération d'adresses programmable dont l'architecture a été définie en fonction des caractéristiques des applications de traitement du signal et de l'image. Celle-ci intègre notamment un accélérateur matériel pour la génération de séquences d'adresses régulières. Cette architecture permet dès lors, comparativement à une solution programmable classique, d'améliorer significativement les performances de l'unité de génération d'adresses, d'un facteur 6 en terme de Millions d'Adresses générées Par Seconde (MAPS), tout en réduisant drastiquement sa consommation d'énergie de 96%.
29

Enguehard, Cédric. "Analyse et Mesure des Structures Différentielles RF Faible Bruit." Limoges, 2011. http://www.theses.fr/2011LIMO4008.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'amélioration constante des circuits de réception radio-fréquence oblige les industriels et les laboratoires de recherche à repousser toujours plus loin les limites de sensibilité au bruit. Après de nombreuses années où les plus importantes améliorations des performances en bruit étaient le fait de nouvelles technologies toujours "moins bruyantes", les architectures différentielles apportent de nouvelles perspectives. Déjà largement répandues dans le domaine des basses fréquences elles sont de plus en plus courantes aux fréquences HF et millimétriques. Cette thèse a pour objet d'étudier ces circuits et d'offrir de nouvelles pistes pour la définition de paramètres de bruit ainsi qu'une méthodologie de mesure de ces performances en bruit. Les différentes études analytiques sont effectuées en utilisant les modes mixtes, les ondes de bruit, les théorie de chaînage de composants RF. Les résultats sont validés par des simulations et par des mesures
The constant improvement of the radio-frequency receivers require industrial and research laboratories to improve the limits of noise sensitivity. After many years where noiseless technology brings the most important improvements, differentials architectures open new prospective. Already widespread in the low-frequencies, differentials architectures are increasingly used in RF and millimetre frequencies applications. This thesis study differentials circuits and provide new tracks for the definitions of noise parameters and measurement methodology. The analytical studies are performed using mixed mode, noise waves, chaining theory of RF components. The results are validated by simulations and measurements
30

Mornet, Clemence. "Reconstruction couleur sous faible éclairement pour des capteurs d'images en technologie CMOS." Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENT112/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
31

Thevenin, Mathieu. "Conception et validation d'un processeur programmable de traitement du signal à faible consommation et à faible empreinte silicium : application à la vidéo HD sur téléphone mobile." Phd thesis, Université de Bourgogne, 2009. http://tel.archives-ouvertes.fr/tel-00504704.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les capteurs CMOS sont de plus en plus présents dans les produits de grande consommation comme les téléphones portables. Les images issues de ces capteurs nécessitent divers traitements numériques avant d'être affichées. Aujourd'hui, seuls des composants dédiés sont utilisés pour maintenir un niveau de consom- mation électrique faible. Toutefois leur flexibilité est fortement limitée et elle ne permet pas l'intégration de nouveaux algorithmes de traitement d'image. Ce manuscrit présente la conception et la validation de l'archi- tecture de calcul eISP entièrement programmable et originale capable de supporter la vidéo HD 1080p qui sera intégrée dans les futures générations de téléphones portables.
32

Dervin, Mathieu. "Synchronisation de porteuse à très faible rapport signal à bruit pour applications satellite large bande." Phd thesis, Télécom ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001545.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse traite du problème de la synchronisation de porteuse pour la transmission de données entre un satellite géostationnaire et un terminal utilisateur. L'étude menée ici se rapporte plus précisément à des systèmes multimédia large bande exploitant les bandes Ku/Ka. Les systèmes actuellement envisagés se fondent par ailleurs sur des modulations de phase et les normes les plus récentes privilégient des ordres de modulations élevés afin d'augmenter l'efficacité spectrale des systèmes. A faible rapport signal à bruit, les techniques de synchronisation classiques ne sont pas suffisamment performantes pour garantir la qualité de service requise. Les algorithmes proposés dans cette étude se fondent sur le décodage souple d'un code de parité simple pour la synchronisation de phase porteuse. Nous étudions d'abord comment extraire une information de décodage à partir des symboles reçus, et comment l'exploiter lors de la synchronisation de phase. Deux algorithmes de synchronisation issus du maximum de vraisemblance sont déduits de cette approche, le premier fondé sur une boucle de phase et adapté aux transmissions continues, le second sur un estimateur direct et adapté à des transmissions par paquets courts. Les résultats de simulations présentés dans cette thèse sont fondés sur un modèle de transmission inspiré de la norme DVB-S2. Nous montrons que dans un contexte tel que celui de transmissions multimédia par satellite, les algorithmes proposés constituent une alternative intéressante à l'utilisation de symboles pilotes pour l'initialisation d'algorithmes itératifs plus performants.
33

Dervin, Mathieu. "Synchronisation de porteuse à très faible rapport signal à bruit pour applications satellite large-bande /." Paris : École nationale supérieure des télécommunications, 2006. http://catalogue.bnf.fr/ark:/12148/cb40117817g.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
34

Jhaidri, Mohamed Amine. "Techniques de synchronisation à très faible SNR pour des applications satellites." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0038/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les transmissions numériques par satellite sont largement utilisées dans plusieurs domaines allant des applications commerciales en orbites terrestres aux missions d'exploration scientifiques en espace lointain (Deep Space). Ces systèmes de transmission fonctionnent sur des très grandes distances et ils disposent des ressources énergétiques très limitées. Cela se traduit par un très faible rapport signal à bruit au niveau de la station de réception terrestre. Une possibilité d'établir une liaison fiable dans ces conditions très défavorables, réside dans l'utilisation de codes correcteurs d'erreurs puissants tels que les Turbo codes et le LDPC. Cependant, les gains de codage sont conditionnés par le bon fonctionnement des étages de la démodulation cohérente en amont, notamment l'étage de synchronisation. L'opération de synchronisation consiste à estimer et compenser le décalage en phase et en fréquence entre le signal reçu et l'oscillateur local du récepteur. Ces décalages sont généralement provoqués par des imperfections matérielles et le phénomène d'effet Doppler. A très faible rapport signal à bruit, les systèmes de synchronisation actuels se trouvent limités et incapables d'assurer les performances requises. Notre objectif est de fiabiliser l'étage de synchronisation du récepteur dans des conditions très difficiles de faible rapport signal sur bruit, d'effet Doppler conséquent avec prise en compte d'un phénomène d'accélération (Doppler rate) et d'une transmission sans pilote. Cette thèse CIFRE traite du problème de la synchronisation porteuse pour la voie descendante d'une transmission Deep Space. Après la réalisation d'une étude de l'état de l'art des techniques de synchronisation, nous avons retenu les boucles à verrouillage de phase (PLL: Phase Locked Loop). Dans un contexte industriel, les PLL offrent le meilleur compromis entre complexité d'implémentation et performances. Plusieurs détecteurs de phase basés le critère du maximum de vraisemblance ont été considérés et modélisés par leurs courbes caractéristiques. En se basant sur les modèles équivalents, nous avons développé une nouvelle étude de la phase d'acquisition non-linéaire d'une PLL du deuxième ordre avec un détecteur de phase semi-sinusoïdal. La deuxième partie de la thèse a été consacrée à l'étude des techniques de combinaison d'antennes. Ces méthodes visent à exploiter la diversité spatiale et améliorer le bilan de liaison de la chaîne de transmission tout en offrant une flexibilité de conception ainsi qu'une réduction considérable du coût d'installation. A l'issue de cette partie, nous avons proposé un nouveau schéma de combinaison d'antenne qui améliore le seuil de fonctionnement des systèmes existants
In deep space communication systems, the long distance between the spacecraft and the ground station along with the limited capacity of the on-board power generator result a very low signal to noise ratio (SNR). However, such transmission still possible by using near Shannon limit error correction codes (Turbo code and LDPC code). Nevertheless, to take advantage of this coding gain, the coherent demodulation is mandatory, and the carrier phase synchronization must be reliable at more restrictive SNR. At very low SNR, current synchronization systems are limited and unable to provide the required performances. Our goal is to improve the reliability of the receiver synchronization stage under very difficult conditions of a very low SNR, a variable Doppler effect (Doppler rate) and a blind transmission. This thesis deals with the problem of carrier phase synchronization for the downlink of a Deep Space transmission. After the study of the existing solutions, we selected the phase locked loop (Phase Locked Loop: PLL). In an industrial context, PLL offers the best trade-off between complexity and performance. Several phase detectors based on the maximum likelihood criterion were considered and characterized by their S-curves. Based on the equivalent models, we have developed a new study of the non-linear acquisition phase of a second-order PLL with a semi-sinusoidal phase error detector. The second part of the thesis was dedicated to the antennas combining techniques. These methods aim to improve the link budget of the transmission and offer more flexibility. At the end of this part, we proposed a new antennas combining scheme that improves the operating threshold of existing systems
35

Alaeddinei, Hamzé. "Application de la transformée en nombres entiers à la conception d'algorithmes de faible complexité pour l'annulation d'échos acoustiques." Brest, 2007. http://www.theses.fr/2007BRES2019.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le principal objectif de notre étude est d’évaluer la possibilité d’un développement en temps réel d’un système d’annulation d’écho acoustique. Pour réduire le coût de calcul de ce système, nous avons approfondi les bases mathématiques de la transformée en nombres entiers (NTT Number Theoretic Transform) qui est amenée à trouver des applications de plus en plus diverses en traitement du signal. Nous avons introduit plus particulièrement la transformée en nombres de Fermat (FNT Fermat Number Transform) qui permet une réduction, par rapport à la FFT (Fast Fourier Transform), des nombres de multiplications nécessaires à la réalisation de certaines fonctions telles que les produits de convolution. Pour mettre en évidence cette transformée, nous avons proposé et étudié de nouveaux algorithmes d’annulation d’écho de faible complexité que nous avons traités par blocs et rendus robustes avant de les implanter au moyen de la FNT. Le résultat de cette implantation, comparée à une implantation par la FFT, a montré une forte réduction du nombre de multiplications accompagnée d’une augmentation du nombre d’opérations classiques. Pour réduire cette augmentation, nous avons proposé une nouvelle technique de la transformée, intitulée Generalized Sliding FNT (GSFNT). Celle-ci consiste à calculer la FNT d’une succession de séquences qui diffèrent d’un certain nombre d’échantillons l’une de l’autre. Le résultat des simulations des performances de ces algorithmes d’annulation d’écho, traités au moyen de cette technique, a montré que celle-ci permet de pallier à l’augmentation du nombre d’opérations classiques observée lors d’une implantation en FNT. Enfin, l’implantation des algorithmes d’annulation d’écho en FNT et par une nouvelle procédure de l’algorithme MDF (Multi-Delay Filter) associée à la nouvelle méthode de calcul du pas d’adaptation, a permis une réduction significative de la complexité de calcul
The principal objective of our study is to evaluate the possibility of an acoustic caneeler system development in real time. To reduce the computational cost of this system, we looked further into the mathematical bases of the Number Theoretic Transform (NTT) which is meant to find more and more various applications in signal processing. We introduced more particularly the Fermat Number Transform (FNT), which, compared to the Fast Fourier Transform (FFT), allows reduction of several multiplications which are necessary to achieve certain functions such as convolution products. To highlight this transformation, we proposed and studied 110W algorithms for echo cancelers of low complexity, which we treated by blocks and made robust before implanting them using the FNT. The result of this implementation, compared to an implementation by the FFT, has shown a strong reduction in the number of multiplications along with an increase in the number of classical operations. To reduce this rise, we proposed a new technique of the transform, entitled Generalized Sliding FNT (GSFNT), which consists in calculating the FNT of a succession of sequences that differ from a certain number of samples from 011e to another. The numerical simulations show that a GSFNT-based echo canceler helps to remedy the increase in the number of classical operations observed by FNT-based echo canceler. Finally, the implementation of algorithms for echo canceler and through a new procedure of Multi-Delay Filter (MDF) algorithm associated with the new method for the step-size adaptation coefficient, has permitted a significant reduction in the computational complexity
36

Paris, Silvia. "Méthodes de détection parcimonieuses pour signaux faibles dans du bruit : application à des données hyperspectrales de type astrophysique." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00933827.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse contribue à la recherche de méthodes de détection de signaux inconnus à très faible Rapport Signal-à-Bruit. Ce travail se concentre sur la définition, l'étude et la mise en œuvre de méthodes efficaces capables de discerner entre observations caractérisées seulement par du bruit de celles qui au contraire contiennent l'information d'intérêt supposée parcimonieuse. Dans la partie applicative, la pertinence de ces méthodes est évaluée sur des données hyperspectrales. Dans la première partie de ce travail, les principes à la base des tests statistiques d'hypothèses et un aperçu général sur les représentations parcimonieuses, l'estimation et la détection sont introduits. Dans la deuxième partie du manuscrit deux tests d'hypothèses statistiques sont proposés et étudiés, adaptés à la détection de signaux parcimonieux. Les performances de détection des tests sont comparés à celles de méthodes fréquentistes et Bayésiennes classiques. Conformément aux données tridimensionnelles considérées dans la partie applicative, et pour se rapprocher de scénarios plus réalistes impliquant des systèmes d'acquisition de données, les méthodes de détection proposées sont adaptées de façon à exploiter un modèle plus précis basé sur des dictionnaires qui prennent en compte l'effet d'étalement spatio-spectral de l'information causée par les fonctions d'étalement du point de l'instrument. Les tests sont finalement appliqués à des données astrophysiques massives de type hyperspectral dans le contexte du Multi Unit Spectroscopic Explorer de l'Observatoire Européen Austral.
37

Vaiter, Samuel. "Régularisations de Faible Complexité pour les Problèmes Inverses." Phd thesis, Université Paris Dauphine - Paris IX, 2014. http://tel.archives-ouvertes.fr/tel-01026398.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse se consacre aux garanties de reconstruction et de l'analyse de sensibilité de régularisation variationnelle pour des problèmes inverses linéaires bruités. Il s'agit d'un problème d'optimisation convexe combinant un terme d'attache aux données et un terme de régularisation promouvant des solutions vivant dans un espace dit de faible complexité. Notre approche, basée sur la notion de fonctions partiellement lisses, permet l'étude d'une grande variété de régularisations comme par exemple la parcimonie de type analyse ou structurée, l'antiparcimonie et la structure de faible rang. Nous analysons tout d'abord la robustesse au bruit, à la fois en termes de distance entre les solutions et l'objet original, ainsi que la stabilité de l'espace modèle promu. Ensuite, nous étudions la stabilité de ces problèmes d'optimisation à des perturbations des observations. À partir d'observations aléatoires, nous construisons un estimateur non biaisé du risque afin d'obtenir un schéma de sélection de paramètre.
38

Virot, Léopold. "Développement de photodiodes à avalanche en Ge sur Si pour la détection faible signal et grande vitesse." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112414/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Afin d’adresser la problématique liée aux limitations des interconnections métalliques en termes de débits notamment, la photonique Si s’est imposée comme une technologie de choix. Un des composants de base des circuits photonique Si est le photodétecteur : Il permet de convertir un signal optique en signal électrique. Les photodétecteurs à base de Ge sur Si ont montré leur potentiel et offrent la meilleure alternative aux photodétecteurs III-V, pour une intégration dans les circuits photoniques Si.Dans ce contexte, les photodiodes à base de Ge su Si ont été étudiées. L’optimisation des photodiodes p-i-n a permis l’obtention de résultats à l’état de l’art. Une nouvelle approche utilisant une double hétéro-jonction latérale Si/Ge/Si a été proposée afin d’augmenter la responsivité mais aussi afin de proposer une meilleure solution d’intégration, avec les modulateurs Si notamment. Pour augmenter encore la sensibilité des récepteurs, l’utilisation de photodiodes à avalanche est cependant nécessaire. La structure SACM (Separate Absorption Charge Multiplication), combinant le faible bruit de multiplication du Si et l’absorption du Ge aux longueurs d’onde télécom, a d’abord été étudiée. Des modèles ont été développées afin d’optimiser le fonctionnement, et ces photodiodes ont été fabriquées et caractérisées. Les résultats obtenus sur des photodiodes éclairées par la surface (produit Gain-Bande passante de 560GHz à seulement -11V) sont très encourageant pour une intégration avec un guide d’onde. D’autre part, les photodiodes p-i-n en Ge sur Si, ont été étudiées en avalanche. La faible largeur de la zone intrinsèque a permis de diminuer le bruit de multiplication par effet « dead space », et le fonctionnement à 10Gbits/s pour un gain de 20 et une puissance optique de seulement -26dBm, pour une tension de -7V, sans utilisation d’amplificateur (TIA), a pu être démontré. Ces développements ouvrent ainsi la voie vers des récepteurs rapides, à faible consommation électrique et grande sensibilité
To address the issue related to the limitations of metallic interconnects especially in terms of bitrate, Si photonics has become the technology of choice. One of the basic components of photonic circuits is the photodetector: It allows to convert an optical signal into an electrical signal. Photodetectors based on Ge on Si have shown their potential and offer the best alternative to III-V photodetectors, for integration into Si photonic circuits. In this context, the Ge on Si photodiodes have been studied. The optimization of pin photodiodes enabled the achievement of state of the art results. A new approach using a double lateral Si/Ge/Si heterojunction was proposed to increase the responsivity but also to provide a better integration solution, especially with Si modulators. To further increase the sensitivity of the receivers, the use of avalanche photodiodes, is however necessary. SACM (Separate Absorption Charge Multiplication) structure, combining Si low multiplication noise and Ge absorption at telecom wavelengths was first studied. Models have been developed to optimize the devices, and the photodiodes have been fabricated and characterized. The results obtained on the surface illuminated photodiodes (Gain-bandwidth product of 560GHz only -11V) are very encouraging for waveguide integration. On the other hand, Ge on Si pin photodiodes have been studied in avalanche. The small width of the intrinsic region contributed to the multiplication noise reduction thanks to "dead space" effect, and operation at 10Gbps for a gain of 20 and an optical power of -26dBm at only-7V, without using amplifier (TIA), have been demonstrated. These developments open the way to fast, low power consumption and high sensitivity receivers
39

Smith, Isabelle. "Détection d'une source faible : modèles et méthodes statistiques : application à la détection d'exoplanètes par imagerie directe." Phd thesis, Université de Nice Sophia-Antipolis, 2010. http://tel.archives-ouvertes.fr/tel-00548905.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse contribue à la recherche de planètes extra-solaires à partir d'instruments au sol imageant une étoile et son environnement très proche. Le grand contraste lumineux et la proximité entre une potentielle exoplanète et son étoile parente rendent la détection de l'exoplanète extrêmement difficile. Une modélisation qualitative et probabiliste fine des données et l'utilisation de méthodes d'inférence adaptées permettent d'accroître a posteriori les performances des instruments. Cette thèse se focalise ainsi sur l'étape de traitement des données et sur un problème de méthodologie statistique plus général. Chaque étude est abordée sous des angles théoriques et appliqués. La thèse décrit d'abord les données attendues pour le futur instrument SPHERE du Very Large Telescope, simulées à partir d'une modélisation physique détaillée. Un modèle probabiliste simple de ces données permet notamment de construire une procédure d'identification de candidats. Les performances des inférences sont aussi étudiées à partir d'un modèle décrivant de façon plus réaliste les bruits caractérisant les images (bruit de speckle corrélé, bruit de Poisson). On souligne la différence entre les probabilités de fausse alarme calculées à partir du modèle simple et à partir du modèle réaliste. Le problème est ensuite traité dans le cadre bayésien. On introduit et étudie d'abord un outil original de test d'hypothèses : la distribution a posteriori du rapport de vraisemblance, notée PLR. Son étude théorique montre notamment que dans un cadre d'invariance standard le PLR est égal à une p-value fréquentiste. Par ailleurs, un modèle probabiliste des données est développé à partir du modèle initial et un modèle probabiliste de l'intensité de l'exoplanète est proposé. Ils sont finalement utilisés dans le PLR et le facteur de Bayes.
40

Camus, Manuel. "Architecture de réception RF très faible coût et très faible puissance : application aux réseaux de capteurs et au standard ZigBee." Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00309926.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail présenté ici s'inscrit dans la perspective du développement de modules électroniques à très faible coût et à très faible consommation pour les réseaux de capteurs sans fils (WSN). Il traite de la conception et du test d'une chaîne de réception RF compatible avec la norme IEEE 802.15.4 pour la bande ISM 2.4GHz. L'interface RF objet de notre étude inclue toutes les fonctions depuis l'antenne jusqu'au 1er étage du filtre analogique en bande de base, à partir duquel le gain devient suffisant pour masquer le bruit introduit par le reste de la chaîne de réception. Ce mémoire articulé autour de quatre chapitres, décrit toutes les étapes depuis la définition des spécifications de la chaîne de réception jusqu'à la présentation de ses performances, en passant par l'étude de son architecture et la conception de ses différents étages. Suite à l'étude de l'impact des interféreurs IEEE 802.15.4 et IEEE 802.11b présents dans la bande ISM 2.4GHz, une architecture utilisant une fréquence intermédiaire de 6MHz a été retenue. En outre, pour pouvoir répondre aux spécifications fixées, cette architecture est composée de plusieurs étages innovants ou originaux tels qu'un balun intégré trois accès, un amplificateur faible bruit sans inductance, un mélangeur passif piloté par un signal local (OL) à très faible rapport cyclique ainsi qu'un filtre bande de base optimisé en bruit et en linéarité. Intégré dans une technologie CMOS 90nm, ce récepteur occupe une surface de 0.07mm², ou 0.23mm² en incluant le balun intégré, qui représente une réduction de 70% par rapport à l'état de l'art des puces compatibles avec le standard IEEE 802.15.4. En prenant en compte la consommation dynamique de toute la chaîne de mise en forme du signal OL, la tête de réception précédemment décrite consomme seulement 4mA sous une tension d'alimentation de 1.35V. Enfin, en incluant le balun intégré, le gain est de 35dBv/dBm, le facteur de bruit de 7.5dB, l'IIP3 de -10dBm et la réjection d'image supérie ure à 32dB. Ces performances placent ce récepteur parmi les récepteurs RF les plus performants pour cette application. Les nombreux principes mis en Suvre sont par ailleurs transposables à d'autres bandes de fréquences et à d'autres standards de communication.
41

Schwoerer, Jean. "Études et implémentation d'une couche physique UWB impulsionnelle à bas débit et faible complexité¶." Phd thesis, INSA de Rennes, 2006. http://tel.archives-ouvertes.fr/tel-00638640.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De par son approche nouvelle, la radio impulsionnelle ultra large bande (UWB-IR) est porteuse de nombreuses promesses en termes de débit, de robustesse et de faible consommation. Du fait de sa largeur de bande (supérieure à 500 MHz), elle offre également la possibilité de faire de la géolocalisation avec une précision submétrique. Ce travail de thèse a débuté alors que les premières publications sur l'UWB présentaient des résultats de simulation extraordinaires. Afin de mieux cerner son réel potentiel dans le domaine des communications bas débit auquel l'UWB-IR semble particulièrement adaptée, cette étude a été orientée vers la réalisation matérielle d'une chaîne de communication, sous-tendue par la contrainte de forte réduction de complexité. Cette étude commence par la spécification d'une couche physique adaptée à la technologie et au domaine d'application envisagé, qui repose sur un schéma de transmission très simple. La plate-forme d'émission réalisée est basée sur une architecture très simple et des composants discrets de bas de gamme. Elle démontre ainsi la possibilité d'embarquer une telle structure dans un objet communicant autonome de faible coût. La chaîne de réception suit une approche originale basée sur un détecteur d'enveloppe et un comparateur à seuil variable, ce qui permet de relâcher certaines contraintes bloquantes comme celles liées à l'acquisition de synchronisation. Un ensemble d'algorithmes de réception à faible complexité permet d'exploiter au mieux cette structure de détection en levant différents verrous technologiques. Par ce travail, une réflexion globale sur un système UWB-IR bas débit a été menée et a abouti à la réalisation d'un lien radio physique qui démontre la viabilité technique de cette technologie en rupture. De plus, les résultats obtenus ont été la base d'une proposition complète portée en normalisation.
42

Vayssade, Thibault. "Une approche digitale pour le test faible coût de circuits intégrés RF : application à un transceiver ZigBee." Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTS065.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse concerne la réduction des coûts de test pour les circuits intégrés RF. L’approche originale développée repose sur l’utilisation d’un testeur numérique standard pour réaliser une acquisition sous-échantillonnée du signal RF à analyser. L’idée de base consiste à utiliser le comparateur présent dans un canal testeur digital pour convertir le signal RF en une séquence binaire. Lors de cette conversion, l’information véhiculée par le signal RF (amplitude, fréquence, phase ...) est transformée en une information temporelle contenue dans le vecteur binaire capturé. L’objectif est alors de développer des algorithmes de traitement dédiés permettant de retrouver les caractéristiques essentielles du signal RF à partir de l’analyse du vecteur binaire. L’intérêt majeur de cette solution est qu’elle permet de se passer des ressources coûteuses de test RF traditionnellement requises. De plus, les canaux numériques étant généralement disponibles en grand nombre sur un ATE standard, cette approche offre aussi la possibilité de mettre en œuvre des tests multi-sites afin de réduire davantage les coûts de test. Dans le cadre de cette thèse, l’approche proposée est mise en œuvre pour un Transceiver ZigBee de NXP Semiconductors fonctionnant à 2,4GHz et destiné au marché en croissance de l'Internet des Objets (IoT). Les conditions de sous-échantillonnage permettant de préserver l’information contenue dans le signal RF tout en respectant les contraintes de l’équipement de test sont définies et des algorithmes dédiés sont développés pour implémenter les différents tests spécifiés dans le standard IEEE 802.15.4™ (test de puissance, test de masque spectral, mesures EVM). La solution proposée est d’abord évaluée en simulation dans l’environnement Matlab. Un banc de test en laboratoire est développé afin de réaliser une première validation. Des mesures sont ensuite effectuées sur plusieurs centaines de circuits avec un ATE en milieu industriel. Les résultats de ces mesures valident la technique développée
This thesis focuses on the reduction of testing costs for RF integrated circuits. The original approach that is investigated relies on the use of a standard digital ATE to perform an under-sampled acquisition of the RF signal to be analyzed. The basic idea is to use the comparator present in a digital tester channel to convert the RF signal into a binary sequence. During this conversion, the information carried by the RF signal (amplitude, frequency, phase ...) is transformed into a timing information contained in the binary vector captured by the ATE. The objective is then to develop dedicated processing algorithms able to retrieve the essential RF signal characteristics from the analysis of the binary vector. The major benefit of this solution is that it eliminates the need of expensive RF test resources traditionally required. In addition, since digital channels are generally available in large numbers on a standard ATE, this approach also provides the ability to implement multi-site tests to further reduce testing costs. In this thesis, the proposed approach is implemented for ZigBee Transceiver from NXP Semiconductors operating at 2.4 GHz and intended for the growing market of Internet of Things (IoT). The under-sampling conditions allowing to preserve the information contained in the RF signal while respecting the test equipment constraints are defined and dedicated algorithms are developed to implement the various tests specified by IEEE Std 802.15.4 ™ (power test, spectral mask test, EVM measurements). The proposed solution is first evaluated in simulation within the Matlab environment. A laboratory test bench is then developed to carry out an initial validation. Finally, measurements performed with an ATE on several hundreds of circuits in an industrial environment fully validate the proposed solution
43

Andrianarison, Maherizo. "New Methods and Architectures for High Sensitivity Hybrid GNSS Receivers in Challenging Environments." Thesis, Toulouse, ISAE, 2018. http://www.theses.fr/2018ESAE0016/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes de navigation par satellites GNSS ne cessent d’évoluer et ils sont déjà utilisés dans de nombreuses applications. Avec la venue des nouveaux systèmes Galileo et BeiDou ainsi que la modernisation des systèmes GPS et GLONASS, de nouveaux satellites ainsi que de nombreuses nouvelles fréquences et de nouveaux signaux feront leur apparition dans les prochaines années et qui vont encore ouvrir la porte à d’innombrables nouvelles applications. L’évolution rapide de la téléphonie mobile nécessite une meilleure exploitation des systèmes de navigation et de positionnement dans les environnements urbains.Jusqu'à maintenant, les signaux de navigation GPS ne peuvent pas être bien captés dans les environnements urbains. Les niveaux des signaux y sont très faibles et il est presque impossible d’acquérir et de poursuivre les signaux de façon autonome à cause de l'importance des obstacles. De plus, le positionnement à l’intérieur et dans les environnements urbains sont aussi soumis aux problèmes de multi-trajets, de masquage, d’interférences et de brouillages. Dans ces conditions, il faut pouvoir traiter des signaux très dégradés ou très courts qui ne permettent pas au récepteur d’effectuer le processus de poursuite. Ainsi, cela nous conduit à la nécessité de repenser l'architecture du récepteur GNSS pour les applications modernes.Ce projet de thèse consiste à développer de nouvelles méthodes et architectures de récepteur GNSS de haute sensibilité et robuste aux dégradations des signaux tout en concevant de nouveaux algorithmes intégrés dans un récepteur GNSS hybride capable de fonctionner dans les environnements urbains profonds ou « intérieurs ».La méthodologie prévoit l’utilisation de la nouvelle approche de « détection collective (CD) » ou « acquisition collaborative ». L'approche collaborative qui traite tous les signaux multi-satellites ouvre une solution intéressante. De nombreuses techniques existent dans la littérature pour résoudre les problèmes de positionnement dans les environnements urbains, mais nous proposons la nouvelle approche de détection collective en raison de sa performance en tant que méthode de positionnement direct et méthode d'acquisition de haute sensibilité, par l'application de la détection vectorielle de tous les satellites visibles. En effet, la bonne combinaison des valeurs de corrélation de plusieurs satellites peut réduire le niveau de C/N0 requis des signaux satellites par les algorithmes standards de traitement (acquisition et poursuite) qui ne peuvent pas être acquis individuellement mais permettent de contribuer de manière constructive à une solution collective de positionnement pour chaque utilisateur. L’objectif est de détecter collaborativement les satellites. La combinaison de différents signaux GNSS peut considérablement augmenter la sensibilité d'acquisition du récepteur. Malgré les avantages de cette approche, elle présente également des inconvénients tels que la charge de calcul élevée en raison du grand nombre de points candidats dans le domaine position/biais d’horloge. Ainsi, le travail proposé dans cette thèse consiste à réduire la complexité du CD en optimisant la recherche de points candidats dans le domaine position/biais d’horloge. Enfin, l'objectif est d'appliquer l'approche de détection collective au positionnement GNSS coopératif pour la navigation moderne dans des environnements difficiles. Pour cela, des algorithmes d'exploitation optimale des ressources du récepteur en sélectionnant les meilleurs satellites ou la station de référence seront développés selon certains critères tels que le niveau du rapport signal sur bruit (C/N_0), l’angle d’élévation des satellites ainsi que la configuration géométrique des satellites visibles. L’objectif final est de proposer une nouvelle architecture de récepteur cognitif de haute sensibilité permettant de recevoir de façon optimale les nouveaux signaux GNSS
GNSS satellite navigation systems are constantly evolving and have been already used in many applications. With the advent of the new systems Galileo and BeiDou as well as the modernization of GPS and GLONASS systems, new satellites and numerous new frequencies and signals will appear in the coming years and will open door to countless new applications that are currently impossible. The rapid evolution of mobile telephony and personal navigation devices (PND) requires better use of navigation systems in non-ideal environments, especially the need for positioning in deep urban area. On the one hand, users are waiting for a high positioning accuracy, because of the proximity to various points of interest. On the other hand, urban environment brings specific difficulties in receiving GNSS signals.GNSS navigation signals cannot be properly captured in urban and "indoor" environments. Signal levels are very low and it is almost impossible to acquire and track signals autonomously because of the strong attenuation of signals due to obstacles. In addition, indoor and urban positioning are also subject to multipath problems, masking, interference and jamming. Under these conditions, we must be able to process highly degraded or very short signals that do not allow the receiver to go through the tracking process. Thus, this leads us to the need to rethink the architecture of GNSS receiver for modern applications.This thesis project consists of developing new GNSS methods and architectures of high sensitivity and robustness to signal degradations and designing new algorithms integrated into a hybrid GNSS receiver capable of operating in deep urban environments.The methodology involves the use of the new concept of “Collective Detection (CD)”, also called “collaborative acquisition”. The collaborative approach that treats multi-satellite signals all together opens an interesting solution. Many techniques exist in the literature to solve the problems of positioning in urban environments, but we propose the new Collective Detection approach because of its performance as both a Direct Positioning method, providing a coarse position/clock-bias solution directly from acquisition, and High-Sensitivity acquisition method, by application of vector detection of all satellites in view. Indeed, the correct combination of the correlation values of several satellites can reduce the required Carrier-to-Noise Ratio (C/N_0) level of the satellite signals which cannot be acquired individually by standard signal processing (acquisition and tracking) but make it possible to use them constructively to a positioning solution. The combination of different GNSS signals can considerably increase the acquisition sensitivity of the receiver. Despite the advantages of this approach, it also has drawbacks such as the high computational burden because of the large number of candidate points in the position/clock-bias domain. Thus, the work proposed in this thesis consists of reducing the complexity of the CD by optimizing the search for candidate points in position/clock-bias domain. Finally, the goal is to apply the CD approach to Cooperative GNSS Positioning for modern navigation in harsh environments. For that, algorithms for optimally exploiting receiver resources by selecting the best satellites or the reference station will be developed according to certain criteria such as the C/N_0 level, the elevation angle, and the geometric configuration of the visible satellites. The ultimate goal is to propose a design of a new smart receiver “High Sensitivity Cognitive GNSS Receiver (HS-CGR)” to optimally receive and process GNSS signals
44

Heubi, Alexander. "De l'algorithme de traitement numérique du signal à sa réalisation à faible consommation par un circuit intégré spécifique /." [S.l.] : [s.n.], 1997. http://library.epfl.ch/theses/?nr=1743.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
45

Cailly, Alexis. "Traitement du signal multidimensionnel pour les images hyperspectrales en présence d'objets de faibles dimensions spatiales." Ecole centrale de Marseille, 2012. http://www.theses.fr/2012ECDM0008.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
46

Florès, Laurent. "Branddelphi : une nouvelle méthode de génération d'idées pour la mise à jour des "signaux faibles" dans le développement des nouveaux produits." Grenoble 2, 2005. http://www.theses.fr/2005GRE21031.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Après avoir mis en perspective l'importance de la génération d'idées de qualité dans le processus de développement de nouveaux produits, sont mises en avant certaines faiblesses des méthodes existantes de génération d'idées en particulier dans leur capacité de mise à jour des idées de type "signal faible". Initialement issu du management stratégique, le concept de "signal faible" offre une perspective et des implications intéressantes dans le cadre du processus de développement de nouveaux produits. Une nouvelle méthode de mise à jour idées de type signal faible est proposée et développée suivant certains principes du brainstorming (Osborn, 1953), de la théorie de l'information (Shannon, 1948), de la méthode Delphi (Dalkey, 1969) et d'algorithmes génétiques et évolutifs (Seck, 1996, Goldberg, 2000). La méthode branddelphi est alors testée et validée au sens de sa fiabilité, de ses validités interne et externe dans deux catégories de produits, impliquante (ordinateurs) et non impliquante (yaourts). La nouvelle méthode confirme ses bonnes performances et s'avère dans certains cas supérieure a celles du brainstorming et Delphi. La recherche est conclue en offrant de nombreuses pistes de recherches futures relatives à la meilleure prise en compte de l'énonciation des idées (par rapport à l'énoncé) dans le développement de nouveaux concepts produits (Gavard-Perret, 1998), au contrôle du profil plus ou moins créatif ou leader des consommateurs (Von Hippel, 1986 ; Roger, 1983), à l'optimisation de l'algorithmique, et à la stimulation créative optimale des consommateurs impliqués (Zaltman, 2003)
Having illustrated the importance of idea generation in the new product development process and certain weaknesses of existing methods to detect "weak signals" ideas to drive successful product innovation, the author offers the development of a new ideation method : Branddelphi. Inspired from certains principles of brainstorming (Osborn, 1953), information theory (Shannon, 1948), Delphi method (Dalkey, 1969), evolutionary and adaptive algorithms (Seck, 1996, Goldberg, 2000). The method is developed, tested and validadted in terms of reliability, internal and external validities in two product categories (involving, not involving) and show superior performance in comparison to brainstorming and Delphi method. Future research directions are highlighted with specific interest in idea stating rather than content only, the control and sequential involvement of different consumers (Roger, 1983), as well as different alternatives for algorithm optimization and consumers optimal creative simulation (Zaltman, 2003)
47

Andriambeloson, Eric. "La contribution des réseaux à signaux faibles à l'innovation technologique dans les PME manufacturières du secteur des équipements de transports terrestres /." Thèse, Trois-Rivières, Université du Québec à Trois-Rivières, 2000. http://www.uqtr.ca/biblio/notice/resume/03-2222717R.html.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
48

Andriambeloson, Eric. "La contribution des réseaux à signaux faibles à l'innovation technologique dans les PME manufacturières du secteur des équipements de transports terrestres." Thèse, Université du Québec à Trois-Rivières, 2000. http://depot-e.uqtr.ca/3042/1/000676308.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
49

González, Santos Ángel de Dios. "Circuits de traitement de signal numérique en temps continu ultra-faible consommation en technologie 28nm FDSOI pour applications audio." Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I047.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’objectif de ce travail c’est l’étude et développement d’un système d’extraction des caractéristiques en utilisant techniques de traitement de signal en temps continu, afin de mitiger les inconvénients des implémentations existants basées en techniques analogiques et numériques conventionnelles, d’un système toujours en veille pour l’Internet des Objets. La cible est l’extraction du contenu spectral d’un signal audio en utilisant une nouvelle architecture basée en une cascade configurable de filtres à réponse impulsionnelle fini en temps continu. Un schéma efficace pour cascader des filtres est obtenu grâce aux techniques proposées pour l’élimination des glitches et du codage delta. Par ailleurs, ce travail introduit une fonction en temps continu pour estimer la puissance instantanée dans des bandes de fréquences sélectionnées et construire un spectrogramme à la sortie. Le système proposé à 12-bandes fréquentielles a été validée par des simulations comportementales. L’élément clé pour l’implémentation de ce système est un élément de délai numérique. Un nouveau élément de retard a été conçu et fabriquée en technologie 28 nm FDSOI et atteints une plage de délai record entre 30 ns et 97 µs avec une consommation de puissance de 15fJ/événement. En extrapolant ce résultat, le système proposé atteints une consommation approximée de 2.85 µW lors du traitement d’un signal vocal produit par une femme, tandis que la consommation statique est autours de 100 nW dans les périodes où il n’y a pas d’activité. Donc, la performance en termes de consommation moyenne d’énergie de ce système surpasse celle des implémentations dans l’état de l’art
The focus of this work is the study and development of a feature extraction system using Continuous-Time Digital Signal Processing (CT DSP) techniques, to mitigate the drawbacks of existing implementations based on traditional analog and digital solutions of always-on monitoring sensors for the Internet of Things (IoT). The target is to extract the spectral content of an audio signal using a novel architecture based on a cascade of configurable CT DSP Finite Impulse Response (FIR) filters. An efficient cascade scheme is enabled by the proposed glitch elimination and delta encoding techniques. Additionally, this work introduces a CT function to estimate the instantaneous power within selected frequency bands to build an output spectrogram. The proposed 12-band system has been validated using behavioral simulations. The key element for the implementation of this system is the digital delay element. A new delay element has been designed and fabricated in 28nm FDSOI technology and achieves a record tuning range from 30 ns to 97 µs with a power consumption of 15 fJ/event. By extrapolating this result, the system would have an overall peak power consumption of 2.85 µW when processing typical female speech, while consuming approximately 100 nW when no events are generated. Thus, the average system power consumption outperforms state-of-the-art feature extraction circuits
50

Breloy, Arnaud. "Algorithmes d’estimation et de détection en contexte hétérogène rang faible." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLN021/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une des finalités du traitement d’antenne est la détection et la localisation de cibles en milieu bruité. Dans la plupart des cas pratiques, comme par exemple le RADAR ou le SONAR actif, il faut estimer dans un premier temps les propriétés statistiques du bruit, et plus précisément sa matrice de covariance ; on dispose à cette fin de données secondaires supposées identiquement distribuées. Dans ce contexte, les hypothèses suivantes sont généralement formulées : bruit gaussien, données secondaires ne contenant que du bruit, et bien sûr matériels fonctionnant parfaitement. Il est toutefois connu aujourd’hui que le bruit en RADAR est de nature impulsive et que l’hypothèse Gaussienne est parfois mal adaptée. C’est pourquoi, depuis quelques années, le bruit et en particulier le fouillis de sol est modélisé par des processus elliptiques, et principalement des Spherically Invariant Random Vectors (SIRV). Dans ce nouveau cadre, la Sample Covariance Matrix (SCM) estimant classiquement la matrice de covariance du bruit entraîne des pertes de performances très importantes des détecteurs / estimateurs. Dans ce contexte non-gaussien, d’autres estimateurs de la matrice de covariance mieux adaptés à cette statistique du bruit ont été développés : la Matrice du Point Fixe (MPF) et les M-estimateurs.Parallèlement, dans un cadre où le bruit se décompose sous la forme d’une somme d’un fouillis rang faible et d’un bruit blanc, la matrice de covariance totale est structurée sous la forme rang faible plus identité. Cette information peut être utilisée dans le processus d'estimation afin de réduire le nombre de données nécessaires. De plus, il aussi est possible d'utiliser le projecteur orthogonal au sous espace fouillis à la place de la matrice de covariance ce qui nécessite moins de données secondaires et d’être aussi plus robuste aux données aberrantes. On calcule classiquement ce projecteur à partir d'un estimateur de la matrice de covariance. Néanmoins l'état de l'art ne présente pas d'estimateurs à la fois être robustes aux distributions hétérogènes, et rendant compte de la structure rang faible des données. C'est pourquoi ces travaux se focalisent sur le développement de nouveaux estimateurs (de covariance et de sous espace), directement adaptés au contexte considéré. Les contributions de cette thèse s'orientent donc autour de trois axes :- Nous présenterons tout d'abord un modèle statistique précis : celui de sources hétérogènes ayant une covariance rang faible noyées dans un bruit blanc gaussien. Ce modèle et est, par exemple, fortement justifié pour des applications de type radar. Il à cependant peu été étudié pour la problématique d'estimation de matrice de covariance. Nous dériverons donc l'expression du maximum de vraisemblance de la matrice de covariance pour ce contexte. Cette expression n'étant pas une forme close, nous développerons différents algorithmes pour tenter de l'atteindre efficacement.- Nous développons de nouveaux estimateurs directs de projecteur sur le sous espace fouillis, ne nécessitant pas un estimé de la matrice de covariance intermédiaire, adaptés au contexte considéré.- Nous étudierons les performances des estimateurs proposés et de l'état de l'art sur une application de Space Time Adaptative Processing (STAP) pour radar aéroporté, au travers de simulations et de données réelles
One purpose of array processing is the detection and location of a target in a noisy environment. In most cases (as RADAR or active SONAR), statistical properties of the noise, especially its covariance matrix, have to be estimated using i.i.d. samples. Within this context, several hypotheses are usually made: Gaussian distribution, training data containing only noise, perfect hardware. Nevertheless, it is well known that a Gaussian distribution doesn’t provide a good empirical fit to RADAR clutter data. That’s why noise is now modeled by elliptical process, mainly Spherically Invariant Random Vectors (SIRV). In this new context, the use of the SCM (Sample Covariance Matrix), a classical estimate of the covariance matrix, leads to a loss of performances of detectors/estimators. More efficient estimators have been developed, such as the Fixed Point Estimator and M-estimators.If the noise is modeled as a low-rank clutter plus white Gaussian noise, the total covariance matrix is structured as low rank plus identity. This information can be used in the estimation process to reduce the number of samples required to reach acceptable performance. Moreover, it is possible to estimate the basis vectors of the clutter-plus-noise orthogonal subspace rather than the total covariance matrix of the clutter, which requires less data and is more robust to outliers. The orthogonal projection to the clutter plus noise subspace is usually calculated from an estimatd of the covariance matrix. Nevertheless, the state of art does not provide estimators that are both robust to various distributions and low rank structured.In this Thesis, we therefore develop new estimators that are fitting the considered context, to fill this gap. The contributions are following three axes :- We present a precise statistical model : low rank heterogeneous sources embedded in a white Gaussian noise.We express the maximum likelihood estimator for this context.Since this estimator has no closed form, we develop several algorithms to reach it effitiently.- For the considered context, we develop direct clutter subspace estimators that are not requiring an intermediate Covariance Matrix estimate.- We study the performances of the proposed methods on a Space Time Adaptive Processing for airborne radar application. Tests are performed on both synthetic and real data

До бібліографії