Dissertations / Theses on the topic 'Réseau transformer'

To see the other types of publications on this topic, follow the link: Réseau transformer.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 45 dissertations / theses for your research on the topic 'Réseau transformer.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cezar, Vinicius Oiring de Castro. "Contribution au renvoi de tension et à la reconstitution du réseau. Estimation des flux rémanents dans un transformateur." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT046/document.

Full text
Abstract:
Lors de la réalimentation des auxiliaires d'une tranche nucléaire ou hydraulique, l'étape la plus à risque est la remise sous tension brusque du transformateur à cause des surtensions et courants d'appels générés. Ces phénomènes transitoires engendrent des effets très indésirables autant pour le réseau comme pour le transformateur (efforts électrodynamiques sous les bobinages, vibration du circuit magnétique, bruit et vieillissement prématuré du transformateur.) Le but de ces travaux de thèse est de proposer de nouvelles méthodologies permettant d'évaluer les paramètres mal connus (les valeurs des flux rémanents présents dans le circuit magnétique du transformateur avant sa mise sous tension). Face aux problèmes actuelles pour l'estimer (méthode non directe, dérive, imprécision de la mesure de la tension, etc.), deux nouvelles méthodes basées sur la magnétisation préalable du circuit magnétique (méthode de prefluxing) et sur la mesure des flux de fuites du circuit magnétique (méthode de mesure directe de flux par mesure de l’induction magnétique) sont proposées
During the re-energization of the auxiliaries of a nuclear or hydraulic power plant, the most dangerous step is the re-energization of the power transformer, because of the temporary overvoltage and inrush currents. These transients phenomenon causes undesirable effects for both network and for the power transformer (electrodynamic forces over the windings, the magnetic circuit’s vibration, noise and the premature aging of the transformer). The goal of these thesis is to suggest new methodologies allowing us to evaluate unknown parameters (the residual flux’s values in the magnetic circuit before transformer’s energization). According to the latest problems in order to evaluate it (no direct method, derivation, voltage measurement error, etc) two new methods based on the previous magnetization of the magnetic circuit (prefluxing method) and on the leakage flux measurement of the magnetic circuit (direct measurement of the flux by measuring the magnetic induction method) are proposed
APA, Harvard, Vancouver, ISO, and other styles
2

Cavallera, Didier. "Contribution au renvoi de tension et à la reconstitution du réseau. Identification des paramètres d'un réseau. Estimation des flux rémanents dans un transformateur." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00732191.

Full text
Abstract:
Lors de la réalimentation des auxiliaires d'une tranche nucléaire, l'étape la plus à risque est la remise sous tension brusque du transformateur à cause des surtensions. Dans un soucis perpétuel d'amélioration de la modélisation de ces transitoires, les modèles et techniques doivent évoluer. Le but de ces travaux de thèse est de proposer de nouvelles méthodologies permettant d'évaluer les paramètres mal connus de la modélisation. Lors des mises sous tension des lignes électriques, une méthodologie s'appuyant sur l'identification (optimisation ou techniques issues du traitement du signal) permet de déterminer les paramètres variables de la modélisation. Cependant, un des paramètres influents pour les surtensions est le flux rémanent. Face aux problèmes actuels rencontrés pour l'estimer (méthode non directe, dérive, ...), une nouvelle méthode basée sur la mesure des flux de fuites du circuit magnétique est proposée. Des mesures réelles utilisant des capteurs de technologie " fluxgate " sont réalisées et permettent d'estimer le flux rémanent.
APA, Harvard, Vancouver, ISO, and other styles
3

Messaoud, Kaouther. "Deep learning based trajectory prediction for autonomous vehicles." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS048.

Full text
Abstract:
La prédiction de trajectoire des agents avoisinants d'un véhicule autonome est essentielle pour la conduite autonome afin d'effectuer une planification de trajectoire d'une manière efficace. Dans cette thèse, nous abordons la problématique de prédiction de trajectoire d'un véhicule cible dans deux environnements différents ; une autoroute et une zone urbaine (intersection, rond-point, etc.). Dans ce but, nous développons des solutions basées sur l'apprentissage automatique profond en mettant en phase les interactions entre le véhicule cibles et les éléments statiques et dynamiques de la scène. De plus, afin de tenir compte de l'incertitude du futur, nous générons de multiples trajectoires plausibles et la probabilité d'occurrence de chacune. Nous nous assurons également que les trajectoires prédites sont réalistes et conformes à la structure de la scène. Les solutions développées sont évaluées à à l'aide de bases de données de conduite réelles
The trajectory prediction of neighboring agents of an autonomous vehicle is essential for autonomous driving in order to perform trajectory planning in an efficient manner. In this thesis, we tackle the problem of predicting the trajectory of a target vehicle in two different environments; a highway and an urban area (intersection, roundabout, etc.). To this end, we develop solutions based on deep machine learning by phasing the interactions between the target vehicle and the static and dynamic elements of the scene. In addition, in order to take into account the uncertainty of the future, we generate multiple plausible trajectories and the probability of occurrence of each. We also make sure that the predicted trajectories are realistic and conform to the structure of the scene. The solutions developed are evaluated using real driving datasets
APA, Harvard, Vancouver, ISO, and other styles
4

Le, Moine Veillon Clément. "Neural Conversion of Social Attitudes in Speech Signals." Electronic Thesis or Diss., Sorbonne université, 2023. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2023SORUS034.pdf.

Full text
Abstract:
En tant qu’animaux sociaux, les humains communiquent entre eux en se transmettant divers types d’information sur le monde et sur eux-mêmes. Au cœur de ce processus, la voix permet la transmission de messages linguistiques dénotant un sens strict qui peut être décodé par l’interlocuteur. En transmettant d’autres informations telles que des attitudes ou des émotions qui connotent le sens strict, la voix enrichit et facilite le processus de communication. Au cours des dernières décennies, l’importance des technologies numériques dans nos vies n’a cessé de croître. Dans de nombreuses situations quotidiennes, nous délaissons les claviers, les souris et même les écrans tactiles au profit d’interactions avec des assistants vocaux ou même des agents virtuels qui permettent de communiquer avec les machines comme on le fait avec nos congénères. Avec l’émergence d’un monde hybride où coexistent réalités physique et virtuelle, il devient crucial de permettre aux machines de capter, d’interpréter et de reproduire les émotions et les attitudes véhiculées par la voix humaine. Cette recherche se concentre sur les attitudes sociales de la parole, qui peuvent être définies dans un contexte d’interaction comme des dispositions vocales envers les autres, et vise à développer des algorithmes pour leur conversion. Pour atteindre cet objectif, des données - c’est-à-dire une collection d’enregistrements audio d’énoncés véhiculant diverses attitudes vocales - sont nécessaires. Cette recherche est donc construite à partir de cette étape initiale de collecte d’une matière première, à savoir un jeu de données dédié aux attitudes sociales de la parole. La conception d’algorithmes de conversion des attitudes vocales implique de comprendre ce qui les définit, à la fois en termes de production - comment les individus utilisent-ils leur appareil vocal pour produire des attitudes ? - et de perception - comment décodent-ils ces attitudes dans la parole?. Nous avons donc mené deux études, une première mettant en évidence les stratégies de production des attitudes vocales et une seconde - basée sur une expérience de Best Worst Scaling (BWS) - mettant principalement en évidence les biais impliqués dans la perception de ces attitudes vocales, fournissant ainsi une double compréhension de la manière dont les attitudes vocales sont communiquées par les individus français. Ces résultats nous ont permis de motiver notre choix de représentation du signal vocal ainsi que nos choix d’architecture et d’optimisation pour la conception d’algorithmes de conversion des attitudes vocales. Afin d’étendre à l’ensemble de la base de données les connaissances sur la perception des attitudes vocales recueillies lors de cette seconde étude, nous avons travaillé à l’élaboration d’un BWS-Net permettant la détection des attitudes mal communiquées, fournissant ainsi des données propres pour l’apprentissage de la conversion. Afin d’apprendre à convertir les attitudes vocales, nous avons adopté une approche basée sur un réseau transformer dans un paradigme de conversion many-to-many utilisant le mel-spectrogramme comme représentation du signal de parole. Les premières expériences ayant révélé une perte d’intelligibilité dans les échantillons convertis, nous avons proposé un conditionnement linguistique de l’algorithme de conversion en lui incorporant un module de reconnaissance de parole. Des mesures objectives et subjectives ont montré que l’algorithme résultant obtient de meilleures performances que le transformer de référence aussi bien en termes d’intelligibilité et d’attitude véhiculée
As social animals, humans communicate with each other by transmitting various types of information about the world and about themselves. At the heart of this process, the voice allows the transmission of linguistic messages denoting a strict meaning that can be decoded by the interlocutor. By conveying other information such as attitudes or emotions that connote the strict meaning, the voice enriches and enhances the communication process. In the last few decades, the digital world has become an important part of our lives. In many everyday situations, we are moving away from keyboards, mice and even touch screens to interactions with voice assistants or even virtual agents that enable human-like communication with machines. In the emergence of a hybrid world where physical and virtual reality coexist, it becomes crucial to enable machines to capture, interpret, and replicate the emotions and attitudes conveyed by the human voice.This research focuses on speech social attitudes, which can be defined - in a context of interaction - as speech dispositions towards others and aims to develop algorithms for their conversion. Fulfilling this objective requires data, i.e. a collection of audio recordings of utterances conveying various vocal attitudes. This research is thus built out of this initial step in gathering raw material - a dataset dedicated to speech social attitudes. Designing such algorithms involves a thorough understanding of what these attitudes are both in terms of production - how do individuals use their vocal apparatus to produce attitudes? - and perception - how do they decode those attitudes in speech? We therefore conducted two studies, a first uncovering the production strategies of speech attitudes and a second - based on a Best Worst Scaling (BWS) experiment - mainly hinting at biases involved in the perception such vocal attitudes, thus providing a twofold account for how speech attitudes are communicated by French individuals. These findings were the basis for the choice of speech signal representation as well as the architectural and optimisation choices for the design of a speech attitude conversion algorithm. In order to extend the knowledge on the perception of vocal attitudes gathered during this second study to the whole database, we worked on the elaboration of a BWS-Net allowing the detection of mis-communicated attitudes, and thus provided clean data for conversion learning. In order to learn how to convert vocal attitudes, we adopted a transformer-based approach in a many-to-many conversion paradigm with mel-spectrogram as speech signal representation. Since early experiments revealed a loss of intelligibility in the converted utterances, we proposed a linguistic conditioning of the conversion algorithm through incorporation of a speech-to-text module. Both objective and subjective measures have shown the resulting algorithm achieves better performance than the baseline transformer both in terms of intelligibility and attitude conveyed
APA, Harvard, Vancouver, ISO, and other styles
5

Terrasse, Guillaume. "Géodétection des réseaux enterrés par imagerie radar." Thesis, Paris, ENST, 2017. http://www.theses.fr/2017ENST0015/document.

Full text
Abstract:
L’objectif de la thèse est d’améliorer les différents traitements et de proposer une visualisation claire et intuitive à l’opérateur des données en sortie d’un géoradar (radargramme) afin de pouvoir localiser de manière précise les réseaux de canalisations enfouis. Notamment, nous souhaitons mettre en évidence les hyperboles présentes dans les radargrammes car celles-ci sont caractéristiques de la présence d'une canalisation. Dans un premier temps nous nous sommes intéressés à la suppression de l’information inutile (clutter) pouvant gêner la détection des hyperboles. Nous avons ainsi proposé une méthode de filtrage du clutter et du bruit des radargrammes. Ensuite, nous avons travaillé sur l’élaboration d’une méthode permettant de détecter automatiquement les hyperboles dans un radargramme ainsi qu’une estimation de sa fonction mathématique dans des conditions quasi-temps réel. Et enfin nous avons également proposé une méthode de séparation de source permettant de distinguer le clutter et le signal utile du radargramme tout en ayant un impact minimal sur les hyperboles. Ces derniers travaux ouvrent d’autres possibilités pour le filtrage, le rehaussement ou la détection automatique d’hyperboles
The thesis objective is to improve the different processing in order to make the data acquired by ground penetrating radar (B-scan) more understandable for the operators. Consequently, it will facilitate the pipe localisation. More particularly, we wish to highlight the hyperbolas in the B-scan because they point out the presence of a pipe. First of all, we are interested in removing all the useless information which might hide the hyperbolas. We proposed a filtering method removing unwanted reflections and noise. Then, we worked on an automatic hyperbola detection method and an estimation of their mathematical functions in quasi real time. Finally, we proposed a source separation method to distinguish the unwanted reflections from the hyperbolas with a minimal impact on them. This last work opens interesting perspectives in filtering, hyperbolas enhancement and hyperbola detection
APA, Harvard, Vancouver, ISO, and other styles
6

Mohamed, Moussa Elmokhtar. "Conversion d’écriture hors-ligne en écriture en-ligne et réseaux de neurones profonds." Electronic Thesis or Diss., Nantes Université, 2024. http://www.theses.fr/2024NANU4001.

Full text
Abstract:
Cette thèse se focalise sur la conversion d’images statiques d’écriture hors- ligne en signaux temporels d’écriture en-ligne. L’objectif est d’étendre l’approche à réseau de neurone au-delà des images de lettres isolées ainsi que de les généraliser à d’autres types de contenus plus complexes. La thèse explore deux approches neuronales distinctes, la première approche est un réseau de neurones convolutif entièrement convolutif multitâche UNet basé sur la méthode de [ZYT18]. Cette approche a démontré des bons résultats de squelettisation mais en revanche une extraction de trait problé- matique. En raison des limitations de modélisation temporelle intrinsèque à l’architecture CNN. La deuxième approche s’appuie sur le modèle de squelettisation précédent pour ex- traire les sous-traits et propose une modélisation au niveau sous-traits avec deux Tranformers : un encodeur de sous-trait (SET) et un décodeur pour ordonner les sous-traits (SORT) à l’aide de leur vecteur descripteur ainsi que la prédiction de lever de stylo. Cette approche surpasse l’état de l’art sur les bases de données de mots, phrases et d’équations mathématiques et a permis de surmonter plusieurs limitations relevées dans la littérature. Ces avancées ont permis d’étendre la portée de la conversion d’image d’écriture hors- ligne vers l’écriture en-ligne pour inclure des phrases entières de texte et d’aborder un type de contenu complexe tel que les équations mathématiques
This thesis focuses on the conversion of static images of offline handwriting into temporal signals of online handwriting. Our goal is to extend neural networks beyond the scale of images of isolated letters and as well to generalize to other complex types of content. The thesis explores two distinct neural network-based approaches, the first approach is a fully convolutional multitask UNet-based network, inspired by the method of [ZYT18]. This approach demonstrated good results for skeletonization but suboptimal stroke extrac- tion. Partly due to the inherent temporal mod- eling limitations of CNN architecture. The second approach builds on the pre- vious skeletonization model to extract sub- strokes and proposes a sub-stroke level modeling with Transformers, consisting of a sub- stroke embedding transformer (SET) and a sub-stroke ordering transformer (SORT) to or- der the different sub-strokes as well as pen up predictions. This approach outperformed the state of the art on text lines and mathematical equations databases and addressed several limitations identified in the literature. These advancements have expanded the scope of offline-to-online conversion to include entire text lines and generalize to bidimensional content, such as mathematical equations
APA, Harvard, Vancouver, ISO, and other styles
7

Terrasse, Guillaume. "Géodétection des réseaux enterrés par imagerie radar." Electronic Thesis or Diss., Paris, ENST, 2017. http://www.theses.fr/2017ENST0015.

Full text
Abstract:
L’objectif de la thèse est d’améliorer les différents traitements et de proposer une visualisation claire et intuitive à l’opérateur des données en sortie d’un géoradar (radargramme) afin de pouvoir localiser de manière précise les réseaux de canalisations enfouis. Notamment, nous souhaitons mettre en évidence les hyperboles présentes dans les radargrammes car celles-ci sont caractéristiques de la présence d'une canalisation. Dans un premier temps nous nous sommes intéressés à la suppression de l’information inutile (clutter) pouvant gêner la détection des hyperboles. Nous avons ainsi proposé une méthode de filtrage du clutter et du bruit des radargrammes. Ensuite, nous avons travaillé sur l’élaboration d’une méthode permettant de détecter automatiquement les hyperboles dans un radargramme ainsi qu’une estimation de sa fonction mathématique dans des conditions quasi-temps réel. Et enfin nous avons également proposé une méthode de séparation de source permettant de distinguer le clutter et le signal utile du radargramme tout en ayant un impact minimal sur les hyperboles. Ces derniers travaux ouvrent d’autres possibilités pour le filtrage, le rehaussement ou la détection automatique d’hyperboles
The thesis objective is to improve the different processing in order to make the data acquired by ground penetrating radar (B-scan) more understandable for the operators. Consequently, it will facilitate the pipe localisation. More particularly, we wish to highlight the hyperbolas in the B-scan because they point out the presence of a pipe. First of all, we are interested in removing all the useless information which might hide the hyperbolas. We proposed a filtering method removing unwanted reflections and noise. Then, we worked on an automatic hyperbola detection method and an estimation of their mathematical functions in quasi real time. Finally, we proposed a source separation method to distinguish the unwanted reflections from the hyperbolas with a minimal impact on them. This last work opens interesting perspectives in filtering, hyperbolas enhancement and hyperbola detection
APA, Harvard, Vancouver, ISO, and other styles
8

Fouineau, Alexis. "Méthodologies de Conception de Transformateurs Moyenne Fréquence pour application aux réseaux haute tension et réseaux ferroviaires." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1256/document.

Full text
Abstract:
Les Transformateurs Moyenne Fréquence (TMF) sont une technologie innovante par rapport aux transformateurs basse fréquence, avec la promesse d’une réduction de volume et d’une augmentation du rendement. Cette thèse s’intéresse en particulier à leur conception pour des applications haute tension forte puissance, telles que les réseaux haute tension et moyenne tension à courant continu, ainsi que les réseaux ferroviaires. Dans ces applications, les TMF sont utilisés au sein de convertisseurs pouvant générer des contraintes spécifiques à prendre en compte durant leur conception : signaux non-sinusoïdaux, tension de polarisation, valeurs d’inductances cibles. De plus, les choix technologiques actuellement disponibles pour la réalisation des TMF sont nombreux, et aucun de ces choix ne fait actuellement consensus quelle que soit l’application visée. Des tendances ont pu être identifiées à l’aide d’un outil de classification des designs de TMF issus de la littérature. Ainsi, les technologies les plus prometteuses ont été sélectionnées et retenues pour la suite. A partir de ces technologies, une méthodologie de conception permettant de concevoir et comparer rapidement et ce de façon semi-automatique des TMF avec différents choix technologiques a été mise en place. Elle est constituée de trois étapes : pré-design, design analytique et validation. Le design analytique complet du TMF avec différents choix technologiques est réalisé à l’aide d’un outil de conception automatisée développé durant cette thèse, que nous avons nommé SUITED (SUpergrid Institute TransformEr Design). Cette méthodologie requiert des modèles et données pour chacun des composants et phénomènes du TMF. Concernant le noyau magnétique, une revue et une sélection de modèles issus de la littérature ont été effectuées pour l’évaluation de l’inductance magnétisante et des pertes magnétiques. De plus, des caractérisations magnétiques ont permis de mettre en évidence l’impact de certains procédés technologiques sur les niveaux de pertes de noyaux magnétiques en matériau nanocristallin, qui est un excellent candidat pour les TMF. Au niveau des bobinages, des modèles analytiques pour calculer le champ magnétique, l’inductance de fuite et les effets de peau et de proximité ont été développés et comparés avec ceux de la littérature ainsi que des simulations. Ces nouveaux modèles s'avèrent obtenir une meilleure précision sur les géométries de TMF considérées que ceux de la littérature. De plus, une nouvelle méthode d’évaluation des capacités parasites de bobinages à spires rectangulaires a été mise en place et validée avec succès. Des schémas thermiques équivalents ont été identifiés pour différentes géométries de TMF. Les résistances thermiques de conduction, convection et radiation sont calculées à partir de modèles détaillés. En particulier, l’anisotropie des matériaux est prise en compte pour la conduction thermique, et les coefficients de convection sont évalués via des corrélations différentes pour chaque face du TMF. Les schémas thermiques sont ensuite résolus de façon itérative et analytique pour prendre en compte les non-linéarités des résistances thermiques tout en optimisant le temps de calcul nécessaire. Enfin, l’ensemble de la méthodologie de conception mise en place a été appliqué sur trois cas d’études correspondant à des applications cibles : haute tension, moyenne tension et ferroviaire. Les résultats obtenus montrent effectivement la performance et la nécessité de cette approche
Medium Frequency Transformers (MFT) are an innovative technology compared to low frequency transformers, with the promise of reduced volume and increased efficiency. This PhD thesis focuses in particular on their design for high voltage, high power applications, such as high voltage and medium voltage DC networks, as well as railway networks. In these applications, MFTs are used in converters that can generate specific constraints to be taken into account during their design: non-sinusoidal signals, polarization voltage, target inductance values. Moreover, the technological choices currently available for the realization of MFTs are numerous, and there is currently no consensus on any technology for any given application. Trends could be identified using a tool to classify MFT designs from the literature. Thus, the most promising technologies were selected and retained for the future. Based on these technologies, a design methodology was developed to quickly and semi-automatically design and compare MFTs with different technological choices. It consists of three steps: pre-design, analytical design, and validation. The complete analytical design of the MFT with different technological choices is carried out using an automated design tool developed during this thesis, named SUITED (SUpergrid Institute TransformEr Design). This methodology requires models and data for each of the components and phenomena of the MFT. Concerning the magnetic core, a review and selection of models from the literature were carried out for the evaluation of the magnetizing inductance and magnetic losses. In addition, magnetic characterizations have made it possible to highlight the impact of certain technological processes on the levels of loss of magnetic cores made of nanocrystalline material, which is an excellent candidate for MFTs. Concerning the windings, analytical models to calculate the magnetic field, leakage inductance and skin and proximity effects were developed and compared with those in the literature and simulations. These models are proving to be more accurate on the MFT geometries considered. On top of that, a new method for evaluating the parasitic capacitances of windings with rectangular turns has been successfully implemented and validated. Thermal networks have been identified for the different MFT geometries. The thermal resistances of conduction, convection and radiation are calculated from detailed models. In particular, the anisotropy of materials is taken into account for thermal conduction, and the convection coefficients are evaluated via different correlations for each face of the MFT. The thermal networks are then solved iteratively and analytically to take into account the non-linearity of the thermal resistances while optimizing the required computation time. Finally, this entire design methodology was applied to three case studies corresponding to the target applications: high voltage, medium voltage and rail. The results obtained do show the performance and necessity of this approach
APA, Harvard, Vancouver, ISO, and other styles
9

Sibué, Jean-Romain. "Conception de systèmes d'alimentation sans contact pour la traction ferroviaire." Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENT074/document.

Full text
Abstract:
Les travaux présentés dans cette thèse portent sur la conception et le dimensionnement de composant magnétique dédié au transfert d'énergie sans contact pour des applications ferroviaires de type tramway. Cette famille de composant présente un comportement fortement inductif. Un convertisseur à double fréquence de résonance est utilisé pour l'alimenter et compenser l'énergie réactive du coupleur. Pour parvenir à dimensionner ce composant et son convertisseur associé, un outil d'aide au dimensionnement a été mis au point. Celui-ci est basé sur des modèles analytiques du composant magnétique et de la structure d'électronique de puissance. Une fois le dimensionnement réalisé, une étude des pertes, dans les bobinages et les circuits magnétiques, est réalisée par simulation numérique en utilisant la méthode d'homogénéisation (représentation macroscopique des éléments avec des propriétés électromagnétiques complexes). Puis, la modélisation du comportement thermique du système est présentée afin de garantir la température de fonctionnement désirée. Afin de valider l'approche de dimensionnement et les outils mis en place, des expérimentations ont été menées sur des prototypes de 1,6 et 100 kW. Les résultats obtenus ont montré la précision et la pertinence de l'approche théorique. Cette étude valide la faisabilité de ce type de système forte puissance
The works presented in this thesis deal with the design and the sizing of magnetic component dedicated to contactless energy transfer for railway application like tramway. This family of component presents a strongly inductive behavior. A double resonance converter is used to supply and compensate reactive energy of transformer. In order to design this component and its associated converter, a design tool has been implemented. This one is based on analytical models of magnetic component and power electronic converter. One time designing realized, a study of losses, in windings and in magnetic cores, is realized by numerical simulation by using homogenization method (macroscopic representation of elements with electromagnetic complex properties). Then, the establishment of a model of thermal behavior of system is presented in order to guarantee desired working temperature. In order to check designing approach and tools, experimentations have been performed on prototypes of 1.6 and 100 kW. Obtained results show the accuracy and relevance of theoretical approach. Moreover, this study confirms the feasibility of this kind of high power system
APA, Harvard, Vancouver, ISO, and other styles
10

Forthoffer, Martial. "Détection de contours par transformée en ondelettes et réseaux de neurones." Nancy 1, 1992. http://www.theses.fr/1992NAN10008.

Full text
Abstract:
Le mémoire présenté traite de la segmentation d'images par détection de contours par la coopération de la transformée en ondelettes et des réseaux de neurones. Le chapitre i introduit les différentes méthodes de segmentation d'images en insistant sur la détection de contours. La transformée en ondelettes présentée dans le chapitre II effectue une analyse multirésolution et permet d'exprimer les contours comme les informations perdues lors d'une approximation du signal sur des facteurs de résolutions dyadiques. Dans le chapitre III, nous proposons une nouvelle méthode de détection de contours effectuée à partir de combinaisons multirésolution pondérées par une estimation locale du bruit. Le résultat est généralement peu sensible au bruit, mais certaines informations telles que les contours en forme de toit sont supprimées. Le chapitre IV détaille les différentes bases d'ondelettes construites sur des filtres de type gradient ou laplacien. Les limites imposées par la transformée en ondelettes induisent l'utilisation d'une version bi-orthogonale qui autorise l'utilisation de filtres optimaux au sens de Canny. La difficulté à déterminer une méthode analytique de recombinaison multirésolution nous conduit dans le chapitre V à soumettre cette tache à un réseau de neurones. Le réseau identifie les liens existant entre les contours réels et leur contribution dans les différentes résolutions de l'image, en fonction d'une référence déterminée par expert. Pour des applications exigeant une grande vitesse de calcul, son intégration avec la transformée en ondelettes (algorithme temps réel) est envisagée.
APA, Harvard, Vancouver, ISO, and other styles
11

Oussar, Yacine. "Réseaux d'ondelettes et réseaux de neurones pour la modélisation statique et dynamique de processus." Phd thesis, Université Pierre et Marie Curie - Paris VI, 1998. http://pastel.archives-ouvertes.fr/pastel-00000677.

Full text
Abstract:
Durant les dix dernières années, les réseaux de neurones à fonctions sigmoïdales ont connu de grands succès dans de nombreux domaines. Associés à des algorithmes d'apprentissage efficaces, ils constituent un puissant outil de modélisation non linéaire de processus, grâce à leur propriété d'approximation universelle parcimonieuse. Ce travail de thèse propose une mise en uvre de réseaux d'ondelettes, alternative possible aux réseaux de neurones, pour la modélisation statique et dynamique. Les ondelettes sont une famille de fonctions issues du traitement du signal et de l'image, dont il a été récemment montré qu'elles possèdent la propriété d'approximateur universel. La mise en uvre des réseaux d'ondelettes est effectuée suivant deux approches : - Approche fondée sur la transformée continue: les paramètres des fonctions sont à valeurs continues dans l'ensemble des nombres réels et peuvent donc être ajustés, comme ceux d'un réseau de neurones classique, à l'aide de méthodes de gradient. Nous proposons des réseaux et des algorithmes d'apprentissage pour la modélisation entrée-sortie et d'état. Les résultats obtenus sur des processus simulés et réel montrent que ces réseaux permettent d'obtenir des modèles de performance et de parcimonie équivalentes à celles des réseaux de neurones si des précautions de mise en uvre sont prises. - Approche fondée sur la transformée discrète: les paramètres des fonctions étant à valeurs discrètes, les apprentissages fondés sur des méthodes de gradient ne sont pas applicables. Nous proposons de construire des réseaux par sélection d'ondelettes dans une bibliothèque pré-établie. Cette procédure est également utilisée pour l'initialisation des paramètres des ondelettes avant leur apprentissage. Les résultats obtenus montrent que la procédure proposée confère à l'apprentissage une meilleure indépendance vis-à-vis de l'initialisation aléatoire des autres paramètres ajustables du réseau.
APA, Harvard, Vancouver, ISO, and other styles
12

Lefort, Romain. "Contribution des technologies CPL et sans fil à la supervision des réseaux de distribution d'électricité." Thesis, Poitiers, 2015. http://www.theses.fr/2015POIT2253/document.

Full text
Abstract:
Le déploiement d'une infrastructure de supervision permet une gestion plus intelligente des réseaux de distribution d'électricité comparé à un renforcement traditionnel pour répondre aux nouveaux enjeux de la maitrise de l'énergie (Consommations, EnR, VE, ...). Pour acheminer les données, les Courants Porteurs en Ligne (CPL) possèdent un atout majeur. En effet, cette technologie permet de superposer un signal de plus haute fréquence au signal électrique 50/60 Hz. Toutefois, le support de transmission est difficile et non maîtrisable. Ces travaux de recherche ont pour objectif d'apporter une contribution à cette problématique par l'élaboration d'une plateforme de simulation des réseaux pour des fréquences allant jusqu'à 1 MHz dans un but de transmission de données. Des éléments clés des réseaux sont traités de façon séparés puis assemblés pour estimer les performances des CPL « Outdoor » actuels. La variation du comportement des réseaux en fonction du temps et de la fréquence, en particulier des perturbations en tête d'installation clients sur 24h est étudiée. Les transformateurs entre les réseaux HTA et BT sont modélisés sous la forme d'un « modèle à constantes localisées » et d'un « modèle boite noire ». Les deux modèles sont appliqués sur un transformateur H61 100 kVA. Par la suite, une modélisation des câbles de distribution est proposée sous forme d'un « modèle cascadé ». Celle-ci est appliquée sur un câble souterrain BT. Chaque modèle est obtenu à l'aide de mesures d'impédances, et validé par des mesures de transmissions. Pour compléter, une étude préliminaire sur les communications radio mobile est réalisée pour la supervision des réseaux de distribution
Establishing a supervisory infrastructure allows a better smart management than an expensive strengthening of distribution network to respond to new constraints at the energies control (Consumption, REN, EV ...). To transmit data, Power Line Communication (PLC) technologies present an advantage in this context. In fact, it enables a superposition of High Frequency (HF) signals on electrical signal 50/60 Hz. However, electric networks have not been developed to this application because of difficult propagation conditions. This research work makes a contribution to develop a simulation platform in objective to transmit data to 1 MHz. In first time, each network element is studied singly and in second time, together, to estimate "Outdoor PLC" transmission performance. The first element studied is the networks variation in function of frequency and time. Several 24h disturbance measurements on LV customers are presented. The second element is the transformers which established connection between Medium Voltage (MV) and Low Voltage (LV). The proposed modeling method is based on a "lumped model" and a "black box model". These models are applied to a 100 kVA H61 transformer most commonly used by French distribution system operator in rural and suburban networks. The third element is the power line used in MV and LV networks. The proposed modeling method is based on a "cascaded model" from the theory of transmission line. This model is applied to one power line used in LV underground network. Each model is obtained from various impedance measurements. To complete, an introductory study on mobile radio communication is performed to remote network distribution
APA, Harvard, Vancouver, ISO, and other styles
13

Barrère, Killian. "Architectures de Transformer légères pour la reconnaissance de textes manuscrits anciens." Electronic Thesis or Diss., Rennes, INSA, 2023. http://www.theses.fr/2023ISAR0017.

Full text
Abstract:
En reconnaissance d’écriture manuscrite, les architectures Transformer permettent de faibles taux d’erreur, mais sont difficiles à entraîner avec le peu de données annotées disponibles. Dans ce manuscrit, nous proposons des architectures Transformer légères adaptées aux données limitées. Nous introduisons une architecture rapide basée sur un encodeur Transformer, et traitant jusqu’à 60 pages par seconde. Nous proposons aussi des architectures utilisant un décodeur Transformer pour inclure l’apprentissage de la langue dans la reconnaissance des caractères. Pour entraîner efficacement nos architectures, nous proposons des algorithmes de génération de données synthétiques adaptées au style visuel des documents modernes et anciens. Nous proposons également des stratégies pour l’apprentissage avec peu de données spécifiques, et la réduction des erreurs de prédiction. Nos architectures, combinées à l’utilisation de données synthétiques et de ces stratégies, atteignent des taux d’erreur compétitifs sur des lignes de texte de documents modernes. Sur des documents anciens, elles parviennent à s’entraîner avec des nombres limités de données annotées, et surpassent les approches de l’état de l’art. En particulier, 500 lignes annotées sont suffisantes pour obtenir des taux d’erreur caractères proches de 5%
Transformer architectures deliver low error rates but are challenging to train due to limited annotated data in handwritten text recognition. We propose lightweight Transformer architectures to adapt to the limited amounts of annotated handwritten text available. We introduce a fast Transformer architecture with an encoder, processing up to 60 pages per second. We also present architectures using a Transformer decoder to incorporate language modeling into character recognition. To effectively train our architectures, we offer algorithms for generating synthetic data adapted to the visual style of modern and historical documents. Finally, we propose strategies for learning with limited data and reducing prediction errors. Our architectures, combined with synthetic data and these strategies, achieve competitive error rates on lines of text from modern documents. For historical documents, they train effectively with minimal annotated data, surpassing state-ofthe- art approaches. Remarkably, just 500 annotated lines are sufficient for character error rates close to 5%
APA, Harvard, Vancouver, ISO, and other styles
14

Makkaoui, Leila. "Compression d'images dans les réseaux de capteurs sans fil." Phd thesis, Université de Lorraine, 2012. http://tel.archives-ouvertes.fr/tel-00795503.

Full text
Abstract:
Cette thèse forme une contribution au problème de la conservation de l'énergie dans le cas particulier des réseaux de capteurs d'images, où une partie voire tous les nœuds du réseau sont équipés d'une petite caméra à technologie CMOS. Les images engagent des volumes de données très largement supérieurs aux mesures scalaires classiques telles que la température, et donc des dépenses énergétiques plus élevées. L'émetteur radio étant l'un des composants les plus gourmands en énergie, il est évident que la compression de l'image à la source peut réduire significativement l'énergie dépensée pour la transmission de l'image, tant au niveau du nœud caméra que des nœuds formant le chemin jusqu'au point de collecte. Toutefois, les méthodes de compression bien connues (JPEG, JPEG2000, SPIHT) sont mal adaptées à la limitation des ressources de calcul et de mémoire caractéristiques des nœuds-capteurs. Sur certaines plateformes matérielles, ces algorithmes ont même un coût énergétique supérieur au gain qu'ils amènent sur la transmission. Autrement dit, le nœud caméra épuise plus vite sa batterie en envoyant des images compressées que des images non compressées. La complexité de l'algorithme de compression est donc un critère de performance aussi important que le rapport débit-distorsion. Les contributions contenues dans ce mémoire de thèses sont triples : - Tout d'abord, nous avons proposé un algorithme de compression basé sur la transformée en cosinus discrète (DCT 8 points) de complexité réduite, combinant la méthode de DCT rapide la plus efficace de la littérature (DCT de Cordic-Loeffler) à une exécution réduite aux coefficients délimités par une zone carrée de taille k<8, les plus importants dans la reconstruction visuelle. Avec cette approche zonale, le nombre de coefficients à calculer, mais aussi à quantifier et encoder par bloc de 8x8 pixels est réduit à k^2 au lieu de 64, ce qui diminue mécaniquement le coût de la compression. - Nous avons ensuite étudié l'impact de k, donc du nombre de coefficients sélectionnés, sur la qualité de l'image finale. L'étude a été réalisée avec un jeu d'une soixantaine d'images de référence et la qualité des images était évaluée en utilisant plusieurs métriques, le PSNR, le PSNR-HVS et le MMSIM. Les résultats ont servi à identifier, pour un débit donné, la valeur limite de k qu'on peut choisir (statistiquement) sans dégradation perceptible de la qualité, et par conséquent les limites posées sur la réduction de la consommation d'énergie à débit et qualité constants. - Enfin, nous donnons les résultats de performances obtenus par des expérimentations sur une plateforme réelle composée d'un nœud Mica2 et d'une caméra Cyclops afin de démontrer la validité de nos propositions. Dans un scénario considérant des images de 128x128 pixels encodées à 0,5 bpp par exemple, la dépense d'énergie du nœud caméra (incluant compression et transmission) est divisée par 6 comparée au cas sans compression, et par 2 comparée au cas de l'algorithme JPEG standard.
APA, Harvard, Vancouver, ISO, and other styles
15

Basmaji, Riad. "Etude des réseaux géodésiques réguliers : matrice de covariance des réseaux réguliers finis de type nivellement : application de la méthode de la transformée de Fourier à l'analyse : application de la méthode de la transformée de Fourier à l'analyse des réseaux réguliers infinis à une et deux variables." Observatoire de Paris, 1989. https://tel.archives-ouvertes.fr/tel-01958574.

Full text
Abstract:
Les réseaux réguliers géodésiques bidimensionnels résultent d'un modèle d'observations répété identiquement aux nuds d'un maillage irrégulier d'un plan : observations de dénivelées (nivellement), d'angles (triangulation) ou de distances (trilatération), dont le traitement par la méthode classique des moindres carrés conduit à larésolution d'équations normales qui s'identifient à des équations aux différences que l'on retrouve dans les théories du potentiel discret en physique mathématique (notamment l'équation discrète de poisson). Après un rappel des formules du potentiel logarithmique continu, résolu par la fonction de green (Dirichlet, Neumann), la théorie du potentiel discret est appliquée aux réseaux infinis de nivellement, puis aux réseaux limités par un cercle. Le problème est entièrement résolu pour els équations aux paramètres, et fait apparaitre l'importance de base discret qui sert pour la construction des matrices de covariance, et se comporte asymptotiquement comme une fonction linéaire du logarithme de la distance entre deux points. Une large place est accordée au traitement des problèmes par leur transformation de Fourier dans l'espace de fréquence : méthode appliquée notamment au réseau d'angles adjacents, qui se ramène à l'étude de deux réseaux indépendants de nivellement. Les équations normales de la trilatération d'un réseau infini sont traitées par la même méthode mais la formulation, qui est plus complexe, permet d'estimer la covariance d'un réseau infini, en accord satisfaisant avec un réseau borne caculé directement. Les formules sont contrôlées par des résultats numériques fournis par de l'inversion de matrices de grandes dimensions. La méthode des équations de condition (avec correlatifs de Lagrande) est aussi explorée systématiquement et fournit des contrôles partiels.
APA, Harvard, Vancouver, ISO, and other styles
16

Gliga, Lavinius ioan. "Diagnostic d'une Turbine Eolienne à Distance à l'aide du Réseau de Capteurs sans Fil." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMR063/document.

Full text
Abstract:
Les Éoliennes à Entraînement Direct (ÉED) sont équipées de Générateurs Syn- chrones à Aimants Permanents (GSAP). Leurs trois plus courantes défaillances sont la dé- magnétisation, l’excentricité (statique, dynamique et mixte) et le court-circuit inter-tour. L’analyse de la signature du courant de la machine est souvent utilisée pour rechercher des problèmes du générateur, car ces altérations introduisent des harmoniques supplémen- taires dans les courants générés. La Transformée de Fourier Rapide (TFR) est utilisée pour calculer le spectre des courants. Cependant, la TFR permet de calculer l’ensemble du spec- tre, tandis que le nombre de défauts possible et le nombre d’harmoniques introduites sont faibles. L’algorithme de Goertzel, mis en oeuvre sous forme de filtre (le filtre de Goertzel), est présenté comme une alternative plus efficace au TFR. Le spectre des courants change avec la vitesse du vent, ce qui rend la détection plus difficile. Le Filtre de Kalman Étendu (FKÉ) est proposé comme solution. Le spectre de résidus, calcule entre les courants estimés et les courants générés, est constant, quelle que soit la vitesse du vent. Cependant, l’effet des défauts est visible dans leur spectre. Lors de l’utilisation de l’FKÉ, un défi consiste à estime la matrice de covariance pour le bruit du processus. Une nouvelle méthode était développée pour ça, qui n’utilise aucune de maîtrise du filtre. Les ÉED sont placés soit dans des zones éloignées, soit dans des villes. Pour la surveillance des ÉED, des dizaines ou des centaines de kilomètres de câbles sont nécessaires. Les Réseaux de Capteurs sans Fil (RCF) sont bien adaptés pour être utilisés dans l’infrastructure de communication des ÉED. RCF ont des coûts initiaux et d’entretien plus faibles et leurs installations sont rapides. De plus, ils peuvent compléter les réseaux câblés. Différentes technologies sans fil sont comparées : les technologies à grande surface, ainsi que les technologies à courte portée qui supportent des débits de données élevés
Direct Drive Wind Turbines (DDWTs) are equipped with Permanent Magnet Syn- chronous Generators (PMSGs). Their three most common failures are demagnetization, ec- centricity (static, dynamic and mixed) and inter-turn short circuit. Machine Current Signa- ture Analysis is often used to look for generator problems, as these impairments introduce additional harmonics into the generated currents. The Fast Fourier Transform (FFT) is utilized to compute the spectrum of the currents. However, the FFT calculates the whole spectrum, while the number of possible faults and the number of introduced harmonics is low. The Goertzel algorithm, implemented as a filter (the Goertzel filter), is presented as a more efficient alternative to the FFT. The spectrum of the currents changes with the wind speed, and thus the detection is made more difficult. The Extended Kalman Filter (EKF) is proposed as a solution. The spectrum of the residuals, computed between the estimated and the generated current, is constant, regardless of the wind speed. However, the effect of the faults is visible in the spectrum. When using the EKF, one challenge is to find out the covariance matrix of the process noise. A new method was developed in this regard, which does not use any of the matrices of the filter. DDWTs are either placed in remote areas or in cities. For the monitoring of a DDWT, tens or hundreds of kilometers of cables are necessary. Wireless Sensor Networks (WSNs) are suited to be used in the communication infrastructure of DDWTs. WSNs have lower initial and maintenance costs, and they are quickly installed. Moreover, they can complement wired networks. Different wireless technologies are com- pared - both wide area ones, as well as short range technologies which support high data rates
APA, Harvard, Vancouver, ISO, and other styles
17

Dugas, Alexandre. "Architecture de transformée de cosinus discrète sur deux dimensions sans multiplication et mémoire de transposition." Mémoire, Université de Sherbrooke, 2012. http://hdl.handle.net/11143/6174.

Full text
Abstract:
Au cours des dix dernières années, les capacités technologiques de transmission vidéo rendent possible une panoplie d'applications de télésanté. Ce média permet en effet la participation de médecins spécialisés à des interventions médicales ayant lieu à des endroits distants. Cependant, lorsque ces dernières se déroulent loin des grands centres, les infrastructures de télécommunication n'offrnt pas un débit assez important pour permettre à la fois une transmission d'images fluides et de bonne qualité. Un des moyens entrepris pour pallier ce problème est l'utilisation d'encodeur et décodeur vidéo (CODEC) permettant de compresser les images avant leur transmission et de les décompresser à la réception. Il existe un bon nombre de CODEC vidéo offrant différent compromis entre la qualité d'image, la rapidité de compression, la latence initiale de traitement et la robustesse du protocole de transmission. Malheureusement, aucun n'est en mesure de rencontrer simultanément toutes les exigences définies en télésanté. Un des problèmes majeurs réside dans le délai de traitement initial causé par la compression avec perte du CODEC. L'objet de la recherche s'intéresse donc à deux CODEC qui répondent aux exigences de délais de traitement et de qualité d'image en télésanté, et plus particulièrement pour une application de téléassistance en salle d'urgence. L'emphase est mise sur les modules de quantification des CODEC qui utilisent la transformée en cosinus discrète. Cette transformée limite la transmission des images vidéo fluide et quasi sans délais en raison des délais de traitement initiaux issus des nombreuses manipulations arithmétiques qu'elle requiert. À l'issu de la recherche, une structure efficace de la transformée en cosinus est proposée afin de présenter une solution au temps de latence des CODEC et ainsi de répondre aux exigences de télécommunication en télésanté. Cette solution est implémentée dans un CODEC JPEG développé en VHDL afin de simuler un contexte d'application réelle.
APA, Harvard, Vancouver, ISO, and other styles
18

Saadaoui, Safa. "Conception d'un système de communication sans fil industriel basé sur la transformée en ondelettes." Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0048/document.

Full text
Abstract:
Dans cette thèse, nous présenterons une architecture de communication multi-utilisateurs à base des réseaux de capteurs sans fil dans un environnement industriel fortement bruité. Deux modes de fonctionnement de cette architecture sont présentés ; un mode Many-To-One reliant plusieurs capteurs émetteurs à un seul récepteur et un mode One-To-Many reliant un émetteur à plusieurs capteurs récepteurs. La couche physique de ce système est basée sur une modulation par transformée par paquets d'ondelettes inverse (IDWPT) à l'émission et une transformée par paquets d'ondelette discrète (DWPT) en réception. Pour tester notre architecture, un modèle de canal industriel est proposé qui tient compte des phénomènes des multi-trajets et des évanouissements en plus du bruit additif. Ce dernier étant modélisé comme un bruit gaussien auquel s'additionne un bruit impulsionnel causant une dégradation significative des signaux. L'architecture est testée pour différentes configurations de communications sans fil et pour différentes formes d'ondelettes afin de proposer un mode de communication optimal. Aussi, une amélioration de la robustesse de notre système est effectuée en ajoutant un codage correcteur d'erreur du canal et un seuillage du bruit impulsionnel à la réception pour minimiser les effets du bruit industriel sur les signaux reçus. En utilisant un code correcteur d'erreur, la détection et reconstitution des signaux se fait sans erreur à partir d'un SNR de 8dB pour un taux de codage 1/4 pour une transmission sur à canal à évanouissement. Pour un récepteur optimal à base du seuillage du bruit, les performances en termes de taux d'erreur binaires sont améliorées de 10dB pour une transmission sur un canal à bruit industriel. Enfin, une comparaison de la robustesse de notre architecture impulsionnelle avec un système à base d'une modulation multi-porteuse classique OFDM est effectuée. Ceci nous amène à proposer un système de communication multi-utilisateurs robuste à base des réseaux de capteurs sans fil pour des communications en milieu industriel difficile
In this thesis, we will present a multi-user communication architecture based on wireless sensor networks in a noisy industrial environment. Two modes of operation of this architecture are presented ; a Many-To-One mode linking several transmitter sensors to a single receiver and a One-To-Many mode linking a transmitter to several receiver sensors. The physical layer of this system is based on the inverse transform (IDWPT) at transmission and the discrete wavelet packet transform (DWPT) at reception. To test our architecture, an industrial channel model is proposed that takes into account the phenomena of multipath and fading in addition to additive noise. The latter being modelled as Gaussian noise to which is added an impulse noise causing significant signal degradation. The architecture is tested for different wireless communication configurations and wavelet shapes to provide an optimal communication mode. Also, an improvement in the robustness of our system is achieved by adding channel error correction coding and pulse noise thresholding at reception to minimize the effects of industrial noise on the received signals. Using an error-correcting code, the detection and reconstruction of signals is error-free from an SNR of 8dB for a coding rate of 1/4 for transmission on a fading channel. For an optimal receiver based on noise thresholding, the performance in terms of binary error rates is improved by 10dB for transmission over an industrial noise channel. Finally, a comparison of the robustness of our pulse architecture with a system based on a conventional OFDM multi-carrier modulation is carried out. This leads us to propose a robust multi-user communication system based on wireless sensor networks for communications in difficult industrial environments
APA, Harvard, Vancouver, ISO, and other styles
19

Madre, Guillaume. "Application de la transformée en nombres entiers à l'étude et au développement d'un codeur de parole pour transmission sur réseaux IP." Brest, 2004. http://www.theses.fr/2004BRES2036.

Full text
Abstract:
Notre étude s'inscrit dans le domaine de la compression des signaux vocaux pour la transmission de voix par réseau Internet (VoIP : Voice over Internet Protocol). Les perspectives à moyen terme étant la mise en place d'une application de téléphonie IP, nos travaux fournissent les premiers éléments pour le fonctionnement en réel d'un système de codage de parole et son intégration à un processeur DSP. Ils se sont concentrés sur le codeur de parole G. 729 de type CS-ACELP (Conjugate Structure –Algebraic Code-Excited Linear Prediction), retenu parmi les recommandations de l'Union Internationale des Télécommunications (UIT) et déjà reconnu pour sa faible complexité d'implantation. L'étude principale a été d'améliorer ses performances et diminuer sa charge de calcul tout en maintenant un équilibre entre la qualité de codage et la complexité de calcul engendrée. Pour réduire le coût de calcul de ce codeur, nous avons approfondi les bases mathématiques de la Transformée en Nombres Entiers (NTT : Number Theoretic Transform) qui est amenée à trouver des applications de plus en plus diverses en traitement du signal. Nous avons introduit plus particulièrement la Transformée en Nombres de Fermat (FNT : Fermat Number Transform) qui est la plus adaptée aux opérations de traitement numérique. Nous avons constaté que son application à certains algorithmes de codage permet une réduction importante de la complexité de calcul. Ainsi, le développement de nouveaux algorithmes performants, pour la Prédiction Linéaire (LP : Linear Prediction) du signal et la modélisation de l'excitation, a permis une modification du codeur G. 729 en vue de son implantation sur un processeur à virgule fixe. De plus, une nouvelle fonction de détection d'activité de parole (VAD : Voice Activity Detection) a permis la mise en place d'une procédure de compression des silences plus efficace et la réduction du débit de transmission
Our study considers the vocal signals compression for the transmission of Voice over Internet Protocol (VoIP). The prospects being the implementation of a telephony IP application, the work provides the first elements for a real-time speech coding system and its integration to a DSP. They are concentrated on the speech CS-ACELP (Conjugate Structure- Algebraic Code-Excited Linear Prediction) G. 729 coder, retained among the International Telecommunications Union (ITU) recommendations and already recognized for its low implementation complexity. The main aspect was to improve its performances and to decrease its computational cost, while maintaining the compromise between the coding quality and the required complexity. To reduce the computational cost of this coder, we looked further into the mathematical bases of the Number Theoretic Transform (NTT) which is brought to find more and more various applications in signal processing. We introduced more particularly the Fermat Number Transform (FNT) which is well suited for digital processing operations. Its application to different coding algorithms allows an important reduction of the computational complexity. Thus, the development of new efficient algorithms, for the Linear Prediction (LP) of the speech signal and the excitation modeling, has allowed a modification of the G. 729 coder and his implementation on a fixed-point processor. Moreover, a new function of Voice Activity Detection (VAD) has carried out the implementation of one more efficient procedure for silences compression and the reduction of the transmission rate
APA, Harvard, Vancouver, ISO, and other styles
20

Dubois, Patrick. "Real-time FPGA Radiometric Calibration of an Imaging Fourier Transform Spectrometer." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26685/26685.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Douillard, Arthur. "Continual Learning for Computer Vision." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS165.

Full text
Abstract:
Depuis le début des années 2010 la recherche en apprentissage automatique a orienté son attention vers les efficaces réseaux de neurones profonds. Plus particulièrement, toutes les tâches de vision par ordinateur utilisent désormais des réseaux convolutionnels. Ces modèles apprennent à détecter des motifs d'abord simples (contours, textures) puis de plus en plus complexes jusqu'à apprendre le concept d'objets en particulier. Malgré les grandes avancées dans le domaine des réseaux de neurones profonds, un problème important subsiste : comment apprendre une quantité croissante de concepts, à la manière d'un élève durant sa scolarité, sans oublier les précédentes connaissances. Ce problème d'apprentissage continu est complexe : si non traité, les réseaux de neurones oublient catastrophiquement. L'objectif de cette thèse était donc de résoudre de ce problème. J'ai pu dans un premier temps développer plusieurs méthodes pour forcer un comportement similaire entre la version du modèle ayant appris de nouveaux concepts et sa précédente itération. Contrairement au reste de la littérature, qui imposait des contraintes sur le comportement final du modèle, je me suis intéressé aux représentations internes. Dans un second temps, j'ai considéré l'apprentissage continu pour la tâche de segmentation sémantique. Cette tâche complexe possède des problèmes inédits dans un contexte continu en plus de l'oubli catastrophique. J'ai pu proposer plusieurs approches complémentaires pour les résoudre. Plus précisément : une nouvelle méthode de contraintes, une technique de pseudo-annotations et une manière efficace de révisions d'objets. Et enfin, dans un troisième et dernier temps, je m'intéresse aux réseaux de neurones dynamiques,pouvant créer de nouveaux neurones à travers leur existence pour résoudre un nombre croissant de tâche. Les méthodes précédentes grandissent avec peu de contrôles, résultant en des modèles extrêmement lourd, et souvent aussi lents. Donc, en m'inspirant des récents transformers,j'ai conçu une stratégie dynamique avec un coût pratiquement nul, mais ayant malgré tout des performances à l'état-de-l'art
I first review the existing methods based on regularization for continual learning. While regularizing a model's probabilities is very efficient to reduce forgetting in large-scale datasets, there are few works considering constraints on intermediate features. I cover in this chapter two contributions aiming to regularize directly the latent space of ConvNet. The first one, PODNet, aims to reduce the drift of spatial statistics between the old and new model, which in effect reduces drastically forgetting of old classes while enabling efficient learning of new classes. I show in a second part a complementary method where we avoid pre-emptively forgetting by allocating locations in the latent space for yet unseen future class. Then, I describe a recent application of CIL to semantic segmentation. I show that the very nature of CSS offer new specific challenges, namely forgetting on large images and a background shift. We tackle the first problem by extending our distillation loss introduced in the previous chapter to multi-scales. The second problem is solved by an efficient pseudo-labeling strategy. Finally, we consider the common rehearsal learning, but applied this time to CSS. I show that it cannot be used naively because of memory complexity and design a light-weight rehearsal that is even more efficient. Finally, I consider a completely different approach to continual learning: dynamic networks where the parameters are extended during training to adapt to new tasks. Previous works on this domain are hard to train and often suffer from parameter count explosion. For the first time in continual computer vision, we propose to use the Transformer architecture: the model dimension mostly fixed and shared across tasks, except for an expansion of learned task tokens. With an encoder/decoder strategy where the decoder forward is specialized by a task token, we show state-of-the-art robustness to forgetting while our memory and computational complexities barely grow
APA, Harvard, Vancouver, ISO, and other styles
22

Ouillon, Guy. "Application de l'analyse multifractale et de la transformée en ondelettes anisotropes à la caractérisation géométrique multi-échelle des réseaux de failles et de fractures." Nice, 1995. http://www.theses.fr/1995NICE4834.

Full text
Abstract:
Ce mémoire est dédié à la caractérisation multi échelle de la géométrie de la fracturation. Les données sont d'origine naturelle et échantillonnées à plusieurs échelles (du terrain jusqu'à l'image satellite) sur la couverture sédimentaire de l’Arabie saoudite. L'évolution de la densité de fracturation en fonction de la résolution de l'observation est assurée à l'aide de l'analyse multi fractale. La dimension fractale des divers réseaux étudies est toujours égale à 2. La fracturation affectant uniquement le bassin sédimentaire est distribuée de manière uniforme, alors que la distribution des accidents pénétrant dans le socle est hétérogène. La dimension fractale locale des zones les plus fracturées est d'environ 1,75, valeur proche de celles obtenues dans les processus DLA. Ces résultats sont obtenus à l'aide de la mise au point d'une méthode d'analyse corrigeant des effets de bord et de taille finie. L'évolution de l'anisotropie des réseaux en fonction de l'échelle est abordée par l'intermédiaire d'une méthode nouvelle, baptisée méthode du coefficient d'ondelette anisotrope optimal. Ces deux analyses permettent d'évaluer les échelles caractéristiques influençant l'organisation des fractures. Ces échelles de coupure sont parfaitement corrélées avec diverses épaisseurs d'unités structurales connues: unités sédimentaires, profondeurs de plasticité du quartz et du feldspath, épaisseur de la croute terrestre. La fracturation visible en surface dépend de la lithologie crustale et du degré de couplage entre les diverses couches, et sans doute de l’héritage tectonique
APA, Harvard, Vancouver, ISO, and other styles
23

Kamienny, Pierre-Alexandre. "Efficient adaptation of reinforcement learning agents : from model-free exploration to symbolic world models." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS412.

Full text
Abstract:
L'apprentissage par renforcement (RL) est un ensemble de techniques utilisées pour former des agents autonomes à interagir avec des environnements de manière à maximiser leur récompense. Pour déployer avec succès ces agents dans des scénarios réels, il est crucial qu'ils puissent généraliser à des situations inconnues. Bien que les réseaux de neurones aient montré des résultats prometteurs en permettant aux agents d'interpoler des comportements souhaités, leurs limites en termes de généralisation au-delà de la distribution d'entraînement entraînent souvent des performances sous-optimales sur des données issue d'une distribution différente. Ces défis sont encore amplifiés dans les environnements de RL caractérisés par des situations non stationnaires et des changements constants de la distribution lors du déploiement. Cette thèse présente de nouvelles stratégies dans le cadre du meta-RL visant à doter les agents RL de la capacité à s'adapter sur des tâches différentes du domaine d'entraînement. La première partie de la thèse se concentre sur les techniques model-free, c'est à dire qui ne modélisent pas explicitement l'environnement, pour apprendre des stratégies d'exploration efficaces. Nous examinons deux scénarios : dans le premier, l'agent dispose d'un ensemble de tâches d'entraînement, ce qui lui permet de modéliser explicitement les tâches et d'apprendre des représentations de tâches généralisables ; dans le second, l'agent apprend sans récompense à maximiser la couverture de l'espace des états. Dans la deuxième partie, nous explorons l'application de la régression symbolique, un outil puissant pour développer des modèles prédictifs offrant une interprétabilité et une meilleure robustesse face aux changements de distribution. Ces modèles sont ensuite intégrés aux agents model-based pour améliorer la modélisation de la dynamique. De plus, cette recherche contribue au domaine de la régression symbolique en introduisant une collection de techniques exploitant les modèles génératifs, en particulier le Transformer, ce qui améliore leur précision et leur efficacité. En résumé, cette thèse aborde abordant le défi de la généralisation et adaptation dans le RL. Elle développe des techniques visant à permettre aux agents meta-RL de s'adapter à des tâches hors domaine, facilitant ainsi leur déploiement dans des scénarios du monde réel
Reinforcement Learning (RL) encompasses a range of techniques employed to train autonomous agents to interact with environments with the purpose of maximizing their returns across various training tasks. To ensure successful deployment of RL agents in real-world scenarios, achieving generalization and adaptation to unfamiliar situations is crucial. Although neural networks have shown promise in facilitating in-domain generalization by enabling agents to interpolate desired behaviors, their limitations in generalizing beyond the training distribution often lead to suboptimal performance on out-of-distribution data. These challenges are further amplified in RL settings characterized by non-stationary environments and constant distribution shifts during deployment. This thesis presents novel strategies within the framework of Meta-Reinforcement Learning, aiming to equip RL agents with the ability to adapt at test-time to out-of-domain tasks. The first part of the thesis focuses on model-free techniques to learn effective exploration strategies. We consider two scenarios: one where the agent is provided with a set of training tasks, enabling it to explicitly model and learn generalizable task representations; and another where the agent learns without rewards to maximize its state coverage. In the second part, we investigate into the application of symbolic regression, a powerful tool for developing predictive models that offer interpretability and exhibit enhanced robustness against distribution shifts. These models are subsequently integrated within model-based RL agents to improve their performance. Furthermore, this research contributes to the field of symbolic regression by introducing a collection of techniques that leverage Transformer models, enhancing their accuracy and effectiveness. In summary, by addressing the challenges of adaptation and generalization in RL, this thesis focuses on the understanding and application of Meta-Reinforcement Learning strategies. It provides insights and techniques for enabling RL agents to adapt seamlessly to out-of-domain tasks, ultimately facilitating their successful deployment in real-world scenarios
APA, Harvard, Vancouver, ISO, and other styles
24

El, alaoui Imane. "Transformer les big social data en prévisions - méthodes et technologies : Application à l'analyse de sentiments." Thesis, Angers, 2018. http://www.theses.fr/2018ANGE0011/document.

Full text
Abstract:
Extraire l'opinion publique en analysant les Big Social data a connu un essor considérable en raison de leur nature interactive, en temps réel. En effet, les données issues des réseaux sociaux sont étroitement liées à la vie personnelle que l’on peut utiliser pour accompagner les grands événements en suivant le comportement des personnes. C’est donc dans ce contexte que nous nous intéressons particulièrement aux méthodes d’analyse du Big data. La problématique qui se pose est que ces données sont tellement volumineuses et hétérogènes qu’elles en deviennent difficiles à gérer avec les outils classiques. Pour faire face aux défis du Big data, de nouveaux outils ont émergés. Cependant, il est souvent difficile de choisir la solution adéquate, car la vaste liste des outils disponibles change continuellement. Pour cela, nous avons fourni une étude comparative actualisée des différents outils utilisés pour extraire l'information stratégique du Big Data et les mapper aux différents besoins de traitement.La contribution principale de la thèse de doctorat est de proposer une approche d’analyse générique pour détecter de façon automatique des tendances d’opinion sur des sujets donnés à partir des réseaux sociaux. En effet, étant donné un très petit ensemble de hashtags annotés manuellement, l’approche proposée transfère l'information du sentiment connue des hashtags à des mots individuels. La ressource lexicale qui en résulte est un lexique de polarité à grande échelle dont l'efficacité est mesurée par rapport à différentes tâches de l’analyse de sentiment. La comparaison de notre méthode avec différents paradigmes dans la littérature confirme l'impact bénéfique de notre méthode dans la conception des systèmes d’analyse de sentiments très précis. En effet, notre modèle est capable d'atteindre une précision globale de 90,21%, dépassant largement les modèles de référence actuels sur l'analyse du sentiment des réseaux sociaux
Extracting public opinion by analyzing Big Social data has grown substantially due to its interactive nature, in real time. In fact, our actions on social media generate digital traces that are closely related to our personal lives and can be used to accompany major events by analysing peoples' behavior. It is in this context that we are particularly interested in Big Data analysis methods. The volume of these daily-generated traces increases exponentially creating massive loads of information, known as big data. Such important volume of information cannot be stored nor dealt with using the conventional tools, and so new tools have emerged to help us cope with the big data challenges. For this, the aim of the first part of this manuscript is to go through the pros and cons of these tools, compare their respective performances and highlight some of its interrelated applications such as health, marketing and politics. Also, we introduce the general context of big data, Hadoop and its different distributions. We provide a comprehensive overview of big data tools and their related applications.The main contribution of this PHD thesis is to propose a generic analysis approach to automatically detect trends on given topics from big social data. Indeed, given a very small set of manually annotated hashtags, the proposed approach transfers information from hashtags known sentiments (positive or negative) to individual words. The resulting lexical resource is a large-scale lexicon of polarity whose efficiency is measured against different tasks of sentiment analysis. The comparison of our method with different paradigms in literature confirms the impact of our method to design accurate sentiment analysis systems. Indeed, our model reaches an overall accuracy of 90.21%, significantly exceeding the current models on social sentiment analysis
APA, Harvard, Vancouver, ISO, and other styles
25

Kizil, Hüseyin Christophe. "Conception d'une architecture numérique configurable pour la transformée en paquets d'ondelettes discrètes : application aux transmissions numériques ultra-large bande impulsionnelles." Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0265.

Full text
Abstract:
Les communications ultra-large bande impulsionnelles (IR-UWB) sont des transmissions de données dans la bande de fréquences de 3,6 - 10,1 GHz, qui trouvent leurs applications dans les communications sans fils à très courtes portées, dans les réseaux corporels (BAN) ou la géolocalisation très précise. L'avantage des communications IR-UWB est la possibilité de disposer de débits élevés de communication et une immunité des signaux aux bruits et aux trajets multiples. Cependant, l'inconvénient majeur de ce type de communications est que leur mise en œuvre nécessite des circuits complexes gourmands en consommation d'énergie, limitant ainsi leur utilisation pour les applications embarquées. Une alternative est l'utilisation d'architectures de circuits basées sur les générations de paquets d'ondelettes. Plus précisément, une transformée inverse par paquets d'ondelettes discrètes (IDWPT) peut être considérée comme un générateur d'impulsions permettant de réduire la complexité des architectures existantes tout en préservant des performances convenables. De même, la transformée directe (DWPT) décode les impulsions générées par une IDWPT. Dans ces travaux de thèse, nous étudions et montrons la faisabilité d'une architecture numérique pour la transmissions IR-UWB par l'implémentation sur technologie FPGA des transformées discrètes directe et inverse de paquets d'ondelettes dans un contexte de développement d'un réseau de capteurs en vue d'une intégration dans un BAN. Les architectures du générateur et du décodeur d'impulsions reposent principalement sur des bancs de filtres numériques d'interpolations et de décimations. Ces bancs de filtres reposent sur des structures en arbre, symétriques et régulières assurant une certaine flexibilité en terme de configuration du niveau de résolution et des paquets d'ondelettes. Une modélisation et les premiers tests de transmissions à partir des architectures proposées à travers un canal gaussien sous environnement MATLAB - Simulink et pour différentes générations de types ondelettes (Haar, Db2, Db4, Coif2 et rbio1.5) montrent la faisabilité de communications IR-UWB. A travers un canal gaussien, toutes les ondelettes étudiées montrent globalement les mêmes performances, permettant de limiter la conception numérique d'architectures émetteur et récepteur basée sur l'ondelette de Haar. Les architectures étant uniquement basées sur des filtres d'interpolation et de décimation, nous les avons optimisés pour une intégration sur FPGA. Elles sont donc constituées de filtres transposés à structure polyphasé. L'implémentation détaillée des émetteurs et récepteurs basées sur les ondelettes étudiées sont présentées dans ce manuscrit et comparées aux travaux de la littérature. Actuellement, nous avons pu observer expérimentalement par l'intégration sur la technologie FPGA Xilinx Arty-7 XC7A35T, que les paquets d'ondelettes générées permettent des communications larges bandes. Ces travaux montrent également l'exploitation de l'approche développée dans la réalisation d'un réseau de capteurs, où la difficulté est, du point de vue du récepteur, de différencier les émetteurs. L'architecture en arbre de l'émetteur est désassemblée par branche pour que chacune d'entre elle soit assignée à un émetteur, et ainsi former un réseau en étoile. De ce fait, les émetteurs possèdent seulement une partie de l'émetteur initialement étudié et chaque partie est différente. L'avantage de l'approche proposée par les paquets d'ondelettes est la possible discrimination entre les émetteurs considérant l'orthogonalité des sorties de chacune des branches. Dans ces travaux, le phénomène de décalage temporel très courant dans un réseau de capteurs est également résolu à partir d'un algorithme reposant sur l'unicité d'un paquet reçu par un récepteur, et correspondant (démonstration à l'appui) à une combinaison linéaire des paquets issus des émetteurs
Impulse radio ultra-wideband communications (IR-UWB) are data transmissions in 3.6 - 10.1 GHz frequency band for application fields of very short-range wireless communications, body area networks (BAN) or high precision location. The advantage of IR-UWB is the possibility of getting a high throughput and the signals have immunity to noise and multipath. Nevertheless, the main drawback is that kind of communication requires complex and energy consuming circuits. In this research works, we propose an architectures based on wavelet packets based on the inverse discrete wavelet packet transform (IDWPT) performing as a pulse generator reducing the complexity of architectures while preserving proper performance. Similarly, the direct transform (DWPT) can be used as decoder of the pulses. We have studied the feasibility of such architectures and develop a sensor network for integration into a BAN. The architecture of the pulse generator and the decoder are based on banks of interpolation and decimation filters. These filter banks have a tree structure which is symmetrical and regular providing a flexibility. The first tests of transmissions through a Gaussian channel under MATLAB - Simulink environment for different wavelets (Haar, Db2, Db4, Coif2 and rbio1.5) show that it is possible to consider such communication based on wavelet packets. Through a Gaussian channel, all the studied wavelets have the same performances. Therefore, it is preferable to choose the smallest architecture, that based on the Haar wavelet. Since the architectures are based exclusively on interpolation and decimation filters suitable for FPGA integration considering transposed filters with a polyphase structure. The detailed implementation of wavelet-based emitters and receivers studied is presented in this manuscript and compared to the previous works. We were able to observe wavelet packets from experiments that were conducted to wide bande frequencies. In this work, the time-shift problem is also considered and resolved by proposing an specific algorithm based on the uniqueness of received packets by the receiver and corresponding to a linear combination of packets coming from transmitters. In addition, a mathematical formalization validates the algorithm and extends the method for all orthogonal and compact wavelets having the same characteristics as Daubechies wavelets
APA, Harvard, Vancouver, ISO, and other styles
26

Grall, Céline. "La Faille Nord Anatolienne dans sa portion immergée en mer de Marmara : évolution du réseau de failles et migration de fluides." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4371.

Full text
Abstract:
Cette thèse porte sur la déformation et les migrations de fluides associées à la Faille Nord Anatolienne en Mer de Marmara (Turquie).Nous étudions tout d'abord l'évolution de la géométrie et du taux de glissement du système de faille, par deux approches indépendantes: - modélisation thermique de l'histoire d'un bassin, - définition d'un marqueur temporel de type Dépôt de Transport en Masse, daté par interprétation stratigraphique. Nous montrons que: -(1) le système de failles actuel, défini comme une faille principale accommodant la majorité de la déformation inter-plaque, n'a pas significativement évolué depuis 330.000 ± 100.000 ans dans la partie Ouest de la mer; -(2) le système de faille s'est progressivement réorganisé depuis 2.5-1.5 Ma.Dans un deuxième temps, nous étudions les processus d'initiation des Transports en Masse. Nous montrons que: -(1) même si les Transports en Masse sont contrôlés par des processus tectoniques (principalement les séismes et l'extension crustale), leur fréquence et leur taille sont conditionnées par les oscillations glacio-eustatiques; -(2) des Dépôts en Masse ont une périodicité corrélée aux transitions marins/lacustres. Cette cyclicité peut être expliquée par la diffusion d'eau saumâtre, dans les argiles marines entraînant leur gonflement et déstabilisant les sédiments. Dans une troisième partie, nous étudions la diversité des contextes des sites d'émissions de fluides en fonds de mer. Nous montrons que l'occurrence des sites d'émission de fluides est en partie liée au flux ascendant de gaz le long de couches perméables des bassins vers leurs bords, et le long des fractures du socle vers les bords des bassins et les anticlinaux
This study addresses the issue on the deformation and the fluid migration, associated to the North Anatolian Fault within the Sea of Marmara (Turkey).First, we aim to constrain the evolution of the fault network and the slip rate through time, by two independent approaches: - historical thermal modeling of a basin of the Sea of Marmara; - definition of a Mass Transport Deposit as a fault lateral slip marker, and dated by stratigraphic interpretation. We show that: - (1) the present day fault system, formed by a main fault which accommodated the main part of the inter-plate deformation does not significantly evolved since 330.000 ± 100.000 years - (2) a progressive reorganization of the fault network occurred since the last 2.5-1.5 Ma.Secondly, we discuss the triggers of Mass Transport Processes. We show that: - (1) despite submarine mass movements are related to tectonic activity (mainly earthquakes and crustal stretching), their frequency and their size are also modulated by glacio-eustatic changes; -(2) remarkable Mass Transport Deposits display some cyclicity in stratigraphic sequences which are apparently correlated to transitions between salty marine and lacustrine environments. This cyclicity is perhaps explained by marine clay activity (swelling) under low brackish-fresh water conditions, which can trigger sediment destabilization.Third, we investigate the diversity of active fluid seepages contexts. We propose that the widespread occurrence of fluid expulsion sites can be explained by up-dip gas migration by buoyancy along permeable strata toward their edges, and along fractures within the basement toward both the edges of the basins and topographic highs
APA, Harvard, Vancouver, ISO, and other styles
27

Peteri, Renaud. "Extraction de réseaux de rues en milieu urbain à partir d'images satellites à très haute résolution spatiale." Phd thesis, École Nationale Supérieure des Mines de Paris, 2003. http://pastel.archives-ouvertes.fr/pastel-00000508.

Full text
Abstract:
La disponibilité d'images satellites à très haute résolution spatiale au dessus de zones urbaines est récente. Elle constitue potentiellement un très grand apport pour la cartographie des villes à des échelles de l'ordre du 1:10 000. La très haute résolution spatiale permet une représentation réelle des rues sue une carte, mais engendre une augmentation significative du bruit. Dans cette thèse, nous proposons une méthode d'extraction des réseaux de rues en milieu urbain à partir des images à très haute résolution spatiale. Son objectif est de répondre à une forte demande dans la création automatisée de cartes. La méthode proposée n'utilise que l'image numérique comme source d'information. Elle est semi-automatique au niveau de la détection et exploite la coopération entre la représentation linéique de la rue et sa représentation surfacique. Le graphe topologique du réseau est d'abord extrait et est utilisé pour initialiser l'étape de reconstruction surfacique. Le résultat d'extraction peut alors servir à recaler le graphe précisément sur l'axe des rues. La méthode utilise des contraintes géométriques fortes afin de ne pas dépendre d'un modèle de profil radiométrique de la rue, trop variable en milieu urbain. Dans cette optique, un modèle de contours actif associé à la transformée en ondelettes, le DoubleSnake, a été développé. Son évolution dans un cadre multi-échelle permet d'extraire les sections de rues à bords parallèles dans un environnement bruité. Les positions finales des DoubleSnakes permettent ensuite l'extraction des intersections. La méthode a été appliquée à des images de différents capteurs et avec différents types d'urbanisation. Un protocole innovant d'évaluation quantitative des résultats par comparaison à l'interprétation humaine a permis de montrer le caractère générique de la méthode, ainsi que sa bonne robustesse vis-à-vis du bruit. Cette méthode constitue un pas vers une cartographie automatisée du réseau de rues urbain.
APA, Harvard, Vancouver, ISO, and other styles
28

Khalil, Aamre. "Architectures fonctionnelles de transmission sans fils adaptées aux milieux industriels fortement bruités." Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0183.

Full text
Abstract:
Ces dernières années ont été marquées par des mutations rapides et profondes des technologies de transmission de données. Ces mutations sont dictées par l'augmentation massive des débits, la diversité des médias physiques, la multiplication des normes de transmission conjointe aux exigences d'interopérabilité, ainsi que l'accroissement des contraintes liées à ma qualité de service qui se traduisent notamment en contraintes de sûreté de fonctionnement (fiabilité, tolérance aux fautes). Dans le domaine des communications sans fil, à ces aspects s'ajoute l'utilisation d'un spectre de fréquences déjà bien encombré et non extensible, ainsi que la prise en compte de la mobilité, l'autonomie et la sécurité des utilisateurs. Inévitablement, tout ceci induit de très fortes contraintes au niveau de la conception des circuits et systèmes de transmission devant prendre en charge les nouveaux protocoles de transmission. C'est notamment le cas pour tous les aspects relatifs aux codes correcteurs d'erreurs chargés de protéger les communications contre les perturbations extérieures susceptibles d'altérer les informations transmises. En fait, les algorithmes de traitement à mettre en œuvre, très exigeants en termes de débit et de complexité, rendent les architectures de codage/décodage existantes inadaptées à cause de leurs capacités de calcul insuffisantes. Le but de la thèse se situe dans la continuation de travaux précédents ayant fait l'objet de plusieurs thèses et publications concernant les architectures dédiées au traitement des codes correcteurs d'erreurs, les architectures de processeurs et les architectures de réseaux sur puce, le tout en s'intéressant aux aspects tolérances aux fautes. L'objectif global ici est de concevoir de nouvelles architectures numériques fonctionnelle basé sur la modulation par paquets d’ondelettes discrètes, utilisant la transformé inverse par paquets d’ondelettes discrètes (IDWPT) dans la transmission, et la transformé par paquets d’ondelettes discrètes (DWPT) dans la réception, en exploitant deux modes de transmission : One-to-Many (OtM) pour une transmission entre un seul transmetteur et plusieurs capteurs allant de 8, 16 jusqu’à 32 ou plus, et un mode Many-to-One (MtO) pour une transmission entre plusieurs utilisateurs et un seul récepteur avec la même configuration possible, suivie par l’intégration des codes correcteurs modernes dans cette architecture (notamment les différentes familles de codes Reed Solomon et Codes Convolutifs), offrant une forte puissance de traitement et une versatilité élevée (flexibilité et configurabilité), pour les milieux industriels fortement bruité. L’utilisation des codes correcteurs d’erreurs nous ont permis d’avoir un gain de 4 à 6dB pour les codages Reed Solomon et les codes convolutifs utilisés individuellement, de 5 à 10db avec la combinaison de ces deux codages et de 2 à 4dB de plus pour les codes Reed Solomon raccourcis
Recent years have been marked by rapid and profound changes in data transmission technologies. These changes are dictated by the massive increase in data rates, the diversity of physical media, the multiplication of joint transmission standards and interoperability requirements, as well as the increase in constraints linked to the quality of service, which are reflected in particular in operational safety constraints (reliability, fault tolerance). In the field of wireless communications, these aspects are compounded by the use of an already congested and non-extensible frequency spectrum, as well as the need to take account of the mobility, autonomy and safety of users. Inevitably, all this leads to very strong constraints in the design of transmission circuits and systems that must support the new transmission protocols. This is particularly the case for all aspects relating to error-correcting codes responsible for protecting communications against external disturbances likely to alter the information transmitted. In fact, the processing algorithms to be implemented, which are very demanding in terms of throughput and complexity, make the existing coding/decoding architectures unsuitable because of their insufficient computing capacity. The aim of the thesis is in the continuation of previous work that has been the subject of several theses and publications concerning architectures dedicated to the processing of error-correcting codes, processor architectures and on-chip network architectures, while focusing on the fault tolerance aspects. The overall objective here is to design new functional digital architectures based on discrete wavelet packet modulation, using Inverse Discrete Wavelet Packet Transform (IDWPT) in transmission, and Discrete Wavelet Packet Transform (DWPT) in reception, exploiting two transmission modes: One-to-Many (OtM) for transmission between a single transmitter and several sensors ranging from 8, 16 up to 32 or more, and a Many-to-One (MtO) mode for transmission between several users and a single receiver with the same possible configuration, followed by the integration of modern correction codes in our architecture (notably the different families of Reed Solomon codes and Convolutional Codes), offering high processing power and versatility (flexibility and configurability), for high noise industrial environments. The use of error-correcting codes allowed us to have a gain of 4 to 6dB for Reed Solomon codings and convolutional codes used individually, 5 to 10db with the combination of these two codes and 2 to 4dB more for shortened Reed Solomon codes
APA, Harvard, Vancouver, ISO, and other styles
29

Piat, Guilhem Xavier. "Incorporating expert knowledge in deep neural networks for domain adaptation in natural language processing." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG087.

Full text
Abstract:
Les Modèles de Langage (LMs) de pointe sont capables de converser, résumer, traduire, résoudre des problèmes inédits, raisonner, et manipuler des concepts abstraits à niveau quasi-humain. Cependant, pour acquérir ces capacités, et en particulier pour acquérir une forme de ``bon sens'' ou des connaissances spécifiques à un domaine, ils requièrent de vastes quantités de texte, qui ne sont pas disponibles pour toutes les langues ou tous les domaines. De surcroît, leurs besoins en puissance de calcul ne sont atteignables que par quelques organisations, limitant leur spécificité ainsi que leur applicabilité aux données sensibles.Les Graphes de Connaissances (GCs) sont des sources de connaissances structurées qui associent des concepts linguistiques entre eux par le biais de relations sémantiques. Ces graphes sont des sources de connaissances de haute qualité, préexistantes dans une variété de domaines même peu dotés en ressources, et plus denses en informations que du texte. En permettant aux LMs d'exploiter ces structures d'information, ils sont délestés de la responsabilité de mémoriser les informations factuelles, réduisant la quantité de ressources textuelles et calculatoires nécessaires à leur entraînement, et nous permettant de mettre à jour leur connaissances à moindre coût, élargissant leur cadre d'application et augmentant leur potentiel de démocratisation.Diverses approches pour l'amélioration de LMs par intégration de GCs ont démontré leur efficacité. Elles reposent cependant sur la supposition rarement vérifiée que le problème de Désambiguïsation d'Entités Nommées (DEN) est résolu en amont. Ce mémoire couvre les limitations de cette approche, puis explore l'apprentissage simultané de modélisation de langue et de DEN. Cette démarche s'avère viable mais échoue à réduire considérablement la dépendance du LM sur le texte issu du domaine. Enfin, ce mémoire aborde la stratégie de générer du texte à partir de GCs de manière à exploiter les capacités linguistiques des LMs. Il en ressort que même une implémentation naïve de cette approche peut se solder par de considérables progrès en modélisation de langue dans des domaines de spécialité
Current state-of-the-art Language Models (LMs) are able to converse, summarize, translate, solve novel problems, reason, and use abstract concepts at a near-human level. However, to achieve such abilities, and in particular to acquire ``common sense'' and domain-specific knowledge, they require vast amounts of text, which are not available in all languages or domains. Additionally, their computational requirements are out of reach for most organizations, limiting their potential for specificity and their applicability in the context of sensitive data.Knowledge Graphs (KGs) are sources of structured knowledge which associate linguistic concepts through semantic relations. These graphs are sources of high quality knowledge which pre-exist in a variety of otherwise low-resource domains, and are denser in information than typical text. By allowing LMs to leverage these information structures, we could remove the burden of memorizing facts from LMs, reducing the amount of text and computation required to train them and allowing us to update their knowledge with little to no additional training by updating the KGs, therefore broadening their scope of applicability and making them more democratizable.Various approaches have succeeded in improving Transformer-based LMs using KGs. However, most of them unrealistically assume the problem of Entity Linking (EL), i.e. determining which KG concepts are present in the text, is solved upstream. This thesis covers the limitations of handling EL as an upstream task. It goes on to examine the possibility of learning EL jointly with language modeling, and finds that while this is a viable strategy, it does little to decrease the LM's reliance on in-domain text. Lastly, this thesis covers the strategy of using KGs to generate text in order to leverage LMs' linguistic abilities and finds that even naïve implementations of this approach can result in measurable improvements on in-domain language processing
APA, Harvard, Vancouver, ISO, and other styles
30

Chaniot, Johan. "Caractérisation morphologique efficace de matériaux par cartes de distance." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSES039.

Full text
Abstract:
Le monde est face à une crise environnementale majeure, ceci alors que la consommation d'énergie ne cesse d'augmenter. Quelles solutions pouvons-nous trouver pour fournir l'énergie demandée, tout en réduisant les émissions de gaz à effet de serre ? L'une d'entre elles consiste à améliorer l'efficacité énergétique des procédés industriels, notamment par le biais de la catalyse hétérogène. Les catalyseurs hétérogènes, ici des solides poreux, sont utilisés en raffinage et pétrochimie, en particulier pour la génération de biocarburant.La question se pose de caractériser l'efficacité de ces catalyseurs. Une description morphologique fournit des informations clés, au sens où des corrélations ont été établies entre propriétés structurales et performances de ces matériaux. Néanmoins, la catalyse hétérogène est un processus complexe et les descripteurs traditionnellement utilisés sont insuffisants, dans l'optique d'une aide aux choix de ces matériaux.Ce travail de thèse vise à développer de nouveaux descripteurs numériques de microstructures, facilement interprétables, efficients et complémentaires à l'état de l'art, afin d'aider in fine à choisir les catalyseurs appropriés à une application donnée. Ces descripteurs permettent une caractérisation géométrique et topologique du réseau poreux, quelle que soit sa complexité et indépendamment des phénomènes physico-chimiques pouvant être en jeu.Nous mettons en œuvre à la fois la percolation, capacité à traverser une microstructure ; la tortuosité géométrique, sinuosité et interconnectivité d'un réseau ; et l'hétérogénéité. Ces descripteurs relèvent pour l'essentiel de méthodes morphologiques. Les caractéristiques géométriques et topologiques liées aux fonctionnelles de Minkowski en 3D sont adaptées au domaine d'intérêt par estimation de l'accessibilité à une microstructure pour une sphère de taille donnée (A-protocole), décrite par érosion morphologique calculée de façon efficace grâce aux cartes de distances. Nous caractérisons ensuite la topologie des pores via un nouvel opérateur, la M-tortuosité, applicable à tout volume segmenté, sans définition arbitraire de points ou de plans sources. Nous proposons un estimateur efficace de la M-tortuosité par calcul de cartes de distances ; dont une généralisation par facteurs puissances est définie. Cet opérateur est ensuite étendu de différentes façons.Tout d'abord, au cas d'une sonde de taille finie (M-tortuosité-par-érosions-itératives), caractérisant les goulots d'étranglement, habituellement décrits par la constrictivité. Puis, pour caractériser la dépendance en échelle spatiale de la tortuosité (H-tortuosité), ce qui quantifie, entre autres, l'hétérogénéité de la structure. Enfin, ces deux aspects sont regroupés dans la H-tortuosité-par-érosions-itératives.Dans un second temps, ces opérateurs ensemblistes, valables pour des images binaires, reçoivent une extension fonctionnelle permettant de décrire des images à niveaux de gris (F-tortuosité et HF-tortuosité). Les objectifs sont multiples : tenir compte d'informations locales lors de l'estimation de la tortuosité globale de microstructures, et discriminer des images tomographiques, sans segmentation précise de la structure.Le pouvoir discriminant de ces opérateurs ensemblistes et fonctionnels, et leur comportement, sont évalués au fil des définitions, sur des cas d'école et sur des modèles booléens multi-échelles de Cox. Leurs similitudes et complémentarités sont analysées sur ces mêmes images synthétiques.En catalyse et biocatalyse, trois types de microstructures sont considérés : les zéolithes, les MOFs (Metal-Organic Framework) et les alumines. Ces applications montrent l'étendue du champ applicatif, par l'adaptabilité et la complémentarité des descripteurs proposés, entrainant la considération de leur utilisation en dehors du cadre de la catalyse, notamment pour certains domaines des neurosciences et l'analyse des milieux turbides
In a technologically advanced world, energy consumption is rapidly increasing deepening the ongoing environmental crisis. Therefore, solutions must be found to provide the required energy, while reducing greenhouse gas emissions.Catalysis is an excellent way to improve the energy efficiency of industrial processes. Heterogeneous catalysts, here porous microstructures, are at the heart of this process, particularly for refining and petrochemical industry, specifically for biofuel generation.Their morphological description provides key information. Thus far, correlations have been established between the structural properties and performance of these materials. Nevertheless, heterogeneous catalysis is a very complex process and the traditional numerical descriptors provide insufficient information and fail to assist in material selection. The work addressed in this thesis aims to develop new digital descriptors of microstructures that are easily interpretable, efficient and complementary to the current state-of-the-art solutions. The objective is to complete the set of descriptors, to help in the optimal selection of the appropriate catalysts for a given application. More specifically, we focus our work on a geometric and topological characterization of the porous network, without taking into account physicochemical phenomena, and not being limited by the complexity of the microstructure studied.Our different approaches focus on the concepts of percolation, ability to cross a microstructure; geometric tortuosity, sinuosity and interconnectivity of a network; and heterogeneity. The geometric and topological characteristics linked to the Minkowski functionals in 3D are fitted to catalysis field by estimating accessibility of a microstructure for a given sphere size (A-protocol), described by morphological erosion efficiently calculated by distance maps. To characterize the pore topology, we define an operator, the M-tortuosity, that can be applied to any segmented volume, without arbitrarily defining source points or planes. We propose an efficient M-tortuosity estimator by calculating distance maps; which is then generalized by power factors. This operator is then extended to distinct ways.First, to the case of a probe of finite size (M-tortuosity-by-iterative-erosions), characterizing bottleneck effects which are usually quantified using constrictivity. Then, to characterize the spatial scale dependence of tortuosity (H-tortuosity), characterizing, among others, the heterogeneity of the structure. Finally, both aspects are gathered into the H-tortuosity-by-iterative-erosions.Secondly, these ensemble operators, suitable for binary images, are extended to the functional case, to discriminate grayscale images (F-tortuosity and HF-tortuosity). These functional extensions have various purposes: combining local information with tortuosity assessment of the overall structure, and characterizing tomographic images without accurate segmentation.The discrimination power of these operators, ensemble and functional, is assessed on toy cases and on multi-scale Boolean Cox schemes. Moreover, their similarities and complementarities are analysed using these very same stochastic models.In catalysis and biocatalysis, three types of catalysts are considered: zeolites, MOFs (Metal-Organic Framework) and aluminas. These applications highlight their wide scope, and lead to consider their usefulness out of catalyst domain; in neuroscience and for turbid media characterization
APA, Harvard, Vancouver, ISO, and other styles
31

Lancry, Matthieu. "Contribution à l'étude de méthodes de sensibilisation de fibres optiques de communication et mécanismes associés." Lille 1, 2004. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/ede850ab-f1c9-467d-9f5c-9ca2b64ac672.

Full text
Abstract:
Sous l'effet d'une insolation lumineuse (en général ultraviolette), l'indice de réfraction de la plupart des verres de silice se modifie de façon permanente. Cet effet est désigné sous le nom de photosensibilité. Le phénomène se révèle intéressant pour les télécommunications optiques dans la mesure où il permet l'inscription de composants optiques passifs dans le coeur des fibres optiques ou dans des films planaires. Dans le cadre de ce travail de doctorat, nous avons réalisé un ensemble d'études sur la photosensibilité de verres germanosilicates sous l'action d'insolations réalisées à l'aide d'un laser à ArF ([lambda]p=193nm)ou d'un laser à KrF ([lambda]p=248nm). Nous avons étudié trois différentes méthodes de sensibilisation des verres germanosilicates : l'hydrogénation à haute pression et à température ambiante, l'hypersensibilisation UV (hydrogénation, insolation unifor:me et dégazage) ainsi que la méthode de chargement en hydroxyles (élévation thermique à 1000ʿC durant un court instant puis dégazage). D'une part, il s'agissait de comparer les trois méthodes de sensibilisation des fibres optiques germanosilicates en terme d'efficacité, de 'stabilité des procédés et des variations d'indice ainsi que des pertes créées vers 1,5 micron. D'autre part, une étude destinée à préciser les mécanismes de la sensibilisation et les origines des changements d'indice a été présentée dans ce mémoire. A cet effet, nous avons enregistré les spectres d'excès de pertes induits dans l'infrarouge et l'ultraviolet lors de l'insolation UV de lames de préforme ou de fibres germanosilicates sensibilisées.
APA, Harvard, Vancouver, ISO, and other styles
32

Wang, Kun. "Algorithmes et méthodes pour le diagnostic ex-situ et in-situ de systèmes piles à combustible haute température de type oxyde solide." Phd thesis, Université de Franche-Comté, 2012. http://tel.archives-ouvertes.fr/tel-01017170.

Full text
Abstract:
Le projet Européen " GENIUS " ambitionne de développer les méthodologies génériques pour le diagnostic de systèmes piles à combustible à haute température de type oxyde solide (SOFC). Le travail de cette thèse s'intègre dans ce projet ; il a pour objectif la mise en oeuvre d'un outil de diagnostic en utilisant le stack comme capteur spécial pour détecter et identifierles défaillances dans les sous-systèmes du stack SOFC.Trois algorithmes de diagnostic ont été développés, se basant respectivement sur la méthode de classification k-means, la technique de décomposition du signal en ondelettes ainsi que la modélisation par réseau Bayésien. Le premier algorithme sert au diagnostic ex-situ et est appliqué pour traiter les donnés issues des essais de polarisation. Il permet de déterminer les variables de réponse significatives qui indiquent l'état de santé du stack. L'indice Silhouette a été calculé comme mesure de qualité de classification afin de trouver le nombre optimal de classes dans la base de données.La détection de défaut en temps réel peut se réaliser par le deuxième algorithme. Puisque le stack est employé en tant que capteur, son état de santé doit être vérifié préalablement. La transformée des ondelettes a été utilisée pour décomposer les signaux de tension de la pile SOFC dans le but de chercher les variables caractéristiques permettant d'indiquer l'état desanté de la pile et également assez discriminatives pour différentier les conditions d'opération normales et anormales.Afin d'identifier le défaut du système lorsqu'une condition d'opération anormale s'est détectée, les paramètres opérationnelles réelles du stack doivent être estimés. Un réseau Bayésien a donc été développé pour accomplir ce travail.Enfin, tous les algorithmes ont été validés avec les bases de données expérimentales provenant de systèmes SOFC variés, afin de tester leur généricité.
APA, Harvard, Vancouver, ISO, and other styles
33

Mammeri, Abdelhamid. "Compression et transmission d'images avec énergie minimale application aux capteurs sans fil." Thèse, Université de Sherbrooke, 2010. http://hdl.handle.net/11143/5800.

Full text
Abstract:
Un réseau de capteurs d'images sans fil (RCISF) est un réseau ad hoc formé d'un ensemble de noeuds autonomes dotés chacun d'une petite caméra, communiquant entre eux sans liaison filaire et sans l'utilisation d'une infrastructure établie, ni d'une gestion de réseau centralisée. Leur utilité semble majeure dans plusieurs domaines, notamment en médecine et en environnement. La conception d'une chaîne de compression et de transmission sans fil pour un RCISF pose de véritables défis. L'origine de ces derniers est liée principalement à la limitation des ressources des capteurs (batterie faible , capacité de traitement et mémoire limitées). L'objectif de cette thèse consiste à explorer des stratégies permettant d'améliorer l'efficacité énergétique des RCISF, notamment lors de la compression et de la transmission des images. Inéluctablement, l'application des normes usuelles telles que JPEG ou JPEG2000 est éner- givore, et limite ainsi la longévité des RCISF. Cela nécessite leur adaptation aux contraintes imposées par les RCISF. Pour cela, nous avons analysé en premier lieu, la faisabilité d'adapter JPEG au contexte où les ressources énergétiques sont très limitées. Les travaux menés sur cet aspect nous permettent de proposer trois solutions. La première solution est basée sur la propriété de compactage de l'énergie de la Transformée en Cosinus Discrète (TCD). Cette propriété permet d'éliminer la redondance dans une image sans trop altérer sa qualité, tout en gagnant en énergie. La réduction de l'énergie par l'utilisation des régions d'intérêts représente la deuxième solution explorée dans cette thèse. Finalement, nous avons proposé un schéma basé sur la compression et la transmission progressive, permettant ainsi d'avoir une idée générale sur l'image cible sans envoyer son contenu entier. En outre, pour une transmission non énergivore, nous avons opté pour la solution suivante. N'envoyer fiablement que les basses fréquences et les régions d'intérêt d'une image. Les hautes fréquences et les régions de moindre intérêt sont envoyées""infiablement"", car leur pertes n'altèrent que légèrement la qualité de l'image. Pour cela, des modèles de priorisation ont été comparés puis adaptés à nos besoins. En second lieu, nous avons étudié l'approche par ondelettes (wavelets ). Plus précisément, nous avons analysé plusieurs filtres d'ondelettes et déterminé les ondelettes les plus adéquates pour assurer une faible consommation en énergie, tout en gardant une bonne qualité de l'image reconstruite à la station de base. Pour estimer l'énergie consommée par un capteur durant chaque étape de la 'compression, un modèle mathématique est développé pour chaque transformée (TCD ou ondelette). Ces modèles, qui ne tiennent pas compte de la complexité de l'implémentation, sont basés sur le nombre d'opérations de base exécutées à chaque étape de la compression.
APA, Harvard, Vancouver, ISO, and other styles
34

Terrissa, Saddek Labib. "Vision bio-fondée appliquée à l'analyse d'images." Le Havre, 2006. http://www.theses.fr/2006LEHA0001.

Full text
Abstract:
La reconnaissance de l'environnement par un être vivant passe forcément par la rétine. Cette partie du système nerveux central réalise beaucoup de traitements et notamment la détection du mouvement et l'extraction des caractéristiques dynamiques d'une scène. Ces aspects n'ont pas atteint le niveau de développement que les traitements statiques en vision artificielle. C'est pourquoi, compte tenu de son intérêt, nous avons contribué à l'élaboration d'un prototype générique de rétine artificielle d'inspiration biologique que nous avons appelé Rétina. Il est fondé sur un réseau de neurones artificiels, organisé de manière à simuler la variation radiale de l'acuité visuelle (vision fovéale). La mise en œuvre de neurones analogiques et impulsionnels nous a permis d'encoder les informations. A partir des signaux impulsionnels issus de la Rétina, nous avons analyser et détecter la variation des niveaux de gris dans des images dynamiques. Ensuite, nous avons effectué une reconstitution de ces images en utilisant des techniques des réseaux de neurones et de traitement de signal
The environment recognition goes inevitably through the retina of alive beings. This component is a part of the central nervous system witch performs many processing, especially in motion detection and features extraction of a scene. These aspects are not reach the development level compared with static processing in artificial vision. For these reasons, we are developed a generic prototype of artificial retina inspired from biology witch we are titled Retina. This system is based on artificial neural network organised to simulate the radial variation of the acuity. The information is encoded through the implementation of analogue and impulse neurons. These retinal signal impulses are analysed in order to detect the variation of grey level in dynamic images. Moreover, we reconstitute these images using neural networks techniques and signal processing
APA, Harvard, Vancouver, ISO, and other styles
35

Rekik, Siwar. "Sécurisation de la communication parlée par une techhnique stéganographique." Thesis, Brest, 2012. http://www.theses.fr/2012BRES0061.

Full text
Abstract:
Une des préoccupations dans le domaine des communications sécurisées est le concept de sécurité de l'information. Aujourd’hui, la réalité a encore prouvé que la communication entre deux parties sur de longues distances a toujours été sujet au risque d'interception. Devant ces contraintes, de nombreux défis et opportunités s’ouvrent pour l'innovation. Afin de pouvoir fournir une communication sécurisée, cela a conduit les chercheurs à développer plusieurs schémas de stéganographie. La stéganographie est l’art de dissimuler un message de manière secrète dans un support anodin. L’objectif de base de la stéganographie est de permettre une communication secrète sans que personne ne puisse soupçonner son existence, le message secret est dissimulé dans un autre appelé medium de couverture qui peut être image, video, texte, audio,…. Cette propriété a motivé les chercheurs à travailler sur ce nouveau champ d’étude dans le but d’élaborer des systèmes de communication secrète résistante à tout type d’attaques. Cependant, de nombreuses techniques ont été développées pour dissimuler un message secret dans le but d’assurer une communication sécurisée. Les contributions majeures de cette thèse sont en premier lieu, de présenter une nouvelle méthode de stéganographie permettant la dissimulation d’un message secret dans un signal de parole. La dissimulation c’est le processus de cacher l’information secrète de façon à la rendre imperceptible pour une partie tierce, sans même pas soupçonner son existence. Cependant, certaines approches ont été étudiées pour aboutir à une méthode de stéganogaraphie robuste. En partant de ce contexte, on s’est intéressé à développer un système de stéganographie capable d’une part de dissimuler la quantité la plus élevée de paramètre tout en gardant la perceptibilité du signal de la parole. D’autre part nous avons opté pour la conception d’un algorithme de stéganographie assez complexe afin d’assurer l’impossibilité d’extraction de l’information secrète dans le cas ou son existence été détecter. En effet, on peut également garantir la robustesse de notre technique de stéganographie à l’aptitude de préservation du message secret face aux tentatives de détection des systèmes de stéganalyse. Notre technique de dissimulation tire son efficacité de l’utilisation de caractéristiques spécifiques aux signaux de parole et àl’imperfection du système auditif humain. Des évaluations comparatives sur des critères objectifs et subjectifs de qualité sont présentées pour plusieurs types de signaux de parole. Les résultats ont révélé l'efficacité du système développé puisque la technique de dissimulation proposée garantit l’imperceptibilité du message secret voire le soupçon de son existence. Dans la suite expérimentale et dans le même cadre de ce travail, la principale application visée par la thèse concerne la transmission de parole sécurisée par un algorithme de stéganographie. Dans ce but il s’est avéré primordial d’utiliser une des techniques de codage afin de tester la robustesse de notre algorithme stéganographique face au processus de codage et de décodage. Les résultats obtenus montrent la possibilité de reconstruction du signal original (contenant des informations secrètes) après codage. Enfin une évaluation de la robustesse de notre technique de stéganographie vis à vis des attaques est faite de façon à optimiser la technique afin d'augmenter le taux de sécurisation. Devant cette nécessité nous avons proposé une nouvelle technique de stéganalyse basée sur les réseaux de neurones AR-TDNN. La technique présentée ici ne permet pas d'extraire l'éventuel message caché, mais simplement de mettre en évidence sa présence
One of the concerns in the field of secure communication is the concept of information security. Today’s reality is still showing that communication between two parties over long distances has always been subject to interception. Providing secure communication has driven researchers to develop several cryptography schemes. Cryptography methods achieve security in order to make the information unintelligible to guarantee exclusive access for authenticated recipients. Cryptography consists of making the signal look garbled to unauthorized people. Thus, cryptography indicates the existence of a cryptographic communication in progress, which makes eavesdroppers suspect the existence of valuable data. They are thus incited to intercept the transmitted message and to attempt to decipher the secret information. This may be seen as weakness in cryptography schemes. In contrast to cryptography, steganography allows secret communication by camouflaging the secret signal in another signal (named the cover signal), to avoid suspicion. This quality motivated the researchers to work on this burning field to develop schemes ensuring better resistance to hostile attackers. The word steganography is derived from two Greek words: Stego (means cover) and graphy (means writing). The two combined words constitute steganography, which means covert writing, is the art of hiding written communications. Several steganography techniques were used to send message secretly during wars through the territories of enemies. The major contributions of this thesis are the following ones. We propose a new method to secure speech communication using the Discrete Wavelet Transforms (DWT) and the Fast Fourier Transform (FFT). Our method exploits first the high frequencies using a DWT, then exploits the low-pass spectral properties of the speech magnitude spectrum to hide another speech signal in the low-amplitude high-frequencies region of the cover speech signal. The proposed method allows hiding a large amount of secret information while rendering the steganalysis more complex. Comparative evaluation based on objective and subjective criteria is introduced for original speech signal, stego-signal and reconstructed secret speech signal after the hiding process. Experimental simulations on both female and male speakers revealed that our approach is capable of producing a stego speech that is indistinguishable from the cover speech. The receiver is still able to recover an intelligible copy of the secret speech message. We used an LPC10 coder to test the effect of the coding techniques on the stego-speech signals. Experimental results prove the efficiency of the used coding technique since intelligibility of the stego-speech is maintained after the encoding and decoding processes. We also advocate a new steganalysis technique to ensure the robustness of our steganography method. The proposed classifier is called Autoregressive time delay neural network (ARTDNN). The purpose of this steganalysis system is to identify the presence or not of embedded information, and does not actually attempt to extract or decode the hidden data. The low detecting rate prove the robustness of our hiding technique
APA, Harvard, Vancouver, ISO, and other styles
36

Ghosn, Ali. "Un nouveau calcul pour la forme d'intersection d'une variété projective." Nancy 1, 1988. http://www.theses.fr/1988NAN10137.

Full text
Abstract:
On se propose de montrer par une variante méromorphe du tubage que : PF(lambda = 0; som::(V)|F|**(2)lambda omega 'lambda omega ) = trace::(V) ((N) union (omega )) = tomega ',omega ou V est une variété analytique complexe compacte de dimension N + 1, F: V->C une application meromorphe telle que div(F) = PD::(O) - QD::(1) ou P,Q appartient à N*, D::(O) et D::(1) sont des hypersurfaces lisses transverses. Omega,omega ' des 1-formes sur V, holomorphe et meromorphe respectivement, telles que les poles de omega ' soient dans D::(O) et RES::(DO)omega ' = O dans H**(N)(D::(O),C). Trace::(V) : H**(2N+2)(V,C)->C est l'intégration sur V. (N=) est une classe de H**(N+1)(V,C) qui prolonge celle de omega ' sur V-D::(O); tomega ' est un courant de degré N+1 sur V D-ferme dont la classe induit celle de omega ' sur V-D::(O) construit suivant herrara-lieberman
APA, Harvard, Vancouver, ISO, and other styles
37

De, Brito Milena. "Investigation of interpenetrating polymer networks and recent UV curable chemistries." Thesis, Mulhouse, 2011. http://www.theses.fr/2011MULH5772/document.

Full text
Abstract:
Le sujet de cette thèse concerne le développement et la caractérisation de résines photosensibles pour le prototypage rapide. L'étude a tout d'abord consisté à optimiser des systèmes photoréticulables commerciaux : systèmes hybrides acrylates/époxydes. La réactivité des différentes formulations préparées ainsi que leurs propriétés thermomécaniques ont pu être évaluées grâce à la spectroscopie infrarouge à transformée de Fourier résolue dans le temps (RT-FTIR) et par analyse mécanique dynamique (DMA). En parallèle, une étude plus fondamentale visant à mieux comprendre et à contrôler la formation de réseaux polymères interpénétrés simultanés méthacrylate/époxyde a été menée. L'influence de paramètres physico-chimiques tels que l'intensité lumineuse, la concentration en photoamorceur sur les propriétés finales du matériau a notamment été abordée. Ensuite, des résines dont la chimie est moins conventionnelle ont été considérées. Comme très peu de ces monomères sont disponibles commercialement, certains d'entre eux ont dû être synthétisés. Certaines formulations ont démontré non seulement une bonne réactivité mais aussi d'intéressantes propriétés thermomécaniques et une limitation du retrait de polymérisation. Finalement, une méthode de mesure du retrait linéaire simple et facile à mettre en œuvre a été mise en place afin de comparer les différents systèmes chimiques proposés au cours de la thèse. L'utilisation de cet outil est très appréciable car il pourrait permettre de choisir le type de formulations induisant le moins de retrait possible lors de la réalisation d'un objet couche par couche
The aim of this thesis is to develop and characterize UV curable resins for rapid prototyping application. The study started with the optimization of commercially available hybrid acrylate/epoxide systems (IPNs) commonly used in this industrial field. The reactivity of the different tested formulations in conjunction with their thermomechanical properties have been assessed by means of Real time Fourier transform infrared spectroscopy (RT FTIR) and Dynamic mechanical analysis (DMA). In the meantime, a more academic study has been performed on an epoxide/methacrylate mixture in order to get a better understanding and a control of the IPN formation. The influence of the light intensity and the photoinitiator concentration on the final properties has been examined. Then, UV curable resins whose chemistry is less conventional have been considered. Owing to the lack of commercial availability of some monomers, time has been spent to synthesize them. Some formulations display promising features especially in terms of reactivity, thermomechanical properties and linear shrinkage. Finally, a simple method to measure linear shrinkage has been set up to compare the different systems proposed during the thesis and thus evidences the less shrinkable UV curable system
APA, Harvard, Vancouver, ISO, and other styles
38

Elouali, Fatima-Zohra. "Élaboration et caractérisation de gels de polymères acryliques et méthacryliques en présence de solvants isotropes et anisotropes." Thesis, Lille 1, 2009. http://www.theses.fr/2009LIL10175.

Full text
Abstract:
Ce travail porte sur l'élaboration et la caractérisation des systèmes à base de polymères biocompatibles en présence de solvants isotropes et anisotropes. La caractérisation de ces réseaux de polymères acryliques et méthacryliques, obtenus par photopolymérisation radicalaire, a été effectuée par gonflement en masse dans des solvants isotropes (l’eau) et anisotropes (des cristaux liquides de type cyanobiphényl). La cinétique de gonflement dans l’eau a été suivie en fonction du taux de réticulation et du pH. Le gonflement des réseaux polymères dans certains cristaux liquides a été étudié en fonction de la température à l’aide d’un microscope optique et une platine chauffante. Le taux de gonflement ne dépasse pas les 5% à cause des fortes interactions entre le polymère et le cristal liquide.Ces matériaux présentent un intérêt particulier dans le domaine des dispositifs électro-optiques. Une étude détaillée du comportement électro-optique a été effectuée pour des films polymères-cristaux liquides élaborés par la méthode de séparation de phases induite par rayonnement ultraviolet (UV). Certains systèmes binaires présentent des phénomènes de relaxation conduisant à l’obtention d’un effet de mémoire optique après la coupure du champ électrique.La caractérisation des structures synthétisées a été effectuée à travers l’utilisation de techniques expérimentales performantes telles que la spectroscopie Infra-rouge à Transformée de Fourier (FTIR), la résonance magnétique nucléaire (RMN), la microscopie optique à lumière polarisée (MOP), la microscopie électronique à balayage (MEB), la Chromatographie d’Exclusion Stérique (SEC) et l’analyse enthalpique différentielle (AED)
This study focuses on the development and characterization of systems based on biocompatible polymers in the presence of isotropic and anisotropic solvents. The characterization of these networks of acrylic and methacrylic polymers obtained by radical photopolymerization was carried out by swelling experiments in an isotropic environment (water) and in anisotropic solvents (using cyanobiphenyls as liquid crystals). The kinetics of swelling in water was followed by the rate of crosslinking and pH. The swelling of polymer networks in some liquid crystals has been studied as a function of temperature using an optical microscope and a heating stage. The swelling ratio did not exceed 5% because of strong interactions between the polymer and liquid crystal.These materials are of particular interest in the field of electro-optical devices. A detailed study of electro-optical properties has been performed for polymer-liquid crystal films, prepared by the method of phase separation induced by ultraviolet (UV) radiation. Some binary systems exhibit relaxation phenomena leading to optical memory effects after stopping the electric field. The characterization of synthesized structures was performed through the use of powerful experimental techniques such as Fourier Transform Infrared (FTIR) spectroscopy, Nuclear Magnetic Resonance (NMR), Polarized Optical Microscopy (MOP), Scanning Electron Microscopy (SEM), Size Exclusion Chromatography (SEC) and Differential Scanning Calorimetry (DSC)
APA, Harvard, Vancouver, ISO, and other styles
39

Morabit, Safaa El. "New Artificial Intelligence techniques for Computer vision based medical diagnosis." Electronic Thesis or Diss., Valenciennes, Université Polytechnique Hauts-de-France, 2023. http://www.theses.fr/2023UPHF0013.

Full text
Abstract:
La capacité à ressentir la douleur est cruciale pour la vie, car elle sert de système d’alerteprécoce en cas de dommages potentiels pour le corps. La majorité des évaluations dela douleur reposent sur les rapports des patients. En revanche, les patients incapablesd’exprimer leur douleur doivent plutôt se fier aux rapports de tierces personnes sur leursouffrance. En raison des biais potentiel de l’observateur, les rapports sur la douleurpeuvent contenir des inexactitudes. En outre, il serait impossible de surveiller les patients 24 heures sur 24. Afin de mieux gérer la douleur, notamment chez les patients avec des difficultés de communication, des techniques de détection automatique de la douleur pourraient être mises en œuvre pour aider les soignants et compléter leur service. Les expressions faciales sont utilisées par la plupart des systèmes d’évaluation de la douleur basés sur l’observation, car elles constituent un indicateur fiable de la douleur et peuvent être interprétées à distance.En considérant que la douleur génère généralement un comportement facial spontané, les expressions faciales pourraient être utilisées pour détecter la présence de la douleur. Dans cette thèse, nous analysons les expressions faciales de la douleur afin d’aborder l’estimation de la douleur. Tout d’abord, nous présentons une analyse approfondie du problème en comparant de nombreuses architectures CNN (réseau de neurones convolutifs) courantes, telles que MobileNet, GoogleNet, ResNeXt-50, ResNet18et DenseNet-161. Nous utilisons ces réseaux dans deux modes uniques : autonome et extraction de caractéristiques. En mode autonome, les modèles (c’est-à-dire les réseaux)sont utilisés pour estimer directement la douleur. En mode extracteur de caractéristiques, les "valeurs" de la couche intermédiaire sont extraites et introduites dans desclassificateurs tels que la régression à vecteur de support (SVR) et la régression à forêtsd’arbres décisionnels (RFR).Les CNN ont obtenu des résultats significatifs dans la classification d’images et ontconnu un grand succès. Plus récemment, l’efficacité des Transformers en vision par ordinateur a été démontrée par plusieurs études. Des architectures basées sur les Transformers ont été proposées dans la deuxième section de cette thèse. Ces deux architectures distinctes ont été présentées pour répondre à deux problèmes distincts liés àla douleur : la détection de la douleur (douleur vs absence de douleur) et la distinction entre la douleur authentique et la douleur simulée. L’architecture innovante pourl’identification binaire de la douleur faciale est basée sur des transformateurs d’imagesefficaces en termes de données (Deit). Deux bases de données, UNBC-McMaster shoulder pain et BioVid heat pain, ont été utilisées pour affiner et évaluer le modèle formé. Ladeuxième architecture proposée, repose sur des transformateurs de vision pour la détection de douleurs authentiques et simulées à partir des expressions faciales (ViT). Pour distinguer la douleur authentique de la douleur simulée, le modèle doit accorder uneattention particulière aux changements subtils des expressions faciales dans le temps.L’approche employée prend en compte l’aspect séquentiel et capture les variations des expressions faciales. Les expériences ont été menées sur la base de données BioVid HeatPain démontrent l’efficacité de notre stratégie
The ability to feel pain is crucial for life, since it serves as an early warning system forpotential harm to the body. The majority of pain evaluations rely on patient reports. Patients who are unable to express their own pain must instead rely on third-party reportsof their suffering. Due to potential observer bias, pain reports may contain inaccuracies. In addition, it would be impossible for people to keep watch around the clock. Inorder to better manage pain, especially in noncommunicative patients, automatic paindetection technologies might be implemented to aid human caregivers and complementtheir service. Facial expressions are used by all observer-based pain assessment systemsbecause they are a reliable indicator of pain and can be interpreted from a distance.Taking into consideration that pain generally generates spontaneous facial behavior,these facial expressions could be used to detect the presence of pain. In this thesis, weanalyze facial expressions of pain in order to address pain estimation. First, we presenta thorough analysis of the problem by comparing numerous common CNN (Convolutional Neural Network) architectures, such as MobileNet, GoogleNet, ResNeXt-50, ResNet18, and DenseNet-161. We employ these networks in two unique modes: standalone and feature extraction. In standalone mode, models (i.e., networks) are utilized to directly estimate pain. In feature extractor mode, "values" from the middle layer are extracted and fed into classifiers like Support Vector Regression (SVR) and Random Forest Regression (RFR).CNNs have achieved significant results in image classification and have achievedgreat success. The effectiveness of Transformers in computer vision has been demonstrated through recent studies. Transformer-based architectures were proposed in the second section of this thesis. Two distinct Transformer-based frameworks were presented to address two distinct pain issues: pain detection (pain vs no pain) and thedistinction between genuine and posed pain. The innovative architecture for binaryidentification of facial pain is based on data-efficient image transformers (Deit). Twodatasets, UNBC-McMaster shoulder pain and BioVid heat pain, were used to fine-tuneand assess the trained model. The suggested architecture is built on Vision Transformers for the detection of genuine and simulated pain from facial expressions (ViT). Todistinguish between Genuine and Posed Pain, the model must pay particular attentionto the subtle changes in facial expressions over time. The employed approach takes intoaccount the sequential aspect and captures the variations in facial expressions. Experiments on the publicly accessible BioVid Heat Pain Database demonstrate the efficacy of our strategy
APA, Harvard, Vancouver, ISO, and other styles
40

Benaissa, Djamila. "Approche théorique et expérimentale du comportement électro-optique des systèmes polymères/cristaux liquides." Thesis, Lille 1, 2009. http://www.theses.fr/2009LIL10126.

Full text
Abstract:
Une étude des matériaux à base de polymères et de cristaux liquides de type PDLC (pour Polymer Dispersed Liquid Crystals), élaborés par la méthode de séparation de phases induite par rayonnement ultraviolet (UV), a été effectuée pour des mélanges comportant le cristal liquide nématique E7 et le monomère tripropylèneglycoldiacrylate (TPGDA). Ces matériaux possèdent des fonctionnalités électro-optiques intéressantes notamment dans les vitrages à transparence contrôlée. Une analyse par spectroscopie infrarouge des réseaux de polymères élaborés a permis de déduire qu’une conversion quasi-totale des fonctions réactives de type acrylique du monomère est obtenue pour un mélange contenant 70% de cristal liquide et 30% de monomère. Ces matériaux ont été, ensuite, étudiés par différentes techniques de caractérisation, telles que la calorimétrie différentielle, la microscopie optique à lumière polarisée, la microscopie électronique à balayage, et la spectroscopie UV-visible, qui ont permis d’obtenir des renseignements sur les propriétés thermophysiques, morphologiques, et spectrales de ces systèmes.Une modélisation de la réponse électro-optique des films PDLC a été effectuée en utilisant un modèle simple, basé sur une hiérarchie de paramètres d’ordre. Ce modèle, dont les calculs sont effectués dans deux approximations théoriques (RGA et ADA), a donné une description convenable du comportement électro-optique de ces systèmes complexes. L’étude menée sur la confrontation de ce modèle à l’expérience a permis l’obtention d’un certain nombre de résultats intéressants qui sont utiles à la compréhension et à l’amélioration de la réponse électro-optique des films PDLC
A study of materials based on polymers and liquid crystals of type PDLC (for Polymer Dispersed Liquid Crystals), elaborated by the method of phase separation induced by ultraviolet radiation (UV), was carried out for mixtures containing the nematic liquid crystal E7 and the monomer tripropyleneglycoldiacrylate (TPGDA). These materials possess interesting electro-optical features in particular for privacy windows with controlled transparency.An analysis by infrared spectroscopy of the elaborated polymer networks allowed to deduce that a quasi-total conversion of the reactive acrylic functions of the monomer was obtained for a mixture containing 70 % of liquid crystal and 30 % of monomer. These materials were, then, studied by various techniques of characterization, such as differential scanning calorimetry, polarized optical microscopy, scanning electron microscopy, and UV-visible spectroscopy, who allowed to obtain informations on the thermophysical, morphological, and spectroscopical properties of these systems.An attempt was made to rationalize the electro-optical response of PDLC films by using a simple model, based on a hierarchy of order parameters. Using the theoretical description from two theoretical approximations (RGA and ADA), this model gave a proper description of the electro-optical behaviour of these complex systems. The study led on the confrontation of this model to experimental results, allowing to obtain some interesting results which are useful in understanding and improvement of the electro-optical response of PDLC films
APA, Harvard, Vancouver, ISO, and other styles
41

Calvin, Christophe. "Minimisation du sur-coût des communications dans la parallélisation des algorithmes numériques." Phd thesis, Grenoble INPG, 1995. http://tel.archives-ouvertes.fr/tel-00005034.

Full text
Abstract:
Le but de ce memoire est d'étudier les voies possibles pour minimiser le sur-coût des communications consécutif à la parallélisation d'algorithmes numériques sur machines parallèles à mémoire distribuée. La première voie explorée consiste à optimiser les schémas de communication des données et résultats mis en oeuvre dans les versions parallèles de noyaux de calcul. Nous proposons notamment de nouveaux algorithmes pour réaliser une transposition de matrices carrées allouées par blocs, sur différentes topologies de réseaux d'interconnexion. Nous avons également étudié le problème de l'échange total. Ce schéma de communication se retrouve fréquemment dans les versions parallèles d'algorithmes numériques (comme dans l'algorithme du gradient conjugué). Nous proposons des algorithmes efficaces d'échange total pour des topologies toriques. La deuxième voie qui a été explorée consiste à recouvrir les communications par du calcul. Nous avons étudié quelques principes algorithmiques de base permettant de masquer au mieux les communications. Ceux-ci sont basés, notamment, sur des techniques d'enchainement de phases de calcul et de communication, ainsi que sur le re-ordonnancement local de tâches afin d'optimiser le recouvrement. Ces techniques sont illustrées sur des algorithmes parallèles de calcul de transformée de Fourier. Les différentes implantations de ces algorithmes sur de nombreuses machines parallèles à mémoire distribuée (T3D de Cray, SP2 d'IBM, iPSC-860 et Paragon d'Intel) montrent le gain en temps d'exécution apporté par ces méthodes.
APA, Harvard, Vancouver, ISO, and other styles
42

Martin, Stéphane. "Edition collaborative des documents semi-structurés." Phd thesis, Université de Provence - Aix-Marseille I, 2011. http://tel.archives-ouvertes.fr/tel-00684778.

Full text
Abstract:
Les éditeurs collaboratifs permettent à des utilisateurs éloignés de collaborer à une tâche commune qui va de l'utilisation d'un agenda partagé à la réalisation de logiciels. Ce concept est né avec SCCS en 1972 et connait un engouement récent (ex: Wikipedia). L'absence de centralisation et l'asynchronisme sont des aspects essentiels de cette approche qui relève d'un modèle pair-à-pair (P2P). D'un autre côté, le format XML est devenu une référence pour la manipulation et l'échange de documents. Notre travail vise à la réalisation d'un éditeur collaboratif P2P pour l'édition de documents semi-structurés qui sont une abstraction du format XML. Le problème est difficile et de nombreuses propositions se sont révélées erronées ou ne passant pas à l'échelle. Nous rappelons les concepts et l'état de l'art sur l'édition collaborative, les modèles centralisés et le P2P. Ensuite, nous explorons deux approches différentes : les transformées opérationnelles et le CRDT (Commutative Replicated Data Type) avec différentes structures de données arborescentes. L'objectif est de réaliser les opérations de base (ajout, suppression et ré-étiquetage) tout en garantissant la convergence du processus d'édition. Nous proposons un algorithme générique pour l'approche CRDT basée sur une notion d'indépendance dans la structure de données. Nous avons étendu nos travaux afin de réaliser l'opération de déplacement d'un sous-arbre et de prendre en compte le typage XML. Peu de travaux abordent ces deux points qui sont très utiles pour l'édition de documents. Finalement, nous donnons les résultats expérimentaux obtenus avec un prototype permettant de valider notre approche.
APA, Harvard, Vancouver, ISO, and other styles
43

Richard, Mélissandre. "Application de la technique d'échange isotopique à l'étude de systèmes catalytiques innovants : activation et mobilité d'O2 sur YSZ au sein d’un double-lit et réactivité de l’azote dans les matériaux nitrures pour la catalyse hétérogène." Thesis, Poitiers, 2015. http://www.theses.fr/2015POIT2293/document.

Full text
Abstract:
Ce travail porte sur l’étude de systèmes catalytiques innovants par la technique d’échange isotopique (EI) permettant d’apprécier des propriétés fondamentales (activation des molécules en surface, mobilité et réactivité des atomes de réseau) pour comprendre les mécanismes de réaction mis en jeu en catalyse hétérogène et développer des systèmes plus performants. Aussi, l’identification d’espèces adsorbées intermédiaires est possible en couplant la spectrométrie de masse (analyse de la phase gaz) à l’observation de la surface catalytique par spectroscopie DRIFT.L’EI 16O/18O montre des effets de dispersion ou de synergie de LaMnO3 (LM) supportée sur YSZ ou TiO2 expliquant les performances de cette structure pérovskite pour l’oxydation catalytique de C7H8 via un mécanisme suprafacial. L’activité en EI C16O2/C18O2 démontre la mobilité exceptionnelle des atomes O de réseau de YSZ dès 150 °C via la formation d’espèces (hydrogéno)carbonates en surface. En catalyse d’oxydation, à T < 800 °C, cette mobilité est pourtant limitée par l’activation d’O2 à la surface de YSZ. La solution proposée ici est la génération préalable d’une espèce oxygène réactive sur un lit de matériau réductible type LM. Le double-lit LM-YSZ montre d’excellentes performances pour abaisser la température d’oxydation de CH4 à 425 °C via un mécanisme Mars van Krevelen (MvK) où les atomes O de YSZ participent à la réaction par l’intermédiaire d’espèces formiates.L’EI 14N/15N est également utilisé dans ce travail pour analyser la réactivité des atomes N de réseau dans les nitrures métalliques. En particulier, Co3Mo3N et Ni2Mo3N montrent des propriétés remarquables, dépendant de la méthode de préparation ou du prétraitement appliqué. Leur comportement suggère la participation des atomes N dans la réaction de synthèse de NH3 sur le principe d’un mécanisme MvK
This work concerns the study of new catalytic systems by isotopic exchange (IE) technique allowing to appreciate basic properties (molecules surface activation, mobility and reactivity of lattice atoms) to better understand catalytic mechanisms and to develop efficient catalysts. The identification of intermediate adsorbed species is possible by coupling mass spectrometry (gas-phase analysis) with the catalytic surface analysis by DRIFT spectroscopy.IE 16O/18O shows dispersal and synergetic effect of supported LaMnO3 perovskite (LM) on YSZ or TiO2 which explain catalytic performances of this perovskite structure for toluene oxidation via a suprafacial mechanism. IE C16O2/C18O2 activity demonstrates the remarkable lattice O atoms mobility of YSZ from 150 °C via adsorbed (hydrogeno)carbonates. To the contrary, in oxidation catalysis, under 800 °C, this mobility is very limited by O2 activation on YSZ surface. The solution proposed in this work is the previous generation of reactive oxygen species on a first catalytic bed of reducible material as LM. LM+YSZ dual-bed shows very efficient activity to reduce methane oxidation temperature at 425 °C via a Mars-van Krevelen (MvK) mechanism in which lattice O atoms of YSZ take part in the reaction by intermediate formate species.IE 14N/15N is thereafter used to analyse lattice N atoms reactivity of metal nitrides materials. In particular, Co3Mo3N and Ni2Mo3N show interesting properties depending on preparation or pre-treatement routes. This behaviour supposes that ammonia synthesis reaction could be procced via MvK type mechanism with the participation of lattice N of this nitrides
APA, Harvard, Vancouver, ISO, and other styles
44

Petit, Jérôme. "CONTROLE DIMENSIONNEL SUB‐MICROMETRIQUE UTILISANT UN APPAREIL GONIOMETRIQUE BIDIMENSIONNEL RAPIDE Application à la microélectronique." Phd thesis, 2005. http://tel.archives-ouvertes.fr/tel-00635227.

Full text
Abstract:
Le travail présenté dans ce mémoire traite du contrôle dimensionnel optique pour la microélectronique et de l'adaptation d'un instrument à cette application. Le premier point clé de cette technique de métrologie est la possibilité de calculer le champ diffracté par une structure périodique, associé aux méthodes de calcul inverse. Le second point clés est la solution technologique adoptée pour mesurer la signature de diffraction. Nous présentons ici un goniomètre bidimensionnel basé sur le principe de la Transformée de Fourier Optique. Cet appareil a été adapté à l'application métrologique et nous décrivons ici les différentes étapes qui nous permis aboutir. Ces étapes sont la description, la compréhension et l'analyse de l'instrument pour adapter les moyens numériques en notre possession aux spécificités du problème. Nous avons ensuite validé la fonction métrologique de l'instrument sur différentes structures comme des couches minces ou des réseaux. Nous avons comparé les résultats obtenus avec ceux obtenus en ellipsométrie spectroscopique ou en microscopie électronique à balayage. Nous avons pour chaque résultat, évalué les incertitudes et discuté de la validité du résultat. Enfin nous avons tiré partit des particularité de l'instrument pour réalisé des études plus qualitative sur des structures plus complexes comme des lignes rugueuses ou des structures superposées.
APA, Harvard, Vancouver, ISO, and other styles
45

Mangolini, Marc. "Apport de la fusion d'images satellitaires multicapteurs au niveau pixel en télédétection et photo-interprétation." Phd thesis, 1994. http://pastel.archives-ouvertes.fr/pastel-00957754.

Full text
Abstract:
Le nombre croissant d'images de la Terre en provenance de capteurs satellitaires pose aux utilisateurs un problème d'exploitation, auquel la fusion de données semble pouvoir apporter des solutions. Ce travail illustre l'apport de la fusion de données en télédétection et en photo-interprétation, sur des données issues des capteurs SPOT, ERS-1, et Landsat, qui sont parmi les plus utilisés dans le domaine. Les spécificités et complémentarités de ces capteurs, de type optique (visible ou infrarouge) ou radar, ont été prises en compte pour réaliser une fusion dite hétérogène. Face à la grande diversité des méthodes de fusion de données, nous avons choisi de nous restreindre à la fusion au niveau pixel, c'est-à-dire proche du signal physique bidimensionnel, par opposition au niveau sémantique. Trois développements méthodologiques majeurs ont été réalisés. L'exploitation thématique des images satellitaires multispectrales se heurte souvent à une limitation de leur résolution spatiale. Afin d'y remédier, nous proposons une méthode, nommée ARSIS, qui utilise une image de meilleure résolution spatiale pour améliorer celle des images multispectrales, sans en modifier l'information spectrale. Les outils mathématiques mis en oeuvre sont l'analyse multirésolution, la transformée en ondelettes, et la modélisation des similitudes spectrales entre les images à fusionner. Des critères d'estimation de la qualité image des produits synthétisés ont été développés, pour pouvoir comparer la méthode ARSIS aux méthodes préexistantes, sur plusieurs scènes SPOT et Landsat. L'intérêt de la méthode ARSIS tient à sa richesse conceptuelle et à un réel gain en qualité spectrale par rapport aux autres méthodes. Nous avons également étudié quelques méthodes de représentation visuelle du volume de données, qui sont destinées à faciliter le travail de photo-interprétation et à améliorer la qualité de l'information extraite, mais aussi à concentrer l'important volume de données en un minimum d'images. Les méthodes de changement d'espace de représentation des données et l'utilisation de la couleur ont été expérimentées. Les critiques des photo-interprètes sur les produits réalisés ont mis en évidence la nécessité de prendre en compte les spécificités des capteurs pour la fusion de données hétérogènes. Nous avons donc développé une méthode de fusion hétérogène optique-radar, qui consiste à extraire les objets ponctuels à fort écho radar pour les représenter dans un contexte optique. Le troisième développement a porté sur la comparaison de différentes architectures de fusion, dont le rôle est de définir l'enchaînement des algorithmes qui constituent une méthode de fusion. L'application retenue est la classification automatique, très utilisée en télédétection, qui permet de comparer numériquement les performances des architectures grâce à l'utilisation d'une vérité terrain. Des architectures centralisée, décentralisée, et une architecture "mixte" sont présentées. Leurs avantages et inconvénients en ternes de contraintes opérationnelles, de souplesse d'utilisation, et de qualité de la classification sont discutés. Ces derniers sont illustrés par la comparaison des résultats de classification des différentes architectures, pour deux classificateurs et deux sites différents. Enfin, ce travail met clairement en évidence l'apport de la fusion en classification par rapport aux traitements monocapteurs.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography