To see the other types of publications on this topic, follow the link: Réseaux génératifs.

Dissertations / Theses on the topic 'Réseaux génératifs'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Réseaux génératifs.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Côté, Marc-Alexandre. "Réseaux de neurones génératifs avec structure." Thèse, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/10489.

Full text
Abstract:
Cette thèse porte sur les modèles génératifs en apprentissage automatique. Deux nouveaux modèles basés sur les réseaux de neurones y sont proposés. Le premier modèle possède une représentation interne où une certaine structure a été imposée afin d’ordonner les caractéristiques apprises. Le deuxième modèle parvient à exploiter la structure topologique des données observées, et d’en tenir compte lors de la phase générative. Cette thèse présente également une des premières applications de l’apprentissage automatique au problème de la tractographie du cerveau. Pour ce faire, un réseau de neurones récurrent est appliqué à des données de diffusion afin d’obtenir une représentation des fibres de la matière blanche sous forme de séquences de points en trois dimensions.
APA, Harvard, Vancouver, ISO, and other styles
2

Azeraf, Elie. "Classification avec des modèles probabilistes génératifs et des réseaux de neurones. Applications au traitement des langues naturelles." Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. https://theses.hal.science/tel-03880848.

Full text
Abstract:
Un nombre important de modèles probabilistes connaissent une grande perte d'intérêt pour la classification avec apprentissage supervisé depuis un certain nombre d'années, tels que le Naive Bayes ou la chaîne de Markov cachée. Ces modèles, qualifiés de génératifs, sont critiqués car leur classificateur induit doit prendre en compte la loi des observations, qui peut s'avérer très complexe à apprendre quand le nombre de features de ces derniers est élevé. C'est notamment le cas en Traitement des Langues Naturelles, où les récents algorithmes convertissent des mots en vecteurs numériques de grande taille pour atteindre de meilleures performances.Au cours de cette thèse, nous montrons que tout modèle génératif peut définir son classificateur sans prendre en compte la loi des observations. Cette proposition remet en question la catégorisation connue des modèles probabilistes et leurs classificateurs induits - en classes générative et discriminante - et ouvre la voie à un grand nombre d'applications possibles. Ainsi, la chaîne de Markov cachée peut être appliquée sans contraintes à la décomposition syntaxique de textes, ou encore le Naive Bayes à l'analyse de sentiments.Nous allons plus loin, puisque cette proposition permet de calculer le classificateur d'un modèle probabiliste génératif avec des réseaux de neurones. Par conséquent, nous « neuralisons » les modèles cités plus haut ainsi qu'un grand nombre de leurs extensions. Les modèles ainsi obtenus permettant d'atteindre des scores pertinents pour diverses tâches de Traitement des Langues Naturelles tout en étant interprétable, nécessitant peu de données d'entraînement, et étant simple à mettre en production
Many probabilistic models have been neglected for classification tasks with supervised learning for several years, as the Naive Bayes or the Hidden Markov Chain. These models, called generative, are criticized because the induced classifier must learn the observations' law. This problem is too complex when the number of observations' features is too large. It is especially the case with Natural Language Processing tasks, as the recent embedding algorithms convert words in large numerical vectors to achieve better scores.This thesis shows that every generative model can define its induced classifier without using the observations' law. This proposition questions the usual categorization of the probabilistic models and classifiers and allows many new applications. Therefore, Hidden Markov Chain can be efficiently applied to Chunking and Naive Bayes to sentiment analysis.We go further, as this proposition allows to define the classifier induced from a generative model with neural network functions. We "neuralize" the models mentioned above and many of their extensions. Models so obtained allow to achieve relevant scores for many Natural Language Processing tasks while being interpretable, able to require little training data, and easy to serve
APA, Harvard, Vancouver, ISO, and other styles
3

Franceschi, Jean-Yves. "Apprentissage de représentations et modèles génératifs profonds dans les systèmes dynamiques." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS014.

Full text
Abstract:
L'essor de l'apprentissage profond trouve notamment sa source dans les avancées scientifiques qu'il a permises en termes d'apprentissage de représentations et de modèles génératifs. Dans leur grande majorité, ces progrès ont cependant été obtenus sur des données textuelles et visuelles statiques, les données temporelles demeurant un défi pour ces méthodes. Compte tenu de leur importance pour l'automatisation croissante de multiples tâches, de plus en plus de travaux en apprentissage automatique s'intéressent aux problématiques d'évolution temporelle. Dans cette thèse, nous étudions ainsi plusieurs aspects de la temporalité et des systèmes dynamiques dans les réseaux de neurones profonds pour l'apprentissage non supervisé de représentations et de modèles génératifs. Premièrement, nous présentons une méthode générale d'apprentissage de représentations non supervisée pour les séries temporelles prenant en compte des besoins pratiques d'efficacité et de flexibilité. Dans un second temps, nous nous intéressons à l'apprentissage pour les séquences structurées de nature spatio-temporelle, couvrant les vidéos et phénomènes physiques. En les modélisant par des équations différentielles paramétrisées par des réseaux de neurones, nous montrons la corrélation entre la découverte de représentations pertinentes d'un côté, et de l'autre la fabrique de modèles prédictifs performants sur ces données. Enfin, nous analysons plus généralement dans une troisième partie les populaires réseaux antagonistes génératifs dont nous décrivons la dynamique d'apprentissage par des équations différentielles, nous permettant d'améliorer la compréhension de leur fonctionnement
The recent rise of deep learning has been motivated by numerous scientific breakthroughs, particularly regarding representation learning and generative modeling. However, most of these achievements have been obtained on image or text data, whose evolution through time remains challenging for existing methods. Given their importance for autonomous systems to adapt in a constantly evolving environment, these challenges have been actively investigated in a growing body of work. In this thesis, we follow this line of work and study several aspects of temporality and dynamical systems in deep unsupervised representation learning and generative modeling. Firstly, we present a general-purpose deep unsupervised representation learning method for time series tackling scalability and adaptivity issues arising in practical applications. We then further study in a second part representation learning for sequences by focusing on structured and stochastic spatiotemporal data: videos and physical phenomena. We show in this context that performant temporal generative prediction models help to uncover meaningful and disentangled representations, and conversely. We highlight to this end the crucial role of differential equations in the modeling and embedding of these natural sequences within sequential generative models. Finally, we more broadly analyze in a third part a popular class of generative models, generative adversarial networks, under the scope of dynamical systems. We study the evolution of the involved neural networks with respect to their training time by describing it with a differential equation, allowing us to gain a novel understanding of this generative model
APA, Harvard, Vancouver, ISO, and other styles
4

Lavault, Antoine. "Generative Adversarial Networks for Synthesis and Control of Drum Sounds." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS614.

Full text
Abstract:
Les synthétiseurs audio sont des systèmes électroniques capable de générer des sons artificiels sous un ensemble de paramètres dépendants de leur architecture. Quand bien même de multiples évolutions ont transformé les synthétiseurs de simples curiosités sonores dans les années 60 et précédentes à des instruments maîtres dans les productions musicales modernes, deux grands défis restent à relever: le développement d'un système de synthèse répondant à des paramètres cohérent avec leur perception par un humain et la conception d'une méthode de synthèse universelle, capable de modéliser n'importe quelle source et de la dépasser. Cette thèse étudie l'utilisation et la valorisation des réseaux antagonistes génératifs (Generative Adversarial Networks, abrégé en GAN) pour construire un système répondant aux deux problèmes exposés précédemment. L'objectif principal est ainsi de proposer un synthétiseur neuronal capable de générer des sons de batteries réalistes et contrôlable par un ensemble de paramètres de timbres prédéfinis, ainsi que de proposer un contrôle de la vélocité de la synthèse. La première étape dans le projet a été de proposer une approche basée sur les dernières avancées techniques au moment de sa conception pour générer des sons de batteries réalistes. A cette méthode de synthèse neuronale, nous avons aussi ajouter des capacités de contrôle du timbre en explorant une voie différente des solutions existantes: l'utilisation de descripteurs différentiables. Pour donner des garanties expérimentales à notre travail, nous avons réalisé des expériences d'évaluation à la fois via des métriques objectives basées sur les statistiques mais aussi des évaluations subjectives et psychoĥysiques sur la qualité perçue et la perception des erreurs de contrôle. Pour proposer un synthétiseur utilisable pour des performances musicales, nous avons aussi ajouter un contrôle de la vélocité. Toujours dans l'idée de poursuivre la réalisation d'un synthétiseur universel et à contrôle universel, nous avons créer ex-nihilo un jeu de données composé de sons de batteries dans le but avoué de créer une base exhaustive des sons accessibles dans l'immense majorité des conditions rencontrées dans le contexte de la production musicale. De ce jeu de données, nous présentons des résultats expérimentaux liés au contrôle de la dynamique, un des aspects phares de la performance musicale mais laissé de côté par la littérature. Pour justifier des capacités offertes par la méthode de synthèse par GANs, nous montrons qu'il est possible de marier les méthodes de synthèse classiques avec la synthèse neuronale en exploitant les limites et particularités des GANs pour obtenir des sons hybrides nouveaux et musicalement intéressants
Audio synthesizers are electronic systems capable of generating artificial sounds under parameters depending on their architecture. Even though multiple evolutions have transformed synthesizers from simple sonic curiosities in the 1960s and earlier to the main instruments in modern musical productions, two major challenges remain; the development of a system of sound synthesis with a parameter set coherent with its perception by a human and the design of a universal synthesis method, able to model any source and provide new original sounds. This thesis studies using and enhancing Generative Adversarial Networks (GAN) to build a system answering the previously-mentioned problems. The main objective is to propose a neural synthesizer capable of generating realistic drum sounds controllable by predefined timbre parameters and hit velocity. The first step in the project was to propose an approach based on the latest technological advances at the time of its conception to generate realistic drum sounds. We added timbre control capabilities to this method by exploring a different way from existing solutions, i.e., differentiable descriptors. To give experimental guarantees to our work, we performed evaluation experiments via objective metrics based on statistics and subjective and psychopĥysical evaluations on perceived quality and perception of control errors. These experiments continued to add velocity control to the timbral control. Still, with the idea of pursuing the realization of a versatile synthesizer with universal control, we have created a dataset ex-nihilo composed of drum sounds to create an exhaustive database of sounds accessible in the vast majority of conditions encountered in the context of music production. From this dataset, we present experimental results related to the control of dynamics, one of the critical aspects of musical performance but left aside by the literature. To justify the capabilities offered by the GANs synthesis method, we show that it is possible to marry classical synthesis methods with neural synthesis by exploiting the limits and particularities of GANs to obtain new and musically interesting hybrid sounds
APA, Harvard, Vancouver, ISO, and other styles
5

Pagliarini, Silvia. "Modeling the neural network responsible for song learning." Thesis, Bordeaux, 2021. http://www.theses.fr/2021BORD0107.

Full text
Abstract:
Pendant la première période de leur vie, les bébés et les jeunes oiseaux présentent des phases de développement vocal comparables : ils écoutent d'abord leurs parents/tuteurs afin de construire une représentation neurale du stimulus auditif perçu, puis ils commencent à produire des sons qui se rapprochent progressivement du chant de leur tuteur. Cette phase d'apprentissage est appelée la phase sensorimotrice et se caractérise par la présence de babillage. Elle se termine lorsque le chant se cristallise, c'est-à-dire lorsqu'il devient semblable à celui produit par les adultes.Il y a des similitudes entre les voies cérébrales responsables de l'apprentissage sensorimoteur chez l'homme et chez les oiseaux. Dans les deux cas, une voie s’occupe de la production vocale et implique des projections directes des zones auditives vers les zones motrices, et une autre voie s’occupe de l’apprentissage vocal, de l'imitation et de la plasticité.Chez les oiseaux, ces circuits cérébraux sont exclusivement dédiés à l'apprentissage du chant, ce qui en fait un modèle idéal pour explorer les mécanismes neuronaux de l’apprentissage vocal par imitation.Cette thèse vise à construire un modèle de l'apprentissage du chant des oiseaux par imitation. De nombreuses études antérieures ont tenté de mettre en œuvre l'apprentissage par imitation dans des modèles informatiques et partagent une structure commune. Ces modèles comprennent des mécanismes d'apprentissage et, éventuellement, des stratégies d'exploration et d'évaluation.Dans ces modèles, une fonction de contrôle moteur permet la production de sons et une réponse sensorielle modélise soit la façon dont le son est perçu, soit la façon dont il façonne la récompense. Les entrées et les sorties de ces fonctions sont dans plusieurs espaces: l'espace moteur (paramètres moteurs), l'espace sensoriel (sons réels), l'espace perceptif (représentation à faible dimension du son) ou l’espace des objectifs (représentation non perceptive du son cible).Le premier modèle proposé est un modèle théorique inverse basé sur un modèle d'apprentissage vocal simplifié où l'espace sensoriel coïncide avec l'espace moteur (c'est-à-dire qu'il n'y a pas de production sonore). Une telle simplification permet d'étudier comment introduire des hypothèses biologiques (par exemple, une réponse non linéaire) dans un modèle d'apprentissage vocal et quels sont les paramètres qui influencent le plus la puissance de calcul du modèle.Afin de disposer d'un modèle complet (capable de percevoir et de produire des sons), nous avions besoin d'une fonction de contrôle moteur capable de reproduire des sons similaires à des données réelles. Nous avons analysé la capacité de WaveGAN (un réseau de génération) à produire des chants de canari réalistes. Dans ce modèle, l'espace d'entrée devient l'espace latent après l'entraînement et permet la représentation d'un ensemble de données à haute dimension dans une variété à plus basse dimension. Nous avons obtenu des chants de canari réalistes en utilisant seulement trois dimensions pour l'espace latent. Des analyses quantitatives et qualitatives démontrent les capacités d'interpolation du modèle, ce qui suggère que le modèle peut être utilisé comme fonction motrice dans un modèle d'apprentissage vocal.La deuxième version du modèle est un modèle d'apprentissage vocal complet avec une boucle action-perception complète (il comprend l'espace moteur, l'espace sensoriel et l'espace perceptif). La production sonore est réalisée par le générateur GAN obtenu précédemment. Un réseau neuronal récurrent classant les syllabes sert de réponse sensorielle perceptive. La correspondance entre l'espace perceptuel et l'espace moteur est apprise par un modèle inverse. Les résultats préliminaires montrent l'impact du taux d'apprentissage lorsque différentes fonctions de réponse sensorielle sont mises en œuvre
During the first period of their life, babies and juvenile birds show comparable phases of vocal development: first, they listen to their parents/tutors in order to build a neural representation of the experienced auditory stimulus, then they start to produce sound and progressively get closer to reproducing their tutor song. This phase of learning is called the sensorimotor phase and is characterized by the presence of babbling, in babies, and subsong, in birds. It ends when the song crystallizes and becomes similar to the one produced by the adults.It is possible to find analogies between brain pathways responsible for sensorimotor learning in humans and birds: a vocal production pathway involves direct projections from auditory areas to motor neurons, and a vocal learning pathway is responsible for imitation and plasticity. The behavioral studies and the neuroanatomical structure of the vocal control circuit in humans and birds provide the basis for bio-inspired models of vocal learning.In particular, birds have brain circuits exclusively dedicated to song learning, making them an ideal model for exploring the representation of vocal learning by imitation of tutors.This thesis aims to build a vocal learning model underlying song learning in birds. An extensive review of the existing literature is discussed in the thesis: many previous studies have attempted to implement imitative learning in computational models and share a common structure. These learning architectures include the learning mechanisms and, eventually, exploration and evaluation strategies. A motor control function enables sound production and sensory response models either how sound is perceived or how it shapes the reward. The inputs and outputs of these functions lie (1)~in the motor space (motor parameters’ space), (2)~in the sensory space (real sounds) and (3)~either in the perceptual space (a low dimensional representation of the sound) or in the internal representation of goals (a non-perceptual representation of the target sound).The first model proposed in this thesis is a theoretical inverse model based on a simplified vocal learning model where the sensory space coincides with the motor space (i.e., there is no sound production). Such a simplification allows us to investigate how to introduce biological assumptions (e.g. non-linearity response) into a vocal learning model and which parameters influence the computational power of the model the most. The influence of the sharpness of auditory selectivity and the motor dimension are discussed.To have a complete model (which is able to perceive and produce sound), we needed a motor control function capable of reproducing sounds similar to real data (e.g. recordings of adult canaries). We analyzed the capability of WaveGAN (a Generative Adversarial Network) to provide a generator model able to produce realistic canary songs. In this generator model, the input space becomes the latent space after training and allows the representation of a high-dimensional dataset in a lower-dimensional manifold. We obtained realistic canary sounds using only three dimensions for the latent space. Among other results, quantitative and qualitative analyses demonstrate the interpolation abilities of the model, which suggests that the generator model we studied can be used as a motor function in a vocal learning model.The second version of the sensorimotor model is a complete vocal learning model with a full action-perception loop (i.e., it includes motor space, sensory space, and perceptual space). The sound production is performed by the GAN generator previously obtained. A recurrent neural network classifying syllables serves as the perceptual sensory response. Similar to the first model, the mapping between the perceptual space and the motor space is learned via an inverse model. Preliminary results show the influence of the learning rate when different sensory response functions are implemented
APA, Harvard, Vancouver, ISO, and other styles
6

Yedroudj, Mehdi. "Steganalysis and steganography by deep learning." Thesis, Montpellier, 2019. http://www.theses.fr/2019MONTS095.

Full text
Abstract:
La stéganographie d'image est l'art de la communication secrète dans le but d'échanger un message de manière furtive. La stéganalyse d'image a elle pour objectif de détecter la présence d'un message caché en recherchant les artefacts présent dans l'image. Pendant une dizaine d'années, l'approche classique en stéganalyse a été d'utiliser un ensemble classifieur alimenté par des caractéristiques extraites "à la main". Au cours des dernières années, plusieurs études ont montré que les réseaux de neurones convolutionnels peuvent atteindre des performances supérieures à celles des approches conventionnelles d'apprentissage machine.Le sujet de cette thèse traite des techniques d'apprentissage profond utilisées pour la stéganographie d'images et la stéganalyse dans le domaine spatial.La première contribution est un réseau de neurones convolutionnel rapide et efficace pour la stéganalyse, nommé Yedroudj-Net. Comparé aux méthodes modernes de steganalyse basées sur l'apprentissage profond, Yedroudj-Net permet d'obtenir des résultats de détection performants, mais prend également moins de temps à converger, ce qui permet l'utilisation des bases d'apprentissage de grandes dimensions. De plus, Yedroudj-Net peut facilement être amélioré en ajoutant des compléments ou des modules bien connus. Parmi les amélioration possibles, nous avons évalué l'augmentation de la base de données d'entraînement, et l'utilisation d'un ensemble de CNN. Les deux modules complémentaires permettent d'améliorer les performances de notre réseau.La deuxième contribution est l'application des techniques d'apprentissage profond à des fins stéganographiques i.e pour l'insertion. Parmi les techniques existantes, nous nous concentrons sur l'approche du "jeu-à-3-joueurs". Nous proposons un algorithme d'insertion qui apprend automatiquement à insérer un message secrètement. Le système de stéganographie que nous proposons est basé sur l'utilisation de réseaux adverses génératifs. L'entraînement de ce système stéganographique se fait à l'aide de trois réseaux de neurones qui se font concurrence : le stéganographeur, l'extracteur et le stéganalyseur. Pour le stéganalyseur nous utilisons Yedroudj-Net, pour sa petite taille, et le faite que son entraînement ne nécessite pas l'utilisation d'astuces qui pourrait augmenter le temps de calcul.Cette deuxième contribution donne des premiers éléments de réflexion tout en donnant des résultats prometteurs, et pose ainsi les bases pour de futurs recherches
Image steganography is the art of secret communication in order to exchange a secret message. In the other hand, image steganalysis attempts to detect the presence of a hidden message by searching artefacts within an image. For about ten years, the classic approach for steganalysis was to use an Ensemble Classifier fed by hand-crafted features. In recent years, studies have shown that well-designed convolutional neural networks (CNNs) can achieve superior performance compared to conventional machine-learning approaches.The subject of this thesis deals with the use of deep learning techniques for image steganography and steganalysis in the spatialdomain.The first contribution is a fast and very effective convolutional neural network for steganalysis, named Yedroudj-Net. Compared tomodern deep learning based steganalysis methods, Yedroudj-Net can achieve state-of-the-art detection results, but also takes less time to converge, allowing the use of a large training set. Moreover,Yedroudj-Net can easily be improved by using well known add-ons. Among these add-ons, we have evaluated the data augmentation, and the the use of an ensemble of CNN; Both increase our CNN performances.The second contribution is the application of deep learning techniques for steganography i.e the embedding. Among the existing techniques, we focus on the 3-player game approach.We propose an embedding algorithm that automatically learns how to hide a message secretly. Our proposed steganography system is based on the use of generative adversarial networks. The training of this steganographic system is conducted using three neural networks that compete against each other: the embedder, the extractor, and the steganalyzer. For the steganalyzer we use Yedroudj-Net, this for its affordable size, and for the fact that its training does not require the use of any tricks that could increase the computational time.This second contribution defines a research direction, by giving first reflection elements while giving promising first results
APA, Harvard, Vancouver, ISO, and other styles
7

Grechka, Asya. "Image editing with deep neural networks." Electronic Thesis or Diss., Sorbonne université, 2023. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2023SORUS683.pdf.

Full text
Abstract:
L'édition d'images a une histoire riche remontant à plus de deux siècles. Cependant, l'édition "classique" des images requiert une grande maîtrise artistique et nécessitent un temps considérable, souvent plusieurs heures, pour modifier chaque image. Ces dernières années, d'importants progrès dans la modélisation générative ont permis la synthèse d'images réalistes et de haute qualité. Toutefois, l'édition d'une image réelle est un vrai défi nécessitant de synthétiser de nouvelles caractéristiques tout en préservant fidèlement une partie de l'image d'origine. Dans cette thèse, nous explorons différentes approches pour l'édition d'images en exploitant trois familles de modèles génératifs : les GANs, les auto-encodeurs variationnels et les modèles de diffusion. Tout d'abord, nous étudions l'utilisation d'un GAN pré-entraîné pour éditer une image réelle. Bien que des méthodes d'édition d'images générées par des GANs soient bien connues, elles ne se généralisent pas facilement aux images réelles. Nous analysons les raisons de cette limitation et proposons une solution pour mieux projeter une image réelle dans un GAN afin de la rendre éditable. Ensuite, nous utilisons des autoencodeurs variationnels avec quantification vectorielle pour obtenir directement une représentation compacte de l'image (ce qui faisait défaut avec les GANs) et optimiser le vecteur latent de manière à se rapprocher d'un texte souhaité. Nous cherchons à contraindre ce problème, qui pourrait être vulnérable à des exemples adversariaux. Nous proposons une méthode pour choisir les hyperparamètres en fonction de la fidélité et de l'édition des images modifiées. Nous présentons un protocole d'évaluation robuste et démontrons l'intérêt de notre approche. Enfin, nous abordons l'édition d'images sous l'angle particulier de l'inpainting. Notre objectif est de synthétiser une partie de l'image tout en préservant le reste intact. Pour cela, nous exploitons des modèles de diffusion pré-entraînés et nous appuyons sur la méthode classique d'inpainting en remplaçant, à chaque étape du processus de débruitage, la partie que nous ne souhaitons pas modifier par l'image réelle bruitée. Cependant, cette méthode peut entraîner une désynchronisation entre la partie générée et la partie réelle. Nous proposons une approche basée sur le calcul du gradient d'une fonction qui évalue l'harmonisation entre les deux parties. Nous guidons ainsi le processus de débruitage en utilisant ce gradient
Image editing has a rich history which dates back two centuries. That said, "classic" image editing requires strong artistic skills as well as considerable time, often in the scale of hours, to modify an image. In recent years, considerable progress has been made in generative modeling which has allowed realistic and high-quality image synthesis. However, real image editing is still a challenge which requires a balance between novel generation all while faithfully preserving parts of the original image. In this thesis, we will explore different approaches to edit images, leveraging three families of generative networks: GANs, VAEs and diffusion models. First, we study how to use a GAN to edit a real image. While methods exist to modify generated images, they do not generalize easily to real images. We analyze the reasons for this and propose a solution to better project a real image into the GAN's latent space so as to make it editable. Then, we use variational autoencoders with vector quantification to directly obtain a compact image representation (which we could not obtain with GANs) and optimize the latent vector so as to match a desired text input. We aim to constrain this problem, which on the face could be vulnerable to adversarial attacks. We propose a method to chose the hyperparameters while optimizing simultaneously the image quality and the fidelity to the original image. We present a robust evaluation protocol and show the interest of our method. Finally, we abord the problem of image editing from the view of inpainting. Our goal is to synthesize a part of an image while preserving the rest unmodified. For this, we leverage pre-trained diffusion models and build off on their classic inpainting method while replacing, at each denoising step, the part which we do not wish to modify with the noisy real image. However, this method leads to a disharmonization between the real and generated parts. We propose an approach based on calculating a gradient of a loss which evaluates the harmonization of the two parts. We guide the denoising process with this gradient
APA, Harvard, Vancouver, ISO, and other styles
8

Hamis, Sébastien. "Compression de contenus visuels pour transmission mobile sur réseaux de très bas débit." Electronic Thesis or Diss., Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAS020.

Full text
Abstract:
Le domaine de la compression de contenus visuels (image, vidéo, éléments graphiques 2D/3D) a connu, depuis maintenant plus de vingt ans, un essor considérable avec l’émergence notamment au fil des années de nombreuses normes internationales comme JPEG, JPEG2000 pour les images fixes ou les différentes versions de standards MPEG-1/2/4 pour les données vidéo et graphiques.L’apparition des smartphones et l’explosion des applications qui leur sont dédiées a également bénéficié de ces avancées, l’image étant aujourd’hui omniprésente dans un contexte de mobilité/itinérance. Néanmoins, cela nécessite toujours des réseaux fiables et disponibles, offrant un débit suffisant pour la transmission effective de ces données visuelles qui sont intrinsèquement gourmandes en bande passante. Si aujourd’hui les pays développés bénéficient de réseaux mobiles (3G, 4G…) hautement performantes, cela n’est pas le cas d’un certain nombre de régions du monde, en particulier dans les pays émergents, où les communications s’appuient encore sur des réseaux 2G SMS. Transmettre de contenus visuels dans un tel contexte devient un défi ambitieux, qui nécessite la mise en œuvre de nouveaux algorithmes de compression. Le défi à relever consiste à assurer une transmission des images sur une bande passante correspondant à un ensemble relativement réduit (10 à 20) de SMS (140 octets par SMS).Pour répondre à ces contraintes, de multiples pistes de développement ont été envisagées. Après un état de l’art des techniques de compression traditionnelles et de leurs améliorations futures, nous avons finalement orienté nos travaux vers des méthodes de deep learning, visant à réaliser des post-traitements pour améliorer la qualité des contenus compressés.Nos contributions s’articulent autour de la création d’un nouveau schéma de compression, incluant les codecs existants ainsi qu’un panel de briques de post-traitement permettant une meilleure exploitation des contenus fortement compressés. Ces briques sont des réseaux de neurones profonds dédiés, qui réalisent des opérations de super-résolution et/ou de réduction d’artéfacts de compression, spécifiquement entraînés pour répondre aux objectifs ciblés. Ces opérations interviennent du côté du décodeur et peuvent être interprétées comme des algorithmes de reconstruction d’images à partir de versions fortement compressées. Cette approche présente l’avantage de pouvoir s’appuyer des codecs existants, particulièrement légers et peu coûteux en ressources. Dans nos travaux, nous avons retenu le format BPG, qui fait état de l’art dans le domaine, mais d’autre schémas de compression peuvent être également considérés.Concernant le type de réseaux de neurones, nos recherches nous ont conduits vers les réseaux antagonistes génératifs (Generative Adversarials Nets–GAN), qui s‘avèrent particulièrement adaptés pour des objectifs de reconstruction à partir de données incomplètes. Plus précisément, les deux architectures retenues et adaptées à nos objectifs sont les réseaux SRGAN et ESRGAN. L’impact des différents éléments et paramètres impliqués, comme notamment les facteurs de super-résolution utilisés et les fonctions de pertes, sont analysés en détails.Enfin, une dernière contribution concerne l’évaluation expérimentale. Après avoir montré les limitations des métriques objectives, qui peinent à prendre en compte la qualité visuelle de l’image, nous avons mis en place un protocole d’évaluation subjective. Les résultats obtenus en termes de scores MOS (Mean Opinion Score) démontrent pleinement la pertinence des approches de reconstruction proposées.Enfin, nous analysons une ouverture de nos travaux à des cas d’utilisation différents, d’une nature plus grand public. C’est notamment le cas pour le traitement de contenus de grande résolution plus ou moins compressés et même pour l’amélioration de la qualité de vidéos
The field of visual content compression (image, video, 2D/3D graphics elements) has known spectacular achievements for more than twenty years, with the emergence numerous international standards such as JPEG, JPEG2000 for still image compression, or MPEG-1/2/4 for video and 3D graphics content coding.The apparition of smartphones and of their related applications have also benefited from these advances, the image being today ubiquitous in a context of mobility. Nevertheless, image transmission requires reliable and available networks, since such visual data that are inherently bandwidth-intensive. While developed countries benefit today from high-performance mobile networks (3G, 4G...), this is not the case in a certain number of regions of the world, particularly in emerging countries, where communications still rely on 2G SMS networks. Transmitting visual content in such a context becomes a highly ambitious challenge, requiring the elaboration of new, for very low bitrate compression algorithm. The challenge is to ensure images transmission over a narrow bandwidth corresponding to a relatively small set (10 to 20) of SMS (140 bytes per SMS).To meet such constraints, multiple axes of development have been considered. After a state-of-the-art of traditional image compression techniques, we have oriented our research towards deep learning methods, aiming achieve post-treatments over strongly compressed data in order to improve the quality of the decoded content.Our contributions are structures around the creation of a new compression scheme, including existing codecs and a panel of post-processing bricks aiming at enhancing highly compressed content. Such bricks represent dedicated deep neural networks, which perform super-resolution and/or compression artifact reduction operations, specifically trained to meet the targeted objectives. These operations are carried out on the decoder side and can be interpreted as image reconstruction algorithms from heavily compressed versions. This approach offers the advantage of being able to rely on existing codecs, which are particularly light and resource-efficient. In our work, we have retained the BPG format, which represents the state of art in the field, but other compression schemes can also be considered.Regarding the type of neural networks, we have adopted Generative Adversarials Nets-GAN, which are particularly well-suited for objectives of reconstruction from incomplete data. Specifically, the two architectures retained and adapted to our objectives are the SRGAN and ESRGAN networks. The impact of the various elements and parameters involved, such as the super-resolution factors and the loss functions, are analyzed in detail.A final contribution concerns experimental evaluation performed. After showing the limitations of objective metrics, which fail to take into account the visual quality of the image, we have put in place a subjective evaluation protocol. The results obtained in terms of MOS (Mean Opinion Score) fully demonstrate the relevance of the proposed reconstruction approaches.Finally, we open our work to different use cases, of a more general nature. This is particularly the case for high-resolution image processing and for video compression
APA, Harvard, Vancouver, ISO, and other styles
9

Kalainathan, Diviyan. "Generative Neural Networks to infer Causal Mechanisms : algorithms and applications." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS516.

Full text
Abstract:
La découverte de relations causales est primordiale pour la planification, le raisonnement et la décision basée sur des données d'observations ; confondre corrélation et causalité ici peut mener à des conséquences indésirables. La référence pour la découverte de relations causales est d'effectuer des expériences contrôlées. Mais dans la majorité des cas, ces expériences sont coûteuses, immorales ou même impossible à réaliser. Dans ces cas, il est nécessaire d'effectuer la découverte causale seulement sur des données d'observations. Dans ce contexte de causalité observationnelle, retrouver des relations causales introduit traditionellement des hypothèses considérables sur les données et sur le modèle causal sous-jacent. Cette thèse vise à relaxer certaines de ces hypothèses en exploitant à la fois la modularité et l'expressivité des réseaux de neurones pour la causalité, en exploitant à la fois et indépendences conditionnelles et la simplicité des méchanismes causaux, à travers deux algorithmes. Des expériences extensives sur des données simulées et sur des données réelles ainsi qu'une analyse théorique approfondie prouvent la cohérence et bonne performance des approches proposées
Causal discovery is of utmost importance for agents who must plan, reason and decide based on observations; where mistaking correlation with causation might lead to unwanted consequences. The gold standard to discover causal relations is to perform experiments.However, experiments are in many cases expensive, unethical, or impossible to realize. In these situations, there is a need for observational causal discovery, that is, the estimation of causal relations from observations alone.Causal discovery in the observational data setting traditionally involves making significant assumptions on the data and on the underlying causal model.This thesis aims to alleviate some of the assumptions made on the causal models by exploiting the modularity and expressiveness of neural networks for causal discovery, leveraging both conditional independences and simplicity of the causal mechanisms through two algorithms.Extensive experiments on both simulated and real-world data and a throughout theoretical anaylsis prove the good performance and the soundness of the proposed approaches
APA, Harvard, Vancouver, ISO, and other styles
10

Villain, Benjamin. "Nouvelle génération de contrôleur d'accès réseau : une approche par réseaux logiciels." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066663/document.

Full text
Abstract:
Cette thèse démontre l'importance des informations réseau inter-couche pour les applications réseaux. Cette dissertation présente une nouvelle architecture de contrôle d'accès dans laquelle le contrôleur est mutualisé dans le Cloud. Cette architecture permet d'adresser un marché clé pour des clients ne pouvant acheter du matériel spécialisé. Plusieurs verrous techniques ont du être résolus pour pouvoir implémenter cette architecture, en effet les informations du réseau privé ne sont plus disponible au niveau du contrôleur ce qui l'empêche de correctement contrôler l'activité des utilisateurs. Une première implémentation est présentée dans le chapitre 2, elle utilise des équipements spécialisés capable d'interagir avec le contrôleur centralisé. Cette implémentation comportant des faiblesses, nous nous sommes intéressés à une approche par réseaux logiciels. Une solution innovante pour partager des informations inter-couche à l'extérieur d'un réseau SDN est présentée dans le chapitre 3. Elle permet d'intercepter et de modifier des flux de données utilisateurs à la volée afin de transmettre des informations à l'intérieur de la couche applicative. Cette solution a été implémentée dans le contrôleur OpenDaylight et montre des résultats très encourageants. Couplée au contrôleur centralisé, cette solution permet de fournir une solution complète de contrôle d'accès réseau qui est simple à déployer et configurer et extensible aisément
This thesis presents the importance of cross-layer network information for network applications in the context of network access control. The dissertation exposes a novel architecture in which a network access controller is mutualized in the Cloud. This architecture allows to address a key market segment for clients unwilling to buy expensive hardware to control their network. Multiple challenges come into play when hosting the controller remotely. Indeed cross-layer information are no longer available which prevents the controller from correctly controlling users activity. A first implementation to share cross-layer information is presented in chapter 2. It leverages specialized session border controllers to send these data in the application protocol, here HTTP. Then chapter 3 presents an innovative solution for the cross-layering problem which allows to intrumentalize network flows with SDN protocols. The solution focuses on a web portal redirection but is extendable to any kind of protocols. The implementation permits to intercept and modify flows in order to input cross-layer data within another network protocol. This solution was implemented in the OpenDaylight OpenFlow controller and shows great results. The mutualized approach coupled with the SDN cross-layer framework allow to build flexible networks with almost no configuration of on-site equipments. The central network controller reduces the overal cost of the solution by being mutualized among multiple clients. Moreover, having the ability to intrumentalize network traffic in software allows to implement any kind of custom behavior on the runtime
APA, Harvard, Vancouver, ISO, and other styles
11

Villain, Benjamin. "Nouvelle génération de contrôleur d'accès réseau : une approche par réseaux logiciels." Electronic Thesis or Diss., Paris 6, 2015. http://www.theses.fr/2015PA066663.

Full text
Abstract:
Cette thèse démontre l'importance des informations réseau inter-couche pour les applications réseaux. Cette dissertation présente une nouvelle architecture de contrôle d'accès dans laquelle le contrôleur est mutualisé dans le Cloud. Cette architecture permet d'adresser un marché clé pour des clients ne pouvant acheter du matériel spécialisé. Plusieurs verrous techniques ont du être résolus pour pouvoir implémenter cette architecture, en effet les informations du réseau privé ne sont plus disponible au niveau du contrôleur ce qui l'empêche de correctement contrôler l'activité des utilisateurs. Une première implémentation est présentée dans le chapitre 2, elle utilise des équipements spécialisés capable d'interagir avec le contrôleur centralisé. Cette implémentation comportant des faiblesses, nous nous sommes intéressés à une approche par réseaux logiciels. Une solution innovante pour partager des informations inter-couche à l'extérieur d'un réseau SDN est présentée dans le chapitre 3. Elle permet d'intercepter et de modifier des flux de données utilisateurs à la volée afin de transmettre des informations à l'intérieur de la couche applicative. Cette solution a été implémentée dans le contrôleur OpenDaylight et montre des résultats très encourageants. Couplée au contrôleur centralisé, cette solution permet de fournir une solution complète de contrôle d'accès réseau qui est simple à déployer et configurer et extensible aisément
This thesis presents the importance of cross-layer network information for network applications in the context of network access control. The dissertation exposes a novel architecture in which a network access controller is mutualized in the Cloud. This architecture allows to address a key market segment for clients unwilling to buy expensive hardware to control their network. Multiple challenges come into play when hosting the controller remotely. Indeed cross-layer information are no longer available which prevents the controller from correctly controlling users activity. A first implementation to share cross-layer information is presented in chapter 2. It leverages specialized session border controllers to send these data in the application protocol, here HTTP. Then chapter 3 presents an innovative solution for the cross-layering problem which allows to intrumentalize network flows with SDN protocols. The solution focuses on a web portal redirection but is extendable to any kind of protocols. The implementation permits to intercept and modify flows in order to input cross-layer data within another network protocol. This solution was implemented in the OpenDaylight OpenFlow controller and shows great results. The mutualized approach coupled with the SDN cross-layer framework allow to build flexible networks with almost no configuration of on-site equipments. The central network controller reduces the overal cost of the solution by being mutualized among multiple clients. Moreover, having the ability to intrumentalize network traffic in software allows to implement any kind of custom behavior on the runtime
APA, Harvard, Vancouver, ISO, and other styles
12

Wang, Yaohui. "Apprendre à générer des vidéos de personnes." Thesis, Université Côte d'Azur, 2021. http://www.theses.fr/2021COAZ4116.

Full text
Abstract:
Les réseaux antagonistes génératifs (GAN) ont suscité une attention croissante en raison de leurs capacités à modéliser des distributions de données visuelles complexes, ce qui leur permet de générer et de traduire des images réalistes. Bien que la génération de vidéos réalistes soit la suite naturelle, elle est nettement plus difficile en ce qui concerne leur complexité et leur calcul, associés à la modélisation simultanée de l'apparence, ainsi que du mouvement de la personne dans la vidéo. Plus précisément, en inférant et en modélisant la distribution de vidéos, les modèles génératifs sont confrontés à trois défis principaux : (a) générer un nouveau mouvement et conserver l'apparence de la personne, (b) modéliser la cohérence spatio-temporelle, ainsi que (c) comprendre la représentation latente de la vidéo.Dans cette thèse, nous proposons un certain nombre d'approches novatrices pour générer des vidéos de haute qualité visuelle et interpréter l'espace latent de la représentation de la vidéo dans ces modèles génératifs. Nous introduisons tout d'abord une méthode, qui apprend à générer conditionnellement des vidéos basées sur une seule image en entrée. Notre modèle proposé permet une génération de vidéo contrôlable en fournissant diverses catégories de mouvement. Deuxièmement, nous présentons un modèle, qui est capable de produire des vidéos à partir de vecteurs de bruit en dissociant l'apparence et le mouvement dans l'espace latent. Nous démontrons que les deux facteurs peuvent être manipulés de manière conditionnelle et inconditionnelle. Troisièmement, nous introduisons un modèle génératif inconditionnel de vidéos qui permet l'interprétation de l'espace latent. Nous mettons l'accent sur l'interprétation et la manipulation du mouvement. Nous montrons que la méthode proposée est capable de découvrir des représentations du mouvement sémantiquement significatives, qui à leur tour permettent le contrôle des vidéos générées. Enfin, nous décrivons une nouvelle approche pour combiner la modélisation générative avec l'apprentissage contrastif pour la réidentification de personnes en mode non supervisé. Nous exploitons les données générées en tant qu'augmentation de données et montrons que ces données peuvent améliorer la précision de la ré-identification
Generative Adversarial Networks (GANs) have witnessed increasing attention due to their abilities to model complex visual data distributions, which allow them to generate and translate realistic images. While realistic \textit{video generation} is the natural sequel, it is substantially more challenging w.r.t. complexity and computation, associated to the simultaneous modeling of appearance, as well as motion. Specifically, in inferring and modeling the distribution of human videos, generative models face three main challenges: (a) generating uncertain motion and retaining of human appearance, (b) modeling spatio-temporal consistency, as well as (c) understanding of latent representation. In this thesis, we propose three novel approaches towards generating high-visual quality videos and interpreting latent space in video generative models. We firstly introduce a method, which learns to conditionally generate videos based on single input images. Our proposed model allows for controllable video generation by providing various motion categories. Secondly, we present a model, which is able to produce videos from noise vectors by disentangling the latent space into appearance and motion. We demonstrate that both factors can be manipulated in both, conditional and unconditional manners. Thirdly, we introduce an unconditional video generative model that allows for interpretation of the latent space. We place emphasis on the interpretation and manipulation of motion. We show that our proposed method is able to discover semantically meaningful motion representations, which in turn allow for control in generated results. Finally, we describe a novel approach to combine generative modeling with contrastive learning for unsupervised person re-identification. Specifically, we leverage generated data as data augmentation and show that such data can boost re-identification accuracy
APA, Harvard, Vancouver, ISO, and other styles
13

Sapountzis, Nikolaos. "Optimisation au niveau réseau dans le cadre des réseaux hétérogènes nouvelle génération." Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0082.

Full text
Abstract:
Depuis 2016, il est bien connu que les réseaux mobiles dominent nos vies. Nous utilisons nos téléphones cellulaires pour presque tout: du réseautage social au streaming, à la recherche de logement ou pour les transactions bancaires. Néanmoins, il semble que les opérateurs ne comprennent pas cette domination, puisque leurs réseaux sont constitués de nœuds qui: (i) subissent d'énormes fluctuations de charge, (ii) gaspillent leurs ressources, et (iii) sont accusés d'être tueurs d'énergie majeurs. Ces inconvénients nuisent à load-balancing, efficacité spectrale et énergétique, respectivement. L'objectif de cette dissertation est d'étudier attentivement ces gains d'efficacité et d'établir un bon “trade off” entre eux pour les futurs réseaux hétérogènes 5G mobiles. Dans cette direction, nous nous concentrons tout d'abord sur (i) l'utilisateur et la différenciation du trafic, émergeant des applications de type MTC et IoT, et (ii) du RAN. Plus précisément, nous réalisons une modélisation, une analyse de performance et une optimisation appropriées pour une famille d'objectifs, en utilisant des outils provenant principalement de l'optimisation (non) convexe, de la probabilité et de la théorie des files d'attente. Après, nous soulignons que l'optimisation des fonctionnalités RAN, suivie d'un formidable « capacity crunch », posent de sérieuses contraintes dans le réseau de backhaul en le faisant apparaître comme un goulet d'étranglement de performance. Ainsi, nous incluons (iii) dans notre cadre: des contraintes de capacité de liaison de backhaul dans des topologies génériques. Enfin, nous considérons le problème de l'allocation TDD dans les réseaux d'accès et de backhaul
By 2016, it is well-known that mobile networking has dominated our lives. We use our mobile cell phones for almost everything: from social networking to streaming, finding accommodation or banking. Nevertheless, it seems that operators have not understood yet this domination, since their networks consist of nodes that: (i) suffer from enormous load fluctuations, (ii) waste their resources, and (iii) are blamed to be a major energy-killer worldwide. Such shortcomings hurt: load-balancing, spectral and energy efficiency, respectively. The goal of this dissertation is to carefully study these efficiencies and achieve a good trade-off between them for future mobile 5G heterogeneous networks (HetNets). Towards this direction, we firstly focus on (i) the user and traffic differentiation, emerging from the MTC and IoT applications, and (ii) the RAN. Specifically, we perform appropriate modeling, performance analysis and optimization for a family of objectives, using tools mostly coming from (non) convex optimization, probability and queueing theory. Our initial consideration is on network-layer optimizations (e.g. studying the user association problem). Then, we analytically show that cross-layer optimization is key for the success of future HetNets, as one needs to jointly study other problems coming from the layers below (e.g. the TDD allocation problem from the MAC, or the cross-interference management from the PHY) to avoid performance degradation. Finally, we add the backhaul network into our framework, and consider additional constraints related to the backhaul capacity, backhaul topology, as well as the problem of backhaul TDD allocation
APA, Harvard, Vancouver, ISO, and other styles
14

Seddik, Mohamed El Amine. "Random Matrix Theory for AI : From Theory to Practice." Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG010.

Full text
Abstract:
De nos jours, l'IA repose en grande partie sur l'utilisation de données de grande taille et sur des méthodes d'apprentissage machine améliorées qui consistent à développer des algorithmes de classification et d'inférence en tirant parti de grands ensembles de données de grande taille. Ces grandes dimensions induisent de nombreux phénomènes contre-intuitifs, conduisant généralement à une mauvaise compréhension du comportement de nombreux algorithmes d'apprentissage machine souvent conçus avec des intuitions de petites dimensions de données. En tirant parti du cadre multidimensionnel (plutôt que d'en souffrir), la théorie des matrices aléatoires (RMT) est capable de prédire les performances de nombreux algorithmes non linéaires aussi complexes que certains réseaux de neurones aléatoires, ainsi que de nombreuses méthodes du noyau telles que les SVM, la classification semi-supervisée, l'analyse en composantes principales ou le regroupement spectral. Pour caractériser théoriquement les performances de ces algorithmes, le modèle de données sous-jacent est souvent un modèle de mélange gaussien (MMG) qui semble être une hypothèse forte étant donné la structure complexe des données réelles (par exemple, des images). En outre, la performance des algorithmes d'apprentissage automatique dépend du choix de la représentation des données (ou des caractéristiques) sur lesquelles ils sont appliqués. Encore une fois, considérer les représentations de données comme des vecteurs gaussiens semble être une hypothèse assez restrictive. S'appuyant sur la théorie des matrices aléatoires, cette thèse vise à aller au-delà de la simple hypothèse du MMG, en étudiant les outils classiques d'apprentissage machine sous l'hypothèse de vecteurs aléatoires concentrés qui généralisent les vecteurs Gaussiens. Cette hypothèse est particulièrement motivée par l'observation que l'on peut utiliser des modèles génératifs (par exemple, les GAN) pour concevoir des structures de données complexes et réalistes telles que des images, grâce à des transformations Lipschitzienne de vecteurs gaussiens. Cela suggère notamment que l'hypothèse de concentration sur les données mentionnée ci-dessus est un modèle approprié pour les données réelles et qui est tout aussi mathématiquement accessible que les MMG. Par conséquent, nous démontrons à travers cette thèse, en nous appuyant sur les GANs, l'intérêt de considérer le cadre des vecteurs concentrés comme un modèle pour les données réelles. En particulier, nous étudions le comportement des matrices de Gram aléatoires qui apparaissent au cœur de divers modèles linéaires, des matrices à noyau qui apparaissent dans les méthodes à noyau et également des méthodes de classification qui reposent sur une solution implicite (par exemple, la couche de Softmax dans les réseaux de neurones), avec des données aléatoires supposées concentrées. En particulier, la compréhension du comportement de ces matrices/méthodes, pour des données concentrées, nous permet de caractériser les performances (sur des données réelles si nous les assimilons à des vecteurs concentrés) de nombreux algorithmes d'apprentissage machine, tels que le clustering spectral, les SVM, l'analyse en composantes principales et l'apprentissage par transfert. L'analyse de ces méthodes pour des données concentrées donne le résultat surprenant qu'elles ont asymptotiquement le même comportement que pour les données de MMG. Ce résultat suggère fortement l'aspect d'universalité des grands classificateurs d'apprentissage machine par rapport à la distribution sous-jacente des données
AI nowadays relies largely on using large data and enhanced machine learning methods which consist in developing classification and inference algorithms leveraging large datasets of large sizes. These large dimensions induce many counter-intuitive phenomena, leading generally to a misunderstanding of the behavior of many machine learning algorithms often designed with small data dimension intuitions. By taking advantage of (rather than suffering from) the multidimensional setting, random matrix theory (RMT) is able to predict the performance of many non-linear algorithms as complex as some random neural networks as well as many kernel methods such as Support Vector Machines, semi-supervised classification, principal component analysis or spectral clustering. To characterize the performance of these algorithms theoretically, the underlying data model is often a Gaussian mixture model (GMM) which seems to be a strong assumption given the complex structure of real data (e.g., images). Furthermore, the performance of machine learning algorithms depends on the choice of data representation (or features) on which they are applied. Once again, considering data representations as Gaussian vectors seems to be quite a restrictive assumption. Relying on random matrix theory, this thesis aims at going beyond the simple GMM hypothesis, by studying classical machine learning tools under the hypothesis of Lipschitz-ally transformed Gaussian vectors also called concentrated random vectors, and which are more generic than Gaussian vectors. This hypothesis is particularly motivated by the observation that one can use generative models (e.g., GANs) to design complex and realistic data structures such as images, through Lipschitz-ally transformed Gaussian vectors. This notably suggests that making the aforementioned concentration assumption on data is a suitable model for real data and which is just as mathematically accessible as GMM models. Moreover, in terms of data representation, the concentration framework is compatible with one of the most widely used data representations in practice, namely deep neural nets (DNNs) representations, since they consist in a Lipschitz transformation of the input data (e.g., images). Therefore, we demonstrate through this thesis, leveraging on GANs, the interest of considering the framework of concentrated vectors as a model for real data. In particular, we study the behavior of random Gram matrices which appear at the core of various linear models, kernel matrices which appear in kernel methods and also classification methods which rely on an implicit solution (e.g., Softmax layer in neural networks), with concentrated random inputs. Indeed, these methods are at the heart of many classification, regression and clustering machine learning algorithms. In particular, understanding the behavior of these matrices/methods, for concentrated data, allows us to characterize the performances (on real data if we assimilate them to concentrated vectors) of many machine learning algorithms, such as spectral clustering, SVMs, principal component analysis and transfer learning. Analyzing these methods for concentrated data yields to the surprising result that they have asymptotically the same behavior as for GMM data (with the same first and second order statistics). This result strongly suggest the universality aspect of large machine learning classifiers w.r.t. the underlying data distribution
APA, Harvard, Vancouver, ISO, and other styles
15

Wang, Qi. "Statistical Models for Human Motion Synthesis." Thesis, Ecole centrale de Marseille, 2018. http://www.theses.fr/2018ECDM0005/document.

Full text
Abstract:
Cette thèse porte sur la synthèse de séquences de motion capture avec des modèles statistiques. La synthèse de ce type de séquences est une tâche pertinente pour des domaines d'application divers tels que le divertissement, l'interaction homme-machine, la robotique, etc. Du point de vue de l'apprentissage machine, la conception de modèles de synthèse consiste à apprendre des modèles génératifs, ici pour des données séquentielles. Notre point de départ réside dans deux problèmes principaux rencontrés lors de la synthèse de données de motion capture, assurer le réalisme des positions et des mouvements, et la gestion de la grande variabilité dans ces données. La variabilité vient d'abord des caractéristiques individuelles, nous ne bougeons pas tous de la même manière mais d'une façon qui dépend de notre personnalité, de notre sexe, de notre âge de notre morphologie, et de facteurs de variation plus court terme tels que notre état émotionnel, que nous soyons fatigués, etc.Une première partie présente des travaux préliminaires que nous avons réalisés en étendant des approches de l'état de l'art basées sur des modèles de Markov cachés et des processus gaussiens pour aborder les deux problèmes principaux liés au réalisme et à la variabilité. Nous décrivons d'abord une variante de modèles de Markov cachés contextuels pour gérer la variabilité dans les données en conditionnant les paramètres des modèles à une information contextuelle supplémentaire telle que l'émotion avec laquelle un mouvement a été effectué. Nous proposons ensuite une variante d'une méthode de l'état de l'art utilisée pour réaliser une tâche de synthèse de mouvement spécifique appelée Inverse Kinematics, où nous exploitons les processus gaussiens pour encourager le réalisme de chacune des postures d'un mouvement généré. Nos résultats montrent un certain potentiel de ces modèles statistiques pour la conception de systèmes de synthèse de mouvement humain. Pourtant, aucune de ces technologies n'offre la flexibilité apportée par les réseaux de neurones et la récente révolution de l'apprentissage profond et de l'apprentissage Adversarial que nous abordons dans la deuxième partie.La deuxième partie de la thèse décrit les travaux que nous avons réalisés avec des réseaux de neurones et des architectures profondes. Nos travaux s'appuient sur la capacité des réseaux neuronaux récurrents à traiter des séquences complexes et sur l'apprentissage Adversarial qui a été introduit très récemment dans la communauté du Deep Learning pour la conception de modèles génératifs performants pour des données complexes, notamment images. Nous proposons une première architecture simple qui combine l'apprentissage Adversarial et des autoencodeurs de séquences, qui permet de mettre au point des systèmes performants de génération aléatoire de séquences réalistes de motion capture. A partir de cette architecture de base, nous proposons plusieurs variantes d'architectures neurales conditionnelles qui permettent de concevoir des systèmes de synthèse que l'on peut contrôler dans une certaine mesure en fournissant une information de haut niveau à laquelle la séquence générée doit correspondre, par exemple l'émotion avec laquelle une activité est réalisée. Pour terminer nous décrivons une dernière variante qui permet de réaliser de l'édition de séquences de motion capture, où le système construit permet de générer une séquence dans le style d'une autre séquence, réelle
This thesis focuses on the synthesis of motion capture data with statistical models. Motion synthesis is a task of interest for important application fields such as entertainment, human-computer interaction, robotics, etc. It may be used to drive a virtual character that can be involved in the applications of the virtual reality, animation films or computer games. This thesis focuses on the use of statistical models for motion synthesis with a strong focus on neural networks. From the machine learning point of view designing synthesis models consists in learning generative models. Our starting point lies in two main problems one encounters when dealing with motion capture data synthesis, ensuring realism of postures and motion, and handling the large variability in the synthesized motion. The variability in the data comes first from core individual features, we do not all move the same way but accordingly to our personality, our gender, age, and morphology etc. Moreover there are other short term factors of variation like our emotion, the fact that we are interacting with somebody else, that we are tired etc. Data driven models have been studied for generating human motion for many years. Models are learned from labelled datasets where motion capture data are recorded while actors are performed various activities like walking, dancing, running, etc. Traditional statistical models such as Hidden Markov Models, Gaussian Processes have been investigated for motion synthesis, demonstrating strengths but also weaknesses. Our work focuses in this line of research and concerns the design of generative models for sequences able to take into account some contextual information, which will represent the factors of variation. A first part of the thesis present preliminary works that we realised by extending previous approaches relying on Hidden Markov Models and Gaussian Processes to tackle the two main problems related to realism and variability. We first describe an attempt to extend contextual Hidden Markov Models for handling variability in the data by conditioning the parameters of the models to an additional contextual information such as the emotion which which a motion was performed. We then propose a variant of a traditional method for performing a specific motion synthesis task called Inverse Kinematics, where we exploit Gaussian Processes to enforce realism of each of the postures of a generated motion. These preliminary results show some potential of statistical models for designing human motion synthesis systems. Yet none of these technologies offers the flexibility brought by neural networks and the recent deep learning revolution.The second part of the thesis describes the works we realized with neural networks and deep architectures. It builds on recurrent neural networks for dealing with sequences and on adversarial learning which was introduced very recently in the deep learning community for designing accurate generative models for complex data. We propose a simple system as a basis synthesis architecture, which combines adversarial learning with sequence autoencoders, and that allows randomly generating realistic motion capture sequences. Starting from this architecture we design few conditional neural models that allow to design synthesis systems that one can control up to some extent by either providing a high level information that the generated sequence should match (e.g. the emotion) or by providing a sequence in the style of which a sequence should be generated
APA, Harvard, Vancouver, ISO, and other styles
16

Ben, Tanfous Amor. "Représentations parcimonieuses dans les variétés de formes pour la classification et la génération de trajectoires humaines." Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I111.

Full text
Abstract:
Concevoir des systèmes intelligents pour comprendre le contenu des vidéos est devenu un axe de recherche très important car il permet de compenser les capacités humaines limitées de l'analyse efficace des vidéos. En particulier, la compréhension du comportement humain à partir de vidéos suscite un intérêt considérable en raison de ses nombreuses applications potentielles. Au même temps, la détection et le suivi de marqueurs humains dans les flux vidéo sont devenus de plus en plus fiables, et c'est en partie grâce à la disponibilité de capteurs abordables. Cela permet de déduire des données géométriques qui varient dans le temps et qui jouent un rôle important dans l'analyse automatique du mouvement humain. Cependant, une telle analyse reste difficile en raison des énormes variations de vue, de la détection inexacte des marqueurs, des variations importantes des classes ainsi que de l’insuffisance des données annotées. Dans cette thèse, nous proposons de nouvelles méthodes permettant de classifier et de générer des séquences 2D/3D de marqueurs humains. Tout d'abord, nous représentons ces séquences comme étant des trajectoires dans des variétés de formes permettant ainsi une analyse invariante à la vue. Toutefois, ces variétés sont non linéaires et, par conséquent, les algorithmes classiques telles que les techniques d'apprentissage automatique standards ne pourraient pas être appliqués d'une manière directe vu qu'ils sont conçus pour des données de nature linéaire. En guise de solution, nous exploitons des notions de la géométrie Riemannienne pour coder ces trajectoires en appliquant une technique de codage parcimonieux et d'apprentissage de dictionnaires. Cela permet non seulement de résoudre le problème de non-linéarité des variétés de formes mais aussi de représenter les trajectoires comme étant des représentations parcimonieuses qui sont définies dans des espaces vectoriels, qui sont plus discriminantes et moins bruitées que les données originales. Nous étudions des paradigmes intrinsèques et extrinsèques de codage parcimonieux et d’apprentissage de dictionnaire dans les variétés de formes et nous présentons une étude comparative de leur utilisation en fonction de la nature des données (i.e., visage ou corps en 2D ou 3D). D'autre part, en se basant sur ces représentations parcimonieuses, nous proposons deux approches de reconnaissance d'actions humaines en 3D et de reconnaissance d'expressions faciales en 2D, et nous montrons que les résultats obtenus sont compétitifs avec les méthodes récentes de l'état de l'art. Enfin, nous présentons un modèle génératif permettant de synthétiser des actions humaines dont l'idée principale est de concevoir un réseau antagoniste génératif afin de générer de nouvelles représentations parcimonieuses qui sont ensuite transformées en des séquences de poses. Nous appliquons cette méthode pour l’augmentation des données ce qui permet d’améliorer les performances de la classification d'actions. De plus, les séquences de pose générées sont utilisées pour guider un second modèle générateur dans le but de générer des vidéos humaines par transfert de chaque pose d'une séquence en une image texture. Nous montrons que les vidéos obtenues sont réalistes et présentent une meilleure cohérence en termes d'apparence et de mouvement qu'une méthode récente de l'état de l'art
Designing intelligent systems to understand video content has been a hot research topic in the past few decades since it helps compensate the limited human capabilities of analyzing videos in an efficient way. In particular, human behavior understanding in videos is receiving a huge interest due to its many potential applications. At the same time, the detection and tracking of human landmarks in video streams has gained in reliability partly due to the availability of affordable RGB-D sensors. This infer time-varying geometric data which play an important role in the automatic human motion analysis. However, such analysis remains challenging due to enormous view variations, inaccurate detection of landmarks, large intra- and inter- class variations, and insufficiency of annotated data. In this thesis, we propose novel frameworks to classify and generate 2D/3D sequences of human landmarks. We first represent them as trajectories in the shape manifold which allows for a view-invariant analysis. However, this manifold is nonlinear and thereby standard computational tools and machine learning techniques could not be applied in a straightforward manner. As a solution, we exploit notions of Riemannian geometry to encode these trajectories based on sparse coding and dictionary learning. This not only overcomes the problem of nonlinearity of the manifold but also yields sparse representations that lie in vector space, that are more discriminative and less noisy than the original data. We study intrinsic and extrinsic paradigms of sparse coding and dictionary learning in the shape manifold and provide a comprehensive evaluation on their use according to the nature of the data (i.e., face or body in 2D or 3D). Based on these sparse representations, we present two frameworks for 3D human action recognition and 2D micro- and macro- facial expression recognition and show that they achieve competitive performance in comparison to the state-of-the-art. Finally, we design a generative model allowing to synthesize human actions. The main idea is to train a generative adversarial network to generate new sparse representations that are then transformed to pose sequences. This framework is applied to the task of data augmentation allowing to improve the classification performance. In addition, the generated pose sequences are used to guide a second framework to generate human videos by means of pose transfer of each pose to a texture image. We show that the obtained videos are realistic and have better appearance and motion consistency than a recent state-of-the-art baseline
APA, Harvard, Vancouver, ISO, and other styles
17

Kips, Robin. "Neural rendering for improved cosmetics virtual try-on." Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT011.

Full text
Abstract:
Les applications dans le domaine de la réalité augmentée se sont rapidement répandues au travers des sites de e-commerce et des réseaux sociaux, permettant désormais aux consommateurs d'essayer virtuellement une large variété de produits cosmétiques. Néanmoins, alors l'essayage virtuel est apprécié par les consommateurs, il offre un réalisme limité en comparaison d'une image de véritable produit cosmétique. Par ailleurs, les domaines émergent des réseaux génératifs et du rendu neuronal offrent aujourd’hui de nouvelles perspectives que nous étudions cette thèse, pour une synthèse d'images plus réalistes et de nouvelles expériences d’essayage virtuel. Tout d’abord, nous introduisons une nouvelle méthode de synthèse de maquillage, basée sur des réseaux génératifs, dans laquelle la couleur des cosmétiques peut être explicitement contrôlée, de façon similaire à un moteur de rendu physique. Notre modèle permet de synthétiser des images réalistes de maquillage des yeux et des lèvres en haute résolution. De plus, nous introduisons une méthode d’apprentissage faiblement supervisée pour les réseaux génératifs contrôlables, nous permettant de nous affranchir du besoin de données labellisées. Cependant, les méthodes génératives souffrent de certaines limitations pour une utilisation dans des applications en temps réel. C’est pourquoi nous proposons une approche de rendu neuronal pour l’essayage virtuel des cosmétiques en temps réel sur les appareils mobiles. Notre approche est basée sur un nouveau réseau d’inversion graphique qui apprend à projeter une image d’exemple dans l’espace des paramètres d’un moteur de rendu d’informatique graphique. Ce modèle est entraîné grâce à une approche auto-supervisée qui ne nécessite pas d’images d'entraînement labellisées. Cette méthode rend possible de nouvelles applications dans lesquelles les consommateurs peuvent essayer virtuellement un nouveau produit cosmétique à partir d’une image de maquillage de leur choix, telle qu’une photographie issue des réseaux sociaux. Enfin, nous introduisons une nouvelle méthode permettant d’accélérer la digitalisation de nouveaux produits cosmétiques pour les applications d'essayage virtuel. En prenant exemple sur le domaine de la capture des matériaux, nous proposons une nouvelle méthode combinant application contrôlée et système d’imagerie pour les produits cosmétiques. De plus, nous illustrons une utilisation possible de ce nouveau type de données pour l’estimation de l'apparence des cosmétiques sur le visage grâce à une méthode ce rendu neuronal. Au total, les nouvelles méthodes introduites dans cette thèse permettent l’amélioration des technologies d’essayage virtuel des cosmétiques, à la fois de manière directe, en introduisant des méthodes rendu plus réaliste, et indirecte, en proposant de nouvelles expériences pour les consommateurs et en améliorant la créations de l’essayage virtuel pour de nouveaux produits cosmétiques
Augmented reality applications have rapidly spread across online retail platforms and social media, allowing consumers to virtually try on a large variety of cosmetics products. However, even though appreciated by consumers, such applications currently offer limited realism compared to real product images. On the other hand, the rapidly emerging field of generative models and neural rendering offers new perspectives that we will study in this work for realistic image synthesis and novel virtual try-on experiences. First, we introduce a novel makeup synthesis method based on generative networks in which the makeup color can be explicitly controlled, similar to a physically-based renderer. Our model obtains photorealistic results on lips and eyes makeup in high resolution. Furthermore, we relax the need for labeled data by introducing a weakly-supervised learning approach for generative-based controllable synthesis.However, GANs methods suffer from limitations for real-time applications. Thus, we propose a neural rendering approach for virtual try-on of cosmetics in real-time on mobile devices. Our approach is based on a novel inverse graphics encoder network that learns to map a single example image into the space of parameters of a computer graphics rendering engine. This model is trained using a self-supervised approach which does not require labeled training data. This method enables new applications where consumers can virtually try-on a novel, unknown cosmetic product from an inspirational reference image on social media. Finally, we propose a novel method for accelerating the digitization of new cosmetics products in virtual try-on applications. Inspired by the field of material capture, we introduced a controlled application and imaging system for cosmetics products. Furthermore, we illustrate how this novel type of cosmetics image can be used to estimate the final appearance of cosmetics on the face using a neural rendering approach. Overall, the novel methods introduced in this thesis improve cosmetics virtual try-on technologies both directly, by introducing more realistic rendering method, and indirectly, allowing novel experiences for consumers, and accelerating the creation of virtual try-on for new cosmetics products
APA, Harvard, Vancouver, ISO, and other styles
18

Bréhon, Yannick. "Conception et ingénierie de réseaux nouvelle génération orientés Ethernet." Paris, ENST, 2007. http://www.theses.fr/2007ENST0005.

Full text
Abstract:
L’augmentation des besoins des consommateurs particuliers et professionnels, ainsi que les évolutions rapides de la technologie, sont à la base de la conception des Réseaux de Nouvelle Génération (RNG). L’optimisation des ressources du réseau permettent aux opérateurs de délivrer efficacement des services de grande qualité à un coût réduit. Du fait de la prééminence des technologies de type Ethernet chez les clients et dans le segment d’accès des réseaux,et de son coût réduit, Ethernet est le candidat naturel pour devenir la technologie privilégiée dans les RNG. Dans le segment métropolitain des réseaux, des initiatives ont abouti à la spécification de variantes d’Ethernet permettant d’associer les flux clients à des Réseaux Locaux Virtuels (ou VLANs). Dans cette thèse, nous investiguons le moyen d’associer optimalement ces VLANs aux arbres couvrants utilisés par Ethernet, ce qui permet de faire de l’ingénierie de trafic. Dans le cœur de réseau, plusieurs approches cherchent à faire d’Ethernet une technologie orientée-connexion et contrôlée par GMPLS (tels que les "Layer 2-LSPs" et PBB-TE). Dans cette thèse, un nouveau type de connexion est introduit, pour les technologies orientées connexion et contrôlées par GMPLS : le bus-LSP. Tant pour les réseaux mono-couches que pour les réseaux multi-couches, les bus-LSP permettent à l’opérateur de réduire ses coûts de manière significative. Nous quantifions cette réduction de coûts, tant opérationnels que d’investissements. Nous proposons des méthodes d’ingénierie pour déployer efficacement les bus-LSPs. Enfin, nous détaillons aussi les extensions protocolaires nécéssaires au contrôle d’un réseau utilisant des bus-LSPs
The increase in individual and professional customer expectations, as well as the fast technological evolutions, are leading to the design of the Next Generation Internet (NGI). Network optimization allows operators to efficiently deliver high-quality services at reduced costs. Due to the pre-eminence of Ethernet technologies at the customer premises and in the access network segment, and due to its low cost, Ethernet is a natural candidate to serve as the technology of choice of the NGI. In the metropolitan network segment, efforts have led to specifying Ethernet flavors which allow mapping client traffic into Virtual LANs. In this thesis, we investigate how to efficiently assign these VLANs to the Spanning Trees generated by Ethernet’s Spanning Tree Protocol, since this is currently the only way to perform traffic-engineering and network optimization in this network segment. In the core network segment, several initiatives aim at turning Ethernet into a GMPLS-controlled connection-oriented technology (such as Layer 2 LSPs and PBB-TE). In this thesis, a new type of connection for packet- and frame- based, connection-oriented and GMPLS-controlled technologies is introduced and studied: the bus-LSP. Both in single-layer and in multi-layer networks, it provides the operator with significant cost reduction. We provide quantification of this reduction, as well as engineering methods for efficiently deploying bus-LSPs. We also detail the control plane protocols extensions needed to manage these bus-LSPs
APA, Harvard, Vancouver, ISO, and other styles
19

Cherti, Mehdi. "Deep generative neural networks for novelty generation : a foundational framework, metrics and experiments." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS029/document.

Full text
Abstract:
Des avancées significatives sur les réseaux de neurones profonds ont récemment permis le développement de technologies importantes comme les voitures autonomes et les assistants personnels intelligents basés sur la commande vocale. La plupart des succès en apprentissage profond concernent la prédiction, alors que les percées initiales viennent des modèles génératifs. Actuellement, même s'il existe des outils puissants dans la littérature des modèles génératifs basés sur les réseaux profonds, ces techniques sont essentiellement utilisées pour la prédiction ou pour générer des objets connus (i.e., des images de haute qualité qui appartiennent à des classes connues) : un objet généré qui est à priori inconnu est considéré comme une erreur (Salimans et al., 2016) ou comme un objet fallacieux (Bengio et al., 2013b). En d'autres termes, quand la prédiction est considérée comme le seul objectif possible, la nouveauté est vue comme une erreur - que les chercheurs ont essayé d'éliminer au maximum. Cette thèse défends le point de vue que, plutôt que d'éliminer ces nouveautés, on devrait les étudier et étudier le potentiel génératif des réseaux neuronaux pour créer de la nouveauté utile - particulièrement sachant l'importance économique et sociétale de la création d'objets nouveaux dans les sociétés contemporaines. Cette thèse a pour objectif d'étudier la génération de la nouveauté et sa relation avec les modèles de connaissance produits par les réseaux neurones profonds génératifs. Notre première contribution est la démonstration de l'importance des représentations et leur impact sur le type de nouveautés qui peuvent être générées : une conséquence clé est qu'un agent créatif a besoin de re-représenter les objets connus et utiliser cette représentation pour générer des objets nouveaux. Ensuite, on démontre que les fonctions objectives traditionnelles utilisées dans la théorie de l'apprentissage statistique, comme le maximum de vraisemblance, ne sont pas nécessairement les plus adaptées pour étudier la génération de nouveauté. On propose plusieurs alternatives à un niveau conceptuel. Un deuxième résultat clé est la confirmation que les modèles actuels - qui utilisent les fonctions objectives traditionnelles - peuvent en effet générer des objets inconnus. Cela montre que même si les fonctions objectives comme le maximum de vraisemblance s'efforcent à éliminer la nouveauté, les implémentations en pratique échouent à le faire. A travers une série d'expérimentations, on étudie le comportement de ces modèles ainsi que les objets qu'ils génèrent. En particulier, on propose une nouvelle tâche et des métriques pour la sélection de bons modèles génératifs pour la génération de la nouveauté. Finalement, la thèse conclue avec une série d'expérimentations qui clarifie les caractéristiques des modèles qui génèrent de la nouveauté. Les expériences montrent que la sparsité, le niveaux du niveau de corruption et la restriction de la capacité des modèles tuent la nouveauté et que les modèles qui arrivent à reconnaître des objets nouveaux arrivent généralement aussi à générer de la nouveauté
In recent years, significant advances made in deep neural networks enabled the creation of groundbreaking technologies such as self-driving cars and voice-enabled personal assistants. Almost all successes of deep neural networks are about prediction, whereas the initial breakthroughs came from generative models. Today, although we have very powerful deep generative modeling techniques, these techniques are essentially being used for prediction or for generating known objects (i.e., good quality images of known classes): any generated object that is a priori unknown is considered as a failure mode (Salimans et al., 2016) or as spurious (Bengio et al., 2013b). In other words, when prediction seems to be the only possible objective, novelty is seen as an error that researchers have been trying hard to eliminate. This thesis defends the point of view that, instead of trying to eliminate these novelties, we should study them and the generative potential of deep nets to create useful novelty, especially given the economic and societal importance of creating new objects in contemporary societies. The thesis sets out to study novelty generation in relationship with data-driven knowledge models produced by deep generative neural networks. Our first key contribution is the clarification of the importance of representations and their impact on the kind of novelties that can be generated: a key consequence is that a creative agent might need to rerepresent known objects to access various kinds of novelty. We then demonstrate that traditional objective functions of statistical learning theory, such as maximum likelihood, are not necessarily the best theoretical framework for studying novelty generation. We propose several other alternatives at the conceptual level. A second key result is the confirmation that current models, with traditional objective functions, can indeed generate unknown objects. This also shows that even though objectives like maximum likelihood are designed to eliminate novelty, practical implementations do generate novelty. Through a series of experiments, we study the behavior of these models and the novelty they generate. In particular, we propose a new task setup and metrics for selecting good generative models. Finally, the thesis concludes with a series of experiments clarifying the characteristics of models that can exhibit novelty. Experiments show that sparsity, noise level, and restricting the capacity of the net eliminates novelty and that models that are better at recognizing novelty are also good at generating novelty
APA, Harvard, Vancouver, ISO, and other styles
20

Bitton, Adrien. "Meaningful audio synthesis and musical interactions by representation learning of sound sample databases." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS362.

Full text
Abstract:
La musique assistée par ordinateur fait beaucoup usage de librairies d’échantillons audios et d'instruments numériques qui offrent des possibilités de composition sans précédent. L’abondance des matériaux sonores disponibles nécessite de nouvelles méthodes d’interaction en adéquation avec ceux-ci sans quoi le parcours des échantillons audios est inefficace et arbitraire. En effet, les métadonnées qui structurent traditionnellement ces librairies ne peuvent que traduire grossièrement les caractéristiques acoustiques des différentes catégories sonores. Notamment, les variations continues du timbre musical ne sont pas exprimées alors qu’elles jouent un rôle significatif dans la production et la créativité musicale. Les progrès des modèles d’apprentissage génératif ont démontré des capacités sans précédent pour le traitement des données à grande échelle. Ces méthodes probabilistes permettent la construction d’espaces non supervisés pour la synthèse de données et ont permis de nouvelles interactions telles que la conversion automatique d’images et la manipulation d’attributs perceptifs et stylistiques. Au cours de cette thèse, nous développons des techniques d’analyse/synthèse efficaces basées sur les modèles auto-encodeurs afin d’apprendre des représentations acoustiques inversibles de basse dimensionnalité pour la manipulation intuitive du timbre musical. En premier lieu, nous adaptons les techniques non supervisées de conversion d’images au transfert de propriétés de timbre. Ensuite, nous introduisons de nouveaux modèles pour l’apprentissage explicite de représentations du timbre musical et l’échantillonnage avec contrôle des propriétés acoustiques et sémantiques
Computer assisted music extensively relies on audio sample libraries and virtual instruments which provide users an ever increasing amount of contents to produce music with. However, principled methods for large-scale interactions are lacking so that browsing samples and presets with respect to a target sound idea is a tedious and arbitrary process. Indeed, library metadata can only describe coarse categories of sounds but do not meaningfully traduce the underlying acoustic contents and continuous variations in timbre which are key elements of music production and creativity. The recent advances in deep generative modelling show unprecedented successes at learning large-scale unsupervised representations which invert to data as diverse as images, texts and audio. These probabilistic models could be refined to specific generative tasks such as unpaired image translation and semantic manipulations of visual features, demonstrating the ability of learning transformations and representations that are perceptually meaningful. In this thesis, we target efficient analysis and synthesis with auto-encoders to learn low dimensional acoustic representations for timbre manipulations and intuitive interactions for music production. In the first place we adapt domain translation techniques to timbre transfer and propose alternatives to adversarial learning for many-to-many transfers. Then we develop models for explicit modelling of timbre variations and controllable audio sampling using conditioning for semantic attribute manipulations and hierarchical learning to represent both acoustic and temporal variations
APA, Harvard, Vancouver, ISO, and other styles
21

Boulic-Bouadjio, Audren. "Génération multi-agents de réseaux sociaux." Thesis, Toulouse 1, 2021. http://www.theses.fr/2021TOU10003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Rana, Aakanksha. "Analyse d'images haute gamme dynamique." Electronic Thesis or Diss., Paris, ENST, 2018. http://www.theses.fr/2018ENST0015.

Full text
Abstract:
L'imagerie HDR (High Dynamic Range) permet de capturer une gamme dynamique plus larges, nous permettant ainsi de tirer parti de détails subtils, mais différenciés, présents à la fois dans les zones extrêmement sombres et lumineuses d'une scène. Ces propriétés présentent un intérêt potentiel pour les algorithmes de vision par ordinateur où la performance peut se dégrader considérablement en présence de changements d’illumination lorsque les scènes acquises sont à l'aide d'images traditionnelles à faible gamme dynamique (LDR). Dans cette thèse, nous présentons des aspects quantitatifs et qualitatifs de l'analyse d'images HDR pour des algorithmes de vision par ordinateur.Cette thèse débute par l'identification des questions les plus importantes concernant l'utilisation de contenus HDR pour la tâche d'extraction des caractéristiques de bas niveau, qui est d'une importance fondamentale pour de nombreuses applications. En réalisant une évaluation de la performance, nous démontrons comment les différentes techniques basées sur le HDR améliorent la performance par rapport au LDR. Cependant, nous constatons qu'aucune ne peut le faire de manière optimale pour toutes les scènes. Pour étudier cette question, nous examinons l'importance des objectifs propres à chaque tâche, et concevons des opérateurs de mise en correspondance tonale (tone mapping operator-TMO) spécifiques.Dans cette thèse, nous proposons trois méthodologies basées sur l'apprentissage visant le TMO optimal du contenu HDR pour améliorer l'efficacité de l'extraction des caractéristiques locales à chaqueétape, à savoir détection, description et appariement final
High Dynamic Range (HDR) imaging enables to capture a wider dynamic range and color gamut, thus enabling us to draw on subtle, yet discriminating details present both in the extremely dark and bright areas of a scene. Such property is of potential interest for computer vision algorithms where performance degrades substantially when the scenes are captured using traditional low dynamic range (LDR) imagery. While such algorithms have been exhaustively designed using traditional LDR images, little work has been done so far in contex of HDR content. In this thesis, we present the quantitative and qualitative analysis of HDR imagery for such task-specific algorithms. This thesis begins by identifying the most natural and important questions of using HDR content for low-level feature extraction task, which is of fundamental importance for many high-level applications such as stereo vision, localization, matching and retrieval. By conducting a performance evaluation study, we demonstrate how different HDR-based modalities enhance algorithms performance with respect to LDR on a proposed dataset. However, we observe that none of them can optimally to do so across all the scenes. To examine this sub-optimality, we investigate the importance of task-specific objectives for designing optimal modalities through an experimental study. Based on the insights, we attempt to surpass this sub-optimality by designing task-specific HDR tone-mapping operators (TMOs). In this thesis, we propose three learning based methodologies aimed at optimal mapping of HDR content to enhance the efficiency of local features extraction at each stage namely, detection, description and final matching
APA, Harvard, Vancouver, ISO, and other styles
23

Laifa, Oumeima. "A joint discriminative-generative approach for tumour angiogenesis assessment in computational pathology." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS230.

Full text
Abstract:
L’angiogenèse est le processus par lequel de nouveaux vaisseaux sanguins se forment à partir du réseaux préexistant. Au cours de l’angiogenèse tumorale, les cellules tumorales sécrètent des facteurs de croissance qui activent la prolifération et la migration des cellules et stimulent la surproduction du facteur de croissance endothélial vasculaire (VEGF). Le rôle fondamental de l’approvisionnement vasculaire dans la croissance tumorale et le developement des thérapies anticancéreuses rend l’évaluation de l’angiogenèse tumorale, cruciale dans l’évaluation de l’effet des thérapies anti-angiogéniques, en tant que thérapie anticancéreuse prometteuse. Dans cette étude, nous établissons un panel quantitatif et qualitatif pour évaluer les structures des vaisseaux sanguins de la tumeur sur des images de fluorescence non invasives et des images histopathologique sur toute la surface tumorale afin d’identifier les caractéristiques architecturales et les mesures quantitatives souvent associées à la réponse thérapeutique ou prédictive de celle-ci. Nous développons un pipeline formé de Markov Random Field (MFR) et Watershed pour segmenter les vaisseaux sanguins et les composants du micro-environnement tumoral afin d’évaluer quantitativement l’effet du médicament anti-angiogénique Pazopanib sur le système vasculaire tumoral et l’interaction avec le micro-environnement de la tumeur. Le pazopanib, agent anti-angiogénèse, a montré un effet direct sur le système vasculaire du réseau tumoral via les cellules endothéliales. Nos résultats montrent une relation spécifique entre la néovascularisation apoptotique et la densité de noyau dans une tumeur murine traitée par Pazopanib. Une évaluation qualitative des vaisseaux sanguins de la tumeur est réalisée dans la suite de l’étude. Nous avons développé un modèle de réseau de neurone discriminant-générateur basé sur un modele d’apprentissage : réseau de neurones convolutionnels (CNN) et un modèle de connaissance basé sur des règles Marked Point Process (MPP) permettant de segmenter les vaisseaux sanguins sur des images très hétérogènes à l’aide de très peu de données annotées. Nous détaillons l’intuition et la conception du modèle discriminatif-génératif, sa similarité avec les Réseaux antagonistes génératifs (GAN) et nous évaluons ses performances sur des données histopathologiques et synthétiques. Les limites et les perspectives de la méthode sont présentées à la fin de notre étude
Angiogenesis is the process through which new blood vessels are formed from pre-existing ones. During angiogenesis, tumour cells secrete growth factors that activate the proliferation and migration of endothelial cells and stimulate over production of the vascular endothelial growth factor (VEGF). The fundamental role of vascular supply in tumour growth and anti-cancer therapies makes the evaluation of angiogenesis crucial in assessing the effect of anti-angiogenic therapies as a promising anti-cancer therapy. In this study, we establish a quantitative and qualitative panel to evaluate tumour blood vessels structures on non-invasive fluorescence images and histopathological slide across the full tumour to identify architectural features and quantitative measurements that are often associated with prediction of therapeutic response. We develop a Markov Random Field (MFRs) and Watershed framework to segment blood vessel structures and tumour micro-enviroment components to assess quantitatively the effect of the anti-angiogenic drug Pazopanib on the tumour vasculature and the tumour micro-enviroment interaction. The anti-angiogenesis agent Pazopanib was showing a direct effect on tumour network vasculature via the endothelial cells crossing the whole tumour. Our results show a specific relationship between apoptotic neovascularization and nucleus density in murine tumor treated by Pazopanib. Then, qualitative evaluation of tumour blood vessels structures is performed in whole slide images, known to be very heterogeneous. We develop a discriminative-generative neural network model based on both learning driven model convolutional neural network (CNN), and rule-based knowledge model Marked Point Process (MPP) to segment blood vessels in very heterogeneous images using very few annotated data comparing to the state of the art. We detail the intuition and the design behind the discriminative-generative model, and we analyze its similarity with Generative Adversarial Network (GAN). Finally, we evaluate the performance of the proposed model on histopathology slide and synthetic data. The limits of this promising framework as its perspectives are shown
APA, Harvard, Vancouver, ISO, and other styles
24

Ayed, Ibrahim. "Neural Models for Learning Real World Dynamics and the Neural Dynamics of Learning." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS434.

Full text
Abstract:
Cette thèse se situe à l'intersection de deux domaines : d'une part celui des systèmes dynamiques, et notamment ceux qui peuvent être représentés par des équations différentielles d'évolution, et, d'autre part, celui des l'apprentissage profond. Son objectif est alors double : Il s'agit d'abord de chercher à modéliser, grâce aux techniques modernes de l'apprentissage profond, des phénomènes physiques complexes, dans divers cadres d'intérêt pour les praticiens. Ensuite, nous avons également tenté d'employer des outils issus des théories mathématiques permettant l'étude des équations différentielles afin de mieux comprendre certains aspects des dynamiques induites par l'apprentissage de réseaux de neurones profonds et leur fonctionnement
The work presented in this thesis was initially motivated by the discrepancy between the impressive performances of modern neural networks and the lack of applications to scientific problems for which data abounds. Focusing on evolution problems which are classically modelled through ordinary or partial differential equations~(O/PDEs) naturally brought us to consider the more general problem of representing and learning such equations from raw data with neural networks. This was the inception of the first part of our work. The point of view considered in this first part has a natural counterpart: what about the dynamics induced by the trajectories of the NN's weights during training or by the trajectories of data points within them during inference? Can they be usefully modelled? This question was the core of the second part of our work and, while theoretical tools other than O/PDEs happened to be useful in our analysis, our reasoning and intuition were fundamentally driven by considerations stemming from a dynamical viewpoint
APA, Harvard, Vancouver, ISO, and other styles
25

Mallik, Mohammed Tariqul Hassan. "Electromagnetic Field Exposure Reconstruction by Artificial Intelligence." Electronic Thesis or Diss., Université de Lille (2022-....), 2023. https://pepite-depot.univ-lille.fr/ToutIDP/EDENGSYS/2023/2023ULILN052.pdf.

Full text
Abstract:
Le sujet de l'exposition aux champs électromagnétiques a fait l'objetd'une grande attention à la lumière du déploiement actuel du réseaucellulaire de cinquième génération (5G). Malgré cela, il reste difficilede reconstituer avec précision le champ électromagnétique dans unerégion donnée, faute de données suffisantes. Les mesures in situ sontd'un grand intérêt, mais leur viabilité est limitée, ce qui renddifficile la compréhension complète de la dynamique du champ. Malgré legrand intérêt des mesures localisées, il existe encore des régions nontestées qui les empêchent de fournir une carte d'exposition complète. Larecherche a exploré des stratégies de reconstruction à partird'observations provenant de certains sites localisés ou de capteursdistribués dans l'espace, en utilisant des techniques basées sur lagéostatistique et les processus gaussiens. En particulier, desinitiatives récentes se sont concentrées sur l'utilisation del'apprentissage automatique et de l'intelligence artificielle à cettefin. Pour surmonter ces problèmes, ce travail propose de nouvellesméthodologies pour reconstruire les cartes d'exposition aux CEM dans unezone urbaine spécifique en France. L'objectif principal est dereconstruire des cartes d'exposition aux ondes électromagnétiques àpartir de données provenant de capteurs répartis dans l'espace. Nousavons proposé deux méthodologies basées sur l'apprentissage automatiquepour estimer l'exposition aux ondes électromagnétiques. Pour la premièreméthode, le problème de reconstruction de l'exposition est défini commeune tâche de traduction d'image à image. Tout d'abord, les données ducapteur sont converties en une image et l'image de référencecorrespondante est générée à l'aide d'un simulateur basé sur le tracédes rayons. Nous avons proposé un réseau adversarial cGAN conditionnépar la topologie de l'environnement pour estimer les cartes d'expositionà l'aide de ces images. Le modèle est entraîné sur des images de cartesde capteurs tandis qu'un environnement est donné comme entréeconditionnelle au modèle cGAN. En outre, la cartographie du champélectromagnétique basée sur le Generative Adversarial Network estcomparée au simple Krigeage. Les résultats montrent que la méthodeproposée produit des estimations précises et constitue une solutionprometteuse pour la reconstruction des cartes d'exposition. Cependant,la production de données de référence est une tâche complexe car elleimplique la prise en compte du nombre de stations de base actives dedifférentes technologies et opérateurs, dont la configuration du réseauest inconnue, par exemple les puissances et les faisceaux utilisés parles stations de base. En outre, l'évaluation de ces cartes nécessite dutemps et de l'expertise. Pour répondre à ces questions, nous avonsdéfini le problème comme une tâche d'imputation de données manquantes.La méthode que nous proposons prend en compte l'entraînement d'un réseauneuronal infini pour estimer l'exposition aux champs électromagnétiques.Il s'agit d'une solution prometteuse pour la reconstruction des cartesd'exposition, qui ne nécessite pas de grands ensembles d'apprentissage.La méthode proposée est comparée à d'autres approches d'apprentissageautomatique basées sur les réseaux UNet et les réseaux adversairesgénératifs conditionnels, avec des résultats compétitifs
The topic of exposure to electromagnetic fields has received muchattention in light of the current deployment of the fifth generation(5G) cellular network. Despite this, accurately reconstructing theelectromagnetic field across a region remains difficult due to a lack ofsufficient data. In situ measurements are of great interest, but theirviability is limited, making it difficult to fully understand the fielddynamics. Despite the great interest in localized measurements, thereare still untested regions that prevent them from providing a completeexposure map. The research explored reconstruction strategies fromobservations from certain localized sites or sensors distributed inspace, using techniques based on geostatistics and Gaussian processes.In particular, recent initiatives have focused on the use of machinelearning and artificial intelligence for this purpose. To overcome theseproblems, this work proposes new methodologies to reconstruct EMFexposure maps in a specific urban area in France. The main objective isto reconstruct exposure maps to electromagnetic waves from some datafrom sensors distributed in space. We proposed two methodologies basedon machine learning to estimate exposure to electromagnetic waves. Forthe first method, the exposure reconstruction problem is defined as animage-to-image translation task. First, the sensor data is convertedinto an image and the corresponding reference image is generated using aray tracing-based simulator. We proposed an adversarial network cGANconditioned by the environment topology to estimate exposure maps usingthese images. The model is trained on sensor map images while anenvironment is given as conditional input to the cGAN model.Furthermore, electromagnetic field mapping based on the GenerativeAdversarial Network is compared to simple Kriging. The results show thatthe proposed method produces accurate estimates and is a promisingsolution for exposure map reconstruction. However, producing referencedata is a complex task as it involves taking into account the number ofactive base stations of different technologies and operators, whosenetwork configuration is unknown, e.g. powers and beams used by basestations. Additionally, evaluating these maps requires time andexpertise. To answer these questions, we defined the problem as amissing data imputation task. The method we propose takes into accountthe training of an infinite neural network to estimate exposure toelectromagnetic fields. This is a promising solution for exposure mapreconstruction, which does not require large training sets. The proposedmethod is compared with other machine learning approaches based on UNetnetworks and conditional generative adversarial networks withcompetitive results
APA, Harvard, Vancouver, ISO, and other styles
26

Letheule, Nathan. "Apports de l'Apprentissage Profond pour la simulation d'images SAR." Electronic Thesis or Diss., université Paris-Saclay, 2024. https://theses.hal.science/tel-04651643.

Full text
Abstract:
La simulation est un outil précieux pour de nombreuses applications d'imagerie SAR, cependant, les images simulées de grandes tailles ne sont pas encore assez réalistes pour tromper un expert en images radar. Cette thèse propose d'évaluer dans quelle mesure l'utilisation des avancées récentes en matière d'apprentissage profond peut permettre d'améliorer la qualité des simulations. Dans un premier temps, nous proposons de définir une méthode de mesure de réalisme des images SAR simulées en les comparant à des images réelles. Les métriques ainsi établies serviront ensuite à l'évaluation des résultats de simulation. Dans un second temps, deux cadres de simulation basés sur l'apprentissage profond sont proposés, avec des philosophies différentes. Le premier ne prend pas en compte la connaissance physique de l'imagerie, et propose d'apprendre la transformation d'une image optique vers une image radar à l'aide d'une architecture cGAN. Le second s'appuie sur un simulateur physique développé à l'Onera (EMPRISE), et utilise la génération automatique d'entrées à partir d'une segmentation sémantique d'une image optique de la scène, via l'apprentissage profond. Pour cette dernière piste prometteuse, une réflexion est menée sur la description de l'entrée et son impact sur le résultat final de simulation. Enfin, des pistes d'enrichissement par apprentissage profond des images générées par le simulateur physique seront proposées, notamment à travers des réseaux de diffusion, et des approches text-to-image
Simulation is a valuable tool for many SAR imaging applications, however, large simulated images are not yet realistic enough to fool a radar image expert. This thesis proposes to evaluate to what extent the use of recent advances in deep learning can improve the quality of simulations. As a first step, we propose to define a method for measuring the realism of simulated SAR images by comparing them with real images. The resulting metrics will then be used to evaluate simulation results. Secondly, two simulation frameworks based on deep learning are proposed, with different philosophies. The first does not take into account physical knowledge of the imagery, and proposes to learn the transformation of an optical image into a radar image using a cGAN architecture. The second is based on a physical simulator developed at Onera (EMPRISE), and uses automatic input generation from semantic segmentation of an optical image of the scene, via deep learning. For this last promising avenue, we are looking into the description of the input and its impact on the final simulation result. Finally, we will be proposing ways of enriching the images generated by the physical simulator using deep learning, in particular through diffusion networks and text-to-image approaches
APA, Harvard, Vancouver, ISO, and other styles
27

Lu, Jingxian. "L'auto-diagnostic dans les réseaux autonomes : application à la supervision de services multimédia sur réseau IP de nouvelle génération." Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14461/document.

Full text
Abstract:
Les réseaux autonomes représentent un intérêt certain pour les opérateurs de télécommunications. L’auto-diagnostic, pour la détection des pannes et des dysfonctionnements, est une fonction critique dans le cadre de ces réseaux.Nous avons opté pour l’utilisation d’un diagnostic à base de modèles car il permet un diagnostic automatique, distribué et adapté à l'architecture des réseaux autonomes. Ce diagnostic est basé sur une modélisation explicite des comportements normaux ou anormaux du système. Nous utilisons ensuite un algorithme de diagnostic générique qui s'appuie sur cette modélisation pour réaliser l’auto-diagnostic. La modélisation utilisée est à base de graphe causal. Elle est une représentation intuitive et efficace des relations de causalités qui existent entre les observations et les pannes.Notre algorithme d’auto-diagnostic qui s’appuie sur l’utilisation de graphes causaux, fonctionne sur le principe suivant : lorsqu’une alarme est déclenchée, l’algorithme est lancé et, grâce aux relations de causalité entre l’alarme et les causes, les causes primaires vont pouvoir être localisées. Puisque le graphe causal permet une modélisation modulaire et extensible, il est possible de le séparer ou de le fusionner pour répondre aux besoins des services et architectures de communication. Cette caractéristique nous permet de proposer un algorithme distribué qui s’adapte à l’architecture des réseaux autonomes. Nous avons, ainsi, proposé un algorithme d’auto-diagnostic qui permet de réaliser le diagnostic distribué correspondant à l’architecture du réseau autonome afin de réaliser un diagnostic global.Nous avons implémenté cet algorithme sur une plateforme OpenIMS, et nous avons montré que notre algorithme d'auto-diagnostic pourrait être utilisé pour différents types de service. Les résultats obtenus correspondent bien à ce qui est attendu
The autonomic networks show certain interest to manufacturers and operators of telecommunications. The self-diagnosis, the detection of failure and malfunction, is a critical issue in the context of these networks.We choose based-model diagnosis because it allows an automatic diagnosis, and is suitable to distributed network architecture. This diagnosis is based on an explicit modeling of normal and abnormal behavior of the system. We then use a generic diagnostic algorithm that uses this modeling to perform self-diagnosis. The modeling used is based on causal graph. It is an intuitive and efficient representation of causal relationships between observations and failures.The self-diagnosis algorithm we proposed based on the use of causal graphs. The principle is: when an alarm is triggered, the algorithm is run and, with the causal relationships between alarms and causes, the principal causes will be located. Since the causal graph modeling allows a modular and extensible model, it is possible to separate or merge according to the needs of services and communication architectures. This feature allows us to propose a distributed algorithm that adapts to autonomic network architecture. We have thus proposed a self-diagnosis algorithm that allows for the diagnosis corresponding to the autonomic network architecture to realize a global diagnosis.We have implemented this algorithm on a platform OpenIMS, and we showed that our self-diagnostic algorithm could be used for different types of services. The results of implement correspond to what is expected
APA, Harvard, Vancouver, ISO, and other styles
28

Oquab, Maxime. "Convolutional neural networks : towards less supervision for visual recognition." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEE061.

Full text
Abstract:
Les réseaux de neurones à convolution sont des algorithmes d’apprentissage flexibles qui tirent efficacement parti des importantes masses de données qui leur sont fournies pour l’entraînement. Malgré leur utilisation dans des applications industrielles dès les années 90, ces algorithmes n’ont pas été utilisés pour la reconnaissance d’image à cause de leurs faibles performances avec les images naturelles. C’est finalement grâce a l’apparition d’importantes quantités de données et de puissance de calcul que ces algorithmes ont pu révéler leur réel potentiel lors de la compétition ImageNet, menant à un changement de paradigme en reconnaissance d’image. La première contribution de cette thèse est une méthode de transfert d’apprentissage dans les réseaux à convolution pour la classification d’image. À l’aide d’une procédure de pré-entraînement, nous montrons que les représentations internes d’un réseau à convolution sont assez générales pour être utilisées sur d’autres tâches, et meilleures lorsque le pré-entraînement est réalisé avec plus de données. La deuxième contribution de cette thèse est un système faiblement supervisé pour la classification d’images, pouvant prédire la localisation des objets dans des scènes complexes, en utilisant, lors de l’entraînement, seulement l’indication de la présence ou l’absence des objets dans les images. La troisième contribution de cette thèse est une recherche de pistes de progression en apprentissage non-supervisé. Nous étudions l’algorithme récent des réseaux génératifs adversariaux et proposons l’utilisation d’un test statistique pour l’évaluation de ces modèles. Nous étudions ensuite les liens avec le problème de la causalité, et proposons un test statistique pour la découverte causale. Finalement, grâce a un lien établi récemment avec les problèmes de transport optimal, nous étudions ce que ces réseaux apprennent des données dans le cas non-supervisé
Convolutional Neural Networks are flexible learning algorithms for computer vision that scale particularly well with the amount of data that is provided for training them. Although these methods had successful applications already in the ’90s, they were not used in visual recognition pipelines because of their lesser performance on realistic natural images. It is only after the amount of data and the computational power both reached a critical point that these algorithms revealed their potential during the ImageNet challenge of 2012, leading to a paradigm shift in visual recogntion. The first contribution of this thesis is a transfer learning setup with a Convolutional Neural Network for image classification. Using a pre-training procedure, we show that image representations learned in a network generalize to other recognition tasks, and their performance scales up with the amount of data used in pre-training. The second contribution of this thesis is a weakly supervised setup for image classification that can predict the location of objects in complex cluttered scenes, based on a dataset indicating only with the presence or absence of objects in training images. The third contribution of this thesis aims at finding possible paths for progress in unsupervised learning with neural networks. We study the recent trend of Generative Adversarial Networks and propose two-sample tests for evaluating models. We investigate possible links with concepts related to causality, and propose a two-sample test method for the task of causal discovery. Finally, building on a recent connection with optimal transport, we investigate what these generative algorithms are learning from unlabeled data
APA, Harvard, Vancouver, ISO, and other styles
29

Yan, Sen. "Personalizing facial expressions by exploring emotional mental prototypes." Electronic Thesis or Diss., CentraleSupélec, 2023. http://www.theses.fr/2023CSUP0002.

Full text
Abstract:
Les expressions faciales sont une forme essentielle de communication non verbale. Aujourd’hui, les techniques de manipulation des expressions faciales (FEM) ont envahi notre quotidien. Cependant, dans le contexte de l’application, plusieurs exigences doivent être satisfaites. Diversité : les prototypes d’expression faciale doivent être multiples et différents selon les utilisateurs. Flexibilité : les expressions faciales doivent être personnalisées, c’est-à-dire que le système peut trouver le prototype d’expression faciale qui répond aux besoins des utilisateurs. Exhaustivité : la plupart des technologies FEM ne peuvent traiter que les six émotions de base, alors qu’il existe plus de 4000 émotions dans le monde réel. Absence d’expertise : le système FEM doit pouvoir être contrôlé par n’importe qui sans nécessiter de connaissances spécialisées (par exemple, des psychologues). Efficacité : le système avec interaction doit tenir compte de la fatigue de l’utilisateur. Dans cette thèse, pour répondre à toutes les exigences, nous avons proposé une approche interdisciplinaire en combinant les réseaux adversaires génératifs avec le processus de corrélation renversée psychophysique. De plus, nous avons créé un algorithme génétique microbien interactif pour optimiser l’ensemble du système
Facial expressions are an essential form of nonverbal communication. Nowfacial expression manipulation (FEM) techniques have flooded our daily lives. However,in the application context, there are several requirements that need to be addressed. Diversity: facial expression prototypes should be multiple and different between different users. Flexibility: facial expressions should be personalized, i.e., the system can find the facial expression prototype that can meet the need of the users. Exhaustiveness: most FEM technologies can only deal with the six basic emotions, whereas there are more than 4000 emotion labels. Expertise-free: the FEM system should be controllable by anyone withoutthe need for expert knowledge (e.g., psychol-ogists). Efficiency: the system with interactionshould consider user fatigue. In this thesis, to fulfill all the requirements,we proposed an interdisciplinary approach by combining generative adversarial networks with the psychophysical reverse correlation process. Moreover, we created an interactive microbial genetic algorithm to optimize the entire system
APA, Harvard, Vancouver, ISO, and other styles
30

Douwes, Constance. "On the Environmental Impact of Deep Generative Models for Audio." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS074.

Full text
Abstract:
Cette thèse étudie l'impact environnemental des modèles d'apprentissage profond pour la génération audio et vise à mettre le coût de calcul au cœur du processus d'évaluation. En particulier, nous nous concentrons sur différents types de modèles d'apprentissage profond spécialisés dans la synthèse audio de formes d'onde brutes. Ces modèles sont désormais un élément clé des systèmes audio modernes, et leur utilisation a considérablement augmenté ces dernières années. Leur flexibilité et leurs capacités de généralisation en font des outils puissants dans de nombreux contextes, de la synthèse de texte à la parole à la génération audio inconditionnelle. Cependant, ces avantages se font au prix de sessions d'entraînement coûteuses sur de grandes quantités de données, exploitées sur du matériel dédié à forte consommation d'énergie, ce qui entraîne d'importantes émissions de gaz à effet de serre. Les mesures que nous utilisons en tant que communauté scientifique pour évaluer nos travaux sont au cœur de ce problème. Actuellement, les chercheurs en apprentissage profond évaluent leurs travaux principalement sur la base des améliorations de la précision, de la log-vraisemblance, de la reconstruction ou des scores d'opinion, qui occultent tous le coût de calcul des modèles génératifs. Par conséquent, nous proposons d'utiliser une nouvelle méthodologie basée sur l'optimalité de Pareto pour aider la communauté à mieux évaluer leurs travaux tout en ramenant l'empreinte énergétique -- et in fine les émissions de carbone -- au même niveau d'intérêt que la qualité du son. Dans la première partie de cette thèse, nous présentons un rapport complet sur l'utilisation de diverses mesures d'évaluation des modèles génératifs profonds pour les tâches de synthèse audio. Bien que l'efficacité de calcul soit de plus en plus abordée, les mesures de qualité sont les plus couramment utilisées pour évaluer les modèles génératifs profonds, alors que la consommation d'énergie n'est presque jamais mentionnée. Nous abordons donc cette question en estimant le coût en carbone de la formation des modèles génératifs et en le comparant à d'autres coûts en carbone notables pour démontrer qu'il est loin d'être insignifiant. Dans la deuxième partie de cette thèse, nous proposons une évaluation à grande échelle des vocodeurs neuronaux pervasifs, qui sont une classe de modèles génératifs utilisés pour la génération de la parole, conditionnée par le mel-spectrogramme. Nous introduisons une analyse multi-objectifs basée sur l'optimalité de Pareto à la fois de la qualité de l'évaluation humaine et de la consommation d'énergie. Dans ce cadre, nous montrons que des modèles plus légers peuvent être plus performants que des modèles plus coûteux. En proposant de s'appuyer sur une nouvelle définition de l'efficacité, nous entendons fournir aux praticiens une base de décision pour choisir le meilleur modèle en fonction de leurs exigences. Dans la dernière partie de la thèse, nous proposons une méthode pour réduire les coûts associés à l'inférence des modèle génératif profonds, basée sur la quantification des réseaux de neurones. Nous montrons un gain notable sur la taille des modèles et donnons des pistes pour l'utilisation future de ces modèles dans des systèmes embarqués. En somme, nous fournissons des clés pour mieux comprendre l'impact des modèles génératifs profonds pour la synthèse audio ainsi qu'un nouveau cadre pour développer des modèles tout en tenant compte de leur impact environnemental. Nous espérons que ce travail permettra de sensibiliser les chercheurs à la nécessité d'étudier des modèles efficaces sur le plan énergétique tout en garantissant une qualité audio élevée
In this thesis, we investigate the environmental impact of deep learning models for audio generation and we aim to put computational cost at the core of the evaluation process. In particular, we focus on different types of deep learning models specialized in raw waveform audio synthesis. These models are now a key component of modern audio systems, and their use has increased significantly in recent years. Their flexibility and generalization capabilities make them powerful tools in many contexts, from text-to-speech synthesis to unconditional audio generation. However, these benefits come at the cost of expensive training sessions on large amounts of data, operated on energy-intensive dedicated hardware, which incurs large greenhouse gas emissions. The measures we use as a scientific community to evaluate our work are at the heart of this problem. Currently, deep learning researchers evaluate their works primarily based on improvements in accuracy, log-likelihood, reconstruction, or opinion scores, all of which overshadow the computational cost of generative models. Therefore, we propose using a new methodology based on Pareto optimality to help the community better evaluate their work's significance while bringing energy footprint -- and in fine carbon emissions -- at the same level of interest as the sound quality. In the first part of this thesis, we present a comprehensive report on the use of various evaluation measures of deep generative models for audio synthesis tasks. Even though computational efficiency is increasingly discussed, quality measurements are the most commonly used metrics to evaluate deep generative models, while energy consumption is almost never mentioned. Therefore, we address this issue by estimating the carbon cost of training generative models and comparing it to other noteworthy carbon costs to demonstrate that it is far from insignificant. In the second part of this thesis, we propose a large-scale evaluation of pervasive neural vocoders, which are a class of generative models used for speech generation, conditioned on mel-spectrogram. We introduce a multi-objective analysis based on Pareto optimality of both quality from human-based evaluation and energy consumption. Within this framework, we show that lighter models can perform better than more costly models. By proposing to rely on a novel definition of efficiency, we intend to provide practitioners with a decision basis for choosing the best model based on their requirements. In the last part of the thesis, we propose a method to reduce the inference costs of neural vocoders, based on quantizated neural networks. We show a significant gain on the memory size and give some hints for the future use of these models on embedded hardware. Overall, we provide keys to better understand the impact of deep generative models for audio synthesis as well as a new framework for developing models while accounting for their environmental impact. We hope that this work raises awareness on the need to investigate energy-efficient models simultaneously with high perceived quality
APA, Harvard, Vancouver, ISO, and other styles
31

Maachaoui, Mohamed. "Sécurité et performances des réseaux de nouvelle génération." Phd thesis, Toulouse, INPT, 2015. http://oatao.univ-toulouse.fr/14266/1/Maachaoui.pdf.

Full text
Abstract:
L’IMS (IP Multimedia Subsystem) constitue l’architecture clé de contrôle pour les réseaux de nouvelle génération (NGN : Next Generation Network). IMS offre aux opérateurs réseaux la possibilité d'étendre leurs services, en intégrant la voix et des communications multimédia et de les livrer dans de nouveaux environnements avec de nouveaux objectifs. Sa sécurité totale mais à moindre coût est donc primordiale, principalement l’authentification. En IMS l’authentification est divisée en deux phases, une au niveau du domaine PS (Packet-Switch) avec le protocole 3GPP-AKA, et l’autre au niveau IMS en utilisant le protocole IMS-AKA. Dans notre première contribution, nous proposons un nouveau protocole d’authentification plus sécurisé que celui utilisé en IMS (IMS-AKA) et plus performant en termes d’utilisation de la bande passante et de temps de traitement. Notre méthode d’analyse repose sur la quantification de la signalisation induite par l’authentification IMS. La quantification est effectuée à l’aide d’expérimentations réelles. Sur la base des résultats obtenues, nous pouvons confirmer que notre protocole (1) peut économiser au moins 21,5% du trafic SIP/Cx par rapport à l’IMS-AKA, (2) permet de réduire la consommation de la bande passante de 27% par rapport à l’IMS-AKA, (3) résiste aux attaques atteignant la confidentialité et l’intégrité des données lors d’un enregistrement IMS (validé par AVISPA). Dans notre seconde contribution, nous avons présenté un nouveau modèle, nommé virtual walled-garden, de fourniture de services centré sur l'utilisateur en IMS. Ce modèle de fourniture de service permet d'offrir plus de liberté d'utiliser les services de tout fournisseur de contenu en fonction des besoins et préférences des utilisateurs. De cette manière les trois parties (utilisateur, fournisseurs de services et opérateur IMS) sont satisfaites. Les utilisateurs auront accès à un plus large éventail de services soutenus par l'IMS, les fournisseurs de services peuvent mettre en œuvre un large éventail de services IMS/SIP sans aucun investissement sur la mise en œuvre d'un réseau de cœur IMS ou de sa maintenance. Quant aux opérateurs cette façon de faire constitue une nouvelle forme de partenariat d'affaires avec les fournisseurs de services. Le modèle virtual walled-garden se base sur une fédération d'identité multi niveaux pour prendre en considération plusieurs niveaux de sécurité selon la criticité des applications sollicitées.
APA, Harvard, Vancouver, ISO, and other styles
32

Rifai, Myriana. "Réseaux virtualisés de prochaine génération basés sur SDN." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4072/document.

Full text
Abstract:
Les réseaux logiciels (Software Defined Network - SDN) permettent la programmation du réseau et facilitent sa configuration. Bien qu'SDN améliore les performances, il reste confronté à de multiples défis. Dans cette thèse, nous avons développé des solutions qui constituent un premier pas vers les réseaux SDN de prochaine génération. D’abord, nous présentons MINNIE qui permet la scalabilité des commutateurs SDN, qui ne supportent que quelques milliers de règles dans leur coûteuse mémoire TCAM. MINNIE comprime dynamiquement les règles de routage installées dans la TCAM, augmentant ainsi le nombre de règles pouvant être installées. Ensuite, nous abordons le problème de la dégradation de performance des flux courts avec un prototype d’ordonnancement qui exploite les statistiques des commutateurs pour diminuer leur délai de bout-en-bout. Puis, nous visons à diminuer l’intervalle de protection de 50ms qui n’est plus adapté aux applications modernes et réduit leur qualité d’expérience. Notre solution PRoPHYS s’appuie sur les statistiques des commutateurs dans les réseaux hybrides pour découvrir les pannes de liens plus vite que les solutions existantes. Enfin, nous abordons le problème de l’efficacité énergétique qui souvent mène à une dégradation de performance. Nous présentons SENAtoR, qui exploite les nœuds SDN en réseaux hybrides pour éteindre les nœuds réseau sans entraver la performance. Également, nous présentons SEaMLESS qui convertit le service fourni par une machine virtuelle inactive en une fonction de réseaux virtuelle pour permettre à l’administrateur d’utiliser les ressources bloquées tout en maintenant la disponibilité du service
Software Defined Networking (SDN) was created to provide network programmability and ease complex configuration. Though SDN enhances network performance, it still faces multiple limitations. In this thesis, we build solutions that form a first step towards creating next-generation SDN based networks. In the first part, we present MINNIE to scale the number of rules of SDN switches far beyond the few thousands rules commonly available in TCAM memory, which permits to handle typical data center traffic at very fine grain. To do so MINNIE dynamically compresses the routing rules installed in the TCAM, increasing the number of rules that can be installed. In the second part, we tackle the degraded performance of short flows and present a coarse grained scheduling prototype that leverages SDN switch statistics to decrease their end-to-end delay. Then, we aim at decreasing the 50ms failure protection interval which is not adapted to current broadband speeds and can lead to degraded Quality of Experience. Our solution PRoPHYS leverages the switch statistics in hybrid networks to anticipate link failures by drastically decreasing the number of packets lost. Finally, we tackle the greening problem where often energy efficiency comes at the cost of performance degradation. We present SENAtoR, our solution that leverages SDN nodes in hybrid networks to turn off network devices without hindering the network performance. Finally, we present SEaMLESS that converts idle virtual machines into virtual network functions (VNF) to enable the administrator to further consolidate the data center by turning off more physical servers and reuse resources (e.g. RAM) that are otherwise monopolized
APA, Harvard, Vancouver, ISO, and other styles
33

Hennane, Youssef. "Réseaux électriques en présence de génération d'énergies distribuée." Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0183.

Full text
Abstract:
Les micro-réseaux jouent un rôle important dans l'électrification des zones rurales et éloignées car ils peuvent fonctionner en mode îloté sans être dépendants du réseau principal, facilitant ainsi l'accès à l'électricité pour ces zones. Les micro-réseaux fonctionnant en mode îloté nécessite des éléments de stockage à énergie stockée et à puissance importantes pour assurer la fiabilité de l'alimentation électrique des différentes charges en raison de la nature intermittente des sources d'énergie renouvelables. Ce problème est plus difficile à résoudre dans les micro-réseaux à topologies simples dans lesquels les sources et les charges sont reliées à un seul point commun de connexion par des lignes électriques (micro-réseaux mono-PCC). Une solution pour assurer une plus grande disponibilité de l'énergie, avec des éléments de stockage de taille réduite et donc à moindre coût, est la mise en place de micro-réseaux de topologies à structure maillée avec plusieurs sources distribuées de natures différentes connectées à ses différents points de connexion (micro-réseaux multi-PCC). L'un des défis à relever pour les micro-réseaux maillés est de synchroniser et de connecter tous les générateurs distribués tout en assurant la fonctionnalité "plug and play" et en respectant le partage de la puissance active et réactive entre les différentes unités de génération distribuées. Les méthodes les plus utilisées pour réaliser le partage de la puissance active et réactive des DG sont appliquées au niveau primaire du contrôle des micro-réseaux et sont conçues sur la base d'approches « Droop control ». Cependant, la plupart de ces méthodes ne sont efficaces que dans les micro-réseaux mono-PCC et non pas dans les micro-réseaux maillés multi-PCC. Un autre problème est que l'utilisation de méthodes basées sur la commande Droop pour contrôler les micro-réseaux au niveau primaire peut entraîner une déviation de la tension et de la fréquence du micro-réseau de leurs valeurs nominales, affectant la qualité de l'énergie et le bon fonctionnement du micro-réseau.La thèse est divisée en trois parties. La première partie présente le concept des micro-réseaux et une revue de la littérature sur leurs stratégies de contrôle. Dans la deuxième partie, nous proposons une nouvelle stratégie de commande droop non linéaire des générateurs distribués des micro-réseaux maillés, qu'ils fonctionnent en modes îlotés ou connectés au réseau. Cette stratégie assure la synchronisation sécurisée des sources distribuées et le partage précis des puissances active et réactive consommées entre elles. Cette stratégie permet de compenser les déviations de la tension et de la fréquence d'un micro-réseau îloté par le déploiement d'un contrôle secondaire supplémentaire pour chacun de ses générateurs en utilisant une seule information sur la tension d'un nœud pilote. Cette méthode de contrôle permet également une transition sans à-coup du mode îloté au mode connecté au réseau sans affecter le partage de la puissance active et réactive de ses sources pendant la synchronisation, ainsi que le contrôle des puissances actives et réactives échangées avec le réseau principal en mode connecté au réseau. La troisième partie propose une commande Droop non linéaire distribuée à base de consensus pour un partage précis des puissances active et réactive consommée ainsi que pour la restauration de la fréquence et de la tension secondaires dans des micro-réseaux îlotés reconfigurables maillés. Les contrôleurs pour le réglage primaire et secondaire sont ajustés localement et ne nécessitent pas la connaissance de la structure du micro-réseau. L'efficacité des commandes proposées dans cette thèse ainsi que leur robustesse sont prouvées par simulation à l'aide de Simscape et sont validées par des tests HIL. De plus, la stabilité des systèmes est étudiée sur la base des modèles mathématiques établis pour les micro-réseaux maillés étudiés, contrôlés par les contrôles distribués proposés
Microgrids play an important role in the electrification of rural and remote areas because they can operate in islanded mode without being dependent on the main grid, thus facilitating access to electricity for these areas.Microgrids operating in island mode require high energy and power storage elements to ensure reliable power supply of loads due to the intermittent nature of renewable energy sources. This problem is more difficult to solve in microgrids with simple topologies in which sources and loads are connected to a single common point of connection via power lines (single-PCC microgrids). A solution to ensure a higher availability of energy, with smaller storage elements and therefore lower cost, is the implementation of microgrids with mesh structure topologies with several distributed sources of different natures connected to its different connection points (multi-PCC microgrids). One of the challenges for mesh microgrids is to synchronize and connect all the distributed generators while ensuring "plug and play" functionality and respecting the active and reactive power sharing between the different distributed generation units. The most widely used methods to achieve DG active and reactive power sharing are applied at the primary level of microgrid control and are designed based on "Droop control" approaches. However, most of these methods are only effective in single-PCC microgrids and not in multi-PCC mesh microgrids. Another problem is that using Droop control-based methods to control microgrids at the primary level can cause the microgrid voltage and frequency to deviate from their nominal values, affecting the power quality and proper operation of the microgrid.The thesis is divided into three parts. The first part presents the concept of microgrids and a review of the literature on their control strategies. In the second part, we propose a new nonlinear droop control strategy for distributed generators of mesh microgrids, whether they operate in islanded or grid-connected modes. This strategy ensures the secure synchronization of the distributed sources and the accurate power sharing between them. This strategy allows compensating voltage and frequency deviations of an islanded microgrid by deploying an additional secondary control for each of its generators using a single information on the voltage of a pilot node. This control method also allows a smooth transition from islanded to grid-connected mode without affecting the active and reactive power sharing of its sources during synchronization, as well as the control of active and reactive power exchanged with the main grid in grid-connected mode. The third part proposes a consensus-based distributed nonlinear Droop control for accurate sharing of active and reactive powers between distributed sources as well as for frequency and voltage restoration in reconfigurable islanded mesh microgrids. The controllers for primary and secondary controls are locally adjusted and do not require knowledge of the microgrid structure. The efficiency of the proposed controls proposed in this thesis as well as their robustness are proved by simulation using Simscape and are validated by HIL tests. Also, the stability of the systems is studied based on the developed mathematical model of two different mesh microgrids controlled by both proposed distributed controls
APA, Harvard, Vancouver, ISO, and other styles
34

Rogez, Vincent. "Modélisation simplifiée de sources de production décentralisée pour des etudes de dynamique des réseaux : application à l'intégration d'une production éolienne dans un réseau de distribution insulaire." Artois, 2004. http://www.theses.fr/2004ARTO0206.

Full text
Abstract:
Depuis un peu plus de dix ans, le secteur électrique est confronté à un flux continu de directives européennes le concernant. Ces dernières sollicitent notamment un recours accru aux énergies renouvelables et en particulier à l'énergie éolienne. Ces mutations ont une incidence notable sur le fonctionnement du système électrique car ces nouveaux moyens de production présentent des capacités de production incertaines, souvent fluctuantes et non corrélées à la charge. Par conséquent, il convient d'étudier la faisabilité d'un réseau aux sources d'énergie dispersées diverses. L'étude du fonctionnement du système électrique implique la mise au point de modèles de ces unités de production nouvelles. Ces modèles doivent être simples car leur utilisation s'envisage dans le cadre d'études à l'échelle d'un pays voire d'un réseau interconnecté continental. Ils doivent cependant être conçus pour permettre la prise en compte d'une large plage de fonctionnement allant du régime établi à la réponse transitoire en cas de court- circuit proche. Les modèles développés dans le cadre de ce travail répondent à ces deux exigences contradictoires. Ainsi, dans ce travail de thèse, il est proposé un modèle d'une turbine à gaz aérodérivée qui connaît un engouement important au niveau des pays industrialisés et qui est quasiment systématiquement associée à une cogénération. Des modèles génériques de la partie puissance et de la commande des principales chaînes de conversion éolienne actuelles sont également proposés. L'architecture complète de la commande d'une éolienne avec réglage de l'angle de calage (pitch control) a notamment été développée. Enfin, une étude de l'intégration d'éoliennes dans un réseau de distribution isolé est présentée. Cette étude a permis de définir des lois de commande pour la participation de la production éolienne aux réglages de tension et de fréquence
For about ten years, the electric sector has been confronted with more and more European directives. They request, in particular, a high penetration of renewable energies and especially of wind energy. The insertion of these new technologies in the current power system induces new problems such as power quality, flickers, stability. . . According to these new problems, specific studies must be carried out. Consequently, it is essential to use simplified models of dispersed generation systems. In this thesis, a simplified model of aero-derivative gas turbine is proposed. This gas turbine is very successful and is almost always used jointly with a cogeneration application. Generic models of wind generators are also presented. In particular, the complete architecture ordering of a pitch control wind turbine is in particular developed. Finally, a study of the integration of wind turbines in an insular electrical grid is presented. This study has made it possible to define control laws for the participation of wind production in voltage and frequency control
APA, Harvard, Vancouver, ISO, and other styles
35

Crestel, Léopold. "Neural networks for automatic musical projective orchestration." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS625.

Full text
Abstract:
L’orchestration est l’art de composer un discours musical en combinant les timbres instrumentaux. La complexité de la discipline a longtemps été un frein à l’élaboration d’une théorie de l’orchestration. Ainsi, contrairement à l’harmonie ou au contrepoint qui s’appuient sur de solides constructions théoriques, l’orchestration reste de nos jours encore essentiellement enseignée à travers l’observation d’exemples canoniques. Notre objectif est de développer un système d’orchestration automatique de pièce pour piano en nous appuyant sur des méthodes d’apprentissage statistique. Nous nous focalisons sur le répertoire classique, cette technique d’écriture étant courante pour des compositeurs tels que Mozart ou Beethoven qui réalisaient d’abord une ébauche pianistique de leurs pièces orchestrales. En observant une large base de donnée de pièces pour orchestre et leurs réductions pour piano, nous évaluons l'aptitude des réseaux de neurones à apprendre les mécanismes complexes qui régissent l’orchestration. La vaste capacité d’apprentissage des architectures profondes semble adaptée à la difficulté du problème. Cependant, dans un contexte orchestrale, les représentations musicales symboliques traditionnelles donnent lieu à des vecteurs parcimonieux dans des espaces de grande dimension. Nous essayons donc de contourner ces difficultés en utilisant des méthodes auto-régressives et des fonctions d’erreur adaptées. Finalement, nous essayons de développer un système capable d'orchestrer en temps réel l'improvisation d'un pianiste
Orchestration is the art of composing a musical discourse over a combinatorial set of instrumental possibilities. For centuries, musical orchestration has only been addressed in an empirical way, as a scientific theory of orchestration appears elusive. In this work, we attempt to build the first system for automatic projective orchestration, and to rely on machine learning. Hence, we start by formalizing this novel task. We focus our effort on projecting a piano piece onto a full symphonic orchestra, in the style of notable classic composers such as Mozart or Beethoven. Hence, the first objective is to design a system of live orchestration, which takes as input the sequence of chords played by a pianist and generate in real-time its orchestration. Afterwards, we relax the real-time constraints in order to use slower but more powerful models and to generate scores in a non-causal way, which is closer to the writing process of a human composer. By observing a large dataset of orchestral music written by composers and their reduction for piano, we hope to be able to capture through statistical learning methods the mechanisms involved in the orchestration of a piano piece. Deep neural networks seem to be a promising lead for their ability to model complex behaviour from a large dataset and in an unsupervised way. More specifically, in the challenging context of symbolic music which is characterized by a high-dimensional target space and few examples, we investigate autoregressive models. At the price of a slower generation process, auto-regressive models allow to account for more complex dependencies between the different elements of the score, which we believe to be of the foremost importance in the case of orchestration
APA, Harvard, Vancouver, ISO, and other styles
36

Brehon, Yannick. "Conception et Ingénierie de Réseaux Nouvelle Génération Orientés Ethernet." Phd thesis, Télécom ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00002564.

Full text
Abstract:
L'augmentation des besoins des consommateurs particuliers et professionnels, ainsi que les évolutions rapides de la technologie, sont à la base de la conception des Réseaux de Nouvelle Génération (RNG). L'optimisation des ressources du réseau permettent aux opérateurs de délivrer efficacement des services de grande qualité à un coût réduit. Du fait de la prééminence des technologies de type Ethernet chez les clients et dans le segment d'accès des réseaux,et de son coût réduit, Ethernet est le candidat naturel pour devenir la technologie privilégiée dans les RNG. Dans le segment métropolitain des réseaux, des initiatives ont abouti à la spécification de variantes d'Ethernet permettant d'associer les flux clients à des Réseaux Locaux Virtuels (ou VLANs). Dans cette thèse, nous investiguons le moyen d'associer optimalement ces VLANs aux arbres couvrants utilisés par Ethernet, ce qui permet de faire de l'ingénierie de trafic. Dans le cœur de réseau, plusieurs approches cherchent à faire d'Ethernet une technologie orientée-connexion et contrôlée par GMPLS (tels que les "Layer 2-LSPs" et PBB-TE). Dans cette thèse, un nouveau type de connexion est introduit, pour les technologies orientées connexion et contrôlées par GMPLS : le bus-LSP. Tant pour les réseaux mono-couches que pour les réseaux multi-couches, les bus-LSP permettent à l'opérateur de réduire ses coûts de manière significative. Nous quantifions cette réduction de coûts, tant opérationnels que d'investissements. Nous proposons des méthodes d'ingénierie pour déployer efficacement les bus-LSPs. Enfin, nous détaillons aussi les extensions protocolaires nécéssaires au contrôle d'un réseau utilisant des bus-LSPs.
APA, Harvard, Vancouver, ISO, and other styles
37

Khawam, Kinda. "Ordonnancement opportuniste dans les réseaux mobiles de nouvelle génération." Phd thesis, Télécom ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00002059.

Full text
Abstract:
L'Internet a connu un essor remarquable ces dernières années. Cet essor n'a pas été restreint aux réseaux fixes mais a gagné récemment les réseaux mobiles. Les réseaux sans fil, initialement conçus pour véhiculer exclusivement des services voix, s'adaptent progressivement à ces changements pour transporter des services data. Avec un besoin grandissant pour accéder à ces nouveaux services, proposer des méthodes performantes pour gérer la ressource radio et fournir des garanties de performances aux services data mobiles est désormais d'une importance capitale. L'ordonnancement est l'un des mécanisme clé visant à augmenter l'efficacité du spectre mobile tout en faisant face aux caractéristiques uniques du canal mobile et à une demande croissante pour un accès haut débit à l'Internet mobile. Notre travail s'est concentré sur les politiques d'ordonnancement dites opportunistes qui, utilisant l'information relative à l'état du canal, donnent une sorte de priorité aux utilisateurs ayant un bon état de canal dans le but d'optimiser l'allocation des ressources. Diverses politiques d'ordonnancement opportunistes sont proposées dans le cadre de cette thèse pour les services data des réseaux mobiles de nouvelle génération. Elles sont conçues pour mettre à profit les variations du canal dans le but d'augmenter la capacité globale du système tout en satisfaisant différents critères en terme de qualité de service.
APA, Harvard, Vancouver, ISO, and other styles
38

Khawam, Kinda. "L'ordonnancement opportuniste dans les réseaux mobiles de nouvelle génération." Paris, ENST, 2006. http://www.theses.fr/2006ENST0030.

Full text
Abstract:
L'Internet a connu un essor remarquable ces dernières années. Cet essor n'a pas été restreint aux réseaux fixes mais a gagné récemment les réseaux mobiles. Les réseaux sans fil, initialement conçus pour véhiculer exclusivement des services voix, s'adaptent progressivement à ces changements pour transporter des services data. Avec un besoin grandissant pour accéder à ces nouveaux services, proposer des méthodes performantes pour gérer la ressource radio et fournir des garanties de performances aux services data mobiles est désormais d'une importance capitale. L'ordonnancement est l'un des mécanisme clé visant à augmenter l'efficacité du spectre mobile tout en faisant face aux caractéristiques uniques du canal mobile et à une demande croissante pour un accès haut débit à l'Internet mobile. Notre travail s'est concentré sur les politiques d'ordonnancement dites opportunistes qui, utilisant l'information relative à l'état du canal, donnent une sorte de priorité aux utilisateurs ayant un bon état de canal dans le but d'optimiser l'allocation des ressources. Diverses politiques d'ordonnancement opportunistes sont proposées dans le cadre de cette thèse pour les services data des réseaux mobiles de nouvelle génération. Elles sont conçues pour mettre à profit les variations du canal dans le but d'augmenter la capacité globale du système tout en satisfaisant différents critères en terme de qualité de service
The scarce resources in wireless systems compounded by their highly variable and error prone propagation characteristics stress the need for efficient resource management. Scheduling is a key tool to allocate efficiently the radio frequency spectrum. While fading effects have long been combated in wireless networks, primarily devoted to voice calls, they are now seen as an opportunity to increase the capacity of novel wireless networks that incorporate data traffic. For data applications, there is a service flexibility afforded by the delay tolerance of elastic traffic and by their ability to adapt their rate to the variable channel quality. Channel-aware scheduling exploit these characteristics by making use of channel state information to ensure that transmission occurs when radio conditions are most favourable. When users have heterogeneous characteristics and quality of service requirements, channel-aware scheduling becomes a challenging task. In this thesis, channel-aware transmission schemes for supporting downlink non-real time services are proposed and analyzed for novel cellular systems. The proposed schemes are designed for providing various QoS requirements for users while increasing the system global throughput
APA, Harvard, Vancouver, ISO, and other styles
39

Fissore, Giancarlo. "Generative modeling : statistical physics of Restricted Boltzmann Machines, learning with missing information and scalable training of Linear Flows." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG028.

Full text
Abstract:
Les modèles de réseaux neuronaux capables d'approximer et d'échantillonner des distributions de probabilité à haute dimension sont connus sous le nom de modèles génératifs. Ces dernières années, cette classe de modèles a fait l'objet d'une attention particulière en raison de son potentiel à apprendre automatiquement des représentations significatives de la grande quantité de données que nous produisons et consommons quotidiennement. Cette thèse présente des résultats théoriques et algorithmiques relatifs aux modèles génératifs et elle est divisée en deux parties. Dans la première partie, nous concentrons notre attention sur la Machine de Boltzmann Restreinte (RBM) et sa formulation en physique statistique. Historiquement, la physique statistique a joué un rôle central dans l'étude des fondements théoriques et dans le développement de modèles de réseaux neuronaux. La première implémentation neuronale d'une mémoire associative (Hopfield, 1982) est un travail séminal dans ce contexte. La RBM peut être considérée comme un développement du modèle de Hopfield, et elle est particulièrement intéressante en raison de son rôle à l'avant-garde de la révolution de l'apprentissage profond (Hinton et al. 2006). En exploitant sa formulation de physique statistique, nous dérivons une théorie de champ moyen de la RBM qui nous permet de caractériser à la fois son fonctionnement en tant que modèle génératif et la dynamique de sa procédure d'apprentissage. Cette analyse s'avère utile pour dériver une stratégie d'imputation robuste de type champ moyen qui permet d'utiliser la RBM pour apprendre des distributions empiriques dans le cas difficile où l'ensemble de données à modéliser n'est que partiellement observé et présente des pourcentages élevés d'informations manquantes. Dans la deuxième partie, nous considérons une classe de modèles génératifs connus sous le nom de Normalizing Flows (NF), dont la caractéristique distinctive est la capacité de modéliser des distributions complexes à haute dimension en employant des transformations inversibles d'une distribution simple et traitable. L'inversibilité de la transformation permet d'exprimer la densité de probabilité par un changement de variables dont l'optimisation par Maximum de Vraisemblance (ML) est assez simple mais coûteuse en calcul. La pratique courante est d'imposer des contraintes architecturales sur la classe de transformations utilisées pour les NF, afin de rendre l'optimisation par ML efficace. En partant de considérations géométriques, nous proposons un algorithme d'optimisation stochastique par descente de gradient qui exploite la structure matricielle des réseaux de neurones entièrement connectés sans imposer de contraintes sur leur structure autre que la dimensionnalité fixe requise par l'inversibilité. Cet algorithme est efficace en termes de calcul et peut s'adapter à des ensembles de données de très haute dimension. Nous démontrons son efficacité dans l'apprentissage d'une architecture non linéaire multicouche utilisant des couches entièrement connectées
Neural network models able to approximate and sample high-dimensional probability distributions are known as generative models. In recent years this class of models has received tremendous attention due to their potential in automatically learning meaningful representations of the vast amount of data that we produce and consume daily. This thesis presents theoretical and algorithmic results pertaining to generative models and it is divided in two parts. In the first part, we focus our attention on the Restricted Boltzmann Machine (RBM) and its statistical physics formulation. Historically, statistical physics has played a central role in studying the theoretical foundations and providing inspiration for neural network models. The first neural implementation of an associative memory (Hopfield, 1982) is a seminal work in this context. The RBM can be regarded to as a development of the Hopfield model, and it is of particular interest due to its role at the forefront of the deep learning revolution (Hinton et al. 2006).Exploiting its statistical physics formulation, we derive a mean-field theory of the RBM that let us characterize both its functioning as a generative model and the dynamics of its training procedure. This analysis proves useful in deriving a robust mean-field imputation strategy that makes it possible to use the RBM to learn empirical distributions in the challenging case in which the dataset to model is only partially observed and presents high percentages of missing information. In the second part we consider a class of generative models known as Normalizing Flows (NF), whose distinguishing feature is the ability to model complex high-dimensional distributions by employing invertible transformations of a simple tractable distribution. The invertibility of the transformation allows to express the probability density through a change of variables whose optimization by Maximum Likelihood (ML) is rather straightforward but computationally expensive. The common practice is to impose architectural constraints on the class of transformations used for NF, in order to make the ML optimization efficient. Proceeding from geometrical considerations, we propose a stochastic gradient descent optimization algorithm that exploits the matrix structure of fully connected neural networks without imposing any constraints on their structure other then the fixed dimensionality required by invertibility. This algorithm is computationally efficient and can scale to very high dimensional datasets. We demonstrate its effectiveness in training a multylayer nonlinear architecture employing fully connected layers
APA, Harvard, Vancouver, ISO, and other styles
40

Shahid, Mustafizur Rahman. "Deep learning for Internet of Things (IoT) network security." Electronic Thesis or Diss., Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAS003.

Full text
Abstract:
L’internet des objets (IoT) introduit de nouveaux défis pour la sécurité des réseaux. La plupart des objets IoT sont vulnérables en raison d'un manque de sensibilisation à la sécurité des fabricants d'appareils et des utilisateurs. En conséquence, ces objets sont devenus des cibles privilégiées pour les développeurs de malware qui veulent les transformer en bots. Contrairement à un ordinateur de bureau, un objet IoT est conçu pour accomplir des tâches spécifiques. Son comportement réseau est donc très stable et prévisible, ce qui le rend bien adapté aux techniques d'analyse de données. Ainsi, la première partie de cette thèse tire profit des algorithmes de deep learning pour développer des outils de surveillance des réseaux IoT. Deux types d'outils sont explorés: les systèmes de reconnaissance de type d’objets IoT et les systèmes de détection d'intrusion réseau IoT. Pour la reconnaissance des types d’objets IoT, des algorithmes d'apprentissage supervisé sont entrainés pour classifier le trafic réseau et déterminer à quel objet IoT le trafic appartient. Le système de détection d'intrusion consiste en un ensemble d'autoencoders, chacun étant entrainé pour un type d’objet IoT différent. Les autoencoders apprennent le profil du comportement réseau légitime et détectent tout écart par rapport à celui-ci. Les résultats expérimentaux en utilisant des données réseau produites par une maison connectée montrent que les modèles proposés atteignent des performances élevées. Malgré des résultats préliminaires prometteurs, l’entraînement et l'évaluation des modèles basés sur le machine learning nécessitent une quantité importante de données réseau IoT. Or, très peu de jeux de données de trafic réseau IoT sont accessibles au public. Le déploiement physique de milliers d’objets IoT réels peut être très coûteux et peut poser problème quant au respect de la vie privée. Ainsi, dans la deuxième partie de cette thèse, nous proposons d'exploiter des GAN (Generative Adversarial Networks) pour générer des flux bidirectionnels qui ressemblent à ceux produits par un véritable objet IoT. Un flux bidirectionnel est représenté par la séquence des tailles de paquets ainsi que de la durée du flux. Par conséquent, en plus de générer des caractéristiques au niveau des paquets, tel que la taille de chaque paquet, notre générateur apprend implicitement à se conformer aux caractéristiques au niveau du flux, comme le nombre total de paquets et d'octets dans un flux ou sa durée totale. Des résultats expérimentaux utilisant des données produites par un haut-parleur intelligent montrent que notre méthode permet de générer des flux bidirectionnels synthétiques réalistes et de haute qualité
The growing Internet of Things (IoT) introduces new security challenges for network activity monitoring. Most IoT devices are vulnerable because of a lack of security awareness from device manufacturers and end users. As a consequence, they have become prime targets for malware developers who want to turn them into bots. Contrary to general-purpose devices, an IoT device is designed to perform very specific tasks. Hence, its networking behavior is very stable and predictable making it well suited for data analysis techniques. Therefore, the first part of this thesis focuses on leveraging recent advances in the field of deep learning to develop network monitoring tools for the IoT. Two types of network monitoring tools are explored: IoT device type recognition systems and IoT network Intrusion Detection Systems (NIDS). For IoT device type recognition, supervised machine learning algorithms are trained to perform network traffic classification and determine what IoT device the traffic belongs to. The IoT NIDS consists of a set of autoencoders, each trained for a different IoT device type. The autoencoders learn the legitimate networking behavior profile and detect any deviation from it. Experiments using network traffic data produced by a smart home show that the proposed models achieve high performance.Despite yielding promising results, training and testing machine learning based network monitoring systems requires tremendous amount of IoT network traffic data. But, very few IoT network traffic datasets are publicly available. Physically operating thousands of real IoT devices can be very costly and can rise privacy concerns. In the second part of this thesis, we propose to leverage Generative Adversarial Networks (GAN) to generate bidirectional flows that look like they were produced by a real IoT device. A bidirectional flow consists of the sequence of the sizes of individual packets along with a duration. Hence, in addition to generating packet-level features which are the sizes of individual packets, our developed generator implicitly learns to comply with flow-level characteristics, such as the total number of packets and bytes in a bidirectional flow or the total duration of the flow. Experimental results using data produced by a smart speaker show that our method allows us to generate high quality and realistic looking synthetic bidirectional flows
APA, Harvard, Vancouver, ISO, and other styles
41

Hadam, Pawel. "Transports nouvelle génération dans les réseaux à très haut débit." Phd thesis, Grenoble INPG, 2005. http://tel.archives-ouvertes.fr/tel-00010643.

Full text
Abstract:
Cette thèse a été motivée par le développement des réseaux à très haut débit (au-delà de 1 Gb/s). Nous avons étudié comment ce type de réseaux peut changer les concepts et les protocoles utilisés actuellement. Nous avons considéré deux problèmes : le premier est le multihoming : la possibilité pour un hôte de bénéficier de plusieurs connexions simultanées aux fournisseurs d'accès, et le deuxième la distribution de contenu. Nous avons étudié le nouveau protocole de niveau transport SCTP et proposé des extensions qui permettent d'augmenter les performances et la fiabilité de communication grâce au multi-accès. Le protocole SCTP et les extensions proposées ont été testés et validés sur le réseau à très haut débit VTHD++. Pour le deuxième problème, nous avons conçu et prototypé un protocole de diffusion de contenu basé sur la notion d'inondation. Grâce au routage par contenu proposé pour le protocole, le contenu peut être livré aux consommateurs sans connaître leur localisation.
APA, Harvard, Vancouver, ISO, and other styles
42

Salhani, Mohamad. "Modélisation et simulation des réseaux mobiles de 4ème [quatrième] génération." Phd thesis, Toulouse, INPT, 2008. http://oatao.univ-toulouse.fr/7725/1/salhani.pdf.

Full text
Abstract:
Cette thèse porte sur l'interopérabilité et la qualité de service dans les réseaux de 4ème génération. En particulier, nous proposons des solutions d'intégration entre le réseau WiMAX et le système satellite DVB-RCS en s'appuyant sur le standard IEEE 802.21. Trois solutions peuvent être mises en place pour l'interconnexion de réseaux sans fil. Il s'agit de la technologie GAN soutenue par le 3GPP, du protocole FMIP proposé par l'IETF et du standard IEEE 802.21. Notre choix se porte sur ce denier standard car il propose un cadre générique pour l'interopérabilité des réseaux. En fait, nous proposons une architecture satellitaire à base de WiMAX, DVB-RCS et IEEE 802.21 et nous décrivons aussi la procédure de handover WiMAX/DVB-RCS. Par ailleurs, nous améliorons les performances des réseaux WiMAX en utilisant un handover horizontal avec un mécanisme de réservation de ressources. Ensuite, le réseau WiMAX est intégré dans un système satellite DVB-RCS afin d'étudier les performances de cette convergence avec une réservation de ressources. Les résultats obtenus montrent que les mécanismes de réservation améliorent les performances. Afin de permettre au trafic de passer d'un réseau à l'autre en garantissant une qualité de service, une mise en correspondance de la qualité de service entre les réseaux WiMAX et DVB-RCS est proposée. En outre, nous proposons un mécanisme d'admission de connexion CAC dans le cadre de l'interconnexion WiMAX/DVB-RCS. Plusieurs stratégies sont prises en compte afin de permettre une coopérative efficace entre les deux systèmes.
APA, Harvard, Vancouver, ISO, and other styles
43

Tomassilli, Andrea. "Vers les réseaux de nouvelle génération avec SDN et NFV." Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4044.

Full text
Abstract:
Les progrès récents dans le domaine des réseaux, tels que les réseaux logiciel (SDN) et la virtualisation des fonctions réseaux (NFV), modifient la façon dont les opérateurs de réseaux déploient et gèrent les services Internet. D'une part, SDN introduit un contrôleur logiquement centralisé avec une vue globale de l'état du réseau. D'autre part, NFV permet le découplage complet des fonctions réseaux des appareils propriétaires et les exécute en tant qu'applications logicielles sur des serveurs génériques. De cette façon, les opérateurs de réseaux peuvent déployer dynamiquement des fonctions réseaux virtuelles (VNF). SDN et NFV, tous deux séparément, offrent aux opérateurs de nouvelles opportunités pour réduire les coûts, améliorer la flexibilité et le passage à l'échelle des réseaux et réduire les délais de mise sur le marché des nouveaux services et applications. De plus, le modèle de routage centralisé du SDN, associé à la possibilité d'instancier les VNF à la demande, peut ouvrir la voie à une gestion encore plus efficace des ressources réseaux. Par exemple, un réseau SDN/NFV peut simplifier le déploiement des chaînes de fonctions de services (SFC) en rendant le processus plus facile et moins coûteux. Dans cette thèse, notre objectif était d'examiner comment tirer parti des avantages potentiels de combiner SDN et NFV. En particulier, nous avons étudié les nouvelles possibilités offertes en matière de conception de réseau, de résilience et d'économies d'énergie, ainsi que les nouveaux problèmes qui surgissent dans ce nouveau contexte, comme l'emplacement optimal des fonctions réseaux. Nous montrons qu'une symbiose entre le SDN et le NFV peut améliorer la performance des réseaux et réduire considérablement les dépenses d'investissement (CapEx) et les dépenses opérationnelles (OpEx) du réseau
Recent advances in networks, such as Software Defined Networking (SDN) and Network Function Virtualization (NFV), are changing the way network operators deploy and manage Internet services. On one hand, SDN introduces a logically centralized controller with a global view of the network state. On the other hand, NFV enables the complete decoupling of network functions from proprietary appliances and runs them as software applications on general–purpose servers. In such a way, network operators can dynamically deploy Virtual Network Functions (VNFs). SDN and NFV benefit network operators by providing new opportunities for reducing costs, enhancing network flexibility and scalability, and shortening the time-to-market of new applications and services. Moreover, the centralized routing model of SDN jointly with the possibility of instantiating VNFs on–demand, may open the way for an even more efficient operation and resource management of networks. For instance, an SDN/NFV-enabled network may simplify the Service Function Chain (SFC) deployment and provisioning by making the process easier and cheaper. In this study, we aim at investigating how to leverage both SDN and NFV in order to exploit their potential benefits. We took steps to address the new opportunities offered in terms of network design, network resilience, and energy savings, and the new problems that arise in this new context, such as the optimal network function placement in the network. We show that a symbiosis between SDN and NFV can improve network performance and significantly reduce the network's Capital Expenditure (CapEx) and Operational Expenditure (OpEx)
APA, Harvard, Vancouver, ISO, and other styles
44

Redieteab, Getachew. "Optimisation cross-layer des futures générations de réseaux WI-FI." Rennes, INSA, 2012. http://www.theses.fr/2012ISAR0021.

Full text
Abstract:
Durant cette thèse, nous avons étudié et proposé des techniques d’optimisation cross-layer principalement dans le cadre de la norme IEEE 802. 11ac. Une nouvelle technique d’agrégation pour transmissions multicanaux, permettant d’améliorer les performances en cas de collisions, a été proposée. Lors de l’évaluation des performances de cette solution, nous avons mis en évidence que certaines fonctionnalités impliquent la couche PHY et la couche MAC. Un simulateur cross-layer conforme à la norme IEEE 802. 11ac a donc été développé. Nous avons ensuite utilisé ce simulateur pour évaluer les performances « réelles » de solutions multi-antennaires multiutilisateurs (MU-MIMO) pour les comparer à celles de solutions mono-utilisateurs (SU-MIMO). L’impact de la périodicité du sondage canal sur le MU-MIMO a aussi été particulièrement étudié. Enfin, une nouvelle structure de trame d’acquittement ultra-courte permettant d’améliorer les débits des échanges inter-machine IEEE 802. 11ah a été proposée
During this thesis we have studied and proposed cross-layer optimization techniques, with a focus on the IEEE 802. 11ac standard. A new multichannel aggregation scheme has been proposed to improve performance in collision-prone environments. While testing this solution, we have shown that some functionalities directly involved PHY and MAC layers. A cross-layer simulator, compliant with IEEE 802. 11ac specifications, has thus been implemented. We have then used the implemented cross-layer simulator to evaluate the ‘real’ performance of multiple-user multiple-input, multiple-output (MU-MIMO) and compared the obtained results with those of single-user MIMO (SU-MIMO). The impact of the channel sounding interval of MU-MIMO has particularly been studied. Finally, we have proposed ultra short acknowledgment frames for overhead reduction in machine to machine IEEE 802. 11ah communications
APA, Harvard, Vancouver, ISO, and other styles
45

Ju, Min. "Optimisation de la protection des réseaux optiques de nouvelle génération." Thesis, Avignon, 2018. http://www.theses.fr/2018AVIG0226/document.

Full text
Abstract:
La tolérance aux pannes est une propriété très importante des réseaux optiques de nouvelle génération. Cette thèse aborde la conception des mécanismes de protection contre des pannes liées à la défaillance d’une fibre optique ou à une catastrophe naturelle. Deux systèmes de protection classiques, à savoir la protection par des cycles préconfigurés(p-cycles) et la protection du chemin de secours, sont étudiés pour atteindre une efficacité de protection élevée, tout en considérant le coût de l’équipement optique,la consommation d’énergie et l’utilisation de la ressource spectrale. Ces problèmes de survivabilité sont d’abord formulés en utilisant la programmation linéaire en nombres entiers (PLNE), et ensuite résolus soit par algorithmes heuristiques, soit par une approche de décomposition.La panne d’une seule fibre optique est le scénario le plus courant. Nous allons donc considérer d’abord des pannes liées à la défaillance d’une fibre optique dans les réseaux optiques multi-débit. Pour réduire le coût des transpondeurs, un système de protection par p-cycles de longueur adaptable et peu coûteux est proposé. Spécifiquement, les p cycles de longueur limitée sont conçus pour utiliser un débit approprié en fonction du coût du transpondeur et de la portée de transmission. Un modèle de programmation linéaire en nombres entiers (PLNE) sans énumération des cycles candidats est formulé pour générer directement les p-cycles de coût dépenses d’investissement minimum. De plus, un algorithme GPA (Graph Partitioning in Average) et un algorithme d’estimation des nombres de cycles (EI) sont développés pour rendre le modèle PLNE plus efficace au niveau du temps de calcul. En ce qui concerne la consommation d’énergie des réseaux optiques élastiques résilients,nous proposons d’utiliser un schéma de p-cycles dirigés, efficaces en énergie,pour protéger le trafic asymétrique. En raison de l’avantage de distinguer du volume de trafic dans les deux directions, les p-cycles dirigés consomment peu d’énergie en attribuant de créneaux ou slots du spectre et des formats de modulation différents à chaque direction.Un modèle PLNE est formulé pour minimiser la consommation d’énergie totale sous contraintes de génération du cycle dirigée, d’allocation de spectre, d’adaptation de modulation et de capacité de protection. Pour le passage à l’échelle, le modèle PLNE est décomposé en deux sous-problèmes: une méthode d’énumération de cycles améliorée et un modèle PLNE simplifié pour la sélection des cycles. Nous avons montré que les p-cycles dirigés obtiennent une meilleure performance comparant les p-cyclesiii non-dirigés pour le trafic asymétrique en termes de la consommation d’énergie et de l’utilisation du spectre.Afin d’améliorer l’efficacité d’utilisation du spectre dans réseaux optiques élastiques, une protection par p-cycles (SS-p-cycle) à spectre partagé est proposée. Les SS-p-cycles permettent de réduire l’utilisation du spectre et le taux de fragmentation spectrale en exploitant un partage de spectre spécial entre plusieurs p-cycles ayant des liens communs.Les modèles PLNE est conçus dans les cas "sans" ou "avec" conversion spectrale afin de minimiser l’utilisation du spectre. Ces modèles peuvent obtenir la solution optimale pour un petit réseaux optiques élastiques, et une heuristique efficace est développée pour résoudre les instances à grande échelle. Les résultats de simulations montrent que les SS-p-cycles ont des avantages significatifs pour réduire l’utilisation de la ressource spectrale et la défragmentation des fréquence. De plus, la conversion du spectre aide les SS-p-cycles à acquérir une meilleure utilisation du spectre
Network survivability is a critical issue for optical networks to maintain resilience against network failures. This dissertation addresses several survivability design issues against single link failure and large-scale disaster failure in optical networks. Twoclassic protection schemes, namely pre-configured Cycles (p-Cycle) protection and path protection, are studied to achieve high protection capacity efficiency while taking intoaccount the equipment cost, power consumption and resource usage. These survivable network design problems are first formulated by mathematical models and then offered scalable solutions by heuristic algorithms or a decomposition approach.We first consider single link failure scenario. To cut the multi-line rates transponderscost in survivable Mixed-Line-Rate (MLR) optical networks, a distance-adaptive andlow Capital Expenditures (CAPEX) cost p-cycle protection scheme is proposed withoutcandidate cycle enumeration. Specifically, path-length-limited p-cycles are designed touse appropriate line rate depending on the transponder cost and transmission reach.A Mixed Integer Linear Programming (MILP) model is formulated to directly generate the optimal p-cycles with the minimum CAPEX cost. Additionally, Graph Partitioning in Average (GPA) algorithm and Estimation of cycle numbers (EI) algorithm are developed to make the proposed MILP model scalable, which are shown to be efficient.Regarding the power consumption in survivable Elastic Optical Networks (EONs),power-efficient directed p-cycle protection scheme for asymmetric traffic is proposed.Owing to the advantage of distinguishing traffic amount in two directions, directedp-cycles consume low power by allocating different Frequency Slots (FSs) and modulation formats for each direction. An MILP model is formulated to minimize total power consumption under constraints of directed cycle generation, spectrum assignment,modulation adaptation and protection capacity allocation. To increase the scalability, the MILP model is decomposed into an improved cycle enumeration and a simplified Integer Linear Programming (ILP) model. We have shown that the directedp-cycles out perform the undirected p-cycles in terms of power consumption and spectrum usage.In order to improve the spectrum usage efficiency in p-cycle protection, a SpectrumShared p-cycle (SS-p-cycle) protection is proposed for survivable EONs with and without spectrum conversion. SS-p-cycles permit to reduce spectrum usage and Spectrum Fragmentation Ratio (SFR) by leveraging potential spectrum sharing among multiplep-cycles that have common link(s). The ILP formulations are designed in both cases of with and without spectrum conversion to minimize the spectrum usage of SS-p-cycleswhich can obtain the optimal solution in small instance, and a time-efficient heuristic algorithm is developed to solve large-scale instances. Simulation results show that SSp-cycles have significant advantages on both spectrum allocation and defragmentation efficiency, and the spectrum conversion does help SS-p-cycle design to acquire better spectrum utilization
APA, Harvard, Vancouver, ISO, and other styles
46

Daher, Tony. "Gestion cognitive des réseaux radio auto-organisant de cinquième génération." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLT023/document.

Full text
Abstract:
L’optimisation de l’opération des réseaux mobiles a toujours été d'un très grand intérêt pour les opérateurs, surtout avec une augmentation rapide du trafic mobile, des attentes qualité de service encore plus élevées des utilisateurs, et l’émergence de nouveaux services requérant des contraintes spécifiques et différentes. Le concept de gestion autonome des réseaux (SON) a été introduit par la 3rd Generation Partnership Project comme étant une solution prometteuse pour simplifier l’opération et la gestion des réseaux complexes. Aujourd’hui, plusieurs fonctions SON sont déjà déployées dans les réseaux. Cependant, les actions conduites par les fonctions SON dans le réseau dépendent de la configuration de l’algorithme même de ces fonctions, et aussi du contexte du réseau et de l’environnement ou cette fonction est déployée. D’autre part, un réseau radio mobile auto-organisant serait idéalement un réseau où toutes les fonctions autonomes (SON) fonctionnent de manière coordonnée et cohérente pour répondre à des objectifs de haut niveau de l’opérateur. L’entité autonome serait donc le réseau capable de s’autogérer pour répondre à une stratégie globale de l’opérateur, exprimée en termes d’objectifs de haut niveau de l’opérateur. A cette fin, nous proposons dans cette thèse une approche qu'on appel « Cognitive Policy Based SON Management » (C-PBSM). Le C-PBSM est capable d’apprendre des configurations optimales des fonctions SON selon les exigences de l’opérateur. Il a également la capacité d’améliorer sa décision au cours du temps en apprenant de son expérience passée, et de s’adapter avec les changements de l’environnement. Nous étudions plusieurs approches pour mettre en place la boucle cognitive en se basant sur l’apprentissage par renforcement (RL). Nous analysons la convergence et la scalabilité de ces approches et proposons des solutions adaptées. Nous prenons en compte la non stationnarité des réseaux, notamment la variation de trafic. Nous proposons également des solutions pour mettre en œuvre un apprentissage collaboratif et un transfert des connaissances. Une architecture SDN (software defined networks) est proposée pour le déploiement des agents d’apprentissage dans le réseau
The pressure on operators to improve the network management efficiency is constantly growing for many reasons: the user traffic that is increasing very fast, higher end users expectations, emerging services with very specific requirements. Self-Organizing Networks (SON) concept was introduced by the 3rd Generation Partnership Project as a promising solution to simplify the operation and management of complex networks. Many SON modules are already being deployed in today’s networks. Such networks are known as SON enabled networks, and they have proved to be useful in reducing the complexity of network management. However, SON enabled networks are still far from realizing a network that is autonomous and self-managed as a whole. In fact, the behavior of the SON functions depends on the parameters of their algorithm, as well as on the network environment where it is deployed. Besides, SON objectives and actions might be conflicting with each other, leading to incompatible parameter tuning in the network. Each SON function hence still needs to be itself manually configured, depending on the network environment and the objectives of the operator. In this thesis, we propose an approach for an integrated SON management system through a Cognitive Policy Based SON Management (C-PBSM) approach, based on Reinforcement Learning (RL). The C-PBSM translates autonomously high level operator objectives, formulated as target Key Performance Indicators (KPIs), into configurations of the SON functions. Furthermore, through its cognitive capabilities, the C-PBSM is able to build its knowledge by interacting with the real network. It is also capable of adapting with the environment changes. We investigate different RL approaches, we analyze the convergence time and the scalability and propose adapted solutions. We tackle the problem of non-stationarity in the network, notably the traffic variations, as well as the different contexts present in a network. We propose as well an approach for transfer learning and collaborative learning. Practical aspects of deploying RL agents in real networks are also investigated under Software Defined Network (SDN) architecture
APA, Harvard, Vancouver, ISO, and other styles
47

Daher, Tony. "Gestion cognitive des réseaux radio auto-organisant de cinquième génération." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLT023.

Full text
Abstract:
L’optimisation de l’opération des réseaux mobiles a toujours été d'un très grand intérêt pour les opérateurs, surtout avec une augmentation rapide du trafic mobile, des attentes qualité de service encore plus élevées des utilisateurs, et l’émergence de nouveaux services requérant des contraintes spécifiques et différentes. Le concept de gestion autonome des réseaux (SON) a été introduit par la 3rd Generation Partnership Project comme étant une solution prometteuse pour simplifier l’opération et la gestion des réseaux complexes. Aujourd’hui, plusieurs fonctions SON sont déjà déployées dans les réseaux. Cependant, les actions conduites par les fonctions SON dans le réseau dépendent de la configuration de l’algorithme même de ces fonctions, et aussi du contexte du réseau et de l’environnement ou cette fonction est déployée. D’autre part, un réseau radio mobile auto-organisant serait idéalement un réseau où toutes les fonctions autonomes (SON) fonctionnent de manière coordonnée et cohérente pour répondre à des objectifs de haut niveau de l’opérateur. L’entité autonome serait donc le réseau capable de s’autogérer pour répondre à une stratégie globale de l’opérateur, exprimée en termes d’objectifs de haut niveau de l’opérateur. A cette fin, nous proposons dans cette thèse une approche qu'on appel « Cognitive Policy Based SON Management » (C-PBSM). Le C-PBSM est capable d’apprendre des configurations optimales des fonctions SON selon les exigences de l’opérateur. Il a également la capacité d’améliorer sa décision au cours du temps en apprenant de son expérience passée, et de s’adapter avec les changements de l’environnement. Nous étudions plusieurs approches pour mettre en place la boucle cognitive en se basant sur l’apprentissage par renforcement (RL). Nous analysons la convergence et la scalabilité de ces approches et proposons des solutions adaptées. Nous prenons en compte la non stationnarité des réseaux, notamment la variation de trafic. Nous proposons également des solutions pour mettre en œuvre un apprentissage collaboratif et un transfert des connaissances. Une architecture SDN (software defined networks) est proposée pour le déploiement des agents d’apprentissage dans le réseau
The pressure on operators to improve the network management efficiency is constantly growing for many reasons: the user traffic that is increasing very fast, higher end users expectations, emerging services with very specific requirements. Self-Organizing Networks (SON) concept was introduced by the 3rd Generation Partnership Project as a promising solution to simplify the operation and management of complex networks. Many SON modules are already being deployed in today’s networks. Such networks are known as SON enabled networks, and they have proved to be useful in reducing the complexity of network management. However, SON enabled networks are still far from realizing a network that is autonomous and self-managed as a whole. In fact, the behavior of the SON functions depends on the parameters of their algorithm, as well as on the network environment where it is deployed. Besides, SON objectives and actions might be conflicting with each other, leading to incompatible parameter tuning in the network. Each SON function hence still needs to be itself manually configured, depending on the network environment and the objectives of the operator. In this thesis, we propose an approach for an integrated SON management system through a Cognitive Policy Based SON Management (C-PBSM) approach, based on Reinforcement Learning (RL). The C-PBSM translates autonomously high level operator objectives, formulated as target Key Performance Indicators (KPIs), into configurations of the SON functions. Furthermore, through its cognitive capabilities, the C-PBSM is able to build its knowledge by interacting with the real network. It is also capable of adapting with the environment changes. We investigate different RL approaches, we analyze the convergence time and the scalability and propose adapted solutions. We tackle the problem of non-stationarity in the network, notably the traffic variations, as well as the different contexts present in a network. We propose as well an approach for transfer learning and collaborative learning. Practical aspects of deploying RL agents in real networks are also investigated under Software Defined Network (SDN) architecture
APA, Harvard, Vancouver, ISO, and other styles
48

Varet, Antoine. "Conception, mise en oeuvre et évaluation d'un routeur embarqué pour l'avionique de nouvelle génération." Phd thesis, INSA de Toulouse, 2013. http://tel.archives-ouvertes.fr/tel-00932283.

Full text
Abstract:
Le contexte aéronautique a depuis plusieurs années mis en évidence le besoin croissant de technologies de sécurité permettant d'éviter des utilisations malveillantes des matériels ou services installés à bord des avions. La plupart des approches de sécurisation 'avion' se concentre sur des méthodes et techniques permettant de sécuriser les échanges au sein de l'avion. Elles sont cependant inadaptées à la sécurisation dans les cas d'interconnexion des réseaux avioniques avec le reste des réseaux de communication (réseau Internet par exemple). Le problème abordé dans ce travail de thèse vise donc à proposer une architecture de sécurité et de sûreté pour l'ensemble des communications aéronautiques et permettant une interconnexion sécurisée entre le monde 'avion' et le monde extérieur, en tenant compte de l'ensemble des critères de sécurité qui caractérisent les divers environnements traversés et considère dès le départ les divers principes de standardisation associés afin de garantir la pérennité scientifique et industrielle. La solution architecturale proposée dans ce travail de thèse repose principalement sur un composant central de routage, de filtrage et de sécurisation des flux de données aéronautiques. Le travail de conception et de développement de ce composant appelé Routeur Sécurisé de Nouvelle Génération (routeur SNG) a permis une validation expérimentale sur un système reproduisant un système embarqué.
APA, Harvard, Vancouver, ISO, and other styles
49

Pogodalla, Sylvain. "Réseaux de preuve et génération pour les grammaires de types logiques." Phd thesis, Institut National Polytechnique de Lorraine - INPL, 2001. http://tel.archives-ouvertes.fr/tel-00112982.

Full text
Abstract:
L'étude de la relation entre syntaxe et sémantique qu'établissent les grammaires de types
logiques a essentiellement privilégié le sens de l'analyse - syntaxe vers sémantique. Cette thèse souligne le profit que la génération - sémantique vers syntaxe - tire de l'étroitesse de cette relation.

Elle s'appuie sur l'étude logique de ces modèles grammaticaux et met en avant l'utilisation de la logique linéaire et de ses réseaux de preuve. Autour du calcul de Lambek, un fragment intuitionniste de la logique linéaire non commutative, nous étudions le comportement des extensions de ce calcul en tant que modèles syntaxiques, notamment avec le calcul ordonné. Nous montrons par exemple qu'un fragment de ce dernier permet d'engendrer la même classe de langage que les grammaires d'arbres adjoints.

D'autre part, l'adéquation de la syntaxe, portée par la notion de preuve, à la sémantique de Montague, portée par la notion de lambda-terme, s'illustre dans la correspondance de Curry-Howard. L'utilisation des réseaux de preuve nous permet de montrer que, pour le calcul de Lambek et pour des représentations sémantiques linéaires avec une constante au moins, le problème de génération est décidable et que ces grammaires sont intrinsèquement réversibles. Nous caractérisons les formes sémantiques permettant une réalisation syntaxique polynomiale. Aussi pouvons-nous proposer une méthode complète de génération dans ce cadre.

Ces résultats, de même que l'implémentation dont ils ont fait l'objet, exploitent la théorie de la démonstration sous-jacente et en particulier les réseaux de preuve sous forme de graphes. Nous obtenons ainsi un cadre uniforme pour l'analyse et la génération. Pour le conserver, dans l'optique d'une prise en compte sémantique de termes non linéaires grâce aux connecteurs exponentiels de la logique linéaire, nous donnons une nouvelle syntaxe et un nouveau critère de correction pour les réseaux avec exponentiels sous forme de graphes.
APA, Harvard, Vancouver, ISO, and other styles
50

Lagha, Naceur. "Proposition d'une architecture de services pour les réseaux de nouvelle génération." Rennes 1, 2002. http://www.theses.fr/2002REN10132.

Full text
Abstract:
L’évolution de l’Internet a suscité la convergence des réseaux de voix et des réseaux de données et a facilité l’entrée de nouveaux acteurs sur le marché des télécommunications. Cette convergence a offert des opportunités pour la création de nouveaux services et a accentué les complexités de liées à leurs développements. Cette thèse propose une étude des facteurs de cette convergence ainsi qu’une analyse des solutions qui ont été proposées afin de simplifier le développement des nouveaux services. L’architecture élaborée dans ce cadre se nomme ‘SISA’ et repose sur l’organisation d’un ensemble de composants dans une structure en couches. Le noyau de l’architecture SISA est basé sur le traitement réparti orienté objets et respecte un modèle d’objets et un modèle d’interactions spécialement conçus pour SISA. Enfin, des spécifications des composants de l’architecture SISA ont été proposées, un prototype a été développé et a servi de maquette de démonstration chez Bouygues Telecom.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography