Dissertations / Theses on the topic 'Algorithme de réduction de la dispersion'

To see the other types of publications on this topic, follow the link: Algorithme de réduction de la dispersion.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Algorithme de réduction de la dispersion.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Khoder, Jihan. "Nouvel Algorithme pour la Réduction de la Dimensionnalité en Imagerie Hyperspectrale." Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2013. http://tel.archives-ouvertes.fr/tel-00939018.

Full text
Abstract:
En Imagerie hyperspectrale, les volumes de données acquises atteignent souvent le gigaoctet pour une seule et même scène observée. De ce fait, l'analyse de ces données au contenu physique complexe passe obligatoirement par une étape préliminaire de réduction de la dimensionnalité. Cette réduction a un double objectif, le premier consiste à réduire la redondance et le second permet de faciliter les traitements postérieurs (extraction, classification et reconnaissance de formes) et donc l'interprétation des données. La classification automatique est une étape importante du processus d'extraction de connaissances à partir des données. Elle vise à découvrir la structure intrinsèque d'un ensemble d'objets en formant des regroupements qui partagent des caractéristiques similaires. Dans cette thèse, nous nous intéressons à la réduction de dimension dans le cadre de la classification non supervisée des bandes spectrales. Différentes approches existent, comme celles basées sur la projection (linéaire ou non-linéaire) des données de grandes dimensions sur des sous-espaces de représentation bien choisis ou sur les techniques de sélection de bandes spectrales exploitant des critères de complémentarité-redondance d'information qui ne permettent pas de préserver toute la richesse de l'information apportée par ce type de données. 1 - Nous avons accompli une étude comparative, sur la stabilité et la similarité des algorithmes des méthodes non paramétriques et non supervisée de la projection et aussi de la sélection des bandes utilisées dans la réduction de la dimensionnalité à différents niveaux de bruit déterminés. Les tests sont effectués sur des images hyperspectrales, en classant ces derniers en trois catégories selon leur degré de performance de préserver la quantité d'informations. 2 - Nous avons introduit une nouvelle approche de critère basée sur la di-similarité des attributs spectraux et utilisée dans un espace local sur des matrices de données ; L'approche a servi pour définir un taux de préservation d'un évènement rare dans une transformation mathématique donnée. Cependant, nous avons limitée son application au contexte de la thèse liée à la réduction de la taille des données dans une image hyperspectrale. 3 - Les études comparatives ont permis une première proposition d'approche hybride pour la reduction de la taille d'une image hyperspectrale permettant une meilleure stabilité : BandClustering avec Multidimensional Scaling (MDS). Des exemples sont donnés pour démontrer l'originalité et la pertinence de l'hybridation (BandClust / MDS) de l'analyse effectuée. 4 - La tendance de l'hybridation a été généralisée par la suite en présentant un algorithme hybride adaptatif non supervisé basé sur la logique flou (Fuzzy C means), une méthode de projection comme l'analyse en composante principale (ACP) et un indice de validité d'une classification. Les classifications effectuées par Fuzzy C means permettent d'affecter chaque pixel d'une image hyperspectrale à toutes les classes avec des degrés d'appartenance variant entre 0 et 1. Cette propriété rend la méthode FCM intéressante pour la mise en évidence soit des transitions progressives entre les différentes bandes spectrales ou des hétérogénéités spectrales. Grâce à des méthodes conventionnelles appelées indices de validité de classes, nous avons déterminé le nombre optimal de classes de FCM ainsi que le paramètre de flou. Nous montrons que cette hybridation conduit à un taux de réduction pertinent dans l'imagerie hyperspectrale. Par conséquent, Cet algorithme appliqué à différents échantillons de données hyperspectrales, permet une imagerie spectrale beaucoup plus informative, notamment au niveau de l'hétérogénéité spectrale.
APA, Harvard, Vancouver, ISO, and other styles
2

Khoder, Jihan Fawaz. "Nouvel algorithme pour la réduction de la dimensionnalité en imagerie hyperspectrale." Versailles-St Quentin en Yvelines, 2013. http://www.theses.fr/2013VERS0037.

Full text
Abstract:
En imagerie hyperspectrale, les volumes de données acquises atteignent souvent le gigaoctet pour une seule et même scène observée. De ce fait, l’analyse de ces données au contenu physique complexe passe obligatoirement par une étape préliminaire de réduction de la dimensionnalité. Cette réduction a un double objectif, le premier consiste à réduire la redondance et le second permet de faciliter les traitements postérieurs (extraction, classification et reconnaissance de formes) et donc l’interprétation des données. La classification automatique est une étape importante du processus d’extraction de connaissances à partir des données. Elle vise à découvrir la structure intrinsèque d’un ensemble d’objets en formant des regroupements qui partagent des caractéristiques similaires. Dans cette thèse, nous nous intéressons à la réduction de dimension dans le cadre de la classification non supervisée des bandes spectrales. Différentes approches existent, comme celles basées sur la projection (linéaire ou non-linéaire) des données de grandes dimensions sur des sous-espaces de représentation bien choisis ou sur les techniques de sélection de bandes spectrales exploitant des critères de complémentarité-redondance d’information qui ne permettent pas de préserver toute la richesse de l’information apportée par ce type de données
In hyperspectral imaging, the volumes of data acquired often reach the gigabyte for a single scene observed. Therefore, the analysis of these data complex physical content must go with a preliminary step of dimensionality reduction. Therefore, the analyses of these data of physical content complex go preliminary with a step of dimensionality reduction. This reduction has two objectives, the first is to reduce redundancy and the second facilitates post-treatment (extraction, classification and recognition) and therefore the interpretation of the data. Automatic classification is an important step in the process of knowledge extraction from data. It aims to discover the intrinsic structure of a set of objects by forming groups that share similar characteristics. In this thesis, we focus on dimensionality reduction in the context of unsupervised classification of spectral bands. Different approaches exist, such as those based on projection (linear or nonlinear) of high-dimensional data in a representation subspaces or on the techniques of selection of spectral bands exploiting of the criteria of complementarity-redundant information do not allow to preserve the wealth of information provided by this type of data
APA, Harvard, Vancouver, ISO, and other styles
3

Bélanger, Manon. "Algorithme de contrôle d'erreurs appliqué au phénomène de dispersion chromatique." Mémoire, Université de Sherbrooke, 2008. http://savoirs.usherbrooke.ca/handle/11143/1415.

Full text
Abstract:
Un algorithme de contrôle d'erreurs, utilisant les statistiques des valeurs à la sortie d'un canal de communication par fibre optique pour minimiser les erreurs induites par la dispersion chromatique, est présenté. Utilisé conjointement avec un code correcteur d'erreurs, l'algorithme permet d'améliorer considérablement les performances du décodeur. En obtenant la distribution de la puissance moyenne à la sortie du canal en fonction de la séquence de bits à l'entrée, il est possible de calculer la probabilité d'appartenance de chaque bit à chacune des séquences possibles et ainsi déterminer quel bit est le plus probable d'avoir été émis. Cet algorithme produit de très bons résultats lorsque la dispersion chromatique accumulée est élevée. En cela, il est complémentaire aux codes correcteurs d'erreurs, car ces derniers sont efficaces uniquement si le taux d'erreur initial est en deçà d'un certain seuil, seuil qui est généralement excédé lorsque la dispersion chromatique accumulée est élevée.
APA, Harvard, Vancouver, ISO, and other styles
4

Bélanger, Manon. "Algorithme de contrôle d'erreurs appliqué au phénomène de dispersion chromatique." [S.l. : s.n.], 2008.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
5

Dessimond, Boris. "Exposition individuelle à la pollution de l’air : mesure par capteurs miniatures, modélisation et évaluation des risques sanitaires associés." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS297.

Full text
Abstract:
La pollution de l’air contribue à dégrader la qualité de vie et à réduire l’espérance de vie des populations. L’organisation mondiale de la santé estime que la pollution de l’air est responsable de 7 millions de morts par an dans le monde. Elle participe à aggraver les maladies respiratoires, cause des cancers du poumon et des crises cardiaques. La pollution de l’air a donc des conséquences sanitaires importantes sur la vie humaine et la biodiversité. Ces dernières années, des progrès considérables ont été réalisés dans le domaine des microcontrôleurs et des modules de télécommunications. Ces derniers sont de plus efficients énergétiquement, performants, abordables, accessibles et sont responsables de l’émergence des objets connectés. Parallèlement, les récents développements des microsystèmes électromécaniques et des capteurs électrochimiques ont permis la miniaturisation des technologies permettant de mesurer de nombreux paramètres environnementaux dont la qualité de l’air. Ces avancées technologiques ont ainsi permis la conception et la production dans un cadre académique de capteurs de la qualité de l’air, portatifs, connectés, autonomes et en capacité de réaliser des acquisitions à une fréquence temporelle élevée. Jusqu’à récemment, l’un des majeurs freins à la compréhension de l’impact de la pollution de l’air sur la santé fut l’impossibilité de connaître l’exposition réelle des individus durant leur vie quotidienne ; la pollution de l’air est complexe et varie en fonction des habitudes, des activités et environnements empruntés par les individus. Ces capteurs portatifs de la qualité de l’air permettent donc de lever entièrement ce frein ainsi qu’un nombre important de contraintes. Ils sont conçus pour être utilisables en mobilité, sur de longues périodes et produisent des données granulaires, immédiatement disponibles, décrivant l’exposition à la pollution de l’air du porteur. Bien que les modules de mesure embarqués dans ces capteurs ne soient aujourd’hui pas aussi performants que les instruments de références ou la télédétection, lorsqu’il s’agit d’évaluer l’exposition individuelle à la pollution de l’air, parce qu'ils sont au plus proche des individus, ils permettent d’obtenir l’information la plus fidèle et constituent donc un outil indispensable pour l’avenir de la recherche épidémiologique. Dans ce contexte, nous avons participé au développement et à l’amélioration de deux capteurs de la qualité de l’air ; le CANARIN II et le CANARIN nano. Le CANARIN II est un capteur connecté communiquant par Wi-Fi, qui rapporte les concentrations de particules de diamètre 10, 2.5 et 1 micromètre, ainsi que les paramètres environnementaux de température, humidité et pression, chaque minute et les rend disponible en temps réel. Le CANARIN nano est, quant à lui, un capteur de plus petite taille, possédant les mêmes capacités que le CANARIN II, tout en faisant additionnellement l’acquisition des composés organiques volatils. Il est en capacité de fonctionner de manière autonome, puisque communiquant par réseau cellulaire. Deux types de résultats ont été obtenus avec les capteurs CANARIN ; d’une part, des résultats produits à partir de leur utilisation dans des conditions de vie réelle, d'autre part, des résultats en lien avec l'interprétation et la compréhension des mesures produites par les capteurs de particules dont les CANARINs sont équipés. Ces deux capteurs furent ainsi tous deux exploités par deux projets de recherche, au sein desquels nous avons accompagné le déploiement de plusieurs flottes de capteurs hétérogènes et réalisé l’analyse des données acquises. [...]
Air pollution contributes to the degradation of the quality of life and the reduction of life expectancy of the populations. The World Health Organization estimates that air pollution is responsible for 7 million deaths per year worldwide. It contributes to the aggravation of respiratory diseases, causes lung cancer and heart attacks. Air pollution has therefore significant health consequences on human life and biodiversity. Over the last few years, considerable progress has been made in the field of microcontrollers and telecommunications modules. These are more energy efficient, powerful, affordable, accessible, and are responsible for the growth of connected objects. In the meantime, the recent development of microelectromechanical systems and electrochemical sensors has allowed the miniaturization of technologies measuring many environmental parameters including air quality. These technological breakthroughs have enabled the design and production in an academic environment, of portable, connected, autonomous air quality sensors capable of performing acquisitions at a high temporal frequency. Until recently, one of the major obstacles to understanding the impact of air pollution on human health was the inability to track the real exposure of individuals during their daily lives; air pollution is complex, and varies according to the habits, activities and environments in which individuals spend their lives. Portable air quality sensors completely remove this obstacle as well as a number of other important constraints. These are designed to be used in mobility, over long periods of time, and produce immediately available granular data, which describes the exposure to air pollution of the person wearing it. Although the measurement modules embedded in these sensors are not currently as reliable as reference tools or remote sensing, when it comes to assessing individual exposure to air pollution, because they are as close as possible to the wearer, they provide the most accurate information, and are therefore an indispensable tool for the future of epidemiological research. In this context, we have been involved in the development and improvement of two air quality sensors; the CANARIN II and the CANARIN nano. The CANARIN II is a connected sensor communicating via Wi-Fi, which reports the concentration of 10, 2.5 and 1 micrometer diameter particles, as well as the environmental parameters of temperature, humidity, and pressure, every minute, making them available in real time. The CANARIN nano is a smaller sensor with the same capabilities of the CANARIN II, while additionally sensing volatile organic compounds levels. The CANARIN nano is able to operate autonomously, as it communicates through the cellular network. Two types of results have been obtained with the CANARIN sensors; on one hand, results produced from their use in real life conditions, and on the other hand, results related to the interpretation and understanding of the measurements produced by the particle sensors. These two sensors were both used in two research projects, in which we have helped deploy several heterogeneous sensor fleets and analyzed the acquired data. Firstly, in the POLLUSCOPE project funded by the French National Research Agency, where 86 volunteers from the general population wore a set of air pollution sensors for a total of 101 weeks, 35 of which the volunteers were also equipped with health sensors. Secondly, in the POLLAR project, where 43 subjects underwent polysomnography and then wore one CANARIN sensor for 10 days, thus allowing for the first time to explore the link between sleep apnea and particulate matter exposure. [...]
APA, Harvard, Vancouver, ISO, and other styles
6

Zapien, Durand-Viel Karina. "Algorithme de chemin de régularisation pour l'apprentissage statistique." Phd thesis, INSA de Rouen, 2009. http://tel.archives-ouvertes.fr/tel-00557888.

Full text
Abstract:
La sélection d'un modèle approprié est l'une des tâches essentielles de l'apprentissage statistique. En général, pour une tâche d'apprentissage donnée, on considère plusieurs classes de modèles ordonnées selon un certain ordre de " complexité". Dans ce cadre, le processus de sélection de modèle revient 'a trouver la " complexité " optimale, permettant d'estimer un modèle assurant une bonne généralisation. Ce problème de sélection de modèle se résume à l'estimation d'un ou plusieurs hyper-paramètres définissant la complexité du modèle, par opposition aux paramètres qui permettent de spécifier le modèle dans la classe de complexité choisie. L'approche habituelle pour déterminer ces hyper-paramètres consiste à utiliser une " grille ". On se donne un ensemble de valeurs possibles et on estime, pour chacune de ces valeurs, l'erreur de généralisation du meilleur modèle. On s'intéresse, dans cette thèse, à une approche alternative consistant à calculer l'ensemble des solutions possibles pour toutes les valeurs des hyper-paramètres. C'est ce qu'on appelle le chemin de régularisation. Il se trouve que pour les problèmes d'apprentissage qui nous intéressent, des programmes quadratiques paramétriques, on montre que le chemin de régularisation associé à certains hyper-paramètres est linéaire par morceaux et que son calcul a une complexité numérique de l'ordre d'un multiple entier de la complexité de calcul d'un modèle avec un seul jeu hyper-paramètres. La thèse est organisée en trois parties. La première donne le cadre général des problèmes d'apprentissage de type SVM (Séparateurs à Vaste Marge ou Support Vector Machines) ainsi que les outils théoriques et algorithmiques permettant d'appréhender ce problème. La deuxième partie traite du problème d'apprentissage supervisé pour la classification et l'ordonnancement dans le cadre des SVM. On montre que le chemin de régularisation de ces problèmes est linéaire par morceaux. Ce résultat nous permet de développer des algorithmes originaux de discrimination et d'ordonnancement. La troisième partie aborde successivement les problèmes d'apprentissage semi supervisé et non supervisé. Pour l'apprentissage semi supervisé, nous introduisons un critère de parcimonie et proposons l'algorithme de chemin de régularisation associé. En ce qui concerne l'apprentissage non supervisé nous utilisons une approche de type " réduction de dimension ". Contrairement aux méthodes à base de graphes de similarité qui utilisent un nombre fixe de voisins, nous introduisons une nouvelle méthode permettant un choix adaptatif et approprié du nombre de voisins.
APA, Harvard, Vancouver, ISO, and other styles
7

Driant, Thomas. "Réduction de la traînée aérodynamique et refroidissement d'un tricycle hybride par optimisation paramétrique." Thèse, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/6990.

Full text
Abstract:
La réduction de la traînée aérodynamique des véhicules dans un objectif de diminution de la consommation énergétique est en plein essor aussi bien pour les véhicules électriques que thermiques. Cette étude porte sur un tricycle à motorisation hybride dont la forme et le comportement aérodynamique sont à la frontière entre une motocyclette et une automobile. L'étude s'inspire des avancées scientifiques sur ces deux types de véhicules en matière d'aérodynamique. L'objectif principal est de réduire la traînée aérodynamique du véhicule par des modifications de l'enveloppe externe tout en assurant le refroidissement du moteur thermique et des composants de la chaîne électrique. On développe une optimisation topologique de la position des échangeurs sur le tricycle, on conçoit et fabrique un prototype en fonction des résultats d'optimisation. Ensuite, on valide le prototype par des essais en soufflerie et on caractérise son aérodynamique ainsi que la sensibilité de la traînée du véhicule suivant des paramètres comme la vitesse, l'angle de lacet, etc. En n, l'étude s'oriente vers une approche d'optimisation globale multidisciplinaire permettant d'atteindre l'objectif principal en fonction des contraintes ayant trait au projet.
APA, Harvard, Vancouver, ISO, and other styles
8

Karina, Zapien. "Algorithme de Chemin de Régularisation pour l'apprentissage Statistique." Phd thesis, INSA de Rouen, 2009. http://tel.archives-ouvertes.fr/tel-00422854.

Full text
Abstract:
La sélection d'un modèle approprié est l'une des tâches essentielles de l'apprentissage statistique. En général, pour une tâche d'apprentissage donnée, on considère plusieurs classes de modèles ordonnées selon un certain ordre de "complexité". Dans ce cadre, le processus de sélection de modèle revient à trouver la "complexité" optimale, permettant d'estimer un modèle assurant une bonne généralisation. Ce problème de sélection de modèle se résume à l'estimation d'un ou plusieurs hyperparamètres définissant la complexité du modèle, par opposition aux paramètres qui permettent de spécifier le modèle dans la classe de complexité choisie.
L'approche habituelle pour déterminer ces hyperparamètres consiste à utiliser une "grille". On se donne un ensemble de valeurs possibles et on estime, pour chacune de ces valeurs, l'erreur de généralisation du meilleur modèle. On s'intéresse, dans cette thèse, à une approche alternative consistant à calculer l'ensemble des solutions possibles pour toutes les valeurs des hyperparamètres. C'est ce qu'on appelle le chemin de régularisation. Il se trouve que pour les problèmes d'apprentissage qui nous intéressent, des programmes quadratiques paramétriques, on montre que le chemin de régularisation associé à certains hyperparamètres est linéaire par morceaux et que son calcul a une complexité numérique de l'ordre d'un multiple entier de la complexité de calcul d'un modèle avec un seul jeu hyper-paramètres.
La thèse est organisée en trois parties. La première donne le cadre général des problèmes d'apprentissage de type SVM (Séparateurs à Vaste Marge ou Support Vector Machines) ainsi que les outils théoriques et algorithmiques permettant d'appréhender ce problème. La deuxième partie traite du problème d'apprentissage supervisé pour la classification et l'ordonnancement dans le cadre des SVM. On montre que le chemin de régularisation de ces problèmes est linéaire par morceaux. Ce résultat nous permet de développer des algorithmes originaux de discrimination et d'ordonnancement. La troisième partie aborde successivement les problèmes d'apprentissage semi supervisé et non supervisé. Pour l'apprentissage semi supervisé, nous introduisons un critère de parcimonie et proposons l'algorithme de chemin de régularisation associé. En ce qui concerne l'apprentissage non supervisé nous utilisons une approche de type "réduction de dimension". Contrairement aux méthodes à base de graphes de similarité qui utilisent un nombre fixe de voisins, nous introduisons une nouvelle méthode permettant un choix adaptatif et approprié du nombre de voisins.
APA, Harvard, Vancouver, ISO, and other styles
9

Nouet, Christophe. "Réduction de l'ordre des systèmes continus, linéaires, via un processus d'orthogonalisation et un algorithme de gauss newton." Brest, 1994. http://www.theses.fr/1994BRES2040.

Full text
Abstract:
Nous avons développé une méthode d'approximation des signaux et systèmes à temps continu, optimale au sens des moindres carres. À partir de la seule connaissance de la transformée de Laplace rationnelle ou irrationnelle de la réponse, par exemple impulsionnelle ou indicielle d'un système initial, nous déterminons le meilleur modèle approche dont la réponse, soit la plus proche possible de celle du modèle original. Nous exprimons toujours le modèle approche sous forme d'une transformée de Laplace rationnelle. La qualité de l'approximation est mesurée à l'aide du critère d'erreur quadratique. La méthode élaborée, comme toute technique optimale, nécessite la mise en place d'un processus itératif d'optimisation. La première phase utilisant des équations linéaires, calcule le meilleur numérateur pour un dénominateur donné. La seconde permettant d'ajuster progressivement le dénominateur fait intervenir des équations non linéaires que nous linéarisons par un processus de type gauss-newton. Grâce a une technique d'orthogonalisation des fonctions d'approximation basée sur l'utilisation des tableaux de Routh, nous évitons la résolution des systèmes linéaires et par conséquent le calcul et l'inversion de matrices souvent mal conditionnées. La meilleure solution minimisant le critère d'erreur quadratique est obtenue par une expression explicite, dans laquelle ne figurent plus que des matrices d'orthogonalisation dont nous avons proposé une détermination originale. Pour cette nouvelle approche de l'approximation, la gestion spécifique des pôles réels ou complexes, simples ou multiples, est évitée. Tous les paramètres étant réels, les calculs s'effectuent en arithmétique réelle. De plus, dans le cas de fonctions de transfert rationnelles, l'optimisation est réalisée sans le calcul des pôles. La possibilité d'imposer des contraintes linéaires de type Egalite est une propriété intéressante de la méthode. Nous proposons de plus des techniques performantes pour le calcul des divers produits scalaires nécessaires a la mise en œuvre de notre méthode de réduction. La technique développée est applicable à l'étude de systèmes et à la simulation. Son application aux systèmes mimo ainsi que l'utilisation de contraintes de type inégalité pourraient être envisagées
APA, Harvard, Vancouver, ISO, and other styles
10

Ndongo, Fokoua Georges. "Etude expérimentale de la réduction de traînée par injection de bulles." Thesis, Brest, 2013. http://www.theses.fr/2013BRES0095/document.

Full text
Abstract:
Cette thèse porte sur l’étude expérimentale de la réduction de traînée par injection de bulles. Le contexte de l’étude est lié à la propulsion navale. Les bulles peuvent, lorsqu’elles sont injectées dans la couche limite en développement le long des carènes de navires, contribuer à réduire significativement la résistance de frottement, en allégeant d’une part le fluide le long de la coque et d’autre part en interagissant avec les structures turbulentes de proche paroi. La configuration expérimentale retenue pour cette étude est l’écoulement de Taylor-Couette, avec cylindre extérieur fixe et injection de bulles calibrées. Nos investigations portent sur les régimes de transition, de turbulence naissante et turbulent avec persistance des cellules de Taylor (Re≤20.104). La taille des bulles varie avec le capillaire et le mélange utilisés, entre 0,05 et 0,12 fois la largeur de l’entrefer. Une méthode originale de suivi de la phase dispersée dans un plan méridien, couplée à des mesures de couple global appliqué au cylindre intérieur ont permis de mettre en évidence deux régimes de réduction de traînée et plusieurs types d’arrangements des bulles, en fonction de leur taille et du nombre de Reynolds. Les bulles peuvent avoir une trajectoire glissante, oscillante, être capturées par les cellules de Taylor ou en proche paroi du cylindre intérieur dans les zones de jets sortants. La caractérisation par PIV des vitesses de la phase liquide en monophasique et diphasique a permis d’étudier les modifications induites par les bulles sur la phase liquide et de discuter des mécanismes impliqués dans la modification du couple global par la présence des bulles. Il ressort de cette étude que pour les nombres de Reynolds en deçà de la capture, les bulles contribuent à stabiliser l’écoulement en accord avec une réduction du couple visqueux pouvant atteindre -30% pour des taux de vide très faible (< 1%). Pour des nombres de Reynolds plus élevés, la capture dans les cellules conduit à une réduction de la longueur d’onde axiale et une augmentation de la vorticité des cellules, associée à une augmentation des vitesses rms. Cette configuration est favorable à une augmentation du couple visqueux. A l’inverse, la capture des bulles dans le jet sortant conduit à une augmentation de la longueur d’onde axiale, associée à une diminution de la vorticité. Cette configuration est favorable à une réduction du couple visqueux, moins marquée qu’en absence de capture
This work presents experimental study of drag reduction by injection of bubbles. Injection of bubbles into the developing boundary layer along the hulls of ships could help to reduce significantly the frictional resistance by lowering a fluid along the hull and interacting with the near-wall turbulent structures. We investigate the interactions between bubbles, the coherent motion and the viscous torque in a Taylor-Couette flow for outer cylinder at rest, while bubbles are injected constantly through a needle. The Reynolds number ranges up to Re≤20.104, for these values of the Reynolds number, Taylor vortices are persistent leading to an axial periodicity of the flow. Bubbles size varies between 0.05 and 0.12 times the width of the gap, depending on the needle and the liquid used. An original method for tracking bubbles in a meridian plane coupled with measures of overall torque applied to the inner cylinder helped to highlight two regimes of drag reduction and various types of arrangements of bubbles, depending on their size and Reynolds number. Bubbles could have a sliding motion, wavering, be captured by the Taylor cells or in the outflow areas near the inner cylinder. Characterization of the liquid velocity by PIV both in single phase and two-phase flow helped to study the modifications induced by the bubbles on the liquid phase and to discuss about the mechanisms involved in the changes induced by the bubbles in the overall torque. The study show that for the Reynolds number before the capture, bubbles could help to stabilize the flow in agreement to the reduction of the viscous torque up to -30% for lowest void fraction (<1%). For the Reynolds number after the capture, bubbles trapped by the Taylor cells lead to a reduction of the axial wavelength and increasing of the vorticity of the cells, associated to an increasing of the rms. This configuration leads to an increasing of the viscous torque. However, bubbles trapped in the outflow areas near the inner cylinder lead to an increasing of the axial wavelength, associated to a decreasing of the vorticity. The configuration supports a smaller reduction of the viscous torque than in the case without captured
APA, Harvard, Vancouver, ISO, and other styles
11

Simon, Frank. "Contrôle actif appliqué à la réduction du bruit interne d'aéronefs." Toulouse, ENSAE, 1997. http://www.theses.fr/1997ESAE0002.

Full text
Abstract:
Les niveaux de bruit constatés, ainsi que les exigences en matière de confort acoustique dans les aéronefs, sont tels que des traitements purement passifs, notamment dans le cas des composites, sont insuffisants pour satisfaire au cahier des charges. L'étude, tant théorique qu'expérimentale, a pour objet de mettre en évidence les mécanismes existants lors du contrôle actif vibratoire de panneaux sandwichs composites en vue de réduire le champ acoustique rayonné dans un volume fermé. Pour cela, l'excitation primaire sinusoïdale est produite par une force ponctuelle, alors que les excitations secondaires, nécessaires pour le contrôle, sont ponctuelles ou distribuées. Les capteurs de contrôle sont des microphones. Les procédures sont menées à l'aide d'algorithmes de type LMS (least Mean Square) à référence filtrée, dans le domaine temporel ou fréquentiel. Une modélisation analytique du comportement vibratoire des panneaux est réalisée. On s'intéresse en particulier à la contribution des différentes modes de structure au champ rayonné avant et après contrôle, et au cheminement de l'énergie sur la structure. Les expérimentations sont conduites sur des panneaux encastrés sur les bords, rayonnant dans une pièce assourdie, pour différentes densités modales. Les comparaisons entre les résultats théoriques et expérimentaux permettent de valider le modèle et ainsi d'expliquer les phénomènes. Les performances des deux types d'actionneurs sont comparées et les limitations de la méthode sont analysées. Enfin, des améliorations de l'algorithme sont proposées afin d'éviter des problèmes pratiques de divergence ou l'influence d'une source secondaire sur la référence.
APA, Harvard, Vancouver, ISO, and other styles
12

Chouippe, Agathe. "Étude numérique de la réduction de traînée par injection de bulles en écoulement de Taylor-Couette." Thesis, Toulouse, INPT, 2012. http://www.theses.fr/2012INPT0052/document.

Full text
Abstract:
La thèse porte sur l'étude de la réduction de traînée par injection de bulles. La réduction de traînée présente un intérêt pour les applications navales puisqu'elle est issue d'une modification des structures cohérentes qui contribuent le plus à la résistance à l'avancement. Le but de cette étude est d'analyser les mécanismes à l'origine de cette diminution du frottement pariétal. L'approche utilisée dans le cadre de cette étude est numérique, elle emploie le code JADIM par une approche Euler-Lagrange : la phase continue est simulée par Simulation Numérique Directe et la phase dispersée est simulée en suivant individuellement chaque bulle. La configuration retenue dans le cadre de cette étude est celle de l'écoulement de Taylor-Couette (écoulement compris entre deux cylindres en rotation). La première partie de la thèse vise à adapter l'outil numérique employé, afin de pouvoir prendre en compte le retour de la phase dispersée via des termes de forçage dans les équations bilan de matière et de quantité de mouvement. La deuxième partie de la thèse vise à étudier l'écoulement porteur en configuration monophasique, afin de disposer d'une référence sur l'écoulement non perturbé. La troisième partie de la thèse a pour objectif d'étudier la dispersion passive des bulles dans le système, afin d'analyser les mécanismes de migrations mis en jeu. Enfin la dernière partie de la thèse vise à étudier l'influence des bulles sur l'écoulement porteur en analysant l'effet de certains paramètres, notamment le taux de vide et la flottabilité
The study deals with drag reduction induced by bubble injection, its application concerns naval transport. The aim of the study is to shed more light on mechanisms that are involved in this wall friction reduction. The study is based on a numerical approach, and use the JADIM code with an Euler-Lagrange approach: the continuous phase is solved by Direct Numerical Simulation, and the disperse phase by a tracking of each bubble. Within the framework of this study we consider the Taylor-Couette flow configuration (flow between two concentric cylinders in rotation). The first part of the study deals with the modification of the numerical tool, in order to take into account the influence of the disperse phase on the continuous one through forcing terms in the mass and momentum balance equations. The aim of the second part is to study de Taylor-Couette flow in its monophasic configuration, for the purpose of providing a reference of the undisturbed flow. The third part deals with the passive dispersion of bubble in Taylor-Couette flow, in order to analyze the migration mechanisms involved. And the aim of the last part is to study the effects of the disperse phase on the continuous one, by analyzing the influence of bubbly phase parameters (like void fraction and buoyancy)
APA, Harvard, Vancouver, ISO, and other styles
13

Zapién, Arreola Karina. "Algorithme de chemin de régularisation pour l'apprentissage statistique." Thesis, Rouen, INSA, 2009. http://www.theses.fr/2009ISAM0001/document.

Full text
Abstract:
La sélection d’un modèle approprié est l’une des tâches essentielles de l’apprentissage statistique. En général, pour une tâche d’apprentissage donnée, on considère plusieurs classes de modèles ordonnées selon un certain ordre de « complexité». Dans ce cadre, le processus de sélection de modèle revient `a trouver la « complexité » optimale, permettant d’estimer un modèle assurant une bonne généralisation. Ce problème de sélection de modèle se résume à l’estimation d’un ou plusieurs hyper-paramètres définissant la complexité du modèle, par opposition aux paramètres qui permettent de spécifier le modèle dans la classe de complexité choisie. L’approche habituelle pour déterminer ces hyper-paramètres consiste à utiliser une « grille ». On se donne un ensemble de valeurs possibles et on estime, pour chacune de ces valeurs, l’erreur de généralisation du meilleur modèle. On s’intéresse, dans cette thèse, à une approche alternative consistant à calculer l’ensemble des solutions possibles pour toutes les valeurs des hyper-paramètres. C’est ce qu’on appelle le chemin de régularisation. Il se trouve que pour les problèmes d’apprentissage qui nous intéressent, des programmes quadratiques paramétriques, on montre que le chemin de régularisation associé à certains hyper-paramètres est linéaire par morceaux et que son calcul a une complexité numérique de l’ordre d’un multiple entier de la complexité de calcul d’un modèle avec un seul jeu hyper-paramètres. La thèse est organisée en trois parties. La première donne le cadre général des problèmes d’apprentissage de type SVM (Séparateurs à Vaste Marge ou Support Vector Machines) ainsi que les outils théoriques et algorithmiques permettant d’appréhender ce problème. La deuxième partie traite du problème d’apprentissage supervisé pour la classification et l’ordonnancement dans le cadre des SVM. On montre que le chemin de régularisation de ces problèmes est linéaire par morceaux. Ce résultat nous permet de développer des algorithmes originaux de discrimination et d’ordonnancement. La troisième partie aborde successivement les problèmes d’apprentissage semi supervisé et non supervisé. Pour l’apprentissage semi supervisé, nous introduisons un critère de parcimonie et proposons l’algorithme de chemin de régularisation associé. En ce qui concerne l’apprentissage non supervisé nous utilisons une approche de type « réduction de dimension ». Contrairement aux méthodes à base de graphes de similarité qui utilisent un nombre fixe de voisins, nous introduisons une nouvelle méthode permettant un choix adaptatif et approprié du nombre de voisins
The selection of a proper model is an essential task in statistical learning. In general, for a given learning task, a set of parameters has to be chosen, each parameter corresponds to a different degree of “complexity”. In this situation, the model selection procedure becomes a search for the optimal “complexity”, allowing us to estimate a model that assures a good generalization. This model selection problem can be summarized as the calculation of one or more hyperparameters defining the model complexity in contrast to the parameters that allow to specify a model in the chosen complexity class. The usual approach to determine these parameters is to use a “grid search”. Given a set of possible values, the generalization error for the best model is estimated for each of these values. This thesis is focused in an alternative approach consisting in calculating the complete set of possible solution for all hyperparameter values. This is what is called the regularization path. It can be shown that for the problems we are interested in, parametric quadratic programming (PQP), the corresponding regularization path is piece wise linear. Moreover, its calculation is no more complex than calculating a single PQP solution. This thesis is organized in three chapters, the first one introduces the general setting of a learning problem under the Support Vector Machines’ (SVM) framework together with the theory and algorithms that allow us to find a solution. The second part deals with supervised learning problems for classification and ranking using the SVM framework. It is shown that the regularization path of these problems is piecewise linear and alternative proofs to the one of Rosset [Ross 07b] are given via the subdifferential. These results lead to the corresponding algorithms to solve the mentioned supervised problems. The third part deals with semi-supervised learning problems followed by unsupervised learning problems. For the semi-supervised learning a sparsity constraint is introduced along with the corresponding regularization path algorithm. Graph-based dimensionality reduction methods are used for unsupervised learning problems. Our main contribution is a novel algorithm that allows to choose the number of nearest neighbors in an adaptive and appropriate way contrary to classical approaches based on a fix number of neighbors
APA, Harvard, Vancouver, ISO, and other styles
14

Périnet, Amandine. "Analyse distributionnelle appliquée aux textes de spécialité : réduction de la dispersion des données par abstraction des contextes." Thesis, Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCD056/document.

Full text
Abstract:
Dans les domaines de spécialité, les applications telles que la recherche d’information ou la traduction automatique, s’appuient sur des ressources terminologiques pour prendre en compte les termes, les relations sémantiques ou les regroupements de termes. Pour faire face au coût de la constitution de ces ressources, des méthodes automatiques ont été proposées. Parmi celles-ci, l’analyse distributionnelle s’appuie sur la redondance d’informations se trouvant dans le contexte des termes pour établir une relation. Alors que cette hypothèse est habituellement mise en oeuvre grâce à des modèles vectoriels, ceux-ci souffrent du nombre de dimensions considérable et de la dispersion des données dans la matrice des vecteurs de contexte. En corpus de spécialité, ces informations contextuelles redondantes sont d’autant plus dispersées et plus rares que les corpus ont des tailles beaucoup plus petites. De même, les termes complexes sont généralement ignorés étant donné leur faible nombre d’occurrence. Dans cette thèse, nous nous intéressons au problème de la limitation de la dispersion des données sur des corpus de spécialité et nous proposons une méthode permettant de densifier la matrice des contextes en réalisant une abstraction des contextes distributionnels. Des relations sémantiques acquises en corpus sont utilisées pour généraliser et normaliser ces contextes. Nous avons évalué la robustesse de notre méthode sur quatre corpus de tailles, de langues et de domaines différents. L’analyse des résultats montre que, tout en permettant de prendre en compte les termes complexes dans l’analyse distributionnelle, l’abstraction des contextes distributionnels permet d’obtenir des groupements sémantiques de meilleure qualité mais aussi plus cohérents et homogènes
In specialised domains, the applications such as information retrieval for machine translation rely on terminological resources for taking into account terms or semantic relations between terms or groupings of terms. In order to face up to the cost of building these resources, automatic methods have been proposed. Among those methods, the distributional analysis uses the repeated information in the contexts of the terms to detect a relation between these terms. While this hypothesis is usually implemented with vector space models, those models suffer from a high number of dimensions and data sparsity in the matrix of contexts. In specialised corpora, this contextual information is even sparser and less frequent because of the smaller size of the corpora. Likewise, complex terms are usually ignored because of their very low number of occurrences. In this thesis, we tackle the problem of data sparsity on specialised texts. We propose a method that allows making the context matrix denser, by performing an abstraction of distributional contexts. Semantic relations acquired from corpora are used to generalise and normalise those contexts. We evaluated the method robustness on four corpora of different sizes, different languages and different domains. The analysis of the results shows that, while taking into account complex terms in distributional analysis, the abstraction of distributional contexts leads to defining semantic clusters of better quality, that are also more consistent and more homogeneous
APA, Harvard, Vancouver, ISO, and other styles
15

Oulefki, Abdelhakim. "Réduction de modèles thermiques par amalgame modal." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1993. http://tel.archives-ouvertes.fr/tel-00523620.

Full text
Abstract:
On présente la méthode d'amalgame modal. Il s'agit d'une approche pour réduire un modèle d'état modal quelconque. La méthode est ici appliquée dans le cadre de la thermique. Le principe repose sur une partition judicieuse de l'espace d'état modal en quelques sous espaces disjoints. La dynamique de chaque sous espace est ensuite approchée au mieux par un pseudo-élément propre. L'optimalité de la démarche est prouvée au sens d'un critère d'écart quadratique de qualité. Le modèle obtenu conserve des liens formels avec le modèle d'origine. Du point de vue algorithmique, la méthode est automatique : on peut chercher le meilleur modèle réduit respectant une contrainte de précision et/ou de taille. La méthode est performante en temps de calcul. La réduction par amalgame modal est comparée à celles d'autres méthodes. Des exemples de réduction de modèles modaux 1D, 2D et 3D sont donnés.
APA, Harvard, Vancouver, ISO, and other styles
16

Riondet, Philippe. "Optimisation de la résolution des équations de dispersion : application au calcul des discontinuités." Toulouse, ENSAE, 1997. http://www.theses.fr/1997ESAE0024.

Full text
Abstract:
Ce travail traite de la mise en oeuvre d'une nouvelle méthode pour la résolution des problèmes homogènes dépendant d'un paramètre. Ceci se traduit par un algorithme récursif numériquement efficace et fiable dont l'initialisation se fait à partir des seules données géométriques de la structure. L'utilisation d'une telle méthode assure la recherche exhaustive des solutions avec un temps de calcul extrèmement réduit. La systématisation de l'analyse et le choix de la formulation intégrale associés à la méthode récursive permettent de réaliser en temps réel une caractérisation exacte des lignes planaires usuelles sur micro-ordinateur. L'introduction de la représentation en T des conditions aux limites sur la couche conductrice permet de rendre compte de l'influence des épaisseurs de métallisation, de métallisations multiples ou de couches supraconductrices dans les simulations. Enfin, le calcul d'une discontinuité suppose l'analyse modale des guides de part et d'autre du plan de discontinuité. Un examen attentif fait apparaître que seuls certains modes ont une influence significative sur la convergence des paramètres de diffraction. La recherche de leur nature permet de procéder à une sélection a priori et systématique de ces modes et de s'affranchir ainsi du calcul du spectre complet.
APA, Harvard, Vancouver, ISO, and other styles
17

Christophe, Jennifer. "Etude de l'électroactivité du cuivre pour la réduction du dioxyde de carbone et pour la réduction de l'ion nitrate." Doctoral thesis, Universite Libre de Bruxelles, 2007. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210680.

Full text
Abstract:
Le présent travail a pour but d'évaluer les potentialités électrocatalytiques du cuivre sous différentes formes pour les réactions de réduction du dioxyde de carbone et de réduction de l'ion nitrate.

Dans la première partie du travail, nous avons comparé, à l’aide de la voltampérométrie, d’électrolyses à potentiel contrôlé et d’analyses chromatographiques, l'activité d'électrodes polycristalline et monocristallines de Cu et d'alliages AuxCuy de différentes orientations cristallines pour l'électroréduction de CO2.

Nous avons pu établir une étroite corrélation entre l'activité de l'électrode de Cu et l'arrangement atomique de sa surface. L'activité et la sélectivité pour CH4 de Cu décroissent selon la séquence :Cu (111) > Cu (100) > Cu (poly). La réduction du CO2 et la formation de CH4 sont favorisées sur les surfaces lisses et denses à l'échelle atomique.

La sélectivité des alliages AuxCuy est considérablement orientée vers CO quand la fraction superficielle de Au augmente. L'alliage de composition 50-50 conduit à la formation exclusive de CO.

La seconde partie de la thèse est consacrée à l'étude de l'activité d'électrodes massives de Cu polycristallin et monocristallin d’orientation (111) et de dispersions de Cu pour la réduction électrochimique de NO3-.

Nous avons mis en évidence l'importance des conditions de pH pour le déroulement des processus à l'électrode de cuivre. En milieu acide, NO3- est directement réduit en NH4+ alors qu’en milieu neutre, les réactions de réduction de NO3- en NO2- et de NO2- en NH4+ s’observent successivement en fonction du potentiel.

L'activité des dispersions de Cu dans un film de polyaniline dépend fortement des conditions de dépôt. Le cuivre incorporé au film sous sa forme réduite est plus actif que le cuivre incorporé au film initialement oxydé. Par ailleurs, nous avons montré que la concentration de H+ dans le polymère est limitée. En conséquence, le processus de réduction de NO3- sur le cuivre dispersé dans un film de polyaniline est modifié en milieu acide.

L’utilisation d’un film de poly-3,4-éthylènedioxythiophène déposé sur une surface de Pt s'est quant à elle révélée inadéquate comme support pour l'incorporation de Cu dans le cadre de l'étude de la réduction de NO3- en milieu acide.


Doctorat en Sciences
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
18

Song, Jié. "Réduction de la dispersion numérique par correction des flux massiques : application au problème de la récupération d'hydricarbures par procédés chimiques." Paris 6, 1992. http://www.theses.fr/1992PA066334.

Full text
Abstract:
On utilise frequemment dans la recuperation assistee d'hydrocarbures, un bouchon de matieres actives (procedes chimiques) ou un bouchon de solvant (procedes miscibles) pour deplacer l'huile en place. Pour pouvoir interpreter le procede utilise ou prevoir convenablement la taille optimale du bouchon, il est necessaire de simuler avec precision les fronts des especes chimiques injectes. En fait, la representation des fronts abrupts est difficile a cause de la dispersion numerique. Cette erreur entraine la prevision d'une destruction prematuree des bouchons injectes. Ce probleme est connu depuis longtemps et reste toujours une question prioritaire. Pour reduire cette difficulte, certains auteurs utilisent des schemas de precision d'ordre superieur (schema double amont, schemas de van leer, de leonard, etc. . . ). Ces schemas conduisent a une correction excessive, donc a une erreur inverse que nous appelons accumulation numerique. Dans cette these, nous proposons une nouvelle methode basee sur la correction des flux massiques presents dans le bilan des masses. Le flux corrige sera une moyenne ponderee entre le flux au temps considere (valeur connue par exces) et celui au temps precedent (valeur connue par defaut). Par cette operation, le flux corrige ne peut etre excessivement errone. De ce fait, l'accumulation ne doit plus exister et la dispersion numerique doit etre reduite. Une etude theorique a ete effectuee pour determiner la valeur optimale du facteur de ponderation. Une plus grande correction se fait automatiquement aux voisinages des fronts. Une etude de la stabilite du schema modifie a ete aussi entreprise. Plusieurs exemples d'applications ont ete effectues. La methode de correction des flux s'est revelee la meilleure dans toutes les circonstances et cela, aussi bien sur le plan de precision des resultats que sur le plan du cout des calculs sur ordinateur. Cette methode s'ajoute aisement a un simulateur industriel existant
APA, Harvard, Vancouver, ISO, and other styles
19

Audoux, Yohann. "Développement d’une nouvelle méthode de réduction de modèle basée sur les hypersurfaces NURBS (Non-Uniform Rational B-Splines)." Thesis, Paris, ENSAM, 2019. http://www.theses.fr/2019ENAM0016/document.

Full text
Abstract:
Malgré des décennies d’incontestables progrès dans le domaine des sciences informatiques, un certain nombre de problèmes restent difficiles à traiter en raison, soit de leur complexité numérique (problème d’optimisation, …), soit de contraintes spécifiques telle que la nécessité de traitement en temps réel (réalité virtuelle, augmentée, …). Dans ce contexte, il existe des méthodes de réduction de modèle qui permettent de réduire les temps de calcul de simulations multi-champs et/ou multi-échelles complexes. Le processus de réduction de modèle consiste à paramétrer un métamodèle qui requiert moins de ressources pour être évalué que le modèle complexe duquel il a été obtenu, tout en garantissant une certaine précision. Les méthodes actuelles nécessitent, en général, soit une expertise de l’utilisateur, soit un grand nombre de choix arbitraires de sa part. De plus, elles sont bien souvent adaptées à une application spécifique mais difficilement transposable à d’autres domaines. L’objectif de notre approche est donc d’obtenir, s'il n'est pas le meilleur, un bon métamodèle quel que soit le problème considéré. La stratégie développée s’appuie sur l’utilisation des hypersurfaces NURBS et se démarque des approches existantes par l’absence d’hypothèses simplificatrices sur les paramètres de celles-ci. Pour ce faire, une méta heuristique (de type algorithme génétique), capable de traiter des problèmes d’optimisation dont le nombre de variables n’est pas constant, permet de déterminer automatiquement l’ensemble des paramètres de l’hypersurface sans transférer la complexité des choix à l’utilisateur
Despite undeniable progress achieved in computer sciences over the last decades, some problems remain intractable either by their numerical complexity (optimisation problems, …) or because they are subject to specific constraints such as real-time processing (virtual and augmented reality, …). In this context, metamodeling techniques can minimise the computational effort to realize complex multi-field and/or multi-scale simulations. The metamodeling process consists of setting up a metamodel that needs less resources to be evaluated than the complex one that is extracted from by guaranteeing, meanwhile, a minimal accuracy. Current methods generally require either the user’s expertise or arbitrary choices. Moreover, they are often tailored for a specific application, but they can be hardly transposed to other fields. Thus, even if it is not the best, our approach aims at obtaining a metamodel that remains a good one for whatever problem at hand. The developed strategy relies on NURBS hypersurfaces and stands out from existing ones by avoiding the use of empiric criteria to set its parameters. To do so, a metaheuristic (a genetic algorithm) able to deal with optimisation problems defined over a variable number of optimisation variables sets automatically all the hypersurface parameters so that the complexity is not transferred to the user
APA, Harvard, Vancouver, ISO, and other styles
20

Gama, Nicolas. "Géométrie des nombres et cryptanalyse de NTRU." Paris 7, 2008. http://www.theses.fr/2008PA077199.

Full text
Abstract:
La cryptographie à clef publique, inventée par Diffie et Hellman en 1976, fait aujourd'hui partie de la vie courante : les cartes bleues, les consoles de jeux et le commerce électronique par exemple utilisent des mécanismes de cryptographie à clef publique. La sécurité de certains cryptosystèmes, comme NTRU, repose sur des problèmes issus de la géométrie des nombres, et notamment les problèmes de plus court vecteur ou de plus proche vecteur dans des réseaux euclidiens. Bien que ces problèmes soient NP-difficiles, il reste néanmoins possible d'en obtenir de bonnes approximations en pratique. Dans cette thèse, nous étudions les algorithmes qui permettent d'approcher ces problèmes de réduction de réseau en temps polynomial, ou plus généralement en temps raisonnable. Nous analysons d'abord le fonctionnement de ces algorithmes d'un point de vue théorique, ce qui nous permet de construire par exemple le meilleur algorithme prouvé, au sens de sa complexité et de la qualité de son résultat. Mais nous nous intéressons aussi au côté pratique, au travers d'une grande quantité de simulations, ce qui nous permet de mettre en évidence un important écart entre les propriétés de complexité et de qualité que l'on peut prouver, et celles (bien meilleures) que l'on obtient en pratique. Ces simulations nous permettent en outre de prédire correctement le comportement réel des algorithmes. Nous étudions ces algorithmes dans le cas général, et nous montrons comment en faire des versions spécialisées pour le cas très particulier des réseaux issus du cryptosystème NTRU
Public-key cryptography, invented by Diffie and Hellman in 1976, is now part of everyday life: credit cards, game consoles and electronic commerce are using public key schemes. The security of certain cryptosystems, like NTRU, is based on problems arising from the geometry of numbers, including the shortest vector problem or the closest vector problem in Euclidean lattices. While these problems are mostly NP-hard, it is still possible to compute good approximations in practice. In this thesis, we study approximation algorithms for these lattice reduction problems, which operate either in proved polynomial time, or more generally in reasonable time. We first analyze the functioning of these algorithms from a theoretical point of view, which allows us to build for example, the best proved algorithm for its complexity and the quality of its results. But we also study the practical aspects, through a lot of simulations, which allows us to highlight an important difference between properties of complexity and quality that we can prove, and those (much better) that can be achieved in practice. These simulations also allow us to correctly predict the actual behavior of lattice reduction algorithms. We study these algorithms first in the general case, and then we show how to make specialized versions for the very particular lattices drawn from NTRU cryptosystem
APA, Harvard, Vancouver, ISO, and other styles
21

Baili, Ghaya. "Contribution à la réduction du bruit d'intensité relatif des lasers à semiconducteurs pour des applications aux radars." Paris 11, 2008. http://www.theses.fr/2008PA112362.

Full text
Abstract:
L’objectif du travail de thèse présenté est d’étudier deux techniques originales de réduction du bruit d’intensité relatif (RIN) des lasers à semiconducteur pour le transport des signaux radar par voie optique. La première technique consiste à exploiter, dans une fibre à compensation de dispersion et à faibles pertes, les mécanismes de conversion du bruit d’amplitude en bruit de phase et du bruit de phase en bruit d’amplitude avec une bonne dynamique sur une bande fréquence égale à 20 GHz. La deuxième technique consiste à supprimer les oscillations de relaxation dans le laser SC en recherchant un fonctionnement de type classe-A. Deux architectures de lasers classe-A sont proposées, analysées théoriquement et validées expérimentalement. La première architecture est basée sur un amplificateur optique à SC dans une cavité fibrée longue. La deuxième architecture utilise un milieu à gain à émission par la surface (un demi-VSCEL) dans une cavité étendue à surtension élevée. Au moyen de ces deux architectures, nous montrons que le comportement dynamique de classe-A permet de ramener le RIN du laser SC à la limite quantique standard (-155 dB/Hz pour 1 mA détecté) sur une large bande de fréquence, typiquement de 100 MHZ à 18 GHz
The objective of the following thesis is to study two original techniques aiming at reducing the Relative Intensity Noise (RIN) of semiconductor lasers used in optical links for transmission of radar signals. Within the first technique, a dispersion compensating fiber exhibiting low losses is used to study the phase to amplitude noise and amplitude to phase noise conversion mechanisms with a very good signal-to-noise ratio over à 20 GHz bandwidth. The second technique consists in increasing the photon lifetime well above the carrier lifetime in order to eliminate adiabatically the carrier population effects, leading to a relaxation oscillation free class-A laser operation. Two laser architectures have been proposed, theoretically analyzed and experimentally validated. The first configuration is based on a semiconductor optical amplifier in a long fibred cavity. The second one uses a ½-VCSEL in a high-Q external cavity. For both configurations, we demonstrated that class-A laser operation leads to a shot-noise-limited RIN (at -155 dB/Hz for 1 mA detected) over a frequency bandwidth from 100 MHz to 18 GHz
APA, Harvard, Vancouver, ISO, and other styles
22

Vezard, Laurent. "Réduction de dimension en apprentissage supervisé : applications à l’étude de l’activité cérébrale." Thesis, Bordeaux 1, 2013. http://www.theses.fr/2013BOR15005/document.

Full text
Abstract:
L'objectif de ce travail est de développer une méthode capable de déterminer automatiquement l'état de vigilance chez l'humain. Les applications envisageables sont multiples. Une telle méthode permettrait par exemple de détecter automatiquement toute modification de l'état de vigilance chez des personnes qui doivent rester dans un état de vigilance élevée (par exemple, les pilotes ou les personnels médicaux).Dans ce travail, les signaux électroencéphalographiques (EEG) de 58 sujets dans deux états de vigilance distincts (état de vigilance haut et bas) ont été recueillis à l'aide d'un casque à 58 électrodes posant ainsi un problème de classification binaire. Afin d'envisager une utilisation de ces travaux sur une application du monde réel, il est nécessaire de construire une méthode de prédiction qui ne nécessite qu'un faible nombre de capteurs (électrodes) afin de limiter le temps de pose du casque à électrodes ainsi que son coût. Au cours de ces travaux de thèse, plusieurs approches ont été développées. Une première approche propose d'utiliser un pré-traitement des signaux EEG basé sur l'utilisation d'une décomposition en ondelettes discrète des signaux EEG afin d'extraire les contributions de chaque fréquence dans le signal. Une régression linéaire est alors effectuée sur les contributions de certaines de ces fréquences et la pente de cette régression est conservée. Un algorithme génétique est utilisé afin d'optimiser le choix des fréquences sur lesquelles la régression est réalisée. De plus, cet algorithme génétique permet la sélection d'une unique électrode.Une seconde approche est basée sur l'utilisation du Common Spatial Pattern (CSP). Cette méthode permet de définir des combinaisons linéaires des variables initiales afin d'obtenir des signaux synthétiques utiles pour la tâche de classification. Dans ce travail, un algorithme génétique ainsi que des méthodes de recherche séquentielle ont été proposés afin de sélectionner un sous groupes d'électrodes à conserver lors du calcul du CSP.Enfin, un algorithme de CSP parcimonieux basé sur l'utilisation des travaux existant sur l'analyse en composantes principales parcimonieuse a été développé.Les résultats de chacune des approches sont détaillés et comparés. Ces travaux ont aboutit sur l'obtention d'un modèle permettant de prédire de manière rapide et fiable l'état de vigilance d'un nouvel individu
The aim of this work is to develop a method able to automatically determine the alertness state of humans. Such a task is relevant to diverse domains, where a person is expected or required to be in a particular state. For instance, pilots, security personnel or medical personnel are expected to be in a highly alert state, and this method could help to confirm this or detect possible problems. In this work, electroencephalographic data (EEG) of 58 subjects in two distinct vigilance states (state of high and low alertness) were collected via a cap with $58$ electrodes. Thus, a binary classification problem is considered. In order to use of this work on a real-world applications, it is necessary to build a prediction method that requires only a small number of sensors (electrodes) in order to minimize the time needed by the cap installation and the cap cost. During this thesis, several approaches have been developed. A first approach involves use of a pre-processing method for EEG signals based on the use of a discrete wavelet decomposition in order to extract the energy of each frequency in the signal. Then, a linear regression is performed on the energies of some of these frequencies and the slope of this regression is retained. A genetic algorithm (GA) is used to optimize the selection of frequencies on which the regression is performed. Moreover, the GA is used to select a single electrode .A second approach is based on the use of the Common Spatial Pattern method (CSP). This method allows to define linear combinations of the original variables to obtain useful synthetic signals for the task classification. In this work, a GA and a sequential search method have been proposed to select a subset of electrode which are keep in the CSP calculation.Finally, a sparse CSP algorithm, based on the use of existing work in the sparse principal component analysis, was developed.The results of the different approaches are detailed and compared. This work allows us to obtaining a reliable model to obtain fast prediction of the alertness of a new individual
APA, Harvard, Vancouver, ISO, and other styles
23

Hadjee, Gino Eric. "Gain environnemental lié à une gestion coordonnée de la charge sur les réseaux de distribution d'énergie électrique." Paris 11, 2006. http://www.theses.fr/2006PA112044.

Full text
Abstract:
Dans la société actuelle, l'électricité s'avère indispensable et connaît une très forte expansion suite au développement de nouvelles technologies. Il est par ailleurs difficile de " stocker " l'électricité : la gestion de l'offre et de la demande doit se faire en temps réel. Cela nécessite une adaptation instantanée entre production, transport, distribution et consommation. Les usages provoquant des " pointes " de consommation énergétique, quotidiennes ou saisonnières, posent un problème car c'est en fonction de ces pointes que sont quantifiés les besoins en capacité de production, de transport et de distribution de l'électricité. La " gestion coordonnée de la charge " s'avère être une solution intéressante car elle permet d'améliorer l'efficacité énergétique tout en préservant la qualité de service. C'est un maillon essentiel, parmi les moyens d'action, grâce auquel chacun devrait trouver son intérêt, du producteur d'électricité à l'industriel, en passant par l'utilisateur et les pouvoirs publics. Cette thèse a pour but de rechercher les moyens et les méthodes de réduction de la pointe afin de lisser les courbes de charge vues des réseaux de distribution d'énergie électrique
The electricity demand has increased with the new developments in the world. This has put the pressure on the power utilities to meet the increasing demand of costumers. On electric power distribution, one simple way for meet this demand is to reinforce the power system capacity. However, this solution need not only expensive investments for electricity distributors but also increases the cost per for the costumers. An innovative way is to operate on costumer level. Then, it is interesting to study the management strategies for smoothing electricity demand curve without compromising the consumers comfort. Generally, the load control located at the level of the house or a group of houses. On this level, it consists in analyzing how a coordinated load management, being based on the typology of the principal electrical appliances, would allow reducing the load peak on distribution network level. On the distributor level, it consists in studying the influence of the tariff profile and proposing an optimization method in order to modify the consumer's behaviour to shift part of the peak load during off peak periods
APA, Harvard, Vancouver, ISO, and other styles
24

Vezard, Laurent. "Réduction de dimension en apprentissage supervisé : applications à l'étude de l'activité cérébrale." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00944790.

Full text
Abstract:
L'objectif de ce travail est de développer une méthode capable de déterminer automatiquement l'état de vigilance chez l'humain. Les applications envisageables sont multiples. Une telle méthode permettrait par exemple de détecter automatiquement toute modification de l'état de vigilance chez des personnes qui doivent rester dans un état de vigilance élevée (par exemple, les pilotes ou les personnels médicaux).Dans ce travail, les signaux électroencéphalographiques (EEG) de 58 sujets dans deux états de vigilance distincts (état de vigilance haut et bas) ont été recueillis à l'aide d'un casque à 58 électrodes posant ainsi un problème de classification binaire. Afin d'envisager une utilisation de ces travaux sur une application du monde réel, il est nécessaire de construire une méthode de prédiction qui ne nécessite qu'un faible nombre de capteurs (électrodes) afin de limiter le temps de pose du casque à électrodes ainsi que son coût. Au cours de ces travaux de thèse, plusieurs approches ont été développées. Une première approche propose d'utiliser un pré-traitement des signaux EEG basé sur l'utilisation d'une décomposition en ondelettes discrète des signaux EEG afin d'extraire les contributions de chaque fréquence dans le signal. Une régression linéaire est alors effectuée sur les contributions de certaines de ces fréquences et la pente de cette régression est conservée. Un algorithme génétique est utilisé afin d'optimiser le choix des fréquences sur lesquelles la régression est réalisée. De plus, cet algorithme génétique permet la sélection d'une unique électrode.Une seconde approche est basée sur l'utilisation du Common Spatial Pattern (CSP). Cette méthode permet de définir des combinaisons linéaires des variables initiales afin d'obtenir des signaux synthétiques utiles pour la tâche de classification. Dans ce travail, un algorithme génétique ainsi que des méthodes de recherche séquentielle ont été proposés afin de sélectionner un sous groupes d'électrodes à conserver lors du calcul du CSP.Enfin, un algorithme de CSP parcimonieux basé sur l'utilisation des travaux existant sur l'analyse en composantes principales parcimonieuse a été développé.Les résultats de chacune des approches sont détaillés et comparés. Ces travaux ont aboutit sur l'obtention d'un modèle permettant de prédire de manière rapide et fiable l'état de vigilance d'un nouvel individu.
APA, Harvard, Vancouver, ISO, and other styles
25

Ndongo, Fokoua Georges. "Étude expérimentale de la réduction de traînée par injection de bulles." Phd thesis, Université de Bretagne occidentale - Brest, 2013. http://tel.archives-ouvertes.fr/tel-00931382.

Full text
Abstract:
Cette thèse porte sur l'étude expérimentale de la réduction de traînée par injection de bulles. Le contexte de l'étude est lié à la propulsion navale. Les bulles peuvent, lorsqu'elles sont injectées dans la couche limite en développement le long des carènes de navires, contribuer à réduire significativement la résistance de frottement, en allégeant d'une part le fluide le long de la coque et d'autre part en interagissant avec les structures turbulentes de proche paroi. La configuration expérimentale retenue pour cette étude est l'écoulement de Taylor-Couette, avec cylindre extérieur fixe et injection de bulles calibrées. Nos investigations portent sur les régimes de transition, de turbulence naissante et turbulent avec persistance des cellules de Taylor (Re=20000). La taille des bulles varie avec le capillaire et le mélange utilisés, entre 0,05 et 0,12 fois la largeur de l'entrefer. Une méthode originale de suivi de la phase dispersée dans un plan méridien, couplée à des mesures de couple global appliqué au cylindre intérieur ont permis de mettre en évidence deux régimes de réduction de traînée et plusieurs types d'arrangements des bulles, en fonction de leur taille et du nombre de Reynolds. Les bulles peuvent avoir une trajectoire glissante, oscillante, être capturées par les cellules de Taylor ou en proche paroi du cylindre intérieur dans les zones de jets sortants. La caractérisation par PIV des vitesses de la phase liquide en monophasique et diphasique a permis d'étudier les modifications induites par les bulles sur la phase liquide et de discuter des mécanismes impliqués dans la modification du couple global par la présence des bulles. Il ressort de cette étude que pour les nombres de Reynolds en deçà de la capture, les bulles contribuent à stabiliser l'écoulement en accord avec une réduction du couple visqueux pouvant atteindre -30% pour des taux de vide très faible (< 1%). Pour des nombres de Reynolds plus élevés, la capture dans les cellules conduit à une réduction de la longueur d'onde axiale et une augmentation de la vorticité des cellules, associée à une augmentation des vitesses rms. Cette configuration est favorable à une augmentation du couple visqueux. A l'inverse, la capture des bulles dans le jet sortant conduit à une augmentation de la longueur d'onde axiale, associée à une diminution de la vorticité. Cette configuration est favorable à une réduction du couple visqueux, moins marquée qu'en absence de capture.
APA, Harvard, Vancouver, ISO, and other styles
26

Delaroque, Aurélie. "Élaboration d’un outil numérique pour la réduction et l’optimisation des mécanismes cinétiques pour les systèmes de combustion." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS417.

Full text
Abstract:
Lors de la modélisation d’un processus de combustion, l’obtention de données globales telles que la vitesse de flamme peut sous certaines condition être réalisée à l’aide de mécanismes très réduits. En revanche, la prédiction de données détaillées comme la concentration d’espèces polluantes minoritaires nécessite l’utilisation de mécanismes cinétiques détaillés mettant en jeu de nombreuses espèces chimiques. Du fait de leur taille et des différences d’échelles de temps, l’intégration de tels modèles chimiques à des simulations numériques complexes est cependant extrêmement coûteuse en temps de calcul. Pour s’affranchir de cette limite, un outil de réduction basé sur les méthodes de Directed Relation Graph et d’analyse de sensibilité a été développé. Il permet la génération automatique de mécanismes réduits en fonction de quantités d’intérêt telles que les données globales (vitesse de flamme, délai d’auto-allumage, etc) et détaillées (profils de concentration) en fonction de tolérances d’erreur définies par l’utilisateur. Les opérations de réduction sont couplées à une optimisation par algorithme génétique des constantes de réaction afin de compenser au maximum les erreurs issues de la perte d’information. Cette optimisation peut être réalisée par rapport à des données issues de simulations numériques mais également par rapport à des mesures expérimentales. L’outil complet a été testé sur différentes configurations canoniques pour différents combustibles (méthane, éthane et n-heptane) et des taux de réduction supérieurs à 80% ont pu être obtenus
In the modeling of a combustion process, obtention of global data such as flame speed can, under certain circumstances, be achieved through extremely reduced mechanisms. On the contrary, prediction of detailed data such as polluant species requires the use of detailed kinetic mechanisms involving many chemical species. Due to the size and to the presence of many differents time scales, the integration of those models to complex numerical simulations is a non trivial task. A reduction tool based on Directed Relation Graph and sensitivity analysis methods is proposed to tackle this issue. Reduced mechanisms fitting user defined tolerances for quantities of interest such as global (flame speed, ignition delay, etc) and detailed data (concentration profiles) are automatically generated. The reduction process is paired up with an optimisation of reaction rates through a genetic algorithm to make up for the error induced by the loss of information. This process can use both numerical and experimental reference entries. The complete numerical tool has been tested on several canonical configurations for several fuels (methane, ethane and n-heptane) and reduction rates up to 90% have been observed
APA, Harvard, Vancouver, ISO, and other styles
27

Stehlé, Damien. "Algorithmique de la réduction de réseaux et application à la recherche de pires cas pour l'arrondi defonctions mathématiques." Phd thesis, Université Henri Poincaré - Nancy I, 2005. http://tel.archives-ouvertes.fr/tel-00011150.

Full text
Abstract:
Les réseaux euclidiens sont un outil particulièrement puissant dans
plusieurs domaines de l'algorithmique, en cryptographie et en théorie
algorithmique des nombres par exemple. L'objet du présent mémoire est dual : nous améliorons les algorithmes de réduction des réseaux,
et nous développons une nouvelle application dans le domaine
de l'arithmétique des ordinateurs. En ce qui concerne l'aspect algorithmique, nous nous intéressons aux cas des petites dimensions (en dimension un, où il s'agit du calcul de pgcd, et aussi en dimensions 2 à 4), ainsi qu'à la description d'une nouvelle variante de l'algorithme LLL, en dimension quelconque. Du point de vue de l'application, nous utilisons la méthode
de Coppersmith permettant de trouver les petites racines de polynômes modulaires multivariés, pour calculer les pires cas pour l'arrondi des fonctions mathématiques, quand la fonction, le mode d'arrondi, et la précision sont donnés. Nous adaptons aussi notre technique aux mauvais cas simultanés pour deux fonctions. Ces deux méthodes sont des pré-calculs coûteux, qui une fois
effectués permettent d'accélérer les implantations des fonctions mathématiques élémentaires en précision fixée, par exemple en double précision.

La plupart des algorithmes décrits dans ce mémoire ont été validés
expérimentalement par des implantations, qui sont
disponibles à l'url http://www.loria.fr/~stehle.
APA, Harvard, Vancouver, ISO, and other styles
28

Vezard, Laurent. "Réduction de dimension en apprentissage supervisé. Application à l'étude de l'activité cérébrale." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00926845.

Full text
Abstract:
L'objectif de ce travail est de développer une méthode capable de déterminer automatiquement l'état de vigilance chez l'humain. Les applications envisageables sont multiples. Une telle méthode permettrait par exemple de détecter automatiquement toute modification de l'état de vigilance chez des personnes qui doivent rester dans un état de vigilance élevée (par exemple, les pilotes ou les personnels médicaux). Dans ce travail, les signaux électroencéphalographiques (EEG) de 58 sujets dans deux états de vigilance distincts (état de vigilance haut et bas) ont été recueillis à l'aide d'un casque à 58 électrodes posant ainsi un problème de classification binaire. Afin d'envisager une utilisation de ces travaux sur une application du monde réel, il est nécessaire de construire une méthode de prédiction qui ne nécessite qu'un faible nombre de capteurs (électrodes) afin de limiter le temps de pose du casque à électrodes ainsi que son coût. Au cours de ces travaux de thèse, plusieurs approches ont été développées. Une première approche propose d'utiliser un pré-traitement des signaux EEG basé sur l'utilisation d'une décomposition en ondelettes discrète des signaux EEG afin d'extraire les contributions de chaque fréquence dans le signal. Une régression linéaire est alors effectuée sur les contributions de certaines de ces fréquences et la pente de cette régression est conservée. Un algorithme génétique est utilisé afin d'optimiser le choix des fréquences sur lesquelles la régression est réalisée. De plus, cet algorithme génétique permet la sélection d'une unique électrode. Une seconde approche est basée sur l'utilisation du Common Spatial Pattern (CSP). Cette méthode permet de définir des combinaisons linéaires des variables initiales afin d'obtenir des signaux synthétiques utiles pour la tâche de classification. Dans ce travail, un algorithme génétique ainsi que des méthodes de recherche séquentielle ont été proposés afin de sélectionner un sous groupes d'électrodes à conserver lors du calcul du CSP. Enfin, un algorithme de CSP parcimonieux basé sur l'utilisation des travaux existant sur l'analyse en composantes principales parcimonieuse a été développé. Les résultats de chacune des approches seront détaillés et comparés. Ces travaux ont aboutit sur l'obtention d'un modèle permettant de prédire de manière rapide et fiable l'état de vigilance d'un nouvel individu.
APA, Harvard, Vancouver, ISO, and other styles
29

Denton, Patricia. "Réduction des NOx par C3H6 en atmosphère oxydante en présence de catalyseurs Pt-SiO2 et Pt-Al2O3 à porosité et dispersion de platine variables : modifications sous mélange réactionnel et approche mécanistique." Lyon 1, 1999. http://www.theses.fr/1999LYO10329.

Full text
Abstract:
Deux systemes catalytiques, pt/al 2o 3 et pt/sio 2, sont etudies en reduction selective des oxydes d'azote par c 3h 6, et accessoirement c 3h 8, en presence d'un exces d'oxygene. Le but de l'etude est de comprendre pourquoi ces catalyseurs ne fonctionnent que sur une plage etroite de temperature et presentent une selectivite trop importante en n 2o, afin d'essayer, ulterieurement, d'optimiser la formulation. Plusieurs parametres physicochimiques (porosite des supports, presence de chlore, teneur et dispersion de platine) sont pris en compte. Les modifications sous melange reactionnel sont considerees. Apres passage a 773 k sous un melange reactionnel no-c 3h 6-o 2, les catalyseurs sont generalement actives, mais jamais desactives. Cette activation est directement liee au frittage des particules de platine. En effet, les particules les plus grosses possedent l'activite intrinseque la plus forte pour chacune des reactions considerees : reductions de no par c 3h 6 donnant n 2 ou n 2o, oxydation de no en no 2 et oxydation de c 3h 6 par o 2. De plus, des particules plus grosses conduisent a des liaisons pt-o plus faibles favorisant la dissociation de no. Des etudes mecanistiques en regimes stationnaire (parametres cinetiques) et transitoire (analyse temporelle des produits, ou tap) faites avec un catalyseur pt/sio 2 montrent que n 2o adsorbe est un intermediaire de formation de n 2. En outre, avec le reducteur propene, ce catalyseur presente un fonctionnement de type redox : l'oxygene empeche le blocage des sites actifs par des especes carbonees qui, a leur tour, protegent la surface d'un empoisonnement par l'oxygene. La transformation de no en n 2 et n 2o se fait par dissociation sur des sites libres de platine. Par contre, en l'absence d'oxygene, deux processus ont lieu : non seulement la dissociation de no, mais aussi une reaction directe entre un compose azote et un compose carbone. Des etudes limitees avec le reducteur propane indiquent l'existence d'un mecanisme different.
APA, Harvard, Vancouver, ISO, and other styles
30

Korsakissok, Irène. "Changements d'échelle en modélisation de la qualité de l'air et estimation des incertitudes associées." Phd thesis, Université Paris-Est, 2009. http://tel.archives-ouvertes.fr/tel-00596384.

Full text
Abstract:
L'évolution des polluants dans l'atmosphère dépend de phénomènes variés, tels que les émissions, la météorologie, la turbulence ou les transformations physico-chimiques, qui ont des échelles caractéristiques spatiales et temporelles très diverses. Il est très difficile, par conséquent, de représenter l'ensemble de ces échelles dans un modèle de qualité de l'air. En particulier, les modèles eulériens de chimie-transport, couramment utilisés, ont une résolution bien supérieure à la taille des plus petites échelles. Cette thèse propose une revue des processus physiques mal représentés par les modèles de qualité de l'air, et de la variabilité sous-maille qui en résulte. Parmi les méthodes possibles permettant de mieux prendre en compte les différentes échelles, deux approches ont été développées : le couplage entre un modèle local et un modèle eulérien, ainsi qu'une approche statistique de réduction d'échelle. Couplage de modèles L'une des principales causes de la variabilité sous-maille réside dans les émissions, qu'il s'agisse des émissions ponctuelles ou du trafic routier. En particulier, la taille caractéristique d'un panache émis par une cheminée est très inférieure à l'échelle spatiale bien résolue par les modèles eulériens. Une première approche étudiée dans la thèse est un traitement sous-maille des émissions ponctuelles, en couplant un modèle gaussien à bouffées pour l'échelle locale à un modèle eulérien (couplage appelé panache sous-maille). L'impact de ce traitement est évalué sur des cas de traceurs passifs à l'échelle continentale (ETEX-I et Tchernobyl) ainsi que sur un cas de photochimie à l'échelle de la région parisienne. Différents aspects sont étudiés, notamment l'incertitude due aux paramétrisations du modèle local, ainsi que l'influence de la résolution du maillage eulérien. Réduction d'échelle statistique Une seconde approche est présentée, basée sur des méthodes statistiques de réduction d'échelle. Il s'agit de corriger l'erreur de représentativité du modèle aux stations de mesures. En effet, l'échelle de représentativité d'une station de mesure est souvent inférieure à l'échelle traitée par le modèle (échelle d'une maille), et les concentrations à la station sont donc mal représentées par le modèle. En pratique, il s'agit d'utiliser des relations statistiques entre les concentrations dans les mailles du modèle et les concentrations aux stations de mesure, afin d'améliorer les prévisions aux stations. L'utilisation d'un ensemble de modèles permet de prendre en compte l'incertitude inhérente aux paramétrisations des modèles. Avec cet ensemble, différentes techniques sont utilisées, de la régression simple à la décomposition en composantes principales, ainsi qu'une technique nouvelle appelée "composantes principales ajustées". Les résultats sont présentés pour l'ozone à l'échelle européenne, et analysés notamment en fonction du type de station concerné (rural, urbain ou périurbain).
APA, Harvard, Vancouver, ISO, and other styles
31

Salazar, Veronica. "Etude des propriétés physiques des aérosols de la moyenne et haute atmosphère à partir d'une nouvelle analyse des observations du GOMOS-ENVISAT pour la période 2002-2006." Phd thesis, Université d'Orléans, 2010. http://tel.archives-ouvertes.fr/tel-00608052.

Full text
Abstract:
L'étude des aérosols de la stratosphère est primordiale pour modéliser précisément le bilan radiatif terrestre, et pour évaluer l'influence des particules sur le cycle de destruction de l'ozone. Depuis la découverte de la couche de Junge, ce domaine de recherche connaît différents décors, du plus important contenu en aérosols du dernier siècle après l'éruption du Mont Pinatubo en 1991, à un rétablissement vers les faibles niveaux atteints dans les années 2000, qui permet l'étude des particules autres que celles d'origine volcanique. Cependant, à ce jour, le degré de connaissance est faible quant à la distribution spatiale et verticale de ces aérosols dans la moyenne et haute stratosphère. Leur détection présente plusieurs difficultés: les particules ont une grande variété d'origines, compositions, tailles et formes, et leurs faibles épaisseurs optiques rendent indispensables des résultats précis. Un algorithme d'inversion développé au LPC2E a été adapté à l'analyse des données de niveau 1b de l'instrument GOMOS à bord d'ENVISAT, qui emploie la technique d'occultation stellaire, et fournit une bonne (mais irrégulière) couverture géographique et temporelle des mesures; un critère de sélection est d'ailleurs nécessaire du fait de l'utilisation de sources lumineuses de propriétés différentes. La méthode mise au point est validée pour l'étude de l'extinction induite par les aérosols; une climatologie globale est alors établie pour la période allant d'août 2002 à juillet 2006, et indique la présence permanente de particules dans l'ensemble du globe, jusqu'à environ 45 km d'altitude. La variabilité temporelle de l'extinction montre une augmentation progressive du contenu moyen depuis 2002 aux latitudes tropicales dans la basse stratosphère, et a permis d'évaluer l'effet de l'oscillation quasi-biennale et d'étudier d'autres variations saisonnières. La dépendance spectrale permet de déduire certaines spécificités concernant la taille et la nature des aérosols, majoritairement des particules sulfatées, mais également des suies en provenance de la troposphère et des particules d'origine interplanétaire.
APA, Harvard, Vancouver, ISO, and other styles
32

Giacofci, Joyce. "Classification non supervisée et sélection de variables dans les modèles mixtes fonctionnels. Applications à la biologie moléculaire." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM025/document.

Full text
Abstract:
Un nombre croissant de domaines scientifiques collectent de grandes quantités de données comportant beaucoup de mesures répétées pour chaque individu. Ce type de données peut être vu comme une extension des données longitudinales en grande dimension. Le cadre naturel pour modéliser ce type de données est alors celui des modèles mixtes fonctionnels. Nous traitons, dans une première partie, de la classification non-supervisée dans les modèles mixtes fonctionnels. Nous présentons dans ce cadre une nouvelle procédure utilisant une décomposition en ondelettes des effets fixes et des effets aléatoires. Notre approche se décompose en deux étapes : une étape de réduction de dimension basée sur les techniques de seuillage des ondelettes et une étape de classification où l'algorithme EM est utilisé pour l'estimation des paramètres par maximum de vraisemblance. Nous présentons des résultats de simulations et nous illustrons notre méthode sur des jeux de données issus de la biologie moléculaire (données omiques). Cette procédure est implémentée dans le package R "curvclust" disponible sur le site du CRAN. Dans une deuxième partie, nous nous intéressons aux questions d'estimation et de réduction de dimension au sein des modèles mixtes fonctionnels et nous développons en ce sens deux approches. La première approche se place dans un objectif d'estimation dans un contexte non-paramétrique et nous montrons dans ce cadre, que l'estimateur de l'effet fixe fonctionnel basé sur les techniques de seuillage par ondelettes possède de bonnes propriétés de convergence. Notre deuxième approche s'intéresse à la problématique de sélection des effets fixes et aléatoires et nous proposons une procédure basée sur les techniques de sélection de variables par maximum de vraisemblance pénalisée et utilisant deux pénalités SCAD sur les effets fixes et les variances des effets aléatoires. Nous montrons dans ce cadre que le critère considéré conduit à des estimateurs possédant des propriétés oraculaires dans un cadre où le nombre d'individus et la taille des signaux divergent. Une étude de simulation visant à appréhender les comportements des deux approches développées est réalisée dans ce contexte
More and more scientific studies yield to the collection of a large amount of data that consist of sets of curves recorded on individuals. These data can be seen as an extension of longitudinal data in high dimension and are often modeled as functional data in a mixed-effects framework. In a first part we focus on performing unsupervised clustering of these curves in the presence of inter-individual variability. To this end, we develop a new procedure based on a wavelet representation of the model, for both fixed and random effects. Our approach follows two steps : a dimension reduction step, based on wavelet thresholding techniques, is first performed. Then a clustering step is applied on the selected coefficients. An EM-algorithm is used for maximum likelihood estimation of parameters. The properties of the overall procedure are validated by an extensive simulation study. We also illustrate our method on high throughput molecular data (omics data) like microarray CGH or mass spectrometry data. Our procedure is available through the R package "curvclust", available on the CRAN website. In a second part, we concentrate on estimation and dimension reduction issues in the mixed-effects functional framework. Two distinct approaches are developed according to these issues. The first approach deals with parameters estimation in a non parametrical setting. We demonstrate that the functional fixed effects estimator based on wavelet thresholding techniques achieves the expected rate of convergence toward the true function. The second approach is dedicated to the selection of both fixed and random effects. We propose a method based on a penalized likelihood criterion with SCAD penalties for the estimation and the selection of both fixed effects and random effects variances. In the context of variable selection we prove that the penalized estimators enjoy the oracle property when the signal size diverges with the sample size. A simulation study is carried out to assess the behaviour of the two proposed approaches
APA, Harvard, Vancouver, ISO, and other styles
33

Fahlaoui, Tarik. "Réduction de modèles et apprentissage de solutions spatio-temporelles paramétrées à partir de données : application à des couplages EDP-EDO." Thesis, Compiègne, 2020. http://www.theses.fr/2020COMP2535.

Full text
Abstract:
On s’intéresse dans cette thèse à l’apprentissage d’un modèle réduit précis et stable, à partir de données correspondant à la solution d’une équation aux dérivées partielles (EDP), et générées par un solveur haute fidélité (HF). Pour ce faire, on utilise la méthode Dynamic Mode Decomposition (DMD) ainsi que la méthode de réduction Proper Orthogonal Decomposition (POD). Le modèle réduit appris est facilement interprétable, et par une analyse spectrale a posteriori de ce modèle on peut détecter les anomalies lors de la phase d’apprentissage. Les extensions au cas de couplage EDP-EDO, ainsi qu’au cas d’EDP d’ordre deux en temps sont présentées. L’apprentissage d’un modèle réduit dans le cas d’un système dynamique contrôlé par commutation, où la règle de contrôle est apprise à l’aide d’un réseau de neurones artificiel (ANN), est également traité. Un inconvénient de la réduction POD, est la difficile interprétation de la représentation basse dimension. On proposera alors l’utilisation de la méthode Empirical Interpolation Method (EIM). La représentation basse dimension est alors intelligible, et consiste en une restriction de la solution en des points sélectionnés. Cette approche sera ensuite étendue au cas d’EDP dépendant d’un paramètre, et où l’algorithme Kernel Ridge Regression (KRR) nous permettra d’apprendre la variété solution. Ainsi, on présentera l’apprentissage d’un modèle réduit paramétré. L’extension au cas de données bruitées ou bien au cas d’EDP d’évolution non linéaire est présentée en ouverture
In this thesis, an algorithm for learning an accurate reduced order model from data generated by a high fidelity solver (HF solver) is proposed. To achieve this goal, we use both Dynamic Mode Decomposition (DMD) and Proper Orthogonal Decomposition (POD). Anomaly detection, during the learning process, can be easily done by performing an a posteriori spectral analysis on the reduced order model learnt. Several extensions are presented to make the method as general as possible. Thus, we handle the case of coupled ODE/PDE systems or the case of second order hyperbolic equations. The method is also extended to the case of switched control systems, where the switching rule is learnt by using an Artificial Neural Network (ANN). The reduced order model learnt allows to predict time evolution of the POD coefficients. However, the POD coefficients have no interpretable meaning. To tackle this issue, we propose an interpretable reduction method using the Empirical Interpolation Method (EIM). This reduction method is then adapted to the case of third-order tensors, and combining with the Kernel Ridge Regression (KRR) we can learn the solution manifold in the case of parametrized PDEs. In this way, we can learn a parametrized reduced order model. The case of non-linear PDEs or disturbed data is finally presented in the opening
APA, Harvard, Vancouver, ISO, and other styles
34

De, Barros Louis. "Sensibilité et inversion des formes d'ondes sismiques en milieu poreux stratifié." Grenoble 1, 2007. http://www.theses.fr/2007GRE10275.

Full text
Abstract:
Ce travail s'intéresse aux possibilités d'estimer les propriétés d'un milieu poreux, notamment la porosité et les propriétés du fluide saturant à partir des ondes sismiques réfléchies. Après une description théorique des paramètres mécaniques et des propriétés spécifiques des ondes sismiques dans les milieux poreux, le problème direct est calculé pour un milieu poreux stratifié plan saturé par une méthode de réflectivité. Ce programme de simulation est tout d'abord utilisé pour estimer la sensibilité des ondes réfléchies à la localisation et à la concentration de dioxyde de carbone dans un stockage géologique profond. La sensibilité de la réponse sismique est regardée pour la localisation et à la concentration de dioxyde de carbone dans un stockage géologique profond puis est ensuite établie de manière plus systématique par le calcul analytique des dérivées de Fréchet des sismogrammes. Ces opérateurs de sensibilité sont ensuite intégrés dans un code d'inversion de fonnes d'ondes complètes par une approche locale (Quasi-Newton) bas' sur la modélisation itérative des données. Les calculs d'inversion réalisés à partir de données synthétiques indiquent que les distributions de porosité et des paramètres caractérisant le solide et le fluide peuvent être correctement reconstruits lorsque les autres paramètres sont bien détenninés. Cependant, l'inversion de plusieurs paramètres reste un problème difficile du fait des couplages sismiques existant entre eux. La méthode d'inversion est finalement appliquée à un jeu de données réelles acquis sur le site côtier de Maguelonne dans l'Hérault
Characterisation of porous media parameters, and particularly the porosity, penneability and fluid properties are very useful in many applications. The aim ofthis study is to evaluate the possibility to detennine the se properties from the full seismic wave fields. First, 1 present the poro-elastic parameters and the specific properties of the seismic waves in porous media. Seismic wave propagation are then computed in fluid saturated stratified porous media with a reflectivity method. This computation is first used to study the possibilities to detennine the carbon dioxide concentration and localisation in the case of a deep geological storage. The sensitivity of the seismic response to the poro-elastic parameters are then generalized by the analytical computation of the Fréchet derivatives which are expressed in tenns of the Green's functions of the unperturbed medium. The sensitivity operators are then introduced in a inversion algorithm based on iterative modelling ofthe full wavefonn. The classical algorithm of generalized least-square inverse problem is solved by the quasi-Newton technique (Tarantola, 1984). The inversion of synthetic data show that we can invert for the porosity and the fluid and solid parameters can be correctly rebuilt if the other parameters are well known. However, the strong seismic coupling of the porous parameters leads to difficulties to invert simultaneously for several parameters. Finally, 1 apply this algorithm on real data recorded on the coastal site of Maguelonne (Hérault)
APA, Harvard, Vancouver, ISO, and other styles
35

Barkouki, Houda. "Rational Lanczos-type methods for model order reduction." Thesis, Littoral, 2016. http://www.theses.fr/2016DUNK0440/document.

Full text
Abstract:
La solution numérique des systèmes dynamiques est un moyen efficace pour étudier des phénomènes physiques complexes. Cependant, dans un cadre à grande échelle, la dimension du système rend les calculs infaisables en raison des limites de mémoire et de temps, ainsi que le mauvais conditionnement. La solution de ce problème est la réduction de modèles. Cette thèse porte sur les méthodes de projection pour construire efficacement des modèles d'ordre inférieur à partir des systèmes linéaires dynamiques de grande taille. En particulier, nous nous intéressons à la projection sur la réunion de plusieurs sous-espaces de Krylov standard qui conduit à une classe de modèles d'ordre réduit. Cette méthode est connue par l'interpolation rationnelle. En se basant sur ce cadre théorique qui relie la projection de Krylov à l'interpolation rationnelle, quatre algorithmes de type Lanczos rationnel pour la réduction de modèles sont proposés. Dans un premier temps, nous avons introduit une méthode adaptative de type Lanczos rationnel par block pour réduire l'ordre des systèmes linéaires dynamiques de grande taille, cette méthode est basée sur l'algorithme de Lanczos rationnel par block et une méthode adaptative pour choisir les points d'interpolation. Une généralisation de ce premier algorithme est également donnée, où différentes multiplicités sont considérées pour chaque point d'interpolation. Ensuite, nous avons proposé une autre extension de la méthode du sous-espace de Krylov standard pour les systèmes à plusieurs-entrées plusieurs-sorties, qui est le sous-espace de Krylov global. Nous avons obtenu des équations qui décrivent cette procédure. Finalement, nous avons proposé une méthode de Lanczos étendu par block et nous avons établi de nouvelles propriétés algébriques pour cet algorithme. L'efficacité et la précision de tous les algorithmes proposés, appliqués sur des problèmes de réduction de modèles, sont testées dans plusieurs exemples numériques
Numerical solution of dynamical systems have been a successful means for studying complex physical phenomena. However, in large-scale setting, the system dimension makes the computations infeasible due to memory and time limitations, and ill-conditioning. The remedy of this problem is model reductions. This dissertations focuses on projection methods to efficiently construct reduced order models for large linear dynamical systems. Especially, we are interesting by projection onto unions of Krylov subspaces which lead to a class of reduced order models known as rational interpolation. Based on this theoretical framework that relate Krylov projection to rational interpolation, four rational Lanczos-type algorithms for model reduction are proposed. At first, an adaptative rational block Lanczos-type method for reducing the order of large scale dynamical systems is introduced, based on a rational block Lanczos algorithm and an adaptive approach for choosing the interpolation points. A generalization of the first algorithm is also given where different multiplicities are consider for each interpolation point. Next, we proposed another extension of the standard Krylov subspace method for Multiple-Input Multiple-Output (MIMO) systems, which is the global Krylov subspace, and we obtained also some equations that describe this process. Finally, an extended block Lanczos method is introduced and new algebraic properties for this algorithm are also given. The accuracy and the efficiency of all proposed algorithms when applied to model order reduction problem are tested by means of different numerical experiments that use a collection of well known benchmark examples
APA, Harvard, Vancouver, ISO, and other styles
36

Luu, Thi Hieu. "Amélioration du modèle de sections efficaces dans le code de cœur COCAGNE de la chaîne de calculs d'EDF." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066120/document.

Full text
Abstract:
Afin d'exploiter au mieux son parc nucléaire, la R&D d'EDF est en train de développer une nouvelle chaîne de calcul pour simuler le cœur des réacteurs nucléaires avec des outils à l'état de l'art. Ces calculs nécessitent une grande quantité de données physiques, en particulier les sections efficaces. Dans la simulation d'un cœur complet, le nombre de valeurs des sections efficaces est de l'ordre de plusieurs milliards. Ces sections efficaces peuvent être représentées comme des fonctions multivariées dépendant de plusieurs paramètres physiques. La détermination des sections efficaces étant un calcul complexe et long, nous pouvons donc les précalculer en certaines valeurs des paramètres (caluls hors ligne) puis les évaluer en tous points par une interpolation (calculs en ligne). Ce processus demande un modèle de reconstruction des sections efficaces entre les deux étapes. Pour réaliser une simulation plus fidèle du cœur dans la nouvelle chaîne d'EDF, les sections efficaces nécessitent d'être mieux représentées en prenant en compte de nouveaux paramètres. Par ailleurs, la nouvelle chaîne se doit d'être en mesure de calculer le réacteur dans des situations plus larges qu'actuellement. Le modèle d'interpolation multilinéaire pour reconstruire les sections efficaces est celui actuellement utilisé pour répondre à ces objectifs. Néanmoins, avec ce modèle, le nombre de points de discrétisation augmente exponentiellement en fonction du nombre de paramètres ou de manière considérable quand on ajoute des points sur un des axes. Par conséquence, le nombre et le temps des calculs hors ligne ainsi que la taille du stockage des données deviennent problématique. L'objectif de cette thèse est donc de trouver un nouveau modèle pour répondre aux demandes suivantes : (i)-(hors ligne) réduire le nombre de précalculs, (ii)-(hors ligne) réduire le stockage de données pour la reconstruction et (iii)-(en ligne) tout en conservant (ou améliorant) la précision obtenue par l'interpolation multilinéaire. D'un point de vue mathématique, ce problème consiste à approcher des fonctions multivariées à partir de leurs valeurs précalculées. Nous nous sommes basés sur le format de Tucker - une approximation de tenseurs de faible rang afin de proposer un nouveau modèle appelé la décomposition de Tucker . Avec ce modèle, une fonction multivariée est approchée par une combinaison linéaire de produits tensoriels de fonctions d'une variable. Ces fonctions d'une variable sont construites grâce à une technique dite de décomposition en valeurs singulières d'ordre supérieur (une « matricization » combinée à une extension de la décomposition de Karhunen-Loève). L'algorithme dit glouton est utilisé pour constituer les points liés à la résolution des coefficients dans la combinaison de la décomposition de Tucker. Les résultats obtenus montrent que notre modèle satisfait les critères exigés sur la réduction de données ainsi que sur la précision. Avec ce modèle, nous pouvons aussi éliminer a posteriori et à priori les coefficients dans la décomposition de Tucker. Cela nous permet de réduire encore le stockage de données dans les étapes hors ligne sans réduire significativement la précision
In order to optimize the operation of its nuclear power plants, the EDF's R&D department iscurrently developing a new calculation chain to simulate the nuclear reactors core with state of the art tools. These calculations require a large amount of physical data, especially the cross-sections. In the full core simulation, the number of cross-section values is of the order of several billions. These cross-sections can be represented as multivariate functions depending on several physical parameters. The determination of cross-sections is a long and complex calculation, we can therefore pre-compute them in some values of parameters (online calculations), then evaluate them at all desired points by an interpolation (online calculations). This process requires a model of cross-section reconstruction between the two steps. In order to perform a more faithful core simulation in the new EDF's chain, the cross-sections need to be better represented by taking into account new parameters. Moreover, the new chain must be able to calculate the reactor in more extensive situations than the current one. The multilinear interpolation is currently used to reconstruct cross-sections and to meet these goals. However, with this model, the number of points in its discretization increases exponentially as a function of the number of parameters, or significantly when adding points to one of the axes. Consequently, the number and time of online calculations as well as the storage size for this data become problematic. The goal of this thesis is therefore to find a new model in order to respond to the following requirements: (i)-(online) reduce the number of pre-calculations, (ii)-(online) reduce stored data size for the reconstruction and (iii)-(online) maintain (or improve) the accuracy obtained by multilinear interpolation. From a mathematical point of view, this problem involves approaching multivariate functions from their pre-calculated values. We based our research on the Tucker format - a low-rank tensor approximation in order to propose a new model called the Tucker decomposition . With this model, a multivariate function is approximated by a linear combination of tensor products of one-variate functions. These one-variate functions are constructed by a technique called higher-order singular values decomposition (a « matricization » combined with an extension of the Karhunen-Loeve decomposition). The so-called greedy algorithm is used to constitute the points related to the resolution of the coefficients in the combination of the Tucker decomposition. The results obtained show that our model satisfies the criteria required for the reduction of the data as well as the accuracy. With this model, we can eliminate a posteriori and a priori the coefficients in the Tucker decomposition in order to further reduce the data storage in online steps but without reducing significantly the accuracy
APA, Harvard, Vancouver, ISO, and other styles
37

Tran, Quang Huy. "Résolution et étude numériques de quelques problèmes de propagation d'ondes acoustiques en géophysique." Paris, ENMP, 1994. http://www.theses.fr/1994ENMP0494.

Full text
Abstract:
Cette these est composee de quatre travaux differents qui se rapportent tous a un meme sujet: la simulation numerique de la propagation d'onde en geophysique. 1. Propagation des ondes acoustiques en milieu aleatoire: etudes numeriques en 1-d et 3-d. Il s'agit d'etablir experimentalement les proprietes de cette propagation, sachant que de nombreux travaux theoriques, bases sur l'hypothese de linearisation, existent deja. 2. Optimisation sous contrainte en tomographie de reflexion: la methode du lagrangien augmente. On relate ici la recherche d'une methode d'optimisation efficace pour resoudre un probleme inverse concret mais difficile. 3. Decomposition de domaines appliquee a l'equation des ondes acoustiques. On presente une nouvelle methode de simulation qui permet d'adapter le pas du maillage aux caracteristiques de chaque sous-domaine. Une analyse de convergence est fournie. 4. Analyse de dispersion et du cout des schemas aux differences finies en 3-d. A une precision imposee sur l'erreur de groupe relative et une taille donnee du modele geologique, on compare les schemas 2-4 et 2-8 du point de vue du nombre d'operations flottantes necessaires
APA, Harvard, Vancouver, ISO, and other styles
38

Giacofci, Madison. "Classification non supervisée et sélection de variables dans les modèles mixtes fonctionnels. Applications à la biologie moléculaire." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00987441.

Full text
Abstract:
Un nombre croissant de domaines scientifiques collectent de grandes quantités de données comportant beaucoup de mesures répétées pour chaque individu. Ce type de données peut être vu comme une extension des données longitudinales en grande dimension. Le cadre naturel pour modéliser ce type de données est alors celui des modèles mixtes fonctionnels. Nous traitons, dans une première partie, de la classification non-supervisée dans les modèles mixtes fonctionnels. Nous présentons dans ce cadre une nouvelle procédure utilisant une décomposition en ondelettes des effets fixes et des effets aléatoires. Notre approche se décompose en deux étapes : une étape de réduction de dimension basée sur les techniques de seuillage des ondelettes et une étape de classification où l'algorithme EM est utilisé pour l'estimation des paramètres par maximum de vraisemblance. Nous présentons des résultats de simulations et nous illustrons notre méthode sur des jeux de données issus de la biologie moléculaire (données omiques). Cette procédure est implémentée dans le package R "curvclust" disponible sur le site du CRAN. Dans une deuxième partie, nous nous intéressons aux questions d'estimation et de réduction de dimension au sein des modèles mixtes fonctionnels et nous développons en ce sens deux approches. La première approche se place dans un objectif d'estimation dans un contexte non-paramétrique et nous montrons dans ce cadre, que l'estimateur de l'effet fixe fonctionnel basé sur les techniques de seuillage par ondelettes possède de bonnes propriétés de convergence. Notre deuxième approche s'intéresse à la problématique de sélection des effets fixes et aléatoires et nous proposons une procédure basée sur les techniques de sélection de variables par maximum de vraisemblance pénalisée et utilisant deux pénalités SCAD sur les effets fixes et les variances des effets aléatoires. Nous montrons dans ce cadre que le critère considéré conduit à des estimateurs possédant des propriétés oraculaires dans un cadre où le nombre d'individus et la taille des signaux divergent. Une étude de simulation visant à appréhender les comportements des deux approches développées est réalisée dans ce contexte.
APA, Harvard, Vancouver, ISO, and other styles
39

Girardet, Brunilde. "Trafic aérien : détermination optimale et globale des trajectoires d'avion en présence de vent." Thesis, Toulouse, INSA, 2014. http://www.theses.fr/2014ISAT0027/document.

Full text
Abstract:
Dans le contexte du futur système de gestion du trafic aérien, un des objectifs consiste à réduire l’impact environnemental du trafic aérien. Pour respecter ce but, le concept de “free-route”, introduit dans les années 1990, semble bien adapté aujourd’hui. Les avions ne seraient plus contraints à voler le long de routes aériennes, mais pourraient suivre des trajectoires optimales en terme de consommation. L’objectif de cette thèse est d’introduire une nouvelle méthode de planification du trafic à l’horizon pré-tactique avec des objectifs quelques fois contradictoires, c’est-à-dire avec pour but de minimiser la consommation ou de façon équivalente la durée de trajet en tenant compte des conditions météorologiques et de minimiser l’encombrement de l’espace aérien.La méthode a été mise au point en deux étapes. La première étape a été consacrée au calcul d’une seule trajectoire optimale en terme de temps de vol en tenant compte du vent et de contraintes celles des zones interdites de survol. Cette optimisation est basée sur une adaptation de l’algorithme Ordered Upwind. La deuxième étape introduit un algorithme hybride développé, basé sur un algorithme de recuit simulé et sur l’algorithme déterministe développé dans la première étape, afin de minimiser un compromis entre la congestion et la consommation. L’algorithme combine ainsi la capacité d’atteindre la solution optimale globale via une recherche locale qui permet d’accélérer la convergence.Des simulations numériques avec des prévisions de vent sur du trafic européen donnent des résultats encourageants qui démontrent que la méthode globale est à la fois viable et bénéfique en terme du temps de vol total comme de la congestion globale donc de la diminution des conflits
In the context of the future Air Traffic Management system (ATM), one objective is to reduce the environmental impact of air traffic. With respect to this criterion, the “freeroute” concept, introduced in the mid 1990’s, is well suited to improve over nowadays airspace based ATM. Aircraft will no longer be restricted to fly along airways and may fly along fuel-optimal routes. The objective of this thesis is to introduce a novel pretactical trajectory planning methodology which aims at minimizing airspace congestion while taking into account weather conditions so as to minimize also fuel consumption.The development of the method was divided in two steps. The first step is dedicated to compute a time-optimal route for one aircraft taking into account wind conditions. This optimization is based on an adaptation of the Ordered Upwind Method on the sphere.The second step introduces a hybrid algorithm, based on simulated annealing and on the deterministic algorithm developed in the first step, in order to minimize congestion. Thus the algorithm combines the ability to reach a globally-optimal solution with a local-search procedure that speeds up the convergence
APA, Harvard, Vancouver, ISO, and other styles
40

Joubert, Christophe. "Vérification distribuée à la volée de grands espaces d'états." Phd thesis, Grenoble INPG, 2005. http://tel.archives-ouvertes.fr/tel-00011939.

Full text
Abstract:
La vérification des systèmes d'états finis, qu'ils soient distribués ou concurrents, est confrontée en pratique au problème d'explosion d'états (taille prohibitive de l'espace d'états sous-jacent) qui survient pour des systèmes de taille réaliste, contenant de nombreux processus en parallèle et des structures de données complexes. Différentes techniques ont été proposées pour combattre l'explosion d'états, telles que la vérification à la volée, la réduction d'ordre partiel, ou encore la vérification distribuée. Cependant, l'expérience pratique a montré qu'aucune de ces techniques, à elle seule, n'est toujours suffisante pour maîtriser des systèmes à grande échelle. Cette thèse propose une combinaison de ces approches dans le but de faire passer à l'échelle leurs capacités de vérification. Notre approche est basée sur les Systèmes d'Equations Booléennes (SEBs), qui fournissent une représentation intermédiaire élégante des problèmes de vérification définis sur des Systèmes de Transitions Etiquetées, comme la comparaison par équivalence, la réduction par tau-confluence, l'évaluation de formules de mu-calcul modal sans alternance, ou encore la génération de cas de tests de conformité. Nous proposons DSolve et MB-DSolve, deux nouveaux algorithmes pour la résolution distribuée à la volée de SEBs (contenant un, resp. plusieurs blocs d'équations), et nous les employons comme moteurs de calcul pour quatre outils de vérification à la volée développés au sein de la boîte à outils CADP en utilisant l'environnement OPEN/CAESAR : le comparateur par équivalence BISIMULATOR, le réducteur TAU_CONFLUENCE, l'évaluateur de propriétés temporelles EVALUATOR, et le générateur de cas de tests de conformité EXTRACTOR. Les mesures expérimentales effectuées sur des grappes de machines montrent des accélérations quasi-linéaires et un bon passage à l'échelle des versions distribuées de ces outils par rapport à leurs équivalents séquentiels.
APA, Harvard, Vancouver, ISO, and other styles
41

Do, Thanh Ha. "Sparse representations over learned dictionary for document analysis." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0021/document.

Full text
Abstract:
Dans cette thèse, nous nous concentrons sur comment les représentations parcimonieuses peuvent aider à augmenter les performances pour réduire le bruit, extraire des régions de texte, reconnaissance des formes et localiser des symboles dans des documents graphiques. Pour ce faire, tout d'abord, nous donnons une synthèse des représentations parcimonieuses et ses applications en traitement d'images. Ensuite, nous présentons notre motivation pour l'utilisation de dictionnaires d'apprentissage avec des algorithmes efficaces pour les construire. Après avoir décrit l'idée générale des représentations parcimonieuses et du dictionnaire d'apprentissage, nous présentons nos contributions dans le domaine de la reconnaissance de symboles et du traitement des documents en les comparants aux travaux de l'état de l'art. Ces contributions s'emploient à répondre aux questions suivantes: La première question est comment nous pouvons supprimer le bruit des images où il n'existe aucune hypothèse sur le modèle de bruit sous-jacent à ces images ? La deuxième question est comment les représentations parcimonieuses sur le dictionnaire d'apprentissage peuvent être adaptées pour séparer le texte du graphique dans des documents? La troisième question est comment nous pouvons appliquer la représentation parcimonieuse à reconnaissance de symboles? Nous complétons cette thèse en proposant une approche de localisation de symboles dans les documents graphiques qui utilise les représentations parcimonieuses pour coder un vocabulaire visuel
In this thesis, we focus on how sparse representations can help to increase the performance of noise removal, text region extraction, pattern recognition and spotting symbols in graphical documents. To do that, first of all, we give a survey of sparse representations and its applications in image processing. Then, we present the motivation of building learning dictionary and efficient algorithms for constructing a learning dictionary. After describing the general idea of sparse representations and learned dictionary, we bring some contributions in the field of symbol recognition and document processing that achieve better performances compared to the state-of-the-art. These contributions begin by finding the answers to the following questions. The first question is how we can remove the noise of a document when we have no assumptions about the model of noise found in these images? The second question is how sparse representations over learned dictionary can separate the text/graphic parts in the graphical document? The third question is how we can apply the sparse representation for symbol recognition? We complete this thesis by proposing an approach of spotting symbols that use sparse representations for the coding of a visual vocabulary
APA, Harvard, Vancouver, ISO, and other styles
42

Zniyed, Yassine. "Breaking the curse of dimensionality based on tensor train : models and algorithms." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS330.

Full text
Abstract:
Le traitement des données massives, communément connu sous l’appellation “Big Data”, constitue l’un des principaux défis scientifiques de la communauté STIC.Plusieurs domaines, à savoir économique, industriel ou scientifique, produisent des données hétérogènes acquises selon des protocoles technologiques multi-modales. Traiter indépendamment chaque ensemble de données mesurées est clairement une approche réductrice et insatisfaisante. En faisant cela, des “relations cachées” ou des inter-corrélations entre les données peuvent être totalement ignorées.Les représentations tensorielles ont reçu une attention particulière dans ce sens en raison de leur capacité à extraire de données hétérogènes et volumineuses une information physiquement interprétable confinée à un sous-espace de dimension réduite. Dans ce cas, les données peuvent être organisées selon un tableau à D dimensions, aussi appelé tenseur d’ordre D.Dans ce contexte, le but de ce travail et que certaines propriétés soient présentes : (i) avoir des algorithmes de factorisation stables (ne souffrant pas de probème de convergence), (ii) avoir un faible coût de stockage (c’est-à-dire que le nombre de paramètres libres doit être linéaire en D), et (iii) avoir un formalisme sous forme de graphe permettant une visualisation mentale simple mais rigoureuse des décompositions tensorielles de tenseurs d’ordre élevé, soit pour D > 3.Par conséquent, nous nous appuyons sur la décomposition en train de tenseurs (TT) pour élaborer de nouveaux algorithmes de factorisation TT, et des nouvelles équivalences en termes de modélisation tensorielle, permettant une nouvelle stratégie de réduction de dimensionnalité et d'optimisation de critère des moindres carrés couplés pour l'estimation des paramètres d'intérêts nommé JIRAFE.Ces travaux d'ordre méthodologique ont eu des applications dans le contexte de l'analyse spectrale multidimensionelle et des systèmes de télécommunications à relais
Massive and heterogeneous data processing and analysis have been clearly identified by the scientific community as key problems in several application areas. It was popularized under the generic terms of "data science" or "big data". Processing large volumes of data, extracting their hidden patterns, while preforming prediction and inference tasks has become crucial in economy, industry and science.Treating independently each set of measured data is clearly a reductiveapproach. By doing that, "hidden relationships" or inter-correlations between thedatasets may be totally missed. Tensor decompositions have received a particular attention recently due to their capability to handle a variety of mining tasks applied to massive datasets, being a pertinent framework taking into account the heterogeneity and multi-modality of the data. In this case, data can be arranged as a D-dimensional array, also referred to as a D-order tensor.In this context, the purpose of this work is that the following properties are present: (i) having a stable factorization algorithms (not suffering from convergence problems), (ii) having a low storage cost (i.e., the number of free parameters must be linear in D), and (iii) having a formalism in the form of a graph allowing a simple but rigorous mental visualization of tensor decompositions of tensors of high order, i.e., for D> 3.Therefore, we rely on the tensor train decomposition (TT) to develop new TT factorization algorithms, and new equivalences in terms of tensor modeling, allowing a new strategy of dimensionality reduction and criterion optimization of coupled least squares for the estimation of parameters named JIRAFE.This methodological work has had applications in the context of multidimensional spectral analysis and relay telecommunications systems
APA, Harvard, Vancouver, ISO, and other styles
43

Hijazi, Samah. "Semi-supervised Margin-based Feature Selection for Classification." Thesis, Littoral, 2019. http://www.theses.fr/2019DUNK0546.

Full text
Abstract:
Dans le domaine de l’apprentissage automatique, la sélection d’attributs est une étape d’une importance capitale. Elle permet de réduire les coûts de calcul, d’améliorer les performances de la classification et de créer des modèles simples et interprétables.Récemment, l’apprentissage par contraintes de comparaison, un type d’apprentissage semi-supervisé, a suscité un vif intérêt pour la sélection d’attributs. En effet, celui-ci est moins contraignant car il n’impose pas la connaissance des labels des classes.Dans ce contexte semi-supervisé avec contraintes, nous avons proposé un algorithme de sélection d’attributs à large marge appelé Relief-Sc. Il s’agit d’une modification de l’algorithme supervisé Relief. Il utilise uniquement les contraintes de comparaison cannot-links pour résoudre un problème d’optimisation convexe donnant une solution unique. Les contraintes sont généralement générées aléatoirement, de manière passive et dans certains cas, défavorables aux performances de l’algorithme. Pour cela, nous proposons une méthodologie de sélection active des contraintes suivie d’une étape de propagation des contraintes. Nous avons appliqué la théorie de la perturbation sur la matrice de similarité du graphe Laplacien. Les contraintes cannot-links sont choisies parmi les couples de données ayant le plus d’influence sur la matrice de similarité. La procédure de propagation des contraintes est appliquée pour assurer une augmentation des informations de supervision tout en réduisant l’effort humain. De plus, dans un souci de gestion de la redondance des attributs, nous avons proposé d’étendre l’algorithme Relief-Sc en y intégrant une procédure de classification non supervisée des attributs. Cette approche permet de traiter les deux aspects fondamentaux de la sélection des attributs : maximiser la pertinence tout en minimisant la redondance (maximisation de la diversité) entre les attributs. Finalement, nous avons validé expérimentalement les algorithmes proposés en les comparant à d’autres algorithmes de sélection d’attributs sur plusieurs bases de données UCI. Nous avons montré qu’avec peu d’information de supervision, les performances des algorithmes proposés sont comparables aux algorithmes de sélection supervisée et supérieures aux algorithmes non supervisés
Feature selection is a preprocessing step crucial to the performance of machine learning algorithms. It allows reducing computational costs, improving classification performances and building simple and understandable models. Recently, using pairwise constraints, a cheaper kind of supervision information that does not need to reveal the class labels of data points, received a great deal of interest in the domain of feature selection. Accordingly, we first proposed a semi-supervised margin-based constrained feature selection algorithm called Relief-Sc. It is a modification of the well-known Relief algorithm from its optimization perspective. It utilizes cannot-link constraints only to solve a simple convex problem in a closed-form giving a unique solution. However, we noticed that in the literature these pairwise constraints are generally provided passively and generated randomly over multiple algorithmic runs by which the results are averaged. This leads to the need for a large number of constraints that might be redundant, unnecessary, and under some circumstances even inimical to the algorithm’s performance. It also masks the individual effect of each constraint set and introduces a human labor-cost burden. Therefore, we suggested a framework for actively selecting and then propagating constraints for feature selection. For that, we made use of the similarity matrix based on Laplacian graph. We assumed that when a small perturbation of the similarity value between a data couple leads to a more well-separated cluster indicator based on the second eigenvector of the graph Laplacian, this couple is expected to be a pairwise query of higher and more significant impact. Constraints propagation, on the other side, ensures increasing supervision information while decreasing the cost of human labor. Besides, for the sake of handling feature redundancy, we proposed extending Relief- Sc to a feature selection approach that combines feature clustering and hypothesis margin maximization. This approach is able to deal with the two core aspects of feature selection i.e. maximizing relevancy while minimizing redundancy (maximizing diversity) among features. Eventually, we experimentally validate our proposed algorithms in comparison to other known feature selection methods on multiple well-known UCI benchmark datasets which proved to be prominent. Only with little supervision information, the proposed algorithms proved to be comparable to supervised feature selection algorithms and were superior to the unsupervised ones
APA, Harvard, Vancouver, ISO, and other styles
44

Ribault, Clément. "Méthode d'optimisation multicritère pour l'aide à la conception des projets de densification urbaine." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEI084/document.

Full text
Abstract:
La population mondiale fait face, globalement, à une urbanisation expansive. Cet étalement urbain, souvent mal contrôlé, menace aussi bien l’environnement que la santé, la qualité de vie et la sécurité alimentaire des humains. Il est possible de le limiter en lui préférant la densification urbaine. Néanmoins, la complexité des phénomènes en jeu dans un tel contexte nous incite à penser que les responsables d’opérations de densification urbaine ont besoin d’outils pour les aider à faire les choix les plus pertinents possibles. Dans un premier temps, l’état de l’art présenté dans cette thèse montre que l’outil idéal n’existe pas, et que l’optimisation multicritère par algorithme génétique est une technique adaptée à l’aide à la conception de bâtiments. Les caractéristiques souhaitables pour une méthode d’assistance des concepteurs de projets de densification urbaine sont alors précisées. Nous recommandons de baser cette méthode sur le couplage entre un algorithme génétique et un outil capable de réaliser des simulations thermiques dynamiques (STD) de quartiers. Les capacités des logiciels de STD Pleiades+COMFIE (P+C) et EnergyPlus (E+) sont situées par rapport à ces exigences, puis un premier test d’optimisation d’un projet de densification urbaine en associant EnergyPlus à un algorithme génétique est présenté. Certaines lacunes de cette méthode peuvent être comblées par la plateforme en cours de développement dans le projet ANR MERUBBI. Dans un second temps, nous analysons donc les résultats d’une étude comparative entre P+C, E+ et l’outil MERUBBI, menée sur un projet de densification d’un îlot à forte densité urbaine. Ils montrent que ce dernier est fiable et particulièrement pertinent pour l’évaluation précise des interactions entre bâtiments. Dans un troisième temps, nous abordons la problématique de la diminution des temps de calcul, enjeu crucial pour que notre méthode d’aide à la conception soit réellement accessible aux professionnels du bâtiment. Nous proposons une technique de réduction de la période de simulation que nous présentons en détail. Enfin, la méthode d’optimisation développée est appliquée à la résolution de différents problèmes de conception du projet sus-cité, en utilisant E+. Nous montrons en quoi l’utilisation de l’outil MERUBBI enrichira cette approche, avant de conclure sur des perspectives de développement de notre méthode pour améliorer son interactivité
The world’s population is facing an expansive urbanization. This urban sprawl, which is often not well managed, is endangering the environment as well as human health, quality of life and food security. It can be controlled by favouring urban densification. Nonetheless, the complexity of the phenomena involved in such a context leads us to think that supervisors of urban densification operations need some tools to help them make the most relevant choices. This thesis begins with a literature review that shows the ideal tool does not exist, and explains why multi-objective optimization using a genetic algorithm is a suitable technique for building design aid. Then we clarify the desirable features of an assistance method for urban densification projects designers. We recommend to base this method on the coupling of a genetic algorithm with a district-scale dynamic thermal simulation (DTS) tool. We compare capabilities of EnergyPlus (E+) and Pleiades+COMFIE (P+C) DTS software with these requirements, then we present a first urban densification project optimization test associating EnergyPlus with a genetic algorithm. The platform under development in the ANR MERUBBI project can offset certain shortcomings of this method. Hence, in a second phase we analyze the results of a comparative study of P+C, E+ and the MERUBBI tool, carried out using a high-density district densification project as a test case. It shows that the latter is reliable and particularly relevant to precisely assess interactions between buildings. In a third phase we address the problematic of reducing the computing time, a major issue to make our design aid method truly accessible to building professionals. We propose a way of reducing the operating period length and present it in detail. Finally, our optimization method is used to solve various design problems of the above-mentioned project, using E+. We show how the use of the MERUBBI platform will enrich this approach before concluding with development ideas to make our method more user-friendly and interactive
APA, Harvard, Vancouver, ISO, and other styles
45

Edwige, Stéphie. "Modal analysis and flow control for drag reduction on a Sport Utility Vehicle." Thesis, Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1233/document.

Full text
Abstract:
L’industrie automobile fournie de plus en plus d’effort pour optimiser l’aérodynamique externe des véhicules afin de réduire son empreinte écologique. Dans ce cadre, l’objectif de ce projet est d’examiner les structures tourbillonnaires responsables de la dégradation de traînée et de proposer une solution de contrôle actif permettant d’améliorer l’efficacité aérodynamique d’un véhicule SUV. Après une étude expérimentale de la maquette POSUV échelle réduite, une analyse modale croisée permet d’identifier les structures périodiques corrélées de l’écoulement qui pilotent la dépression sur le hayon. Une solution de contrôle optimale par jets pulsés sur le parechoc arrière, est obtenue avec un algorithme génétique. Celle-ci permet de réduire la dépression du hayon de 20% et l’analyse croisée des résultats instationnaires avec contrôle montre un changement significatif de la distribution spectrale. Après deux études préliminaires sur la rampe inclinée à 25° et sur le Corps d’Ahmed à 47°, la simulation de POSUV à partir d’un solveur LES, en éléments finis, est validé par rapport aux résultats expérimentaux. L’approfondissement des résultats 3D permet de comprendre les pertes aérodynamiques. La simulation de l’écoulement contrôlé permet également d’identifier les mécanismes du contrôle d’écoulements
The automotive industry dedicates a lot of effort to improve the aerodynamical performances of road vehicles in order to reduce its carbon footprint. In this context, the target of the present work is to analyze the origin of aerodynamic losses on a reduced scale generic Sport Utility Vehicle and to achieve a drag reduction using an active flow control strategy. After an experimental characterization of the flow past the POSUV, a cross-modal DMD analysis is used to identify the correlated periodical features responsible for the tailgate pressure loss. Thanks to a genetic algorithm procedure, 20% gain on the tailgate pressure is obtained with optimal pulsed blowing jets on the rear bumper. The same cross-modal methodology allows to improve our understanding of the actuation mechanism. After a preliminary study of the 25° inclined ramp and of the Ahmed Body computations, the numerical simulation of the POSUV is corroborated with experiments using the cross-modal method. Deeper investigations on the three-dimensional flow characteristics explain more accurately the wake flow behavior. Finally, the controlled flow simulations propose additional insights on the actuation mechanisms allowing to reduce the aerodynamic losses
APA, Harvard, Vancouver, ISO, and other styles
46

Negrea, Andrei Liviu. "Optimization of energy efficiency for residential buildings by using artificial intelligence." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI090.

Full text
Abstract:
La consommation, en général, représente le processus d’utilisation d’un type de ressource où des économies doivent être réalisées. La consommation d’énergie est devenue l’un des principaux problèmes d’urbanisation et de crise énergétique, car l’épuisement des combustibles fossiles et le réchauffement climatique mettent en péril l’utilisation de l’énergie des plantes. Cette thèse présent une méthode d’économie d’énergie a été adoptée pour la réduction de consommation d’énergie prévu le secteur résidentiel et les maisons passives. Un modèle mathématique basé sur des mesures expérimentales a été développé pour simuler le comportement d’un laboratoire d’essai de l’UPB. Le protocole expérimental a été réalisé à la suite d’actions telles que : la construction de bases de données sur les paramètres, la collecte de données météorologiques, l’apport de flux auxiliaires tout en considérant le comportement humain. L’algorithme de contrôle-commande du système est capable de maintenir une température constante à l’intérieur du bâtiment avec une consommation minimale d’énergie. Les mesures et l’acquisition de données ont été configurées à deux niveaux différents: les données météorologiques et les données sur les bâtiments. La collection de données est faite sur un serveur qui a été mis en œuvre dans l’installation de test en cours d’exécution d’un algorithme complexe qui peut fournir le contrôle de consommation d’énergie. La thèse rapporte plusieurs méthodes numériques pour envisage la consommation d’énergie, utilisée avec l’algorithme de contrôle. Un cas expérimental basé sur des méthodes de calcul dynamiques pour les évaluations de performance énergétique de construction a été faite à Grenade, en Espagne, l’information qui a été plus tard utilisée dans cette thèse. L’estimation des paramètres R-C avec la prévision du flux de chaleur a été faite en utilisant la méthode nodal, basée sur des éléments physiques, des données d’entrée et des informations météorologiques. La prévision d’énergie de consommation présent des résultats améliorés tandis que la collecte de données IoT a été téléchargée sur une carte à base de système de tarte aux framboises. Tous ces résultats ont été stables montrant des progrès impressionnants dans la prévision de la consommation d’énergie et leur application en énergie
Consumption, in general, represents the process of using a type of resource where savings needs to be done. Energy consumption has become one the main issue of urbanization and energy crisis as the fossil depletion and global warming put under threat the planet energy utilization. In this thesis, an automatic control of energy was developed to reduce energy consumption in residential area and passive house buildings. A mathematical model founded on empirical measurements was developed to emphasize the behavior of a testing laboratory from Universitatea Politehnica din București - Université Politechnica de Bucarest - Roumanie. The experimental protocol was carried out following actions such as: building parameters database, collecting weather data, intake of auxiliary flows while considering the controlling factors. The control algorithm is controlling the system which can maintain a comfortable temperature within the building with minimum energy consumption. Measurements and data acquisition have been setup on two different levels: weather and buildings data. The data collection is gathered on a server which was implemented into the testing facility running a complex algorithm which can control energy consumption. The thesis reports several numerical methods for estimating the energy consumption that is further used with the control algorithm. An experimental showcase based on dynamic calculation methods for building energy performance assessments was made in Granada, Spain, information which was later used in this thesis. Estimation of model parameters (resistances and capacities) with prediction of heat flow was made using nodal method, based on physical elements, input data and weather information. Prediction of energy consumption using state-space modeling show improved results while IoT data collection was uploaded on a Raspberry Pi system. All these results were stable showing impressive progress in the prediction of energy consumption and their application in energy field
APA, Harvard, Vancouver, ISO, and other styles
47

Delestre, Barbara. "Reconstruction 3D de particules dans un écoulement par imagerie interférométrique." Electronic Thesis or Diss., Normandie, 2022. http://www.theses.fr/2022NORMR116.

Full text
Abstract:
Pour de nombreuses applications industrielles ou environnementales, il est important de mesurer la taille et le volume de particules de formes irrégulières. C'est par exemple le cas dans le cadre du givrage des aéronefs qui se produit durant les vols, où il est nécessaire de mesurer in-situ la teneur en eau et la teneur en glace dans la troposphère afin de détecter et d’éviter les zones à risques. Notre intérêt s’est porté sur l’imagerie interférométrique en défaut de mise au point, une technique optique offrant de nombreux avantages (large champ de mesure, gamme de tailles étudiée étendue [50 μm : quelques millimètres], distance particule/appareil de mesure de plusieurs dizaines de centimètres…). Au cours de ces travaux de thèse, nous avons montré que la reconstruction 3D d'une particule peut se faire à partir d'un ensemble de trois images interférométriques de cette particule (sous trois angles de vue perpendiculaires). Cela peut être fait en utilisant l'algorithme de réduction d'erreur (ER) qui permet d'obtenir la fonction f(x,y) à partir des mesures du module de sa transformée de Fourier 2D |F(u,v)|, en reconstruisant la phase de sa transformée de Fourier 2D. La mise en œuvre de cet algorithme nous a permis de reconstruire la forme de particules irrégulières à partir de leurs images interférométriques. Des démonstrations expérimentales ont été réalisées à l'aide d'un montage spécifique basé sur l'utilisation d’une matrice de micro-miroirs (DMD) qui génère les images interférométriques de particules rugueuses programmables. Les résultats obtenus sont très encourageants. Les volumes obtenus restent assez proches du volume réel de la particule et les formes 3D reconstruites nous donnent une bonne idée de la forme générale de la particule étudiée même dans les cas les plus extrêmes où l'orientation de la particule est quelconque. Enfin, nous avons montré qu'une reconstruction 3D précise d'une particule rugueuse "programmée" peut être effectuée à partir d'un ensemble de 120 images interférométriques
For many industrial or environmental applications, it is important to measure the size and volume of irregularly shaped particles. This is for example the case in the context of aircraft icing which occurs during flights, where it is necessary to measure in situ the water content and the ice content in the troposphere in order to detect and avoid risk areas. Our interest has been on interferometric out-of-focus imaging, an optical technique offering many advantages (wide measurement field, extended range of sizes studied [50 μm: a few millimeters], distance particle / measuring device several tens of centimeters ...). During this thesis, we showed that the 3D reconstruction of a particle can be done from a set of three interferometric images of this particle (under three perpendicular viewing angles). This can be done using the error reduction (ER) algorithm which allows to obtain the function f(x,y) from the measurements of the modulus of its 2D Fourier transform |F(u,v)| , by reconstructing the phase of its 2D Fourier transform. The implementation of this algorithm allowed us to reconstruct the shape of irregular particles from their interferometric images. Experimental demonstrations were carried out using a specific assembly based on the use of a micro-mirror array (DMD) which generates the interferometric images of programmable rough particles. The results obtained are very encouraging. The volumes obtained remain quite close to the real volume of the particle and the reconstructed 3D shapes give us a good idea of the general shape of the particle studied even in the most extreme cases where the orientation of the particle is arbitrary. Finally, we showed that an accurate 3D reconstruction of a "programmed" rough particle can be performed from a set of 120 interferometric images
APA, Harvard, Vancouver, ISO, and other styles
48

Ben, Kahla Haithem. "Sur des méthodes préservant les structures d'une classe de matrices structurées." Thesis, Littoral, 2017. http://www.theses.fr/2017DUNK0463/document.

Full text
Abstract:
Les méthodes d'algèbres linéaire classiques, pour le calcul de valeurs et vecteurs propres d'une matrice, ou des approximations de rangs inférieurs (low-rank approximations) d'une solution, etc..., ne tiennent pas compte des structures de matrices. Ces dernières sont généralement détruites durant le procédé du calcul. Des méthodes alternatives préservant ces structures font l'objet d'un intérêt important par la communauté. Cette thèse constitue une contribution dans ce domaine. La décomposition SR peut être calculé via l'algorithme de Gram-Schmidt symplectique. Comme dans le cas classique, une perte d'orthogonalité peut se produire. Pour y remédier, nous avons proposé deux algorithmes RSGSi et RMSGSi qui consistent à ré-orthogonaliser deux fois les vecteurs à calculer. La perte de la J-orthogonalité s'est améliorée de manière très significative. L'étude directe de la propagation des erreurs d'arrondis dans les algorithmes de Gram-Schmidt symplectique est très difficile à effectuer. Nous avons réussi à contourner cette difficulté et donner des majorations pour la perte de la J-orthogonalité et de l'erreur de factorisation. Une autre façon de calculer la décomposition SR est basée sur les transformations de Householder symplectique. Un choix optimal a abouti à l'algorithme SROSH. Cependant, ce dernier peut être sujet à une instabilité numérique. Nous avons proposé une version modifiée nouvelle SRMSH, qui a l'avantage d'être aussi stable que possible. Une étude approfondie a été faite, présentant les différentes versions : SRMSH et SRMSH2. Dans le but de construire un algorithme SR, d'une complexité d'ordre O(n³) où 2n est la taille de la matrice, une réduction (appropriée) de la matrice à une forme condensée (J(Hessenberg forme) via des similarités adéquates, est cruciale. Cette réduction peut être effectuée via l'algorithme JHESS. Nous avons montré qu'il est possible de réduire une matrice sous la forme J-Hessenberg, en se basant exclusivement sur les transformations de Householder symplectiques. Le nouvel algorithme, appelé JHSJ, est basé sur une adaptation de l'algorithme SRSH. Nous avons réussi à proposer deux nouvelles variantes, aussi stables que possible : JHMSH et JHMSH2. Nous avons constaté que ces algorithmes se comportent d'une manière similaire à l'algorithme JHESS. Une caractéristique importante de tous ces algorithmes est qu'ils peuvent rencontrer un breakdown fatal ou un "near breakdown" rendant impossible la suite des calculs, ou débouchant sur une instabilité numérique, privant le résultat final de toute signification. Ce phénomène n'a pas d'équivalent dans le cas Euclidien. Nous avons réussi à élaborer une stratégie très efficace pour "guérir" le breakdown fatal et traîter le near breakdown. Les nouveaux algorithmes intégrant cette stratégie sont désignés par MJHESS, MJHSH, JHM²SH et JHM²SH2. Ces stratégies ont été ensuite intégrées dans la version implicite de l'algorithme SR lui permettant de surmonter les difficultés rencontrées lors du fatal breakdown ou du near breakdown. Rappelons que, sans ces stratégies, l'algorithme SR s'arrête. Finalement, et dans un autre cadre de matrices structurées, nous avons présenté un algorithme robuste via FFT et la matrice de Hankel, basé sur le calcul approché de plus grand diviseur commun (PGCD) de deux polynômes, pour résoudre le problème de la déconvolution d'images. Plus précisément, nous avons conçu un algorithme pour le calcul du PGCD de deux polynômes bivariés. La nouvelle approche est basée sur un algorithme rapide, de complexité quadratique O(n²), pour le calcul du PGCD des polynômes unidimensionnels. La complexité de notre algorithme est O(n²log(n)) où la taille des images floues est n x n. Les résultats expérimentaux avec des images synthétiquement floues illustrent l'efficacité de notre approche
The classical linear algebra methods, for calculating eigenvalues and eigenvectors of a matrix, or lower-rank approximations of a solution, etc....do not consider the structures of matrices. Such structures are usually destroyed in the numerical process. Alternative structure-preserving methods are the subject of an important interest mattering to the community. This thesis establishes a contribution in this field. The SR decomposition is usually implemented via the symplectic Gram-Schmidt algorithm. As in the classical case, a loss of orthogonality can occur. To remedy this, we have proposed two algorithms RSGSi and RMSGSi, where the reorthogonalization of a current set of vectors against the previously computed set is performed twice. The loss of J-orthogonality has significantly improved. A direct rounding error analysis of symplectic Gram-Schmidt algorithm is very hard to accomplish. We managed to get around this difficulty and give the error bounds on the loss of the J-orthogonality and on the factorization. Another way to implement the SR decomposition is based on symplectic Householder transformations. An optimal choice of free parameters provided an optimal version of the algorithm SROSH. However, the latter may be subject to numerical instability. We have proposed a new modified version SRMSH, which has the advantage of being numerically more stable. By a detailes study, we are led to two new variants numerically more stables : SRMSH and SRMSH2. In order to build a SR algorithm of complexity O(n³), where 2n is the size of the matrix, a reduction to the condensed matrix form (upper J-Hessenberg form) via adequate similarities is crucial. This reduction may be handled via the algorithm JHESS. We have shown that it is possible to perform a reduction of a general matrix, to an upper J-Hessenberg form, based only on the use of symplectic Householder transformations. The new algorithm, which will be called JHSH algorithm, is based on an adaptation of SRSH algorithm. We are led to two news variants algorithms JHMSH and JHMSH2 which are significantly more stable numerically. We found that these algortihms behave quite similarly to JHESS algorithm. The main drawback of all these algorithms (JHESS, JHMSH, JHMSH2) is that they may encounter fatal breakdowns or may suffer from a severe form of near-breakdowns, causing a brutal stop of the computations, the algorithm breaks down, or leading to a serious numerical instability. This phenomenon has no equivalent in the Euclidean case. We sketch out a very efficient strategy for curing fatal breakdowns and treating near breakdowns. Thus, the new algorithms incorporating this modification will be referred to as MJHESS, MJHSH, JHM²SH and JHM²SH2. These strategies were then incorporated into the implicit version of the SR algorithm to overcome the difficulties encountered by the fatal breakdown or near-breakdown. We recall that without these strategies, the SR algorithms breaks. Finally ans in another framework of structured matrices, we presented a robust algorithm via FFT and a Hankel matrix, based on computing approximate greatest common divisors (GCD) of polynomials, for solving the problem pf blind image deconvolution. Specifically, we designe a specialized algorithm for computing the GCD of bivariate polynomials. The new algorithm is based on the fast GCD algorithm for univariate polynomials , of quadratic complexity O(n²) flops. The complexitiy of our algorithm is O(n²log(n)) where the size of blurred images is n x n. The experimental results with synthetically burred images are included to illustrate the effectiveness of our approach
APA, Harvard, Vancouver, ISO, and other styles
49

Boisvert, Maryse. "Réduction de dimension pour modèles graphiques probabilistes appliqués à la désambiguïsation sémantique." Thèse, 2004. http://hdl.handle.net/1866/16639.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Chartrand-Lefebvre, Carl. "Réduction des artéfacts de tuteur coronarien au moyen d’un algorithme de reconstruction avec renforcement des bords : étude prospective transversale en tomodensitométrie 256 coupes." Thèse, 2015. http://hdl.handle.net/1866/13870.

Full text
Abstract:
Les artéfacts métalliques entraînent un épaississement artéfactuel de la paroi des tuteurs en tomodensitométrie (TDM) avec réduction apparente de leur lumière. Cette étude transversale prospective, devis mesures répétées et observateurs avec méthode en aveugle, chez 24 patients consécutifs/71 tuteurs coronariens a pour objectif de comparer l’épaisseur de paroi des tuteurs en TDM après reconstruction par un algorithme avec renforcement des bords et un algorithme standard. Une angiographie coronarienne par TDM 256 coupes a été réalisée, avec reconstruction par algorithmes avec renforcement des bords et standard. L’épaisseur de paroi des tuteurs était mesurée par méthodes orthogonale (diamètres) et circonférentielle (circonférences). La qualité d’image des tuteurs était évaluée par échelle ordinale, et les données analysées par modèles linéaire mixte et régression logistique des cotes proportionnelles. L’épaisseur de paroi des tuteurs était inférieure avec l’algorithme avec renforcement des bords comparé à l’algorithme standard, avec les méthodes orthogonale (0,97±0,02 vs 1,09±0,03 mm, respectivement; p<0,001) et circonférentielle (1,13±0,02 vs 1,21±0,02 mm, respectivement; p<0,001). Le premier causait moins de surestimation par rapport à l’épaisseur nominale comparé au second, avec méthodes orthogonale (0,89±0,19 vs 1,00±0,26 mm, respectivement; p<0,001) et circonférentielle (1,06±0,26 vs 1,13±0,31 mm, respectivement; p=0,005) et diminuait de 6 % la surestimation. Les scores de qualité étaient meilleurs avec l’algorithme avec renforcement des bords (OR 3,71; IC 95% 2,33–5,92; p<0,001). En conclusion, la reconstruction des images avec l’algorithme avec renforcement des bords génère des parois de tuteurs plus minces, moins de surestimation, et de meilleurs scores de qualité d’image que l’algorithme standard.
Metallic artifacts can result in an artificial thickening of the coronary stent wall which can significantly impair computed tomography (CT) imaging in patients with coronary stents. The purpose of this study is to assess the in vivo visualization of coronary stent wall and lumen with an edge-enhancing CT reconstruction kernel, as compared to a standard kernel. This is a prospective cross-sectional study of 24 consecutive patients with 71 coronary stents, using a repeated measure design and blinded observers, approved by the Local Institutional Review Board. 256-slice CT angiography was used, as well as standard and edge-enhancing reconstruction kernels. Stent wall thickness was measured with orthogonal and circumference methods, averaging wall thickness from stent diameter and circumference measurements, respectively. Stent image quality was assessed on an ordinal scale. Statistical analysis used linear and proportional odds models. Stent wall thickness was inferior using the edge-enhancing kernel compared to the standard kernel, either with the orthogonal (0.97±0.02 versus 1.09±0.03 mm, respectively; p<0.001) or circumference method (1.13±0.02 versus 1.21±0.02 mm, respectively; p<0.001). The edge-enhancing kernel generated less overestimation from nominal thickness compared to the standard kernel, both with orthogonal (0.89±0.19 versus 1.00±0.26 mm, respectively; p<0.001) and circumference (1.06±0.26 versus 1.13±0.31 mm, respectively; p=0.005) methods. The average decrease in stent wall thickness overestimation with an edge-enhancing kernel was 6%. Image quality scores were higher with the edge-enhancing kernel (odds ratio 3.71, 95% CI 2.33–5.92; p<0.001). In conclusion, the edge-enhancing CT reconstruction kernel generated thinner stent walls, less overestimation from nominal thickness, and better image quality scores than the standard kernel.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography