Dissertations / Theses on the topic 'Algorithme de réduction d’erreur'

To see the other types of publications on this topic, follow the link: Algorithme de réduction d’erreur.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 41 dissertations / theses for your research on the topic 'Algorithme de réduction d’erreur.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Khoder, Jihan. "Nouvel Algorithme pour la Réduction de la Dimensionnalité en Imagerie Hyperspectrale." Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2013. http://tel.archives-ouvertes.fr/tel-00939018.

Full text
Abstract:
En Imagerie hyperspectrale, les volumes de données acquises atteignent souvent le gigaoctet pour une seule et même scène observée. De ce fait, l'analyse de ces données au contenu physique complexe passe obligatoirement par une étape préliminaire de réduction de la dimensionnalité. Cette réduction a un double objectif, le premier consiste à réduire la redondance et le second permet de faciliter les traitements postérieurs (extraction, classification et reconnaissance de formes) et donc l'interprétation des données. La classification automatique est une étape importante du processus d'extraction de connaissances à partir des données. Elle vise à découvrir la structure intrinsèque d'un ensemble d'objets en formant des regroupements qui partagent des caractéristiques similaires. Dans cette thèse, nous nous intéressons à la réduction de dimension dans le cadre de la classification non supervisée des bandes spectrales. Différentes approches existent, comme celles basées sur la projection (linéaire ou non-linéaire) des données de grandes dimensions sur des sous-espaces de représentation bien choisis ou sur les techniques de sélection de bandes spectrales exploitant des critères de complémentarité-redondance d'information qui ne permettent pas de préserver toute la richesse de l'information apportée par ce type de données. 1 - Nous avons accompli une étude comparative, sur la stabilité et la similarité des algorithmes des méthodes non paramétriques et non supervisée de la projection et aussi de la sélection des bandes utilisées dans la réduction de la dimensionnalité à différents niveaux de bruit déterminés. Les tests sont effectués sur des images hyperspectrales, en classant ces derniers en trois catégories selon leur degré de performance de préserver la quantité d'informations. 2 - Nous avons introduit une nouvelle approche de critère basée sur la di-similarité des attributs spectraux et utilisée dans un espace local sur des matrices de données ; L'approche a servi pour définir un taux de préservation d'un évènement rare dans une transformation mathématique donnée. Cependant, nous avons limitée son application au contexte de la thèse liée à la réduction de la taille des données dans une image hyperspectrale. 3 - Les études comparatives ont permis une première proposition d'approche hybride pour la reduction de la taille d'une image hyperspectrale permettant une meilleure stabilité : BandClustering avec Multidimensional Scaling (MDS). Des exemples sont donnés pour démontrer l'originalité et la pertinence de l'hybridation (BandClust / MDS) de l'analyse effectuée. 4 - La tendance de l'hybridation a été généralisée par la suite en présentant un algorithme hybride adaptatif non supervisé basé sur la logique flou (Fuzzy C means), une méthode de projection comme l'analyse en composante principale (ACP) et un indice de validité d'une classification. Les classifications effectuées par Fuzzy C means permettent d'affecter chaque pixel d'une image hyperspectrale à toutes les classes avec des degrés d'appartenance variant entre 0 et 1. Cette propriété rend la méthode FCM intéressante pour la mise en évidence soit des transitions progressives entre les différentes bandes spectrales ou des hétérogénéités spectrales. Grâce à des méthodes conventionnelles appelées indices de validité de classes, nous avons déterminé le nombre optimal de classes de FCM ainsi que le paramètre de flou. Nous montrons que cette hybridation conduit à un taux de réduction pertinent dans l'imagerie hyperspectrale. Par conséquent, Cet algorithme appliqué à différents échantillons de données hyperspectrales, permet une imagerie spectrale beaucoup plus informative, notamment au niveau de l'hétérogénéité spectrale.
APA, Harvard, Vancouver, ISO, and other styles
2

Khoder, Jihan Fawaz. "Nouvel algorithme pour la réduction de la dimensionnalité en imagerie hyperspectrale." Versailles-St Quentin en Yvelines, 2013. http://www.theses.fr/2013VERS0037.

Full text
Abstract:
En imagerie hyperspectrale, les volumes de données acquises atteignent souvent le gigaoctet pour une seule et même scène observée. De ce fait, l’analyse de ces données au contenu physique complexe passe obligatoirement par une étape préliminaire de réduction de la dimensionnalité. Cette réduction a un double objectif, le premier consiste à réduire la redondance et le second permet de faciliter les traitements postérieurs (extraction, classification et reconnaissance de formes) et donc l’interprétation des données. La classification automatique est une étape importante du processus d’extraction de connaissances à partir des données. Elle vise à découvrir la structure intrinsèque d’un ensemble d’objets en formant des regroupements qui partagent des caractéristiques similaires. Dans cette thèse, nous nous intéressons à la réduction de dimension dans le cadre de la classification non supervisée des bandes spectrales. Différentes approches existent, comme celles basées sur la projection (linéaire ou non-linéaire) des données de grandes dimensions sur des sous-espaces de représentation bien choisis ou sur les techniques de sélection de bandes spectrales exploitant des critères de complémentarité-redondance d’information qui ne permettent pas de préserver toute la richesse de l’information apportée par ce type de données
In hyperspectral imaging, the volumes of data acquired often reach the gigabyte for a single scene observed. Therefore, the analysis of these data complex physical content must go with a preliminary step of dimensionality reduction. Therefore, the analyses of these data of physical content complex go preliminary with a step of dimensionality reduction. This reduction has two objectives, the first is to reduce redundancy and the second facilitates post-treatment (extraction, classification and recognition) and therefore the interpretation of the data. Automatic classification is an important step in the process of knowledge extraction from data. It aims to discover the intrinsic structure of a set of objects by forming groups that share similar characteristics. In this thesis, we focus on dimensionality reduction in the context of unsupervised classification of spectral bands. Different approaches exist, such as those based on projection (linear or nonlinear) of high-dimensional data in a representation subspaces or on the techniques of selection of spectral bands exploiting of the criteria of complementarity-redundant information do not allow to preserve the wealth of information provided by this type of data
APA, Harvard, Vancouver, ISO, and other styles
3

Allier, Pierre-Eric. "Contrôle d’erreur pour et par les modèles réduits PGD." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLN063/document.

Full text
Abstract:
De nombreux problèmes de mécanique des structures nécessitent la résolution de plusieurs problèmes numériques semblables. Une approche itérative de type réduction de modèle, la Proper Generalized Decomposition (PGD), permet de déterminer l’ensemble des solutions en une fois, par l’introduction de paramètres supplémentaires. Cependant, un frein majeur à son utilisation dans le monde industriel est l’absence d’estimateur d’erreur robuste permettant de mesurer la qualité des solutions obtenues. L’approche retenue s’appuie sur le concept d’erreur en relation de comportement. Cette méthode consiste à construire des champs admissibles, assurant ainsi l’aspect conservatif et garanti de l’estimation de l’erreur en réutilisant le maximum d’outils employés dans le cadre éléments finis. La possibilité de quantifier l’importance des différentes sources d’erreur (réduction et discrétisation) permet de plus de piloter les principales stratégies de résolution PGD. Deux stratégies ont été proposées dans ces travaux. La première s’est principalement limitée à post-traiter une solution PGD pour construire une estimation de l’erreur commise, de façon non intrusive pour les codes PGD existants. La seconde consiste en une nouvelle stratégie PGD fournissant une approximation améliorée couplée à une estimation de l’erreur commise. Les diverses études comparatives sont menées dans le cadre des problèmes linéaires thermiques et en élasticité. Ces travaux ont également permis d’optimiser les méthodes de construction de champs admissibles en substituant la résolution de nombreux problèmes semblables par une solution PGD, exploitée comme un abaque
Many structural mechanics problems require the resolution of several similar numerical problems. An iterative model reduction approach, the Proper Generalized Decomposition (PGD), enables the control of the main solutions at once, by the introduction of additional parameters. However, a major drawback to its use in the industrial world is the absence of a robust error estimator to measure the quality of the solutions obtained.The approach used is based on the concept of constitutive relation error. This method consists in constructing admissible fields, thus ensuring the conservative and guaranteed aspect of the estimation of the error by reusing the maximum number of tools used in the finite elements framework. The ability to quantify the importance of the different sources of error (reduction and discretization) allows to control the main strategies of PGD resolution.Two strategies have been proposed in this work. The first was limited to post-processing a PGD solution to construct an estimate of the error committed, in a non-intrusively way for existing PGD codes. The second consists of a new PGD strategy providing an improved approximation associated with an estimate of the error committed. The various comparative studies are carried out in the context of linear thermal and elasticity problems.This work also allowed us to optimize the admissible fields construction methods by substituting the resolution of many similar problems by a PGD solution, exploited as a virtual chart
APA, Harvard, Vancouver, ISO, and other styles
4

Zapien, Durand-Viel Karina. "Algorithme de chemin de régularisation pour l'apprentissage statistique." Phd thesis, INSA de Rouen, 2009. http://tel.archives-ouvertes.fr/tel-00557888.

Full text
Abstract:
La sélection d'un modèle approprié est l'une des tâches essentielles de l'apprentissage statistique. En général, pour une tâche d'apprentissage donnée, on considère plusieurs classes de modèles ordonnées selon un certain ordre de " complexité". Dans ce cadre, le processus de sélection de modèle revient 'a trouver la " complexité " optimale, permettant d'estimer un modèle assurant une bonne généralisation. Ce problème de sélection de modèle se résume à l'estimation d'un ou plusieurs hyper-paramètres définissant la complexité du modèle, par opposition aux paramètres qui permettent de spécifier le modèle dans la classe de complexité choisie. L'approche habituelle pour déterminer ces hyper-paramètres consiste à utiliser une " grille ". On se donne un ensemble de valeurs possibles et on estime, pour chacune de ces valeurs, l'erreur de généralisation du meilleur modèle. On s'intéresse, dans cette thèse, à une approche alternative consistant à calculer l'ensemble des solutions possibles pour toutes les valeurs des hyper-paramètres. C'est ce qu'on appelle le chemin de régularisation. Il se trouve que pour les problèmes d'apprentissage qui nous intéressent, des programmes quadratiques paramétriques, on montre que le chemin de régularisation associé à certains hyper-paramètres est linéaire par morceaux et que son calcul a une complexité numérique de l'ordre d'un multiple entier de la complexité de calcul d'un modèle avec un seul jeu hyper-paramètres. La thèse est organisée en trois parties. La première donne le cadre général des problèmes d'apprentissage de type SVM (Séparateurs à Vaste Marge ou Support Vector Machines) ainsi que les outils théoriques et algorithmiques permettant d'appréhender ce problème. La deuxième partie traite du problème d'apprentissage supervisé pour la classification et l'ordonnancement dans le cadre des SVM. On montre que le chemin de régularisation de ces problèmes est linéaire par morceaux. Ce résultat nous permet de développer des algorithmes originaux de discrimination et d'ordonnancement. La troisième partie aborde successivement les problèmes d'apprentissage semi supervisé et non supervisé. Pour l'apprentissage semi supervisé, nous introduisons un critère de parcimonie et proposons l'algorithme de chemin de régularisation associé. En ce qui concerne l'apprentissage non supervisé nous utilisons une approche de type " réduction de dimension ". Contrairement aux méthodes à base de graphes de similarité qui utilisent un nombre fixe de voisins, nous introduisons une nouvelle méthode permettant un choix adaptatif et approprié du nombre de voisins.
APA, Harvard, Vancouver, ISO, and other styles
5

Driant, Thomas. "Réduction de la traînée aérodynamique et refroidissement d'un tricycle hybride par optimisation paramétrique." Thèse, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/6990.

Full text
Abstract:
La réduction de la traînée aérodynamique des véhicules dans un objectif de diminution de la consommation énergétique est en plein essor aussi bien pour les véhicules électriques que thermiques. Cette étude porte sur un tricycle à motorisation hybride dont la forme et le comportement aérodynamique sont à la frontière entre une motocyclette et une automobile. L'étude s'inspire des avancées scientifiques sur ces deux types de véhicules en matière d'aérodynamique. L'objectif principal est de réduire la traînée aérodynamique du véhicule par des modifications de l'enveloppe externe tout en assurant le refroidissement du moteur thermique et des composants de la chaîne électrique. On développe une optimisation topologique de la position des échangeurs sur le tricycle, on conçoit et fabrique un prototype en fonction des résultats d'optimisation. Ensuite, on valide le prototype par des essais en soufflerie et on caractérise son aérodynamique ainsi que la sensibilité de la traînée du véhicule suivant des paramètres comme la vitesse, l'angle de lacet, etc. En n, l'étude s'oriente vers une approche d'optimisation globale multidisciplinaire permettant d'atteindre l'objectif principal en fonction des contraintes ayant trait au projet.
APA, Harvard, Vancouver, ISO, and other styles
6

Delestre, Barbara. "Reconstruction 3D de particules dans un écoulement par imagerie interférométrique." Electronic Thesis or Diss., Normandie, 2022. http://www.theses.fr/2022NORMR116.

Full text
Abstract:
Pour de nombreuses applications industrielles ou environnementales, il est important de mesurer la taille et le volume de particules de formes irrégulières. C'est par exemple le cas dans le cadre du givrage des aéronefs qui se produit durant les vols, où il est nécessaire de mesurer in-situ la teneur en eau et la teneur en glace dans la troposphère afin de détecter et d’éviter les zones à risques. Notre intérêt s’est porté sur l’imagerie interférométrique en défaut de mise au point, une technique optique offrant de nombreux avantages (large champ de mesure, gamme de tailles étudiée étendue [50 μm : quelques millimètres], distance particule/appareil de mesure de plusieurs dizaines de centimètres…). Au cours de ces travaux de thèse, nous avons montré que la reconstruction 3D d'une particule peut se faire à partir d'un ensemble de trois images interférométriques de cette particule (sous trois angles de vue perpendiculaires). Cela peut être fait en utilisant l'algorithme de réduction d'erreur (ER) qui permet d'obtenir la fonction f(x,y) à partir des mesures du module de sa transformée de Fourier 2D |F(u,v)|, en reconstruisant la phase de sa transformée de Fourier 2D. La mise en œuvre de cet algorithme nous a permis de reconstruire la forme de particules irrégulières à partir de leurs images interférométriques. Des démonstrations expérimentales ont été réalisées à l'aide d'un montage spécifique basé sur l'utilisation d’une matrice de micro-miroirs (DMD) qui génère les images interférométriques de particules rugueuses programmables. Les résultats obtenus sont très encourageants. Les volumes obtenus restent assez proches du volume réel de la particule et les formes 3D reconstruites nous donnent une bonne idée de la forme générale de la particule étudiée même dans les cas les plus extrêmes où l'orientation de la particule est quelconque. Enfin, nous avons montré qu'une reconstruction 3D précise d'une particule rugueuse "programmée" peut être effectuée à partir d'un ensemble de 120 images interférométriques
For many industrial or environmental applications, it is important to measure the size and volume of irregularly shaped particles. This is for example the case in the context of aircraft icing which occurs during flights, where it is necessary to measure in situ the water content and the ice content in the troposphere in order to detect and avoid risk areas. Our interest has been on interferometric out-of-focus imaging, an optical technique offering many advantages (wide measurement field, extended range of sizes studied [50 μm: a few millimeters], distance particle / measuring device several tens of centimeters ...). During this thesis, we showed that the 3D reconstruction of a particle can be done from a set of three interferometric images of this particle (under three perpendicular viewing angles). This can be done using the error reduction (ER) algorithm which allows to obtain the function f(x,y) from the measurements of the modulus of its 2D Fourier transform |F(u,v)| , by reconstructing the phase of its 2D Fourier transform. The implementation of this algorithm allowed us to reconstruct the shape of irregular particles from their interferometric images. Experimental demonstrations were carried out using a specific assembly based on the use of a micro-mirror array (DMD) which generates the interferometric images of programmable rough particles. The results obtained are very encouraging. The volumes obtained remain quite close to the real volume of the particle and the reconstructed 3D shapes give us a good idea of the general shape of the particle studied even in the most extreme cases where the orientation of the particle is arbitrary. Finally, we showed that an accurate 3D reconstruction of a "programmed" rough particle can be performed from a set of 120 interferometric images
APA, Harvard, Vancouver, ISO, and other styles
7

Karina, Zapien. "Algorithme de Chemin de Régularisation pour l'apprentissage Statistique." Phd thesis, INSA de Rouen, 2009. http://tel.archives-ouvertes.fr/tel-00422854.

Full text
Abstract:
La sélection d'un modèle approprié est l'une des tâches essentielles de l'apprentissage statistique. En général, pour une tâche d'apprentissage donnée, on considère plusieurs classes de modèles ordonnées selon un certain ordre de "complexité". Dans ce cadre, le processus de sélection de modèle revient à trouver la "complexité" optimale, permettant d'estimer un modèle assurant une bonne généralisation. Ce problème de sélection de modèle se résume à l'estimation d'un ou plusieurs hyperparamètres définissant la complexité du modèle, par opposition aux paramètres qui permettent de spécifier le modèle dans la classe de complexité choisie.
L'approche habituelle pour déterminer ces hyperparamètres consiste à utiliser une "grille". On se donne un ensemble de valeurs possibles et on estime, pour chacune de ces valeurs, l'erreur de généralisation du meilleur modèle. On s'intéresse, dans cette thèse, à une approche alternative consistant à calculer l'ensemble des solutions possibles pour toutes les valeurs des hyperparamètres. C'est ce qu'on appelle le chemin de régularisation. Il se trouve que pour les problèmes d'apprentissage qui nous intéressent, des programmes quadratiques paramétriques, on montre que le chemin de régularisation associé à certains hyperparamètres est linéaire par morceaux et que son calcul a une complexité numérique de l'ordre d'un multiple entier de la complexité de calcul d'un modèle avec un seul jeu hyper-paramètres.
La thèse est organisée en trois parties. La première donne le cadre général des problèmes d'apprentissage de type SVM (Séparateurs à Vaste Marge ou Support Vector Machines) ainsi que les outils théoriques et algorithmiques permettant d'appréhender ce problème. La deuxième partie traite du problème d'apprentissage supervisé pour la classification et l'ordonnancement dans le cadre des SVM. On montre que le chemin de régularisation de ces problèmes est linéaire par morceaux. Ce résultat nous permet de développer des algorithmes originaux de discrimination et d'ordonnancement. La troisième partie aborde successivement les problèmes d'apprentissage semi supervisé et non supervisé. Pour l'apprentissage semi supervisé, nous introduisons un critère de parcimonie et proposons l'algorithme de chemin de régularisation associé. En ce qui concerne l'apprentissage non supervisé nous utilisons une approche de type "réduction de dimension". Contrairement aux méthodes à base de graphes de similarité qui utilisent un nombre fixe de voisins, nous introduisons une nouvelle méthode permettant un choix adaptatif et approprié du nombre de voisins.
APA, Harvard, Vancouver, ISO, and other styles
8

Nouet, Christophe. "Réduction de l'ordre des systèmes continus, linéaires, via un processus d'orthogonalisation et un algorithme de gauss newton." Brest, 1994. http://www.theses.fr/1994BRES2040.

Full text
Abstract:
Nous avons développé une méthode d'approximation des signaux et systèmes à temps continu, optimale au sens des moindres carres. À partir de la seule connaissance de la transformée de Laplace rationnelle ou irrationnelle de la réponse, par exemple impulsionnelle ou indicielle d'un système initial, nous déterminons le meilleur modèle approche dont la réponse, soit la plus proche possible de celle du modèle original. Nous exprimons toujours le modèle approche sous forme d'une transformée de Laplace rationnelle. La qualité de l'approximation est mesurée à l'aide du critère d'erreur quadratique. La méthode élaborée, comme toute technique optimale, nécessite la mise en place d'un processus itératif d'optimisation. La première phase utilisant des équations linéaires, calcule le meilleur numérateur pour un dénominateur donné. La seconde permettant d'ajuster progressivement le dénominateur fait intervenir des équations non linéaires que nous linéarisons par un processus de type gauss-newton. Grâce a une technique d'orthogonalisation des fonctions d'approximation basée sur l'utilisation des tableaux de Routh, nous évitons la résolution des systèmes linéaires et par conséquent le calcul et l'inversion de matrices souvent mal conditionnées. La meilleure solution minimisant le critère d'erreur quadratique est obtenue par une expression explicite, dans laquelle ne figurent plus que des matrices d'orthogonalisation dont nous avons proposé une détermination originale. Pour cette nouvelle approche de l'approximation, la gestion spécifique des pôles réels ou complexes, simples ou multiples, est évitée. Tous les paramètres étant réels, les calculs s'effectuent en arithmétique réelle. De plus, dans le cas de fonctions de transfert rationnelles, l'optimisation est réalisée sans le calcul des pôles. La possibilité d'imposer des contraintes linéaires de type Egalite est une propriété intéressante de la méthode. Nous proposons de plus des techniques performantes pour le calcul des divers produits scalaires nécessaires a la mise en œuvre de notre méthode de réduction. La technique développée est applicable à l'étude de systèmes et à la simulation. Son application aux systèmes mimo ainsi que l'utilisation de contraintes de type inégalité pourraient être envisagées
APA, Harvard, Vancouver, ISO, and other styles
9

Simon, Frank. "Contrôle actif appliqué à la réduction du bruit interne d'aéronefs." Toulouse, ENSAE, 1997. http://www.theses.fr/1997ESAE0002.

Full text
Abstract:
Les niveaux de bruit constatés, ainsi que les exigences en matière de confort acoustique dans les aéronefs, sont tels que des traitements purement passifs, notamment dans le cas des composites, sont insuffisants pour satisfaire au cahier des charges. L'étude, tant théorique qu'expérimentale, a pour objet de mettre en évidence les mécanismes existants lors du contrôle actif vibratoire de panneaux sandwichs composites en vue de réduire le champ acoustique rayonné dans un volume fermé. Pour cela, l'excitation primaire sinusoïdale est produite par une force ponctuelle, alors que les excitations secondaires, nécessaires pour le contrôle, sont ponctuelles ou distribuées. Les capteurs de contrôle sont des microphones. Les procédures sont menées à l'aide d'algorithmes de type LMS (least Mean Square) à référence filtrée, dans le domaine temporel ou fréquentiel. Une modélisation analytique du comportement vibratoire des panneaux est réalisée. On s'intéresse en particulier à la contribution des différentes modes de structure au champ rayonné avant et après contrôle, et au cheminement de l'énergie sur la structure. Les expérimentations sont conduites sur des panneaux encastrés sur les bords, rayonnant dans une pièce assourdie, pour différentes densités modales. Les comparaisons entre les résultats théoriques et expérimentaux permettent de valider le modèle et ainsi d'expliquer les phénomènes. Les performances des deux types d'actionneurs sont comparées et les limitations de la méthode sont analysées. Enfin, des améliorations de l'algorithme sont proposées afin d'éviter des problèmes pratiques de divergence ou l'influence d'une source secondaire sur la référence.
APA, Harvard, Vancouver, ISO, and other styles
10

Zapién, Arreola Karina. "Algorithme de chemin de régularisation pour l'apprentissage statistique." Thesis, Rouen, INSA, 2009. http://www.theses.fr/2009ISAM0001/document.

Full text
Abstract:
La sélection d’un modèle approprié est l’une des tâches essentielles de l’apprentissage statistique. En général, pour une tâche d’apprentissage donnée, on considère plusieurs classes de modèles ordonnées selon un certain ordre de « complexité». Dans ce cadre, le processus de sélection de modèle revient `a trouver la « complexité » optimale, permettant d’estimer un modèle assurant une bonne généralisation. Ce problème de sélection de modèle se résume à l’estimation d’un ou plusieurs hyper-paramètres définissant la complexité du modèle, par opposition aux paramètres qui permettent de spécifier le modèle dans la classe de complexité choisie. L’approche habituelle pour déterminer ces hyper-paramètres consiste à utiliser une « grille ». On se donne un ensemble de valeurs possibles et on estime, pour chacune de ces valeurs, l’erreur de généralisation du meilleur modèle. On s’intéresse, dans cette thèse, à une approche alternative consistant à calculer l’ensemble des solutions possibles pour toutes les valeurs des hyper-paramètres. C’est ce qu’on appelle le chemin de régularisation. Il se trouve que pour les problèmes d’apprentissage qui nous intéressent, des programmes quadratiques paramétriques, on montre que le chemin de régularisation associé à certains hyper-paramètres est linéaire par morceaux et que son calcul a une complexité numérique de l’ordre d’un multiple entier de la complexité de calcul d’un modèle avec un seul jeu hyper-paramètres. La thèse est organisée en trois parties. La première donne le cadre général des problèmes d’apprentissage de type SVM (Séparateurs à Vaste Marge ou Support Vector Machines) ainsi que les outils théoriques et algorithmiques permettant d’appréhender ce problème. La deuxième partie traite du problème d’apprentissage supervisé pour la classification et l’ordonnancement dans le cadre des SVM. On montre que le chemin de régularisation de ces problèmes est linéaire par morceaux. Ce résultat nous permet de développer des algorithmes originaux de discrimination et d’ordonnancement. La troisième partie aborde successivement les problèmes d’apprentissage semi supervisé et non supervisé. Pour l’apprentissage semi supervisé, nous introduisons un critère de parcimonie et proposons l’algorithme de chemin de régularisation associé. En ce qui concerne l’apprentissage non supervisé nous utilisons une approche de type « réduction de dimension ». Contrairement aux méthodes à base de graphes de similarité qui utilisent un nombre fixe de voisins, nous introduisons une nouvelle méthode permettant un choix adaptatif et approprié du nombre de voisins
The selection of a proper model is an essential task in statistical learning. In general, for a given learning task, a set of parameters has to be chosen, each parameter corresponds to a different degree of “complexity”. In this situation, the model selection procedure becomes a search for the optimal “complexity”, allowing us to estimate a model that assures a good generalization. This model selection problem can be summarized as the calculation of one or more hyperparameters defining the model complexity in contrast to the parameters that allow to specify a model in the chosen complexity class. The usual approach to determine these parameters is to use a “grid search”. Given a set of possible values, the generalization error for the best model is estimated for each of these values. This thesis is focused in an alternative approach consisting in calculating the complete set of possible solution for all hyperparameter values. This is what is called the regularization path. It can be shown that for the problems we are interested in, parametric quadratic programming (PQP), the corresponding regularization path is piece wise linear. Moreover, its calculation is no more complex than calculating a single PQP solution. This thesis is organized in three chapters, the first one introduces the general setting of a learning problem under the Support Vector Machines’ (SVM) framework together with the theory and algorithms that allow us to find a solution. The second part deals with supervised learning problems for classification and ranking using the SVM framework. It is shown that the regularization path of these problems is piecewise linear and alternative proofs to the one of Rosset [Ross 07b] are given via the subdifferential. These results lead to the corresponding algorithms to solve the mentioned supervised problems. The third part deals with semi-supervised learning problems followed by unsupervised learning problems. For the semi-supervised learning a sparsity constraint is introduced along with the corresponding regularization path algorithm. Graph-based dimensionality reduction methods are used for unsupervised learning problems. Our main contribution is a novel algorithm that allows to choose the number of nearest neighbors in an adaptive and appropriate way contrary to classical approaches based on a fix number of neighbors
APA, Harvard, Vancouver, ISO, and other styles
11

Oulefki, Abdelhakim. "Réduction de modèles thermiques par amalgame modal." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1993. http://tel.archives-ouvertes.fr/tel-00523620.

Full text
Abstract:
On présente la méthode d'amalgame modal. Il s'agit d'une approche pour réduire un modèle d'état modal quelconque. La méthode est ici appliquée dans le cadre de la thermique. Le principe repose sur une partition judicieuse de l'espace d'état modal en quelques sous espaces disjoints. La dynamique de chaque sous espace est ensuite approchée au mieux par un pseudo-élément propre. L'optimalité de la démarche est prouvée au sens d'un critère d'écart quadratique de qualité. Le modèle obtenu conserve des liens formels avec le modèle d'origine. Du point de vue algorithmique, la méthode est automatique : on peut chercher le meilleur modèle réduit respectant une contrainte de précision et/ou de taille. La méthode est performante en temps de calcul. La réduction par amalgame modal est comparée à celles d'autres méthodes. Des exemples de réduction de modèles modaux 1D, 2D et 3D sont donnés.
APA, Harvard, Vancouver, ISO, and other styles
12

Audoux, Yohann. "Développement d’une nouvelle méthode de réduction de modèle basée sur les hypersurfaces NURBS (Non-Uniform Rational B-Splines)." Thesis, Paris, ENSAM, 2019. http://www.theses.fr/2019ENAM0016/document.

Full text
Abstract:
Malgré des décennies d’incontestables progrès dans le domaine des sciences informatiques, un certain nombre de problèmes restent difficiles à traiter en raison, soit de leur complexité numérique (problème d’optimisation, …), soit de contraintes spécifiques telle que la nécessité de traitement en temps réel (réalité virtuelle, augmentée, …). Dans ce contexte, il existe des méthodes de réduction de modèle qui permettent de réduire les temps de calcul de simulations multi-champs et/ou multi-échelles complexes. Le processus de réduction de modèle consiste à paramétrer un métamodèle qui requiert moins de ressources pour être évalué que le modèle complexe duquel il a été obtenu, tout en garantissant une certaine précision. Les méthodes actuelles nécessitent, en général, soit une expertise de l’utilisateur, soit un grand nombre de choix arbitraires de sa part. De plus, elles sont bien souvent adaptées à une application spécifique mais difficilement transposable à d’autres domaines. L’objectif de notre approche est donc d’obtenir, s'il n'est pas le meilleur, un bon métamodèle quel que soit le problème considéré. La stratégie développée s’appuie sur l’utilisation des hypersurfaces NURBS et se démarque des approches existantes par l’absence d’hypothèses simplificatrices sur les paramètres de celles-ci. Pour ce faire, une méta heuristique (de type algorithme génétique), capable de traiter des problèmes d’optimisation dont le nombre de variables n’est pas constant, permet de déterminer automatiquement l’ensemble des paramètres de l’hypersurface sans transférer la complexité des choix à l’utilisateur
Despite undeniable progress achieved in computer sciences over the last decades, some problems remain intractable either by their numerical complexity (optimisation problems, …) or because they are subject to specific constraints such as real-time processing (virtual and augmented reality, …). In this context, metamodeling techniques can minimise the computational effort to realize complex multi-field and/or multi-scale simulations. The metamodeling process consists of setting up a metamodel that needs less resources to be evaluated than the complex one that is extracted from by guaranteeing, meanwhile, a minimal accuracy. Current methods generally require either the user’s expertise or arbitrary choices. Moreover, they are often tailored for a specific application, but they can be hardly transposed to other fields. Thus, even if it is not the best, our approach aims at obtaining a metamodel that remains a good one for whatever problem at hand. The developed strategy relies on NURBS hypersurfaces and stands out from existing ones by avoiding the use of empiric criteria to set its parameters. To do so, a metaheuristic (a genetic algorithm) able to deal with optimisation problems defined over a variable number of optimisation variables sets automatically all the hypersurface parameters so that the complexity is not transferred to the user
APA, Harvard, Vancouver, ISO, and other styles
13

Gama, Nicolas. "Géométrie des nombres et cryptanalyse de NTRU." Paris 7, 2008. http://www.theses.fr/2008PA077199.

Full text
Abstract:
La cryptographie à clef publique, inventée par Diffie et Hellman en 1976, fait aujourd'hui partie de la vie courante : les cartes bleues, les consoles de jeux et le commerce électronique par exemple utilisent des mécanismes de cryptographie à clef publique. La sécurité de certains cryptosystèmes, comme NTRU, repose sur des problèmes issus de la géométrie des nombres, et notamment les problèmes de plus court vecteur ou de plus proche vecteur dans des réseaux euclidiens. Bien que ces problèmes soient NP-difficiles, il reste néanmoins possible d'en obtenir de bonnes approximations en pratique. Dans cette thèse, nous étudions les algorithmes qui permettent d'approcher ces problèmes de réduction de réseau en temps polynomial, ou plus généralement en temps raisonnable. Nous analysons d'abord le fonctionnement de ces algorithmes d'un point de vue théorique, ce qui nous permet de construire par exemple le meilleur algorithme prouvé, au sens de sa complexité et de la qualité de son résultat. Mais nous nous intéressons aussi au côté pratique, au travers d'une grande quantité de simulations, ce qui nous permet de mettre en évidence un important écart entre les propriétés de complexité et de qualité que l'on peut prouver, et celles (bien meilleures) que l'on obtient en pratique. Ces simulations nous permettent en outre de prédire correctement le comportement réel des algorithmes. Nous étudions ces algorithmes dans le cas général, et nous montrons comment en faire des versions spécialisées pour le cas très particulier des réseaux issus du cryptosystème NTRU
Public-key cryptography, invented by Diffie and Hellman in 1976, is now part of everyday life: credit cards, game consoles and electronic commerce are using public key schemes. The security of certain cryptosystems, like NTRU, is based on problems arising from the geometry of numbers, including the shortest vector problem or the closest vector problem in Euclidean lattices. While these problems are mostly NP-hard, it is still possible to compute good approximations in practice. In this thesis, we study approximation algorithms for these lattice reduction problems, which operate either in proved polynomial time, or more generally in reasonable time. We first analyze the functioning of these algorithms from a theoretical point of view, which allows us to build for example, the best proved algorithm for its complexity and the quality of its results. But we also study the practical aspects, through a lot of simulations, which allows us to highlight an important difference between properties of complexity and quality that we can prove, and those (much better) that can be achieved in practice. These simulations also allow us to correctly predict the actual behavior of lattice reduction algorithms. We study these algorithms first in the general case, and then we show how to make specialized versions for the very particular lattices drawn from NTRU cryptosystem
APA, Harvard, Vancouver, ISO, and other styles
14

Vezard, Laurent. "Réduction de dimension en apprentissage supervisé : applications à l’étude de l’activité cérébrale." Thesis, Bordeaux 1, 2013. http://www.theses.fr/2013BOR15005/document.

Full text
Abstract:
L'objectif de ce travail est de développer une méthode capable de déterminer automatiquement l'état de vigilance chez l'humain. Les applications envisageables sont multiples. Une telle méthode permettrait par exemple de détecter automatiquement toute modification de l'état de vigilance chez des personnes qui doivent rester dans un état de vigilance élevée (par exemple, les pilotes ou les personnels médicaux).Dans ce travail, les signaux électroencéphalographiques (EEG) de 58 sujets dans deux états de vigilance distincts (état de vigilance haut et bas) ont été recueillis à l'aide d'un casque à 58 électrodes posant ainsi un problème de classification binaire. Afin d'envisager une utilisation de ces travaux sur une application du monde réel, il est nécessaire de construire une méthode de prédiction qui ne nécessite qu'un faible nombre de capteurs (électrodes) afin de limiter le temps de pose du casque à électrodes ainsi que son coût. Au cours de ces travaux de thèse, plusieurs approches ont été développées. Une première approche propose d'utiliser un pré-traitement des signaux EEG basé sur l'utilisation d'une décomposition en ondelettes discrète des signaux EEG afin d'extraire les contributions de chaque fréquence dans le signal. Une régression linéaire est alors effectuée sur les contributions de certaines de ces fréquences et la pente de cette régression est conservée. Un algorithme génétique est utilisé afin d'optimiser le choix des fréquences sur lesquelles la régression est réalisée. De plus, cet algorithme génétique permet la sélection d'une unique électrode.Une seconde approche est basée sur l'utilisation du Common Spatial Pattern (CSP). Cette méthode permet de définir des combinaisons linéaires des variables initiales afin d'obtenir des signaux synthétiques utiles pour la tâche de classification. Dans ce travail, un algorithme génétique ainsi que des méthodes de recherche séquentielle ont été proposés afin de sélectionner un sous groupes d'électrodes à conserver lors du calcul du CSP.Enfin, un algorithme de CSP parcimonieux basé sur l'utilisation des travaux existant sur l'analyse en composantes principales parcimonieuse a été développé.Les résultats de chacune des approches sont détaillés et comparés. Ces travaux ont aboutit sur l'obtention d'un modèle permettant de prédire de manière rapide et fiable l'état de vigilance d'un nouvel individu
The aim of this work is to develop a method able to automatically determine the alertness state of humans. Such a task is relevant to diverse domains, where a person is expected or required to be in a particular state. For instance, pilots, security personnel or medical personnel are expected to be in a highly alert state, and this method could help to confirm this or detect possible problems. In this work, electroencephalographic data (EEG) of 58 subjects in two distinct vigilance states (state of high and low alertness) were collected via a cap with $58$ electrodes. Thus, a binary classification problem is considered. In order to use of this work on a real-world applications, it is necessary to build a prediction method that requires only a small number of sensors (electrodes) in order to minimize the time needed by the cap installation and the cap cost. During this thesis, several approaches have been developed. A first approach involves use of a pre-processing method for EEG signals based on the use of a discrete wavelet decomposition in order to extract the energy of each frequency in the signal. Then, a linear regression is performed on the energies of some of these frequencies and the slope of this regression is retained. A genetic algorithm (GA) is used to optimize the selection of frequencies on which the regression is performed. Moreover, the GA is used to select a single electrode .A second approach is based on the use of the Common Spatial Pattern method (CSP). This method allows to define linear combinations of the original variables to obtain useful synthetic signals for the task classification. In this work, a GA and a sequential search method have been proposed to select a subset of electrode which are keep in the CSP calculation.Finally, a sparse CSP algorithm, based on the use of existing work in the sparse principal component analysis, was developed.The results of the different approaches are detailed and compared. This work allows us to obtaining a reliable model to obtain fast prediction of the alertness of a new individual
APA, Harvard, Vancouver, ISO, and other styles
15

Hadjee, Gino Eric. "Gain environnemental lié à une gestion coordonnée de la charge sur les réseaux de distribution d'énergie électrique." Paris 11, 2006. http://www.theses.fr/2006PA112044.

Full text
Abstract:
Dans la société actuelle, l'électricité s'avère indispensable et connaît une très forte expansion suite au développement de nouvelles technologies. Il est par ailleurs difficile de " stocker " l'électricité : la gestion de l'offre et de la demande doit se faire en temps réel. Cela nécessite une adaptation instantanée entre production, transport, distribution et consommation. Les usages provoquant des " pointes " de consommation énergétique, quotidiennes ou saisonnières, posent un problème car c'est en fonction de ces pointes que sont quantifiés les besoins en capacité de production, de transport et de distribution de l'électricité. La " gestion coordonnée de la charge " s'avère être une solution intéressante car elle permet d'améliorer l'efficacité énergétique tout en préservant la qualité de service. C'est un maillon essentiel, parmi les moyens d'action, grâce auquel chacun devrait trouver son intérêt, du producteur d'électricité à l'industriel, en passant par l'utilisateur et les pouvoirs publics. Cette thèse a pour but de rechercher les moyens et les méthodes de réduction de la pointe afin de lisser les courbes de charge vues des réseaux de distribution d'énergie électrique
The electricity demand has increased with the new developments in the world. This has put the pressure on the power utilities to meet the increasing demand of costumers. On electric power distribution, one simple way for meet this demand is to reinforce the power system capacity. However, this solution need not only expensive investments for electricity distributors but also increases the cost per for the costumers. An innovative way is to operate on costumer level. Then, it is interesting to study the management strategies for smoothing electricity demand curve without compromising the consumers comfort. Generally, the load control located at the level of the house or a group of houses. On this level, it consists in analyzing how a coordinated load management, being based on the typology of the principal electrical appliances, would allow reducing the load peak on distribution network level. On the distributor level, it consists in studying the influence of the tariff profile and proposing an optimization method in order to modify the consumer's behaviour to shift part of the peak load during off peak periods
APA, Harvard, Vancouver, ISO, and other styles
16

Vezard, Laurent. "Réduction de dimension en apprentissage supervisé : applications à l'étude de l'activité cérébrale." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00944790.

Full text
Abstract:
L'objectif de ce travail est de développer une méthode capable de déterminer automatiquement l'état de vigilance chez l'humain. Les applications envisageables sont multiples. Une telle méthode permettrait par exemple de détecter automatiquement toute modification de l'état de vigilance chez des personnes qui doivent rester dans un état de vigilance élevée (par exemple, les pilotes ou les personnels médicaux).Dans ce travail, les signaux électroencéphalographiques (EEG) de 58 sujets dans deux états de vigilance distincts (état de vigilance haut et bas) ont été recueillis à l'aide d'un casque à 58 électrodes posant ainsi un problème de classification binaire. Afin d'envisager une utilisation de ces travaux sur une application du monde réel, il est nécessaire de construire une méthode de prédiction qui ne nécessite qu'un faible nombre de capteurs (électrodes) afin de limiter le temps de pose du casque à électrodes ainsi que son coût. Au cours de ces travaux de thèse, plusieurs approches ont été développées. Une première approche propose d'utiliser un pré-traitement des signaux EEG basé sur l'utilisation d'une décomposition en ondelettes discrète des signaux EEG afin d'extraire les contributions de chaque fréquence dans le signal. Une régression linéaire est alors effectuée sur les contributions de certaines de ces fréquences et la pente de cette régression est conservée. Un algorithme génétique est utilisé afin d'optimiser le choix des fréquences sur lesquelles la régression est réalisée. De plus, cet algorithme génétique permet la sélection d'une unique électrode.Une seconde approche est basée sur l'utilisation du Common Spatial Pattern (CSP). Cette méthode permet de définir des combinaisons linéaires des variables initiales afin d'obtenir des signaux synthétiques utiles pour la tâche de classification. Dans ce travail, un algorithme génétique ainsi que des méthodes de recherche séquentielle ont été proposés afin de sélectionner un sous groupes d'électrodes à conserver lors du calcul du CSP.Enfin, un algorithme de CSP parcimonieux basé sur l'utilisation des travaux existant sur l'analyse en composantes principales parcimonieuse a été développé.Les résultats de chacune des approches sont détaillés et comparés. Ces travaux ont aboutit sur l'obtention d'un modèle permettant de prédire de manière rapide et fiable l'état de vigilance d'un nouvel individu.
APA, Harvard, Vancouver, ISO, and other styles
17

Delaroque, Aurélie. "Élaboration d’un outil numérique pour la réduction et l’optimisation des mécanismes cinétiques pour les systèmes de combustion." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS417.

Full text
Abstract:
Lors de la modélisation d’un processus de combustion, l’obtention de données globales telles que la vitesse de flamme peut sous certaines condition être réalisée à l’aide de mécanismes très réduits. En revanche, la prédiction de données détaillées comme la concentration d’espèces polluantes minoritaires nécessite l’utilisation de mécanismes cinétiques détaillés mettant en jeu de nombreuses espèces chimiques. Du fait de leur taille et des différences d’échelles de temps, l’intégration de tels modèles chimiques à des simulations numériques complexes est cependant extrêmement coûteuse en temps de calcul. Pour s’affranchir de cette limite, un outil de réduction basé sur les méthodes de Directed Relation Graph et d’analyse de sensibilité a été développé. Il permet la génération automatique de mécanismes réduits en fonction de quantités d’intérêt telles que les données globales (vitesse de flamme, délai d’auto-allumage, etc) et détaillées (profils de concentration) en fonction de tolérances d’erreur définies par l’utilisateur. Les opérations de réduction sont couplées à une optimisation par algorithme génétique des constantes de réaction afin de compenser au maximum les erreurs issues de la perte d’information. Cette optimisation peut être réalisée par rapport à des données issues de simulations numériques mais également par rapport à des mesures expérimentales. L’outil complet a été testé sur différentes configurations canoniques pour différents combustibles (méthane, éthane et n-heptane) et des taux de réduction supérieurs à 80% ont pu être obtenus
In the modeling of a combustion process, obtention of global data such as flame speed can, under certain circumstances, be achieved through extremely reduced mechanisms. On the contrary, prediction of detailed data such as polluant species requires the use of detailed kinetic mechanisms involving many chemical species. Due to the size and to the presence of many differents time scales, the integration of those models to complex numerical simulations is a non trivial task. A reduction tool based on Directed Relation Graph and sensitivity analysis methods is proposed to tackle this issue. Reduced mechanisms fitting user defined tolerances for quantities of interest such as global (flame speed, ignition delay, etc) and detailed data (concentration profiles) are automatically generated. The reduction process is paired up with an optimisation of reaction rates through a genetic algorithm to make up for the error induced by the loss of information. This process can use both numerical and experimental reference entries. The complete numerical tool has been tested on several canonical configurations for several fuels (methane, ethane and n-heptane) and reduction rates up to 90% have been observed
APA, Harvard, Vancouver, ISO, and other styles
18

Stehlé, Damien. "Algorithmique de la réduction de réseaux et application à la recherche de pires cas pour l'arrondi defonctions mathématiques." Phd thesis, Université Henri Poincaré - Nancy I, 2005. http://tel.archives-ouvertes.fr/tel-00011150.

Full text
Abstract:
Les réseaux euclidiens sont un outil particulièrement puissant dans
plusieurs domaines de l'algorithmique, en cryptographie et en théorie
algorithmique des nombres par exemple. L'objet du présent mémoire est dual : nous améliorons les algorithmes de réduction des réseaux,
et nous développons une nouvelle application dans le domaine
de l'arithmétique des ordinateurs. En ce qui concerne l'aspect algorithmique, nous nous intéressons aux cas des petites dimensions (en dimension un, où il s'agit du calcul de pgcd, et aussi en dimensions 2 à 4), ainsi qu'à la description d'une nouvelle variante de l'algorithme LLL, en dimension quelconque. Du point de vue de l'application, nous utilisons la méthode
de Coppersmith permettant de trouver les petites racines de polynômes modulaires multivariés, pour calculer les pires cas pour l'arrondi des fonctions mathématiques, quand la fonction, le mode d'arrondi, et la précision sont donnés. Nous adaptons aussi notre technique aux mauvais cas simultanés pour deux fonctions. Ces deux méthodes sont des pré-calculs coûteux, qui une fois
effectués permettent d'accélérer les implantations des fonctions mathématiques élémentaires en précision fixée, par exemple en double précision.

La plupart des algorithmes décrits dans ce mémoire ont été validés
expérimentalement par des implantations, qui sont
disponibles à l'url http://www.loria.fr/~stehle.
APA, Harvard, Vancouver, ISO, and other styles
19

Vezard, Laurent. "Réduction de dimension en apprentissage supervisé. Application à l'étude de l'activité cérébrale." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00926845.

Full text
Abstract:
L'objectif de ce travail est de développer une méthode capable de déterminer automatiquement l'état de vigilance chez l'humain. Les applications envisageables sont multiples. Une telle méthode permettrait par exemple de détecter automatiquement toute modification de l'état de vigilance chez des personnes qui doivent rester dans un état de vigilance élevée (par exemple, les pilotes ou les personnels médicaux). Dans ce travail, les signaux électroencéphalographiques (EEG) de 58 sujets dans deux états de vigilance distincts (état de vigilance haut et bas) ont été recueillis à l'aide d'un casque à 58 électrodes posant ainsi un problème de classification binaire. Afin d'envisager une utilisation de ces travaux sur une application du monde réel, il est nécessaire de construire une méthode de prédiction qui ne nécessite qu'un faible nombre de capteurs (électrodes) afin de limiter le temps de pose du casque à électrodes ainsi que son coût. Au cours de ces travaux de thèse, plusieurs approches ont été développées. Une première approche propose d'utiliser un pré-traitement des signaux EEG basé sur l'utilisation d'une décomposition en ondelettes discrète des signaux EEG afin d'extraire les contributions de chaque fréquence dans le signal. Une régression linéaire est alors effectuée sur les contributions de certaines de ces fréquences et la pente de cette régression est conservée. Un algorithme génétique est utilisé afin d'optimiser le choix des fréquences sur lesquelles la régression est réalisée. De plus, cet algorithme génétique permet la sélection d'une unique électrode. Une seconde approche est basée sur l'utilisation du Common Spatial Pattern (CSP). Cette méthode permet de définir des combinaisons linéaires des variables initiales afin d'obtenir des signaux synthétiques utiles pour la tâche de classification. Dans ce travail, un algorithme génétique ainsi que des méthodes de recherche séquentielle ont été proposés afin de sélectionner un sous groupes d'électrodes à conserver lors du calcul du CSP. Enfin, un algorithme de CSP parcimonieux basé sur l'utilisation des travaux existant sur l'analyse en composantes principales parcimonieuse a été développé. Les résultats de chacune des approches seront détaillés et comparés. Ces travaux ont aboutit sur l'obtention d'un modèle permettant de prédire de manière rapide et fiable l'état de vigilance d'un nouvel individu.
APA, Harvard, Vancouver, ISO, and other styles
20

Thai, Hoang phuong. "Sur l'utilisation de l'analyse isogéométrique en mécanique linéaire ou non-linéaire des structures : certification des calculs et couplage avec la réduction de modèle PGD." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN017/document.

Full text
Abstract:
Le sujet de la thèse porte sur la mise en place d’approches numériques avancées pour la simulation et l’optimisation de structures mécaniques présentant une géométrie complexe. Il se focalise sur l’analyse isogéométrique (IGA) qui a reçu beaucoup d’intérêt cette dernière décennie dû à sa grande flexibilité, précision, et robustesse dans de nombreux contextes industriels comparé à la méthode des éléments finis (FEA) classique. En particulier, la technologie IGA fournit un lien direct avec les logiciels de CAO (les mêmes fonctions sont utilisées pour la représentation de la géométrie et l’analyse numérique) et facilite les procédures de maillage.Dans ce contexte, et comme première partie du travail, une méthode de vérification basée sur la dualité et le concept d’erreur en relation de comportement (ERC) est proposé. Il permet d’obtenir des estimateurs d’erreur a posteriori à la fois garantis et entièrement calculables pour les solutions numériques issues de simulation par IGA. Ces estimateurs, valables pour une large gamme de modèles linéaires ou non-linéaires en mécanique des structures, constituent donc des outils performants et utiles pour le contrôle quantitatif de la qualité numérique et pour la conduite de procédures adaptatives. Un intérêt particulier est porté sur la construction de champs équilibrés, qui est un point clé du concept ERC, et qui jusqu’à présent était essentiellement développée dans le cadre de la méthode des éléments finis. L’extension au contexte IGA nécessite d’aborder plusieurs problèmes techniques, liés à l’utilisation de fonctions de base B-Spline/NURBS. Le concept ERC est aussi mis en oeuvre avec les techniques d’adjoint pour faire de l’estimation d’erreur sur des quantités d’intérêt.Dans une seconde partie du travail, la technologie IGA est couplée avec une procédure de réduction de modèle pour obtenir des solutions certifiées, et en temps réel, de problèmes avec une géométrie paramétrée. Après avoir défini le paramétrage sur la transformation permettant de passer de l’espace paramétrique IGA à l’espace physique, un modèle réduit basé sur la technique PGD (Proper Generalized Decomposition) est introduit pour résoudre le problème multi-dimensionnel. Avec une stratégie hors-ligne/en-ligne, la procédure permet alors de décrire l’ensemble des solutions paramétrées avec un coût de calcul réduit, et de faire de l’optimisation de forme en temps réel. Ici encore, l’estimation a posteriori des diverses sources d’erreur venant de la discrétisation et de la réduction de modèle PGD est menée à partir du concept ERC. Cela permet de contrôler la qualité de la solution PGD approchée (globalement ou sur des quantités d’intérêt), pour toute configuration géométrique, et de nourrir un algorithme adaptatif qui optimise l’effort de calcul pour une tolérance d’erreur donnée.Le travail de recherche dans son ensemble fournit donc des outils pertinents et pratiques pour les activités de simulation en ingénierie mécanique. Le potentiel et les performances de ces outils sont montrés à travers plusieurs exemples numériques impliquant des problèmes académiques et industriels, et des modèles linéaires et non-linéaires (endommagement)
The topic of the PhD thesis deals with the construction of advanced numerical approaches for the simulation and optimization of mechanical structures with complex geometry. It focuses on the Isogeometric Analysis (IGA) technology which has received much attention of the last decade due to its increased flexibility, accuracy, and robustness in many engineering simulations compared to classical Finite Element Analysis (FEA). In particular, IGA enables a direct link with CAD software (the same functions are used for both analysis and geometry) and facilitates meshing procedures.In this framework, and as a first part of the work, a verification method based on duality and the concept of Constitutive Relation Error (CRE) is proposed. It enables to derive guaranteed and fully computable a posteriori error estimates on the numerical solution provided by IGA. Such estimates, which are valid for a wide class of linear or nonlinear structural mechanics models, thus constitute performing and useful tools to quantitatively control the numerical accuracy and drive adaptive procedures. The focus here is on the construction of equilibrated flux fields, which is key ingredient of the CRE concept, and which was until now almost exclusively developed in the FEA framework alone. The extension to IGA requires to address some technical issues, due to the use of B-Spline/NURBS basis functions. The CRE concept is also implemented together with adjoint techniques in order to perform goal-oriented error estimation.In a second part, IGA is coupled with model reduction in order to get certified real-time solutions to problems with parameterized geometry. After defining the parametrization on the mapping from the IGA parametric space to the physical space, a reduced model based on the Proper Generalized Decomposition (PGD) is introduced to solve the multi-dimensional problem. From an offline/online strategy, the procedure then enables to describe the manifold of parametric solutions with reduced CPU cost, and to further perform shape optimization in real-time. Here again, a posteriori estimation of the various error sources inheriting from discretization and PGD model reduction is performed from the CRE concept. It enables to control the quality of the approximate PGD solution (globally or on outputs of interest), for any geometry configuration, and to feed a robust greedy algorithm that optimizes the computational effort for a prescribed error tolerance.The overall research work thus provides for reliable and practical tools in mechanical engineering simulation activities. Capabilities and performance of these tools are shown on several numerical experiments with academic and engineering problems, and with linear and nonlinear (damage) models
APA, Harvard, Vancouver, ISO, and other styles
21

Salazar, Veronica. "Etude des propriétés physiques des aérosols de la moyenne et haute atmosphère à partir d'une nouvelle analyse des observations du GOMOS-ENVISAT pour la période 2002-2006." Phd thesis, Université d'Orléans, 2010. http://tel.archives-ouvertes.fr/tel-00608052.

Full text
Abstract:
L'étude des aérosols de la stratosphère est primordiale pour modéliser précisément le bilan radiatif terrestre, et pour évaluer l'influence des particules sur le cycle de destruction de l'ozone. Depuis la découverte de la couche de Junge, ce domaine de recherche connaît différents décors, du plus important contenu en aérosols du dernier siècle après l'éruption du Mont Pinatubo en 1991, à un rétablissement vers les faibles niveaux atteints dans les années 2000, qui permet l'étude des particules autres que celles d'origine volcanique. Cependant, à ce jour, le degré de connaissance est faible quant à la distribution spatiale et verticale de ces aérosols dans la moyenne et haute stratosphère. Leur détection présente plusieurs difficultés: les particules ont une grande variété d'origines, compositions, tailles et formes, et leurs faibles épaisseurs optiques rendent indispensables des résultats précis. Un algorithme d'inversion développé au LPC2E a été adapté à l'analyse des données de niveau 1b de l'instrument GOMOS à bord d'ENVISAT, qui emploie la technique d'occultation stellaire, et fournit une bonne (mais irrégulière) couverture géographique et temporelle des mesures; un critère de sélection est d'ailleurs nécessaire du fait de l'utilisation de sources lumineuses de propriétés différentes. La méthode mise au point est validée pour l'étude de l'extinction induite par les aérosols; une climatologie globale est alors établie pour la période allant d'août 2002 à juillet 2006, et indique la présence permanente de particules dans l'ensemble du globe, jusqu'à environ 45 km d'altitude. La variabilité temporelle de l'extinction montre une augmentation progressive du contenu moyen depuis 2002 aux latitudes tropicales dans la basse stratosphère, et a permis d'évaluer l'effet de l'oscillation quasi-biennale et d'étudier d'autres variations saisonnières. La dépendance spectrale permet de déduire certaines spécificités concernant la taille et la nature des aérosols, majoritairement des particules sulfatées, mais également des suies en provenance de la troposphère et des particules d'origine interplanétaire.
APA, Harvard, Vancouver, ISO, and other styles
22

Giacofci, Joyce. "Classification non supervisée et sélection de variables dans les modèles mixtes fonctionnels. Applications à la biologie moléculaire." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM025/document.

Full text
Abstract:
Un nombre croissant de domaines scientifiques collectent de grandes quantités de données comportant beaucoup de mesures répétées pour chaque individu. Ce type de données peut être vu comme une extension des données longitudinales en grande dimension. Le cadre naturel pour modéliser ce type de données est alors celui des modèles mixtes fonctionnels. Nous traitons, dans une première partie, de la classification non-supervisée dans les modèles mixtes fonctionnels. Nous présentons dans ce cadre une nouvelle procédure utilisant une décomposition en ondelettes des effets fixes et des effets aléatoires. Notre approche se décompose en deux étapes : une étape de réduction de dimension basée sur les techniques de seuillage des ondelettes et une étape de classification où l'algorithme EM est utilisé pour l'estimation des paramètres par maximum de vraisemblance. Nous présentons des résultats de simulations et nous illustrons notre méthode sur des jeux de données issus de la biologie moléculaire (données omiques). Cette procédure est implémentée dans le package R "curvclust" disponible sur le site du CRAN. Dans une deuxième partie, nous nous intéressons aux questions d'estimation et de réduction de dimension au sein des modèles mixtes fonctionnels et nous développons en ce sens deux approches. La première approche se place dans un objectif d'estimation dans un contexte non-paramétrique et nous montrons dans ce cadre, que l'estimateur de l'effet fixe fonctionnel basé sur les techniques de seuillage par ondelettes possède de bonnes propriétés de convergence. Notre deuxième approche s'intéresse à la problématique de sélection des effets fixes et aléatoires et nous proposons une procédure basée sur les techniques de sélection de variables par maximum de vraisemblance pénalisée et utilisant deux pénalités SCAD sur les effets fixes et les variances des effets aléatoires. Nous montrons dans ce cadre que le critère considéré conduit à des estimateurs possédant des propriétés oraculaires dans un cadre où le nombre d'individus et la taille des signaux divergent. Une étude de simulation visant à appréhender les comportements des deux approches développées est réalisée dans ce contexte
More and more scientific studies yield to the collection of a large amount of data that consist of sets of curves recorded on individuals. These data can be seen as an extension of longitudinal data in high dimension and are often modeled as functional data in a mixed-effects framework. In a first part we focus on performing unsupervised clustering of these curves in the presence of inter-individual variability. To this end, we develop a new procedure based on a wavelet representation of the model, for both fixed and random effects. Our approach follows two steps : a dimension reduction step, based on wavelet thresholding techniques, is first performed. Then a clustering step is applied on the selected coefficients. An EM-algorithm is used for maximum likelihood estimation of parameters. The properties of the overall procedure are validated by an extensive simulation study. We also illustrate our method on high throughput molecular data (omics data) like microarray CGH or mass spectrometry data. Our procedure is available through the R package "curvclust", available on the CRAN website. In a second part, we concentrate on estimation and dimension reduction issues in the mixed-effects functional framework. Two distinct approaches are developed according to these issues. The first approach deals with parameters estimation in a non parametrical setting. We demonstrate that the functional fixed effects estimator based on wavelet thresholding techniques achieves the expected rate of convergence toward the true function. The second approach is dedicated to the selection of both fixed and random effects. We propose a method based on a penalized likelihood criterion with SCAD penalties for the estimation and the selection of both fixed effects and random effects variances. In the context of variable selection we prove that the penalized estimators enjoy the oracle property when the signal size diverges with the sample size. A simulation study is carried out to assess the behaviour of the two proposed approaches
APA, Harvard, Vancouver, ISO, and other styles
23

Fahlaoui, Tarik. "Réduction de modèles et apprentissage de solutions spatio-temporelles paramétrées à partir de données : application à des couplages EDP-EDO." Thesis, Compiègne, 2020. http://www.theses.fr/2020COMP2535.

Full text
Abstract:
On s’intéresse dans cette thèse à l’apprentissage d’un modèle réduit précis et stable, à partir de données correspondant à la solution d’une équation aux dérivées partielles (EDP), et générées par un solveur haute fidélité (HF). Pour ce faire, on utilise la méthode Dynamic Mode Decomposition (DMD) ainsi que la méthode de réduction Proper Orthogonal Decomposition (POD). Le modèle réduit appris est facilement interprétable, et par une analyse spectrale a posteriori de ce modèle on peut détecter les anomalies lors de la phase d’apprentissage. Les extensions au cas de couplage EDP-EDO, ainsi qu’au cas d’EDP d’ordre deux en temps sont présentées. L’apprentissage d’un modèle réduit dans le cas d’un système dynamique contrôlé par commutation, où la règle de contrôle est apprise à l’aide d’un réseau de neurones artificiel (ANN), est également traité. Un inconvénient de la réduction POD, est la difficile interprétation de la représentation basse dimension. On proposera alors l’utilisation de la méthode Empirical Interpolation Method (EIM). La représentation basse dimension est alors intelligible, et consiste en une restriction de la solution en des points sélectionnés. Cette approche sera ensuite étendue au cas d’EDP dépendant d’un paramètre, et où l’algorithme Kernel Ridge Regression (KRR) nous permettra d’apprendre la variété solution. Ainsi, on présentera l’apprentissage d’un modèle réduit paramétré. L’extension au cas de données bruitées ou bien au cas d’EDP d’évolution non linéaire est présentée en ouverture
In this thesis, an algorithm for learning an accurate reduced order model from data generated by a high fidelity solver (HF solver) is proposed. To achieve this goal, we use both Dynamic Mode Decomposition (DMD) and Proper Orthogonal Decomposition (POD). Anomaly detection, during the learning process, can be easily done by performing an a posteriori spectral analysis on the reduced order model learnt. Several extensions are presented to make the method as general as possible. Thus, we handle the case of coupled ODE/PDE systems or the case of second order hyperbolic equations. The method is also extended to the case of switched control systems, where the switching rule is learnt by using an Artificial Neural Network (ANN). The reduced order model learnt allows to predict time evolution of the POD coefficients. However, the POD coefficients have no interpretable meaning. To tackle this issue, we propose an interpretable reduction method using the Empirical Interpolation Method (EIM). This reduction method is then adapted to the case of third-order tensors, and combining with the Kernel Ridge Regression (KRR) we can learn the solution manifold in the case of parametrized PDEs. In this way, we can learn a parametrized reduced order model. The case of non-linear PDEs or disturbed data is finally presented in the opening
APA, Harvard, Vancouver, ISO, and other styles
24

Giacomini, Matteo. "Quantitative a posteriori error estimators in Finite Element-based shape optimization." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLX070/document.

Full text
Abstract:
Les méthodes d’optimisation de forme basées sur le gradient reposent sur le calcul de la dérivée de forme. Dans beaucoup d’applications, la fonctionnelle coût dépend de la solution d’une EDP. Il s’en suit qu’elle ne peut être résolue exactement et que seule une approximation de celle-ci peut être calculée, par exemple par la méthode des éléments finis. Il en est de même pour la dérivée de forme. Ainsi, les méthodes de gradient en optimisation de forme - basées sur des approximations du gradient - ne garantissent pas a priori que la direction calculée à chaque itération soit effectivement une direction de descente pour la fonctionnelle coût. Cette thèse est consacrée à la construction d’une procédure de certification de la direction de descente dans des algorithmes de gradient en optimisation de forme grâce à des estimations a posteriori de l’erreur introduite par l’approximation de la dérivée de forme par la méthode des éléments finis. On présente une procédure pour estimer l’erreur dans une Quantité d’Intérêt et on obtient une borne supérieure certifiée et explicitement calculable. L’Algorithme de Descente Certifiée (CDA) pour l’optimisation de forme identifie une véritable direction de descente à chaque itération et permet d’établir un critère d’arrêt fiable basé sur la norme de la dérivée de forme. Deux applications principales sont abordées dans la thèse. Premièrement, on considère le problème scalaire d’identification de forme en tomographie d’impédance électrique et on étudie différentes estimations d’erreur. Une première approche est basée sur le principe de l’énergie complémentaire et nécessite la résolution de problèmes globaux additionnels. Afin de réduire le coût de calcul de la procédure de certification, une estimation qui dépend seulement de quantités locales est dérivée par la reconstruction des flux équilibrés. Après avoir validé les estimations de l’erreur pour un cas bidimensionnel, des résultats numériques sont présentés pour tester les méthodes discutées. Une deuxième application est centrée sur le problème vectoriel de la conception optimale des structures élastiques. Dans ce cadre figure, on calcule l’expression volumique de la dérivée de forme de la compliance à partir de la formulation primale en déplacements et de la formulation duale mixte pour l’équation de l’élasticité linéaire. Quelques résultats numériques préliminaires pour la minimisation de la compliance sous une contrainte de volume en 2D sont obtenus à l’aide de l’Algorithme de Variation de Frontière et une estimation a posteriori de l’erreur de la dérivée de forme basée sur le principe de l’énergie complémentaire est calculée
Gradient-based shape optimization strategies rely on the computation of the so-called shape gradient. In many applications, the objective functional depends both on the shape of the domain and on the solution of a PDE which can only be solved approximately (e.g. via the Finite Element Method). Hence, the direction computed using the discretized shape gradient may not be a genuine descent direction for the objective functional. This Ph.D. thesis is devoted to the construction of a certification procedure to validate the descent direction in gradient-based shape optimization methods using a posteriori estimators of the error due to the Finite Element approximation of the shape gradient.By means of a goal-oriented procedure, we derive a fully computable certified upper bound of the aforementioned error. The resulting Certified Descent Algorithm (CDA) for shape optimization is able to identify a genuine descent direction at each iteration and features a reliable stopping criterion basedon the norm of the shape gradient.Two main applications are tackled in the thesis. First, we consider the scalar inverse identification problem of Electrical Impedance Tomography and we investigate several a posteriori estimators. A first procedure is inspired by the complementary energy principle and involves the solution of additionalglobal problems. In order to reduce the computational cost of the certification step, an estimator which depends solely on local quantities is derived via an equilibrated fluxes approach. The estimators are validated for a two-dimensional case and some numerical simulations are presented to test the discussed methods. A second application focuses on the vectorial problem of optimal design of elastic structures. Within this framework, we derive the volumetric expression of the shape gradient of the compliance using both H 1 -based and dual mixed variational formulations of the linear elasticity equation. Some preliminary numerical tests are performed to minimize the compliance under a volume constraint in 2D using the Boundary Variation Algorithm and an a posteriori estimator of the error in the shape gradient is obtained via the complementary energy principle
APA, Harvard, Vancouver, ISO, and other styles
25

Barkouki, Houda. "Rational Lanczos-type methods for model order reduction." Thesis, Littoral, 2016. http://www.theses.fr/2016DUNK0440/document.

Full text
Abstract:
La solution numérique des systèmes dynamiques est un moyen efficace pour étudier des phénomènes physiques complexes. Cependant, dans un cadre à grande échelle, la dimension du système rend les calculs infaisables en raison des limites de mémoire et de temps, ainsi que le mauvais conditionnement. La solution de ce problème est la réduction de modèles. Cette thèse porte sur les méthodes de projection pour construire efficacement des modèles d'ordre inférieur à partir des systèmes linéaires dynamiques de grande taille. En particulier, nous nous intéressons à la projection sur la réunion de plusieurs sous-espaces de Krylov standard qui conduit à une classe de modèles d'ordre réduit. Cette méthode est connue par l'interpolation rationnelle. En se basant sur ce cadre théorique qui relie la projection de Krylov à l'interpolation rationnelle, quatre algorithmes de type Lanczos rationnel pour la réduction de modèles sont proposés. Dans un premier temps, nous avons introduit une méthode adaptative de type Lanczos rationnel par block pour réduire l'ordre des systèmes linéaires dynamiques de grande taille, cette méthode est basée sur l'algorithme de Lanczos rationnel par block et une méthode adaptative pour choisir les points d'interpolation. Une généralisation de ce premier algorithme est également donnée, où différentes multiplicités sont considérées pour chaque point d'interpolation. Ensuite, nous avons proposé une autre extension de la méthode du sous-espace de Krylov standard pour les systèmes à plusieurs-entrées plusieurs-sorties, qui est le sous-espace de Krylov global. Nous avons obtenu des équations qui décrivent cette procédure. Finalement, nous avons proposé une méthode de Lanczos étendu par block et nous avons établi de nouvelles propriétés algébriques pour cet algorithme. L'efficacité et la précision de tous les algorithmes proposés, appliqués sur des problèmes de réduction de modèles, sont testées dans plusieurs exemples numériques
Numerical solution of dynamical systems have been a successful means for studying complex physical phenomena. However, in large-scale setting, the system dimension makes the computations infeasible due to memory and time limitations, and ill-conditioning. The remedy of this problem is model reductions. This dissertations focuses on projection methods to efficiently construct reduced order models for large linear dynamical systems. Especially, we are interesting by projection onto unions of Krylov subspaces which lead to a class of reduced order models known as rational interpolation. Based on this theoretical framework that relate Krylov projection to rational interpolation, four rational Lanczos-type algorithms for model reduction are proposed. At first, an adaptative rational block Lanczos-type method for reducing the order of large scale dynamical systems is introduced, based on a rational block Lanczos algorithm and an adaptive approach for choosing the interpolation points. A generalization of the first algorithm is also given where different multiplicities are consider for each interpolation point. Next, we proposed another extension of the standard Krylov subspace method for Multiple-Input Multiple-Output (MIMO) systems, which is the global Krylov subspace, and we obtained also some equations that describe this process. Finally, an extended block Lanczos method is introduced and new algebraic properties for this algorithm are also given. The accuracy and the efficiency of all proposed algorithms when applied to model order reduction problem are tested by means of different numerical experiments that use a collection of well known benchmark examples
APA, Harvard, Vancouver, ISO, and other styles
26

Luu, Thi Hieu. "Amélioration du modèle de sections efficaces dans le code de cœur COCAGNE de la chaîne de calculs d'EDF." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066120/document.

Full text
Abstract:
Afin d'exploiter au mieux son parc nucléaire, la R&D d'EDF est en train de développer une nouvelle chaîne de calcul pour simuler le cœur des réacteurs nucléaires avec des outils à l'état de l'art. Ces calculs nécessitent une grande quantité de données physiques, en particulier les sections efficaces. Dans la simulation d'un cœur complet, le nombre de valeurs des sections efficaces est de l'ordre de plusieurs milliards. Ces sections efficaces peuvent être représentées comme des fonctions multivariées dépendant de plusieurs paramètres physiques. La détermination des sections efficaces étant un calcul complexe et long, nous pouvons donc les précalculer en certaines valeurs des paramètres (caluls hors ligne) puis les évaluer en tous points par une interpolation (calculs en ligne). Ce processus demande un modèle de reconstruction des sections efficaces entre les deux étapes. Pour réaliser une simulation plus fidèle du cœur dans la nouvelle chaîne d'EDF, les sections efficaces nécessitent d'être mieux représentées en prenant en compte de nouveaux paramètres. Par ailleurs, la nouvelle chaîne se doit d'être en mesure de calculer le réacteur dans des situations plus larges qu'actuellement. Le modèle d'interpolation multilinéaire pour reconstruire les sections efficaces est celui actuellement utilisé pour répondre à ces objectifs. Néanmoins, avec ce modèle, le nombre de points de discrétisation augmente exponentiellement en fonction du nombre de paramètres ou de manière considérable quand on ajoute des points sur un des axes. Par conséquence, le nombre et le temps des calculs hors ligne ainsi que la taille du stockage des données deviennent problématique. L'objectif de cette thèse est donc de trouver un nouveau modèle pour répondre aux demandes suivantes : (i)-(hors ligne) réduire le nombre de précalculs, (ii)-(hors ligne) réduire le stockage de données pour la reconstruction et (iii)-(en ligne) tout en conservant (ou améliorant) la précision obtenue par l'interpolation multilinéaire. D'un point de vue mathématique, ce problème consiste à approcher des fonctions multivariées à partir de leurs valeurs précalculées. Nous nous sommes basés sur le format de Tucker - une approximation de tenseurs de faible rang afin de proposer un nouveau modèle appelé la décomposition de Tucker . Avec ce modèle, une fonction multivariée est approchée par une combinaison linéaire de produits tensoriels de fonctions d'une variable. Ces fonctions d'une variable sont construites grâce à une technique dite de décomposition en valeurs singulières d'ordre supérieur (une « matricization » combinée à une extension de la décomposition de Karhunen-Loève). L'algorithme dit glouton est utilisé pour constituer les points liés à la résolution des coefficients dans la combinaison de la décomposition de Tucker. Les résultats obtenus montrent que notre modèle satisfait les critères exigés sur la réduction de données ainsi que sur la précision. Avec ce modèle, nous pouvons aussi éliminer a posteriori et à priori les coefficients dans la décomposition de Tucker. Cela nous permet de réduire encore le stockage de données dans les étapes hors ligne sans réduire significativement la précision
In order to optimize the operation of its nuclear power plants, the EDF's R&D department iscurrently developing a new calculation chain to simulate the nuclear reactors core with state of the art tools. These calculations require a large amount of physical data, especially the cross-sections. In the full core simulation, the number of cross-section values is of the order of several billions. These cross-sections can be represented as multivariate functions depending on several physical parameters. The determination of cross-sections is a long and complex calculation, we can therefore pre-compute them in some values of parameters (online calculations), then evaluate them at all desired points by an interpolation (online calculations). This process requires a model of cross-section reconstruction between the two steps. In order to perform a more faithful core simulation in the new EDF's chain, the cross-sections need to be better represented by taking into account new parameters. Moreover, the new chain must be able to calculate the reactor in more extensive situations than the current one. The multilinear interpolation is currently used to reconstruct cross-sections and to meet these goals. However, with this model, the number of points in its discretization increases exponentially as a function of the number of parameters, or significantly when adding points to one of the axes. Consequently, the number and time of online calculations as well as the storage size for this data become problematic. The goal of this thesis is therefore to find a new model in order to respond to the following requirements: (i)-(online) reduce the number of pre-calculations, (ii)-(online) reduce stored data size for the reconstruction and (iii)-(online) maintain (or improve) the accuracy obtained by multilinear interpolation. From a mathematical point of view, this problem involves approaching multivariate functions from their pre-calculated values. We based our research on the Tucker format - a low-rank tensor approximation in order to propose a new model called the Tucker decomposition . With this model, a multivariate function is approximated by a linear combination of tensor products of one-variate functions. These one-variate functions are constructed by a technique called higher-order singular values decomposition (a « matricization » combined with an extension of the Karhunen-Loeve decomposition). The so-called greedy algorithm is used to constitute the points related to the resolution of the coefficients in the combination of the Tucker decomposition. The results obtained show that our model satisfies the criteria required for the reduction of the data as well as the accuracy. With this model, we can eliminate a posteriori and a priori the coefficients in the Tucker decomposition in order to further reduce the data storage in online steps but without reducing significantly the accuracy
APA, Harvard, Vancouver, ISO, and other styles
27

Giacofci, Madison. "Classification non supervisée et sélection de variables dans les modèles mixtes fonctionnels. Applications à la biologie moléculaire." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00987441.

Full text
Abstract:
Un nombre croissant de domaines scientifiques collectent de grandes quantités de données comportant beaucoup de mesures répétées pour chaque individu. Ce type de données peut être vu comme une extension des données longitudinales en grande dimension. Le cadre naturel pour modéliser ce type de données est alors celui des modèles mixtes fonctionnels. Nous traitons, dans une première partie, de la classification non-supervisée dans les modèles mixtes fonctionnels. Nous présentons dans ce cadre une nouvelle procédure utilisant une décomposition en ondelettes des effets fixes et des effets aléatoires. Notre approche se décompose en deux étapes : une étape de réduction de dimension basée sur les techniques de seuillage des ondelettes et une étape de classification où l'algorithme EM est utilisé pour l'estimation des paramètres par maximum de vraisemblance. Nous présentons des résultats de simulations et nous illustrons notre méthode sur des jeux de données issus de la biologie moléculaire (données omiques). Cette procédure est implémentée dans le package R "curvclust" disponible sur le site du CRAN. Dans une deuxième partie, nous nous intéressons aux questions d'estimation et de réduction de dimension au sein des modèles mixtes fonctionnels et nous développons en ce sens deux approches. La première approche se place dans un objectif d'estimation dans un contexte non-paramétrique et nous montrons dans ce cadre, que l'estimateur de l'effet fixe fonctionnel basé sur les techniques de seuillage par ondelettes possède de bonnes propriétés de convergence. Notre deuxième approche s'intéresse à la problématique de sélection des effets fixes et aléatoires et nous proposons une procédure basée sur les techniques de sélection de variables par maximum de vraisemblance pénalisée et utilisant deux pénalités SCAD sur les effets fixes et les variances des effets aléatoires. Nous montrons dans ce cadre que le critère considéré conduit à des estimateurs possédant des propriétés oraculaires dans un cadre où le nombre d'individus et la taille des signaux divergent. Une étude de simulation visant à appréhender les comportements des deux approches développées est réalisée dans ce contexte.
APA, Harvard, Vancouver, ISO, and other styles
28

Girardet, Brunilde. "Trafic aérien : détermination optimale et globale des trajectoires d'avion en présence de vent." Thesis, Toulouse, INSA, 2014. http://www.theses.fr/2014ISAT0027/document.

Full text
Abstract:
Dans le contexte du futur système de gestion du trafic aérien, un des objectifs consiste à réduire l’impact environnemental du trafic aérien. Pour respecter ce but, le concept de “free-route”, introduit dans les années 1990, semble bien adapté aujourd’hui. Les avions ne seraient plus contraints à voler le long de routes aériennes, mais pourraient suivre des trajectoires optimales en terme de consommation. L’objectif de cette thèse est d’introduire une nouvelle méthode de planification du trafic à l’horizon pré-tactique avec des objectifs quelques fois contradictoires, c’est-à-dire avec pour but de minimiser la consommation ou de façon équivalente la durée de trajet en tenant compte des conditions météorologiques et de minimiser l’encombrement de l’espace aérien.La méthode a été mise au point en deux étapes. La première étape a été consacrée au calcul d’une seule trajectoire optimale en terme de temps de vol en tenant compte du vent et de contraintes celles des zones interdites de survol. Cette optimisation est basée sur une adaptation de l’algorithme Ordered Upwind. La deuxième étape introduit un algorithme hybride développé, basé sur un algorithme de recuit simulé et sur l’algorithme déterministe développé dans la première étape, afin de minimiser un compromis entre la congestion et la consommation. L’algorithme combine ainsi la capacité d’atteindre la solution optimale globale via une recherche locale qui permet d’accélérer la convergence.Des simulations numériques avec des prévisions de vent sur du trafic européen donnent des résultats encourageants qui démontrent que la méthode globale est à la fois viable et bénéfique en terme du temps de vol total comme de la congestion globale donc de la diminution des conflits
In the context of the future Air Traffic Management system (ATM), one objective is to reduce the environmental impact of air traffic. With respect to this criterion, the “freeroute” concept, introduced in the mid 1990’s, is well suited to improve over nowadays airspace based ATM. Aircraft will no longer be restricted to fly along airways and may fly along fuel-optimal routes. The objective of this thesis is to introduce a novel pretactical trajectory planning methodology which aims at minimizing airspace congestion while taking into account weather conditions so as to minimize also fuel consumption.The development of the method was divided in two steps. The first step is dedicated to compute a time-optimal route for one aircraft taking into account wind conditions. This optimization is based on an adaptation of the Ordered Upwind Method on the sphere.The second step introduces a hybrid algorithm, based on simulated annealing and on the deterministic algorithm developed in the first step, in order to minimize congestion. Thus the algorithm combines the ability to reach a globally-optimal solution with a local-search procedure that speeds up the convergence
APA, Harvard, Vancouver, ISO, and other styles
29

Joubert, Christophe. "Vérification distribuée à la volée de grands espaces d'états." Phd thesis, Grenoble INPG, 2005. http://tel.archives-ouvertes.fr/tel-00011939.

Full text
Abstract:
La vérification des systèmes d'états finis, qu'ils soient distribués ou concurrents, est confrontée en pratique au problème d'explosion d'états (taille prohibitive de l'espace d'états sous-jacent) qui survient pour des systèmes de taille réaliste, contenant de nombreux processus en parallèle et des structures de données complexes. Différentes techniques ont été proposées pour combattre l'explosion d'états, telles que la vérification à la volée, la réduction d'ordre partiel, ou encore la vérification distribuée. Cependant, l'expérience pratique a montré qu'aucune de ces techniques, à elle seule, n'est toujours suffisante pour maîtriser des systèmes à grande échelle. Cette thèse propose une combinaison de ces approches dans le but de faire passer à l'échelle leurs capacités de vérification. Notre approche est basée sur les Systèmes d'Equations Booléennes (SEBs), qui fournissent une représentation intermédiaire élégante des problèmes de vérification définis sur des Systèmes de Transitions Etiquetées, comme la comparaison par équivalence, la réduction par tau-confluence, l'évaluation de formules de mu-calcul modal sans alternance, ou encore la génération de cas de tests de conformité. Nous proposons DSolve et MB-DSolve, deux nouveaux algorithmes pour la résolution distribuée à la volée de SEBs (contenant un, resp. plusieurs blocs d'équations), et nous les employons comme moteurs de calcul pour quatre outils de vérification à la volée développés au sein de la boîte à outils CADP en utilisant l'environnement OPEN/CAESAR : le comparateur par équivalence BISIMULATOR, le réducteur TAU_CONFLUENCE, l'évaluateur de propriétés temporelles EVALUATOR, et le générateur de cas de tests de conformité EXTRACTOR. Les mesures expérimentales effectuées sur des grappes de machines montrent des accélérations quasi-linéaires et un bon passage à l'échelle des versions distribuées de ces outils par rapport à leurs équivalents séquentiels.
APA, Harvard, Vancouver, ISO, and other styles
30

Do, Thanh Ha. "Sparse representations over learned dictionary for document analysis." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0021/document.

Full text
Abstract:
Dans cette thèse, nous nous concentrons sur comment les représentations parcimonieuses peuvent aider à augmenter les performances pour réduire le bruit, extraire des régions de texte, reconnaissance des formes et localiser des symboles dans des documents graphiques. Pour ce faire, tout d'abord, nous donnons une synthèse des représentations parcimonieuses et ses applications en traitement d'images. Ensuite, nous présentons notre motivation pour l'utilisation de dictionnaires d'apprentissage avec des algorithmes efficaces pour les construire. Après avoir décrit l'idée générale des représentations parcimonieuses et du dictionnaire d'apprentissage, nous présentons nos contributions dans le domaine de la reconnaissance de symboles et du traitement des documents en les comparants aux travaux de l'état de l'art. Ces contributions s'emploient à répondre aux questions suivantes: La première question est comment nous pouvons supprimer le bruit des images où il n'existe aucune hypothèse sur le modèle de bruit sous-jacent à ces images ? La deuxième question est comment les représentations parcimonieuses sur le dictionnaire d'apprentissage peuvent être adaptées pour séparer le texte du graphique dans des documents? La troisième question est comment nous pouvons appliquer la représentation parcimonieuse à reconnaissance de symboles? Nous complétons cette thèse en proposant une approche de localisation de symboles dans les documents graphiques qui utilise les représentations parcimonieuses pour coder un vocabulaire visuel
In this thesis, we focus on how sparse representations can help to increase the performance of noise removal, text region extraction, pattern recognition and spotting symbols in graphical documents. To do that, first of all, we give a survey of sparse representations and its applications in image processing. Then, we present the motivation of building learning dictionary and efficient algorithms for constructing a learning dictionary. After describing the general idea of sparse representations and learned dictionary, we bring some contributions in the field of symbol recognition and document processing that achieve better performances compared to the state-of-the-art. These contributions begin by finding the answers to the following questions. The first question is how we can remove the noise of a document when we have no assumptions about the model of noise found in these images? The second question is how sparse representations over learned dictionary can separate the text/graphic parts in the graphical document? The third question is how we can apply the sparse representation for symbol recognition? We complete this thesis by proposing an approach of spotting symbols that use sparse representations for the coding of a visual vocabulary
APA, Harvard, Vancouver, ISO, and other styles
31

Zniyed, Yassine. "Breaking the curse of dimensionality based on tensor train : models and algorithms." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS330.

Full text
Abstract:
Le traitement des données massives, communément connu sous l’appellation “Big Data”, constitue l’un des principaux défis scientifiques de la communauté STIC.Plusieurs domaines, à savoir économique, industriel ou scientifique, produisent des données hétérogènes acquises selon des protocoles technologiques multi-modales. Traiter indépendamment chaque ensemble de données mesurées est clairement une approche réductrice et insatisfaisante. En faisant cela, des “relations cachées” ou des inter-corrélations entre les données peuvent être totalement ignorées.Les représentations tensorielles ont reçu une attention particulière dans ce sens en raison de leur capacité à extraire de données hétérogènes et volumineuses une information physiquement interprétable confinée à un sous-espace de dimension réduite. Dans ce cas, les données peuvent être organisées selon un tableau à D dimensions, aussi appelé tenseur d’ordre D.Dans ce contexte, le but de ce travail et que certaines propriétés soient présentes : (i) avoir des algorithmes de factorisation stables (ne souffrant pas de probème de convergence), (ii) avoir un faible coût de stockage (c’est-à-dire que le nombre de paramètres libres doit être linéaire en D), et (iii) avoir un formalisme sous forme de graphe permettant une visualisation mentale simple mais rigoureuse des décompositions tensorielles de tenseurs d’ordre élevé, soit pour D > 3.Par conséquent, nous nous appuyons sur la décomposition en train de tenseurs (TT) pour élaborer de nouveaux algorithmes de factorisation TT, et des nouvelles équivalences en termes de modélisation tensorielle, permettant une nouvelle stratégie de réduction de dimensionnalité et d'optimisation de critère des moindres carrés couplés pour l'estimation des paramètres d'intérêts nommé JIRAFE.Ces travaux d'ordre méthodologique ont eu des applications dans le contexte de l'analyse spectrale multidimensionelle et des systèmes de télécommunications à relais
Massive and heterogeneous data processing and analysis have been clearly identified by the scientific community as key problems in several application areas. It was popularized under the generic terms of "data science" or "big data". Processing large volumes of data, extracting their hidden patterns, while preforming prediction and inference tasks has become crucial in economy, industry and science.Treating independently each set of measured data is clearly a reductiveapproach. By doing that, "hidden relationships" or inter-correlations between thedatasets may be totally missed. Tensor decompositions have received a particular attention recently due to their capability to handle a variety of mining tasks applied to massive datasets, being a pertinent framework taking into account the heterogeneity and multi-modality of the data. In this case, data can be arranged as a D-dimensional array, also referred to as a D-order tensor.In this context, the purpose of this work is that the following properties are present: (i) having a stable factorization algorithms (not suffering from convergence problems), (ii) having a low storage cost (i.e., the number of free parameters must be linear in D), and (iii) having a formalism in the form of a graph allowing a simple but rigorous mental visualization of tensor decompositions of tensors of high order, i.e., for D> 3.Therefore, we rely on the tensor train decomposition (TT) to develop new TT factorization algorithms, and new equivalences in terms of tensor modeling, allowing a new strategy of dimensionality reduction and criterion optimization of coupled least squares for the estimation of parameters named JIRAFE.This methodological work has had applications in the context of multidimensional spectral analysis and relay telecommunications systems
APA, Harvard, Vancouver, ISO, and other styles
32

Hijazi, Samah. "Semi-supervised Margin-based Feature Selection for Classification." Thesis, Littoral, 2019. http://www.theses.fr/2019DUNK0546.

Full text
Abstract:
Dans le domaine de l’apprentissage automatique, la sélection d’attributs est une étape d’une importance capitale. Elle permet de réduire les coûts de calcul, d’améliorer les performances de la classification et de créer des modèles simples et interprétables.Récemment, l’apprentissage par contraintes de comparaison, un type d’apprentissage semi-supervisé, a suscité un vif intérêt pour la sélection d’attributs. En effet, celui-ci est moins contraignant car il n’impose pas la connaissance des labels des classes.Dans ce contexte semi-supervisé avec contraintes, nous avons proposé un algorithme de sélection d’attributs à large marge appelé Relief-Sc. Il s’agit d’une modification de l’algorithme supervisé Relief. Il utilise uniquement les contraintes de comparaison cannot-links pour résoudre un problème d’optimisation convexe donnant une solution unique. Les contraintes sont généralement générées aléatoirement, de manière passive et dans certains cas, défavorables aux performances de l’algorithme. Pour cela, nous proposons une méthodologie de sélection active des contraintes suivie d’une étape de propagation des contraintes. Nous avons appliqué la théorie de la perturbation sur la matrice de similarité du graphe Laplacien. Les contraintes cannot-links sont choisies parmi les couples de données ayant le plus d’influence sur la matrice de similarité. La procédure de propagation des contraintes est appliquée pour assurer une augmentation des informations de supervision tout en réduisant l’effort humain. De plus, dans un souci de gestion de la redondance des attributs, nous avons proposé d’étendre l’algorithme Relief-Sc en y intégrant une procédure de classification non supervisée des attributs. Cette approche permet de traiter les deux aspects fondamentaux de la sélection des attributs : maximiser la pertinence tout en minimisant la redondance (maximisation de la diversité) entre les attributs. Finalement, nous avons validé expérimentalement les algorithmes proposés en les comparant à d’autres algorithmes de sélection d’attributs sur plusieurs bases de données UCI. Nous avons montré qu’avec peu d’information de supervision, les performances des algorithmes proposés sont comparables aux algorithmes de sélection supervisée et supérieures aux algorithmes non supervisés
Feature selection is a preprocessing step crucial to the performance of machine learning algorithms. It allows reducing computational costs, improving classification performances and building simple and understandable models. Recently, using pairwise constraints, a cheaper kind of supervision information that does not need to reveal the class labels of data points, received a great deal of interest in the domain of feature selection. Accordingly, we first proposed a semi-supervised margin-based constrained feature selection algorithm called Relief-Sc. It is a modification of the well-known Relief algorithm from its optimization perspective. It utilizes cannot-link constraints only to solve a simple convex problem in a closed-form giving a unique solution. However, we noticed that in the literature these pairwise constraints are generally provided passively and generated randomly over multiple algorithmic runs by which the results are averaged. This leads to the need for a large number of constraints that might be redundant, unnecessary, and under some circumstances even inimical to the algorithm’s performance. It also masks the individual effect of each constraint set and introduces a human labor-cost burden. Therefore, we suggested a framework for actively selecting and then propagating constraints for feature selection. For that, we made use of the similarity matrix based on Laplacian graph. We assumed that when a small perturbation of the similarity value between a data couple leads to a more well-separated cluster indicator based on the second eigenvector of the graph Laplacian, this couple is expected to be a pairwise query of higher and more significant impact. Constraints propagation, on the other side, ensures increasing supervision information while decreasing the cost of human labor. Besides, for the sake of handling feature redundancy, we proposed extending Relief- Sc to a feature selection approach that combines feature clustering and hypothesis margin maximization. This approach is able to deal with the two core aspects of feature selection i.e. maximizing relevancy while minimizing redundancy (maximizing diversity) among features. Eventually, we experimentally validate our proposed algorithms in comparison to other known feature selection methods on multiple well-known UCI benchmark datasets which proved to be prominent. Only with little supervision information, the proposed algorithms proved to be comparable to supervised feature selection algorithms and were superior to the unsupervised ones
APA, Harvard, Vancouver, ISO, and other styles
33

Ribault, Clément. "Méthode d'optimisation multicritère pour l'aide à la conception des projets de densification urbaine." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEI084/document.

Full text
Abstract:
La population mondiale fait face, globalement, à une urbanisation expansive. Cet étalement urbain, souvent mal contrôlé, menace aussi bien l’environnement que la santé, la qualité de vie et la sécurité alimentaire des humains. Il est possible de le limiter en lui préférant la densification urbaine. Néanmoins, la complexité des phénomènes en jeu dans un tel contexte nous incite à penser que les responsables d’opérations de densification urbaine ont besoin d’outils pour les aider à faire les choix les plus pertinents possibles. Dans un premier temps, l’état de l’art présenté dans cette thèse montre que l’outil idéal n’existe pas, et que l’optimisation multicritère par algorithme génétique est une technique adaptée à l’aide à la conception de bâtiments. Les caractéristiques souhaitables pour une méthode d’assistance des concepteurs de projets de densification urbaine sont alors précisées. Nous recommandons de baser cette méthode sur le couplage entre un algorithme génétique et un outil capable de réaliser des simulations thermiques dynamiques (STD) de quartiers. Les capacités des logiciels de STD Pleiades+COMFIE (P+C) et EnergyPlus (E+) sont situées par rapport à ces exigences, puis un premier test d’optimisation d’un projet de densification urbaine en associant EnergyPlus à un algorithme génétique est présenté. Certaines lacunes de cette méthode peuvent être comblées par la plateforme en cours de développement dans le projet ANR MERUBBI. Dans un second temps, nous analysons donc les résultats d’une étude comparative entre P+C, E+ et l’outil MERUBBI, menée sur un projet de densification d’un îlot à forte densité urbaine. Ils montrent que ce dernier est fiable et particulièrement pertinent pour l’évaluation précise des interactions entre bâtiments. Dans un troisième temps, nous abordons la problématique de la diminution des temps de calcul, enjeu crucial pour que notre méthode d’aide à la conception soit réellement accessible aux professionnels du bâtiment. Nous proposons une technique de réduction de la période de simulation que nous présentons en détail. Enfin, la méthode d’optimisation développée est appliquée à la résolution de différents problèmes de conception du projet sus-cité, en utilisant E+. Nous montrons en quoi l’utilisation de l’outil MERUBBI enrichira cette approche, avant de conclure sur des perspectives de développement de notre méthode pour améliorer son interactivité
The world’s population is facing an expansive urbanization. This urban sprawl, which is often not well managed, is endangering the environment as well as human health, quality of life and food security. It can be controlled by favouring urban densification. Nonetheless, the complexity of the phenomena involved in such a context leads us to think that supervisors of urban densification operations need some tools to help them make the most relevant choices. This thesis begins with a literature review that shows the ideal tool does not exist, and explains why multi-objective optimization using a genetic algorithm is a suitable technique for building design aid. Then we clarify the desirable features of an assistance method for urban densification projects designers. We recommend to base this method on the coupling of a genetic algorithm with a district-scale dynamic thermal simulation (DTS) tool. We compare capabilities of EnergyPlus (E+) and Pleiades+COMFIE (P+C) DTS software with these requirements, then we present a first urban densification project optimization test associating EnergyPlus with a genetic algorithm. The platform under development in the ANR MERUBBI project can offset certain shortcomings of this method. Hence, in a second phase we analyze the results of a comparative study of P+C, E+ and the MERUBBI tool, carried out using a high-density district densification project as a test case. It shows that the latter is reliable and particularly relevant to precisely assess interactions between buildings. In a third phase we address the problematic of reducing the computing time, a major issue to make our design aid method truly accessible to building professionals. We propose a way of reducing the operating period length and present it in detail. Finally, our optimization method is used to solve various design problems of the above-mentioned project, using E+. We show how the use of the MERUBBI platform will enrich this approach before concluding with development ideas to make our method more user-friendly and interactive
APA, Harvard, Vancouver, ISO, and other styles
34

Edwige, Stéphie. "Modal analysis and flow control for drag reduction on a Sport Utility Vehicle." Thesis, Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1233/document.

Full text
Abstract:
L’industrie automobile fournie de plus en plus d’effort pour optimiser l’aérodynamique externe des véhicules afin de réduire son empreinte écologique. Dans ce cadre, l’objectif de ce projet est d’examiner les structures tourbillonnaires responsables de la dégradation de traînée et de proposer une solution de contrôle actif permettant d’améliorer l’efficacité aérodynamique d’un véhicule SUV. Après une étude expérimentale de la maquette POSUV échelle réduite, une analyse modale croisée permet d’identifier les structures périodiques corrélées de l’écoulement qui pilotent la dépression sur le hayon. Une solution de contrôle optimale par jets pulsés sur le parechoc arrière, est obtenue avec un algorithme génétique. Celle-ci permet de réduire la dépression du hayon de 20% et l’analyse croisée des résultats instationnaires avec contrôle montre un changement significatif de la distribution spectrale. Après deux études préliminaires sur la rampe inclinée à 25° et sur le Corps d’Ahmed à 47°, la simulation de POSUV à partir d’un solveur LES, en éléments finis, est validé par rapport aux résultats expérimentaux. L’approfondissement des résultats 3D permet de comprendre les pertes aérodynamiques. La simulation de l’écoulement contrôlé permet également d’identifier les mécanismes du contrôle d’écoulements
The automotive industry dedicates a lot of effort to improve the aerodynamical performances of road vehicles in order to reduce its carbon footprint. In this context, the target of the present work is to analyze the origin of aerodynamic losses on a reduced scale generic Sport Utility Vehicle and to achieve a drag reduction using an active flow control strategy. After an experimental characterization of the flow past the POSUV, a cross-modal DMD analysis is used to identify the correlated periodical features responsible for the tailgate pressure loss. Thanks to a genetic algorithm procedure, 20% gain on the tailgate pressure is obtained with optimal pulsed blowing jets on the rear bumper. The same cross-modal methodology allows to improve our understanding of the actuation mechanism. After a preliminary study of the 25° inclined ramp and of the Ahmed Body computations, the numerical simulation of the POSUV is corroborated with experiments using the cross-modal method. Deeper investigations on the three-dimensional flow characteristics explain more accurately the wake flow behavior. Finally, the controlled flow simulations propose additional insights on the actuation mechanisms allowing to reduce the aerodynamic losses
APA, Harvard, Vancouver, ISO, and other styles
35

Negrea, Andrei Liviu. "Optimization of energy efficiency for residential buildings by using artificial intelligence." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI090.

Full text
Abstract:
La consommation, en général, représente le processus d’utilisation d’un type de ressource où des économies doivent être réalisées. La consommation d’énergie est devenue l’un des principaux problèmes d’urbanisation et de crise énergétique, car l’épuisement des combustibles fossiles et le réchauffement climatique mettent en péril l’utilisation de l’énergie des plantes. Cette thèse présent une méthode d’économie d’énergie a été adoptée pour la réduction de consommation d’énergie prévu le secteur résidentiel et les maisons passives. Un modèle mathématique basé sur des mesures expérimentales a été développé pour simuler le comportement d’un laboratoire d’essai de l’UPB. Le protocole expérimental a été réalisé à la suite d’actions telles que : la construction de bases de données sur les paramètres, la collecte de données météorologiques, l’apport de flux auxiliaires tout en considérant le comportement humain. L’algorithme de contrôle-commande du système est capable de maintenir une température constante à l’intérieur du bâtiment avec une consommation minimale d’énergie. Les mesures et l’acquisition de données ont été configurées à deux niveaux différents: les données météorologiques et les données sur les bâtiments. La collection de données est faite sur un serveur qui a été mis en œuvre dans l’installation de test en cours d’exécution d’un algorithme complexe qui peut fournir le contrôle de consommation d’énergie. La thèse rapporte plusieurs méthodes numériques pour envisage la consommation d’énergie, utilisée avec l’algorithme de contrôle. Un cas expérimental basé sur des méthodes de calcul dynamiques pour les évaluations de performance énergétique de construction a été faite à Grenade, en Espagne, l’information qui a été plus tard utilisée dans cette thèse. L’estimation des paramètres R-C avec la prévision du flux de chaleur a été faite en utilisant la méthode nodal, basée sur des éléments physiques, des données d’entrée et des informations météorologiques. La prévision d’énergie de consommation présent des résultats améliorés tandis que la collecte de données IoT a été téléchargée sur une carte à base de système de tarte aux framboises. Tous ces résultats ont été stables montrant des progrès impressionnants dans la prévision de la consommation d’énergie et leur application en énergie
Consumption, in general, represents the process of using a type of resource where savings needs to be done. Energy consumption has become one the main issue of urbanization and energy crisis as the fossil depletion and global warming put under threat the planet energy utilization. In this thesis, an automatic control of energy was developed to reduce energy consumption in residential area and passive house buildings. A mathematical model founded on empirical measurements was developed to emphasize the behavior of a testing laboratory from Universitatea Politehnica din București - Université Politechnica de Bucarest - Roumanie. The experimental protocol was carried out following actions such as: building parameters database, collecting weather data, intake of auxiliary flows while considering the controlling factors. The control algorithm is controlling the system which can maintain a comfortable temperature within the building with minimum energy consumption. Measurements and data acquisition have been setup on two different levels: weather and buildings data. The data collection is gathered on a server which was implemented into the testing facility running a complex algorithm which can control energy consumption. The thesis reports several numerical methods for estimating the energy consumption that is further used with the control algorithm. An experimental showcase based on dynamic calculation methods for building energy performance assessments was made in Granada, Spain, information which was later used in this thesis. Estimation of model parameters (resistances and capacities) with prediction of heat flow was made using nodal method, based on physical elements, input data and weather information. Prediction of energy consumption using state-space modeling show improved results while IoT data collection was uploaded on a Raspberry Pi system. All these results were stable showing impressive progress in the prediction of energy consumption and their application in energy field
APA, Harvard, Vancouver, ISO, and other styles
36

Gokpi, Kossivi. "Modélisation et Simulation des Ecoulements Compressibles par la Méthode des Eléments Finis Galerkin Discontinus." Thesis, Pau, 2013. http://www.theses.fr/2013PAUU3005/document.

Full text
Abstract:
L’objectif de ce travail de thèse est de proposer la Méthodes des éléments finis de Galerkin discontinus (DGFEM) à la discrétisation des équations compressibles de Navier-Stokes. Plusieurs challenges font l’objet de ce travail. Le premier aspect a consisté à montrer l’ordre de convergence optimal de la méthode DGFEM en utilisant les polynômes d’interpolation d’ordre élevé. Le deuxième aspect concerne l’implémentation de méthodes de ‘‘shock-catpuring’’ comme les limiteurs de pentes et les méthodes de viscosité artificielle pour supprimer les oscillations numériques engendrées par l’ordre élevé (lorsque des polynômes d’interpolation de degré p>0 sont utilisés) dans les écoulements transsoniques et supersoniques. Ensuite nous avons implémenté des estimateurs d’erreur a posteriori et des procédures d ’adaptation de maillages qui permettent d’augmenter la précision de la solution et la vitesse de convergence afin d’obtenir un gain de temps considérable. Finalement, nous avons montré la capacité de la méthode DG à donner des résultats corrects à faibles nombres de Mach. Lorsque le nombre de Mach est petit pour les écoulements compressibles à la limite de l’incompressible, la solution souffre généralement de convergence et de précision. Pour pallier ce problème généralement on procède au préconditionnement qui modifie les équations d’Euler. Dans notre cas, les équations ne sont pas modifiées. Dans ce travail, nous montrons la précision et la robustesse de méthode DG proposée avec un schéma en temps implicite de second ordre et des conditions de bords adéquats
The aim of this thesis is to deal with compressible Navier-Stokes flows discretized by Discontinuous Galerkin Finite Elements Methods. Several aspects has been considered. One is to show the optimal convergence of the DGFEM method when using high order polynomial. Second is to design shock-capturing methods such as slope limiters and artificial viscosity to suppress numerical oscillation occurring when p>0 schemes are used. Third aspect is to design an a posteriori error estimator for adaptive mesh refinement in order to optimize the mesh in the computational domain. And finally, we want to show the accuracy and the robustness of the DG method implemented when we reach very low mach numbers. Usually when simulating compressible flows at very low mach numbers at the limit of incompressible flows, there occurs many kind of problems such as accuracy and convergence of the solution. To be able to run low Mach number problems, there exists solution like preconditioning. This method usually modifies the Euler. Here the Euler equations are not modified and with a robust time scheme and good boundary conditions imposed one can have efficient and accurate results
APA, Harvard, Vancouver, ISO, and other styles
37

Ben, Kahla Haithem. "Sur des méthodes préservant les structures d'une classe de matrices structurées." Thesis, Littoral, 2017. http://www.theses.fr/2017DUNK0463/document.

Full text
Abstract:
Les méthodes d'algèbres linéaire classiques, pour le calcul de valeurs et vecteurs propres d'une matrice, ou des approximations de rangs inférieurs (low-rank approximations) d'une solution, etc..., ne tiennent pas compte des structures de matrices. Ces dernières sont généralement détruites durant le procédé du calcul. Des méthodes alternatives préservant ces structures font l'objet d'un intérêt important par la communauté. Cette thèse constitue une contribution dans ce domaine. La décomposition SR peut être calculé via l'algorithme de Gram-Schmidt symplectique. Comme dans le cas classique, une perte d'orthogonalité peut se produire. Pour y remédier, nous avons proposé deux algorithmes RSGSi et RMSGSi qui consistent à ré-orthogonaliser deux fois les vecteurs à calculer. La perte de la J-orthogonalité s'est améliorée de manière très significative. L'étude directe de la propagation des erreurs d'arrondis dans les algorithmes de Gram-Schmidt symplectique est très difficile à effectuer. Nous avons réussi à contourner cette difficulté et donner des majorations pour la perte de la J-orthogonalité et de l'erreur de factorisation. Une autre façon de calculer la décomposition SR est basée sur les transformations de Householder symplectique. Un choix optimal a abouti à l'algorithme SROSH. Cependant, ce dernier peut être sujet à une instabilité numérique. Nous avons proposé une version modifiée nouvelle SRMSH, qui a l'avantage d'être aussi stable que possible. Une étude approfondie a été faite, présentant les différentes versions : SRMSH et SRMSH2. Dans le but de construire un algorithme SR, d'une complexité d'ordre O(n³) où 2n est la taille de la matrice, une réduction (appropriée) de la matrice à une forme condensée (J(Hessenberg forme) via des similarités adéquates, est cruciale. Cette réduction peut être effectuée via l'algorithme JHESS. Nous avons montré qu'il est possible de réduire une matrice sous la forme J-Hessenberg, en se basant exclusivement sur les transformations de Householder symplectiques. Le nouvel algorithme, appelé JHSJ, est basé sur une adaptation de l'algorithme SRSH. Nous avons réussi à proposer deux nouvelles variantes, aussi stables que possible : JHMSH et JHMSH2. Nous avons constaté que ces algorithmes se comportent d'une manière similaire à l'algorithme JHESS. Une caractéristique importante de tous ces algorithmes est qu'ils peuvent rencontrer un breakdown fatal ou un "near breakdown" rendant impossible la suite des calculs, ou débouchant sur une instabilité numérique, privant le résultat final de toute signification. Ce phénomène n'a pas d'équivalent dans le cas Euclidien. Nous avons réussi à élaborer une stratégie très efficace pour "guérir" le breakdown fatal et traîter le near breakdown. Les nouveaux algorithmes intégrant cette stratégie sont désignés par MJHESS, MJHSH, JHM²SH et JHM²SH2. Ces stratégies ont été ensuite intégrées dans la version implicite de l'algorithme SR lui permettant de surmonter les difficultés rencontrées lors du fatal breakdown ou du near breakdown. Rappelons que, sans ces stratégies, l'algorithme SR s'arrête. Finalement, et dans un autre cadre de matrices structurées, nous avons présenté un algorithme robuste via FFT et la matrice de Hankel, basé sur le calcul approché de plus grand diviseur commun (PGCD) de deux polynômes, pour résoudre le problème de la déconvolution d'images. Plus précisément, nous avons conçu un algorithme pour le calcul du PGCD de deux polynômes bivariés. La nouvelle approche est basée sur un algorithme rapide, de complexité quadratique O(n²), pour le calcul du PGCD des polynômes unidimensionnels. La complexité de notre algorithme est O(n²log(n)) où la taille des images floues est n x n. Les résultats expérimentaux avec des images synthétiquement floues illustrent l'efficacité de notre approche
The classical linear algebra methods, for calculating eigenvalues and eigenvectors of a matrix, or lower-rank approximations of a solution, etc....do not consider the structures of matrices. Such structures are usually destroyed in the numerical process. Alternative structure-preserving methods are the subject of an important interest mattering to the community. This thesis establishes a contribution in this field. The SR decomposition is usually implemented via the symplectic Gram-Schmidt algorithm. As in the classical case, a loss of orthogonality can occur. To remedy this, we have proposed two algorithms RSGSi and RMSGSi, where the reorthogonalization of a current set of vectors against the previously computed set is performed twice. The loss of J-orthogonality has significantly improved. A direct rounding error analysis of symplectic Gram-Schmidt algorithm is very hard to accomplish. We managed to get around this difficulty and give the error bounds on the loss of the J-orthogonality and on the factorization. Another way to implement the SR decomposition is based on symplectic Householder transformations. An optimal choice of free parameters provided an optimal version of the algorithm SROSH. However, the latter may be subject to numerical instability. We have proposed a new modified version SRMSH, which has the advantage of being numerically more stable. By a detailes study, we are led to two new variants numerically more stables : SRMSH and SRMSH2. In order to build a SR algorithm of complexity O(n³), where 2n is the size of the matrix, a reduction to the condensed matrix form (upper J-Hessenberg form) via adequate similarities is crucial. This reduction may be handled via the algorithm JHESS. We have shown that it is possible to perform a reduction of a general matrix, to an upper J-Hessenberg form, based only on the use of symplectic Householder transformations. The new algorithm, which will be called JHSH algorithm, is based on an adaptation of SRSH algorithm. We are led to two news variants algorithms JHMSH and JHMSH2 which are significantly more stable numerically. We found that these algortihms behave quite similarly to JHESS algorithm. The main drawback of all these algorithms (JHESS, JHMSH, JHMSH2) is that they may encounter fatal breakdowns or may suffer from a severe form of near-breakdowns, causing a brutal stop of the computations, the algorithm breaks down, or leading to a serious numerical instability. This phenomenon has no equivalent in the Euclidean case. We sketch out a very efficient strategy for curing fatal breakdowns and treating near breakdowns. Thus, the new algorithms incorporating this modification will be referred to as MJHESS, MJHSH, JHM²SH and JHM²SH2. These strategies were then incorporated into the implicit version of the SR algorithm to overcome the difficulties encountered by the fatal breakdown or near-breakdown. We recall that without these strategies, the SR algorithms breaks. Finally ans in another framework of structured matrices, we presented a robust algorithm via FFT and a Hankel matrix, based on computing approximate greatest common divisors (GCD) of polynomials, for solving the problem pf blind image deconvolution. Specifically, we designe a specialized algorithm for computing the GCD of bivariate polynomials. The new algorithm is based on the fast GCD algorithm for univariate polynomials , of quadratic complexity O(n²) flops. The complexitiy of our algorithm is O(n²log(n)) where the size of blurred images is n x n. The experimental results with synthetically burred images are included to illustrate the effectiveness of our approach
APA, Harvard, Vancouver, ISO, and other styles
38

Boisvert, Maryse. "Réduction de dimension pour modèles graphiques probabilistes appliqués à la désambiguïsation sémantique." Thèse, 2004. http://hdl.handle.net/1866/16639.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Chartrand-Lefebvre, Carl. "Réduction des artéfacts de tuteur coronarien au moyen d’un algorithme de reconstruction avec renforcement des bords : étude prospective transversale en tomodensitométrie 256 coupes." Thèse, 2015. http://hdl.handle.net/1866/13870.

Full text
Abstract:
Les artéfacts métalliques entraînent un épaississement artéfactuel de la paroi des tuteurs en tomodensitométrie (TDM) avec réduction apparente de leur lumière. Cette étude transversale prospective, devis mesures répétées et observateurs avec méthode en aveugle, chez 24 patients consécutifs/71 tuteurs coronariens a pour objectif de comparer l’épaisseur de paroi des tuteurs en TDM après reconstruction par un algorithme avec renforcement des bords et un algorithme standard. Une angiographie coronarienne par TDM 256 coupes a été réalisée, avec reconstruction par algorithmes avec renforcement des bords et standard. L’épaisseur de paroi des tuteurs était mesurée par méthodes orthogonale (diamètres) et circonférentielle (circonférences). La qualité d’image des tuteurs était évaluée par échelle ordinale, et les données analysées par modèles linéaire mixte et régression logistique des cotes proportionnelles. L’épaisseur de paroi des tuteurs était inférieure avec l’algorithme avec renforcement des bords comparé à l’algorithme standard, avec les méthodes orthogonale (0,97±0,02 vs 1,09±0,03 mm, respectivement; p<0,001) et circonférentielle (1,13±0,02 vs 1,21±0,02 mm, respectivement; p<0,001). Le premier causait moins de surestimation par rapport à l’épaisseur nominale comparé au second, avec méthodes orthogonale (0,89±0,19 vs 1,00±0,26 mm, respectivement; p<0,001) et circonférentielle (1,06±0,26 vs 1,13±0,31 mm, respectivement; p=0,005) et diminuait de 6 % la surestimation. Les scores de qualité étaient meilleurs avec l’algorithme avec renforcement des bords (OR 3,71; IC 95% 2,33–5,92; p<0,001). En conclusion, la reconstruction des images avec l’algorithme avec renforcement des bords génère des parois de tuteurs plus minces, moins de surestimation, et de meilleurs scores de qualité d’image que l’algorithme standard.
Metallic artifacts can result in an artificial thickening of the coronary stent wall which can significantly impair computed tomography (CT) imaging in patients with coronary stents. The purpose of this study is to assess the in vivo visualization of coronary stent wall and lumen with an edge-enhancing CT reconstruction kernel, as compared to a standard kernel. This is a prospective cross-sectional study of 24 consecutive patients with 71 coronary stents, using a repeated measure design and blinded observers, approved by the Local Institutional Review Board. 256-slice CT angiography was used, as well as standard and edge-enhancing reconstruction kernels. Stent wall thickness was measured with orthogonal and circumference methods, averaging wall thickness from stent diameter and circumference measurements, respectively. Stent image quality was assessed on an ordinal scale. Statistical analysis used linear and proportional odds models. Stent wall thickness was inferior using the edge-enhancing kernel compared to the standard kernel, either with the orthogonal (0.97±0.02 versus 1.09±0.03 mm, respectively; p<0.001) or circumference method (1.13±0.02 versus 1.21±0.02 mm, respectively; p<0.001). The edge-enhancing kernel generated less overestimation from nominal thickness compared to the standard kernel, both with orthogonal (0.89±0.19 versus 1.00±0.26 mm, respectively; p<0.001) and circumference (1.06±0.26 versus 1.13±0.31 mm, respectively; p=0.005) methods. The average decrease in stent wall thickness overestimation with an edge-enhancing kernel was 6%. Image quality scores were higher with the edge-enhancing kernel (odds ratio 3.71, 95% CI 2.33–5.92; p<0.001). In conclusion, the edge-enhancing CT reconstruction kernel generated thinner stent walls, less overestimation from nominal thickness, and better image quality scores than the standard kernel.
APA, Harvard, Vancouver, ISO, and other styles
40

Martel, Yannick. "Efficacité de l’algorithme EM en ligne pour des modèles statistiques complexes dans le contexte des données massives." Thesis, 2020. http://hdl.handle.net/1866/25477.

Full text
Abstract:
L’algorithme EM (Dempster et al., 1977) permet de construire une séquence d’estimateurs qui converge vers l’estimateur de vraisemblance maximale pour des modèles à données manquantes pour lesquels l’estimateur du maximum de vraisemblance n’est pas calculable. Cet algorithme est remarquable compte tenu de ses nombreuses applications en apprentissage statistique. Toutefois, il peut avoir un lourd coût computationnel. Les auteurs Cappé et Moulines (2009) ont proposé une version en ligne de cet algorithme pour les modèles appartenant à la famille exponentielle qui permet de faire des gains d’efficacité computationnelle importants en présence de grands jeux de données. Cependant, le calcul de l’espérance a posteriori de la statistique exhaustive, qui est nécessaire dans la version de Cappé et Moulines (2009), est rarement possible pour des modèles complexes et/ou lorsque la dimension des données manquantes est grande. On doit alors la remplacer par un estimateur. Plusieurs questions se présentent naturellement : les résultats de convergence de l’algorithme initial restent-ils valides lorsqu’on remplace l’espérance par un estimateur ? En particulier, que dire de la normalité asymptotique de la séquence des estimateurs ainsi créés, de la variance asymptotique et de la vitesse de convergence ? Comment la variance de l’estimateur de l’espérance se reflète-t-elle sur la variance asymptotique de l’estimateur EM? Peut-on travailler avec des estimateurs de type Monte-Carlo ou MCMC? Peut-on emprunter des outils populaires de réduction de variance comme les variables de contrôle ? Ces questions seront étudiées à l’aide d’exemples de modèles à variables latentes. Les contributions principales de ce mémoire sont une présentation unifiée des algorithmes EM d’approximation stochastique, une illustration de l’impact au niveau de la variance lorsque l’espérance a posteriori est estimée dans les algorithmes EM en ligne et l’introduction d’algorithmes EM en ligne permettant de réduire la variance supplémentaire occasionnée par l’estimation de l’espérance a posteriori.
The EM algorithm Dempster et al. (1977) yields a sequence of estimators that converges to the maximum likelihood estimator for missing data models whose maximum likelihood estimator is not directly tractable. The EM algorithm is remarkable given its numerous applications in statistical learning. However, it may suffer from its computational cost. Cappé and Moulines (2009) proposed an online version of the algorithm in models whose likelihood belongs to the exponential family that provides an upgrade in computational efficiency in large data sets. However, the conditional expected value of the sufficient statistic is often intractable for complex models and/or when the missing data is of a high dimension. In those cases, it is replaced by an estimator. Many questions then arise naturally: do the convergence results pertaining to the initial estimator hold when the expected value is substituted by an estimator? In particular, does the asymptotic normality property remain in this case? How does the variance of the estimator of the expected value affect the asymptotic variance of the EM estimator? Are Monte-Carlo and MCMC estimators suitable in this situation? Could variance reduction tools such as control variates provide variance relief? These questions will be tackled by the means of examples containing latent data models. This master’s thesis’ main contributions are the presentation of a unified framework for stochastic approximation EM algorithms, an illustration of the impact that the estimation of the conditional expected value has on the variance and the introduction of online EM algorithms which reduce the additional variance stemming from the estimation of the conditional expected value.
APA, Harvard, Vancouver, ISO, and other styles
41

Atchadé, Yves F. "Quelques contributions sur les méthodes de Monte Carlo." Thèse, 2003. http://hdl.handle.net/1866/14581.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography