Dissertations / Theses on the topic 'Méthodes basées sur des exemples'

To see the other types of publications on this topic, follow the link: Méthodes basées sur des exemples.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthodes basées sur des exemples.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Sallaberry, Arnaud. "Visualisation d'information : de la théorie sémiotique à des exemples pratiques basés sur la représentation de graphes et d'hypergraphes." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2011. http://tel.archives-ouvertes.fr/tel-00646397.

Full text
Abstract:
La visualisation d'information est une discipline récente en pleine expansion et qui a pour objet l'étude des méthodes de représentation visuelle de données abstraites, c'est-à-dire non géolocalisées. La sémiotique est quant à elle une discipline beaucoup plus ancienne (fin du XIXième siècle) qui s'intéresse aux divers systèmes de signes nécessaires aux processus de communication. A ce jour, peu de travaux ont été réalisés pour mettre en parallèle ces deux disciplines. C'est pourquoi le premier chapitre de cette thèse est dédié à l'étude de la visualisation d'information selon les paradigmes élaborés par son ainée tout au long du XXième siècle. Nous montrons en particulier comment l'un des modèles les plus aboutis de validation de visualisations (modèle imbriqué de Tamara Munzner) correspond au processus d'étude sémiotique d'énoncés. Le second chapitre est consacré à la visualisation de graphe, outil de modélisation puissant de divers ensembles de données abstraites. Nous proposons d'une part une application permettant de visualiser et de naviguer à travers les pages Internet retournées par un moteur de recherche et d'autre part un algorithme de visualisation de hiérarchies dynamiques sous forme de "cartes géographiques". Enfin, nous évoquons dans le troisième chapitre un autre outil de modélisation de données abstraites : les hypergraphes. Nous proposons des résultats théoriques concernant leur représentation et donnons une ébauche de solution permettant de les visualiser.
APA, Harvard, Vancouver, ISO, and other styles
2

Barroso, Nicolas. "Génération d'images intermédiaires pour la création d'animations 2D stylisées à base de marques." Electronic Thesis or Diss., Université de Toulouse (2023-....), 2024. http://www.theses.fr/2024TLSES083.

Full text
Abstract:
Dans le cadre de ma thèse, je m'intéresse à la problématique de la création d'animations 2D traditionnelles, où toutes les images sont réalisées à la main. Je cherche à explorer comment l'ordinateur peut aider les artistes à produire de manière plus efficace sans pour autant empiéter sur le spectre de la création artistique. Pour répondre à ce problème, mes travaux se placent dans le domaine des méthodes automatiques, où l'animateur travaille de manière itérative avec l'ordinateur. Je propose une méthode qui, à partir de deux images clés et d'une série de champs vectoriels 2D décrivant le mouvement dans l'espace image de l'animation, génère des images intermédiaires et reproduit le style donné en exemple. Ma méthode se situe à l'intersection de deux techniques manuelles d'animation : l'animation pose à pose et l'animation sous la caméra, et assure un contrôle fort en permettant d'éditer n'importe quelle image générée de la même manière que celles données en exemple. Mes travaux englobent plusieurs domaines, notamment l'analyse du mouvement, le contrôle de courbe 2D, le rendu à base de marques et la simulation de la peinture
As part of my thesis, I am interested in the issue of creating traditional 2D animations, where all the images are handcrafted. Specifically, I explore how computers can assist artists in producing animations efficiently without reducing the artistic creative process. To address this problem, my work falls within the scope of automatic methods, where the animator collaborates iteratively with the computer. I propose a method that takes two keyframe images and a series of 2D vector fields describing the motion in image space of the animation, and generates intermediate images while preserving the given style as an example. My method combines two manual animation techniques: pose-to-pose and frame-by-frame animation, providing strong control by allowing any generated image to be edited in the same way as the example images provided. My research covers several domains: motion analysis, 2D curve control, mark-based rendering, and paint simulation
APA, Harvard, Vancouver, ISO, and other styles
3

Bas, Patrick. "Méthodes de tatouage d'images basées sur le contenu." Grenoble INPG, 2000. http://www.theses.fr/2000INPG0089.

Full text
Abstract:
Le tatouage de document permet d'inserer une signature numerique dans un document de maniere imperceptible et indelebile. Nous presentons dans ce memoire differentes methodes de tatouage d'images numeriques basees sur le contenu. Apres avoir souligne les divers enjeux qu'offre ce domaine, nous rappelons son cadre theorique et les contraintes qui lui sont liees. Nous procedons ensuite a une classification des differents schemas rencontres dans la litterature. Nous distinguons les categories des schemas additifs, des schemas substitutifs et detaillons d'autres mecanismes utilises pour le tatouage des images couleur, des flux audio ou video. Les trois chapitres suivants constituent les apports majeurs developpes lors de cette these. L'idee developpee est d'utiliser le contenu de l'image, represente par les points d'interets, pour permettre une synchronisation de la signature lorsque l'image subit une transformation geometrique. Le cinquieme chapitre de cet ouvrage analyse differents detecteurs, il precise notamment les differents moyens d'augmenter leurs performances. Dans le chapitre suivant nous presentons un schema de tatouage par morphing de triangles predefinis. Cette methode utilise les points d'interets de l'image pour porter la signature. Le schema presente permet notamment de pouvoir retrouver la signature apres de nombreuses transformations ou attaques geometriques. Nous presentons dans le chapitre suivant un deuxieme schema de tatouage fonde sur l'insertion de similarites dans l'image. Ce schema permet egalement d'etre robuste a divers traitements d'images. Notre derniere contribution est presentee dans le huitieme chapitre ou nous analysons differents schemas de tatouage additifs dans le domaine spatial et presentons un procede d'insertion multi-couche qui permet d'inserer une signature composee d'un message au sein de l'image. Enfin, dans le dernier chapitre, nous concluons en soulignant les perceptives offertes par le tatouage de documents.
APA, Harvard, Vancouver, ISO, and other styles
4

Ghoumari, Asmaa. "Métaheuristiques adaptatives d'optimisation continue basées sur des méthodes d'apprentissage." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1114/document.

Full text
Abstract:
Les problèmes d'optimisation continue sont nombreux, en économie, en traitement de signal, en réseaux de neurones, etc. L'une des solutions les plus connues et les plus employées est l'algorithme évolutionnaire, métaheuristique basée sur les théories de l'évolution qui emprunte des mécanismes stochastiques et qui a surtout montré de bonnes performances dans la résolution des problèmes d'optimisation continue. L’utilisation de cette famille d'algorithmes est très populaire, malgré les nombreuses difficultés qui peuvent être rencontrées lors de leur conception. En effet, ces algorithmes ont plusieurs paramètres à régler et plusieurs opérateurs à fixer en fonction des problèmes à résoudre. Dans la littérature, on trouve pléthore d'opérateurs décrits, et il devient compliqué pour l'utilisateur de savoir lesquels sélectionner afin d'avoir le meilleur résultat possible. Dans ce contexte, cette thèse avait pour objectif principal de proposer des méthodes permettant de remédier à ces problèmes sans pour autant détériorer les performances de ces algorithmes. Ainsi nous proposons deux algorithmes :- une méthode basée sur le maximum a posteriori qui utilise les probabilités de diversité afin de sélectionner les opérateurs à appliquer, et qui remet ce choix régulièrement en jeu,- une méthode basée sur un graphe dynamique d'opérateurs représentant les probabilités de passages entre les opérateurs, et en s'appuyant sur un modèle de la fonction objectif construit par un réseau de neurones pour mettre régulièrement à jour ces probabilités. Ces deux méthodes sont détaillées, ainsi qu'analysées via un benchmark d'optimisation continue
The problems of continuous optimization are numerous, in economics, in signal processing, in neural networks, and so on. One of the best-known and most widely used solutions is the evolutionary algorithm, a metaheuristic algorithm based on evolutionary theories that borrows stochastic mechanisms and has shown good performance in solving problems of continuous optimization. The use of this family of algorithms is very popular, despite the many difficulties that can be encountered in their design. Indeed, these algorithms have several parameters to adjust and a lot of operators to set according to the problems to solve. In the literature, we find a plethora of operators described, and it becomes complicated for the user to know which one to select in order to have the best possible result. In this context, this thesis has the main objective to propose methods to solve the problems raised without deteriorating the performance of these algorithms. Thus we propose two algorithms:- a method based on the maximum a posteriori that uses diversity probabilities for the operators to apply, and which puts this choice regularly in play,- a method based on a dynamic graph of operators representing the probabilities of transitions between operators, and relying on a model of the objective function built by a neural network to regularly update these probabilities. These two methods are detailed, as well as analyzed via a continuous optimization benchmark
APA, Harvard, Vancouver, ISO, and other styles
5

Bui, Huyen Chi. "Méthodes d'accès basées sur le codage réseau couche physique." Thesis, Toulouse, ISAE, 2012. http://www.theses.fr/2012ESAE0031.

Full text
Abstract:
Dans le domaine des réseaux satellitaires, l'apparition de terminaux interactifs à bas-prix nécessite le développement et la mise en œuvre de protocoles d'accès multiple capables de supporter différents profils d'utilisateurs. En particulier, l'Agence Spatiale Européenne (ESA) et le centre d'étude spatial allemand (DLR) ont récemment proposé des protocoles d'accès aléatoires basés sur le codage réseau couche physique et l'élimination itérative des interférences pour résoudre en partie le problème de collisions sur une voie de retour du type Slotted ALOHA. C'est dans ce contexte que s'inscrit cette thèse qui vise à fournir une amélioration dans des méthodes d'accès aléatoires existantes. Nous introduisons Multi-Slot Coded Aloha (MuSCA) comme une nouvelle généralisation of CRDSA. Au lieu de transmettre des copies du même paquet, l'émetteur envoie plusieurs parties d'un mot de code d'un code correcteur d'erreurs ; chaque partie étant précédée d'un entête permettant de localiser les autres parties du mot de code. Au niveau du récepteur, toutes les parties envoyées par le même utilisateur, y compris celles qui sont interférées par d'autres signaux, participent au décodage. Le signal décodé est ensuite soustrait du signal total. Ainsi, l'interférence globale est réduite et les signaux restant ont plus de chances d'être décodés. Plusieurs méthodes d'analyse de performance basées sur des concepts théoriques (calcul de capacité, évolution des densités) et sur des simulations sont proposées. Les résultats obtenus montrent un gain très significatif de débit global comparé aux méthodes d'accès existantes. Ce gain peut encore être augmenté en variant le taux de découpe des mots de code. En modifiant certains de ces concepts, nous proposons également une application du codage réseau couche physique basée sur la superposition de modulations pour l'accès déterministe à la voie retour des communications par satellite. Une amélioration du débit est aussi obtenue par rapport à des stratégies plus classiques de multiplexage temporal
In the domain of satellite networks, the emergence of low-cost interactive terminals motivates the need to develop and implement multiple access protocols able to support different user profiles. In particular, the European Space Agency (ESA) and the German Aerospace Center (DLR) have recently proposed random access protocols such as Contention Resolution Diversity Coded ALOHA (CRDSA) and Irregular Repetition Slotted ALOHA (IRSA). These methods are based on physical-layer network coding and successive interference cancellation in order to attempt to solve the collisions problem on a return channel of type Slotted ALOHA.This thesis aims to provide improvements of existing random access methods. We introduce Multi-Slot Coded Aloha (MuSCA) as a new generalization of CRDSA. Instead of transmitting copies of the same packet, the transmitter sends several parts of a codeword of an error-correcting code ; each part is preceded by a header allowing to locate the other parts of the codeword. At the receiver side, all parts transmitted by the same user, including those are interfered by other signals, are involved in the decoding. The decoded signal is then subtracted from the total signal. Thus, the overall interference is reduced and the remaining signals are more likely to be decoded. Several methods of performance analysis based on theoretical concepts (capacity computation, density evolution) and simulations are proposed. The results obtained show a significant gain in terms of throughput compared to existing access methods. This gain can be even more increased by varying the codewords stamping rate. Following these concepts, we also propose an application of physical-layer network coding based on the superposition modulation for a deterministic access on a return channel of satellite communications. We observe a gain in terms of throughput compared to more conventional strategies such as the time division multiplexing
APA, Harvard, Vancouver, ISO, and other styles
6

Cruz, Rodriguez Lidice. "Méthodes de dynamique quantique ultrarapide basées sur la propagation de trajectoires." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30254/document.

Full text
Abstract:
Dans cette thèse, différentes méthodes de dynamique quantique basées sur la propagation de trajectoires sont développées. La première approche consiste en une développer global des champs hydrodynamiques sur une base de polynômes de Chebyshev. Ce schéma est utilisé pour étudier la dynamique vibrationnelle unidimensionnelle de paquets d'ondes dans des potentiels harmoniques et anharmoniques. Par la suite, une méthodologie différente est développée, qui, à partir d'un paramétrage précédemment proposé pour la densité quantique, permet de construire des potentiels d'interaction effectifs entre les pseudo-particules représentant la densité. Dans le cadre de cette approche, plusieurs problèmes de modélisation sont étudiés et des effets quantiques importants sont décrits, tels que l'énergie de point zéro, l'effet tunnel, la diffusion et la réflexion sur une barrière. La même approximation est utilisée pour l'étude de l'ionisation des atomes par laser. Dans une troisième approche, un potentiel quantique approximatif à plusieurs corps est dérivé pour décrire des matrices d'argon et de krypton contenant une impureté de sodium. Il est obtenu en proposant un ansatz approprié pour la fonction d'onde de l'état fondamental du solide. Le potentiel est utilisé dans les simulations de dynamique moléculaire pour obtenir les spectres d'absorption de l'atome de Na isolé dans les matrices cryogéniques
In this thesis different trajectory-based methods for the study of quantum mechanical phenomena are developed. The first approach is based on a global expansion of the hydrodynamic fields in Chebyshev polynomials. The scheme is used for the study of one-dimensional vibrational dynamics of bound wave packets in harmonic and anharmonic potentials. Furthermore, a different methodology is developed, which, starting from a parametrization previously proposed for the density, allows the construction of effective interaction potentials between the pseudo-particles representing the density. Within this approach several model problems are studied and important quantum mechanical effects such as, zero point energy, tunneling, barrier scattering and over barrier reflection are founded to be correctly described by the ensemble of interacting trajectories. The same approximation is used for study the laser-driven atom ionization. A third approach considered in this work consists in the derivation of an approximate many-body quantum potential for cryogenic Ar and Kr matrices with an embedded Na impurity. To this end, a suitable ansatz for the ground state wave function of the solid is proposed. This allows to construct an approximate quantum potential which is employed in molecular dynamics simulations to obtain the absorption spectra of the Na impurity isolated in the rare gas matrix
APA, Harvard, Vancouver, ISO, and other styles
7

Bois, Léo. "Méthodes numériques basées sur l'apprentissage pour les EDP hyperboliques et cinétiques." Electronic Thesis or Diss., Strasbourg, 2023. http://www.theses.fr/2023STRAD060.

Full text
Abstract:
On explore différentes applications des réseaux de neurones pour les méthodes numériques, dans le contexte de la simulation de fluides ou de plasmas.Une première application est l'apprentissage d'une fermeture pour un modèle macroscopique, à partir de données issues d'un modèle cinétique. On donne des résultats numériques pour l'équation de Vlasov-Poisson en 1D et l'équation de Boltzmann en 2D.Une deuxième application est l'apprentissage de paramètres dépendants du problème considéré dans les schémas numériques. On apprend ainsi un coefficient de viscosité artificielle pour un schéma de Galerkin discontinu, et une matrice de relaxation pour la méthode de Lattice-Boltzmann
Different applications of neural networks for numerical methods are explored, in the context of fluid or plasma simulation.A first application is the learning of a closure for a macroscopic model, based on data from a kinetic model. Numerical results are given for the Vlasov-Poisson equation in 1D and the Boltzmann equation in 2D.A second application is the learning of problem-dependent parameters in numerical schemes. In this way, an artificial viscosity coefficient is learned for a discontinuous Galerkin scheme, and a relaxation matrix for the Lattice-Boltzmann method
APA, Harvard, Vancouver, ISO, and other styles
8

Silveira, Filho Geraldo. "Contributions aux méthodes directes d'estimation et de commande basées sur la vision." Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00005340.

Full text
Abstract:
Dans leur grande majorité les techniques d'estimation et de contrôle basées sur la vision s'appuient sur l'extraction d'informations géométriques dans les images. L'objectif de cette thèse est de développer une nouvelle approche exploitant directement l'intensité des pixels dans l'image en s'affranchissant de l'étape d'extraction de ces informations. Nous espèrons montrer que le fait d'utiliser toute l'information contenue dans l'image permet en outre d'augmenter la précision et le domaine d'application. Dans ce but, nous proposons un modèle générique de transformation prenant à la fois en compte les aspects géométriques et photométriques que l'on associe à une méthode efficace d'optimisation pour le recalage d'images, qui est valide pour des modes d'acquisition variés (incluant les images couleurs) et pour des classes d'objets rigides ou déformables. En particulier, le nouveau modèle photométrique assure une robustes aux variations d'éclairage quelconques, et il est indépendants des attributs des objets et des caractéristiques de la caméra. Ce cadre méthodologique est formulé, dans le cas d'un modèle sténopé, à la fois dans le cas calibré et non calibré, les différences portant principalement sur la nature de la paramétrisation choisie. Une méthode robuste de suivi visuel est proposée permettant le recalage d'une image de référence tout au long de la séquence. A partir des paramètres estimés liant l'image de référence à l'image courante, nous proposons une nouvelle stratégie d'asservissement visuel permettant de contrôler les six degrés de liberté du mouvement de la caméra pour l'amener dans la pose où a été acquise l'image de référence. Cette nouvelle approche ne nécessite pas de connaissance précise sur les paramètres de la caméra ni sur la géométrie de l'objet observé, permettant ainsi d'obtenir une méthode générique et fiable. Dans le cas de l'utilisation d'une caméra calibrée, la méthode de suivi robuste permet d'accéder directement à la pose de la caméra et à la structure géométrique de la scène. Elle peut donc être appliquée pour proposer une nouvelle solution au problème de SLAM (Simultaneous Localization and Mapping) visuel. Enfin, nous présentons une méthode d'asservissement visuel intégrant directement les estimées fournies par la méthode de suivi et permettant ainsi la navigation autonome de robot dans un environnement inconnu a priori. Les méthodes développées tout au long de cette thèse ont été confrontées aux approches classiques de la littérature, et ont montré des avantages certains. Elles ont également été testée en condition réelle sur des séquences caractéristiques de différentes applications et dans des conditions variées. Les conditions et compromis à faire pour obtenir performances temps réel et précision, sont également discutés dans le document.
APA, Harvard, Vancouver, ISO, and other styles
9

Moalla, Koubaa Ikram. "Caractérisation des écritures médiévales par des méthodes statistiques basées sur la cooccurrences." Lyon, INSA, 2009. http://theses.insa-lyon.fr/publication/2009ISAL0128/these.pdf.

Full text
Abstract:
Cette thèse a pour objet l'élaboration de méthodologies d'analyse permettant de décrire et de comparer les écritures manuscrites anciennes, méthodologies d'analyse globale ne nécessitant pas segmentation. Elle propose de nouveaux descripteurs robustes basés sur des statistiques d'ordre 2, la contribution essentielle reposant sur la notion de cooccurrence généralisée qui mesure la loi de probabilité conjointe d'informations extraites des images ; c'est une extension de la cooccurrence des niveaux de gris, utilisée jusqu'à présent pour caractériser les textures qui nous a permis d'élaborer diverses cooccurrences, spatiales relatives aux orientations et aux courbures locales des formes, paramétriques qui mesurent l'évolution d'une image subissant des transformations successives. Le nombre de descripteurs obtenu étant très (trop) élevé, nous proposons des méthodes conçues à partir des plus récentes méthodes d'analyse statistique multidimensionnelle de réduction de ce nombre. Ces démarches nous ont conduit à introduire la notion de matrices de cooccurrences propres qui contiennent l'information essentielle permettant de décrire finement les images avec un nombre réduit de descripteurs. Dans la partie applicative nous proposons des méthodes de classification non supervisées d'écritures médiévales. Le nombre de groupes et leurs contenus dépendent des paramètres utilisés et des méthodes appliquées. Nous avons aussi développé un moteur de recherche d'écritures similaires. Dans le cadre du projet ANR-MCD Graphem, nous avons élaboré des méthodes permettant d'analyser et de suivre l'évolution des écritures du Moyen Age
[The purpose of this work consists to elaborate methodologies to describe and to compare a ancient handwritten writings. The developed image feature are global and do not require any segmentation. It proposes new robust features based on second order statistics. We introduce the generalized co-occurrence matrix concept which measures the joint probability of any information from the images. This new statistical measure in an extension of the grey level co-occurrence matrix used until now to characterize the textures. We propose spatial co-occurrence matrix relative to the orientations and to the local curvatures of the forms, and parametric matrices which measure the evolution of an image under successive transformations. Because the obtained number of descriptors is very high, we suggest designed methods using eigen co-occurrence matrices in order to reduce this number. In this application part, we propose some clustering methods of medieval writings to test our propositions. The number of groups and their contents depend on used parameters and on applied methods. We also developed a Content Based Image Retrieval system to search for similar writings. Within the framework of the project ANR-MCD Graphem, we elaborate methods to analyse and to observe the evolution of the writings of the Middle Ages. ]
APA, Harvard, Vancouver, ISO, and other styles
10

Gayraud, Nathalie. "Méthodes adaptatives d'apprentissage pour des interfaces cerveau-ordinateur basées sur les potentiels évoqués." Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4231/document.

Full text
Abstract:
Les interfaces cerveau machine (BCI pour Brain Computer Interfaces) non invasives permettent à leur utilisateur de contrôler une machine par la pensée. Ce dernier doit porter un dispositif d'acquisition de signaux électroencéphalographiques (EEG), qui sont dotés d'un rapport signal sur bruit assez faible ; à ceci s'ajoute l’importante variabilité tant à travers les sessions d'utilisation qu’à travers les utilisateurs. Par conséquent, la calibration du BCI est souvent nécessaire avant son utilisation. Cette thèse étudie les sources de cette variabilité, dans le but d'explorer, concevoir, et implémenter des méthodes d'autocalibration. Nous étudions la variabilité des potentiels évoqués, particulièrement une composante tardive appelée P300. Nous nous penchons sur trois méthodes d’apprentissage par transfert : la Géométrie Riemannienne, le Transport Optimal, et l’apprentissage ensembliste. Nous proposons un modèle de l'EEG qui tient compte de la variabilité. Les paramètres résultants de nos analyses nous servent à calibrer ce modèle et à simuler une base de données, qui nous sert à évaluer la performance des méthodes d’apprentissage par transfert. Puis ces méthodes sont combinées et appliquées à des données expérimentales. Nous proposons une méthode de classification basée sur le Transport Optimal dont nous évaluons la performance. Ensuite, nous introduisons un marqueur de séparabilité qui nous permet de combiner Géométrie Riemannienne, Transport Optimal et apprentissage ensembliste. La combinaison de plusieurs méthodes d’apprentissage par transfert nous permet d’obtenir un classifieur qui s’affranchit des différentes sources de variabilité des signaux EEG
Non-invasive Brain Computer Interfaces (BCIs) allow a user to control a machine using only their brain activity. The BCI system acquires electroencephalographic (EEG) signals, characterized by a low signal-to-noise ratio and an important variability both across sessions and across users. Typically, the BCI system is calibrated before each use, in a process during which the user has to perform a predefined task. This thesis studies of the sources of this variability, with the aim of exploring, designing, and implementing zero-calibration methods. We review the variability of the event related potentials (ERP), focusing mostly on a late component known as the P300. This allows us to quantify the sources of EEG signal variability. Our solution to tackle this variability is to focus on adaptive machine learning methods. We focus on three transfer learning methods: Riemannian Geometry, Optimal Transport, and Ensemble Learning. We propose a model of the EEG takes variability into account. The parameters resulting from our analyses allow us to calibrate this model in a set of simulations, which we use to evaluate the performance of the aforementioned transfer learning methods. These methods are combined and applied to experimental data. We first propose a classification method based on Optimal Transport. Then, we introduce a separability marker which we use to combine Riemannian Geometry, Optimal Transport and Ensemble Learning. Our results demonstrate that the combination of several transfer learning methods produces a classifier that efficiently handles multiple sources of EEG signal variability
APA, Harvard, Vancouver, ISO, and other styles
11

Moro, Pierre. "Techniques de vérification basées sur des représentations symboliques par automates et l'abstraction guidée par les contre-exemples." Paris 7, 2008. http://www.theses.fr/2008PA077013.

Full text
Abstract:
Cette thèse étudie les techniques de vérification automatiques de propriétés d'accessibilité pour des programmes représentées symboliquement par des automates. Les ensembles de configurations des programmes sont représentés par des automates tandis que les instructions sont représentées par des transducteurs. Calculer l'ensemble des états accessibles est à la base de la vérification de propriétés de sûreté. C'est un problème indécidable, le calcul itératif naïf ne termine pas en général. Il faut alors utiliser des techniques permettant d'accélérer ce calcul. Une des techniques principalement étudiée consiste à sur-approximer les ensembles accessibles afin de forcer la convergence du calcul. Ces sur-approximations peuvent induire des comportements n'existant pas dans le programme réel pour lesquelles la propriété à vérifier serait fausse. Dans ce cas, nous testons, si les contre-exemples appartiennent au programme réel, et dans le cas où ces contre-exemples ne seraient dus qu'à la sur-approximation, nous automatisons des raffinements des abstractions. Partant de cette méthodologie, nous proposons des techniques afin de vérifier les programmes séquentiel, sans récursion, mais manipulant des listes chaînées. Nous développons alors des techniques permettant dans un premier temps d'exprimer les configurations mémoires de tels programmes sous forme d'automates, et les instructions sous formes de transducteurs. Nous développons ensuite des des techniques de sur-approximation adaptées à ce type particulier d'automates. Nous montrons ensuite que de tels programmes peuvent être vus comme des automates à compteurs, i. E. , que seuls quelques points des tas mémoires (qui sont en nombre finis) sont relevant et que des compteurs indiquant le nombre d'éléments entre ces points permettent de donner une représentation du comportement du programme. Nous développons ensuite des techniques de vérification d'automates à compteurs, en utilisant des techniques d'abstraction-vérificaiton-raffinement pour ce type d'automates. Nous avons développé un outil permettant la vérification de tels programmes. Dans un second temps, nous étudions le problème de la taille des contre-exemples sur des automates de Bùchi représentant le produitentre une formule de logique temporelle linéaire et un automate fini. Les contre-exemples permettent la correction des programmes, et il est important de pouvoir travailler sur des contre-exemples les plus petits possibles. De tels algorithmes nécessitent de d'optimiser l'espace mémoire utilisé pour le stockage des éléments tout en essayant de garder une complexité en temps acceptable
This thesis studies automatic verification techniques where programs are represented symbolically by automata. The set of configurations of such programs are represented by automata whereas instructions are represented by transducers. Computing the set of reachable states of such programs is an important ingredient for the verification of safety properties. This problem is undecidable, since the naive iterative computation does not terminate in general. Therefore, one has to use techniques to accelerate the computation. One of the techniques mainly studied consists to over-approximate the set of reachable states to enforce the convergence of the computation. These over-approximation techniques can introduce behaviours that do not exist in the program and for which the property i false. In that case, we check if the counterexamples is present in real program or due to the upper approximation. In the latter case, we use refinement techniques in order to eliminate the spurious counterexample from our abstraction and restart the computation. Using this abstract-check-refine loop, we propose techniques in order to verify sequential, non-recursive programs manipulating linked lists. We develop methods allowing to represent memory configurations as automata, and instructions as transducers. We then propose specific abstraction and refinement techniques for such representations. Then, we show that this kind of programs can also be represented like counter automata, i. E. , only few special cells of the heap (and their number is finite) are relevant and counters indicating the number of elements between this points allows to represent the heap of the program. We develop then methods for counter automata verification using the abstract-check-refine loop for this special kind of automata. We have tested our methods with a tool that supports the automaton described previously. In an other part of the thesis, we study the size of the counterexamples for Buchi automaton that represent the product between a linear temporal logic formula and a finite automaton. These counterexamples allow to correct the program and it is important to have as small as possible counterexamples to improve the time needed for the correction. Using SPIN's memory representation for a state, such algorithms have to optimize memory usage while keeping time complexity as small as possible
APA, Harvard, Vancouver, ISO, and other styles
12

Messine, Frédéric. "Méthodes d'optimisation globale basées sur l'analyse d'intervalle pour la résolution de problèmes avec contraintes." Toulouse, INPT, 1997. http://www.theses.fr/1997INPT082H.

Full text
Abstract:
Le retour au premier plan de l'optimisation globale correspond à un besoin industriel. De nombreuses applications, que ce soit au niveau de la conception ou de l'exploitation se ramènent à la recherche d'optima n'entrant pas dans le cadre des hypothèses simplificatrices (convéxite et donc unicité, différentiabilité, existence de points stationnaires,. . . ). C'est en partie le cas des exemples concrets étudiés : la conception de procédés chimiques et d'actionneurs électromécaniques. Les méthodes d'optimisation globale que nous avons étudiées, sont basées sur l'analyse d'intervalle, ce qui leur donne leur caractère déterministe. Elles permettent donc de trouver avec certitude l'optimum global ainsi que tous ses optimiseurs, quelle que soit la nature du problème : continu, mixte, avec ou sans contraintes,. . . Certes, de telles performances se payent en temps de calcul et en utilisation mémoire. Les algorithmes développés dans cette thèse ont pour but de réduire de facon considérable ces temps CPU et le flot de données stocké. Afin d'améliorer ces algorithmes de type branch and bound, de nouvelles méthodes d'encadrement de l'optimum global concernant les fonctions différentiables de plusieurs variables ont été proposées. Le procédé mis en oeuvre consiste à construire des hyperplans dont l'intersection fournit tout simplement une minoration de la fonction ; cette construction utilise les propriétés d'inclusion de l'analyse d'intervalle. L'intégration de ces méthodes au sein d'algorithmes de type branch and bound, permet d'améliorer de facon considérable leur convergence et de limiter l'effet de clusters. La découverte des optima globaux des deux problèmes semi-industriels traités ont démontré l'efficacité de tels algorithmes par rapport aux méthodes classiques (gain de 10% sur les optima). Dès lors, l'utilisation des nouvelles méthodes d'encadrement dans un tel cadre (problèmes mixtes avec contraintes) semble très prometteuse.
APA, Harvard, Vancouver, ISO, and other styles
13

Sossa, Hasna El. "Quelques méthodes d'éléments finis mixtes raffinées basées sur l'utilisation des champs de Raviart-Thomas." Valenciennes, 2001. https://ged.uphf.fr/nuxeo/site/esupversions/6f5acb08-fa86-418a-bee2-65cc41f30556.

Full text
Abstract:
Dans ce travail, nous étudions le raffinement de maillage pour des méthodes d’éléments finis mixtes et ce pour deux types de problèmes : le premier concerne le problème de Laplace et le second le problème de Stokes. Pour ces deux types de problèmes et dans des domaines non réguliers, les méthodes analysées jusqu’à présent, sont celles qui concernent des formulations mixtes « classiques » par exemple en vitesse pression pour le système de Stokes. Ici, nous analysons, pour le problème de Laplace, la formulation mixte duale en (p := grad u, u) et pour le système de Stokes, la formulation mixte duale en ((o := grad u,p), u). Pour le problème de Laplace, on approxime sur chaque triangle K de la triangulation, p par un champ de vecteurs de Raviart-Thomas de degré 0 (resp de degré 1) et u par une constante (resp par polynôme de degré 1). Pour obtenir une estimation d’erreur de l’ordre de h (resp de l’ordre de h²), nous utilisons un raffinement de maillage à la Raugel. Ensuite nous traitons le cas des éléments finis quadrilatéraux et nous proposons une famille régulière de quadrangulations permettant d’obtenir des majorations d’erreurs optimales. Nous nous intéressons ensuite au système de Stokes. Nous approximons sur chaque triangle K de la triangulation, chacune des deux lignes du tenseur o= u par un champ de vecteurs de Raviart-Thomas de degré 0 (resp. De degré 1), la pression p par une constante (resp. Par un champ de vecteurs dont chaque composante est un polynôme de degré de 1). En utilisant, un raffinement de maillage à la Raugel, nous obtenons une estimation de l’erreur de l’ordre de h (resp. De l’ordre de h²), semblables à celles du cas régulier. Finalement nous traitons le cas d’élément finis quadrilatèraux. Nous utilisons le même type de familles raffinées de quadrangulations proposées que celles pour le problème de Laplace, pour obtenir des majorations d’erreurs optimales
In this work, we study the refinement of mesh for the mixed finite elements methods and this for two types of problems: the first concerns the problem of Laplace and the second the problem of Strokes. For these two types of problems and in nonregular domains, the methods analysed until now, are those which relate to “traditional” mixed formulations such as the velocity-pressure formulation for the Strokes problem. Here, we analyse, for the Laplace equation, the dual mixed formulation in (p : = grad u, u) and for the system of Strokes, the dual mixed formulation in ((o := grad u,p) , u). For the problem of Laplace, we approximate on each triangle K of the triangulation p by a Raviart-Thomas vectorfield of degree 0 (resp. Of degree 1) and u by a constant on each triangle K (resp. By a polynomial of degree 1). To recapture convergence of order 1, we must use a refinement of the meshes according to Raugel method. Then we treat the case of finite elements of quadrilateral type and we propose appropriate regular family of quadrangulations, in order to obtain the optimal order of convergence. We investigate next the system of Strokes. We approximate on each triangle K each of the two lines of the tensor o by a Raviart-Thomas vectorfields of degree 0 (resp. 1), the pressure p by a constant (resp. By a polynomial of degree 1) and u by constant vectorfields (resp. By fieldvectors whose each component is a polynomial of degree of 1). Using, an appropriate refinement mesh of Raugel’s type, we obtain an error estimate of order h (resp. Of order h²), similar to those in the regular case. Finally we treat finite elements of the quadrilateral type. We use analogous refined family of quadrangulations as proposed for the problem of Laplace, to obtain optimal order of convergence
APA, Harvard, Vancouver, ISO, and other styles
14

Ban, Tian. "Méthodes et architectures basées sur la redondance modulaire pour circuits combinatoires tolérants aux fautes." Phd thesis, Télécom ParisTech, 2012. http://pastel.archives-ouvertes.fr/pastel-00933194.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à la recherche d'architectures fiables pour les circuits logiques. Par "fiable", nous entendons des architectures permettant le masquage des fautes et les rendant de ce fait "tolérantes" à ces fautes. Les solutions pour la tolérance aux fautes sont basées sur la redondance, d'où le surcoût qui y est associé. La redondance peut être mise en oeuvre de différentes manières : statique ou dynamique, spatiale ou temporelle. Nous menons cette recherche en essayant de minimiser tant que possible le surcoût matériel engendré par le mécanisme de tolérance aux fautes. Le travail porte principalement sur les solutions de redondance modulaire, mais certaines études développées sont beaucoup plus générales.
APA, Harvard, Vancouver, ISO, and other styles
15

Camelin, Nathalie. "Stratégies robustes de compréhension de la parole basées sur des méthodes de classification automatique." Avignon, 2007. http://www.theses.fr/2007AVIG0149.

Full text
Abstract:
Cette thèse concerne le problème de la compréhension automatique de la parole dans des applications acceptant de la parole téléphonique spontanée multilocuteurs. L'étude consiste en l'intégration de méthodes de classification automatique dans les processus de décodage et de compréhension de la parole. Nos travaux portent sur l'adaptation de ces méthodes, ayant obtenu d'excellents résultats sur le langage écrit, aux particularités des sorties d'un système de reconnaissance automatique de parole. La principale difficulté de traitement de ce type de données réside dans le caractère incertain des paramètres d'entrée des classifieurs. Parmi toutes les méthodes de classification existantes, nous avons choisi d'en utiliser trois. La première est à base d'arbres de décisions sémantiques, les deux autres, considérées par la communauté scientifique de l'apprentissage automatique parmi les plus performantes, sont des méthodes de classification à large marge : le boosting et les machines à support vectoriel. Une méthode d'étiquetage de séquences, les champs conditionnels aléatoires, est également étudiée et utilisée. Deux cadres applicatifs sont abordés : -PlanResto, application touristique de dialogue oral homme-machine, permet aux utilisateurs de formuler en langage naturel une demande concernant un restaurant sur Paris. La compréhension effectuée en temps réel consiste en la construction d'une requête à une base de données. L'accord consensuel des différents classifieurs est utilisé en tant que mesure de confiance ; -SCOrange, corpus de sondage téléphonique, vise à collecter les messages des utilisateurs de mobile exprimant leur satisfaction vis à vis du service client. La compréhension effectuée off-line consiste à évaluer les proportions des différentes opinions exprimées selon un thème et une polarité. Les classifieurs permettent d'extraire les avis des utilisateurs dans une stratégie visant à évaluer de manière fiable les proportions des opinions ainsi que leur évolution
The work presented in this PhD thesis deals with the automatic Spoken Language Understanding (SLU) problem in multiple speaker applications which accept spontaneous speech. The study consists in integrating automatic classification methods in the speech decoding and understanding processes. My work consists in adapting methods, wich have already shown good performance in text domain, to the particularities of an Automatic Speech Recognition system outputs. The main difficulty of the process of this type of data is due to the uncertainty in the input parameters for the classifiers. Among all existing automatic classification methods, we choose to use three of them. The first is based on Semantic Classification Trees, the two others classification methods, considered among the most performant in the scientific community of machine learning, are large margin ones based on boosting and support vector machines. A sequence labelling method, Conditional Random Fields (CRF), is also studied and used. Two applicative frameworks are investigated : -PlanResto is a tourism application of human-computer dialogue. It enables users to ask information about a restaurant in Paris in natural language. The real-time speech understanding process consists in building a request for a database. Within this framework, the consensual agreement of the different classifiers, considered as semantic experts, is used as a confidence measure ; -SCOrange is a spoken telephone survey corpus. The purpose is to collect messages of mobile users expressing their opinion about the customer service. The off-line speech understanding process consists in evaluating proportions of opinions about a topic and a polarity. Classifiers enable the extraction of user's opinions in a strategy that can reliably evalute the distribution of opinions and their temporal evolution
APA, Harvard, Vancouver, ISO, and other styles
16

Ban, Tian. "Méthodes et architectures basées sur la redondance modulaire pour circuits combinatoires tolérants aux fautes." Electronic Thesis or Diss., Paris, ENST, 2012. http://www.theses.fr/2012ENST0038.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à la recherche d’architectures fiables pour les circuits logiques. Par ”fiable”, nous entendons des architectures permettant le masquage des fautes et les rendant de ce fait ”tolérantes" à ces fautes. Les solutions pour la tolérance aux fautes sont basées sur la redondance, d’où le surcoût qui y est associé. La redondance peut être mise en oeuvre de différentes manières : statique ou dynamique, spatiale ou temporelle. Nous menons cette recherche en essayant de minimiser tant que possible le surcoût matériel engendré par le mécanisme de tolérance aux fautes. Le travail porte principalement sur les solutions de redondance modulaire, mais certaines études développées sont beaucoup plus générales
In this thesis, we mainly take into account the representative technique Triple Module Redundancy (TMR) as the reliability improvement technique. A voter is an necessary element in this kind of fault-tolerant architectures. The importance of reliability in majority voter is due to its application in both conventional fault-tolerant design and novel nanoelectronic systems. The property of a voter is therefore a bottleneck since it directly determines the whole performance of a redundant fault-tolerant digital IP (such as a TMR configuration). Obviously, the efficacy of TMR is to increase the reliability of digital IP. However, TMR sometimes could result in worse reliability than a simplex function module could. A better understanding of functional and signal reliability characteristics of a 3-input majority voter (majority voting in TMR) is studied. We analyze them by utilizing signal probability and boolean difference. It is well known that the acquisition of output signal probabilities is much easier compared with the obtention of output reliability. The results derived in this thesis proclaim the signal probability requirements for inputs of majority voter, and thereby reveal the conditions that TMR technique requires. This study shows the critical importance of error characteristics of majority voter, as used in fault-tolerant designs. As the flawlessness of majority voter in TMR is not true, we also proposed a fault-tolerant and simple 2-level majority voter structure for TMR. This alternative architecture for majority voter is useful in TMR schemes. The proposed solution is robust to single fault and exceeds those previous ones in terms of reliability
APA, Harvard, Vancouver, ISO, and other styles
17

Coq, Guilhelm. "Utilisation d'approches probabilistes basées sur les critères entropiques pour la recherche d'information sur supports multimédia." Poitiers, 2008. http://theses.edel.univ-poitiers.fr/theses/2008/Coq-Guilhelm/2008-Coq-Guilhelm-These.pdf.

Full text
Abstract:
Les problèmes de sélection de modèles se posent couramment dans un grand nombre de domaines applicatifs tels que la compression de données ou le traitement du signal et de l’image. Un des outils les plus utilisés pour résoudre ces problèmes se présente sous la forme d’une quantité réelle à minimiser appelée critère d’information ou critère entropique pénalisé. La principale motivation de ce travail de thèse est de justifier l’utilisation d’un tel critère face à un problème de sélection de modèles typiquement issu d’un contexte de traitement du signal. La justification attendue se doit, elle, d’avoir un solide fondement mathématique. Nous abordons aussi le problème classique de la détermination de l’ordre d’une autorégression. La régression gaussienne, permettant de détecter les harmoniques principales d’un signal bruité, est également abordée. Pour ces problèmes, nous donnons un critère dont l’utilisation est justifiée par la minimisation du coût résultant de l’estimation obtenue. Les chaînes de Markov multiples modèlisent la plupart des signaux discrets, comme les séquences de lettres ou les niveaux de gris d’une image. Nous nous intéressons au problème de la détermination de l’ordre d’une telle chaîne. Dans la continuité de ce problème nous considérons celui, a priori éloigné, de l’estimation d’ une densité par un histogramme. Dans ces deux domaines, nous justifions l’ utilisation d’ un critère par des notions de codage auxquelles nous appliquons une forme simple du principe de « Minimum description Length ». Nous nous efforçons également, à travers ces différents domaines d’application, de présenter des méthodes alternatives d’ utilisation des critères d’ information. Ces méthodes, dites comparatives, présentent une complexité d’ utilisation moindre que les méthodes rencontrées habituellement, tout en permettant une description précise du modèle
Model selection problems appear frequently in a wide array of applicative domains such as data compression and signal or image processing. One of the most used tools to solve those problems is a real quantity to be minimized called information criterion or penalized likehood criterion. The principal purpose of this thesis is to justify the use of such a criterion responding to a given model selection problem, typically set in a signal processing context. The sought justification must have a strong mathematical background. To this end, we study the classical problem of the determination of the order of an autoregression. . We also work on Gaussian regression allowing to extract principal harmonics out of a noised signal. In those two settings we give a criterion the use of which is justified by the minimization of the cost resulting from the estimation. Multiple Markov chains modelize most of discrete signals such as letter sequences or grey scale images. We consider the determination of the order of such a chain. In the continuity we study the problem, a priori distant, of the estimation of an unknown density by an histogram. For those two domains, we justify the use of a criterion by coding notions to which we apply a simple form of the “Minimum Description Length” principle. Throughout those application domains, we present alternative methods of use of information criteria. Those methods, called comparative, present a smaller complexity of use than usual methods but allow nevertheless a precise description of the model
APA, Harvard, Vancouver, ISO, and other styles
18

Giraldi, Loïc. "Contributions aux méthodes de calcul basées sur l'approximation de tenseurs et applications en mécanique numérique." Phd thesis, Ecole centrale de nantes - ECN, 2012. http://tel.archives-ouvertes.fr/tel-00861986.

Full text
Abstract:
Cette thèse apporte différentes contributions à la résolution de problèmes de grande dimension dans le domaine du calcul scientifique, en particulier pour la quantification d'incertitudes. On considère ici des problèmes variationnels formulés dans des espaces produit tensoriel. On propose tout d'abord une stratégie de préconditionnement efficace pour la résolution de systèmes linéaires par des méthodes itératives utilisant des approximations de tenseurs de faible rang. Le préconditionneur est recherché comme une approximation de faible rang de l'inverse. Un algorithme glouton permet le calcul de cette approximation en imposant éventuellement des propriétés de symétrie ou un caractère creux. Ce préconditionneur est validé sur des problèmes linéaires symétriques ou non symétriques. Des contributions sont également apportées dans le cadre des méthodes d'approximation directes de tenseurs qui consistent à rechercher la meilleure approximation de la solution d'une équation dans un ensemble de tenseurs de faibles rangs. Ces méthodes, parfois appelées "Proper Generalized Decomposition" (PGD), définissent l'optimalité au sens de normes adaptées permettant le calcul a priori de cette approximation. On propose en particulier une extension des algorithmes gloutons classiquement utilisés pour la construction d'approximations dans les ensembles de tenseurs de Tucker ou hiérarchiques de Tucker. Ceci passe par la construction de corrections successives de rang un et de stratégies de mise à jour dans ces ensembles de tenseurs. L'algorithme proposé peut être interprété comme une méthode de construction d'une suite croissante d'espaces réduits dans lesquels on recherche une projection, éventuellement approchée, de la solution. L'application à des problèmes symétriques et non symétriques montre l'efficacité de cet algorithme. Le préconditionneur proposé est appliqué également dans ce contexte et permet de définir une meilleure norme pour l'approximation de la solution. On propose finalement une application de ces méthodes dans le cadre de l'homogénéisation numérique de matériaux hétérogènes dont la géométrie est extraite d'images. On présente tout d'abord des traitements particuliers de la géométrie ainsi que des conditions aux limites pour mettre le problème sous une forme adaptée à l'utilisation des méthodes d'approximation de tenseurs. Une démarche d'approximation adaptative basée sur un estimateur d'erreur a posteriori est utilisée afin de garantir une précision donnée sur les quantités d'intérêt que sont les propriétés effectives. La méthodologie est en premier lieu développée pour l'estimation de propriétés thermiques du matériau, puis est étendue à l'élasticité linéaire.
APA, Harvard, Vancouver, ISO, and other styles
19

Hassani, Bertrand Kian. "Quantification des risques opérationnels : méthodes efficientes de calcul de capital basées sur des données internes." Paris 1, 2011. http://www.theses.fr/2011PA010009.

Full text
Abstract:
Les risques opérationnels sont les risques de pertes résultant d'une inadéquation ou d'une défaillance des procédures de l'établissement (analyse ou contrôle absent ou incomplet. Procédure non sécurisée), de son personnel (erreur, malveillance et fraude) des systèmes internes (panne informatique,. . . ) ou à des risques externes (inondation, incendie,. . . ). Elles ont attiré l'attention des autorités, suites aux pertes et banqueroutes qu'elles ont engendrées. Pour les modéliser, le régulateur impose aux institutions l'utilisation de données internes, de données externes, de scénarios et certains critères qualitatifs. Utilisant des données internes, dans le cadre de la Loss Distribution Approach, nous proposons plusieurs méthodes innovantes pour estimer les provisions inhérentes à ces risques. La première innovation traitant des méthodes de convolutions suggère de mélanger les simulations de Monte Carlo, l'estimation de la densité par noyaux et l'algorithme de Panjer pour construire la distribution de perte. La seconde solution se concentre sur la modélisation de la queue droite des distributions de sévérité utilisant plusieurs résultats de la théorie des valeurs extrêmes et les méthodes d'estimation de paramètres de distributions tronquées. La troisième méthode que nous présentons s'intéresse aux calculs de VaR multivariés. Mettant en oeuvre des grappes de copules pour capter certains comportements particuliers tels que la dépendance de queue, nous fournissons un nouveau type d'architectures permettant de calculer la VaR globale.
APA, Harvard, Vancouver, ISO, and other styles
20

Asse, Abdallah. "Aide au diagnostic industriel par des méthodes basées sur la théorie des sous-ensembles flous." Valenciennes, 1985. https://ged.uphf.fr/nuxeo/site/esupversions/c72e776b-0420-445e-bc8f-063e67804dad.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Legendre, Sylvie. "Méthodes d'inspection non destructive par ultrasons de réservoirs d'hydrogène basées sur la transformée en ondelettes." Thèse, Université du Québec à Trois-Rivières, 2000. http://depot-e.uqtr.ca/6648/1/000671506.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Nguyen, Van Quang. "Méthodes d'éclatement basées sur les distances de Bregman pour les inclusions monotones composites et l'optimisation." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066183/document.

Full text
Abstract:
Le but de cette thèse est d'élaborer des méthodes d'éclatement basées sur les distances de Bregman pour la résolution d'inclusions monotones composites dans les espaces de Banach réels réflexifs. Ces résultats nous permettent d'étendre de nombreuses techniques, jusqu'alors limitées aux espaces hilbertiens. De plus, même dans le cadre restreint d'espaces euclidiens, ils donnent lieu à de nouvelles méthodes de décomposition qui peuvent s'avérer plus avantageuses numériquement que les méthodes classiques basées sur la distance euclidienne. Des applications numériques en traitement de l'image sont proposées
The goal of this thesis is to design splitting methods based on Bregman distances for solving composite monotone inclusions in reflexive real Banach spaces. These results allow us to extend many techniques that were so far limited to Hilbert spaces. Furthermore, even when restricted to Euclidean spaces, they provide new splitting methods that may be more avantageous numerically than the classical methods based on the Euclidean distance. Numerical applications in image processing are proposed
APA, Harvard, Vancouver, ISO, and other styles
23

Sy, Kombossé. "Étude et développement de méthodes de caractérisation de défauts basées sur les reconstructions ultrasonores TFM." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS040/document.

Full text
Abstract:
En contrôle non destructif, dans la perspective de l’amélioration des images de défauts mais également dans le but de rendre leur interprétation plus simple par des opérateurs non spécialisés,de nouvelles méthodes d’imagerie ultra-sonore telle que l’imagerie TFM (Total Focusing Method)sont apparues depuis quelques années comme une alternative aux méthodes d’imageries conventionnelles.Elles offrent des images réalistes des défauts et permettent à partir d’une même acquisition d’avoir un nombre important d’images chacune pouvant porter des informations différentes et complémentaires sur les caractéristiques d’un même défaut.Lorsqu’elles sont correctement sélectionnées,ces images sont plus faciles à analyser, elles présentent moins de risques de mauvaise interprétation et permettent d’envisager des caractérisations de défauts plus rapides par des opérateurs moins spécialisés.Pour une exploitation industrielle, il reste cependant nécessaire de renforcer la robustesse et la facilité de mise en oeuvre de ces techniques d’imagerie.L’ensemble des travaux réalisés durant la thèse a permis de développer de nouveaux outils capables d’améliorer la caractérisation des défauts par les techniques d’imagerie TFM en termes de position,d’orientation et de dimensionnement
In non-destructive testing, with a view to improving defect images but also to simplify their interpretation by non-specialized operators,new ultrasonic imaging methods such as TFM imaging (Total Focusing Method ) have appeared for some years as an alternative to conventional imaging methods. They offer realistic images of defects and allow from the same acquisition to have a large number of images each that can carry different and complementary information on the characteristics of the same defect. When properly selected, these images are easier to analyze, they present less risk of misinterpretation and allow to consider faster fault characterizations by less specialized operators.However, for an industrial operation, it remains necessary to strengthen the robustness and ease of implementation of these imaging techniques. All the work carried out during the thesis allowed to develop new tools to improve the characterization of defects by TFM imaging techniques in terms of position,orientation and sizing
APA, Harvard, Vancouver, ISO, and other styles
24

Horstmann, Tobias. "Méthodes numériques hybrides basées sur une approche Boltzmann sur réseau en vue de l'application aux maillages non-uniformes." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEC027/document.

Full text
Abstract:
Malgré l'efficacité informatique et la faible dissipation numérique de la méthode de Boltzmann sur réseau (LBM) classique reposant sur un algorithme de propagation-collision, cette méthode est limitée aux maillages cartésiens uniformes. L'adaptation de l'étape de discrétisation à différentes échelles de la mécanique des fluides est généralement réalisée par des schémas LBM à échelles multiples, dans lesquels le domaine de calcul est décomposé en plusieurs sous-domaines uniformes avec différentes résolutions spatiales et temporelles. Pour des raisons de connectivité, le facteur de résolution des sous-domaines adjacents doit être un multiple de deux, introduisant un changement abrupt des échelles spatio-temporelles aux interfaces. Cette spécificité peut déclencher des instabilités numériques et produire des sources de bruit parasite rendant l'exploitation de simulations à finalités aéroacoustiques impossible. Dans la présente thèse, nous avons d'abord élucidé le sujet du raffinement de maillage dans la LBM classique en soulignant les défis et les sources potentielles d'erreur. Par la suite, une méthode de Boltzmann sur réseau hybride (HLBM) est proposée, combinant l'algorithme de propagation-collision avec un algorithme de flux au sens eulérien obtenu à partir d'une discrétisation en volumes finis des équations de Boltzmann à vitesse discrète. La HLBM combine à la fois les avantages de la LBM classique et une flexibilité géométrique accrue. La HLBM permet d'utiliser des maillages cartésiens non-uniformes. La validation de la méthode hybride sur des cas tests 2D à finalité aéroacoustique montre qu'une telle approche constitue une alternative viable aux schémas Boltzmann sur réseau à échelles multiples, permettant de réaliser des raffinements locaux en H. Enfin, un couplage original, basé sur l'algorithme de propagation-collision et une formulation isotherme des équations de Navier-Stokes en volumes finis, est proposé. Une telle tentative présente l'avantage de réduire le nombre d'équations du solveur volumes finis tout en augmentant la stabilité numérique de celui-ci, en raison d'une condition CFL plus favorable. Les deux solveurs sont couplés dans l'espace des moments, où la solution macroscopique du solveur Navier-Stokes est injectée dans l'algorithme de propagation-collision à l'aide de la collision des moments centrés. La faisabilité d'un tel couplage est démontrée sur des cas tests 2D, et les résultas obtenus sont comparés avec la HLBM
Despite the inherent efficiency and low dissipative behaviour of the standard lattice Boltzmann method (LBM) relying on a two step stream and collide algorithm, a major drawback of this approach is the restriction to uniform Cartesian grids. The adaptation of the discretization step to varying fluid dynamic scales is usually achieved by multi-scale lattice Boltzmann schemes, in which the computational domain is decomposed into multiple uniform subdomains with different spatial resolutions. For the sake of connectivity, the resolution factor of adjacent subdomains has to be a multiple of two, introducing an abrupt change of the space-time discretization step at the interface that is prone to trigger instabilites and generate spurious noise sources that contaminate the expected physical pressure signal. In the present PhD thesis, we first elucidate the subject of mesh refinement in the standard lattice Boltzmann method and point out challenges and potential sources of error. Subsequently, we propose a novel hybrid lattice Boltzmann method (HLBM) that combines the stream and collide algorithm with an Eulerian flux-balance algorithm that is obtained from a finite-volume discretization of the discrete velocity Boltzmann equations. The interest of a hybrid lattice Boltzmann method is the pairing of efficiency and low numerical dissipation with an increase in geometrical flexibility. The HLBM allows for non-uniform grids. In the scope of 2D periodic test cases, it is shown that such an approach constitutes a valuable alternative to multi-scale lattice Boltzmann schemes by allowing local mesh refinement of type H. The HLBM properly resolves aerodynamics and aeroacoustics in the interface regions. A further part of the presented work examines the coupling of the stream and collide algorithm with a finite-volume formulation of the isothermal Navier-Stokes equations. Such an attempt bears the advantages that the number of equations of the finite-volume solver is reduced. In addition, the stability is increased due to a more favorable CFL condition. A major difference to the pairing of two kinetic schemes is the coupling in moment space. Here, a novel technique is presented to inject the macroscopic solution of the Navier-Stokes solver into the stream and collide algorithm using a central moment collision. First results on 2D tests cases show that such an algorithm is stable and feasible. Numerical results are compared with those of the previous HLBM
APA, Harvard, Vancouver, ISO, and other styles
25

Kucerova, Anna. "Identification des paramètres des modèles mécaniques non-linéaires en utilisant des méthodes basées sur intelligence artificielle." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2007. http://tel.archives-ouvertes.fr/tel-00256025.

Full text
Abstract:
Le problème d'identification des paramètres apparaît dans beaucoup de problèmes en génie civil sous formes différentes et il peut être résolu par beaucoup de méthodes distinctes. Cette thèse présente deux philosophies principales d'identification avec orientation vers les méthodes basées sur intelligence artificielle. Les aspects pratiques sont montrés sur plusieurs problèmes d'identification, où les paramètres des modèles mécaniques non linéaires sont à déterminer.
APA, Harvard, Vancouver, ISO, and other styles
26

Delest, Sébastien. "Segmentation de maillages 3D à l'aide de méthodes basées sur la ligne de partage des eaux." Phd thesis, Université François Rabelais - Tours, 2007. http://tel.archives-ouvertes.fr/tel-00211378.

Full text
Abstract:
La segmentation de maillages polygonaux est un outil nécessaire à de nombreuses applications. Elle correspond au découpage du maillage en régions à partir d'informations portant sur la surface ou la forme globale de l'objet. Ces dernières années, de nombreux algorithmes ont été proposés dans cette thématique en large expansion. Les applications sont très variées; citons la reconnaissance de forme, l'indexation, la compression, la métamorphose, la détection de collision, le plaquage de texture, la simplification, etc.

Nous proposons dans un premier temps une étude assez large des méthodes de segmentation de maillages polygonaux. Nous abordons les algorithmes pour les deux principales familles de méthodes que sont la segmentation en carreaux surfaciques et la segmentation en parties significatives. Nous avons concentré nos travaux sur la ligne de partage des eaux (LPE) et formulé des propositions originales pour la fonction de hauteur de la LPE et des stratégies pour limiter la sur-segmentation que produit naturellement la LPE.
APA, Harvard, Vancouver, ISO, and other styles
27

Viel, Stéphane. "Méthodes de Résonance Magnétique Nucléaire, basées sur la mobilité moléculaire, appliquées à l'étude de systèmes chimiques." Aix-Marseille 3, 2004. http://www.theses.fr/2004AIX30034.

Full text
Abstract:
La Résonance Magnétique Nucléaire (RMN) figure parmi les techniques d'analyse les plus importantes en Chimie. Ainsi, de nombreuses méthodologies RMN sont maintenant disponibles pour étudier la structure et la dynamique des molécules. En particulier, les deux techniques RMN : Pulsed Gradient Spin Echo (PGSE) et Diffusion-ordered Spectroscopy (DOSY), basées sur la mobilité moléculaire, permettent de coder la diffusion moléculaire dans les données RMN au moyen de gradients de champ magnétique pulsés (PFG). Cette thèse illustre quelques applications originales de ces deux techniques, en étudiant notamment des micelles ioniques, des molécules chirales et des mono- et polysaccharides non chargés. Enfin, une nouvelle méthode d'analyse combinant la technique de rotation à l'angle magique à haute résolution (HRMAS) avec l'utilisation de phases chromatographiques est proposée afin d'augmenter la résolution d'expériences RMN de diffusion appliquées à l'étude de mélanges simples
Nuclear Magnetic Resonance (NMR) is one of the most powerful analytical technique in Chemistry, and many NMR methodologies are now available to elucidate molecular structures and dynamics. In this context, Pulsed Gradient Spin Echo (PGSE) and Diffusion Ordered NMR Spectroscopy (DOSY) are two closely related NMR methodologies, based on molecular mobility, which allow molecular diffusion to be encoded into NMR datasets by means of Pulsed Field Gradients (PFG) of magnetic field. In this thesis, PGSE and DOSY are applied to study micelles and micellar phases, chiral molecules, and uncharged mono and polysaccharides. Finally, a new analytical method is proposed in which High Resolution Magic Angle Spinning and chromatographic phases are combined to enhance the resolution of NMR diffusion edited studies of model mixtures
APA, Harvard, Vancouver, ISO, and other styles
28

Cadet, Héloïse. "Utilisation combinée des méthodes basées sur le bruit de fond dans le cadre du microzonage sismique." Phd thesis, Grenoble 1, 2007. http://www.theses.fr/2007GRE10152.

Full text
Abstract:
Le constat récurrent de dégâts sismiques fortement influencés par les effets de site attire l'attention sur la nécessité d'améliorer les outils permettant leur estimation a priori. Les contraintes budgétaires font cependant du développement de méthodes peu onéreuses un objectif crucial. Les mesures de bruit de fond, méthode géophysique utilisant les vibrations ambiantes, correspondent à ce type de besoin. Le but de cette thèse est de développer et de valider des méthodologies opérationnelles utilisant le bruit de fond pour une prise en compte robuste et satisfaisante des effets de site dans un contexte réglementaire. Cette thèse comprend deux volets principaux : - Tout d’abord le développement d’un protocole sur les méthodes utilisant le bruit de fond, dans le but de qualifier la détermination sur un site de la fréquence fondamentale f0 (mesures "H/V") et de la vitesse moyenne des ondes de cisaillement sur les z 1ers mètres Vsz (mesures en réseau) ; - Puis l'établissement d'une fonction empirique décrivant l'amplification d'un site en fonction des deux seuls paramètres f0 et Vsz. Cette étude est effectuée à partir des données japonaises Kik-net: les paramètres f0 et Vsz ont pu être estimés de façon fiables pour près de 500 sites, de même que leur fonction d'amplification entre les enregistrements en surface et en profondeur. Après correction de l'effet de profondeur et normalisation pour se ramener à une fonction d'amplification par rapport à un rocher affleurant "standard", une analyse statistique permet alors de définir la fonction cherchée, qui s'avère sensiblement meilleure que les coefficients de site proposés dans les règlementations actuelles type EC8
Recent destructive earthquakes repeatedly showed that site effects can drastically exacerbate damage. Improving the way such local hazard modifications are accounted for in earthquake risk mitigation policies is therefore a major concern, balanced however by tight economical constraints, which emphasize the need for inexpensive, though reliable methods. Noise measurements, an original geophysical method using ambient natural and anthropic vibrations, correspond to this need. The goal of this thesis is to develop and validate physically sound methodologies based on seismic noise allowing to account for site effects in a regulatory context, and combining simplicity, robustness and reliability. The idea is, in a first stage, to couple information from H/V measurements (resonance frequency f0) and array measurements (shear waves velocity, at least at shallow depth) to characterize the site conditions, and, in a second stage, to empirically develop statistical correlations between such limited site information and amplification functions, on the basis of the largest available high quality data set, i. E. , the Japanese Kik-net data. This thesis is therefore divided into two main sections dedicated, respectively, to each of these two steps. The 1st section is mainly targeted at proposing a field and processing protocol for the combined utilization of methods based on seismic noise. A series of investigations on synthetic and real data allows to identify the key factors controlling the reliability of estimates of the resonance frequency f0 and the mean S-waves velocity of the top z meters, Vsz (with z varying from 5 to 30 meters according to site conditions and array aperture). The proposed protocol is then intended to warrant – as much as possible – a good control of these key factors. The goal of the 2nd section is to develop a simple method for proposing a site-specific spectrum on the basis of the regional hazard and the site conditions characterized by f0 and Vsz. A subset of the Kik-net strong motion data is first selected, corresponding to nearly 500 sites with reliable P and S waves velocity profiles down to an average depth far larger than 50 m, and more than 4000 pairs of surface and down-hole seismic recordings. For each site, the site conditions can be characterized by reliable estimates of f0 and Vsz, and the borehole amplification function is estimated with spectral ratio between surface and down-hole recordings. Considering the large variability of depths and velocities for the borehole sensors, these "raw" functions are then normalized with respect to a carefully chosen "standard" reference rock, and corrected from depth effects, in order to approximate amplification function with respect to outcropping, standard rock. A statistical analysis then allows toderive empirical relationships between these normalized and corrected empirical amplification functions, and site conditions described by f0 and Vsz parameters. These amplification functions lead to significantly improved ground motion estimates compared to present earthquake regulations (such as EC8): our results could be readily applied in microzonation studies, and could as well pave the way for the next generation of building codes, with new site classifications and associated amplification functions
APA, Harvard, Vancouver, ISO, and other styles
29

Cadet, Héloïse. "Utilisation combinée des méthodes basées sur le bruit de fond dans le cadre du microzonage sismique." Phd thesis, Université Joseph Fourier (Grenoble), 2007. http://tel.archives-ouvertes.fr/tel-00271292.

Full text
Abstract:
Le constat récurrent de dégâts sismiques fortement influencés par les effets de site attire l'attention sur la nécessité d'améliorer les outils permettant leur estimation a priori. Les contraintes budgétaires font cependant du développement de méthodes peu onéreuses un objectif crucial. Les mesures de bruit de fond, méthode géophysique utilisant les vibrations ambiantes, correspondent à ce type de besoin.
Le but de cette thèse est de développer et de valider des méthodologies opérationnelles utilisant le bruit de fond pour une prise en compte robuste et satisfaisante des effets de site dans un contexte réglementaire.
Cette thèse comprend deux volets principaux :
- Tout d'abord le développement d'un protocole sur les méthodes utilisant le bruit de fond, dans le but de qualifier la détermination sur un site de la fréquence fondamentale f0 (mesures "H/V") et de la vitesse moyenne des ondes de cisaillement sur les z 1ers mètres Vsz (mesures en réseau) ;
- Puis l'établissement d'une fonction empirique décrivant l'amplification d'un site en fonction des deux seuls paramètres f0 et Vsz. Cette étude est effectuée à partir des données japonaises Kik-net: les paramètres f0 et Vsz ont pu être estimés de façon fiables pour près de 500 sites, de même que leur fonction d'amplification entre les enregistrements en surface et en profondeur. Après correction de l'effet de profondeur et normalisation pour se ramener à une fonction d'amplification par rapport à un rocher affleurant "standard", une analyse statistique permet alors de définir la fonction cherchée, qui s'avère sensiblement meilleure que les coefficients de site proposés dans les règlementations actuelles type EC8.
APA, Harvard, Vancouver, ISO, and other styles
30

Delest, Sébastien. "Ségmentation de maillages 3D à l'aide de méthodes basées sur la ligne de partage des eaux." Tours, 2007. http://www.theses.fr/2007TOUR4025.

Full text
Abstract:
La segmentation de maillages polygonaux est un outil nécessaire à de nombreuses applications. Elle correspond au découpage du maillage en régions à partir d'informations portant sur la surface ou la forme globale de l'objet. Ces dernières années, de nombreux algorithmes ont été proposés dans cette thématique en large expansion. Les applications sont très variées; citons la reconnaissance de forme, l'indexation, la compression, la métamorphose, la détection de collision, le plaquage de texture, la simplification, etc. Nous proposons dans un premier temps une étude assez large des méthodes de segmentation de maillages polygonaux. Nous abordons les algorithmes pour les deux principales familles de méthodes que sont la segmentation en carreaux surfaciques et la segmentation en parties significatives. Nous avons concentré nos travaux sur la ligne de partage des eaux (LPE) et formulé des propositions originales pour la fonction de hauteur de la LPE et des stratégies pour limiter la sur-segmentation que produit naturellement la LPE
Mesh segmentation is a necessary tool for many applications. The mesh is decomposed into several regions from surface or shape information. In the last several years, many algorithms have been proposed in this growing area, with applications in many different areas as 3D shape matching and retrieval, compression, metamorphosis, collision detection, texture mapping, simplification, etc. First, we propose a review of mesh segmentation methods. We discuss about the algorithms relative to the two main types of methods: the patch-type segmentation and the part-type segmentation. We focused on the watershed transformation and proposed new approches relativing to the height function and strategies to avoid over segmentation produced by the watershed
APA, Harvard, Vancouver, ISO, and other styles
31

Chabory, Alexandre. "Modélisation électromagnétique des radômes par des techniques basées sur les faisceaux gaussiens." Toulouse 3, 2004. http://www.theses.fr/2004TOU30240.

Full text
Abstract:
In many configurations, an antenna has to be protected from the outer environment by a radome. In this thesis, we propose to use gaussian beam based techniques to take into account the radome effect on the antenna radiation. These beams are approximate analytical solutions of the propagation equation. They depend on the paraxial approximation (low diverging field assumption). We first develop a new approach to expand an electromagnetic field on a set of elementary beams, overcoming some limitations of the two existing expansions (Multimodal and Gabor). Then, we study the interaction between an incident field and a multilayer dielectric object. So, we develop a shooting and bouncing gaussian beam algorithm which assumes that one incident gaussian beam crossing a dielectric interface gives one reflected and one transmitted gaussian beams. Another original technique is proposed using gaussian beam transmission and reflection coefficients. They provide analytical expressions for the transmitted and reflected fields on a dielectric interface (or on a thin dielectric multilayer) illuminated by a gaussian beam. These two techniques are compared with a conventional plane wave approach on several test cases. The results show their rapidity and accuracy. In order to deal with the problem of aircraft or missiles front-end sharp radomes, we finally explore novel expansions requiring a new kind of beams, called “conformal gaussian beams”. Some comparisons with simulations performed with an existing industrial software show their efficiency.
APA, Harvard, Vancouver, ISO, and other styles
32

Schwarzenberg, Adrian. "Développement de méthodes basées sur la spectrométrie de masse pour la détection de composés organophosphorés et d'explosifs." Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066598.

Full text
Abstract:
Au cours des années, l'utilisation de composés nocifs a augmenté de façon exponentielle, et c'est la raison pour laquelle développer des méthodes pour l'identification de composés dangereux, tels que les composés organophosphorés (OP) et les explosifs organiques nitroaromatiques, est indispensable. L'analyse des composés organophosphorés et des explosifs est un enjeu important dans la sécurité intérieure, la médecine légale et les sciences de l'environnement. Il est crucial de développer des méthodes analytiques fiables, sensibles et efficaces pour identifier précisément les composés organophosphorés et les explosifs. Dans ce contexte, le but de ce travail de recherche était de développer des méthodes basées sur la spectrométrie de masse pour l'identification précise et sans ambiguïté de ces composés. Un arbre d'identification a été développé pour l'élucidation structurale de composés organophosphorés. Cette approche a été évaluée à l'aide d'une matrice biologique. D'autre part, les explosifs nitroaromatiques ont été étudiés et plusieurs nouveaux résultats ont été trouvés et reportés. L'application de l'analyse directe en temps réel (DART) couplée à la spectrométrie de masse Orbitrap (DART-FTMS) est décrite ici pour le screening rapide et la caractérisation des échantillons de frottis sur coton obtenus à partir d'armes militaires
Over the years, the widespread use of harmful compounds has increased exponentially, and this is the main reason to develop methods for the identification of dangerous compounds, such as organophosphorus (OP) compounds and organic nitroaromatic explosives. The analysis of OP compounds and explosives is an important issue in homeland security, forensic and environmental sciences. To this aim, it is crucial to develop reliable, sensitive and efficient analytical methods to accurately identify OP compounds and explosives. In this context, the goal of this research work was to develop accurate mass spectrometric-based methods for the unambiguous identification of these compounds. An identification tree was developed for the structural elucidation of OP compounds. This approach was assessed using a biological matrix. On the other hand, nitroaromatic explosives have been investigated and several new findings were found and reported. Furthermore, the application of Direct Analysis in Real Time (DART) coupled to the Orbitrap mass spectrometer (DART-FTMS) is discussed herein for the fast screening and characterization of cotton swab samples obtained from military weapons
APA, Harvard, Vancouver, ISO, and other styles
33

Dubois, Mathieu. "Méthodes probabilistes basées sur les mots visuels pour la reconnaissance de lieux sémantiques par un robot mobile." Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00679650.

Full text
Abstract:
Les êtres humains définissent naturellement leur espace quotidien en unités discrètes. Par exemple, nous sommes capables d'identifier le lieu où nous sommes (e.g. le bureau 205) et sa catégorie (i.e. un bureau), sur la base de leur seule apparence visuelle. Les travaux récents en reconnaissance de lieux sémantiques, visent à doter les robots de capacités similaires. Ces unités, appelées "lieux sémantiques", sont caractérisées par une extension spatiale et une unité fonctionnelle, ce qui distingue ce domaine des travaux habituels en cartographie. Nous présentons nos travaux dans le domaine de la reconnaissance de lieux sémantiques. Ces derniers ont plusieurs originalités par rapport à l'état de l'art. Premièrement, ils combinent la caractérisation globale d'une image, intéressante car elle permet de s'affranchir des variations locales de l'apparence des lieux, et les méthodes basées sur les mots visuels, qui reposent sur la classification non-supervisée de descripteurs locaux. Deuxièmement, et de manière intimement reliée, ils tirent parti du flux d'images fourni par le robot en utilisant des méthodes bayésiennes d'intégration temporelle. Dans un premier modèle, nous ne tenons pas compte de l'ordre des images. Le mécanisme d'intégration est donc particulièrement simple mais montre des difficultés à repérer les changements de lieux. Nous élaborons donc plusieurs mécanismes de détection des transitions entre lieux qui ne nécessitent pas d'apprentissage supplémentaire. Une deuxième version enrichit le formalisme classique du filtrage bayésien en utilisant l'ordre local d'apparition des images. Nous comparons nos méthodes à l'état de l'art sur des tâches de reconnaissance d'instances et de catégorisation, en utilisant plusieurs bases de données. Nous étudions l'influence des paramètres sur les performances et comparons les différents types de codage employés sur une même base.Ces expériences montrent que nos méthodes sont supérieures à l'état de l'art, en particulier sur les tâches de catégorisation.
APA, Harvard, Vancouver, ISO, and other styles
34

Moradi, Marani Farid. "Développement de méthodes non destructives basées sur l'acoustique non linéaire pour évaluer l'état des ouvrages en béton." Thèse, Université de Sherbrooke, 2014. http://savoirs.usherbrooke.ca/handle/11143/5357.

Full text
Abstract:
Résumé : La connaissance de la fiabilité d’une structure dans sa durée de vie est d’une importance stratégique. Plusieurs méthodes non destructives ont ainsi été développées pour évaluer l’état des ouvrages en béton. Parmi ces techniques, les méthodes basées sur l’acoustique non linéaire ont démontré une performance satisfaisante en laboratoire pour détecter les microfissures de façon précoce. L’objectif de cette thèse consiste à apporter de nouvelles idées contribuant au développement de la méthode du saut temporel ultrasonore (en tant que méthode acoustique non linéaire) pour l’évaluation in situ des structures en béton. Ce travail porte plus particulièrement sur la caractérisation du béton atteint de réaction alcalis-silice (RAS). L’originalité de ce travail réside principalement dans l’utilisation des sollicitations naturelles auxquelles les ouvrages d’art sont soumis comme source d’excitation du milieu pendant l’application du saut temporel (ST). La sollicitation fournie par le passage d’un véhicule sur un tablier d’un pont est l’un des exemples de ces sources naturelles. Un programme expérimental a donc été mis sur pied, qui consiste en une phase d’étude au laboratoire et à une phase d’étude sur site. Deux dalles de béton réactif et une dalle de béton non réactif (1,40×0,75×0,3 m[indice supérieur 3]) ont été fabriquées en laboratoire afin d’évaluer l’idée générale de cette thèse. Pour générer les ondes d’excitation de basses fréquences requises pour les essais ST, un vérin hydraulique a été utilisé comme sources d’impact simulant le passage d’un véhicule. Avec ce protocole d’essais, la progression de la RAS a été caractérisée dans les dalles réactives. Il a été démontré que le ST peut détecter sans équivoque la RAS à partir d’une expansion de 0,03%. Les résultats montrent également que la perturbation des éléments structuraux par le passage d’un véhicule serait exploitable pour les investigations in situ. L’effet de la température sur le comportement acoustique non linéaire du béton a également été étudié : les mesures acoustiques non linéaires sont plus fiables dans une plage de température entre 10[degré]C et 30[degré]C. Des essais préliminaires ont été effectués sur le tablier d’un petit pont en béton. Les perturbations requises ont été fournies par le passage d’un camion dans une plage de vitesses variant de 20 km/h à 50 km/h; en utilisant deux types d’excitation (naturelle et amplifiée en utilisant des obstacles). Les résultats ont démontré qu’on peut appliquer la méthode ST sur site en utilisant l’excitation naturelle générée par un camion. Les expériences faites dans cette thèse révèlent la faisabilité de la méthode du ST pour évaluer l’état des structures en béton, notamment celles qui sont dégradées par la RAS. // Abstract : Reliability of a structure during its service life is strategically important. Several non-destructive methods have been developed to evaluate the condition of concrete structures. Among these techniques, the methods based on nonlinear acoustic have shown an excellent performance in laboratory for detecting micro-cracks at early ages. The objective of the thesis is to work on new ideas, which may contribute to develop the method of Ultrasonic Time Shift (as a nonlinear acoustic method) for evaluating concrete structures. This thesis focused was on concrete elements suffering from Alkali-Silica Reaction (ASR). The originality of the work is related to the idea that the natural vibrations, which exist in structures, can be used for perturbing structural elements during a Time Shift test. For instance, the vibration generated by a vehicle passing on a bridge is one of the examples of the natural resources of vibration. To reach the objective of this thesis, a research program was conducted in two phases: 1) experiments in laboratory; 2) field experiments. Two concrete slabs with reactive coarse aggregates and one with nonreactive aggregate were fabricated in the lab in order to assess the main idea of the thesis. A hydraulic actuator with an impact form loading pattern was used to generate low frequency waves (used to perturb the test-media) for tests of Time Shift (TS). Such loading pattern is similar to the loading imposed by a vehicle passing on a bridge deck. The progression of ASR-damage in the concrete slabs was successfully tracked using the developed methodology. It was shown that the TS can detect ASR from an expansion level about 0.03%.The results also show that the new methodology used for exciting structural elements can be used for field investigations. The effect of the temperature on nonlinear acoustic behavior of the concrete was also assessed. This investigation revealed that measurements in temperatures ranged from 10oC to 30oC can lead to better results. Some filed tests were carried out on a concrete slab of a small-size bridge. The required perturbations for the tests were provided by a truck. The velocity of the truck ranged from 20 km/h to 50 km/h.; using two types of perturbation (natural and exaggerated using some obstacles on surface). The results showed that the TS is an applicable method for field investigations, where the required perturbations are provided by a truck. The performed experimental program revealed the feasibility of the method of Time Shift for evaluating concrete structures, specifically those damaged by ASR.
APA, Harvard, Vancouver, ISO, and other styles
35

Torregrosa, jordan Sergio. "Approches Hybrides et Méthodes d'Intelligence Artificielle Basées sur la Simulation Numérique pour l'Optimisation des Systèmes Aérodynamiques Complexes." Electronic Thesis or Diss., Paris, HESAM, 2024. http://www.theses.fr/2024HESAE002.

Full text
Abstract:
La conception industrielle d'un composant est un processus complexe, long et coûteux, contraint par des spécifications physiques, stylistiques et de développement précises en fonction de ses conditions et de son environnement d'utilisation futurs. En effet, un composant industriel est défini et caractérisé par de nombreux paramètres qui doivent être optimisés pour satisfaire au mieux toutes ces spécifications. Cependant, la complexité de ce problème d'optimisation multiparamétrique sous contraintes est telle que sa résolution analytique est compromise.Dans le passé, un tel problème était résolu expérimentalement par essais et erreurs, entraînant des processus de conception coûteux et chronophages. Depuis le milieu du 20e siècle, avec l'accès généralisé à des moyens de calcul de plus en plus puissants, les ``jumeaux virtuels'' ou simulations numériques basées sur la physique, sont devenus un outil essentiel pour la recherche, réduisant le besoin de mesures expérimentales. À la fin du XXe siècle, le volume de données augmente et se répands massivement dans la plupart des domaines. Ceci conduit à la prolifération des techniques d'Intelligence Artificielle (IA), ou ``jumeaux numériques'', remplaçant partiellement les ``jumeaux virtuels'' grâce à leur plus faible technicité. Aujourd'hui, ces évolutions ont abouti à un cadre où la théorie, l'expérimentation, la simulation et les données peuvent interagir en synergie et se renforcer mutuellement.Dans ce contexte, Stellantis vise à explorer comment l'IA peut améliorer le processus de conception d'un système complexe. A cette fin, l'objectif principal de cette thèse est de développer un modèle de substitution paramétrique de la géométrie d'un aérateur innovant. Le modèle renvoit la norme du champ de vitesse au niveau du visage du pilote afin d'explorer l'espace des géométries possibles tout en évaluant leurs performances en temps réel. Le développement d'un tel modèle basé sur des données pose plusieurs problèmes conceptuels qui peuvent être résolus par l'IA.L'utilisation de techniques de régression classiques peut conduire à des résultats non physiques dans certains domaines tels que la dynamique des fluides. Ainsi, le modèle de substitution paramétrique proposé est basé sur la théorie du Transport Optimal (OT) qui offre une approche mathématique pour mesurer des distances et interpoler d'une manière novatrice.Le succès d'un modèle basé sur des données dépend de la qualité des données d'entraînement. D'une part, les données expérimentales sont considérées comme les plus réalistes, mais elles sont extrêmement coûteuses et laborieuses. D'autre part, les simulations numériques sont plus accessibles et rapides, mais présentent un écart important par rapport à la réalité. Ainsi, une approche Jumeau Hybride est proposée, basée sur la théorie du OT, afin de combler l'ignorance entre la simulation et la mesure.Le processus d'échantillonnage des données d'entraînement est devenu une charge de travail centrale dans le processus de développement d'un modèle basé sur des données. Une méthodologie d'Apprentissage Actif est donc proposée pour sélectionner de manière itérative et intelligente les points d'entraînement, baséee sur les objectifs industriels attendus du composant étudié, afin de minimiser le nombre d'échantillons nécessaires. Ainsi, cette stratégie d'échantillonnage maximise les performances du modèle tout en convergeant vers la solution optimale du problème industriel.L'exactitude d'un modèle basé sur des données est généralement l’objectif principal lors de son entraînement. Or, la réalité est complexe et imprévisible, ce qui fait que des paramètres d'entrée peuvent être connus avec un certain degré d'incertitude. Par conséquent, une méthodologie de quantification des incertitudes, basée sur les estimateurs de Monte Carlo et l'OT, est proposée pour prendre en compte la propagation des incertitudes dans le modèle et pour quantifier leur impact sur sa précision
The industrial design of a component is a complex, time-consuming and costly process constrained to precise physical, styling and development specifications led by its future conditions and environment of use. Indeed, an industrial component is defined and characterized by many parameters which must be optimized to best satisfy all those specifications. However, the complexity of this multi-parametric constrained optimization problem is such that its analytical resolution is compromised.In the recent past, such a problem was solved experimentally, by trial and error, leading to expensive and time-consuming design processes. Since the mid-20th century, with the advancement and widespread access to increasingly powerful computing technologies, the ``virtual twins'', or physics-based numerical simulations, became an essential tool for research and development, significantly diminishing the need for experimental measurements. However, despite the computing power available today, ``virtual twins'' are still limited by the complexity of the problem solved and present some significant deviations from reality due to the ignorance of certain subjacent physics. In the late 20th century, the volume of data has surge enormously, massively spreading in the majority of fields and leading to a wide proliferation of Artificial Intelligence (AI) techniques, or ``digital twins'', partially substituting the ``virtual twins'' thanks to their lower intricacy. Nevertheless, they need an important training stage and can lead to some aversion since they operate as black boxes. Today, these technological evolutions have resulted in a framework where theory, experimentation, simulation and data can interact in synergy and reinforce each other.In this context, Stellantis aims to explore how AI can improve the design process of a complex aerodynamic system: an innovative cockpit air vent. To this purpose, the main goal of this thesis is to develop a parametric surrogate of the aerator geometry which outputs the norm of the velocity field at the pilot's face in order to explore the space of possible geometries while evaluating their performances in real time. The development of such a data-based metamodel entails several conceptual problems which can be addressed with AI.The use of classical regression techniques can lead to unphysical interpolation results in some domains such as fluid dynamics. Thus, the proposed parametric surrogate is based on Optimal Transport (OT) theory which offers a mathematical approach to measure distances and interpolate between general objects in a novel way.The success of a data-driven model relies on the quality of the training data. On the one hand, experimental data is considered as the most realistic but is extremely costly and time-consuming. On the other hand, numerical simulations are cheaper and faster but present a significant deviation from reality. Therefore, a Hybrid Twin approach is proposed based on Optimal Transport theory in order to bridge the ignorance gap between simulation and measurement.The sampling process of training data has become a central workload in the development process of a data-based model. Hence, an Active Learning methodology is proposed to iteratively and smartly select the training points, based on industrial objectives expected from the studied component, in order to minimize the number of needed samples. Thus, this sampling strategy maximizes the performance of the model while converging to the optimal solution of the industrial problem.The accuracy of a data-based model is usually the main concern of its training process. However, reality is complex and unpredictable leading to input parameters known with a certain degree of uncertainty. Therefore, a data-based Uncertainty Quantifcation methodology, based on Monte Carlo estimators and OT, is proposed to take into account the uncertainties propagation into the surrogate and to quantify their impact on its precision
APA, Harvard, Vancouver, ISO, and other styles
36

Marques, Guillaume. "Problèmes de tournées de véhicules sur deux niveaux pour la logistique urbaine : approches basées sur les méthodes exactes de l'optimisation mathématique." Thesis, Bordeaux, 2020. http://www.theses.fr/2020BORD0199.

Full text
Abstract:
Cette thèse s’intéresse principalement au développement de méthodes d’optimisation mathématique exactes pour résoudre des problèmes de tournées de véhicules dans un réseau de distribution à deux niveaux. Dans un tel réseau, des camions circulent au premier niveau et transportent des marchandises d’un centre de distribution vers des dépôts intermédiaires appelés « satellites ». Au second niveau, des véhicules légers récupèrent les marchandises aux satellites puis livrent les clients. Chaque client doit être visité une seule fois. L’objectif du problème de tournées de véhicules sur deux niveaux est de minimiser le coût total de transport dans un tel réseau de distribution.Le premier chapitre présente succinctement l’algorithme de « branch-and-cut-and-price » que nous utilisons tout au long de la thèse.Le second chapitre s’intéresse au « Two-Echelon Capacitated Vehicle Routing Prob- lem ». Nous présentons une nouvelle formulation du problème basée sur des routes qui ne contient pas de variable pour déterminer les quantités de marchandises livrées aux satellites. Nous proposons une nouvelle stratégie de branchement qui permet de significativement réduire la taille de l’arbre de branch-and-bound. Enfin et surtout, nous présentons une nouvelle famille d’inégalités valides nommée « satellite supply inequalities ». Nous montrons que cette nouvelle famille améliore la qualité de la borne duale au nœud racine de l’arbre de « branch-and-bound ». Les expérimentations montrent que notre algorithme résout toutes les instances de la littérature qui contiennent jusqu’à 200 clients et 10 satellites. C’est le double de la taille des instances qui étaient résolues à l’optimalité jusqu’ici.La troisième chapitre s’intéresse au « Two-Echelon Vehicle Routing Problem with Time Windows ». Ici, nous considérons une variante avec des contraintes de précédence aux satellites : un camion doit livrer les marchandises à un satellite avant qu’elles soient chargées dans un véhicule léger. C’est une relaxation de la variante avec synchronisation exacte considérée dans la littérature. Nous traitons les variantes « single trip » et « multi trip » du problème avec contraintes de précédence. Dans la seconde variante, les véhicules légers partent d’un dépôt, récupèrent les marchandises aux satellites, puis effectuent plusieurs tournées. Nous proposons une formulation basée sur les routes dont le nombre de contraintes de précédence croît exponentiellement en fonction du nombre de satellites. Un algorithme basé sur une coupe minimum est proposé pour séparer ces contraintes. Nous montrons aussi comment prendre en compte ces contraintes dans le problème de pricing de l’algorithme de génération de colonnes. Les expérimentations montrent que notre algorithme peut résoudre à l’optimalité des instances qui contiennent jusqu’à 100 clients. De plus, nous montrons que la variante du problème avec contraintes de précédence donne des résultats identiques à ceux de la variante avec synchronisation exacte pour les instances « single trip » de la littérature.La quatrième chapitre s’intéresse à des problèmes de tournées de véhicules contenant des contraintes de type sac-à-dos. Nous présentons des coupes de type « route load knapsack ». Ces coupes sont utilisées pour résoudre les trois problèmes suivants: « Capacitated Vehicle Routing Problem with Capacitated Multiple Depots », « Location- Routing Problem » et « Vehicle Routing Problem with Time Windows and Shifts ». Ces problèmes apparaissent lorsque les routes au premier niveau du réseau de distribution à deux niveaux sont fixées. Nos expérimentations permettent de trouver de nouvelles solutions optimales
The main focus of this thesis is to develop mathematical optimization based exact methods to solve vehicle routing problems in two-level distribution systems. In such a system, the first level involves trucks that ships goods from a distribution center to intermediate depots called satellites. The second level involves city freighters that are loaded with goods at satellites and deliver the customers. Each customer must be visited once. The two-echelon vehicle routing problem seeks to minimize the total transportation cost in such a distribution system.The first chapter gives an overview of the branch-and-cut-and-price framework that we use throughout the thesis.The second chapter tackles the Two-Echelon Capacitated Vehicle Routing Problem. We introduce a new route based formulation for the problem which does not use variables to determine product flows in satellites. We propose a new branching strategy which significantly decreases the size of the branch-and-bound tree. Most importantly, we suggest a new family of satellite supply inequalities, and we empirically show that it improves the quality of the dual bound at the root node of the branch-and-bound tree. Experiments reveal that our algorithm can solve all literature instances with up to 200 customers and 10 satellites. Thus, we double the size of instances which can be solved to optimality.The third chapter tackles the Two-Echelon Vehicle Routing Problem with Time Windows. We consider the variant with precedence constraints at the satellites: products should be delivered by an urban truck to a satellite before loading them to a city freighter. This is a relaxation of the synchronisation variant usually considered in the literature. We consider single-trip and multi-trip variants of this problem. In the first one, city freighters start from satellites and do a single trip. In the second one, city freighters start from a depot, load product at satellites, and do several trips. We introduce a route based formulation that involves an exponential number of constraints to ensure precedence relations. A minimum-cut based algorithm is proposed to separate these constraints. We also show how these constraints can be taken into account in the pricing problem of the column generation approach. Experiments show that our algorithm can solve to optimality instances with up to 100 customers. The algorithm outperforms significantly another recent approach proposed the literature for the single-trip variant of the problem. Moreover, the “precedence relaxation” is exact for single-trip instances.The fourth chapter considers vehicle routing problems with knapsack-type constraints in the master problem. For these problems, we introduce new route load knapsack cuts and separation routines for them. We use these cuts to solve to optimality three problems: the Capacitated Vehicle Routing Problem with Capacitated Multiple Depots, the standard Location-Routing Problem, and the Vehicle Routing Problem with Time Windows and Shifts. These problems arise when routes at first level of the two-level distribution system are fixed. Our experiments reveal computational advantage of our algorithms over ones from the literature
APA, Harvard, Vancouver, ISO, and other styles
37

Denimal, Emmanuel. "Détection de formes compactes en imagerie : développement de méthodes cumulatives basées sur l'étude des gradients : Applications à l'agroalimentaire." Thesis, Bourgogne Franche-Comté, 2018. http://www.theses.fr/2018UBFCK006/document.

Full text
Abstract:
Les cellules de comptage (Malassez, Thoma …) sont conçues pour permettre le dénombrement de cellules sous microscope et la détermination de leur concentration grâce au volume calibré de la grille apparaissant dans l’image microscopique. Le comptage manuel présente des inconvénients majeurs : subjectivité, non-répétabilité… Il existe des solutions commerciales de comptage automatique dont l’inconvénient est de nécessiter un environnement bien contrôlé qu’il n’est pas possible d’obtenir dans le cadre de certaines études (ex. : le glycérol influe grandement sur la qualité des images). L’objectif du projet est donc double : un comptage des cellules automatisé et suffisamment robuste pour être réalisable, quelles que soient les conditions d’acquisition.Dans un premier temps, une méthode basée sur la transformée de Fourier a été développée pour détecter, caractériser et effacer la grille de la cellule de comptage. Les caractéristiques de la grille extraites par cette méthode servent à déterminer une zone d’intérêt et son effacement permet de faciliter la détection des cellules à compter.Pour réaliser le comptage, la problématique principale est d’obtenir une méthode de détection des cellules suffisamment robuste pour s’adapter aux conditions d’acquisition variables. Les méthodes basées sur les accumulations de gradients ont été améliorées par l’adjonction de structures permettant une détection plus fine des pics d’accumulation. La méthode proposée permet une détection précise des cellules et limite l’apparition de faux positifs.Les résultats obtenus montrent que la combinaison de ces 2 méthodes permet d’obtenir un comptage répétable et représentatif d’un consensus des comptages manuels réalisés par des opérateurs
The counting cells (Malassez, Thoma ...) are designed to allow the enumeration of cells under a microscope and the determination of their concentration thanks to the calibrated volume of the grid appearing in the microscopic image. Manual counting has major disadvantages: subjectivity, non-repeatability ... There are commercial automatic counting solutions, the disadvantage of which is that a well-controlled environment is required which can’t be obtained in certain studies ( eg glycerol greatly affects the quality of the images ). The objective of the project is therefore twofold: an automated cell count and sufficiently robust to be feasible regardless of the acquisition conditions.In a first step, a method based on the Fourier transform has been developed to detect, characterize and erase the grid of the counting cell. The characteristics of the grid extracted by this method serve to determine an area of interest and its erasure makes it easier to detect the cells to count.To perform the count, the main problem is to obtain a cell detection method robust enough to adapt to the variable acquisition conditions. The methods based on gradient accumulations have been improved by the addition of structures allowing a finer detection of accumulation peaks. The proposed method allows accurate detection of cells and limits the appearance of false positives.The results obtained show that the combination of these two methods makes it possible to obtain a repeatable and representative count of a consensus of manual counts made by operators
APA, Harvard, Vancouver, ISO, and other styles
38

Salman, Solafa. "Développement de nouvelles méthodes de préservation du bois basées sur l'utilisation combinée d'un traitement thermique et de borax." Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0005/document.

Full text
Abstract:
Les pressions environnementales apparues en France et en Europe au cours des dernières décennies ont considérablement changé les méthodes de protection du bois. Dans ce contexte, le règlement relatif aux produits biocides et la directive relative aux produits biocides conduisent au développement de méthodes de préservation plus soucieuses de l'environnement et à l’intérêt croissant pour des alternatives non biocides comme le traitement thermique ou la modification chimique. Le traitement thermique à des températures de 180 à 220°C conduit à la modification chimique de la structure des différents constituants pariétaux du bois en lui conférant de nouvelles propriétés comme une meilleure résistance aux champignons basidiomycètes et une grande stabilité dimensionnelle. Malgré ces améliorations, la durabilité conférée au bois traité thermiquement demeure insuffisante pour des applications en classes 3 ou 4 dans lesquelles le bois est en contact avec le sol ou est en présence de termites. Par ailleurs, le bore sous forme d’acide borique ou de borax présente des propriétés fongicides et termiticides. Cependant, les produits à base de bore présentent l'inconvénient d'être très facilement lessivables les rendant inutilisables pour des applications en conditions extérieures. Les modifications chimiques réalisées suite à l'imprégnation de solutions à 10% d'anhydride maléique de polyglycérol ou de méthacrylates de polyglycérol ou de résine phénol formaldéhyde avec ou sans borax avant le traitement thermique ont apporté une amélioration des propriétés des bois modifiés thermiquement et surtout une résistance aux termites avec ou sans lessivage
Environmental pressures appeared in France and in Europe in the last decades have substantially changed the methods for wood protection. In this context the Biocidal Products Regulations and the Biocidal Products Directive lead to the development of more environmentally friendly preservation methods and the growing interest in non-biocidal alternatives such as thermal treatment or chemical modification. Wood heat treatment at temperatures of 180 to 220 °C leads to the chemical modification of wood cell wall polymers conferring new properties to the material like its increased decay resistance and high dimensional stability. Despite these improvements, the durability of wood heat treatment is not sufficient to envisage use class 3 and 4 applications; where the wood is in contact with soil or termites. Moreover, Boron compounds present fungicidal and termiticidal properties. However, boron compounds have the drawback of being very easily leached out from wood making it unusable for applications in outdoor conditions. Wood chemical modification carried by the impregnation of aqueous solutions (10 %) of maleic anhydride polyglycerol adduct or polyglycerol methacrylates or phenol-formaldehyde resin, with or without borax followed by heat treatment at 220°C has shown some improvement of thermally modified wood properties particularly its resistance to termites in case of leach or not
APA, Harvard, Vancouver, ISO, and other styles
39

Verdret, Yassine. "Analyse du comportement parasismique des murs à ossature bois : approches expérimentales et méthodes basées sur la performance sismique." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0010/document.

Full text
Abstract:
Ce mémoire présente les travaux de thèse visant à étudier le comportement parasismique des éléments de murs à ossature en bois aux travers d’approches expérimentales et du développement d’une méthodologie d’application de méthodes basées sur la performance sismique. Les approches expérimentales sont constituées de trois campagnes d’essais : (1) une série d’essais monotones et cycliques à l’échelle d’assemblages agrafés et pointés, (2) une série d’essais monotones et cycliques à l’échelle de l’élément de mur à ossature en bois et (3) une série d’essais dynamiques sur table vibrante. La base de données constituée par les résultats d’essais permet alors l’examen des propriétés de résistance et de raideur des éléments de murs suivant les conditions de sollicitation (vitesse d’essai, chargement vertical). Le développement d’une modélisation à l’échelle macro du comportement cyclique et dynamique de tels éléments est également proposé à l’aide de modèles de loi de comportement hystérétiques. Une méthodologie d’application aux structures à ossature bois de méthodes basées sur la performance sismique (méthode N2 et MPA) ainsi qu’une analyse de vulnérabilité - construction de courbes de fragilité - à l’aide de la méthode N2 sont proposées
This thesis presents a study of the seismic behavior of light timber frame walls with stapled and nailed sheathings through experimental approaches and the development of a methodology for the application of seismic performance-based methods. The experimental approaches consist of three test campaigns: (1) a series of static tests on stapled and nailed connections, (2) a series of static tests performed on light timber frame walls and (3) a series of dynamic tests performed on light timber frame walls on a vibrating table. The database consists of these test results then allows the examination of strength and stiffness properties of the wall elements according to the stress conditions (strain rate, vertical load). The development of a macro-scale modeling of the cyclic and dynamic behavior of such elements is also proposed using constitutive law models. A framework of the application to light timber frame structures of seismic performance-based methods based (N2 method and MPA method) and a vulnerability analysis - fragility curves - using the N2 method are proposed
APA, Harvard, Vancouver, ISO, and other styles
40

Nguyen, Van Vinh. "Méthodes exactes pour l'optimisation DC polyédrale en variables mixtes 0-1 basées sur DCA et des nouvelles coupes." INSA de Rouen, 2006. http://www.theses.fr/2006ISAM0003.

Full text
Abstract:
Cette thèse est consacrée à l'étude des méthodes exactes pour la programmation DC polyédrale en variables mixtes 0-1, qui occupe une place très importante en Aide à la Décision et Recherche Opérationnelle de par ses nombreuses applications dans différentes branches de sciences appliquées. La thèse comprend deux parties : la première servant de références à l'ensemble du travail, comporte deux chapitres. Dans le premier nous présentons une généralité des méthodes de coupes tandis qu'une introduction à la programmation DC et DCA est décrite dans le deuxième. La seconde partie concernant la programmation DC polyédrale en variables mixtes 0-1 constitue l'épine dorsale de la thèse. Cette partie comporte quatre chapitres. Dans le chapitre 3, nous présentons une nouvelle coupe pour la programmation linéaire en variables mixtes 0-1. Le schéma de DCA&CUT combiné de DCA et cette coupe pour la programmation linéaire en variables mixtes 0-1 est étudié dans le chapitre 4. Des applications de ce modèle dans différents domaines sont ensuite développées dans le chapitre 5. Enfin, la généralisation logique et naturelle de ce schéma de DCA&CUT est traitée dans le dernier chapitre.
APA, Harvard, Vancouver, ISO, and other styles
41

Touzani, Samir. "Méthodes de surface de réponse basées sur la décomposition de la variance fonctionnelle et application à l'analyse de sensibilité." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00614038.

Full text
Abstract:
L'objectif de cette thèse est l'investigation de nouvelles méthodes de surface de réponse afin de réaliser l'analyse de sensibilité de modèles numériques complexes et coûteux en temps de calcul. Pour ce faire, nous nous sommes intéressés aux méthodes basées sur la décomposition ANOVA. Nous avons proposé l'utilisation d'une méthode basée sur les splines de lissage de type ANOVA, alliant procédures d'estimation et de sélection de variables. L'étape de sélection de variable peut devenir très coûteuse en temps de calcul, particulièrement dans le cas d'un grand nombre de paramètre d'entrée. Pour cela nous avons développé un algorithme de seuillage itératif dont l'originalité réside dans sa simplicité d'implémentation et son efficacité. Nous avons ensuite proposé une méthode directe pour estimer les indices de sensibilité. En s'inspirant de cette méthode de surface de réponse, nous avons développé par la suite une méthode adaptée à l'approximation de modèles très irréguliers et discontinus, qui utilise une base d'ondelettes. Ce type de méthode a pour propriété une approche multi-résolution permettant ainsi une meilleure approximation des fonctions à forte irrégularité ou ayant des discontinuités. Enfin, nous nous sommes penchés sur le cas où les sorties du simulateur sont des séries temporelles. Pour ce faire, nous avons développé une méthodologie alliant la méthode de surface de réponse à base de spline de lissage avec une décomposition en ondelettes. Afin d'apprécier l'efficacité des méthodes proposées, des résultats sur des fonctions analytiques ainsi que sur des cas d'ingénierie de réservoir sont présentées.
APA, Harvard, Vancouver, ISO, and other styles
42

Lonjou, Christine. "HLA et analyse de données-méthodes basées sur la vraisemblance : applications en transplantation de moëlle osseuse et en anthropologie." Toulouse 3, 1998. http://www.theses.fr/1998TOU30130.

Full text
Abstract:
Le travail présenté s'inscrit à l'intersection de trois grands domaines : la génétique humaine, l'analyse statistique et l'informatique. Notre travail se base sur la notion d'haplotype du complexe majeur d'histocompatibilité (CMH) chez l'homme, l'estimation de leurs fréquences à partir d'individus non apparentés, et l'exploitation de ces fréquences. Plus précisément, l'objet de ce travail est l'analyse de données de génétique du système HLA (human lymphocyte antigens) et trois applications sont présentées : - greffe de moelle osseuse : l'analyse des fichiers français de donneurs et receveurs de moëlle osseuse sur la base des fréquences alléliques et haplotypiques afin d'augmenter la probabilité de trouver un match pour un malade. - l'organisation informatique du 12ieme atelier international d'histocompatibilité et la création de la base de données HLA. Cet atelier centré sur l'étude de la diversité génétique HLA a eu parmi ses objectifs la création d'une base de donnée contenant environ 30 000 individus types. A cours de cet atelier qui a eu lieu en juin 1996 à Saint-Malo puis à Paris, environ 300 laboratoires dans le monde ont fourni des données. - l'analyse des données d'anthropologie du 12ieme atelier international d'histocompatibilité. A partir des estimations des fréquences alléliques et haplotypiques, nous avons comparé les différentes populations et tracé leur phylogénie. Les méthodes d'analyse que nous avons utilisées sont pour la plupart basées sur la vraisemblance. Il s'agit alors de ne plus se contenter de considérer une probabilité, mais de s'intéresser à la probabilité des données sous une hypothèse, ou plutôt la vraisemblance d'une hypothèse pour les données observées. La confrontation de différentes hypothèses et la recherche de celle ayant le maximum de vraisemblance, constitue la base de cette démarche.
APA, Harvard, Vancouver, ISO, and other styles
43

Moretton, Cédric. "Analyse des caramels liquides : développement et validation de nouvelles méthodes basées sur la chromatographie en phase liquide bidimensionnelle (LC-LC)." Phd thesis, Université Claude Bernard - Lyon I, 2009. http://tel.archives-ouvertes.fr/tel-00675449.

Full text
Abstract:
Le caramel liquide, obtenu par le traitement thermique des sucres, est couramment utilisé pour modifier le goût ou la couleur des produits agroalimentaires.Parmi les promoteurs de caramélisation autorisés, l'ammoniaque (pour les caramels colorants de classe III) et les sels d'ammonium (pour ceux de classe IV) sont source de composés néoformés indésirables (CNI) comme le 2-acétyl-4-(1,2,3,4-tétrahydroxybutyl)imidazole (THI), immunosuppresseur, et le 4-méthylimidazole (4MeI), agent convulsif. Ces molécules ont des teneurs limitées par la réglementation Européenne à 10 et 250 ppm respectivement. Pour améliorer la connaissance de la chimie du caramel et la qualité des caramels colorants en contrôlant la formation des CNI, il est nécessaire de développer des méthodes analytiques fiables, rapides et faciles à mettre en œuvre. Ce travail de thèse présente le développement de nouvelles méthodes basées sur la chromatographie en phase liquide à deux-dimensions (LC-LC). Ces méthodes très sélectives permettent de minimiser le temps d'analyse puisque la préparation de l'échantillon se réduit à une simple dilution dans l'eau et les deux séparations chromatographiques en cascade sont réalisées sur un système totalement automatisé. La validation des méthodes par les profils d'exactitude a permis d'assurer que 90 % des résultats sont à moins de 20 % de la valeur vraie dans le domaine de concentration 10 à 50 ppm pour le THI, 20 à 500 ppm pour le 4MeI, 200 à 2500 ppm pour le fructose, saccharose, lactose, maltose et maltotriose et 500 à 2500 ppm pour le glucose.Ces méthodes sont enfin appliquées au suivi de la réaction de caramélisation et au contrôle qualité des produits finis.
APA, Harvard, Vancouver, ISO, and other styles
44

Tataie, Laila. "Méthodes simplifiées basées sur une approche quasi-statique pour l’évaluation de la vulnérabilité des ouvrages soumis à des excitations sismiques." Thesis, Lyon, INSA, 2011. http://www.theses.fr/2011ISAL0123/document.

Full text
Abstract:
Dans le cadre de la protection du bâti face au risque sismique, les techniques d’analyse simplifiées, basées sur des calculs quasi-statiques en poussée progressive, se sont fortement développées au cours des deux dernières décennies. Le travail de thèse a pour objectif d’optimiser une stratégie d’analyse simplifiée proposée par Chopra et al. (2001) et adoptée par les normes américaines FEMA 273. Il s’agit d’une analyse modale non linéaire découplée, dénommée par les auteurs UMRHA qui se caractérisent principalement par : des calculs de type pushover selon les modes de vibration dominants de la structure, la création de modèles à un degré de liberté non linéaire à partir des courbes de pushover, puis le calcul de la réponse temporelle de la structure en recombinant les réponses temporelles associées à chaque mode de vibration. Dans ce travail, la méthode UMRHA a été améliorée en investiguant les points suivants. Tout d’abord, plusieurs modèles à un degré de liberté non linéaire déduits des courbes de pushover modal sont proposés afin d’enrichir la méthode UMRHA originelle qui emploie un simple modèle élasto-plastique : autres modèles élasto-plastiques avec des courbes enveloppes différentes, le modèle de Takeda prenant en compte un comportement hystérétique propre aux structures sous séismes, et enfin, un modèle simplifié basé sur la dégradation de fréquence en fonction d’un indicateur de dommage. Ce dernier modèle à un degré de liberté privilégie la vision de la chute de fréquence au cours du processus d’endommagement de la structure par rapport à une description réaliste des boucles d’hystérésis. La réponse totale de la structure est obtenue en sommant les contributions non linéaires des modes dominants aux contributions linéaires des modes non dominants. Enfin, la dégradation des déformées modales, due à l’endommagement subi par la structure au cours de la sollicitation sismique, est prise en compte dans la méthode M-UMRHA proposée dans ce travail, en généralisant le concept précédent de dégradation des fréquences modales en fonction d’un indicateur de dommage : la déformée modale devient elle-aussi dépendante d’un indicateur de dommage, le déplacement maximum en tête de l’ouvrage ; l’évolution de la déformée modale en fonction de cet indicateur est directement identifiée à partir des calculs de pushover modal. La pertinence de la nouvelle méthode M-UMRHA est investiguée pour plusieurs types de structures, en adoptant des modélisations éprouvées dans le cadre de la simulation des structures sous séismes : portique en béton armé modélisé par des éléments multifibres pour le béton et les armatures, remplissage en maçonnerie avec des éléments barres diagonales résistant uniquement en compression, bâti existant contreventé (Hôtel de Ville de Grenoble) avec des approches coques multicouches. Les résultats obtenus par la méthode simplifiée proposée sont comparés aux résultats de référence issus de l'analyse temporelle non linéaire dynamique
In the context of building’s protection against seismic risk, simplified analysis techniques, based on quasi-static analysis of pushover, have strongly developed over the past two decades. The thesis aims to optimize a simplified method proposed by Chopra and Goel in 2001 and adopted by American standards FEMA 273. This method is a nonlinear decoupled modal analysis, called by the authors UMRHA (Uncoupled Modal for Response History Analysis) which is mainly characterized by: pushover modal analysis according to the dominant modes of vibration of the structure, setting up nonlinear single degree of freedom systems drawn from modal pushover curves, then determining the history response of the structure by combining of the temporal responses associated with each mode of vibration. The decoupling of nonlinear history responses associated with each mode is the strong assumption of the method UMRHA. In this study, the UMRHA method has been improved by investigating the following points. First of all, several nonlinear single degree of freedom systems drawn from modal pushover curves are proposed to enrich the original UMRHA method, in which a simple elastic-plastic model is used, other elastic-plastic models with different envelope curves, Takeda model taking into account an hysteretic behavior characteristic of structures under earthquakes, and finally, a simplified model based on the frequency degradation as a function of a damage index. The latter nonlinear single degree of freedom model privileges the view of the frequency degradation during the structure damage process relative to a realistic description of hysteresis loops. The total response of the structure is obtained by summing the contributions of the non linear dominant modes to those of linear non dominant modes. Finally, the degradation of the modal shapes due to the structure damage during the seismic loading is taken into account in the new simplified method M-UMRHA (Modified UMRHA) proposed in this study. By generalizing the previous model of frequency degradation as a function of a damage index: the modal shape becomes itself also dependent on a damage index, the maximum displacement at the top of the structure; the evolution of the modal shape as a function of this index is directly obtained from the modal pushover analysis. The pertinence of the new method M-UMRHA is investigated for several types of structures, by adopting tested models of structures simulation under earthquakes: reinforced concrete frame modeled by multifibre elements with uniaxial laws under cyclic loading for concrete and steel, infill masonry wall with diagonal bars elements resistant only in compression, existing building (Grenoble City Hall) with multilayer shell elements and nonlinear biaxial laws based on the concept of smeared and fixed cracks. The obtained results by the proposed simplified method are compared to the reference results derived from the nonlinear response history analysis
APA, Harvard, Vancouver, ISO, and other styles
45

Tataie, Laila. "Méthodes simplifiées basées sur une approche quasi-statique pour l'évaluation de la vulnérabilité des ouvrages soumis à des excitations sismiques." Phd thesis, INSA de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00708575.

Full text
Abstract:
Dans le cadre de la protection du bâti face au risque sismique, les techniques d'analyse simplifiées, basées sur des calculs quasi-statiques en poussée progressive, se sont fortement développées au cours des deux dernières décennies. Le travail de thèse a pour objectif d'optimiser une stratégie d'analyse simplifiée proposée par Chopra et al. (2001) et adoptée par les normes américaines FEMA 273. Il s'agit d'une analyse modale non linéaire découplée, dénommée par les auteurs UMRHA qui se caractérisent principalement par : des calculs de type pushover selon les modes de vibration dominants de la structure, la création de modèles à un degré de liberté non linéaire à partir des courbes de pushover, puis le calcul de la réponse temporelle de la structure en recombinant les réponses temporelles associées à chaque mode de vibration. Dans ce travail, la méthode UMRHA a été améliorée en investiguant les points suivants. Tout d'abord, plusieurs modèles à un degré de liberté non linéaire déduits des courbes de pushover modal sont proposés afin d'enrichir la méthode UMRHA originelle qui emploie un simple modèle élasto-plastique : autres modèles élasto-plastiques avec des courbes enveloppes différentes, le modèle de Takeda prenant en compte un comportement hystérétique propre aux structures sous séismes, et enfin, un modèle simplifié basé sur la dégradation de fréquence en fonction d'un indicateur de dommage. Ce dernier modèle à un degré de liberté privilégie la vision de la chute de fréquence au cours du processus d'endommagement de la structure par rapport à une description réaliste des boucles d'hystérésis. La réponse totale de la structure est obtenue en sommant les contributions non linéaires des modes dominants aux contributions linéaires des modes non dominants. Enfin, la dégradation des déformées modales, due à l'endommagement subi par la structure au cours de la sollicitation sismique, est prise en compte dans la méthode M-UMRHA proposée dans ce travail, en généralisant le concept précédent de dégradation des fréquences modales en fonction d'un indicateur de dommage : la déformée modale devient elle-aussi dépendante d'un indicateur de dommage, le déplacement maximum en tête de l'ouvrage ; l'évolution de la déformée modale en fonction de cet indicateur est directement identifiée à partir des calculs de pushover modal. La pertinence de la nouvelle méthode M-UMRHA est investiguée pour plusieurs types de structures, en adoptant des modélisations éprouvées dans le cadre de la simulation des structures sous séismes : portique en béton armé modélisé par des éléments multifibres pour le béton et les armatures, remplissage en maçonnerie avec des éléments barres diagonales résistant uniquement en compression, bâti existant contreventé (Hôtel de Ville de Grenoble) avec des approches coques multicouches. Les résultats obtenus par la méthode simplifiée proposée sont comparés aux résultats de référence issus de l'analyse temporelle non linéaire dynamique.
APA, Harvard, Vancouver, ISO, and other styles
46

Mahboubi, Amal Kheira. "Méthodes d'extraction, de suivi temporel et de caractérisation des objets dans les vidéos basées sur des modèles polygonaux et triangulés." Nantes, 2003. http://www.theses.fr/2003NANT2036.

Full text
Abstract:
La diversification des services multimédias et l'émergence du standatd MPEG4 au milieu des années 1990 a mis en évidence la nécessité de recherches approfondies sur les méthodes d'analyse de la vidéo numérique en vue de la représentation de son contenu. Cette thèse s'inscrit dans ce contexte. Nous cherchons à concevoir un système complet de représentation du contenu vidéo en prenant en compte ses aspects spatial et temporel. A cet effet, dans cette thèse nous présentons plusieurs méthodes pour le suivi des objets contenus dans des séquences vidéo génériques. Chaque objet plan noté 'VOP' (Video Object Plane) est représenté par un maillage triangulaire associé à un modèle polygonal hiérarchique et articulé. La segmentation, fondée sur des régions polygonales, permet de maintenir un découpage cohérent au cours du temps d'un VOP en zones à mouvements homogènes. . .
APA, Harvard, Vancouver, ISO, and other styles
47

Bernard, Francis. "Méthodes d'analyse des données incomplètes incorporant l'incertitude attribuable aux valeurs manquantes." Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6571.

Full text
Abstract:
Lorsqu'on réalise une analyse des données dans le cadre d'une enquête, on est souvent confronté au problème des données manquantes. L'une des solutions les plus fréquemment utilisées est d'avoir recours aux méthodes d'imputation simple. Malheureusement, ces méthodes souffrnt d'un handicap important : les estimations courantes basées sur les valeurs observées et imputées considèrent à tort les valeurs imputées comme des valeurs connues, bien qu'une certaine forme d'incertitude plane au sujet des valeurs à imputer. En particulier, les intervalles de confiance pour les paramètres d'intérêt basés sur les données ainsi complétées n'incorporent pas l'incertitude qui est attribuable aux valeurs manquantes. Les méthodes basées sur le rééchantillonnage et l'imputation multiple -- une généralisation de l'imputation simple -- s'avèrent toutes deux des solutions courantes convenables au problème des données manquantes, du fait qu'elles incorporent cette incertitude. Une alternative consiste à avoir recours à l'imputation multiple à deux niveaux, une généralisation de l'imputation multiple (conventionnelle) qui a été développée dans la thèse que Shen [51] a rédigée en 2000 et qui permet d'exploiter les situations où la nature des valeurs manquantes suggère d'effectuer la procédure d'imputation en deux étapes plutôt qu'en une seule. Nous décrirons ces méthodes d'analyse des données incomplètes qui incorporent l'incertitude attribuable aux valeurs manquantes, nous soulèverons quelques problématiques intéressantes relatives au recours à ces méthodes et nous y proposerons des solutions appropriées. Finalement, nous illustrerons l'application de l'imputation multiple conventionnelle et de l'imputation multiple à deux niveaux au moyen d'exemples simples et concrets.
APA, Harvard, Vancouver, ISO, and other styles
48

El, Tannoury Charbel. "Développement d'outils de surveillance de la pression dans les pneumatiques d'un véhicule à l'aides des méthodes basées sur l'analyse spectrale et sur la synthèse d'observateurs." Phd thesis, Ecole centrale de nantes - ECN, 2012. http://tel.archives-ouvertes.fr/tel-00693340.

Full text
Abstract:
Le pneumatique est un élément essentiel pour la tenue de route, le confort et la sécurité d'un véhicule. Cependant, un sous-gonflage accentue les risques d'éclatement, provoque une usure rapide du pneumatique et augmente la consommation de carburant. Il est donc important de développer des systèmes de surveillance de la pression des pneumatiques (SSPP). Une première approche, dite "directe", consistant à utiliser des capteurs de pression s'avère onéreuse et peu fiable (possibilité de pannes). Les nouvelles générations de SSPP favorisent les méthodes "indirectes", sans capteur de pression. La surveillance est assurée à partir des grandeurs physiques liées à la pression. La baisse de la pression se traduit par une augmentation de la vitesse angulaire de la roue, un déplacement des modes vibratoires du véhicule, une diminution du rayon effectif de la roue et une augmentation de la résistance au roulement. L'approche basée sur la comparaison des vitesses angulaires des roues ne répond pas aux exigences concernant la chute de pression minimale que l'on doit détecter et le nombre de pneumatiques dégonflés détectables. Une solution fondée sur l'analyse spectrale des signaux de vitesses angulaires permet d'améliorer les performances mais présente un temps de convergence important. Le premier objectif de ce travail de thèse est donc de réduire le coût de calcul de ces algorithmes. Nous étudions dans le cadre de cette thèse la possibilité de se servir des modèles de la dynamique de la roue et du véhicule pour la mise en oeuvre d'observateurs de grandeurs qui dépendent de la pression. Le deuxième objectif de ce travail de thèse est de proposer des observateurs capables d'estimer conjointement le rayon effectif et la résistance au roulement des roues sans rajout de capteurs supplémentaires. Les travaux menés pendant cette thèse sont orientés vers des aspects méthodologiques et expérimentaux à travers la mise en oeuvre des méthodes et leur application à des données réelles.
APA, Harvard, Vancouver, ISO, and other styles
49

Leboucher, Julien. "Développement et évaluation de méthodes d'estimation des masses segmentaires basées sur des données géométriques et sur les forces externes : comparaison de modèles anthropométriques et géométriques." Valenciennes, 2007. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/e2504d99-e61b-4455-8bb3-2c47771ac853.

Full text
Abstract:
L’utilisation de paramètres inertiels segmentaires proches de la réalité est primordiale à l’obtention de données cinétiques fiables lors de l’analyse du mouvement humain. Le corps humain est modélisé en un nombre variable de solides, considérés indéformables, dans la grande majorité des études du mouvement. Ce travail de recherche a pour but de mettre en œuvre et de tester deux méthodes d’estimation des masses de ces solides appelés segments. Ces deux méthodes sont basées sur le principe d’équilibre statique d’un ensemble de solides rigides. La première a pour objectif la prédiction des masses des membres en se servant des distances parcourues par le centre de masse du membre et le centre de pression, projection horizontale du centre de gravité du sujet, entre deux positions considérées statiques. Le rapport de ces distances étant le même que celui des masses du membre considéré et du corps entier, la connaissance de cette dernière nous permet d’estimer la masse du membre. La seconde méthode a pour but d’estimer simultanément les masses relatives de tous les segments du modèle par résolution de l’équation d’équilibre statique en faisant l’hypothèse que le centre de pression est le barycentre de l’ensemble et d’après l’estimation des positions des centres de masse segmentaires. La démarche expérimentale innovante présentée dans cette thèse consiste en le transfert des centres de masse segmentaires issus d’une méthode anthropométrique géométrique et en leur utilisation en conjonction avec des méthodes usuelles en analyse du mouvement humain afin d’obtenir les masses segmentaires du sujet. La méthode d’estimation des masses des membres donne de bons résultats en comparaison de ceux obtenus grâce aux modèles issus de la littérature en ce qui concerne la prédiction de la position du centre de pression a posteriori. Une partie des causes de l’échec de la seconde sont évaluées à travers l’étude de l’effet de l’incertitude sur la position du centre de pression
Use of body segment parameters close to reality is of the utmost importance in order to obtain reliable kinetics during human motion analysis. Human body is modeled as a various number of solids in the majority of human movement studies. This research aims at developing and testing two methods for the estimation of these solid masses, also known as segment masses. Both methods are based on the static equilibrium principle for several solids. The first method’s goal is to provide with limb masses using total limb centre of mass and centre of pressure, projection on the horizontal plane of the total subject’s body centre of gravity, displacements. Ratio between these displacement being the same as the ratio of limb and total body masses, the knowledge of the latter allows for the calculation of the former. The second method aims at estimation all segment masses simultaneously by resolving series of static equilibrium equations, making the same assumption that centre of pressure is total body centre of mass projection and using segment centre of mass estimations. Interest of the new methods used in this research is due to the use of individual segment centre of mass estimations using a geometrical model together with material routinely utilized in human motion analysis in order to obtain estimates of body segment masses. Limb mass estimations method performs better predicting a posteriori center of mass displacement when compared to other methods. Some of the potential causes of the second method’s failure have been investigated through the study of centre of pressure location uncertainty
APA, Harvard, Vancouver, ISO, and other styles
50

Palagi, Emilie. "Évaluation des moteurs de recherche exploratoire : élaboration d'un corps de méthodes centrées utilisateurs, basées sur une modélisation du processus de recherche exploratoire." Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4116/document.

Full text
Abstract:
Les moteurs de recherche exploratoire (MRE) sont des logiciels aidant les utilisateurs à explorer un domaine d’intérêt pour y faire des découvertes. Ces moteurs se distinguent en cela des moteurs de recherche classiques tels que Google, Bing ou Yahoo!, lesquels supportent plutôt des recherches ciblées ou recherches de consultation (lookup). Si l’on admet que l’évaluation des MRE vise à vérifier si ces derniers aident effectivement les utilisateurs à réaliser leur tâche d’exploration, on constate que les méthodes existantes d’évaluation de ces systèmes ne permettent pas réellement cette vérification. L’une des raisons à cela est que ces méthodes ne reposent pas sur un modèle approprié de la recherche exploratoire (RE) ou qu’elles restent accrochées à un modèle de la recherche de consultation. L’objectif principal de cette thèse est de proposer aux concepteurs de ces MRE des méthodes d’évaluation centrées utilisateurs reposant sur un modèle du processus de RE. Ainsi, après avoir modélisé le processus de RE, nous proposons deux méthodes d’évaluation qui peuvent être utilisées tout au long du processus de conception. La première méthode, une méthode d’inspection sans utilisateurs, peut être utilisée dès les premières maquettes, et repose sur des heuristiques de RE. Nous avons également proposé des outils facilitant l’utilisation de ces heuristiques : un formulaire en ligne ainsi qu’une extension Google Chrome appelée CheXplore. La seconde méthode, avec utilisateurs, peut être utilisée dès la première version d’un prototype fonctionnel. Cette méthode se présente comme une procédure de test utilisateur personnalisable. Dans cette thèse, nous nous intéressons plus particulièrement à deux éléments de cette procédure : un protocole d’élaboration de tâches de RE et une grille d’analyse d’enregistrements vidéo de session de RE. La pertinence du modèle ainsi que les méthodes qui en découlent ont été évaluées à l’occasion de tests utilisateurs. Le modèle, les heuristiques et le protocole d’élaboration des tâches de RE ont été validés. Les premières évaluations de la grille d’analyse d’enregistrements vidéos ont révélé des points à améliorer
Exploratory search systems are search engines that help users to explore a topic of interest. A shortcoming of current evaluation methods is that they cannot be used to determine if an exploratory search system can effectively help the user in performing exploratory search tasks. Indeed, the assessment cannot be the same between classic search systems (such as Google, Bing, Yahoo!...) and exploratory search systems. The complexity and the difficulty to have a consensus definition of the exploratory search concept and process are reflected in the difficulties to evaluate such systems. Indeed, they combine several specifics features and behaviors forming an alchemy difficult to evaluate. The main objective of this thesis is to propose for the designers of these systems (i.e. computer scientists) user-centered evaluation methods of exploratory search systems. These methods are based on a model of exploratory search process in order to help the evaluators to verify if a given system supports effectively the exploratory search process. Thus, after elaborating a model of exploratory search process, we propose two model-based methods, with and without users, which can be used all along the design process. The first method, without users, can be used from the first sketch of the system, consists of a set of heuristics of exploratory search and a procedure for using them. We also propose two tools facilitating their use: an online form format and an Google Chrome plugin, CheXplore. The second method involves real end-users of exploratory search systems who test a functional prototype or version of an exploratory search system. In this thesis, we mainly focus on two model-based elements of a customizable user testing procedure: a protocol for the elaboration of exploratory search tasks and a video analysis grid for the evaluation of recorded exploratory search sessions
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography