Thèses sur le sujet « Méthode basée sur des contraintes »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Méthode basée sur des contraintes.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Méthode basée sur des contraintes ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Medjdoub, Benachir. « Méthode de conception fonctionnelle en architecture : une approche CAO basée sur les contraintes : ARCHIPLAN ». Phd thesis, Ecole Centrale Paris, 1996. http://tel.archives-ouvertes.fr/tel-00393843.

Texte intégral
Résumé :
Nous nous intéressons au problème du dimensionnement et du placement optimal de locaux sur une surface donnée (on trouve aussi allocation spatiale), de type logements familiaux, bureaux ou équipements collectifs... Nous présentons une nouvelle approche de logiciel de CAO en architecture qui part de l'expression du besoin fonctionnel en termes de contraintes sur les locaux. La grande originalité de ce travail est de proposer un modèle de placement a trois niveaux : fonctionnel, topologique et numérique. Dans une seconde étape, le logiciel ARCHiPLAN que nous avons développé, énumère toutes les solutions topologiquement différentes, sans présumer pour autant de dimensions finales précises. Ces solutions correspondent à l'étape d'esquisses qu'effectue un architecte en phase de conception préliminaire a partir du cahier des charges fonctionnel (programme). L'architecte peut ensuite « naviguer » dans cet espace de solutions topologiques, en faible nombre, et en choisir certaines pour une étude plus poussée. Pour chaque solution topologique, la meilleure solution dimensionnelle est trouvée au regard de critères de coûts, de surfaces utiles, de trame ou autres. Cette approche, qui combine la programmation orientée objet et les techniques de programmation par contraintes, a l'avantage d'éviter le problème récurrent de l'explosion combinatoire grâce a ce modèle a trois niveaux, tout en se rapprochant de la pratique du concepteur du domaine par une méthode fonctionnelle et progressive. Le logiciel ARCHiPLAN a prouve sa robustesse, sa pertinence et sa souplesse en conception ainsi que sa rapidite sur de nombreux exemples.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Prodan, Ionela. « Commande sous contraintes de systèmes dynamiques multi-agents ». Phd thesis, Supélec, 2012. http://tel.archives-ouvertes.fr/tel-00783221.

Texte intégral
Résumé :
L'objectif de cette thèse est de proposer des solutions aux problèmes liés à la commande optimale de systèmes dynamiques multi-agents en présence de contraintes. Des éléments de la théorie de commande et d'optimisation sont appliqués à différents problèmes impliquant des formations de systèmes multi-agents. La thèse examine le cas d'agents soumis à des contraintes dynamiques. Pour faire face à ces problèmes, les concepts bien établis tels que la théorie des ensembles, la platitude différentielle, la commande prédictive (Model Predictive Control - MPC), la programmation mixte en nombres entiers (Mixed-Integer Programming - MIP) sont adaptés et améliorés. En utilisant ces notions théoriques, ce travail de thèse a porté sur les propriétés géométriques de la formation d'un groupe multi-agents et propose un cadre de synthèse original qui exploite cette structure. En particulier, le problème de conception de formation et les conditions d'évitement des collisions sont formulés comme des problèmes géométriques et d'optimisation pour lesquels il existe des procédures de résolution. En outre, des progrès considérables dans ce sens ont été obtenus en utilisant de façon efficace les techniques MIP (dans le but d'en déduire une description efficace des propriétés de non convexité et de non connexion d'une région de faisabilité résultant d'une collision de type multi-agents avec des contraintes d'évitement d'obstacles) et des propriétés de stabilité (afin d'analyser l'unicité et l'existence de configurations de formation de systèmes multi-agents). Enfin, certains résultats théoriques obtenus ont été appliqués dans un cas pratique très intéressant. On utilise une nouvelle combinaison de la commande prédictive et de platitude différentielle (pour la génération de référence) dans la commande et la navigation de véhicules aériens sans pilote (UAVs).
Styles APA, Harvard, Vancouver, ISO, etc.
3

Haddad, Ramzi. « Coordination des conflits aériens en présence d’incertitudes : Une étude basée sur l'ordonnancement à contraintes de ressources ». Compiègne, 2006. http://www.theses.fr/2006COMP1634.

Texte intégral
Résumé :
Le volume du trafic aérien a augmenté de 80% en dix ans, une croissance qui est appelée à se poursuivre. Les systèmes actuels de gestion du trafic aérien (Air Traffic Control systems), avec les améliorations en cours, devraient permettre de faire face à cette augmentation jusqu'au milieu de la prochaine décennie. En réponse a cette nécessité, ce travail de thèse, qui se situe à la jonction de deux domaines : l'ordonnancement de projet à contraintes de ressources et la coordination du trafic aérien. Nous avons mis en place un système dynamique permettant de résoudre les problèmes de gestion du trafic sous incertitudes en intégrant diverses techniques adaptées aux aléas existant dans ce contexte. Notre domaine d'application privilégié était la coordination (En-Route) du trafic aérien. Ce type de projet présente des caractéristiques relevant aussi bien de l'ordonnancement que de la planification sous incertitudes
The volume of the air traffic increased 80% in ten years, a growth that is called to continue. The improvements of the present systems of air-traffic management should permit to face this increase until the middle of the next decade. Ln response to this necessity, this thesis work is located between the junctions of two domains: project resources constraints scheduling and the air-traffic coordination. We constructed a dynamic system that permits to resolve air traffic management problems under uncertainties while integrating various techniques adapted to the hazards existing in the context. Our privileged application domain was the coordination (En-Route) of the aerial traffic. This type of project presents features raising form scheduling and organization under uncertainties domains
Styles APA, Harvard, Vancouver, ISO, etc.
4

Zhang, Xiaoqun. « Reconstruction et régularisation en tomographie par une méthode de Fourier basée sur la variation totale ». Lorient, 2006. http://www.theses.fr/2006LORIS075.

Texte intégral
Résumé :
La tomographie par rayons X consiste à inverser une transformée de Radon avec des données partielles dans l'espace de Fourier, ce qui classe cette technique d'imagerie dans la catégorie des problèmes inverses mal posés. La résolution du problème nécessite (explicitement ou implicitement) l'interpolation et l'extrapolation des données fréquentielles d'une grille polaire à une grille cartésienne. Notre approche introduit la semi-norme de la variation totale afin de minimiser les dégradations et de reconstruire une image régulière par morceaux, visuellement proche des jeux de données synthétiques utilisés par les radiologues. Nous proposons un schéma d'optimisation sous une contrainte formulée dans l'espace de Fourier, dont les avantages sont une modélisation précise des données et une faible complexité de calcul. La principale difficulté reste la définition de la contrainte fréquentielle, qui doit réaliser un compromis entre une bonne attache aux données et la possibilité de suffisamment diminuer la variation totale afin de débruiter l'image. Nous étudions trois contraintes, la première basée sur les extrema locaux des coefficients sur la grille polaire, la deuxième sur une estimation de la régularité Lipschitz locale et la troisième sur une régression locale avec seuillage non-linéaire. Le modèle proposé et les algorithmes associés sont validés par de nombreuses expériences sur des données réalistes, simulées à partir du fantôme de référence Shepp-Logan sous diverses conditions de bruit. Les résultats numériques montrent une amélioration qualitative considérable des images reconstruites par le modèle par rapport à l'algorithme de référence (rétro-projection filtrée) avec la disparition quasi-totale du bruit et des artefacts. Le rapport signal à bruit gagne entre 1 à 6 db suivant le type de données et de contrainte. Enfin, les algorithmes proposés sont plus rapides que ceux du standard actuel d'environ un facteur trois
X-ray tomography consists in inversing a Radon transform from partial data in the Fourier space, leading this imaging process to belong to the family of ill-posed inverse problems. Solving this problem needs (explicitly or implicitly) frequency data interpolation and extrapolation from a polar grid to a Cartesian one. Our approach introduces the total variation seminorm in order to minimize the artifacts and to reconstruct a piecewise smooth image, visually close to the synthetic data set used by radiologists. We propose an optimisation scheme under a constraint given in the Fourier space for which the advantages are a precise data modelling and a low computational cost. The main difficulty remains the formulation of the frequency constraint, which must balance between a good data fit and the liberty of reducing the total variation enough so that the image can be denoised. We study three constraints, the first one being based on local extrema over the polar grid, the second on an estimator of the local Lipschitz regularity and the third on local regression with nonlinear thresholding. The proposed model and the associated algorithms are valided by numerous experiments on realistic data, simulated from the Shepp-Logan phantom using different types of noise. Numerical results show a significant qualitative enhancement of reconstructed images using our model compared to the standard algorithm (filtered backprojection), with the suppression of almost all noise and artefacts. The signal to noise ratio increases by 1 up to 6 db depending on the type of data and the constraint. At last, the proposed algorithms are faster than the standard one by more or less a factor of three
Styles APA, Harvard, Vancouver, ISO, etc.
5

Gachon, Yves. « Etude de l'érosion par des particules solides de revêtements multicouches obtenus par procédé PVD sur substrat métallique (base titane) ». Ecully, Ecole centrale de Lyon, 1997. http://www.theses.fr/1997ECDL0029.

Texte intégral
Résumé :
L'erosion par des particules solides est un probleme touchant notamment l'aeronautique, ou de nombreuses pieces sont realisees en alliages de titane, dont les proprietes tribologiques sont dans l'ensemble assez mediocres. Pour ameliorer la tenue a l'erosion, des depots pvd ont ete developpes. Ces revetements alternent des couches dures (resistant a l'arrachement ou a l'enfoncement) et des couches tendres (ce qui limite leur caractere fragile). Les essais d'erosion sont realises sur un simulateur specifique, denomme erodimetre, a projection horizontale. Parmi les differents types de depots etudies, nous nous sommes orientes vers une structure a gradient fonctionnel, dans laquelle l'absence d'interface nette entre couches diminue la fragilite. En parallele, nous avons developpe un appareil de simulation des impacts par percussion permettant de reproduire l'energie des grains erodants. Nous avons egalement etudie les interactions entre impacts a l'aide d'un code d'elements finis initialement destine au grenaillage. Grace au modele introduit par stephenson, nous avons mis au point une methodologie de qualification des revetements associant des essais sur l'erodimetre et sur le percuteur.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Haïat, Guillaume. « Étude d'une méthode d'inversion basée sur la simulation pour la caractérisation de fissures détectées par ultrasons dans un composant revêtu ». Phd thesis, Université Paris-Diderot - Paris VII, 2004. http://tel.archives-ouvertes.fr/tel-00007345.

Texte intégral
Résumé :
Le travail effectué au cours de cette thèse porte sur l'inversion de données ultrasonores. Le contexte industriel en est le contrôle non destructif des cuves de réacteurs à eau pressurisée. Ces contrôles visent à détecter et caractériser des fissures. Les données ultrasonores se présentent sous la forme d'échographies obtenues à l'aide d'un capteur fonctionnant en émission-réception. Les fissures sont détectées par diffraction de leurs arêtes. L'analyse des données obtenues est rendue difficile du fait de l'existence d'un revêtement dont la surface est irrégulière et dont le matériau diffère du matériau constitutif de la cuve. Une méthode est ici proposée pour localiser avec précision les arêtes diffractantes et donc permettre un dimensionnement des fissures à partir des échographies ultrasonores obtenues. Cette méthode s'appuie sur l'application d'outils de modélisation de la propagation et de la diffraction des ultrasons prenant en compte à la fois le caractère irrégulier de la surface et la nature hétérogène du composant. La méthode développée a fait l'objet d'une implémentation informatique et a pu être testée sur un ensemble de cas représentatifs. En particulier, ses performances ont été évaluées à partir de l'analyse de résultats expérimentaux. La précision obtenue en laboratoire sur les cas expérimentaux traités est conforme à la demande industrielle qui a motivé cette étude.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Prodan, Ionela. « Control of Multi-Agent Dynamical Systems in the Presence of Constraints ». Thesis, Supélec, 2012. http://www.theses.fr/2012SUPL0019/document.

Texte intégral
Résumé :
L'objectif de cette thèse est de proposer des solutions aux problèmes liés à la commande optimale de systèmes dynamiques multi-agents en présence de contraintes. Des éléments de la théorie de commande et d'optimisation sont appliqués à différents problèmes impliquant des formations de systèmes multi-agents. La thèse examine le cas d'agents soumis à des contraintes dynamiques. Pour faire face à ces problèmes, les concepts bien établis tels que la théorie des ensembles, la platitude différentielle, la commande prédictive (Model Predictive Control - MPC), la programmation mixte en nombres entiers (Mixed-Integer Programming - MIP) sont adaptés et améliorés. En utilisant ces notions théoriques, ce travail de thèse a porté sur les propriétés géométriques de la formation d'un groupe multi-agents et propose un cadre de synthèse original qui exploite cette structure. En particulier, le problème de conception de formation et les conditions d'évitement des collisions sont formulés comme des problèmes géométriques et d'optimisation pour lesquels il existe des procédures de résolution. En outre, des progrès considérables dans ce sens ont été obtenus en utilisant de façon efficace les techniques MIP (dans le but d'en déduire une description efficace des propriétés de non convexité et de non connexion d'une région de faisabilité résultant d'une collision de type multi-agents avec des contraintes d'évitement d'obstacles) et des propriétés de stabilité (afin d'analyser l'unicité et l'existence de configurations de formation de systèmes multi-agents). Enfin, certains résultats théoriques obtenus ont été appliqués dans un cas pratique très intéressant. On utilise une nouvelle combinaison de la commande prédictive et de platitude différentielle (pour la génération de référence) dans la commande et la navigation de véhicules aériens sans pilote (UAVs)
The goal of this thesis is to propose solutions for the optimal control of multi-agent dynamical systems under constraints. Elements from control theory and optimization are merged together in order to provide useful tools which are further applied to different problems involving multi-agent formations. The thesis considers the challenging case of agents subject to dynamical constraints. To deal with these issues, well established concepts like set-theory, differential flatness, Model Predictive Control (MPC), Mixed-Integer Programming (MIP) are adapted and enhanced. Using these theoretical notions, the thesis concentrates on understanding the geometrical properties of the multi-agent group formation and on providing a novel synthesis framework which exploits the group structure. In particular, the formation design and the collision avoidance conditions are casted as geometrical problems and optimization-based procedures are developed to solve them. Moreover, considerable advances in this direction are obtained by efficiently using MIP techniques (in order to derive an efficient description of the non-convex, non-connected feasible region which results from multi-agent collision and obstacle avoidance constraints) and stability properties (in order to analyze the uniqueness and existence of formation configurations). Lastly, some of the obtained theoretical results are applied on a challenging practical application. A novel combination of MPC and differential flatness (for reference generation) is used for the flight control of Unmanned Aerial Vehicles (UAVs)
Styles APA, Harvard, Vancouver, ISO, etc.
8

Messine, Frédéric. « Méthodes d'optimisation globale basées sur l'analyse d'intervalle pour la résolution de problèmes avec contraintes ». Toulouse, INPT, 1997. http://www.theses.fr/1997INPT082H.

Texte intégral
Résumé :
Le retour au premier plan de l'optimisation globale correspond à un besoin industriel. De nombreuses applications, que ce soit au niveau de la conception ou de l'exploitation se ramènent à la recherche d'optima n'entrant pas dans le cadre des hypothèses simplificatrices (convéxite et donc unicité, différentiabilité, existence de points stationnaires,. . . ). C'est en partie le cas des exemples concrets étudiés : la conception de procédés chimiques et d'actionneurs électromécaniques. Les méthodes d'optimisation globale que nous avons étudiées, sont basées sur l'analyse d'intervalle, ce qui leur donne leur caractère déterministe. Elles permettent donc de trouver avec certitude l'optimum global ainsi que tous ses optimiseurs, quelle que soit la nature du problème : continu, mixte, avec ou sans contraintes,. . . Certes, de telles performances se payent en temps de calcul et en utilisation mémoire. Les algorithmes développés dans cette thèse ont pour but de réduire de facon considérable ces temps CPU et le flot de données stocké. Afin d'améliorer ces algorithmes de type branch and bound, de nouvelles méthodes d'encadrement de l'optimum global concernant les fonctions différentiables de plusieurs variables ont été proposées. Le procédé mis en oeuvre consiste à construire des hyperplans dont l'intersection fournit tout simplement une minoration de la fonction ; cette construction utilise les propriétés d'inclusion de l'analyse d'intervalle. L'intégration de ces méthodes au sein d'algorithmes de type branch and bound, permet d'améliorer de facon considérable leur convergence et de limiter l'effet de clusters. La découverte des optima globaux des deux problèmes semi-industriels traités ont démontré l'efficacité de tels algorithmes par rapport aux méthodes classiques (gain de 10% sur les optima). Dès lors, l'utilisation des nouvelles méthodes d'encadrement dans un tel cadre (problèmes mixtes avec contraintes) semble très prometteuse.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Turcotte, Maryse. « Méthode basée sur la texture pour l'étiquetage des images ». Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape3/PQDD_0033/MQ67334.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Hammache, Hicham. « Méthode de test basée sur les chaînes parallèles de courant ». Mémoire, École de technologie supérieure, 2003. http://espace.etsmtl.ca/753/1/HAMMACHE_Hicham.pdf.

Texte intégral
Résumé :
Ce mémoire s'inscrit dans le cadre du test des circuits intégrés (CI) et plus précisément dans la problématique des tests des pannes de délais. De manière conventionnelle, pour connaître la vitesse maximale de fonctionnement d'un CI, il faut le stimuler de telle sorte qu'il atteigne une vitese maximale. De plus, le testeur doit également fonctionner à la même cadence. D'où l'intérêt de la méthode de test basée sur les chaînes parallèles de courant proposée qui vise la détection des pannes causant une augmentation des délais de propagations, et l'utilisation dans un premier temps des testeurs moins récents pour estimer la fréquence maximale de fonctionnement du CI, et dans un deuxième temps, inséré un dispositif de mesure de délai pour rendre la méthode de test intégré de façon "BIST".
Styles APA, Harvard, Vancouver, ISO, etc.
11

Chermain, Xavier. « Simulation d'effets aérodynamiques et hydrodynamiques basée sur une méthode lagrangienne ». Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/8391.

Texte intégral
Résumé :
Ce mémoire présente une nouvelle méthode pour simuler de l'air en interaction avec des solides en se basant sur le modèle particulaire Smoothed Particle Hydrodynamics (SPH). Après avoir rappelé les bases de SPH ainsi que ses variantes incompressibles WCSPH et PCISPH pour simuler de l'eau, nous présentons un modèle de simulation d'air réaliste permettant de simuler des effets aérodynamiques. Par exemple nous arrivons à faire léviter une balle dans un flux d'air grâce à une gestion des interactions air-solide dans les deux sens. Nous proposons aussi une initialisation simple et rapide pour échantillonner rapidement l'air avec des particules SPH tout en prenant en compte les objets solides de la scène 3D. La technique consiste à échantillonner le domaine en se basant sur une grille uniforme puis à abaisser progressivement la densité cible appellé aussi densité au repos poussant les particules d'air à occuper tout l'espace de la simulation. Cette diminution s'arrête lorsque la densité cible vaut la densité moyenne des particules, c'est-à-dire la somme des densités des particules divisée par le nombre total de particules de fluides. Les résultats obtenus ont été comparés avec des expériences réelles dans le but de valider notre modèle.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Massat, Christine. « Une nouvelle méthode d'optimisation globale basée sur la différentiation automatique ». Toulouse 3, 1997. http://www.theses.fr/1997TOU30085.

Texte intégral
Résumé :
Cette these introduit une nouvelle methode d'optimisation globale utilisant la differentiation automatique et les derivees d'ordre eleve. Son principe consiste a effectuer une recherche lineaire globale dans une direction de descente. Les meilleurs optima sont ensuite utilises pour recommencer l'algorithme. Cette methode integre d'une maniere naturelle des concepts issus - des methodes de descente ; - des algorithmes genetiques : notion de population, de mutation et de croisement, selection des points ; - des algorithmes de recuit simule : notion de temperature. Tous ces elements ont permis de demontrer la convergence locale de chaque point de la population dans un bassin d'attraction different. La methode est ensuite appliquee a divers exemples : minimisation de fonctions tests classiques, recherche des structures stables des agregats d'argon (minimisation du potentiel de lennard-jones). Pour les agregats de sodium, les approximations classiques ne conviennent plus, il faut donc faire appel a la chimie quantique. L'energie a minimiser est alors une somme ponderee des valeurs propres d'un operateur hamiltonien represente par une matrice symetrique. D'apres le theoreme de rellich, les valeurs propres et les vecteurs propres sont analytiques par rapport a un parametre reel lorsque la matrice symetrique suit un chemin analytique. Les derivees d'ordre eleve du probleme aux valeurs propres conduisent a la resolution de systemes lineaires dont le second membres est calcule par differentiation autimatique. La resolution de chaque systeme lineaire se ramene a un produit matrice-vecteur. Les resultats obtenus pour les deux problemes de chimie theorique (159 parametres et 42 parametres) sont tres prometteurs.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Li, Honghao. « Interpretable biological network reconstruction from observational data ». Electronic Thesis or Diss., Université Paris Cité, 2021. http://www.theses.fr/2021UNIP5207.

Texte intégral
Résumé :
Cette thèse porte sur les méthodes basées sur des contraintes. Nous présentons comme exemple l’algorithme PC, pour lequel nous proposons une modification qui garantit la cohérence des ensembles de séparation, utilisés pendant l’étape de reconstruction du squelette pour supprimer les arêtes entre les variables conditionnellement indépendantes, par rapport au graphe final. Elle consiste à itérer l’algorithme d’apprentissage de structure tout en limitant la recherche des ensembles de séparation à ceux qui sont cohérents par rapport au graphe obtenu à la fin de l’itération précédente. La contrainte peut être posée avec une complexité de calcul limitée à l’aide de la décomposition en block-cut tree du squelette du graphe. La modification permet d’augmenter le rappel au prix de la précision des méthodes basées sur des contraintes, tout en conservant une performance globale similaire ou supérieure. Elle améliore également l’interprétabilité et l’explicabilité du modèle graphique obtenu. Nous présentons ensuite la méthode basée sur des contraintes MIIC, récemment développée, qui adopte les idées du cadre du maximum de vraisemblance pour améliorer la robustesse et la performance du graphe obtenu. Nous discutons les caractéristiques et les limites de MIIC, et proposons plusieurs modifications qui mettent l’accent sur l’interprétabilité du graphe obtenu et l’extensibilité de l’algorithme. En particulier, nous mettons en œuvre l’approche itérative pour renforcer la cohérence de l’ensemble de séparation, nous optons pour une règle d’orientation conservatrice et nous utilisons la probabilité d’orientation de MIIC pour étendre la notation des arêtes dans le graphe final afin d’illustrer différentes relations causales. L’algorithme MIIC est appliqué à un ensemble de données d’environ 400 000 dossiers de cancer du sein provenant de la base de données SEER, comme benchmark à grande échelle dans la vie réelle
This thesis is focused on constraint-based methods, one of the basic types of causal structure learning algorithm. We use PC algorithm as a representative, for which we propose a simple and general modification that is applicable to any PC-derived methods. The modification ensures that all separating sets used during the skeleton reconstruction step to remove edges between conditionally independent variables remain consistent with respect to the final graph. It consists in iterating the structure learning algorithm while restricting the search of separating sets to those that are consistent with respect to the graph obtained at the end of the previous iteration. The restriction can be achieved with limited computational complexity with the help of block-cut tree decomposition of the graph skeleton. The enforcement of separating set consistency is found to increase the recall of constraint-based methods at the cost of precision, while keeping similar or better overall performance. It also improves the interpretability and explainability of the obtained graphical model. We then introduce the recently developed constraint-based method MIIC, which adopts ideas from the maximum likelihood framework to improve the robustness and overall performance of the obtained graph. We discuss the characteristics and the limitations of MIIC, and propose several modifications that emphasize the interpretability of the obtained graph and the scalability of the algorithm. In particular, we implement the iterative approach to enforce separating set consistency, and opt for a conservative rule of orientation, and exploit the orientation probability feature of MIIC to extend the edge notation in the final graph to illustrate different causal implications. The MIIC algorithm is applied to a dataset of about 400 000 breast cancer records from the SEER database, as a large-scale real-life benchmark
Styles APA, Harvard, Vancouver, ISO, etc.
14

Janssen, Philippe. « Aide à la conception : une approche basée sur la satisfaction de contraintes ». Montpellier 2, 1990. http://www.theses.fr/1990MON20039.

Texte intégral
Résumé :
Nous nous interessons a la conception d'objets pertinents sous contraintes. Ces objets sont definis par un ensemble de variables connues a priori et par un ensemble de contraintes de deux types: les contraintes de validite definissant les objets admissibles et les contraintes de preference exprimant les qualites des objets recherches. Nous proposons un formalisme issu des problemes de satisfaction de contraintes (csp): les csp dynamiques. Ce modele est a la base d'une approche interactive d'aide a la conception. Les mecanismes developpes pour cette approche reposent sur les resultats obtenus en satisfaction de contraintes. Une illutration du modele est fournie pour le probleme de la conception de plans de synthese peptidique
Styles APA, Harvard, Vancouver, ISO, etc.
15

Christian, Guy Emilien. « Sur une méthode de calcul des concentrations de contraintes ». Paris 6, 1993. http://www.theses.fr/1993PA066730.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
16

Dame, A. « Méthode unifiée de suivi et d'asservissement visuels basée sur l'information mutuelle ». Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00558196.

Texte intégral
Résumé :
Dans cette thèse, nous traitons les problèmes d'asservissement et de suivi visuel, qui sont essentiels dans le domaine de la vision robotique. Leur robustesse ainsi que leur précision deviennent des enjeux majeurs. Les techniques classiques sont principalement basées sur l'observation de primitives géométriques dans l'image. Ces primitives ne prennent néanmoins pas compte de toute l'information présente dans les images. C'est pour cette raison que de nouvelles approches, dites approches directes, ont vu le jour. Un inconvénient des méthodes directes actuelles vient du fait qu'elles sont centrées sur l'observation des intensités lumineuses des images qui sont fortement sensibles aux changements d'apparence qui peuvent survenir, par exemple, lors de modification de l'illumination ou occultation. Ceci a pour effet de rendre l'application de ces techniques limitée à des conditions nominales d'utilisation. Pour régler ce problème, nous proposons une solution qui n'est plus directement basée sur les intensités lumineuses mais sur l'information contenue dans les images. Nous montrons que la maximisation de cette information permet de créer une solution unifiée pour résoudre des tâches de suivi et d'asservissement visuel. De nombreuses expériences de suivi valident la robustesse et la précision de la technique proposée dans des applications variées en passant par le suivi de visages, la localisation, la construction de mosaïques et la réalité augmentée. La méthode d'asservissement visuel reposant sur l'information mutuelle est également validée à l'aide d'une plateforme contenant un robot cartésien à six degrés de liberté ainsi qu'un véhicule autonome non-holonome.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Tampango, Yendoubouam. « Développement d'une méthode sans maillage basée sur les approximations de Taylor ». Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0322/document.

Texte intégral
Résumé :
Ces dernières décennies, de nouvelles méthodes numériques connues sous le nom de « méthodes sans maillage » ont été développées. Contrairement à la MEF, ces méthodes n'utilisent qu'un ensemble de noeuds répartis dans le domaine sans demander un maillage de celui-ci. Jusqu'à présent, aucune de ces méthodes n'est parvenue à satisfaire les utilisateurs de la MEF. Dans cette thèse, nous proposons une méthode sans maillage, utilisant les approximations de Taylor. Cette méthode a l'avantage de n'utiliser que des points sur la frontière. En effet, l'EDP est résolue sous sa forme forte dans le domaine et les conditions aux limites sont appliquées par la méthode des moindres carrés. Cette méthode a été introduite, il y a 3 ans par S. Zeze dans sa thèse. Les tests académiques effectués en linéaire ont montré que cette méthode est très précise et que la convergence est améliorée en augmentant le degré, comme dans la p-version des EF. Nos travaux de thèse sont une suite des travaux de S. Zeze et ils visent à rendre plus robuste la méthode et aussi à élargir son champ d'application. Dans un premier temps, nous faisons une analyse mathématique de la méthode. Cette analyse passe par l'analyse des séries calculées. Le but de cette analyse est d'évaluer le domaine de convergence de la solution. Les résultats obtenus ont montré que pour certains problèmes, il faut subdiviser le domaine en quelques sous domaines et faire une résolution par sous domaine. La suite de nos travaux a donc été d'établir une technique de raccordement qui permettra d'assurer les conditions de transmission aux interfaces, dans le cas d'une résolution par sous domaine. En dernière partie, nous étendons l'application de la méthode aux problèmes non linéaires, en la couplant à une méthode de linéarisation
In these last decades, new numerical methods known as « meshless methods » have been developped. Contrary to the FEM, these methods uses only a set of nodes in the domain, without need of any mesh. Until now, any of these methods has convinced users of FEM. In this paper, we present a new meshless method using Taylor series expansion. In this method, the PDE is solved quasi exactly in the domain and the boundary conditions are applied by using a least square method. Then only the boundary discretisation is needed so the proposed method is a « true boundary meshless method ». This technique has been proposed for the first time by S. Zeze in his PhD thesis. The study of some linear problems has shown that this technique leads to a very good accuracy and that the convergence can be improved by increasing approximation degree. Our work is a continuation of S. Zeze work, and it consists to make the proposed method more robust and to extend its range of application. For that, we first make an analysis of the series computed by the method. The aim of this analysis was to evaluate the domain of validity of these series. This analysis showed that, for some problems, an accuracy cannot be obtained without splitting the domain in subdomains and making a resolution by subdomains. Therefore the second part of our work was to define a technique which will ensure the continuity at the interface between subdomains, in the case of a resolution by subdomains. The last part of our work was dedicated to non-linear problems. We establish an algorithm to show how the proposed method can deal with nonlinear-problems
Styles APA, Harvard, Vancouver, ISO, etc.
18

Nguyen, Hoai Nam. « Commande sous contraintes pour des systèmes dynamiques incertains : une approache basée sur l'interpolation ». Phd thesis, Supélec, 2012. http://tel.archives-ouvertes.fr/tel-00783829.

Texte intégral
Résumé :
Un problème fondamental à résoudre en Automatique réside dans la commande des systèmes incertains qui présentent des contraintes sur les variables de l'entrée, de l'état ou la sortie. Ce problème peut être théoriquement résolu au moyen d'une commande optimale. Cependant la commande optimale par principe n'est pas une commande par retour d'état ou retour de sortie et offre seulement une trajectoire optimale le plus souvent par le biais d'une solution numérique.Par conséquent, dans la pratique, le problème peut être approché par de nombreuses méthodes, tels que"commande over-ride" et "anti-windup". Une autre solution, devenu populaire au cours des dernières décennies est la commande prédictive. Selon cette méthode, un problème de la commande optimale est résolu à chaque instant d'échantillonnage, et le composant du vecteur de commande destiné à l'échelon curant est appliquée. En dépit de la montée en puissance des architecture de calcul temps-réel, la commande prédictive est à l'heure actuelle principalement approprié lorsque l'ordre est faible, bien connu, et souvent pour des systèmes linéaires. La version robuste de la commande prédictive est conservatrice et compliquée à mettre en œuvre, tandis que la version explicite de la commande prédictive donnant une solution affine par morceaux implique une compartimentation de l'état-espace en cellules polyédrales, très compliquée.Dans cette thèse, une solution élégante et peu coûteuse en temps de calcul est présentée pour des systèmes linéaire, variant dans le temps ou incertains. Les développements se concentre sur les dynamiques en temps discret avec contraintes polyédriques sur l'entrée et l'état (ou la sortie) des vecteurs, dont les perturbations sont bornées. Cette solution est basée sur l'interpolation entre un correcteur pour la région extérieure qui respecte les contraintes sur l'entrée et de l'état, et un autre pour la région intérieure, ce dernier plus agressif, conçue par n'importe quelle méthode classique, ayant un ensemble robuste positivement invariant associé à l'intérieur des contraintes. Une simple fonction de Lyapunov est utilisée afin d'apporter la preuve de la stabilité en boucle fermée.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Herbegue, Hajer. « Approche ADL pour la modélisation d'architecture basée sur les contraintes (calcul de WCET) ». Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2448/.

Texte intégral
Résumé :
La modélisation des systèmes temps-réel nécessite la connaissance de la borne supérieure des temps d'exécution possibles des tâches temps-réel, appelée temps d'exécution pire-cas ou WCET-Worst Case Execution Time. Le calcul du WCET par analyse statique est basée sur l'analyse du flot de contrôle du programme. Les chemins d'exécution du programme sont composés de séquences d'instructions, qu'on appelle les blocs de base, et des contrôles. Une étape de l'analyse statique, appelée analyse du pipeline, permet d'étudier l'impact de la micro-architecture sur le temps d'exécution des instructions du bloc de base. Le travail de cette thèse s'intéresse à l'analyse du pipeline pour le calcul du WCET. Cette étape du flotot de calcul du WCET prend en compte les caractéristiques du jeu d'instructions et les caractéristiques matérielles du processeur. On a alors besoin de spécifications haut-niveau de l'architecture logicielle et matérielle des processeurs. Nous considérons les langages de description d'architecture (Architecture Description Languages-ADL) pour la description du processeur. Les ADLs, comme Sim-nML, HARMLESS, LISA, sont utilisés pour la génération d'outils ciblés (simulateurs, assembleurs), la vérification, etc. Parmi les outils, OTAWA est un environnement pour l'analyse de temps, qui implémente différentes méthodes de calcul du temps d'exécution pire-cas. Actuellement, OTAWA utilise le langage Sim-nML pour la spécification du jeu d'instructions (le niveau ISA) de l'architecture. Ce travail de thèse est une contribution à OTAWA par une approche ADL pour l'analyse du pipeline. Le but étant d'améliorer l'expressivité en terme de description des processeurs, nous proposons une extension du langage de description Sim-nML, comme première contribution. Cette extension permet de supporter, en plus de la description du jeu d'instructions, la description matérielle de processeurs complexes. Elle permet aussi de séparer l'étape de description d'architecture de l'étape d'analyse et de calcul du temps. Cette extension permet une description déclarative des ressources disponibles et de leurs caractéristiques et aussi de superposer le modèle d'utilisation de ressources des instructions à la description initiale des instructions, qu'on appellera modèle d'exécution. La deuxième contribution de cette thèse consiste à mettre en place une nouvelle méthode pour le calcul du temps d'exécution d'un bloc de base. Nous proposons une méthode nouvelle pour le calcul du temps de bloc de base, basée sur la programmation par contraintes (Constraint Satisfaction Problem-CSP). Nous avons inscrit cette méthode dans une approche automatisée, basée sur la spécification ADL du processeur et sur une séquence d'instructions à analyser (le bloc de base). Nous utilisons des langages de spécification de contraintes et des outils de résolutions. Le principe est d'exprimer les propriétés structurelles et temporelles de l'architecture et des instructions avec des contraintes
The analysis of the worst-case execution time (WCET) is necessary in the design of critical real-time systems. To get sound and precise times, the WCET analysis of these systems must be performed on binary code and based on static analysis. Each execution path of the analyzed program is split into code snippets, called basic blocs. A pipeline analysis consists in modeling the execution of basic blocks on the pipeline and evaluating the impact of the hardware features on the corresponding execution costs. This thesis focuses on the pipeline analysis for WCET computation. The pipeline analysis considers the instruction set architecture and the hardware features of the processor. Then, a high level specification of the software and hardware architecture is needed. We consider Architecture Description Languages (ADL) for processors description. The ADLs, like Sim-nML, HARMLESS, LISA, are used for the generation of retargetable tools, such as simulators, assemblers, in verification, etc. OTAWA is a framework dedicated to the WCET computation that is able to integrate different kind of methods of computation. The instruction set architecture (the ISA level) is expressed in the Sim-nML language. Our work consists in extending the OTAWA framework with an ADL-based approach for pipeline analysis. The aim of our work has been to enhance the expressivity of OTAWA with regard to the processor description language. In order to do so, we first extend the Sim-nML language, to support both the instruction set description and the hardware description. The extended Sim-nML supports the description of hardware components features and superpose the resource usage model of the instructions, that we call execution model, to the initial description. This document also presents a new method to compute a basic bloc execution time. The proposed method is based on constraint programming (Constraint Satisfaction Problem-CSP). We integrated this method in an automated approach, based on the Sim-nML specification of the target processor and based on the instruction sequence to analyse (the basic bloc). We use constraints to express the structural and the temporal properties of the architecture and the instructions, which resolution provides the time cost of basic blocs of a program. Our method uses well known constraint specification languages and resolution tools. The experimentations provide more accurate times. During this thesis, we have been concerned with the formalization of the architecture specification and the results validation. We propose a logic based description of the static and dynamic properties of the architecture and of the basic bloc instructions, presented as a set of high-level constraints. The goal is to provide a reusable library in which the architectuser can find a set of reusable quantitative properties, that assist him in the formalization of the architecture specification. A validation and animation tool was developed based on timed automata. We validate time results provided by the constraints solvers. We generate animated views that assist the architect to validate general dynamic properties and replay the instructions execution
Styles APA, Harvard, Vancouver, ISO, etc.
20

Chetcuti, Nathalie. « Déduction automatique en calcul des durées basée sur la méthode des tableaux ». Toulouse 3, 2001. http://www.theses.fr/2001TOU30144.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
21

Barbut, Charlotte. « Méthode d'évaluation de l'intérêt d'un tri basée sur les bilans de valeurs ». Compiègne, 2005. http://www.theses.fr/2005COMP1605.

Texte intégral
Résumé :
Nous présentons une méthode pour évaluer l'intérêt d'un tri. Cette méthode utilise des bilans de valeurs. Nous les appliquons à des tris générant deux types d'ensembles de matériaux, l'un destiné au recyclage et l'autre à l'incinération. Nous étudions trois propriétés: l'énergie fournie par les trieurs, la recyclabilité d'un ensemble de matériaux et sa combustibilité. Pour définir la recyclabilité d'un ensemble de matériaux, nous choisissons l'entropie, synonyme de niveau d'ordre. Par analogie avec la thermodynamique, nous définissons aussi l'énergie fournie par les trieurs. Ensuite, nous utilisons l'exergie pour évaluer l'énergie contenue dans un combustible. Enfin, nous attribuons des valeurs à ces trois propriétés. Seule une valeur totale du système de tri supérieure à la valeur de l'ensemble initial désigne un tri intéressant. Toutefois, si cette valeur totale passe par un maximum au cours du tri, continuer le tri après ce maximum devient inintéressant
We present a method to estimate the interest of sorting. This method is based on values assessments. We apply them to sortings producing two types of mixtures of materials , for recycling or for incineration. We study three properties : the energy provided by the operators, the recyclability of a mixture of materials and its combustibility. To define the recyclability of a mixture of materials, we choose entropy, synonymous of order level. By analogy with thermodynamics, we define the energy provided by the operators. Next, we use exergy to estimate the energy in a fuel. Finally, we assign values to these three properties. Only a total value of a sorting system above the value of the initial mixture points out an interesting sorting. However, if this total value peaks during sorting, continuing to sort after this maximum becomes uninteresting
Styles APA, Harvard, Vancouver, ISO, etc.
22

Baumgartner, Gary. « Typer : une nouvelle méthode de typologie des consommateurs basée sur l'analyse factorielle ». Grenoble 2, 1989. http://www.theses.fr/1989GRE21002.

Texte intégral
Résumé :
L'objectif de cette these est de mettre au point et de tester un nouveau modele d'analyse factorielle, "typer", destine a realiser une des applications les plus frequemment rencontrees en marketing: l'elaboration d'une typologie de personnes. Le modele d'analyse factorielle couramment utilise dans ce cas (l'analyse en composantes principales de type q: acp) presente de nombreux inconvenients. Typer corrige ces defauts, traitant un nombre nettement plus important de personnes avec des resultats beaucoup plus valides. La these est organisee en cinq chapitres. Le premier propose une synthese des differentes utilisations de l'analyse factorielle en marketing. Le deuxieme chapitre s'interesse a l'origine et au developpement de l'analyse factorielle. Le troisieme chapitre decrit les etapes d'une analyse factorielle avec les avantages et inconvenients des differentes options de chaque etape. Le quatrieme chapitre presente l'algorithme typer sous la forme d'un developpement mathematique, complete par des exemples numeriques. Enfin, le cinquieme chapitre met a l'epreuve typer par quatre tests: un test comparatif avec l'acp, un test base sur les donnees biologiques (les iris de fisher), une application a des donnees provenant d'une etude de marketing politique (500 personnes), et un test comparatif avec l'algorithme k-means d'hartigan et engleman. Les resultats de ces tests indiquent que le modele typer peut etre applique avec confiance sur des enquetes de grande envergure
The objective of this thesis is to design and test a new factor analytical model, "typer", conceived specifically for one of the tasks most frequently encountered in marketing: the clustering of personnes. The factor analytical model usually employed in this case (principal components, type q: pc) has several drawbacks. Typer corrects these, treating much larger samples with greater validity. The thesis is organized in five chapters. The first represents a synthesis of the various uses of factor analysis based on examples taken from the major marketing journals. The second chapter traces the development of factor analysis from its origins at the turn of the century to the present time. The third chapter describes the different stages of factor analytical applications along with a discussion of the advantages and disadvantages of the various options of each stage. The fourth chapter presents the mathematical development of the typer model along with numerical examples. Finally, the fifth chapter tests typer by submitting it to four trials: a comparative test with pc, a test based on biological data (fisher's iris data), an analysis of data taken from a political marketing study (500 persons), and a comparative test with a typical clustering algorithm (hartigan and engleman's k-means). Based on these tests, typer can be applied with confidence to large-scale marketing studies
Styles APA, Harvard, Vancouver, ISO, etc.
23

Benasser, Ahmer. « L'accessibilité dans les réseaux de Pétri : une approche basée sur la programmation par contraintes ». Lille 1, 2000. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2000/50376-2000-65.pdf.

Texte intégral
Résumé :
Le problème de l'accessibilité est d'un grand intérêt théorique. En effet, plusieurs problèmes relatifs à l'analyse des réseaux de Pétri peuvent être formulés en terme d'accessibilité. L'exploration du graphe d'accessibilité n'est pas une méthode de résolution satisfaisante du fait de l'explosion combinatoire. La notion de marquage partiel, permet de réduire cet explosion combinatoire. Les marquages partiels sont des marquages dont les composantes contiennent des variables contraintes. Ainsi, un marquage partiel représente un ensemble de marquages obtenus en instanciant les variables tout en respectant la contrainte qui les lie. De la même facon, un step partiel est un step non-clos et dénote ainsi un ensemble de steps. Le tir d'un step partiel à partir d'un marquage partiel capture le tir de n'importe quel step à partir d'un marquage quelconque représente par le marquage partiel. Nous montrons que la recherche de l'accessibilité d'un marquage peut être réduit à une recherche d'un marquage donné dans une séquence de marquages partiels
La complexité de l'exploration du graphe d'accessibilité est alors repoussée au niveau de la résolution de contraintes : la propagation des contraintes nous interdit d'explorer les branches qui correspondent à des séquences de steps qui ne mènent pas au marquage final désiré. Pour résoudre les problèmes d'ordonnancement, il est nécessaire d'introduire l'aspect temporel. Nous définissons un modèle de réseau de Pétri temporisé et autonome. A chaque marquage, nous associons une date pour chacune des places. Cette date correspond à la date de création du dernier jeton dans cette place. Ainsi, le temps n'est pas contrôlée par une horloge externe. Ce sont les tirs des transitions qui font varier localement au niveau des places le temps. L'algorithme d'accessibilité peut alors être adapté pour ce type de réseau. Nous obtenons alors des séquences de tirs dates qui peuvent etre interprétés comme des ordonnancements réalisables
Styles APA, Harvard, Vancouver, ISO, etc.
24

Varnier, Christophe. « Extensions du "Hoist scheduling problem" cyclique : résolution basée sur un traitement des contraintes disjonctives en programmation en logique avec contraintes ». Besançon, 1996. http://www.theses.fr/1996BESA2006.

Texte intégral
Résumé :
Cette thèse présente la résolution de deux extensions d'un problème connu dans la littérature sous le nom de «Hoist Scheduling Problem» cyclique. Ce problème est lié au pilotage des chaînes automatisées de galvanoplastie dans lesquelles un ou plusieurs robots doivent assurer la manutention de tous les produits présents sur la ligne. Après une analyse de l'état de la recherche concernant ce problème particulier, le deuxième chapitre est consacré à une étude de l'adéquation des outils de Programmation en Logique avec Contraintes pour la résolution des problèmes d'ordonnancement et plus particulièrement du «Hoist Scheduling Problem» cyclique. La troisième partie de la thèse s'articule autour de l'étude des solveurs de contraintes et du problème lié à la résolution de contraintes linéaires mutuellement exclusives. Une méthode d'arbitrage de ces disjonctions est présentée. L'approche proposée vise à réduire la taille de l'arbre de recherche d'une solution, par une élimination de nombreux points de choix et par une détection des echecs au plut tôt. Une application de cette procédure de résolution est réalisée pour deux extensions du «Hoist Scheduling Problem» cyclique. La première porte sur les changements de gammes opératoires pour les productions, dites par campagne, où des lots de pièces identiques se succèdent sur la ligne. Un ordonnancement cyclique des mouvements des robots assure la production de chaque lot individuellement. L'approche proposée, dans ce mémoire, permet la recherche d'ordonnancements transitoires admissibles pour le passage d'une production cyclique mono-produit à une autre. Enfin, une étude de l'implantation physique des cuves d'une ligne simple à un seul robot est développée. Un algorithme permettant de trouver simultanément l'ordonnancement cyclique des mouvements du robot et l'implantation de la ligne est proposé
Styles APA, Harvard, Vancouver, ISO, etc.
25

Kerner, Sébastien. « Répartition d'entiers avec contraintes sur les diviseurs ». Nancy 1, 2002. http://www.theses.fr/2002NAN10239.

Texte intégral
Résumé :
Cette thèse est consacrée à l'étude de la répartition de trois ensembles de nombres entiers caractérisés par certaines propriétés de leurs diviseurs
This thesis deals with the distribution of three sets of integers characterized by some properties on their divisors
Styles APA, Harvard, Vancouver, ISO, etc.
26

Hariri, Yassine. « Amélioration de la méthode de diagnostic basée sur les signatures probabilistes de AIDDQ ». Mémoire, École de technologie supérieure, 2002. http://espace.etsmtl.ca/814/1/HARIRI_Yassine.pdf.

Texte intégral
Résumé :
Ce projet de maîtrise porte globalement sur l'amélioration d'une méthode existante de diagnostic des circuits intégrés, méthode basée sur l'utilisation des signatures probabilistes du courant. Les améliorations visées se situaient à différents niveaux. D'une part, il s'agissait d'accélérer la méthode en réduisant le nombre de sites potentiels de court-circuit. D'autre part, nous avions comme objectif de palier à certaines limitations de l'outil logiciel qui avait été développé pour permettre la validation de la méthode, comme le fait qu'il ne simule que les circuits purement combinatoires. La technique de réduction des sites physiques potentiels utilise les capacités parasites de routage extraites du dessin des masques du circuit. Les résultats d'expérimentation montrent que le pourcentage de réduction des sites physiques potentiels est toujours supérieur à 94%, et qu'il peut atteindre 99.99% dans le cas des circuits plus complexes. L'intégration de cette technique de réduction, a permis d'accélérer le processus de diagnostic. En effet, avec un nombre ainsi réduit de sites physiques, le programme converge plus rapidement vers la solution tout en utilisant moins de ressources matérielles. Du côté de l'outil logiciel d'émulation de la méthode, nous avons développé l'infrastructure nécessaire permettant de l'interfacer avec l'outil de simulation Verilog-xl de Cadence. Nous sommes donc maintenant en mesure d'utiliser la méthode de diagnostic sur des circuits combinatoires et séquentiels.
Styles APA, Harvard, Vancouver, ISO, etc.
27

Belkaloul, Amine. « Modélisation des systèmes multi-corps rigides basée sur la méthode des réseaux virtuels ». Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27391/27391.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
28

Soltane, Schahrazad. « Proposition d'une méthode de segmentation adaptative basée sur les indices locaux de l'image ». Valenciennes, 1999. https://ged.uphf.fr/nuxeo/site/esupversions/b7835e54-366a-479a-93e5-e380754067c1.

Texte intégral
Résumé :
Le problème du traitement numérique de l'image est apparu il y a une trentaine d'années avec l'avènement des ordinateurs. Les chercheurs se sont rapidement aperçus de la complexité du problème. En effet, l'image numérique est une matrice de valeurs d'intensités lumineuses, noyée d'informations inutiles (bruit, redondance,). Pour remédier à ce problème, les chercheurs ont développé des filtres pour atténuer le bruit, des méthodes d'extraction de contours, ainsi que des méthodes d'extraction de régions pour réduire la quantité de données nécessaires. Le regroupement des contours et des régions extraites doit aboutir à une transformation de l'information image en objets interprétables. C’est ce qu'on appelle, la segmentation. Dans la conception des algorithmes de segmentation correspondant à des applications données, le choix des opérateurs et des mesures est difficile, il reste lié aux applications. L’opérateur idéal doit être capable d'extraire les informations pertinentes. Il est caractérisé par son effet sur les détails de n'importe quel type d'image (image à contours rapprochés, à contours flous, image texturée, faible rapport signal sur bruit). La recherche menée vise à définir une méthode générale de segmentation d'images de manière à pouvoir faire coopérer divers opérateurs d'extractions de contours. Le but recherché était la sélection et l'adaptation de méthodes existantes en fonction de leur efficacité dans un contexte déterminé. Cela a été rendu possible grâce à une évaluation de la détection et à l'observation de présence d'informations indiciaires à chaque fois qu'une méthode a été qualifiée d'adéquate.
Styles APA, Harvard, Vancouver, ISO, etc.
29

Ayoub, Rama. « Développement d’une méthode de discrétisation des EDPs basée sur le calcul extérieur discret ». Thesis, La Rochelle, 2020. https://tel.archives-ouvertes.fr/tel-03327048.

Texte intégral
Résumé :
Le DEC (Discrete exterior calculus) est un intégrateur géométrique basé sur le calcul extérieur, qui a été appliqué avec succès dans différents domaines, en particulier en électromagnétisme et en mécanique des fluides isothermes. Sa construction combinatoire garantit que, comme dans le cas continu, l'opérateur dérivé extérieur discret d vérifie la relation fondamentale d²=0. Par conséquent, les relations d'analyse vectorielle telles que div curl = 0 et curl grad = 0 sont naturellement satisfaites à la précision machine. Un opérateur crucial en calcul extérieur est l’opérateur de Hodge. Un choix populaire de l’opéateur de Hodge discret est le Hodge diagonal. Sa construction est basée sur un maillage dual circoncentrique. Dans la première partie de cette thèse, l’application du DEC en mécanique des fluides sur des écoulements anisothermes, en utilisant la formulation fonction de courant est présentée. Ensuite, dans la deuxième partie, une nouvelle construction de l’opérateur de Hodge discret est proposée. Cet opérateur appelé opérateur de Hodge analytique est général, et donc élargit le choix du maillage dual qui peut être basé sur n’importe quel point intérieur (circoncentre, barycentre, incentre …). Des tests numériques révélant des bons résultats sont effectués et la convergence sur différents types de maillages (structurés, non structurés, non-Delaunay) est présentée. Dans la dernière partie de la thèse, nous introduisons l’expression équivalente des conditions aux limites de Neumann dans le contexte du DEC en 2D. La dérivation de cette expression peut s’effectuer sur tout type de maillage et indépendamment du choix de la discrétisation de l'opérateur de Hodge. Cela nous permet de résoudre les équations de Navier-Stokes en variables primaires vitesse-pression via des schémas de prédiction-correction adaptés au DEC. Dans un dernier chapitre, les développements précédents sont étendus au cas 3D. Dans chaque contribution, différents tests numériques évaluant la robustesse et la convergence sur différents types de maillage sont présentés
DEC (Discrete exterior calculus) is a geometric integrator based on exterior calculus, which has been successfully applied to different fields, namely to electromagnetism and isothermal fluid mechanics. Its combinatorial construction ensures that, as in the continuous case, the discrete exterior derivative operator d verifies the fundamental relation d²=0. As a consequence, vector analysis relations such as div curl = 0 and curl grad = 0 are naturally satisfied at machine precision during the simulation. A crucial operator in exterior calculus is the Hodge operator. One of the most popular choice of discrete Hodge operator in DEC is the diagonal Hodge. Its construction is based on a circumcentric dual mesh. In this thesis, the application of the DEC in fluid mechanics on anisothermal flows,in the context of a formulation with a stream function is first presented. Then, in the second part of the thesis, a new construction of the discrete Hodge operator is proposed. The new operator called the analytical Hodge operator is general and thus extends the choice of the dual mesh which can be based on any interior point (circumcenter, barycenter, incenter ...). Numerical tests revealing the good results of our construction are performed and convergence on different types of meshes (structured, unstructured, non-Delaunay) is presented.In the last part of the thesis, we introduce the equivalent expression of Neumann boundary conditions in the context of DEC in 2D meshes. The derivation of this expression can be performed on any type of mesh and independently of the choice of discretization of the Hodge operator. This allows us to solve Navier-Stokes equations in primary variables (velocity-pressure) using prediction-correction schemes in the context of DEC. In the last chapter, the previous developments are extended to the 3D case. In each contribution, different numerical tests evaluating robustness and convergence on different types of meshes are presented
Styles APA, Harvard, Vancouver, ISO, etc.
30

Bouzefrane, Samia. « Etude temporelle des applications temps réel distribuées à contraintes strictes basée sur une analyse d'ordonnançabilité ». Poitiers, 1998. http://www.theses.fr/1998POIT2254.

Texte intégral
Résumé :
Ce travail presente une methodologie de modelisation et de validation d'applications temps reel reparties. Ces applications composees de taches reparties sur differents sites communiquent par echange de messages a travers un reseau de communication a delai d'acces borne suppose fiable. La methodologie developpee est basee sur une analyse d'ordonnancabilite des taches et des messages. L'objectif est d'une part de verifier le respect des contraintes temporelles globales d'une application temps reel repartie c'est a dire le respect, a la fois, des contraintes temporelles des taches et de celles des messages echangees entre ces taches et d'autre part d'utiliser les sequences d'execution obtenues pour faire une analyse de performance. Cette methodologie comprend trois etapes : la modelisation de l'application basee sur un modele temporel des taches, la prise en compte de la communication par derivation des parametres temporels des taches et l'ordonnancement des taches sur les sites et des messages sur le medium de communication. Un outil, appele mosarts, qui integre un calcul des criteres de performance implemente cette methodologie d'analyse.
Styles APA, Harvard, Vancouver, ISO, etc.
31

Roquemaurel, Marie de. « Planification de coût optimal basée sur les CSP pondérés ». Toulouse 3, 2009. http://thesesups.ups-tlse.fr/520/.

Texte intégral
Résumé :
Un des challenges actuels de la planification est la résolution de problèmes pour lesquels on cherche à optimiser la qualité d'une solution telle que le coût d'un plan-solution. Dans cette thèse, nous développons une méthode originale pour la planification de coût optimal dans un cadre classique non temporel et avec des actions valuées. Pour cela, nous utilisons une structure de longueur fixée appelée graphe de planification. L'extraction d'une solution optimale, à partir de ce graphe, est codée comme un problème de satisfaction de contraintes pondérées (WCSP). La structure spécifique des WCSP obtenus permet aux solveurs actuels de trouver, pour une longueur donnée, une solution optimale dans un graphe de planification contenant plusieurs centaines de nœuds. Nous présentons ensuite plusieurs méthodes pour déterminer la longueur maximale des graphes de planification nécessaire pour garantir l'obtention d'une solution de coût optimal. Ces méthodes incluent plusieurs notions universelles comme par exemple la notion d'ensembles d'actions indispensables pour lesquels toutes les solutions contiennent au moins une action de l'ensemble. Les résultats expérimentaux effectués montrent que l'utilisation de ces méthodes permet une diminution de 60% en moyenne de la longueur requise pour garantir l'obtention d'une solution de coût optimal. La comparaison expérimentale avec d'autres planificateurs montre que l'utilisation du graphe de planification et des CSP pondérés pour la planification optimale est possible en pratique même si elle n'est pas compétitive, en terme de temps de calcul, avec les planificateurs optimaux récents
For planning to come of age, plans must be judged by a measure of quality, such as the total cost of actions. This thesis describes an optimal-cost planner in the classical planning framework except that each action has a cost. We code the extraction of an optimal plan, from a planning graph with a fixed number k of levels, as a weighted constraint satisfaction problem (WCSP). The specific structure of the resulting WCSP means that a state-of-the-art exhaustive solver was able to find an optimal plan in planning graphs containing several thousand nodes. We present several methods for determining a tight bound on the number of planning-graph levels required to ensure finding a globally optimal plan. These include universal notions such as indispensable sets S of actions: every valid plan contains at least one action in S. Different types of indispensable sets can be rapidly detected by solving relaxed planning problems related to the original problem. On extensive trials on benchmark problems, the bound on the number of planning-graph levels was reduced by an average of 60% allowing us to solve many instances to optimality. Thorough experimental investigations demonstrated that using the planning graph in optimal planning is a practical possibility, although not competitive, in terms of computation time, with a recent state-of-the-art optimal planner
Styles APA, Harvard, Vancouver, ISO, etc.
32

Ioan, Daniel. « Safe Navigation Strategies within Cluttered Environment ». Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG047.

Texte intégral
Résumé :
Cette thèse se rapporte à la navigation et le contrôle par optimisation dans des environnements multi-obstacles. Le problème de conception est généralement énoncé dans la littérature en termes de problème d'optimisation sous contrainte sur un domaine non convexe. Ainsi, en s'appuyant sur la combinaison du contrôle prédictif de modèle et des concepts de la théorie des ensembles, on a développe des méthodes constructives basées sur l'interprétation géométrique. Dans sa première partie, la thèse se concentre sur la représentation de l'environnement multi-obstacles, basée sur une analyse approfondie des résultats récents dans le domaine. Ainsi, on a choisi d'exploiter une classe particulière d'ensembles convexes (dotés de la propriété de symétrie) afin de modéliser l'environnement, réduire la complexité et améliorer les performances. De plus, on a résolve un problème ouvert dans la navigation dans des environnements encombrés : le partitionnement de l'espace faisable en fonction de la distribution des obstacles. Le cœur de cette méthodologie est la construction d'un convex lifting qui se résume à une optimisation convexe. On a couvré à la fois les fondements mathématiques et les détails informatiques de l'implémentation. Enfin, on a illustré les concepts par des exemples géométriques et on a complété l'étude en fournissant des garanties de faisabilité globale et en améliorant le contrôle effectif au niveau stratégique
This thesis pertains to optimization-based navigation and control in multi-obstacle environments. The design problem is commonly stated in the literature in terms of a constrained optimization problem over a non-convex domain. Thus, building on the combination of Model Predictive Control and set-theoretic concepts, we develop a couple of constructive methods based on the geometrical interpretation. In its first part, the thesis focuses based on a thorough analysis of the recent results in the field on the multi-obstacle environment's representation. Hence, we opted to exploit a particular class of convex sets endowed with the symmetry property to model the environment, reduce complexity, and enhance performance. Furthermore, we solve an open problem in navigation within cluttered environments: the feasible space partitioning in accordance with the distribution of obstacles. This methodology's core is the construction of a convex lifting which boils down to convex optimization. We cover both the mathematical foundations and the computational details of the implementation. Finally, we illustrate the concepts with geometrical examples, and we complement the study by further providing global feasibility guarantees and enhancing the effective control by operating at the strategical level
Styles APA, Harvard, Vancouver, ISO, etc.
33

Turki, Sadok. « Impact du délai de livraison sur le niveau de stock : une approche basée sur la méthode IPA ». Thesis, Metz, 2010. http://www.theses.fr/2010METZ029S/document.

Texte intégral
Résumé :
Le monde industriel actuel ne cesse pas d'évoluer. La concurrence accrue, la grande diversification des produits demandés, le développement du commerce électronique, l'augmentation des échanges de données entre donneurs d'ordres et le producteur, sont autant de facteurs qui poussent les entreprises à continuellement optimiser leurs systèmes de production afin de produire et de livrer dans des délais précis, à des coûts réduits, en satisfaisant des niveaux de service élevés exigés par les clients. Ceci nécessite l'utilisation de méthodes bien adaptées pouvant guider le concepteur dans les choix qu'il est amené à faire lors des phases de conception. C'est pourquoi, dans notre thèse, nous nous sommes donc intéressés à développer une méthodologie qui va permettre aux entreprises de prendre des décisions fiables soient lors de la conception et le pilotage du système de production en identifiant et modélisant les phénomènes aléatoires (comme la demande, les pannes des machines) et en intégrant explicitement le délai de livraison dans le modèle. Ainsi, dans la première partie de notre travail, nous avons étudié un système de production constitué par une machine, un stock de capacité infinie et un client qui demande à chaque instant une quantité de produit. Nous avons appliqué à ce système un modèle à flux continus avec prise en compte d'un temps de livraison constant. Afin d'évaluer les performances de notre système, nous nous sommes basés sur la méthode d'analyse des perturbations infinitésimale (IPA) et nous avons réalisé des simulations à l'aide d'un algorithme basé sur cette méthode pour déterminer le niveau du stock optimal qui minimise la fonction de coût total. Ce coût total est la somme du coût de stockage, du coût de rupture et du coût de transport. Dans la deuxième partie de notre travail, nous avons appliqué, pour le même système que celui étudié dans la première partie, un modèle à flux discrets. La méthode d'analyse des perturbations infinitésimale (IPA) est également appliquée pour ce modèle pour déterminer le niveau de stock optimal. L'application de cette méthode à un modèle à flux discrets est une innovation. En effet, D'après nos connaissances, il n'existe pas des travaux qui appliquent la méthode IPA à des modèles à flux discrets. Dans la dernière partie de notre thèse, nous avons considéré un système de production avec un délai de livraison planifié entre le client et le producteur. Nous avons ensuite étudié l'impact des coûts de livraison sur le niveau de stock optimal. La méthode d'analyse des perturbations infinitésimale est également appliquée pour les deux types de modèles (modèles à flux continus et discrets)
The first part of our work, we study a manufacturing system composed of a machine, a buffer with infinite capacity and customer. We applied this to system a continuous flow model taking into account a constant delivery time. To evaluate the performance of our system, we relied on the method of infinitesimal perturbation analysis (IPA), we performed simulations using an algorithm based on this method to determine the optimal buffer level which minimizes the cost function. This total cost is the sum of inventory cost, backlog cost and transportation cost. In the second part of our work, we applied a discrete flow model to the same system studied in the first part. The infinitesimal perturbation analysis method (IPA) is also applied to this model to determine the optimal inventory level. Applying this method to a discrete flow model is an innovation. Indeed, as we know, there is no work applying the method to IPA models to discrete flow. In the last part, we considered a manufacturing system with a random delivery time between the costumer and the producer. Then we studied the impact of transportation costs on the optimal buffer level. The method of infinitesimal perturbation analysis is also applied for both types of models (discrete flows and continuous flows model)
Styles APA, Harvard, Vancouver, ISO, etc.
34

Babau, Jean-Philippe. « Etude du comportement temporel des applications temps réel à contraintes strictes basée sur une analyse d'ordonnançabilité ». Poitiers, 1996. http://www.theses.fr/1996POIT2305.

Texte intégral
Résumé :
Les applications temps reel a contraintes strictes sont des applications multitaches ou les contraintes temporelles (delais d'execution) doivent etre strictement satisfaites. La methodologie developpee permet la validation de ce type d'applications. L'environnement de conception integre la prise en compte des requetes periodiques et aperiodiques et des schemas de programmes exprimant des cooperations fixes ou variables entre les taches. Apres transformation de ce modele comportemental de l'application en un ensemble de taches sous forme normale associees a un graphe de precedence, la validation est basee sur une analyse d'ordonnancabilite. Cette validation est effectuee sur les comportements realistes de l'application et permet d'evaluer les performances temporelles de l'application. Une optimisation des caracteristiques temporelles est alors possible afin d'ameliorer ses performances
Styles APA, Harvard, Vancouver, ISO, etc.
35

Bouet, Mathieu. « Localisation en trois dimensions de tags RFID basée sur les informations de connectivité ». Paris 6, 2009. http://www.theses.fr/2009PA066361.

Texte intégral
Résumé :
La radio-identification (RFID) est une méthode pour lire à distance des identifiants contenus dans des appareils électroniques appelés tags. Cette technologie qui permet la traçabilité des personnes et des objets est amenée à supporter le développement de services ambiant-intelligents en associant une position à chaque identité. Dans cette thèse, nous proposons une nouvelle approche générale pour la localisation des tags. Elle repose sur les données intrinsèques de ces systèmes: les informations de connectivité. Celles-ci sont converties en contraintes topologiques afin de délimiter la zone de présence de chaque tag. Notre approche supporte l'hétérogénéité des équipements, des environnements et l'estimation de positions 3-D. Nous la développons en proposant deux méthodes de localisation. La première, OpTop, repose sur une technique d'optimisation où une fonction-coût et un ensemble de contraintes relatives à la position du tag sont définis à partir des informations de connectivité. La seconde, L-VIRT, consiste à discrétiser l'espace pour délimiter l'intersection du maximum de contraintes topologiques relatives au tag et ainsi son volume de présence.
Styles APA, Harvard, Vancouver, ISO, etc.
36

Verney, Philippe. « Interprétation géologique de données sismiques par une méthode supervisée basée sur la vision cognitive ». Phd thesis, École Nationale Supérieure des Mines de Paris, 2009. http://pastel.archives-ouvertes.fr/pastel-00005861.

Texte intégral
Résumé :
L'objectif de ce travail est de réaliser une nouvelle plateforme d'interprétation sismique 3D semi-automatique basée sur la connaissance géologique employée aujourd'hui par les experts du domaine. A l'heure actuelle, la majeure partie des solutions sont basées sur les traitements d'image et l'utilisation de quantités d'attributs sismiques. Elles fournissent un résultat interprétable par un expert qui réalise alors une correspondance informelle entre la nouvelle image obtenue et des objets géologiques. Nous désirons explorer une nouvelle méthodologie mettant en avant la formalisation de la connaissance utilisée dans l'interprétation sismique comme la vision cognitive le permet et le conseille. Ainsi, nous caractérisons le résultat des traitements d'images opérés sur le bloc sismique grâce à des concepts et à relations visuelles provenant d'une ontologie dédiée. Ces caractéristiques nous permettent alors de formaliser l'interprétation d'objets géologiques à partir de ces instances et ainsi de proposer de manière automatique des solutions d'interprétation d'un bloc sismique, que l'expert pourra choisir de valider. Dans ce travail, nous avons à coeur de nous concentrer sur l'identification de deux premiers objets géologiques à identifier dans une image sismique : les horizons et les failles. Une ontologie de ce domaine d'étude est proposée afin de servir de base pour la création de la plateforme.
Styles APA, Harvard, Vancouver, ISO, etc.
37

Kahlaoui, Abdelilah. « Méthode pour la définition des langages dédiés basée sur le métamodèle ISO/IEC 24744 ». Mémoire, École de technologie supérieure, 2011. http://espace.etsmtl.ca/887/1/KAHLAOUI_Abdelilah.pdf.

Texte intégral
Résumé :
Au cours des dernières années, il y a eu un intérêt croissant pour les langages dédiés (Domain Specific Languages (DSL)). Cet intérêt est motivé par l'émergence d'approches telles que l’ingénierie dirigée par les modèles, l’architecture dirigée par les modèles, les lignes de produits logiciels (SPL), les usines à logiciels et le développement dirigé par les modèles. Alors qu’au fond l'objectif de ces approches est d'élever le niveau d'abstraction du développement logiciel et d’augmenter le degré d’automatisation en utilisant des modèles de domaine précis et facilement exploitables par les machines, on constate que ces approches manquent de langages capables de produire de tels modèles et qu’elles sont toujours à la recherche de solutions pour mieux soutenir le développement selon ce nouveau paradigme. À cet égard, beaucoup de spécialistes considèrent les langages dédiés comme une solution capable d’aller au delà des modèles limités à la documentation et de produire des modèles précis prêts à être traités automatiquement par la machine. Les langages dédiés ont démontré un grand potentiel pour augmenter la productivité, améliorer la maintenabilité, élever le niveau d'abstraction, et produire des modèles exécutables. Toutefois, le développement de langages dédiés fiables et intègres est une activité difficile et coûteuse qui demande à la fois une connaissance du domaine et des compétences en développement des langages. Ainsi, l’établissement d’une infrastructure rendant le développement de DSL plus facile et plus accessible constituera une étape importante vers la concrétisation et la consolidation des approches dirigées par les modèles. Afin de développer cette infrastructure, nous pensons que les efforts doivent être axés sur trois domaines principaux : 1) les processus qui permettent d’offrir une approche disciplinée en matière de développement des DSL, 2) les outils pour soutenir le développement et la maintenance de ces DSL et 3) les standards pour assurer l’unification du développement et l’interopérabilité entre les outils. Cette thèse est une contribution au domaine des processus. Nous y proposons une méthode de développement de DSL basée sur la norme ISO/IEC 24744 (Software Engineering- Metamodel for Development Methodologies - SEMDM). La méthode est générée à partir du métamodèle décrit dans la norme. Elle décrit, entre autres, les activités et les tâches à exécuter lors du développement d’un DSL, les artefacts à manipuler (créer, utiliser ou modifier) et les personnes impliquées. La méthode fournit également, lorsque possible, des techniques et des lignes directrices expliquant comment certains éléments de la méthode peuvent être utilisés.
Styles APA, Harvard, Vancouver, ISO, etc.
38

Pontico, Florence. « Une méthode de conception basée sur des patrons d'interface pour les applications d'e-Gouvernement ». Toulouse 3, 2008. http://thesesups.ups-tlse.fr/283/.

Texte intégral
Résumé :
Le développement d'applications d'e-Gouvernement doit surmonter des difficultés inhérentes aux caractéristiques du domaine. D'une part la dématérialisation des procédures administratives fait intervenir une équipe de conception multidisciplinaire qui a besoin d'outils communs adaptés pour dialoguer. D'autre part, les applications doivent être accessibles au plus grand nombre ce qui nécessite une attention toute particulière à la conception des interfaces. Dans ce contexte, il est important d'indiquer que les applications d'e-Gouvernement présentent beaucoup de similitudes, ce qui renforce le besoin d'homogénéisation des interfaces utilisateurs. Ce travail étudie et propose une méthode de conception qui favorise la mise en place de mécanismes d'homogénéisation des interfaces pour des applications d'e-Gouvernement selon une approche centrée utilisateur. La réflexion a été menée sur la base d'une étude théorique des moyens de mise à disposition des connaissances ergonomiques pour la conception d'interfaces. Cette revue de l'existant a été complétée par une étude ethnographique menée dans une entreprise dédiée à la conception d'applications d'e-Gouvernement. Suite à ces études, cette thèse présente : a) une méthode de conception basée sur des patrons d'interfaces qui guide la conception d'applications d'e-Gouvernement utilisables ; b) un catalogue de patron qui propose des solutions (prouvées rationnellement ou empiriquement) à des problèmes de conception d'interfaces connus et récurrents ; c) un outil guidant la personnalisation des patrons d'interface concernant l'enchaînement d'écrans ; et d) une étude sur l'utilisation effective de ces patrons d'interfaces sur le terrain
The design of e-Government applications has to cope with inherent difficulties of the domain. On one hand, the dematerialisation of administrative procedures involves a multidisciplinary design team which needs customised tools to support their discussions. On the other hand, e-Government applications have to be accessible to the wider audience, which requires a lot of attention on the design of user interfaces. In this context, one should note that e-Government applications show lots of similarities, which reinforces the need for interfaces homogenisation. This work studies and proposes a design method allowing the settlement of homogenisation mechanisms in user-centred design of e-Government applications. The reflexion began with a theoretical study of available means to store and display ergonomic knowledge for interface design. This review of existing methods was completed by an ethnographic study in the field, within an IT firm devoted to the design of e-Government applications. On the basis of these observations, this thesis presents: a) a design method based on interface patterns to guide the design of usable e-Government applications; b) a catalogue of patterns providing solutions (rationally or empirically proven) to recurrent interface design problems; c) a tool supporting the personalisation of screen flows patterns; and d) an evaluation on the effective use of interface patterns in the field
Styles APA, Harvard, Vancouver, ISO, etc.
39

Guglielmino, Maud. « Développement d'une nouvelle méthode analytique du formaldéhyde dans l'air basée sur un dispositif microfluidique ». Thesis, Strasbourg, 2014. http://www.theses.fr/2014STRAF048.

Texte intégral
Résumé :
Le formaldéhyde (HCHO) est un polluant majeur de l’air intérieur. L’objectif de cette thèse est de réaliser les avancées scientifiques et technologiques nécessaires à l’obtention d’une méthode analytique basée sur un dispositif microfluidique de mesure du formaldéhyde dans l’air associant précision, sélectivité, rapidité d’analyse avec pour objectif majeur une autonomie suffisante sur de longues durées, typiquement un mois. Le principe de la méthode reposait initialement sur trois étapes clés, à savoir le piégeage du formaldéhyde gazeux en solution, la réaction du formaldéhyde avec un agent dérivatif, puis la détection du produit de dérivation par colorimétrie ou fluorimétrie. La méthode a finalement évolué vers seulement deux étapes distinctes grâce à l’utilisation d’un dispositif microfluidique innovant dans lequel le piégeage et la réaction ont lieu simultanément. L’étude des performances analytiques du dispositif a permis de valider la méthode développée pendant cette thèse
Formaldehyde (HCHO) is a major pollutant in indoor air. The objective of this work is to realize the scientific and technological advances required to obtain an analytical method based on a microfluidic device to measure air formaldehyde combining precision, selectivity, analysis speed with for major objective a sufficient autonomy on a long time, typically one month. The principle of the method was initially based on three key steps, the gaseous formaldehyde uptake in solution, the formaldehyde derivatization reaction, then the detection of reaction product by colorimetry or fluorimetry. The method has finally advanced toward only two definite steps thanks to the use of an innovative microfluidic device in which uptake and reaction take place simultaneously. The study of analytical performances of the device allows to validate the method developedduring this work
Styles APA, Harvard, Vancouver, ISO, etc.
40

Bui, Thi Thu Cuc. « Simulation des écoulements bifluides, une stratégie de couplage basée sur l'adaptation de maillage anisotrope ». Paris 6, 2009. http://www.theses.fr/2009PA066372.

Texte intégral
Résumé :
On s'intéresse ici à la simulation d'écoulements bifluides visqueux incompressibles et immiscibles, régis par les équations de Stokes. Une stratégie de couplage basée sur l'adaptation de maillage anisotrope permet un suivi précis de l'évolution de l'interface gouvernée par une équation d'advection. Dans la première partie de ce travail, on aborde les aspects théoriques liés au modèle des écoulements bifluides. En particulier, on propose un préconditionnement efficace lorsque le rapport des viscosités est important et on présente un schéma numérique basé sur la méthode de caractéristiques pour résoudre l'équation d'advection. L'utilisation des triangulations anisotropes raffinées au voisinage de l'interface permet une capture précise de celle-ci avec un nombre minimal de degrés de liberté. Dans la seconde partie, on présente des résultats numériques dans plusieurs domaines d'applications obtenus avec cette approche pour illustrer les différents aspects de notre stratégie de couplage.
Styles APA, Harvard, Vancouver, ISO, etc.
41

Thieffry, Maxime. « Commande dynamique de robots déformables basée sur un modèle numérique ». Thesis, Valenciennes, Université Polytechnique Hauts-de-France, 2019. http://www.theses.fr/2019VALE0040/document.

Texte intégral
Résumé :
Cette thèse s’intéresse à la modélisation et à la commande de robots déformables, c’est à dire de robots dont le mouvement se fait par déformation. Nous nous intéressons à la conception de lois de contrôle en boucle fermée répondant aux besoins spécifiques du contrôle dynamique de robots déformables, sans restrictions fortes sur leur géométrie. La résolution de ce défi soulève des questions théoriques qui nous amènent au deuxième objectif de cette thèse: développer de nouvelles stratégies pour étudier les systèmes de grandes dimensions. Ce manuscrit couvre l’ensemble du développement des lois de commandes, de l’étape de modélisation à la validation expérimentale. Outre les études théoriques, différentes plateformes expérimentales sont utilisées pour valider les résultats. Des robots déformables actionnés par câble et par pression sont utilisés pour tester les algorithmes de contrôle. A travers ces différentes plateformes, nous montrons que la méthode peut gérer différents types d’actionnement, différentes géométries et propriétés mécaniques. Cela souligne l’un des intérêts de la méthode, sa généricité. D’un point de vue théorique, les systèmes dynamiques à grande dimensions ainsi que les algorithmes de réduction de modèle sont étudiés. En effet, modéliser des structures déformables implique de résoudre des équations issues de la mécanique des milieux continus, qui sont résolues à l’aide de la méthode des éléments finis (FEM). Ceci fournit un modèle précis des robots mais nécessite de discrétiser la structure en un maillage composé de milliers d’éléments, donnant lieu à des systèmes dynamiques de grandes dimensions. Cela conduit à travailler avec des modèles de grandes dimensions, qui ne conviennent pas à la conception d’algorithmes de contrôle. Une première partie est consacrée à l’étude du modèle dynamique à grande dimension et de son contrôle, sans recourir à la réduction de modèle. Nous présentons un moyen de contrôler le système à grande dimension en utilisant la connaissance d’une fonction de Lyapunov en boucle ouverte. Ensuite, nous présentons des algorithmes de réduction de modèle afin de concevoir des contrôleurs de dimension réduite et des observateurs capables de piloter ces robots déformables. Les lois de contrôle validées sont basées sur des modèles linéaires, il s’agit d’une limitation connue de ce travail car elle contraint l’espace de travail du robot. Ce manuscrit se termine par une discussion qui offre un moyen d’étendre les résultats aux modèles non linéaires. L’idée est de linéariser le modèle non linéaire à grande échelle autour de plusieurs points de fonctionnement et d’interpoler ces points pour couvrir un espace de travail plus large
This thesis focuses on the design of closed-loop control laws for the specific needs of dynamic control of soft robots, without being too restrictive regarding the robots geometry. It covers the entire development of the controller, from the modeling step to the practical experimental validation. In addition to the theoretical studies, different experimental setups are used to illustrate the results. A cable-driven soft robot and a pressurized soft arm are used to test the control algorithms. Through these different setups, we show that the method can handle different types of actuation, different geometries and mechanical properties. This emphasizes one of the interests of the method, its genericity. From a theoretical point a view, large-scale dynamical systems along with model reduction algorithms are studied. Indeed, modeling soft structures implies solving equations coming from continuum mechanics using the Finite Element Method (FEM). This provides an accurate model of the robots but it requires to discretize the structure into a mesh composed of thousands of elements, yielding to large-scale dynamical systems. This leads to work with models of large dimensions, that are not suitable to design control algorithms. A first part is dedicated to the study of the large-scale dynamic model and its control, without using model reduction. We present a way to control the large-scale system using the knowledge of an open-loop Lyapunov function. Then, this work investigates model reduction algorithms to design low order controllers and observers to drive soft robots. The validated control laws are based on linear models. This is a known limitation of this work as it constrains the guaranteed domain of the controller. This manuscript ends with a discussion that offers a way to extend the results towards nonlinear models. The idea is to linearize the large-scale nonlinear model around several operating points and interpolate between these points to cover a wider workspace
Styles APA, Harvard, Vancouver, ISO, etc.
42

Roth, Simon-Nicolas. « Méthode de calcul numérique rapide en aéroélasticité non-linéaire basée sur l'équation du potentiel complet ». Mémoire, École de technologie supérieure, 2007. http://espace.etsmtl.ca/602/1/ROTH_Simon%2DNicolas.pdf.

Texte intégral
Résumé :
Ce travail présente le développement d'un outil de calcul capable de trouver la réponse aéroélastique d'une aile dans un délai assez court pour être en mesure d'optimiser sa structure ou sa géométrie. Le code aéroélastique parallèle utilise l'équation du potentiel complet discrétisé en différences finies. Le solveur fluide utilise un algorithme GMRES préconditionné. Une attention particulière est apportée sur la consistance de la discrétisation spatiale. La résolution structurale est réalisée par une superposition modale. Les algorithmes de couplage CSS (Conventional Serial Staggered) et ISS (lmproved Serial Staggered) sont comparés. L'algorithme CSS doit être itéré afin de bien représenter les non-linéarités lorsque l'écoulement est transsonique, ce qui n'est pas le cas pour l'algorithme ISS. La validation du code est effectuée en comparant avec succès la réponse dynamique obtenue expérimentalement et numériquement de l'aile AGARD 445.6. Le code est en mesure d'effectuer dix milles pas de temps par heure en distribuant le calcul sur 24 processeurs AMD 248 sur un réseau Infiniband pour un maillage d'environ 225k nouds.
Styles APA, Harvard, Vancouver, ISO, etc.
43

Puglisi, Chiara. « Factorisation QR de grandes matrices creuses basée sur une méthode multifrontale dans un environnement multiprocesseur ». Toulouse, INPT, 1993. http://www.theses.fr/1993INPT091H.

Texte intégral
Résumé :
Nous nous interessons a la factorisation qr de grandes matrices creuses carrees et sur-determinees dans un environnement mimd a memoire partagee. Nous supposons que le rang des vecteurs colonnes de ces matrices est maximal. Notre demarche est basee sur la methode multifrontale (duff et reid (1983)) et utilise les transformations de householder. Nous donnons une description detaillee de l'approche multifrontale pour la factorisation qr et de son implementation dans un environnement multiprocesseur. Nous montrons qu'en choisissant de facon adequate la strategie de factorisation de nuds, des gains considerables peuvent etre obtenus, aussi bien du point de vue de la memoire que du parallelisme et du temps de calcul. Un niveau de parallelisme supplementaire est utilise pour equilibrer le manque de parallelisme pres de la racine de l'arbre d'elimination. Par ailleurs, nous decrivons aussi comment modifier l'arbre d'elimination pour ameliorer les performances du code. Nous examinons ensuite les problemes de stabilite et de precision numerique de la factorisation qr en tant que methode de resolution des systemes lineaires et des problemes de moindres carres. Nous etudions l'influence du raffinement iteratif et du pivotage des lignes et montrons qu'il existe des matrices pour lesquelles une solution precise ne peut etre obtenue que si la factorisation qr est effectuee avec un pivotage par lignes et suivie de quelques etapes de raffinement iteratif. Finalement, nous etudions la factorisation qr en tant que methode de resolution des problemes de moindres carres et nous la comparons a trois autres approches classiques: la methode des equations normales, la methode des equations semi-normales, et l'approche par systeme augmente. La methode qr s'avere etre particulierement appropriee pour les problemes tres mal conditionnes. En outre, notre code parallele optimise est efficace sur toutes les classes de problemes que nous avons testees
Styles APA, Harvard, Vancouver, ISO, etc.
44

Cozette, Maryne. « Développement d'une méthode d'exploration de la balance musculaire basée sur la modélisation du signal isocinétique ». Electronic Thesis or Diss., Amiens, 2019. http://www.theses.fr/2019AMIE0018.

Texte intégral
Résumé :
Objectif : Proposer une alternative fiable, et plus proche de la réalité fonctionnelle, en utilisant une approche isocinétique sectorielle représentée par le calcul de ratios agonistes/antagonistes par plage angulaire de 10°. Matériel et Méthode : Trois études ont été menées, chaque étude portant sur des sites articulaires particulièrement impliqués dans la motricité humaine, et également très concernés par la survenue de blessure en lien avec la balance musculaire des principaux groupes stabilisateurs. Il s'agit respectivement de l'articulation scapulo-humérale (muscles rotateurs interne/externe), de l'articulation fémoro-tibiale (muscles fléchisseurs/extenseurs), et du rachis lombaire (muscles fléchisseurs/extenseurs). Les sujets étaient des volontaires sains, non spécialistes d'une pratique sportive. Les ratios par plage angulaire de 10° étaient comparés entre les plages angulaires et également par rapport aux ratios classiques associés aux valeurs "pic". La reproductibilité était évaluée pour l'ensemble des ratios. Résultats : Nos études ont montré que les ratios par plage angulaire étaient évolutifs au cours du mouvement et significativement différents des ratios classiques. De plus, nos résultats ont mis en exergue une bonne reproductibilité absolue des ratios associés aux plages angulaires de 10°. Conclusion : La méthode sectorielle associée aux plages angulaires de 10° permet une évaluation fiable et pertinente de la balance musculaire
Objective : The general objective was to propose a reliable alternative to assess agonists-antagonists muscle balance in dynamic perspective by using a sector approach: the angular range method. Material and method : Three studies were conducted, each study involving joint particularly involved in human motion, and also in injury occurence related to the muscle balance between the main joint stabilizers. These are respectively scapulohumeral joint (internal ans external rotator muscles), femoro-tibial joint (flexor and extensor muscles), and lumbar spine (flexor and extensor muscles). Subjects were healthy volunteers, not specialists in a sport. The ratios by angular range of 10° were compared between the angular ranges and also compared to the classical ratios associated with the peak torques. Reliability was evaluated for all ratios. Results : All studies have shown that angular range ratios were signicantly different between angular ranges and also significantly different to the classical peak torque ratios. In addition, the results have highlighted a good absolute reliability of the ratios associated with the angular ranges of 10°. Conclusion : The sector method associated with angular ranges of 10° allows a reliable and relevant assessment of the muscle balance by a finer analysis of a major parameter of muscle function involved in physiopathology and motor performance
Styles APA, Harvard, Vancouver, ISO, etc.
45

Marteau, Hubert. « Une méthode d'analyse de données textuelles pour les sciences sociales basée sur l'évolution des textes ». Tours, 2005. http://www.theses.fr/2005TOUR4028.

Texte intégral
Résumé :
Le but est d'apporter aux sociologues un outil informatique permettant l'analyse d'entretiens ouverts semi-directifs. Le traitement est en deux étapes : une indexation des entretiens suivi d'une classification. Les méthodes d'indexation habituelles reposent sur une analyse statistiques plus adaptées à des textes de contenu et de structure (textes littéraires, scientifiques,. . . ) marqués qu'à des entretiens limités à l'usage de peu de mots (1000 mots pour des textes de discussion). Partant de l'hypothèse que l'appartenance sociologique induit fortement la forme du discours, nous évaluons la structure et l'évolution des textes en proposant de nouvelles représentations des textes (image, signal) qui conduisent à l'extraction de valeurs indexant le texte, mesures statiques ou liées à l'évolution du texte. La classification choisie est arborée (NJ). Elle repose sur ces caractéristiques par sa faible complexité et son respects des distances, elle fournit une aide à la classification
This PhD Thesis aims at bringing to sociologists a data-processing tool wich allows them to analyse of semi-directing open talks. The proposed tool performs in two steps : an indexation of the talks followed by a classification. Usually, indexing methods rely on a general stastistical analysis. Such methods are suited for texts having contents and structure ( literary texts, scientific texts,. . . ). These texts have more vocabulary and structure than talks (limitation to 1000 words for suche texts). On the basis of the assumption that the sociological membership strongly induces the form of the speech, we propose various methods to evaluate the structure and the evolution of the texts. The methods attempt to find new representations of texts (image, signal) and to extract values from these new representations. Selected classification is a classification by trees (NJ). It has a low complexity and it respects distances, then this method is a good solution to provide a help to classification
Styles APA, Harvard, Vancouver, ISO, etc.
46

Nguyen, Huy-Hoang. « Coordination des avions pour la résolution de conflits : Une approche basée sur le graphe PERT disjonctif ». Compiègne, 2004. http://www.theses.fr/2004COMP1493.

Texte intégral
Résumé :
La forte croissance du trafic aérien, notamment dans l'espace européen, occasionne des situations de conflit plus complexes qui font augmenter la charge de travail des contrôleurs. Afin de trouver une solution globale pour un cluster comprenant plusieurs avions avec un grand nombre de conflits, on doit résoudre le problème de la coordination d'actions entre des avions pour la résolution des conflits. Ce problème est un problème combinatoire NP-difficile, si l'objectif est la minimisation du coût global. On ne connaît pas de méthode exacte donnant une solution globale à ce problème dans les situations où le trafic est dense. Dans cette thèse, nous élaborons une approche basée sur la théorie de l'ordonnancement et plus précisément sur les modèles disjonctifs: chaque cluster de n avions en conflit est modélisé par un graphe PERT disjonctif, chaque paire d'arcs disjonctifs représente un conflit entre deux avions impliqués dans le cluster. Il faut résoudre un problème classique d'ordonnancement avec des contraintes conjonctives et disjonctives dont l'objectif est la minimisation de la somme des retards. Le graphe PERT solution montre le séquencement des actions (manœuvres), que les avions impliqués dans le cluster devront effectuer pour la résolution des conflits. Cette nouvelle approche a été intégrée dans la plateforme de simulation eDEP. Elle a été expérimentée avec un cluster de 20 avions avec 37 conflits effectifs, et un cluster de 15 avions avec 49 conflits effectifs en des temps de calcul acceptables. Les résultats numériques obtenus montrent l'efficacité de l'approche basée sur l'ordonnancement disjonctif, que n'inclut pas la résolution de conflit.
Styles APA, Harvard, Vancouver, ISO, etc.
47

Champion, Julie. « Sur les algorithmes de projections en entropie relative avec contraintes marginales ». Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2036/.

Texte intégral
Résumé :
Cette thèse est centrée autour d'un algorithme de construction de mesures de probabilités à lois marginales prescrites, appelé Iterative Proportional Fitting (IPF). Issu de la statistique, cet algorithme est basé sur des projections successives sur des espaces de probabilités avec la pseudo-distance d'entropie relative de Kullback-Leibler. Cette thèse constitue un panorama des résultats disponibles sur le sujet, et contient quelques extensions et raffinements. La première partie est consacrée à l'étude des projections en entropie relative, à des critères d'existence, d'unicité ainsi que de caractérisation liés à la fermeture d'une somme de sous- espaces. Sous certaines conditions, le problème devient un problème de maximum d'entropie pour des contraintes marginales graphiques. La seconde partie met en avant le procédé itératif IPF. Répondant à l'origine à un problème d'estimation pour les tables de contingence, il constitue plus généralement un analogue d'un algorithme classique de projections alternées sur des espaces de Hilbert. Après avoir présenté les propriétés de l'IPF, on s'intéresse à des résultats de convergence dans le cas fini discret et dans le cas gaussien, ainsi qu'au cas continu à deux marginales, pour lequel une extension est proposée. On traite ensuite plus particulièrement du cas gaussien, pour lequel une nouvelle formulation de l'IPF permet d'obtenir une vitesse de convergence dans le cas à deux marginales prescrites, dont on montre l'optimalité en dimension 2
This work is focused on an algorithm of construction of probability measures with prescribed marginal laws, called Iterative Proportional Fitting (IPF). Deriving from statistical problems, this algorithm is based on successive projections on probability spaces for the relative entropy pseudometric of Kullback Leibler. This thesis consists in a survey of the current results on this subject and gives some extensions and subtleties. The first part deals with the study of projections in relative entropy, namely existence, uniqueness criteria, and characterization properties related to closedness of sumspaces. Under certain assumptions, the problem becomes a problem of maximisation of the entropy for graphical marginal constraints. In the second part, we study the iterative procedure IPF. Introduced initially for an estimation problem on contingency tables, it corresponds in a more general setting to an analogue of a classic algorithm of alternating projections on Hilbert spaces. After presenting the IPF properties, we look for convergence results in the finite discrete case, the Gaussian case, and the more general continuous case with two marginals, for which some extensions are given. Then, the thesis focused on Gaussian case with two prescribed marginal, for which we get a rate of convergence using a new formulation of the IPF. Moreover we prove the optimality for the 2-dimensional case
Styles APA, Harvard, Vancouver, ISO, etc.
48

Gascon, Régis. « Spécification et vérification de propriétés quantitatives sur des automates à contraintes ». Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2007. http://tel.archives-ouvertes.fr/tel-00441504.

Texte intégral
Résumé :
L'utilisation omniprésente des systèmes informatiques impose de s'assurer de leur bon fonctionnement. Dans ce but, les méthodes de vérification formelle permettent de suppléer les simulations qui ne peuvent être complètement exhaustives du fait de la complexité croissante des systèmes. Le model checking fait partie de ces méthodes et présente l'avantage d'être complètement automatisée. Cette méthode consiste à développer des algorithmes pour vérifier qu'une spécification exprimée la plupart du temps sous la forme d'une formule logique est satisfaite par un modèle du système. Les langages historiques de spécification utilisent comme formules atomiques des variables propositionnelles qui permettent d'exprimer principalement des propriétés portant sur les états de contrôle du modèle. Le but de cette thèse est de vérifier des propriétés plus riches portant sur diverses données manipulées par les modèles: des compteurs, des horloges ou des queues. Ces données peuvent prendre une infinité de valeurs et induisent donc des modèles avec un nombre infini d'états. Nous définissons un cadre général pour l'extension des logiques temporelles avec des contraintes permettant de comparer la valeur des variables a différents états de l'exécution. Nous établissons des résultats de décidabilité et complexité pour des problèmes de model checking impliquant diverses instances de ces extensions. Nous privilégions pour cela l'approche à base d'automates en combinant des constructions connues pour les logiques propositionnelles classiques avec des méthodes d'abstraction des modèles dont les variables sont interprétées dans des domaines infinis.
Styles APA, Harvard, Vancouver, ISO, etc.
49

Florentin, Eric. « Sur l'évaluation de la qualité locale des contraintes éléments finis en élasticité tridimensionnelle ». Cachan, Ecole normale supérieure, 2002. http://www.theses.fr/2002DENS0024.

Texte intégral
Résumé :
Nous proposons dans ce travail une méthode pour contrôler la qualité locale d'une solution éléments finis en élasticité 3D. A partir d'une étude détaillée de la méthode en 2D, qui repose sur une construction améliorée de champs en équilibre, l'extension de la méthode est proposée. En s'appuyant sur cette estimation locale, une estimation de la qualité de la contrainte de Von Mises ainsi qu'un problème d'adaptation de maillage avec objectif de qualité locale sont mis en oeuvre
We propose in this work a method to control thé local quality of a 3D finite élément solution in elasticity. From a study of thé method in 2D, which relies on an improved construction of equilibrated fields, thé extension of thé method is proposed. Using this local estimation, an estimation of thé quality of thé Von Mises équivalent stress and a problem of adaptation of meshing with objective of local quality are operated
Styles APA, Harvard, Vancouver, ISO, etc.
50

El, Maani Rabii. « Étude basée sur l’optimisation fiabiliste en aérodynamique ». Thesis, Rouen, INSA, 2016. http://www.theses.fr/2016ISAM0017/document.

Texte intégral
Résumé :
Le domaine de l'interaction fluide-structure regroupe l'étude de tous les phénomènes présentant le couplage du mouvement d'une structure avec celui d'un fluide. La gamme des phénomènes étudiés est très étendue, allant de l'étude de cylindres vibrants dans des écoulements comme c'est le cas dans l'industrie nucléaire, à des structures vibrantes dans des écoulements turbulents, en passant par des phénomènes de surface libre dans des réservoirs. Cependant, la complexité des phénomènes étudiés se répercute par des coûts de calculs prohibitifs, ce qui nous amène à rechercher des modèles réduits dont le temps de calcul serait plus réaliste. Dans cette thèse, on va présenter les différents modèles d'interaction fluide-structure et on va mettre en avant le modèle adopté dans notre étude. La réduction du modèle ainsi que l'optimisation des structures vont être introduites dans un contexte de couplage. En introduisant les incertitudes, l'étude fiabiliste de même qu'une approche d'optimisation basée fiabilité vont être proposées. Les différentes méthodologies adoptées vont être validées numériquement et comparées expérimentalement
The domain of the fluid-structure interaction includes the study of all phenomena presenting the coupling of the motion of a structure with the one of a fluid. The range of the phenomena being studied is very extensive, going from the study of vibrating cylinders in the flow as is the case in the nuclear industry, to vibrating structures in turbulent flows, through the free surface phenomena in reservoirs. However, the complexity of the phenomena studied is reflected by the cost of the prohibitive calculations, which leads us to look for models with the computation time would be more realistic. In this thesis, we will present different models of fluid-structure interaction and we will put forward the model adopted in our study. Reducing the model as well as the optimization of the structures will be introduced into a coupling setting. By introducing uncertainties, the reliability study as well as an optimization based reliability approach will be proposed. The different methodologies adopted will be validated numerically and experimentally compared
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie