To see the other types of publications on this topic, follow the link: Interactive optimisation.

Dissertations / Theses on the topic 'Interactive optimisation'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Interactive optimisation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ugail, Hassan, M. I. G. Bloor, and M. J. Wilson. "Implementing automatic design optimisation in an interactive environment." American Institute of Aeronautics and Astronautics, 2000. http://hdl.handle.net/10454/2942.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Do, Nascimento Hugo Alexandre Dantas. "User hints for optimisation processes." University of Sydney. Information Technologies, 2003. http://hdl.handle.net/2123/591.

Full text
Abstract:
Innovative improvements in the area of Human-Computer Interaction and User Interfaces have en-abled intuitive and effective applications for a variety of problems. On the other hand, there has also been the realization that several real-world optimization problems still cannot be totally auto-mated. Very often, user interaction is necessary for refining the optimization problem, managing the computational resources available, or validating or adjusting a computer-generated solution. This thesis investigates how humans can help optimization methods to solve such difficult prob-lems. It presents an interactive framework where users play a dynamic and important role by pro-viding hints. Hints are actions that help to insert domain knowledge, to escape from local minima, to reduce the space of solutions to be explored, or to avoid ambiguity when there is more than one optimal solution. Examples of user hints are adjustments of constraints and of an objective function, focusing automatic methods on a subproblem of higher importance, and manual changes of an ex-isting solution. User hints are given in an intuitive way through a graphical interface. Visualization tools are also included in order to inform about the state of the optimization process. We apply the User Hints framework to three combinatorial optimization problems: Graph Clus-tering, Graph Drawing and Map Labeling. Prototype systems are presented and evaluated for each problem. The results of the study indicate that optimization processes can benefit from human interaction. The main goal of this thesis is to list cases where human interaction is helpful, and provide an ar-chitecture for supporting interactive optimization. Our contributions include the general User Hints framework and particular implementations of it for each optimization problem. We also present a general process, with guidelines, for applying our framework to other optimization problems.
APA, Harvard, Vancouver, ISO, and other styles
3

Lynch, Paul Kieran. "The generation of knowledge based systems for interactive nonlinear constrained optimisation." Thesis, Queen's University Belfast, 1997. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.388221.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Retzepi, Theodora. "Geometric guides for interactive evolutionary design." Thesis, Loughborough University, 2018. https://dspace.lboro.ac.uk/2134/36151.

Full text
Abstract:
This thesis describes the addition of novel Geometric Guides to a generative Computer-Aided Design (CAD) application that supports early-stage concept generation. The application generates and evolves abstract 3D shapes, used to inspire the form of new product concepts. It was previously a conventional Interactive Evolutionary system where users selected shapes from evolving populations. However, design industry users wanted more control over the shapes, for example by allowing the system to influence the proportions of evolving forms. The solution researched, developed, integrated and tested is a more cooperative human-machine system combining classic user interaction with innovative geometric analysis. In the literature review, different types of Interactive Evolutionary Computation (IEC), Pose Normalisation (PN), Shape Comparison, and Minimum-Volume Bounding Box approaches are compared, with some of these technologies identified as applicable for this research. Using its Application Programming Interface, add-ins for the Siemens NX CAD system have been developed and integrated with an existing Interactive Evolutionary CAD system. These add-ins allow users to create a Geometric Guide (GG) at the start of a shape exploration session. Before evolving shapes can be compared with the GG, they must be aligned and scaled (known as Pose Normalisation in the literature). Computationally-efficient PN has been achieved using geometric functions such as Bounding Box for translation and scaling, and Principle Axes for the orientation. A shape comparison algorithm has been developed that is based on the principle of non-intersecting volumes. This algorithm is also implemented with standard, readily available geometric functions, is conceptually simple, accessible to other researchers and also offers appropriate efficacy. Objective geometric testing showed that the PN and Shape Comparison methods developed are suitable for this guiding application and can be efficiently adapted to enhance an Interactive Evolutionary Design system. System performance with different population sizes was examined to indicate how best to use the new guiding capabilities to assist users in evolutionary shape searching. This was backed up by participant testing research into two user interaction strategies. A Large Background Population (LBP) approach where the GG is used to select a sub-set of shapes to show to the user was shown to be the most effective. The inclusion of Geometric Guides has taken the research from the existing aesthetic focused tool to a system capable of application to a wider range of engineering design problems. This system supports earlier design processes and ideation in conceptual design and allows a designer to experiment with ideas freely to interactively explore populations of evolving solutions. The design approach has been further improved, and expanded beyond the previous quite limited scope of form exploration.
APA, Harvard, Vancouver, ISO, and other styles
5

Lambert, Antoine. "Visualisation interactive de graphes : élaboration et optimisation d'algorithmes à coûts computationnels élevés." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2012. http://tel.archives-ouvertes.fr/tel-00839243.

Full text
Abstract:
Un graphe est un objet mathématique modélisant des relations sur un ensemble d' éléments. Il est utilisé dans de nombreux domaines a des fi ns de modélisation. La taille et la complexité des graphes manipulés de nos jours entraînent des besoins de visualisation a fin de mieux les analyser. Dans cette thèse, nous présentons différents travaux en visualisation interactive de graphes qui s'attachent a exploiter les architectures de calcul parallèle (CPU et GPU) disponibles sur les stations de travail contemporaines. Un premier ensemble de travaux s'intéresse a des problématiques de dessin de graphes. Dessiner un graphe consiste a le plonger visuellement dans un plan ou un espace. La première contribution dans cette thématique est un algorithme de regroupement d'arêtes en faisceaux appelé Winding Roads. Cet algorithme intuitif, facilement implémentable et parallélisable permet de reduire considérablement les problèmes d'occlusion dans un dessin de graphe dus aux nombreux croisements d'arêtes. La seconde contribution est une méthode permettant de dessiner un réseau métabolique complet. Ce type de reseau modélise l'ensemble des réactions biochimiques se produisant dans les cellules d'un organisme vivant. L'avantage de la méthode est de prendre en compte la décomposition du réseau en sous-ensembles fonctionnels ainsi que de respecter les conventions de dessin biologique. Un second ensemble de travaux porte sur des techniques d'infographie pour la visualisation interactive de graphes. La première contribution dans cette thématique est une technique de rendu de courbes paramétriques exploitant pleinement le processeur graphique. La seconde contribution est une méthode de rendu nommée Edge splatting permettant de visualiser la densité des faisceaux d'arêtes dans un dessin de graphe avec regroupement d'arêtes. La dernière contribution porte sur des techniques permettant de mettre en évidence des sous-graphes d'interêt dans le contexte global d'une visualisation de graphes.
APA, Harvard, Vancouver, ISO, and other styles
6

Chenu, E. "Optimisation polyédrique de terrain 3D pour une navigation interactive en temps réel." Aix-Marseille 3, 1998. http://www.theses.fr/1998AIX30039.

Full text
Abstract:
Le developpement de la realite virtuelle impose de concevoir un nombre sans cesse croissant de modele 3d pour la navigation en temps reel. Les difficultes de la triangulation de surface 3d m'ont amenees a creer la methode tredo. Cette methode est basee sur deux criteres de triangulation et trois criteres d'optimisation. Les criteres de triangulation decoulent du critere de triangulation de delaunay. Le but des trois criteres d'optimisation est de construire un maillage polyedrique d'une surface 3d qui puisse etre visualise le plus rapidement possible par un ordinateur. Ces criteres sont donc issues des contraintes de la realite virtuelle et des cartes graphiques. Les modeles optimisees permettent des gains de temps de l'ordre de 25% sur des modeles non optimisees. La navigation en temps reel est ainsi plus performante.
APA, Harvard, Vancouver, ISO, and other styles
7

Zinenko, Oleksandr. "Restructuration interactive des programmes." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS437/document.

Full text
Abstract:
Le développement des logiciels et leur restructuration deviennent de plus en plus complexes à cause de l'adoption massive des architectures parallèles, ce qui nécessite une expertise considérable de la part des développeurs. Bien que des nombreux modèles et langages de programmation permettent de créer des programmes efficaces, ils n'offrent pas de support spécifique à la restructuration des programmes existants afin d'en augmenter l'efficacité. En même temps, les approches automatiques sont trop conservatives et insuffisamment précises pour atteindre une partie substantielle de la performance du système sans que le développeur aie à fournir des informations sémantiques supplémentaires. Pour répondre à ces défis, nous adoptons l'approche de la restructuration interactive des programmes qui lie la manipulation semi-automatique des programmes avec la visualisation des logiciels. Dans cette thèse, l'approche de restructuration interactive est illustrée par l'extension du modèle polyédrique - une représentation des programmes moderne et puissante - pour permettre la manipulation de haut niveau ainsi que par la conception et l'évaluation d'une interface visuelle à manipulation directe pour la restructuration des programmes. Cette interface visualise l'information qui n'était pas immédiatement accessible dans la représentation textuelle et permet de manipuler des programmes sans en réécrire le code. Nous proposons également une représentation de l'optimisation de programme, calculée automatiquement, telle que le développeur puisse la comprendre et réutiliser facilement ainsi que la modifier d'une manière textuelle ou visuelle dans le cadre du partenariat homme-machine. Afin de représenter plusieurs aspects de la restructuration des programmes, nous concevons et évaluons une nouvelle interaction qui permet de communiquer l'information supplémentaire et non-cruciale pour la tâche à accomplir. Après une étude empirique de la distribution d'attention des développeurs face aux représentations textuelles et visuelles des programmes, nous discutons des implications pour la conception des outils d'aide à la programmation dans le cadre du modèle d'interaction instrumentale. La restructuration interactive des programmes est supposée faciliter la manipulation des programmes dans le but d'optimisation, la rendre plus efficace et plus largement adopté
Software development and program manipulation become increasingly complex with the massive adoption of parallel architectures, requiring significant expertise from developers. While numerous programming models and languages allow for creating efficient programs, they fall short at helping developers to restructure existing programs for more effective execution. At the same time, automatic approaches are overly conservative and imprecise to achieve a decent portion of the systems' performance without supplementary semantic information from the developer. To answer these challenges, we propose the interactive program restructuring approach, a bridge between semi-automatic program manipulation and software visualization. It is illustrated in this thesis by, first, extending a state-of-the-art polyhedral model for program representation so that it supports high-level program manipulation and, second, by designing and evaluating a direct manipulation visual interface for program restructuring. This interface provides information about the program that was not immediately accessible in the code and allows to manipulate programs without rewriting. We also propose a representation of an automatically computed program optimization in an understandable form, easily modifiable and reusable by the developer both visually and textually in a sort of human-machine partnership. To support different aspects of program restructuring, we design and evaluate a new interaction to communicate supplementary information, not critical for the task at hand. After an empirical study of developers' attention distribution when faced with visual and textual program representation, we discuss the implications for design of program manipulation tools in the instrumental interaction paradigm. We expect interactive program restructuring to make program manipulation for optimization more efficient and widely adopted
APA, Harvard, Vancouver, ISO, and other styles
8

Mathieu, Bérangère. "Segmentation interactive multiclasse d'images par classification de superpixels et optimisation dans un graphe de facteurs." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30290/document.

Full text
Abstract:
La segmentation est l'un des principaux thèmes du domaine de l'analyse d'images. Segmenter une image consiste à trouver une partition constituée de régions, c'est-à-dire d'ensembles de pixels connexes homogènes selon un critère choisi. L'objectif de la segmentation consiste à obtenir des régions correspondant aux objets ou aux parties des objets qui sont présents dans l'image et dont la nature dépend de l'application visée. Même s'il peut être très fastidieux, un tel découpage de l'image peut être facilement obtenu par un être humain. Il n'en est pas de même quand il s'agit de créer un programme informatique dont l'objectif est de segmenter les images de manière entièrement automatique. La segmentation interactive est une approche semi-automatique où l'utilisateur guide la segmentation d'une image en donnant des indications. Les méthodes qui s'inscrivent dans cette approche se divisent en deux catégories en fonction de ce qui est recherché : les contours ou les régions. Les méthodes qui recherchent des contours permettent d'extraire un unique objet correspondant à une région sans trou. L'utilisateur vient guider la méthode en lui indiquant quelques points sur le contour de l'objet. L'algorithme se charge de relier chacun des points par une courbe qui respecte les caractéristiques de l'image (les pixels de part et d'autre de la courbe sont aussi dissemblables que possible), les indications données par l'utilisateur (la courbe passe par chacun des points désignés) et quelques propriétés intrinsèques (les courbes régulières sont favorisées). Les méthodes qui recherchent les régions groupent les pixels de l'image en des ensembles, de manière à maximiser la similarité en leur sein et la dissemblance entre les différents ensembles. Chaque ensemble correspond à une ou plusieurs composantes connexes et peut contenir des trous. L'utilisateur guide la méthode en traçant des traits de couleur qui désignent quelques pixels appartenant à chacun des ensembles. Si la majorité des méthodes ont été conçues pour extraire un objet principal du fond, les travaux menés durant la dernière décennie ont permis de proposer des méthodes dites multiclasses, capables de produire une partition de l'image en un nombre arbitraire d'ensembles. La contribution principale de ce travail de recherche est la conception d'une nouvelle méthode de segmentation interactive multiclasse par recherche des régions. Elle repose sur la modélisation du problème comme la minimisation d'une fonction de coût pouvant être représentée par un graphe de facteurs. Elle intègre une méthode de classification par apprentissage supervisé assurant l'adéquation entre la segmentation produite et les indications données par l'utilisateur, l'utilisation d'un nouveau terme de régularisation et la réalisation d'un prétraitement consistant à regrouper les pixels en petites régions cohérentes : les superpixels. L'utilisation d'une méthode de sur-segmentation produisant des superpixels est une étape clé de la méthode que nous proposons : elle réduit considérablement la complexité algorithmique et permet de traiter des images contenant plusieurs millions de pixels, tout en garantissant un temps interactif. La seconde contribution de ce travail est une évaluation des algorithmes permettant de grouper les pixels en superpixels, à partir d'un nouvel ensemble de données de référence que nous mettons à disposition et dont la particularité est de contenir des images de tailles différentes : de quelques milliers à plusieurs millions de pixels. Cette étude nous a également permis de concevoir et d'évaluer une nouvelle méthode de production de superpixels
Image segmentation is one of the main research topics in image analysis. It is the task of researching a partition into regions, i.e., into sets of connected pixels, meeting a given uniformity criterion. The goal of image segmentation is to find regions corresponding to the objects or the object parts appearing in the image. The choice of what objects are relevant depends on the application context. Manually locating these objects is a tedious but quite simple task. Designing an automatic algorithm able to achieve the same result is, on the contrary, a difficult problem. Interactive segmentation methods are semi-automatic approaches where a user guide the search of a specific segmentation of an image by giving some indications. There are two kinds of methods : boundary-based and region-based interactive segmentation methods. Boundary-based methods extract a single object corresponding to a unique region without any holes. The user guides the method by selecting some boundary points of the object. The algorithm search for a curve linking all the points given by the user, following the boundary of the object and having some intrinsic properties (regular curves are encouraged). Region-based methods group the pixels of an image into sets, by maximizing the similarity of pixels inside each set and the dissimilarity between pixels belonging to different sets. Each set can be composed of one or several connected components and can contain holes. The user guides the method by drawing colored strokes, giving, for each set, some pixels belonging to it. If the majority of region-based methods extract a single object from the background, some algorithms, proposed during the last decade, are able to solve multi-class interactive segmentation problems, i.e., to extract more than two sets of pixels. The main contribution of this work is the design of a new multi-class interactive segmentation method. This algorithm is based on the minimization of a cost function that can be represented by a factor graph. It integrates a supervised learning classification method checking that the produced segmentation is consistent with the indications given by the user, a new regularization term, and a preprocessing step grouping pixels into small homogeneous regions called superpixels. The use of an over-segmentation method to produce these superpixels is a key step in the proposed interactive segmentation method : it significantly reduces the computational complexity and handles the segmentation of images containing several millions of pixels, by keeping the execution time small enough to ensure comfortable use of the method. The second contribution of our work is an evaluation of over-segmentation algorithms. We provide a new dataset, with images of different sizes with a majority of big images. This review has also allowed us to design a new over-segmentation algorithm and to evaluate it
APA, Harvard, Vancouver, ISO, and other styles
9

Song, Xiaoxiao. "Layout optimization based on multi-objective interactive approach." Thesis, Ecole centrale de Nantes, 2022. http://www.theses.fr/2022ECDN0051.

Full text
Abstract:
Dans tous les problèmes d’agencement, les contraintes de non-chevauchement entre composants et les contraintes d’appartenanceau conteneur sont présentes. Un modèle d’agencement multiobjectif avec contraintes fonctionnelles est développé. Intégrer l’accessibilité des composants comme contraintes fonctionnelles assure la maintenance ou le fonctionnement des composants. Cependant, les contraintes fonctionnelles augmentent la complexité d’optimisation d’agencement, notée indice de capacité. Par conséquent, un nouvel algorithme d’optimisation multiobjectif est proposé en utilisant le placement constructif et le recuit simulé pour rechercher des solutions de compromis entre les objectifs multiples. Ensuite, un indicateur de similarité est défini pour évaluer les similaires entre les solutions proposées par l’algorithme. Les expériences indiquent que l’approche d’optimistion proposée fonctionne bien pour garantir l’accessibilité et trouver efficacement des solutions optimales dans les problèmes industriels d’agencement d’espace à un ou plusieurs conteneurs, où l’analyse de similarité démontre une bonne diversité solutions proposées par l’algorithme, qui peut être appliqué en tant qu’outil interactif outil pour leconcepteur
The conventional layout problem is concerned with finding the arrangements of components inside the container to optimize objectives under geometrical constraints, i.e., no component overlap and no container protrusion. A multi-objective layout model with functional constraints is developed. Integrating the accessibility of components as functional constraints ensures components maintenance or proper operation. However, thefunctional constraints increase the layout optimization complexity, denoted as capacity index. Therefore, a novel multi-objective optimizationalgorithm is proposed using the constructive placement and the simulated annealing to search for compromised solutions between the multiple objectives. Thereafter, a similarity indicator is defined to evaluate how similar optimized layout designs are. The experiments indicate that the proposed optimization approach performs well in ensuring accessibility and efficiently finding high-qualified solutions in single- and multi- container layoutapplications, where the similarity analysis demonstrates good diversity of the obtained layout set, which can be applied as an interactive tool
APA, Harvard, Vancouver, ISO, and other styles
10

Oulmidi, Mustafa. "Visualisation interactive et automatique des graphes et réseaux S. A. M. G. Un système d'aide à la modélisation graphique." Tours, 1989. http://www.theses.fr/1989TOUR4004.

Full text
Abstract:
Les modèles graphes et réseaux permettent la visualisation de la structure et des règles de fonctionnement du système modélisé. Ce sont des moyens de communication. La formalisation de la définition d'un graphe à permis depuis une trentaine d'années le développement de la théorie des graphes. Les langages de programmation universels déforment les algorithmes de la théorie des graphes. Ces algorithmes sont élaborés sur différentes représentations de la structure graphe. Au niveau calcul nous proposons une méthode de conception de programmes dans le cadre d'une programmation modulaire sous l'environnement turbo pascal v. 4. Les sous-programmes fournis couvrent une grande partie des problèmes lies aux propriétés structurelles d'un graphe ou d'un réseau. Au niveau dessin nous proposons un ensemble de règles de dessin. Ces règles sont élaborées sur une grille de dessin en respectant un ensemble de contraintes en mode interactif et automatique.
APA, Harvard, Vancouver, ISO, and other styles
11

Maddah, Mohammad Reza. "3D visualization and interactive image manipulation for surgical planning in robot-assisted surgery." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2018. http://www.theses.fr/2018IMTA0079/document.

Full text
Abstract:
La chirurgie robotisée a été développée pour pallier les difficultés de la chirurgie laparoscopique. Le robot da Vinci (Intuitive Surgical) est largement répandu dans les hôpitaux nord-américains et européens pour la chirurgie abdominale. Basé sur de la téléopération, il améliore la dextérité et la précision des opérations en chirurgie mini-invasive. Cependant, des recommandations incomplètes et des défauts ergonomiques du système, pour positionner les bras du robot à la surface l’abdomen du patient avant l’opération, créent un des principaux problèmes de la chirurgie robotisée : des organes inatteignables ou des collisions entre les instruments pendant l’opération. L’objectif de ces travaux de recherche est de proposer une nouvelle méthode de placement des bras du robot basée sur une assistance opératoire numérique utilisant l’analyse d’images médicales du patient et la modélisation 3D de la surface de son abdomen afin de calculer des positions des bras optimales en fonction des caractéristiques du robot, de la position des organes et du type de chirurgie
Robot-assisted surgery, or “robotic”surgery, has been developed to address thedifficulties with the traditional laparoscopicsurgery. The da Vinci (Intuitive Surgical, CA andUSA) is one of the FDA-approved surgical robotic system which is widely used in the case of abdominal surgeries like hysterectomy and cholecystectomy. The technology includes a system of master and slave tele-manipulators that enhances manipulation precision. However, inadequate guidelines and lack of a human machine interface system for planning the ports on the abdomen surface are some of the main issues with robotic surgery. Unreachable target and mid-surgery collisions between robotic arms are the major problems that surgeons complain about in robotic surgery. The objective of this research is to design a new decision-support tool for planning port placement in robotic surgery. The decision support system will be able to determine the optimal location of the entrance ports on the abdomen surface that is specific to the patient
APA, Harvard, Vancouver, ISO, and other styles
12

Mao, Mathieu. "Optimisation multi-facteurs / multi-objectifs : application à l'optimisation des profil organoleptique de produits secs par le contrôle des paramètres de matières premières et procédés." Institut national agronomique Paris-Grignon, 2007. http://www.theses.fr/2007AGPT0067.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Lavergne, Julien. "Algorithme de fourmis artificielles pour la construction incrémentale et la visualisation interactive de grands graphes de voisinage." Thesis, Tours, 2008. http://www.theses.fr/2008TOUR4049.

Full text
Abstract:
Nous nous intéressons dans cette thèse à la résolution d'un problème de classification non supervisée d'un grand volume de données (i.e. 1 million). Nous proposons une méthode de construction incrémentale de grands graphes de voisinage par des fourmis artificielles qui s'inspire du comportement d'auto-assemblage de fourmis réelles se fixant progressivement à un support puis successivement aux fourmis déjà fixées afin de créer une structure vivante. La connexion entre fourmis (données) se fait à partir d'une mesure de similarité entre les données. Nous permettons également l'exploration visuelle et interactive de nos graphes en réponse aux besoins d'extraction de connaissances de l'expert du domaine. Ce dernier peut visualiser la forme globale d'un graphe et explorer localement les relations de voisinage avec une navigation guidée par le contenu. Nos travaux s'inscrivent pleinement en classification interactive ainsi qu'en fouille de textes avec une immersion en réalité virtuelle
We present in this work a new incremental algorithm for building proximity graphs for large data sets in order to solve a clustering problem. It is inspired from the self-assembly behavior observed in real ants where ants progressively become attached to an existing support and then successively to other attached ants. Each artificial ant represents one data. The way ants move and build a graph depends on the similarity between the data. A graph, built with our method, is well suitable for visualization and interactively exploration depending on the needs of the domain expert. He can visualize the global shape of the graph and locally explore the neighborhood relations with a content-based navigation. Finally, we present different applications of our work as the interactive clustering, the automatic graph construction of documents and an immersion in a virtual reality environment for discovering knowledge in data
APA, Harvard, Vancouver, ISO, and other styles
14

Ríos, zapata David. "Démarche méthodologique pour la conception préliminaire et interactive." Thesis, Paris, ENSAM, 2018. http://www.theses.fr/2018ENAM0066/document.

Full text
Abstract:
Les processus de prise de décision dans la conception demandent aux concepteurs de prioriser les spécifications et les variables afin de développer des solutions plus proches des objectifs du produit. Néanmoins, la taille des informations est souvent volumineuse et difficile à comprendre : garder la trace de la liste des variables dépendantes, des variables indépendantes et des objectifs de conception est une tâche complexe, avec potentiellement des retraitements et perte de temps, surtout lorsqu'il est nécessaire d'identifier quand une modification sur une variable peut avoir un impact sur les performances du produit.L'objectif de cette thèse est de proposer une méthode qui permettant d'obtenir un trade-off entre les objectifs de conception. Ce trade-off est basé sur deux aspects : i) le développement d'un modèle de traçabilité, gérant les informations à partir des exigences du produit (dans le domaine linguistique) jusqu'à la définition des variables (dans le domaine des nombres réels). ii) un cadre d’amélioration de la conception, fondé sur la définition des fonctions de désirabilité des objectifs de conception. La propagation de ces fonctions jusqu’à les variables de conception permettent de calculer la combinaison de valeurs qui maximisent l’index global de désirabilité de la solution.La proposition de thèse peut être comprise comme une approche hybride, comprenant une partie exploratoire interactive et une partie interactive inductive. Sur la partie exploratoire, les concepteurs peuvent modifier les variables à l'aide d'outils visuels afin de comprendre en temps réel l'impact de ces modifications sur les objectifs de conception. Sur la partie inductive, les concepteurs utilisent une méthode de pré-dimensionnement proposée, qui calcule les valeurs des variables qui maximisent la désirabilité des objectifs de conception. Cette méthode fonctionne sur un environnement de conception multidisciplinaire, avec des problèmes convexes ou non-convexes
Preliminary design decision-making processes are related to the prioritisation of design specifications and variables in order to develop solutions that are closer to product's requirements. Nevertheless, the size of the information is often large and hard to understand: keeping in track the list of dependent variables, independent variables and design objectives is a challenging task, with potentially reprocessing and loss of time, especially when it is necessary to identify how a modification on a variable might impact the performance of the product.The objective of this thesis is to generate a method that can obtain a trade-off among the design objectives desirability. This trade-off process is supported on two aspects: i) the development of a traceability model, managing information from the input requirements (in the linguistic field) up to the variables definition (in the real numbers field). ii) A design amelioration framework, based on the definition of the design objectives desirability functions; the propagation of these functions until design variables allow to calculate the combinations of values that maximise the global desirability of the solution.The proposal of the thesis can be understood as a hybrid approach, including an interactive exploratory part and an inductive interactive part. On the exploratory part, designers can modify the variables using visual tools in order to understand in real time how these modifications have an impact on the design objectives. On the inductive part, designers make use a proposed pre-sizing method that calculates the values of the variables that maximise the desirability of the design objectives. This proposal is developed to perform on a multidisciplinary design environment, facing, either convex and non-convex problems
APA, Harvard, Vancouver, ISO, and other styles
15

Fontecha, Dulcey Gilberto. "Modèle paramétrique, réduit et multi-échelle pour l’optimisation interactive de structures composites." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0247/document.

Full text
Abstract:
Concevoir une structure composite consiste à relever un défi de taille : alors qu'un ingénieur qui conçoit un produit mécanique à base de matériau métallique se concentre principalement sur le développement d'une forme qui garantira un comportement spécifique, l'ingénieur pour qui le problème de conception est celui d'un produit à base de matériaux composites doit trouver la meilleure combinaison forme - structure de matériau. Ainsi, il doit aussi concevoir simultanément un matériau et la topologie produit. La combinatoire s’avère être complexe et les espaces de solutions de très grande taille.Les outils de CAO et de simulation par éléments finis n'offrent pas au concepteur une approche permettant d'explorer les espaces de recherche de manière interactive et rapide. Le travail de thèse conduit à une nouvelle approche numérique permettant de manipuler chaque paramètre de conception caractérisant une structure composite, quelle que soit l’échelle à laquelle il est pertinent.Premièrement, le modèle de comportement paramétrique et réduit (Parametric and Reduced Behavior Model, PRBM) est un modèle dit séparé. Il permet :1- une approche multi-échelle : les paramètres mécaniques de la structure sont explicitement décrits comme issus de la qualité matérielle de chaque fibre, de la matrice, de chaque couche et de la topologie même du stratifié,2- une approche multi-physique: indépendamment le comportement mécanique de chaque couche et de chaque interface est traité pour donner lieu au comportement du stratifié. Des situations de comportements statiques et dynamiques sont étudiés. Dans le cas du comportement dynamique, le caractère visco-élastique est devenu un enjeu conceptuel.Deuxièmement, une méthode mixant dérivées non entières et usage de la méthode PGD a permis la réalisation du PRBM. Intégré dans un modèle de connaissance paramétrique (Parametric Knowledge Model, PKM) auprès de modèles de connaissances experts, il constitue la base d'une méthode interactive d’aide à la conception.Le PKM est traité par une méthode d'optimisation évolutionnaire. De ce fait, le concepteur peut explorer de façon interactive les espaces de conception. Pour qualifier nos modèles et notre PRBM, nous étudions 2 problèmes de conception de structures stratifiées. Les solutions déterminées sont qualifiées vis-à-vis de simulations par éléments finis ou selon une approche empirique
The design process of laminated composites faces a major challenge: while an engineer designing a metallic based mechanical product is mainly focusing on the development of a shape that will guarantee a specific behavior, the engineer designing a composite based product must find the best combination of the shape-material structure. Therefore, he must simultaneously create a material and the product topology. The number of design solutions can be huge since the solution space is considerable.Standard CAE systems (CAD, Finite Element Simulation) do not provide an approach to explore these solution spaces efficiently and interactively. A new numerical procedure is proposed to allow engineers to handle each design parameter of a laminated composite structure, each at its relevant scale.First, the Parametric and Reduced Behavior Model (PRBM) is a separated model that enables reasoning based on1- A multiscale approach: the mechanical parameters of the structure are explicitly described as coming from the material quality of each fiber, the matrix, each layer and the topology of the laminate,2- A multiphysical approach: independently the mechanical behavior of each layer and each interface is processed, leading to the behavior of the laminate. Some situations of static and dynamic behavior are studied. In the case of dynamic behavior, the creeping becomes a conceptual issue.Secondly, a method mixing fractional derivatives and the Proper Generalized Decomposition (PGD) method allowed the creation of the PRBM. Integrated into a Parametric Knowledge Model (PKM) with other expert knowledge models, the PRBM makes the basis of an interactive method of design support.The PKM is processed by an evolutionary optimization method. As a result, the designer can interactively explore the design space. To qualify our models and our PRBM, we study two problems of design of laminated composite structures. The solutions determined are qualified versus finite element simulations or according to an empirical approach
El diseño de una estructura compuesta es un desafío mayor, mientras que un ingeniero que diseña un producto mecánico con materiales metálicos se concentra principalmente en el desarrollo de una geometría que garantice un comportamiento específico, el ingeniero que diseña un producto con materiales compuestos debe encontrar la mejor combinación forma – estructura del material. De esta manera, el ingeniero debe diseñar simultáneamente el material y la topología del producto, razón por la que esta combinación se vislumbra compleja, puesto que los espacios de solución son gran tamaño.Las herramientas CAO y de simulación por elementos finitos no ofrecen al diseñador una metodología que permita explorar los espacios de solución de manera interactiva y rápida. Por lo tanto, este trabajo de tesis propone un nuevo enfoque numérico que permite manipular parámetros de diseño que caracterizan la estructura compuesta, cualquiera que sea la escala de pertinencia.Como primera medida, el modelo de comportamiento paramétrico y reducido (Parametric and Reduced Behavior Model, PRBM) es un modelo definido de manera separada que permite:1- Un enfoque multiescala: los parámetros mecánicos se presentan de manera explícita en términos de las propiedades de cada fibra, de la matriz, de cada capa y de la topología del mismo apilamiento.2- Un enfoque multifísico: el comportamiento mecánico de cada capa y cada interface se modela de manera independiente para dar lugar al comportamiento del apilamiento. Se estudian situaciones de casos de comportamiento estático y dinámico. En el caso dinámico en particular, se tiene en cuenta también la característica viscoelástica de las interfaces.Como segunda medida, un método que combina derivadas no enteras y el uso de la descomposición propia generalizada (PGD), permite la realización del PRBM. Este constituye la base de un método interactivo de ayuda al diseño, pues está integrado dentro de un modelo de conocimiento (PKM) que también incorpora mejores prácticas aprendidas por expertos.El PKM es utilizado por un método de optimización evolucionaria. De esta manera, el diseñador puede explorar de manera interactiva los espacios de solución. Para validar nuestros modelos y el PRBM, se estudian dos problemas de diseño de estructuras apiladas. Las soluciones obtenidas se comparan con respecto a simulaciones obtenidas por el método de los elementos finitos y con respecto a resultados experimentales
APA, Harvard, Vancouver, ISO, and other styles
16

Townson, Peter Gerard Allan Luke. "Load-maintenance interaction : modelling and optimisation /." [St. Lucia, Qld.], 2002. http://adt.library.uq.edu.au/public/adt-QU20021108.134015/index.html.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Tissoires, Benjamin. "Conception (instrumenté), réalisation et optimisation de graphismes interactifs." Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1417/.

Full text
Abstract:
Concevoir une interface hautement interactive nécessite de faire un compromis entre efficacité du moteur de rendu et puissance d'expression offerte au designer graphique. Ainsi, les boîtes à outils WIMP classiques sont performantes en terme de rendu visuel, mais ne permettent pas de modifier finement le visuel des éléments graphiques ou de modifier leur comportement. Pour améliorer le processus de développement des applications graphiques interactives et leur réutilisabilité, il faut séparer la description de la partie interactive de son implémentation et de ses optimisations. Cette thèse présente différents moyens de séparer la description des optimisations. Tout d'abord, elle présente Hayaku, une boîte à outils reposant sur un compilateur graphique. Hayaku permet au designer d'interaction de produire lui-même l'application interactive finale, favorisant ainsi les itérations dans le développement. Nous nous sommes ensuite intéressés à la simplification de la description pour l'utilisateur final lors de la production de visualisations de grandes quantité de données avec le logiciel FromDaDy. Déporter la tâche de création d'images sur le processeur graphique permet de présenter un modèle simple à l'utilisateur. Enfin, nous avons simplifié la description d'un algorithme lent (le placement d'étiquettes sur une image) en utilisant la mémoire graphique au lieu de calculs linéaires sur le processeur central. Ceci permet de supprimer les optimisations complexes et améliore significativement les temps de calculs
Designing a highly interactive application implies to make a compromise between the efficiency of the graphical renderer and the expressive power offered to the graphical designer. Thus, classical WIMP toolkits are powerful in terms of rendering, but do not allow the user to finely tune the final rendering of the graphics, or to change their behavior. In order to enhance the process of designing graphical applications and the ability to reuse them, the description of the interactive part has to be separated from the implementation and the optimizations. This thesis presents different way to separate description from optimizations. First, it presents Hayaku, a graphical toolkit that relies on a graphical compiler. Hayaku allows the interaction designer to produce himself the final interactive application. It helps an iterative development cycle. Then, we have worked on the simplification of the description for the final user when she has to create visualizations. We introduced the software FromDaDy to support this creation of large amount of data. Moving the image creation task on the GPU allows us to show a simpler model to the final user. Finally, we have simplified the description of a low algorithm (point based labeling placement algorithm) by using the GPU memory instead of the CPU. This allows us to suppress early complex optimizations and enhance the performances
APA, Harvard, Vancouver, ISO, and other styles
18

Meziani, Rachid. "Méthodes interactives en optimisation linéaire sur micro-ordinateur : conception, réalisation et application." Paris 9, 1987. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1987PA090030.

Full text
Abstract:
On tente de montrer comment, partant du désir d'appliquer une méthode interactive en programmation linéaire multicritère développée en laboratoire, on aboutit à un modèle diffèrent mais élabore en collaboration avec l'utilisateur. On peut construire un modèle interactif permettant à l'utilisateur non seulement de trouver une solution optimale mais aussi de modifier progressivement cette solution en tenant compte de critères difficiles à formaliser. On illustre ce processus sur un problème de construction d'horaires à air France en présentant une version micro du modèle CHEOPS
APA, Harvard, Vancouver, ISO, and other styles
19

Meziani, Rachid. "Méthodes interactives en optimisation linéaire sur micro-ordinateur conception, réalisation et application /." Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37607988s.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Olaru, Sorin. "La commande des systèmes dynamiques sous contraintes Interaction optimisation-géométrie-commande." Habilitation à diriger des recherches, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00641658.

Full text
Abstract:
Dans ce mémoire d'Habilitation à Diriger les Recherches, seront présentées les recherches menées ces cinq dernières années sur des sujets liés à la commande sous contraintes, à la commande basée sur l'optimisation temps-réel et aux méthodes géométriques en Automatique. La première partie du mémoire d'écrit le parcours académique permettant de recadrer les résultats de recherche dans un parcours scientifique avec toutes ses dimensions la formation, l'enseignement, la recherche, le développement et la participation à la vie de la communauté. Dans la deuxième partie, nous retraçons le chemin de la commande optimale à la commande basée sur l'optimisation. Avec ce panorama historique nous montrerons que les recherches dans ce domaine ont toujours été partagées entre les travaux théoriques et les applications à visée industrielle. Ce panorama sera suivi d'une revue de méthodes géométriques utilisées en automatique, qui identifie une direction dans laquelle s'inscrit notre recherche. Nous insisterons sur les contributions dans le domaine avant d'établir un projet de recherche à court, moyen et long terme. La troisième partie contient une synthèse des travaux de recherche publiés récemment sur les sujets mentionnés précédemment afin d'offrir une image des directions explorées et des concepts clés qui ont guidé nos recherches dans les cinq dernières années. L'analyse des polyèdres paramétrés est présentée comme un problème de géométrie avec des implications multiples dans la commande prédictive sous contraintes dans le cas linéaire et hybride. Spécifiquement pour la commande prédictive des systèmes hybrides, des approches alternatives basées sur l'adaptation du modèle de prédiction en vue de l'exploitation des routines d'optimisation évoluées (algorithmes génétiques, etc.) ont été développées. Les outils géométriques sont utilisés aussi dans des problèmes plus éloignés de la commande prédictive comme le cas de la modélisation des systèmes affectés par un retard variable. Ici, les techni-ques géométriques permettent la description des modèles linéaires polytopiques qui peuvent être utilisés par la suite dans une procédure de synthèse de lois de commande robuste (et prédictive accessoirement). Finalement, dans un tout autre domaine, celui de la commande des systèmes multi-capteurs, on montre que les méthodes ensemblistes peuvent apporter des réponses pour les défis de détection et isolation des défauts. Quant à la commande prédictive, elle offre le cadre approprié pour la reconfiguration, l'autre aspect majeur de ce qu'on appelle communément " la conception d'un système de commande tolérant aux défauts ".
APA, Harvard, Vancouver, ISO, and other styles
21

Tiwari, Ashutosh. "Evolutionary computing techniques for handling variable interaction in engineering design optimisation." Thesis, Cranfield University, 2001. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.392257.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Wambua, Lynn. "Development and optimisation of a novel Plasmodium falciparum Hsp90-Hop interaction assay." Thesis, Rhodes University, 2018. http://hdl.handle.net/10962/62626.

Full text
Abstract:
Protein-protein interactions are involved in a range of disease processes and thus have become the focus of many drug discovery programs. Widespread drug resistance to all currently used antimalarial drugs drives the search for alternative drug targets with novel mechanisms of action that offer new therapeutic options. Molecular chaperones such as heat shock proteins facilitate protein folding, play a role in protein trafficking and prevent protein misfolding in cells under stress. Heat shock protein 90 (Hsp90) is a well-studied chaperone that has been the focus of cancer drug development with moderate success. In Plasmodium falciparum (P. falciparum), heat shock proteins are thought to play a vital role in parasite survival of the physiologically diverse habitats of the parasite lifecycle and because Hsp90 is prominently expressed in P. falciparum, the chaperone is considered a potentially ideal drug target. Hsp90 function in cells is regulated by interactions with co-chaperones, which includes Heat shock protein 70-Heat shock protein 90 organising protein (Hop). As opposed to directly inhibiting Hsp90 activity, targeting Hsp90 interaction with Hop has recently been suggested as an alternative method of Hsp90 inhibition that has not been explored in P. falciparum. The aim of this research project was to demonstrate PfHsp90 and PfHop robustly interact in vitro and to facilitate high-throughput screening of PfHsp90-PfHop inhibitors by developing and optimising a novel plate capture Hsp90-Hop interaction assay. To establish the assay, the respective domains of the proteins that mediate Hsp90-Hop interaction were used (Hsp90 C- terminal domain and Hop TPR2A domain). The human Hsp90 C-terminal domain and glutathione-S-transferase (GST) coding sequences were cloned into pET-28a(+) and murine and P. falciparum TPR2A sequences into pGEX-4T-1 plasmids to enable expression of histidine-tagged and GST fusion proteins, respectively, in Escherichia coli. The P. falciparum Hsp90 C-terminal domain sequence cloned into pET-28a(+) was supplied by GenScript. The constructs were transformed into T7 Express lysYcompetent E. coli cells and subsequent small- scale expression studies showed the recombinant proteins were expressed in a soluble form allowing for subsequent protein purification. Purification of the recombinant proteins was achieved using nickel-NTA and glutathione affinity chromatography for the His-tagged (Hsp90 C-terminal domains and GST) and GST fusion proteins (TPR2A domains), respectively. The purified proteins were used to establish and optimise mammalian and P. falciparum Hsp90- Hop interaction assays on nickel-coated plates by immobilising the His-tagged C-terminal domains on the plates and detecting the binding of the GST-TPR2A domains using a colorimetric GST enzyme assay. Z’-factor values above 0.5 were observed for both assays indicating good separation between the protein interaction signals and negative control background signals, although relatively high background signals were observed for the mammalian interaction due to non-specific binding of murine TPR2A to the plate. Designed human and P. falciparum TPR peptides were observed to be effective inhibitors of the mammalian and P. falciparum interactions, demonstrating the assay’s ability to respond to inhibitor compounds. Comparison of assay performance using GST assay kit reagents and lab- prepared reagents showed the assay was more efficient using lab-prepared reagents, however, lower GST signals were observed when comparing assay performance using a custom prepared Ni-NTA plate to a purchased Ni-NTA plate. The Hsp90-Hop interaction assays were also performed using an alternative assay format in which the GST-TPR2A fusion proteins were immobilised on glutathione-coated plates and binding of the His-tagged C-terminal domains detected with a nickel-horseradish peroxidase (HRP) conjugate and a colorimetric HRP substrate. The assay showed higher interaction signals for the P. falciparum proteins but comparatively low signals for the mammalian proteins. Z’-factor values for the assay were above 0.8 for both protein sets, suggesting this assay format is superior to the GST assay. However, further optimisation of this assay format is required. This study demonstrated direct binding of PfHsp90-PfHop in vitro and established a novel and robust PfHsp90-PfHop interaction assay format that can be used in future screening campaigns.
APA, Harvard, Vancouver, ISO, and other styles
23

Bryant, Angus Toby. "Simulation and optimisation of diode and IGBT interaction in a chopper cell." Thesis, University of Cambridge, 2005. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.597041.

Full text
Abstract:
The insulated gate bipolar transistor (IGBT) is arguably the most important device currently used in power conversion at medium to high levels. This thesis presents a detailed analysis of IGBT and freewheel diode operation in the context of inductive switching, which accounts for the majority of power conversion processes. In particular, the consequences of the device behaviour on device and circuit interaction are examined. The behaviour of one device is shown to be tightly coupled to that of the other device and the circuit elements during switching. Performance, reliability, efficiency and cost are all affected by design considerations arising from the interaction of switching devices in power converters. Thus there is an incentive to ensure that the designs of devices and circuits are matched, allowing the requirements of the system as a whole to be satisfied. To achieve this, a formal numerical optimisation technique is used in conjunction with compact device models to offer a novel alternative to design iteration using finite-element simulators. Despite their perceived accuracy, these suffer from severe computational requirements and therefore offer limited ability to explore large areas of device design. The development of compact device models possessing a combination of high simulation speed and predictable accuracy was required, so that practical optimisation may take place. An example of device optimisation has shown that there is indeed insight to be gained in optimising the devices and circuit as a whole. The optimisation has the potential to investigate aspects of device operation, such as active gate drive circuits, in addition to device aspects such as device geometry. A useful example of device optimisation is given in the form of automated parameter extraction, where device parameters are optimised to match simulated results with experimental results. This allows designers to have greater confidence in device models used for converter circuit design. The future potential of optimisation is greater still, considering the advances made in handling multiple objectives and uncertainty in operating conditions. Conclusions are drawn concerning the development of IGBTs, diodes and circuits.
APA, Harvard, Vancouver, ISO, and other styles
24

Darona-Frassy, Julie. "E-drop : interaction fluide - substrat et optimisation de la forme des gouttes." Université Joseph Fourier (Grenoble), 2008. http://www.theses.fr/2008GRE10269.

Full text
Abstract:
Les instabilités hydrodynamiques qui apparaissent lors de la formation et d'impact de gouttes présentent un intérêt considérable à la fois d'un point de vue fondamental et aussi applicatif. L'objectifprincipal de ce travail est la modélisation de l'impact et l'étalement d'une ou de plusieurs gouttes sur des substrats structurés chimiquement et/ou topographiquement. Deux techniques complémentaires dont détaillées: une méthode Level-Set conservative dans le cas où les effets inertiels sont importants et une méthode de lubrification lorsque l'écoulement est essentiellement contrôlé par des effets faiblement gravitaires ou par des effets de tension de surface. Ce travail propose en outre de combiner les deux méthodes et le bon accord avec les profils transitoires expérimentaux démontre l'intérêt de l'approche dans le cas d'écoulements particulièrement complexes. En termes d'applications, quelques cas relatifs à l'impression par jet d'encre et à la microfluidique appliquée au domaine de la synthèse in-situ d'ADN sont étudiés en détail. Le modèles construits servent notamment à simuler numériquement l'étalement et l'évaporation de d'une ou plusieurs gouttes sur des substrats industrie bien caractérisés. Ce travail devrait permettre de proposer des critères pour améliorer la performance globale de dispositifs où des surfaces structurées sont utilisées pour piloter les écoulements
Hydrodynamic instabilities which may appear during drop formation and/or impact are of particular interest both from a fundamental and applied poin ofview. The main objective ofthis work is the modeling of the impact and spreading of a single or several drops on surfaces which may be pattemed either chemically and/or topographically. Two complementary techniques are detailed: a conservative Level-Set method useful when flow velocity is important and a lubrication method which may be used in the case of surface and/or slow gravity driven flows. Moreover this work proposes to combin the two above cited method and the good agreement with existing transient experimental profiles demonstrate the interest of the approach in the case 0 particularly intricate flows. Ln terms of application, several case related to digital printing and in-situ DNA synthesis are studied in detail. The propose(models are used to numerically simulate the spreading of a single and or of several drops on weil characterized industrial substrates. This work should help to provide design criteria for improving the overall performance of devices in a number of microfluidic applications where pattemed surfaces are used for monitoring flows
APA, Harvard, Vancouver, ISO, and other styles
25

Dujardin, Yann. "Régulation adaptative multi-objectif et multi-mode aux carrefours à feux." Phd thesis, Université Paris Dauphine - Paris IX, 2013. http://tel.archives-ouvertes.fr/tel-00904781.

Full text
Abstract:
Afin de répondre à la problématique de la régulation multi-objectif et multi-mode des carrefours à feux, nous proposons trois modèles de programmation linéaire mixte en nombres entiers constituant les moteurs d'un système de régulation pleinement adaptatif, ainsi que deux procédures interactives d'optimisation multi-objectif permettant d'adapter itérativement une "politique de régulation" à la situation de trafic. Les critères pris en compte, tous à minimiser, sont le temps d'attente et le nombre d'arrêts des véhicules particuliers, et un critère dédié aux transports en commun permettant de fixer un temps d'attente souhaité pour chaque bus. Des expérimentations ont montré qu'un des trois modèles, dit hybride, se démarque positivement des deux autres. Ce modèle a alors été mis en œuvre avec une des deux procédures interactives, permettant de contrôler un trafic simulé sur une période d'une heure dans différents scénarios types, et comparé à un système de régulation semi-adaptatif.
APA, Harvard, Vancouver, ISO, and other styles
26

Bardy, Simon. "Contrôle et optimisation du test d'adhérence par choc laser sur assemblages collés." Thesis, Paris, ENSAM, 2017. http://www.theses.fr/2017ENAM0061/document.

Full text
Abstract:
La généralisation du procédé d’assemblage par collage au sein des structures aérospatiales, aéronautiques et automobiles est confrontée au besoin d’évaluation non destructive quantitative des assemblages. Le procédé de test d’adhérence par choc laser (LASAT) répond à cette problématique par la sollicitation calibrée des joints collés et l’utilisation de diagnostics non-destructifs pour déterminer l’état résiduel des joints suite à cette sollicitation qui doit décoller les joints faibles et préserver l’intégrité structurelle des assemblages corrects. La détermination des paramètres laser optimaux pour mettre en œuvre ce test d’épreuve non-destructif (ND-LASAT) est réalisée par l’application d’une méthodologie bien définie. Cette dernière implique la caractérisation par une approche expérimentale et numérique de l’assemblage considéré, suivie d’une phase d’optimisation. La diversification des configurations d’interaction-laser matière impliquées dans ces configurations optimisées nécessite de disposer d’outils numériques pour prédire les chargements appliqués aux joints collés. Dans cette étude, le développement et la validation de modèles intégrés dans un code multi-physique répond à ce besoin. Un effort particulier a été porté sur l’évaluation de la précision des chargements simulés. Enfin, la démonstration du procédé ND-LASAT sur trois différents assemblages collés a été réalisée, validant ainsi la méthodologie et la chaine numérique développées dans cette étude
Bonding process generalization within aerospace, aeronautical and automotive structures faces the need of quantitative non-destructive evaluation of assemblies. Laser shock adhesion test (LASAT) meets this requirement by applying a calibrated stress to bonded joints and using non-destructive diagnostics to determine the post-shock state of the joint. The calibrated stress must disbond weak joints and keep correct assemblies intact. Optimal laser parameters determination aims at implementing this non-destructive proof test (ND-LASAT). It is achieved through application of a well-defined methodology, which implies the concerned assembly characterization by an experimental and numerical approach, followed by an optimization step. Optimization implies diversification of laser-matter configurations. Use of numerical tools for predicting loadings applied to bonded joints is then required. Models development within a multi-physics code is proposed and validated here to respond to this need. A significant effort has been made for evaluating models’ precision. Experimental demonstration of ND-LASAT process is achieved on three different bonded assemblies, and thus validating both methodology and numerical chain developed in this study
APA, Harvard, Vancouver, ISO, and other styles
27

Duran-Venegas, Eduardo. "Modélisation et optimisation d'un rotor à pales flexibles." Thesis, Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0195.

Full text
Abstract:
Historiquement, les rotors ont été développés pour la propulsion et la génération d’énergie. Pendant des années, grands efforts de recherche ont été fournis pour les éoliennes et les hélicoptères. Or, des nouvelles applications comme les drones nécessitent une recherche plus approfondie. La flexibilité du rotor et les conditions de fonctionnement particulières constituent un défi pour l'optimisation de leur design. Dans cette thèse, on propose un modèle fluide-structure qui prend en compte la flexibilité des pales dans des conditions de fonctionnement non-conventionnelles. Le modèle est suffisamment simple et robuste pour la réalisation d'études paramétriques extensives. Il comprend des modèles pour le sillage et la structure flexible du rotor. Deux modèles du sillage sont considérés: un modèle classique de Joukowski et un modèle généralisé. Dans le modèle classique, deux vortex sont émis par pale, l’un sur la pointe et l’autre sur l’axe. Dans le modèle généralisé, le tourbillon axial est décalé par rapport au centre. Une analyse de stabilité est réalisée pour les solutions dérivées avec le modèle classique. La nature convective/absolue de l’instabilité est étudiée pour différentes conditions de fonctionnement. Les solutions stationnaires du sillage sont utilisées pour calculer le champ de vitesse induit dans le plan rotor. Ainsi, à partir de la loi de Kutta-Joukowski et de la théorie des éléments de pale (BET), on peux déterminer les charges aérodynamiques exercés sur les pales. Le couplage du rotor avec son sillage est alors implémenté pour une configuration rigide. Finalement, la flexibilité de la pale est prise en compte à l’aide d’un modèle de poutre élastique
Rotors have been historically developed for harvesting and propulsion. For wind turbines and helicopters, decades of research have been done to optimize their design. For recent applications, such as drones, no such a research effort has been made. The high flexibility of the rotor and the different operational conditions still constitute challenging issues for their design. In this work, a coupled fluid-structure model is proposed, taking into account the flexibility of the blades in non-conventional operational conditions.The model is sufficiently simple and robust to permit extensive parameter studies. It includes a model for the wake, a model for the flexible rotor structure and the coupling. Two different wake models are considered: a classical Joukowski model, where two vortices are emitted per blade, one at the tip and one at the axis, and a generalized Joukowski model where the axial vortex is replaced by a hub vortex emitted away from the center. A stability analysis of the solutions derived with the classical Joukowski model is performed. The convective/absolute nature of the instability is analysed for various operational conditions.Stationary wake solutions are used to calculate the flow in the rotor plane. Kutta-Joukowski law and Blade Element Theory are applied to obtain the aerodynamic loads exerted on the blades. The full coupling of the rotor with its wake is first implemented for a rigid configuration. Coupled solutions are obtained for different rotors and compared to experimental and numerical data published in the literature. Finally, blade flexibility is considered using a rod model for the blade
APA, Harvard, Vancouver, ISO, and other styles
28

De, Carvalho Duarte Leandro. "Conception et optimisation d'un système hydrolien à aile oscillante passive." Thesis, Strasbourg, 2019. http://www.theses.fr/2019STRAD038.

Full text
Abstract:
Dans un scénario de transition énergétique où la production et les grands réseaux de distribution d’électricité sont remis en cause, le potentiel de production au niveau des écoulements à faible vitesse est important et reste encore peu exploité. Cette thèse étudie un concept novateur d’hydrolienne permettant de répondre en partie à cette problématique : le système hydrolien à aile oscillante passive. Bioinspiré de la nage d’animaux aquatiques, ce dispositif de récupération de l’énergie cinétique des courants consiste en une aile décrivant des mouvements périodiques de pilonnement et de tangage, entièrement induits par les interactions fluide-structure. Une première partie du travail a porté sur la construction d’un modèle numérique permettant de reproduire fidèlement le comportement du système. Un prototype d’aile oscillante passive à échelle réduite a ensuite été conçu et testé dans un canal hydraulique. Grâce à une technique de réglage dynamique des paramètres structuraux, le système a pu être étudié expérimentalement sur une large gamme de paramètres mécaniques et hydrauliques. L’étude des performances énergétiques du prototype a permis d’identifier des conditions de fonctionnement optimales. Dans ces conditions, des rendements hydrauliques supérieurs à 30% ont été obtenus. Les résultats de ce travail de thèse permettent d’envisager maintenant l’installation d’un système hydrolien à aile oscillante passive en milieu naturel. En effet, les configurations optimales identifiées à l’échelle réduite peuvent s’étendre naturellement à des conditions hydrauliques réelles
Given the current energy transition conjuncture, where the electricity production and the electricity grid are challenged, the hydraulic potential of low current sites is relevant and remains under-exploited. In such context, this thesis studies a novel concept of an energy harvester device: the fully passive flapping foil turbine. Bioinspired from aquatic animals swimming technique, this hydrokinetic energy harvester consists of an oscillating foil describing periodic heaving and pitching motions, entirely induced by fluid-structure interactions. The first part of this thesis deals with the development of a numerical model for accurately simulating the harvester behavior. Then, a reduced scale prototype of the fully passive flapping foil has been designed and tested in a water channel. Thanks to an original dynamic tuning strategy of the structural parameters, experiments have been conducted for a wide range of configurations of the harvester. The investigation of the harvesting performances of the prototype helped identifying several optimized parameters sets. In such cases, hydraulic efficiencies as high as 30% have been reached. The main results of this thesis allow to consider a full scale fully passive flapping foil harvester in realistic conditions. As a matter of fact, the optimized cases identified for the reduced scale prototype can be naturally extended to real operating conditions
APA, Harvard, Vancouver, ISO, and other styles
29

Concolato, Cyril. "Descriptions de scènes multimédia : représentations et optimisations /." Paris : École nationale supérieure des télécommunications, 2008. http://catalogue.bnf.fr/ark:/12148/cb41273615t.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Moreau, Baptiste. "Optimisation du transport de l'oxygène dans la microcirculation artérielle." Paris 7, 2012. http://www.theses.fr/2012PA077067.

Full text
Abstract:
Le sujet de cette thèse est l'optimisation du transport de l'oxygène dans la microcirculation artérielle à travers la recherche d'une valeur optimale de la concentration en globules rouges. Les vaisseaux constituant cette portion du réseau vasculaire présentent une différence d'échelle de plusieurs ordres de grandeurs. Les phénomènes physiques décrivant la circulation sanguine y sont donc de natures très différentes. Par conséquent nous avons divisé notre étude en deux parties. Dans la première partie nous avons modélisé le réseau des petites artères dont le diamètre varie entre 1,5 mm et 500 μ m. Le modèle utilisé tient compte du comportement non-newtonien du sang. Après avoir montré l'existence de valeurs optimales de la concentration en globules rouges, nous avons étudié par des approches analytiques et numériques leur comportement en fonction des variations des paramètres géométriques du réseau ; puis nous avons discuté des interprétations physiologiques de ces valeurs. Dans la seconde partie nous nous sommes intéressés à la capture de l'oxygène dans des capillaires pulmonaires de 8 μ m de diamètre. Nous avons proposé un modèle numérique par éléments finis de capillaire 2D axisymétrique contenant une succession de globules régulièrement espacés. Pour traiter l'interaction fluide-structure entre les domaines fluides et la membrane déformable des globules nous avons utilisé la méthode « caméra » qui est une adaptation de la méthode ALE (Arbitrary Lagrangian Eulerian) standard permettant de suivre le globule dans son déplacement moyen sans avoir à modéllser l'intégralité du capillaire. La modélisation du transport de l'oxygène prend en compte la convection, la diffusion mais également les réactions chimiques entre l'hémoglobine contenue dans les globules rouges et l'oxygène. Nous avons mis en évidence un phénomène « d'écrantage » qui limite la diffusion de l'oxygène et nous avons appliqué ce modèle au cas d'un œdème pulmonaire
This PhD thesis deals with the optimization of oxygen transport in arterial microcirculation by the research of an optimal value of red blood cells concentration. In this part of the vascular network, the vessels diameters range over several orders of magnitude, therefore the physical phenomena describing blood circulation are of different nature. So, we divided our study into two parts. In the first part we model a network of small arteries whose diameters range from 1,5 mm to 500 um. The model takes into account the non-Newtonian behavior of the blood viscosity. First, we show the existence of optimal values for red blood cells concentration. Then we study by analytical and numerical means the behavior of those optimal values according to variations of geometrical parameters of the network. Last, we discuss physiological interpretations of these values. In the second part we study the capture of oxygen in idealized pulmonary capillaries of 8 um diameters containing a succession of regularly spaced cells. To treat the fluid-structure interaction problem between the fluid and the deformable cells membrane, we develop a 2D axisymmetrical numerical method based on finite elements method called the "camera" method, which is an adaptation of the standard ALE method (Arbitrary Lagrangian Eulerian). The camera method enables to follow the red cell without the need to model the whole capillary. The modeling of oxygen transport not only takes into account the convection and diffusion of hemoglobin and oxygen, but also the chemical reactions between both species inside the red blood cells. Thanks to our model, we identified a "screening" phenomenon that limits the capture of oxygen by red blood cells, and we were able to study the effect of pulmonary edema
APA, Harvard, Vancouver, ISO, and other styles
31

Concolato, Cyril. "Descriptions de scènes multimedia : représentations et optimisations." Paris, ENST, 2007. http://www.theses.fr/2007ENST0031.

Full text
Abstract:
Cette thèse a pour objectif dans un premier temps de mener une réflexion sur les différentes représentations de scènes multimédias existantes et d’en proposer une synthèse. Cette synthèse propose une vue générale sur les langages, les formats de représentation des descriptions de scènes ainsi que sur les techniques de codage et les traitements appliqués aux scènes multimédia. Elle présente, en particulier, les problématiques liées à l'animation, la compression, l'interactivité, la diffusion et finalement à la présentation. Dans un second temps, elle propose des améliorations aux solutions existantes. Ces propositions sont doubles. Tout d'abord, cette thèse propose un ensemble de méthodes pour permettre la représentation efficace de scènes multimédia fortement animées, notamment pour les formats de représentations MPEG-4 BIFS, W3C SVG et MPEG-4 LASeR, et avec la prise en compte des contraintes de la diffusion sur téléphone mobile. Ensuite, cette thèse propose une architecture et une implémentation innovante pour un lecteur de scènes permettant la lecture de contenus multimédia sur terminaux contraints grâce au respect d'un compromis entre consommation mémoire et rapidité d'exécution. Cette thèse se conclut, après avoir rappelé les contraintes du monde mobile, par une synthèse des choix technologiques à faire, dans la vaste bibliothèque d'outils disponibles dans le domaine des descriptions de scènes, pour concevoir un service multimédia pour mobiles
This thesis aims, in a first step, at proposing a synthesis of the various existing representations of multimedia scenes. This synthesis provides an overview of scene descriptions languages or formats, of the associated coding techniques and of the general processing of multimedia scenes. It shows, in particular, the problems associated with the animation, compression, interactivity, delivery and finally the visualization of multimedia scenes. In a second step, it proposes improvements to existing solutions. These proposals are twofold. First, this thesis proposes a set of methods to ensure an efficient representation of highly animated scenes, such as cartoons described in the MPEG-4 BIFS, W3C SVG and MPEG-4 LASeR formats, and taking into account the constraints of mobile devices. Second, this thesis proposes an innovative architecture and implementation of an multimedia player featuring a compromise between memory and speed of execution. This thesis concludes, after recalling the constraints of the mobile world, with a synthesis of technological choices to make, in the vast library of tools available in the field scene descriptions, to develop a multimedia service for mobile devices
APA, Harvard, Vancouver, ISO, and other styles
32

Cloherty, Shaun Liam Graduate School of Biomedical Engineering Faculty of Engineering UNSW. "Cellular interaction in the cardiac pacemaker: a modelling study." Awarded by:University of New South Wales. Graduate School of Biomedical Engineering, 2005. http://handle.unsw.edu.au/1959.4/22512.

Full text
Abstract:
In mammalian hearts, initiation of the heartbeat occurs in a region of specialised pacemaker cells known as the sinoatrial node (SAN). The SAN is a highly complex spatially distributed structure which displays considerable cellular heterogeneity and is subject to complex electrotonic interactions with the surrounding atrial tissue. In this study, biophysically detailed ionic models of central and peripheral SAN pacemaker cells are described. These models are able to accurately reproduce experimental recordings of the membrane potential from central and peripheral SAN tissue. These models are used to investigate frequency synchronisation of electrically coupled cardiac pacemaker cells. Based on simulation results presented, it is proposed that cellular heterogeneity in the SAN plays an important role in achieving rhythm coordination and possibly contributes to the efficient activation of the surrounding atrial myocardium. This represents an important, previously unexplored, mechanism underlying pacemaker synchronisation and cardiac activation in vivo. A spatial-gradient model of action potential heterogeneity within the SAN is then formulated using a large-scale least squares optimisation technique. This model accurately reproduces the smooth spatial variation in action potential characteristics observed in the SAN. One and two dimensional models of the intact SAN are then formulated and three proposed models of SAN heterogeneity are investigated: 1) the discrete-region model, in which the SAN consists of a compact central region surrounded by a region of transitional pacemaker cells, 2) the gradient model, in which cells of the SAN exhibit a smooth variation in properties from the centre to the periphery of the SAN, and 3) the mosaic model, in which SAN and atrial cells are scattered throughout the SAN region with the proportion of atrial cells increasing towards the periphery. Simulation results suggest that the gradient model achieves frequency entrainment more easily than the other models of SAN heterogeneity. The gradient model also reproduces action potential waveshapes and a site of earliest activation consistent with experimental observations in the intact SAN. It is therefore proposed that the gradient model of SAN heterogeneity represents the most plausible model of SAN organisation.
APA, Harvard, Vancouver, ISO, and other styles
33

Gallant, André. "Optimisation de trajectoire pour l'augmentation des capacités des manipulateurs robotiques." Doctoral thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66560.

Full text
Abstract:
Aujourd’hui, les manipulateurs robotiques sont appelés à effectuer une gamme de plus en plus large de tâches allant au-delà des applications traditionnelles. Un tel type d’application est l’interaction physique humain-robot. Pour que ces systèmes soient sécuritaires, il peut être souhaitable de réduire leur poids et leur force en réduisant la taille de leurs actionneurs. En effet, réduire la taille des actionneurs augmente la sécurité de deux manières, l’inertie du manipulateur diminue et les couples générés par les moteurs sont fortement réduits. Cependant, le principal inconvénient de ces manipulateurs est la réduction de leur capacité de charge utile. C’est pourquoi une meilleure utilisation des capacités articulaires est nécessaire pour leur permettre d’accomplir des tâches qu’elles ne pourraient normalement pas accomplir. Ainsi, cette thèse présente une étude de deux types principaux de tâches pour lesquelles une stratégie d’optimisation de trajectoire efficace peut être particulièrement utile. La première tâche consiste à soulever des objets lourds, c’est-à-dire, qui dépassent la capacité de charge utile d’un manipulateur. L’étude de cette tâche pourrait mener à la conception de manipulateurs plus légers et plus capables. Ce travail se concentre sur l’étude des méthodes de génération de trajectoires permettant aux manipulateurs ayant des actionneurs relativement faibles de soulever des charges lourdes en exploitant pleinement leur dynamique. La deuxième tâche étudiée dans cette thèse est la tâche de lancer des objets. Plus précisément, la portée des manipulateurs est étudiée, c’est-à-dire, la distance maximale à laquelle un objet peut être lancé avec un manipulateur donné est recherchée. Cette tâche est étudiée à trois niveaux de complexité : la recherche de la distance maximale possible avec des contraintes de vitesse, la recherche de la capacité maximale de lancement en considérant une trajectoire complète avec des contraintes cinématiques et la recherche de la capacité maximale de lancement en considérant une trajectoire complète avec des contraintes dynamiques. Enfin, des critères de performance sont établis à partir de ces deux types de tâches afin d’aider au processus de conception d’un nouveau manipulateur. Ainsi, une simulation d’optimisation de la conception est effectuée à titre de preuve de concept.
Today, robotic manipulators are being called upon to perform an increasingly wide range of tasks that extend beyond the conventional ones required in traditional applications. One such type of application is physical human-robot interaction. In order for such systems to be safe, it can be desirable to decrease their weight and strength by reducing the size of their actuators.Indeed, reducing the size of the actuators increases safety in two manners, the inertia of the manipulator decreases and the torques generated by the motors are greatly reduced. However, the main drawback of such manipulators is the reduction of their payload capacity.Therefore, better usage of the limited joint efforts is required to enable them to perform tasks that they would normally not be able to accomplish. Thus, this thesis presents a study of two main types of tasks where an effective trajectory optimisation strategy can be particularly valuable. The first task is that of lifting heavy objects, i.e., objects that exceed the conservative estimate of the payload capacity of a manipulator. Studying this task could lead to the design of lighter,more capable manipulators. This work focuses on studying trajectory generation methods to enable manipulators with relatively weak actuators to lift heavy payloads by fully utilizing their dynamics. The second task studied in this thesis is the task of throwing objects. Specifically, the distance throwing capabilities of manipulators is studied where the maximum distance that an object can be thrown with a given manipulator is sought. This task is studied at three levels of complexity: finding the maximum possible throwing capacity of manipulators with velocity constraints, finding the maximum throwing capacity considering a full trajectory with kinematic constraints, and finding the maximum throwing capacity considering a full trajectory with dynamic constraints. Finally, performance criteria are established from these two types of tasks in order help in the process of designing a new manipulator. Thus, a simple design optimisation simulation is performed as a proof of concept.
APA, Harvard, Vancouver, ISO, and other styles
34

Konate, Karidia. "Caractérisation et optimisation des nanoparticules CADY/siRNA en vue d’une application in vivo." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTT051/document.

Full text
Abstract:
Les « cell penetrating peptides » (CPPs) sont des vecteurs peptidiques capables de délivrer diverses molécules (acides nucléiques, protéines, peptides, petites molécules, etc.) à l'intérieur des cellules de mammifères. Notre laboratoire a élaboré le vecteur amphipatique secondaire CADY capable de transporter, indépendamment de toute voie d'endocytose, des molécules thérapeutiques telles que les petits ARN interférents (siRNA). En effet, leur potentiel thérapeutique réside dans leur capacité à inhiber de manière spécifique l'expression de protéines dérégulées dans un cadre pathologique.Le sujet de ma thèse s'est centré sur la caractérisation et l'optimisation des complexes CADY/siRNA. Au cours de mes travaux, nous avons pu mettre en évidence que CADY adoptait une structure en hélice alpha en présence du siRNA ce qui conduit à la formation des nanoparticules. Notre étude a eu pour but d'optimiser la séquence de CADY et de contrôler sa formulation pour permettre le transfert de notre système de vectorisation d'une application in cellulo à une application in vivo. En premier lieu, nous avons mené une étude de relations structure-activité avec six peptides analogues de CADY, en réalisant des mutations sur les résidus tryptophanes (PSF1, PSF2, PSF3 et PSW) et sur la zone initiatrice de l'hélice alpha (PG9, PG16). L'analyse approfondie de ces analogues a permis de confirmer que la limitation du caractère amphipathique et du polymorphisme structural des vecteurs conduisaient à une réduction de l'efficacité d'internalisation. Parmi les 6 analogues, seules les nanoparticules à base de PG9 et PG16 présentent des résultats in cellulo comparables à ceux obtenus avec les nanoparticules CADY/siRNA. A ce jour, la séquence primaire de CADY étant la plus adaptée pour la transfection de siRNA, nous avons établi une procédure de formulation standardisée permettant un autoassemblage CADY/siRNA reproductible et homogène, dont la taille moyenne est de 106 ± 31 nm et l'indice de polydispersité de 0,357 ± 0,053. De plus, nous avons mis en place une procédure d'extrusion/lyophilisation afin de stocker les nanoparticules sous forme de poudre. Celle-ci peut être resuspendue en milieu aqueux sans modifications des propriétés colloïdales des nanoparticules ni de leur capacité de transfection.Dans le but d'améliorer la spécificité tissulaire et la biodisponibilité des nanoparticules CADY/siRNA pour une application in vivo, nous avons greffé des motifs de ciblage (YIGSR-S) et de furtivité (PEG) sur la séquence de CADY. L'ajout de ces deux entités, de natures très différentes, ne modifie que faiblement les caractéristiques physico-chimiques (ex. taille moyenne des complexes) et biologiques (transfection cellulaire) des nanoparticules. Ces résultats sont très encourageants pour le développement de nanoparticules dites de 3ème génération, sur lesquelles on peut greffer plusieurs sortes de molécules d'intérêts (ciblage, polymère, agent de contraste etc.).L'ensemble des résultats obtenus au cours de ma thèse marque un réel progrès dans l'optimisation de la formulation du vecteur CADY, et nous incitent à exploiter davantage son potentiel pour le transfert de siRNA in vivo
Cell penetrating peptides (CPPs) are short peptides that can enter many cell types and transduce into cells a wide range of molecular therapeutics (nucleic acid, proteins, peptides, small molecules, etc.). Our laboratory has developed the secondary amphipathic peptide CADY able to promote the transport of small interfering RNA (siRNA) independently of all endocytotic pathways. Indeed, siRNA therapeutic interest lies on its ability to inhibit specifically deregulated proteins in the context of pathology. The subject of my thesis focused on the characterization and optimization of CADY/siRNA complexes. During my work, we have been able to show that CADY adopts a helical structure while interacting with the siRNA leading to the formation of nanoparticles. The goal of my study was to optimize CADY sequence and control its formulation to consider the transferring from an in cellulo to an in vivo application of our vectorization system. First, we conducted a structure-activity study with six analogues by mutating CADY on tryptophane residues (PSF1, 2, 3 and PSW) and in the area initializing helical structure (PG9, PG16). A thorough analysis of these analogues has confirmed that the limitation of the amphipathic character and structural polymorphism is directly related to the reduction of internalization efficiency of our CPPs. Among the six analogues, only PG16/siRNA and PG9/siRNA nanoparticles show in cellulo results equal to those obtained with CADY/siRNA. Based on the fact, that CADY is the most suitable vector for the transfection of therapeutic molecules such as siRNA, we have established a standard formulation procedure to obtain reproducible and homogeneous CADY/siRNA complexes with an average size of 106 ± 31 nm and a polydispersity index of 0.357 ± 0.053. In addition, we have implemented an extrusion/lyophilization step to allow nanoparticle storage as powder, which can be re-suspended in an aqueous solution without losing their colloidal and transfection properties.In order to improve tissue specificity and bioavailability of CADY/siRNA nanoparticles for an in vivo application, we have grafted ether a targeting sequence (YIGSR-S) or a stealth motif (PEG) to the CADY sequence. These two entities of very different nature provoke only few changes in the physicochemical (e.g. average size) and biological (cell transfection) characteristics of the nanoparticles formed with a siRNA. These results are very encouraging for the development of the so-called 3rd nanoparticle generation which includes several kinds of molecules (targeting, polymer, contrast agent etc.).These outcomes mark the real progress in CADY formulation optimization, and encourage us to further exploit its potential for the in vivo transfer of siRNA
APA, Harvard, Vancouver, ISO, and other styles
35

Germain, Grégory. "Etude numérique et expérimentale de l'intéraction entre les voiles de bateaux : optimisation des réglages." Rouen, INSA, 2002. http://www.theses.fr/2002ISAM0004.

Full text
Abstract:
Ce travail est une contribution à la connaissance du fonctionnement d'un plan de voilure. On s'intéresse notamment aux principaux mécanismes d'interaction fluide-structure intervenant dans ce système physique, mais également à l'interaction entre les voiles elles-mêmes. Afin d'approcher les conditions réelles d'utilisation d'un plan de voilure, diverses simulations sont réalisées. Elles permettent de dégager un certain nombre de notions expliquant l'influence de chacun des paramètres de modélisation sur la réponse du système, d'analyser le rôle joué par les différents mouvements de carène et d'approcher la nature aléatoire des conditions réelles de navigation. La simulation d'un virement de bord est également considérée et nécessite l'étude du comportement d'une voile en drapeau. Les acquis concernant le fonctionnement de deux voiles en interaction sont ensuite utilisés pour l'optimisation des performances aérodynamiques d'un plan de voilure. On étudie notamment des phases de navigation non uniformes, ce qui est une contribution originale. Nous utilisons des algorithmes génétiques couplés à des réseaux de neurones afin d'approximer la réponse de deux voiles en interaction. On obtient ainsi une représentation neuronale permettant un calcul rapide et efficace des effets dus aux modifications des réglages et des conditions extérieures, utile pour la procédure d'optimisation. Une étude expérimentale est mise en oeuvre afin de valider les hypothèses utilisées dans les développements précédents. Pour cette étude, il a fallu développer une méthode d'étalonnage et de calibration de capteurs à fil chaud pour mesurer les sauts de pression existants à la surface des voiles. Les résultats sont présentés.
APA, Harvard, Vancouver, ISO, and other styles
36

Groep, Macro Erik. "A supervisory control strategy for performance optimisation of sequences of interacting stochastic biochemical operations." Thesis, Imperial College London, 1997. http://hdl.handle.net/10044/1/7520.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Gregori, Verdú Santiago. "Efficient simulation of the pantograph-catenary dynamic interaction. Catenary optimisation and installation error analysis." Doctoral thesis, Universitat Politècnica de València, 2018. http://hdl.handle.net/10251/104507.

Full text
Abstract:
El modelado y la simulación de la interacción dinámica entre el pantógrafo y la catenaria se ha convertido en una herramienta imprescindible para agilizar el proceso de diseño de catenarias ferroviarias ya que, entre otras ventajas, es posible reducir el número necesario de los tan costosos ensayos experimentales en vía. Para la realización de dichas simulaciones numéricas, la catenaria se modela mediante el método de los Elementos Finitos, mientras que el modelo del pantógrafo es de parámetros concentrados. La interacción entre ambos sistemas se trata con un método de penalti. Tras resolver el problema no lineal de configuración inicial, la ecuación del movimiento se linealiza, y se resuelve con la técnica HHT. Sin embargo, el aflojamiento de las péndolas y los despegues del pantógrafo son dos fuertes no linealidades que deben ser consideradas en la resolución del problema dinámico, aunque aumenten notablemente el coste computacional de cada simulación. Los objetivos principales de esta Tesis son encontrar catenarias óptimas en términos de calidad de captación de corriente y analizar los efectos de los errores de montaje de la catenaria. Para alcanzarlos, es necesario realizar un número elevado de simulaciones de la interacción dinámica entre pantógrafo y catenaria, cuyo coste computacional puede llegar a ser prohibitivo. Para reducir el coste computacional, la primera propuesta se basa en el cálculo de una solución paramétrica de la interacción dinámica entre pantógrafo y catenaria, para cualquier valor de las variables de diseño, por medio de la técnica Proper Generalised Decomposition (PGD). Si las longitudes de las péndolas son consideradas como variables de diseño, la aplicación de este método resulta exitosa en el caso del problema de equilibrio estático, pero no en el caso del dinámico, donde se considera que las péndolas no transmiten fuerzas a compresión. La solución del problema resulta muy sensible ante pequeños cambios de las variables y por tanto, se requiere de un elevado número de modos PGD para tener una solución paramétrica de suficiente precisión. La segunda propuesta consiste en el desarrollo de una estrategia para resolver el problema de interacción dinámica con la que se reduzca considerablemente el tiempo de cálculo. El algoritmo propuesto se divide en dos fases y se basa en pasar los términos no lineales a la parte derecha de la ecuación de la dinámica del sistema. Tras el cálculo y almacenamiento de la respuesta ante fuerzas unitarias, en la segunda etapa del método, el tratamiento de las no linealidades se condensa en un sistema de ecuaciones pequeño cuyas incógnitas son las fuerzas relacionadas con dichas no linealidades, en vez de los desplazamientos nodales globales. Con este algoritmo eficiente, es posible llevar a cabo la optimización de la geometría de catenarias ferroviarias. En concreto, la altura del cable de contacto y la separación entre péndolas son los parámetros de diseño a optimizar para obtener así una captación de corriente óptima. El problema de optimización se resuelve mediante un Algoritmo Genético clásico, y se aplica a diferentes tipos de catenarias. Los resultados obtenidos indican que un diseño óptimo de la geometría puede mejorar notablemente la captación de corriente de las catenarias actuales. Finalmente, se estudia la influencia que tienen los errores de montaje de la catenaria en el comportamiento dinámico del sistema. Con un planteamiento estocástico, se considera variabilidad en la longitud de las péndolas, en la separación entre ellas y en la altura de los soportes. Mediante la aplicación un método clásico de Montecarlo, se propaga la incertidumbre a las magnitudes de interés y se obtiene su función de densidad de probabilidad. Los resultados muestran que los errores cometidos en la colocación de las péndolas apenas influyen en la respuesta del sistema, mientras que errores en l
Modelling and simulation of the dynamic interaction between pantograph and catenary has become a powerful tool to expedite the catenary design process since, among other advantages, it helps in reducing the number of the costly experimental in-line tests. In order to tackle these numerical simulations, in this Thesis the catenary system is modelled by the Finite Element technique, while a simple lumped-mass model is used for the pantograph. The interaction between the two systems is accomplished with a penalty formulation. After solving the initial nonlinear configuration problem, the equation of motion is linearised with respect to the static equilibrium position and it is then solved by applying the Hilber-Hughes-Taylor (HHT) time integration method. However, dropper slackening and pantograph contact losses are two sources of nonlinearities which must be considered in the solution procedure at the expense of an increase in the computational cost. The main objectives of this Thesis are both to find optimal catenaries in terms of current collection quality and to analyse the effect of installation errors in the dynamic behaviour of the system. To achieve these goals, it is mandatory to perform a large number of pantograph-catenary dynamic simulations for which the computational cost can become prohibitive. In order to reduce this computational effort, the first proposal made in this Thesis is to precompute a parametric solution of the pantograph-catenary dynamic interaction for all values of the design variables, by means of the Proper Generalised Decomposition (PGD) technique. If dropper lengths are considered as design variables, this parametric approach is successful when applied to the static equilibrium problem. Nevertheless, in the dynamic case, when dropper slackening is considered, the solution exhibits a great sensitivity to small changes in the parameters and therefore, a huge number of PGD modes are required to obtain the parametric solution with enough accuracy. The impossibility of having a parametric solution leads the author to propose a fast strategy to simulate the dynamic interaction problem, providing remarkable saves in computational cost. The method is divided into two stages which are based on moving the nonlinear terms to the right hand side of the dynamic equation. In the first stage, the response of the system under unitary forces is precomputed and stored. Then, in the second stage of the method, the treatment of the nonlinearities is condensed into a small system of equations, whose unknowns are now the forces associated with the nonlinearities instead of the nodal displacements of the whole system. With this proposed algorithm, it is possible to carry out efficient optimisations of the catenary geometry. Specifically, contact wire height and dropper spacing are considered as design variables in order to obtain the most uniform interaction force that leads to the optimal current collection. The optimisation problem is solved by means of a classic Genetic Algorithm, applied to both simple and stitched catenaries. The results obtained show that an optimal catenary design can remarkably improve the current collection quality of the actual catenaries. Finally, the influence of the installation errors on the dynamic behaviour of the system is analysed under a stochastic approach in which variability in dropper length, dropper spacing and support height are involved in the simulations. The use of a Monte Carlo method allows the propagation of the uncertainty to the magnitudes of interest of the dynamic solution and therefore, to obtain their probability density function. The results of Monte Carlo simulations demonstrate that dropper spacing errors are slightly influential, whilst dropper length and supsupport height installation errors have a strong influence on the dynamic behaviour of the system.
El modelatge i la simulació de la interacció dinàmica entre el pantògraf i la catenària ha esdevingut en una ferramenta imprescindible per a agilitzar el procés de disseny de catenàries ferroviàries degut, entre altres coses, a la possibilitat de reduir el nombre dels tan costosos assajos experimentals en via. Per a la realització d'aquestes simulacions numèriques, la catenària es modela mitjançant el mètode dels Elements Finits, mentre que el model de pantògraf és de paràmetres concentrats. La interacció entre ambdós sistemes es tracta amb un mètode de penalti. Després de resoldre el problema no-lineal de configuració inicial, l'equació del moviment es linealitza i es resol amb la tècnica HHT. Tanmateix, l'afluixament de les pèndoles a compressió i la pèrdua de contacte del pantògraf són dues fortes no-linealitats que han de ser considerades en la resolució del problema dinàmic, malgrat l'augment que produeixen del cost computacional de cada simulació. Els objectius principals d'aquesta Tesi són trobar catenàries òptimes en termes de qualitat de captació de corrent i analitzar els efectes dels errors de muntatge de la catenària. Per a assolir-los és necessari realitzar un nombre elevat de simulacions de la interacció dinàmica entre pantògraf i catenària, el que pot comportar un cost computacional prohibitiu. Per tal de reduir el cost computacional, la primera proposta consisteix a calcular una solució paramètrica del problema d'interacció dinàmica entre pantògraf i catenària, per a qualsevol valor de les variables de disseny, mitjançant la tècnica Proper Generalised Decomposition (PGD). Si les longituds de les pèndoles es consideren com a variables de disseny, l'aplicació d'aquest mètode és exitosa en el cas del problema d'equilibri estàtic, però no en el cas del dinàmic, on es considera que les pèndoles no poden transmetre força a compressió. La solució del problema és molt sensible a xicotets canvis de les variables i per tant, es necessita un elevat nombre de modes PGD per a obtenir una solució paramètrica amb suficient precisió. La segona proposa consisteix en el desenvolupament d'una estratègia per a resoldre el problema d'interacció dinàmica que reduïsca considerablement el temps de simulació. L'algoritme proposat es divideix en dues fases i es basa a moure els termes no lineals a la part dreta de l'equació de la dinàmica del sistema. Després de calcular i s'emmagatzemar la resposta del sistema a forces unitàries, en la segona etapa del mètode, el tractament de les no linealitats es condensa en un xicotet sistema d'equacions les incògnites del qual passen a ser forces en compte de desplaçaments. Amb aquest algoritme eficient, s'ha pogut realitzar l'optimització de la geometria de catenàries ferroviàries. En concret, l'altura del cable de contacte i la separació entre pèndoles es consideren com a paràmetres a optimitzar per a obtenir una òptima captació de corrent. L'optimització es porta a terme mitjançant un Algoritme Genètic clàssic, i s'aplica a diferents tipus de catenàries. Els resultats obtinguts indiquen que un disseny òptim de la geometria pot millorar notablement la captació de corrent de les actuals catenàries. Finalment s'estudia la influència que tenen les errades de muntatge de la catenària en el comportament dinàmic del sistema. Aquest plantejament estocàstic considera variabilitat en la longitud de les pèndoles, la separació entre aquestes i l'altura dels suports. Per mitjà d'un mètode clàssic de Montecarlo, es propaga la incertesa a les magnituds d'interés i s'obté la seua funció de densitat de probabilitat. Els resultats mostren que hi ha molt poca influència per part de les errades comeses en la col·locació de les pèndoles, mentre que errades en la longitud de les pèndoles i en l'altura dels suports sí que influeixen considerablement en el comportament dinàmic del sistema.
Gregori Verdú, S. (2018). Efficient simulation of the pantograph-catenary dynamic interaction. Catenary optimisation and installation error analysis [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/104507
TESIS
APA, Harvard, Vancouver, ISO, and other styles
38

Zidi, Kamel. "Système interactif d’aide au déplacement multimodal (SIADM)." Ecole Centrale de Lille, 2006. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2006/50376-2006-Zidi.pdf.

Full text
Abstract:
L’objectif de notre travail est la réalisation d’un système interactif d’aide aux déplacements, en mode normal, et en mode dégradé de fonctionnement du réseau de transport en commun. Ce système vise par ailleurs à minimiser le temps d’attente des voyageurs, en mode dégradé, dans les pôles d’échanges et à leur assurer, dans la mesure du possible, la continuité des déplacements dans les réseaux multimodaux. Il s’agit donc d’améliorer la qualité du service rendu aux voyageurs et les maintenir informés. Une grande partie du travail de cette thèse concerne la conception, le développement et la validation des approches qui permettent de donner des solutions optimales ou quasi optimales, pour un réseau de transport normal et perturbé. Ces approches utilisent une méthode multicritère de recherche d’itinéraire qui s’appuie sur une hybridation entre un algorithme de Dijkstra modifié et un algorithme génétique, pour générer une population de chemins minimums. L’algorithme de Dijkstra modifié nous donne un ensemble de solutions servant de population initiale pour l’algorithme génétique. La modélisation du réseau de transport est représentée par une architecture multi-zones. Cette architecture nous montre l’aspect distribué du système, les interactions et les relations qui peuvent avoir lieu entre les différentes zones. Nous présentons dans ce travail un Système Multi-Agent d’Aide au Déplacement, SMAAD. Les agents de ce système utilisent le module d’optimisation développé dans la première partie. Notre travail est réalisé dans le cadre du projet « VIATIC-MOBILITE », qui est le projet 6 du pôle de compétitivité I-Trans
The objective of this work is the realization of a system allowing to assist the travellers, and to facilitate their movement in normal and degraded functioning of the transport network. This system aims to minimize the waiting time of the travellers, in degraded mode, at exchanges stations and to assure them, as well as possible, the continuity of their journey in the multimodal transport networks. So it improves the quality of the service returned to the travellers in order to inform them. A first part of the work in this thesis concerns conception, development and validation of our approach which allows giving optimal or almost optimal solutions for a normal and disrupted transport system. This approach uses a multi-objective method of search for optimal route which leans on a hybridization between a modified Dijkstra algorithm and a genetic algorithm. The modified Dijkstra algorithm gives us a set of solutions serving as initial population for the genetic algorithm. The modelling of the transport system is represented by multi-zones architecture. This architecture shows us the distributed aspect of the system, and the interactions and the relations which can take place among various zones. We present in this work a Multi-agent system of Help to the Movement. These agents use the module of optimization developed in the first part. Our work is realized within the framework of the "VIATIC-MOBILITE" project, which is the project 6 of the I-Trans Competitiveness cluster
APA, Harvard, Vancouver, ISO, and other styles
39

Magnier, Romain. "Étude et optimisation de l'imprimabilité de films PVC produits par calandrage et enduction." Thesis, Paris, ENMP, 2015. http://www.theses.fr/2015ENMP0005/document.

Full text
Abstract:
La qualité d'impression est une notion difficile à maîtriser. L'œil est souvent utilisé en industrie comme outil permettant de juger la qualité d'un film polymère imprimé. Afin d'atteindre un niveau supérieur de qualité, il est nécessaire de trouver un moyen pour quantifier la qualité d'impression, et ainsi permettre d'atteindre soit une qualité dite « point par point », soit une qualité dite « all-over ». Plusieurs éléments sont nécessaires à cette quantification : une image en microscopie optique de l'échantillon, ainsi qu'une valeur d'intensité moyenne et d'homogénéité de couleur, que l'on obtient grâce à un rugosimètre confocal. Ainsi nous avons pu définir, pour un support mis en forme par calandrage et un support mis en forme par enduction, les paramètres majeurs agissant sur la qualité d'impression. En termes de procédé, il apparaît que la vitesse d'impression et la pression du cylindre presseur influencent grandement l'imprimabilité. Au niveau des matériaux utilisés, la viscosité et la tension de surface de l'encre ont un effet important alors qu'en termes de support, un film calandré sera plus sensible aux variations des différents paramètres qu'un film enduit
Printing quality idea is hard to control. In industry, eye is often used to judge the quality of a printed polymer film. In order to get a new level in terms of printing quality and get “point by point” or “all-over” quality, it is necessary to find a way to quantify printing quality. Some elements are important concerning the quantification of the printing quality: an optical microscopic image, a value of the average intensity and a value on the homogeneity of the color. We can define, for a calendered and a coated substrate, the main parameters acting on the printing quality. Printing speed and pressure of the rubber roll are the two main process parameters to act, viscosity and surface tension of the ink are the two main ink properties to act, while the calendered substrate is more sensitive to the variation of the parameters than the coated one
APA, Harvard, Vancouver, ISO, and other styles
40

Gauthier, Alexis, and Alexis Gauthier. "Processus interactif d'optimisation avec prise en charge des préférences de l'utilisateur." Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/37034.

Full text
Abstract:
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2019-2020.
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2019-2020.
Un décideur utilisant un système d’optimisation peut se voir offrir une solution qu’il juge inadéquate. Il lui est possible, s’il utilise un système interactif de réoptimisation, d’ajouter une contrainte ou une préférence et de requérir une nouvelle solution. Cependant, les préférences émises quant aux multiples valeurs composant la solution sont généralement perdues au fil des itérations successives. Pour remédier à ce problème, ce mémoire propose une approche pour la prise en compte des préférences de l’utilisateur. Celle-ci fait appel aux techniques de la programmation mathématique avec cible. Une méthodologie pour la mise en application de l’approche est également proposée. Finalement, une comparaison est effectuée entre l’approche proposée et une approche par heuristiques pour le problème de planification interactive des cotisations et retraits d’un Régime enregistré d’épargne étude. Dans les deux cas, les prototypes permettent d’ajuster en temps réel, et à la pointe de la souris, les solutions sur des graphiques interactifs. Le prototype mu par des heuristiques spécifiques ne permet pas à l’utilisateur d’atteindre toutes les solutions admissibles, notamment à cause de problèmes d’ajustements circulaires où l’utilisateur peut se retrouver au même point après quelques itérations. Le prototype utilisant l’approche proposée de programmation mathématique avec cibles permet à l’utilisateur de naviguer de façon cohérente à travers l’espace solution. Dans la plupart des contextes, cette méthode devrait permettre au décideur d’accéder plus facilement à sa solution préférée.
Un décideur utilisant un système d’optimisation peut se voir offrir une solution qu’il juge inadéquate. Il lui est possible, s’il utilise un système interactif de réoptimisation, d’ajouter une contrainte ou une préférence et de requérir une nouvelle solution. Cependant, les préférences émises quant aux multiples valeurs composant la solution sont généralement perdues au fil des itérations successives. Pour remédier à ce problème, ce mémoire propose une approche pour la prise en compte des préférences de l’utilisateur. Celle-ci fait appel aux techniques de la programmation mathématique avec cible. Une méthodologie pour la mise en application de l’approche est également proposée. Finalement, une comparaison est effectuée entre l’approche proposée et une approche par heuristiques pour le problème de planification interactive des cotisations et retraits d’un Régime enregistré d’épargne étude. Dans les deux cas, les prototypes permettent d’ajuster en temps réel, et à la pointe de la souris, les solutions sur des graphiques interactifs. Le prototype mu par des heuristiques spécifiques ne permet pas à l’utilisateur d’atteindre toutes les solutions admissibles, notamment à cause de problèmes d’ajustements circulaires où l’utilisateur peut se retrouver au même point après quelques itérations. Le prototype utilisant l’approche proposée de programmation mathématique avec cibles permet à l’utilisateur de naviguer de façon cohérente à travers l’espace solution. Dans la plupart des contextes, cette méthode devrait permettre au décideur d’accéder plus facilement à sa solution préférée.
A decision maker using an optimization system may get a solution that he considers inappropriate. It is possible for him, if he uses an interactive reoptimization system, to add a constraint or a preference and to require a new solution. However, preferences for the various values composing the solution are usually lost over the iterations. This thesis proposes an approach for taking into account the user’s preferences. It uses mathematical goal programming techniques. A methodology for implementing the approach is also proposed. Finally, a comparison is made between the proposed approach and another one using heuristics to solve the problem of interactive planning of contributions and withdrawals from a Registered Education Savings Plans. In both cases, the prototypes make it possible to adjust, in real time, and from the tip of the mouse, the solutions on interactive graphics. The prototype, moved by specific heuristics, does not allow the user to reach all admissible solutions. This is often caused by circular adjustments problems where the user may reach a previous state after some iterations. The prototype using mathematical goal programming allows the user to navigate coherently through the solution space. In most contexts, this method should make it easier for the decision maker to access his preferred solution.
A decision maker using an optimization system may get a solution that he considers inappropriate. It is possible for him, if he uses an interactive reoptimization system, to add a constraint or a preference and to require a new solution. However, preferences for the various values composing the solution are usually lost over the iterations. This thesis proposes an approach for taking into account the user’s preferences. It uses mathematical goal programming techniques. A methodology for implementing the approach is also proposed. Finally, a comparison is made between the proposed approach and another one using heuristics to solve the problem of interactive planning of contributions and withdrawals from a Registered Education Savings Plans. In both cases, the prototypes make it possible to adjust, in real time, and from the tip of the mouse, the solutions on interactive graphics. The prototype, moved by specific heuristics, does not allow the user to reach all admissible solutions. This is often caused by circular adjustments problems where the user may reach a previous state after some iterations. The prototype using mathematical goal programming allows the user to navigate coherently through the solution space. In most contexts, this method should make it easier for the decision maker to access his preferred solution.
APA, Harvard, Vancouver, ISO, and other styles
41

Besset, Sébastien Jézéquel Louis. "Optimisation du comportement vibro-acoustique des structures à l'aide d'une synthèse modale généralisée." [S.l.] : [s.n.], 2006. http://bibli.ec-lyon.fr/exl-doc/sbesset.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Omidvar, Mahmoud. "Optimisation et visualisation de cache de luminance en éclairage global." Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S097.

Full text
Abstract:
La simulation d'éclairage est un processus qui s'avère plus complexe (temps de calcul, coût mémoire, mise en œuvre complexe) aussi bien pour les matériaux brillants que pour les matériaux lambertiens ou spéculaires. Afin d'éviter le calcul coûteux de certains termes de l'équation de luminance (convolution entre la fonction de réflexion des matériaux et la distribution de luminance de l'environnement), nous proposons une nouvelle structure de données appelée Source Surfacique Équivalente (SSE). L'utilisation de cette structure de données nécessite le pré-calcul puis la modélisation du comportement des matériaux soumis à divers types de sources lumineuses (positions, étendues). L'exploitation d'algorithmes génétiques nous permet de déterminer les paramètres des modèles de BRDF, en introduisant une première source d'approximation. L'approche de simulation d'éclairage utilisée est basée sur un cache de luminance. Ce dernier consiste à stocker l'éclairement incident sous forme de SSE en des points appelés enregistrements. Durant la simulation d'éclairage, l'environnement lumineux doit également être assimilé à un ensemble de sources surfaciques équivalentes (en chaque enregistrement) qu'il convient de définir de manière dynamique. Cette phase constitue une deuxième source d'erreur. Toutefois, l'incertitude globale ne se réduit pas au cumul des approximations réalisées à chaque étape. Les comparatives réalisées prouvent, au contraire, que l'approche des Sources Surfaciques Équivalentes est particulièrement intéressante pour des matériaux rugueux ou pour les matériaux très brillants placés dans des environnements relativement uniformes. L'utilisation de SSE a permis de réduire considérablement à la fois le coût mémoire et le temps de calcul. Une fois que les SSE sont calculés en chaque enregistrement et pour un certain nombre de points de vue, nous proposons une nouvelle méthode de visualisation interactive exploitant les performances des GPU (carte graphique) et s'avérant plus rapide que les méthodes existantes. Enfin nous traiterons le cas où les grandeurs photométriques sont spectrales, ce qui est très important lorsqu'il s'agit de réaliser des simulations d'éclairage précises. Nous montrerons comment adapter les zones d'influence des enregistrements en fonction des gradients de luminance et de la géométrie autour des enregistrements
Radiance caching methods have proven efficient for global illumination. Their goal is to compute precisely illumination values (incident radiance or irradiance) at a reasonable number of points lying on the scene surfaces. These points, called records, are stored in a cache used for estimating illumination of other points in the scene. Unfortunately, with records lying on glossy surfaces, the irradiance value alone is not sufficient to evaluate the reflected radiance; each record should also store the incident radiance for all incident directions. Memory storage can be reduced with projection techniques using spherical harmonics or other basis functions. These techniques provide good results with low shininess BRDFs. However, they get impractical for shininess of even moderate value since the number of projection coefficients increase drastically. In this paper, we propose a new radiance caching method, that handles highly glossy surfaces, while requiring a low memory storage. Each cache record stores a coarse representation of the incident illumination thanks to a new data structure called Equivalent Area light Sources (EAS), capable of handling fuzzy mirror surfaces. In addition, our method proposes a new simplification of the interpolation process since it avoids the need for expressing and evaluating complex gradients. Moreover, we propose a new GPU based visualisation method which exploits these EAS data structure. Thus, interactive rendering is done faster than existing methods. Finally, physical ligting simulations need to manipulate spectral physical quantities. We demonstrate in our work how these quantities can be handle with our technic by adapting the record influence zone depending on the radiance gradients and the geometry around the records
APA, Harvard, Vancouver, ISO, and other styles
43

Besset, Sébastien. "Optimisation du comportement vibro-acoustique des structures à l'aide d'une synthèse modale généralisée." Ecully, Ecole centrale de Lyon, 2006. http://bibli.ec-lyon.fr/exl-doc/sbesset.pdf.

Full text
Abstract:
Les techniques de synthèse modale constituent un moyen efficace d’analyser le comportement dynamique d’une structure complexe. L’objectif de cette thèse est la généralisation des techniques de synthèse modale permettant d’aboutir à une description d’un système comportant des cavités acoustiques faisant intervenir des modes particuliers. Ces modes sont liés aux différents éléments qui découlent d’une approche systémique de l’ensemble. Ainsi, le système est décrit via des modes de volume, principalement associés aux cavités acoustiques, des modes de surfaces, associés aux éléments bidimensionnels, et des modes de lignes, associés aux singularités et aux éléments monodimensionnels. Les structures considérées sont proche des structures que l’on peut trouver dans l’industrie automobile. Les éléments constituants sont donc essentiellement des plaques, des coques, des corps creux et des cavités acoustiques. En ce qui concerne les corps creux, une analyse modale particulière permet de prendre en compte la complexité de leur forme, en n’introduisant qu’un nombre limité de degrés de liberté. Les méthodes d’analyse modale utilisées pour la description des structures complexes considérées dans ce mémoire permettent d’envisager leur optimisation sous des critères acoustiques. Ces critères proviennent des matrices intervenant dans l’analyse modale des différents éléments en présence. Ils sont relatifs au niveau de pression dans les cavités acoustiques, et permettent de distinguer les différents “chemins vibro-acoustiques” responsables des nuisances. L’optimisation est faite d’une part sur la forme des corps creux, d’autre part sur les revêtements de mousse apposés sur les parois de la structure. Pour ce faire, on s’intéresse à une méthode de couplage fluide-structure permettant de prendre en compte des matériaux poroélastiques
Modal synthesis methods are an efficient way of analyzing the dynamic behaviour of complex structures. The aim of this thesis is to generalize modal synthesis methods to allow the description of systems featuring acoustical cavities using specific modes. These modes are linked to the various elements resulting from a systemic approach to the problem. Thus, volume modes describe acoustical cavities, surface modes describe two-dimensional elements, and line modes describe the linear elements and singularities of the system. Structures considered in this report resemble those found in the automotive industry. Constituting elements are thus plates, shells, hollow parts and acoustic cavities. Concerning the hollow parts, a specific modal analysis method allows to take into account their structural form, using only a small number of degrees of freedom. The modal analysis methods described in this work can be used to optimize complex structures based on acoustical criteria. These criteria stem from the matrices appearing in the modal analysis process. They are linked to the pressure level in the acoustic cavities, and allow a separate analysis of the various “vibro-acoustical paths” responsible for the noise. First, the optimization is performed on the geometry of the hollow parts of the structure. Secondly, porous media are introduced on the plates constituting the structure, and the fluid-structure coupling method is adapted to take the resulting phenomena into account
APA, Harvard, Vancouver, ISO, and other styles
44

Thipyopas, Chinnapat. "Optimisation aérodynamique de configurations de microdrones à voilure fixe : effet biplan, voilure souple et interaction aéropropulsive." Toulouse, ENSAE, 2007. http://www.theses.fr/2007ESAE0007.

Full text
Abstract:
Les micro-drones ont été développés depuis 1997 pour des missions militaires de renseignement. Ils peuvent également être utilisés pour des applications civiles de reconnaissance en milieu contaminé ou difficile d'accès. Les micro-drones ont une dimension maximale typique de 15 à 20 cm, un rayon d'action de 500 m, une endurance de 30 min, ils sont compacts, autonomes et portables par un seul opérateur. En raison de leur charge alaire relativement élevée (due aux divers composants électroniques et d'une contrainte de taille sévère, il est d'usage de recourir à des ailes d'allongement faible (allongement de 1. 4 à 1. 8) afin de maximiser la surface de l'aile. Par conséquent, les micro-drones monoplans volent à des vitesses supérieures à 15 m/s d'où la difficulté à obtenir des images claires et à évoluer en milieu confiné. La présente étude expérimentale et théorique a pour but d'améliorer les performances aérodynamiques des configurations de micro-drones à voilure fixe et d'étendre leur capacité de vol aux basses vitesses. Le concept biplan est proposé pour réduire la traînée induite et permette le vol lent. L'interaction aéro-propulsive et de la souplesse de la voilure sont étudiés dans une soufflerie spécifique permettant de reproduire des rafales de vent longitudinales. Une nouvelle balance de précision à 5 composantes a été conçue et réalisée. Enfin, un nouveau prototype de micro-drone de type biplan bimoteur a été testé avec succès pour permettre des vitesses de vol allant de 4 à 18 m/s.
APA, Harvard, Vancouver, ISO, and other styles
45

Raynal, Mathieu. "Systèmes de saisie de textes pour les personnes handicapées moteur : optimisation, interaction et mesure de l'utilisabilité." Toulouse 3, 2005. http://www.theses.fr/2005TOU30274.

Full text
Abstract:
Cette thèse aborde des problèmes d’optimisation, de conception et d’utilisabilité de nouveaux systèmes d’aide à la communication pour personnes handicapées moteur des membres supérieurs. La problématique est de diminuer les distances à parcourir (avec le pointeur du dispositif de pointage) pour saisir du texte. Ces travaux s’articulent autour de 2 propositions d’optimisation : a) l’application des algorithmes génétiques pour optimiser la disposition des caractères sur le clavier logiciel ; b) le système KeyGlass qui propose au fur et à mesure de la saisie des caractères supplémentaires (grâce à des moteurs de prédiction de caractères) à proximité du dernier caractère saisi. Pour pouvoir mesurer l’apport des optimisations proposées et de leur utilisabilité, nous avons réalisé la plateforme d’évaluation E-Assiste qui a pour objectif de combler un manque de corpus de tests et d’environnements d’évaluation et permettre l’étude des usages de nos systèmes in situ
This thesis tackles problems of optimization, design and usability of new Augmentative and Alternative Communication systems (AAC) for motor disabled people. The problem is to decrease the covered distance (with the pointer of the pointing device) for keyboarding. This work suggests two optimizations: a) application of the genetic algorithms to optimize the character layout on soft keyboard; b) the KeyGlass system which proposes additional characters (thanks to systems of character prediction) near to the last character tapped. To be able to evaluate the contribution of the optimizations carried out and their usability, we designed the evaluation platform E-Assiste which aims to fill a lack of corpus of tests and environments of evaluation and to allow the study of the uses of our systems in situ
APA, Harvard, Vancouver, ISO, and other styles
46

Jannot, Xavier. "Modélisation et optimisation d’un ensemble convertisseur-machine. Application aux systèmes d’entrainement à haute vitesse." Thesis, Supélec, 2010. http://www.theses.fr/2010SUPL0004/document.

Full text
Abstract:
Les travaux présentés dans cette thèse concernent la modélisation et l’optimisation d’un ensemble Convertisseur-Machine devant fonctionner à haute vitesse. La première partie établit un état de l’art des méthodologies de conception relatives au dimensionnement optimal de systèmes d’entrainement et analyse les particularités du fonctionnement à haute vitesse. Puis, une modélisation analytique multiphysique des éléments du système est réalisée. Afin de mener une conception globalement optimale, les interactions significatives entre les éléments du système doivent être modélisées. Cela est effectué à l’aide d’une modélisation électrique fine – qui est le cœur de la caractérisation des interactions – mettant en œuvre une approche harmonique originale. Il en découle alors une modélisation des interdépendances entre onduleur et machine au niveau des pertes dans le système et de la qualité du couple. La modélisation est ensuite couplée à un algorithme génétique selon une méthodologie de conception hybride faisant intervenir des modèles analytiques puis par éléments finis. Enfin, cette démarche est appliquée au dimensionnement de deux systèmes d’entrainement dont le moteur est une MSAP à aimantation orthoradiale. Ces deux cas d’application ont été traités avec succès et ont mis en avant l’intérêt d’une approche « Système » dans la conception de systèmes d’entrainement. Par ailleurs nous avons analysé les morphologies des machines en fonction de la vitesse de rotation. Ceci a fait ressortir des capacités intéressantes de ce type de machines – pour la haute vitesse – d’un point de vue magnétique, mécanique, et des pertes au rotor
The work presented in this thesis aims at the modelling and optimisation of a set Converter-Machine that is intended to run at high speeds. The first part is a state of the art of the conception methodologies related to the optimal design of drives and investigates the particularities of high speed operations. Then, an analytic and multiphysic modelling of the elements of the system is performed. But, in order to carry out a global optimal conception, the significant interactions between the various elements of the system must be modelled. This is achieved through a precise electrical model – that is the core of the characterization of the interactions – involving an original harmonic approach. From this follows a modelling of the interdependences between inverter and machine in the system losses and in the torque quality. The models are then associated with a genetic algorithm according to a hybrid methodology of conception involving analytical and finite-element models. Finally, this procedure is applied to the design of two drives of which the motor is a PMSM with circumferentially magnetised magnets. These two cases have been successfully handled and clearly show the assets of a “System” approach for the design of drives. In addition, the morphologies of the optimal machines are analysed according to their rotation speed. This analysis highlights some interesting abilities of this kind of machines – in high speed – regarding the magnetic and mechanical behaviours, and the rotor losses
APA, Harvard, Vancouver, ISO, and other styles
47

Faouzi, Moulay El Abbes. "Contribution a l'optimisation de traitements medicamenteux : quantification d'interaction contenant-contenu, biodisponibilite du budenoside au niveau bronchique." Lille 2, 1995. http://www.theses.fr/1995LIL2P263.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Godlewski, Dariusz. "Optimisation de la gestion routière. Utilisation de l'uni longitudinal des chaussées." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1985. http://tel.archives-ouvertes.fr/tel-00529962.

Full text
Abstract:
Cette recherche, préparée au Service Technique des Routes et Autoroutes (SETRA), participe à l'établissement d'un modèle français de gestion des chaussées en vérifiant la possibilité de l'introduction de l'uni comme facteur de ce modèle ; elle est consacrée, en quasi totalité, à l'APL-72 avec son échelle de notation. Dans un premier temps, on regroupe des informations sur les appareils de mesure existants en France et à l'étranger ainsi que les divers systèmes de notation liés à l'APL et son exploitation. La prise en considération de l'uni (APL-72 - notation standard) comme facteur quantitatif de gestion pose d'abord le problème de savoir si l'uni fournit une base comparative pour toutes les données, suffisamment discriminante et stable dans le temps ; c'est le problème de la précision des données. On examine donc d'abord la précision de l'APL sous sa version standard APL-72, par une analyse du comportement de l'appareil au fil des ans, ainsi que celui de la chaîne de traitement. Cette analyse a conduit à l'étude des distributions des valeurs réelles en fonction des valeurs mesurées et à des conclusions sur l'exploitation de l'APL-72. L'évolution de l'uni des chaussées dans le temps pose le problème de la prévision du comportement des chaussées au cours du temps ; c'est le problème essentiel de la gestion routière. Il a été examiné suivant deux approches différentes : à partir des Sections Témoins du Laboratoire Régional de l'Ouest Parisien et à partir des données fournies par la Banque des Données Routières qui contient, entre autres, l'ensemble des mesures effectuées sur le réseau national français, dans le cadre de la surveillance de routine. Dans les deux cas, l'analyse a consisté en une sélection des tronçons convenables et en un traitement statistique. La partie consacrée aux section témoins se caractérise par un nombre de PR introduits dans l'analyse relativement faible, avec comme tronçon de base de comparaison une longueur de 200 m ; par contre celle consacrée à la BDR (moins fine mais s'appuyant sur des données plus nombreuses) utilise comme tronçon de base de comparaison une longueur de 1000 m. Ce chapitre a permis de dégager des formules statistiquement significatives, décrivant l'évolution de l'uni des chaussées en fonction du trafic et de paramètres structurels, tels que les épaisseurs équivalentes ou les déflexions. On présente enfin une recherche sur la relation entre l'uni des chaussées et la vitesse du trafic. Ce problème, fondamental pour l'étude des coûts des usagers a été abordé en analysant les données obtenues sur 12 sites, pendant une campagne organisée avant et après des travaux de renforcement. Cette recherche a montré que l'uni des chaussées influence fortement la vitesse et doit être pris en compte dans les analyses de vitesse comme facteur principal au même titre que les autres.
APA, Harvard, Vancouver, ISO, and other styles
49

Bourmich, Sophie. "Optimisation de la qualité vibro-acoustique des structures d'automobiles pour les basses fréquences." Thesis, Ecully, Ecole centrale de Lyon, 2012. http://www.theses.fr/2012ECDL0026/document.

Full text
Abstract:
Les modèles d'éléments finis des automobiles donnent des grandes tailles de problèmes matriciels, ce qui demeure coûteux en ressources numériques pour une procédure d'optimisation. La multiplicité des phénomènes couplés du problème d'interaction de l'air de l'habitacle et de la superstructure rend plus sensible, à des variations mineures des paramètres, une optimisation directe du véhicule. Pour réduire les temps de calculs et l'espace mémoire liés à la simulation numérique en éléments finis, une méthode de double synthèse modale est appliquée sur la structure et le fluide. Ceci permet de diminuer le nombre de degrés de liberté de frontière. Egalement, un algorithme a été développé pour minimiser le nombre d'évaluations de fonction au cours des itérations d'optimisation. L'approche modale permet également de décomposer le problème d'optimisation de la réponse vibro-acoustique par des sous-problèmes couplés d'optimisation de critères modaux. Ces critères modaux explicitent les couplages fréquentiels par des termes d'amplification et les couplages spatiaux par des paramètres effectifs modaux. Ils favorisent ainsi le développement d'une stratégie d'optimisation robuste par le contrôle modal des effets prépondérants sur la qualité vibro-acoustique des véhicules
Finite element models and the complexity of vehicle passenger compartments make it harder the optimization, mainly because of expensive computing resources and multiple coupled phenomena of fluid-structure problems. Strategies to improve time and memory performance consist in the use of reduction methods, and combined with efficient optimization techniques, vibro-acoustic solutions of better quality can be performed. The complexity of the system is taken into account thanks to a hierarchical optimization process. Both reduction method and gradient-based optimization algorithm are investigated. Based on modal synthesis, special criteria help to determine critical vibration propagation paths. A modified SQP (Sequential Quadratic Programming) algorithm is also developed in order to provide a faster convergence speed. Such process is to be applied on an academic example and hollow parts and panels of a whole passenger compartments. It allows to find relevant and non obvious solutions by minimizing noise and vibration transfer functions in a relatively wide range of frequencies
APA, Harvard, Vancouver, ISO, and other styles
50

Frisk, Mikael. "On-ship Power Management and Voyage Planning Interaction." Thesis, Uppsala universitet, Avdelningen för systemteknik, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-256405.

Full text
Abstract:
Voyage planning methods have advanced significantly in recent years to take advantage of the increasingly available computing power. With the aid of detailed weather predictions it is now possible to decide a route that is optimized with respect to some criterion. With the introduction of so called All Electric Ships; ships with diesel electric propulsion, varying the power production in order to adjust the propulsion has become easier. Incorporating a power management system with the voyage planning software on a ship allows for different techniques to reduce fuel consumption. In this thesis, three different approaches are developed, compared and combined. The first method handles the task of how to optimally share a load demand across a set of generators. The second is performing power production scheduling with respect to engine efficiencies, and finally in the third the potential in energy storage integration with the power management system is investigated. From the results, it is argued that the largest potential lies in the first approach where large fuel savings can be made without any large risk. The second approach shows potential for fuel reduction but this however is found to be heavily dependent on weather predictions and accuracy of the used models. Regarding energy storage it is found that while it is not economically feasible to increase the fuel efficiency, energy storage can be used to handle load transients and fulfil power redundancy requirements.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography