Siga este link para ver outros tipos de publicações sobre o tema: Design génératif.

Teses / dissertações sobre o tema "Design génératif"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Design génératif".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Jean, Fabien. "L'échange génératif de technologies innovantes : engagement conceptif et conception de la valeur". Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM082/document.

Texto completo da fonte
Resumo:
Dans leurs processus d’innovation, les grandes entreprises subissent un manque de ressources entre Recherche et Développement appelé vallée de la mort. Le groupe Safran s’est doté d’une direction de l’innovation afin de le compenser. Son fonctionnement est fondé sur une logique d'échange avec les sociétés du groupe. Mais dans les phases amont, lorsque les échanges comportent des inconnus, ils s’interrompent brutalement. En particulier des fiches idées issues de DKCP ne sont pas explorées. Cette recherche-intervention ambitionne donc d’établir un modèle d’action collective pour échanger dans l’inconnu. Elle défend la thèse que dans l’inconnu, vendeurs et acheteurs de technologies innovantes s’engagent dans la conception de la frontière entre des technologies et des environnements.Face aux limites des modèles d’échange marchand, de décision, d’intéressement et de créativité, cette thèse adopte un modèle d’échange intégrant l’inconnu et un cadre analytique issu des théories de la conception innovante. Elle propose le modèle de l’engagement conceptif de ressources. Elle explicite les limites de l'outil conventionnel d'échange de technologies dit Technology Readiness Levels adopté chez Safran. Elle propose alors de modéliser les échanges entre vendeurs et acheteurs de technologies comme l’exploration de la frontière Technologie-Environnement en suivant le formalisme C-K T / C-K E construit. Finalement la méthode Pilotage de l'Exploration Par les Invariants Technologie-Environnement (PEPITE) est élaborée avec la direction de l'innovation Safran sur la base de deux cas d’exploration ayant effectivement passé la vallée de la mort durant l’intervention des chercheurs
Innovation processes of large companies experience a lack of resources between Research and Development, i.e. the valley of death. Safran created its Innovation Department to counterbalance. It is based on exchanges with the subsidiaries. However such exchanges cannot be processed in most early stages, when they include unknowns. For instance, ideas generated through the DKCP method remain unexplored. This intervention-research aims at establishing a model of collective action to exchange in the unknown. It defends the thesis that, in the unknown, sellers and buyers of innovative technologies engage in the design of the boundary between technologies and environments.Facing the limits of classic models of exchanges of economy, decision, intéressement and creativity, this thesis adopts a design-theories framework. It proposes the model of design engagement of resources. It explains the limits of a common tool for exchanging technologies, i.e. Technology Readiness Levels. It proposes to model exchanges between seller and buyer as the exploration of the Technology-Environment boundary. To do so it constructs the C-K T / C-K E formalism. Finally, the method Steering Exploration Through Technology and Environment Invariants ("Pilotage de l'Exploration Par les Invariants Technologie-Environnement" (PEPITE) in French) is constructed in collaboration with Safran Innovation Department. It is based on two cases of explorations which passed the valley of death within the researchers intervention
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Gallas, Mohamed-Anis. "De l'intention à la solution architecturale : proposition d'une méthode d'assistance à la prise en compte de la lumière naturelle durant les phases amont de conception". Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0101/document.

Texto completo da fonte
Resumo:
La lumière naturelle éclaire l'espace architectural créant les conditions nécessaires pour accueillir des activités humaines. La fonction d'éclairage de la lumière naturelle est associée à une autre dimension plus sensible attribuant une identité et une singularité à l'espace conçu. La maîtrise du comportement lumineux est une activité complexe qui fait appel à une multiplicité de facteurs dont la caractérisation est confrontée à l'incertitude et l'imprécision des informations disponibles durant les phases conceptuelles du projet. L'objectif de notre recherche est de proposer une méthode d'assistance qui prend en considération les propriétés des phases amont de conception pour aider le concepteur à intégrer ses intentions d'ambiance de lumière naturelle. Nous proposons une méthode d'assistance structurée selon un processus déclaratif permettant au concepteur d'expliciter ses intentions d'effets de lumière naturelle et de les traduire en solutions architecturales potentielles qu'il peut intégrer dans son projet. Cette méthode considère les intentions d'ambiance de lumière naturelle comme une information source à utiliser pour proposer une aide à la conception pendant les phases préliminaires du projet où elles constituent les seules informations disponibles. Cette méthode offre des fonctionnalités capables de gérer l'incertitude qui caractérise les phases de recherche et de formalisation d'idées. Notre méthode d'assistance a été implémentée dans un prototype d'outil dont l'apport cognitif et la capacité d'accompagnement des activités de conception ont été évalués et analysés dans un cadre expérimental de conception de projet
The daylight illuminates the architectural space and creates the necessary conditions to accommodate human activities. The illuminating function of daylight is joined to another sensitive dimension that attributes a distinctive identity to the designed space. The control of daylight in architectural environment needs some detailed and precise characteristics about aperture and walls features. The multiplicity of these characteristics is faced with the inaccuracy and the uncertainty of the design information available during the early steps. Our research aims to propose a design support method that takes into account the early design step features and helps designers to integrate there daylight atmosphere intentions in project. We propose a design support method structured as a declarative modelling process. The declarative process helps the designer to declare his daylight intentions and to translate them to potential solutions that could be integrated in his project. This method considers the designer intentions as the main design information used to help designer during the early design steps. The proposed method provides functionalities that could operate the inaccuracy and the uncertainty of the ideas research and formalisation steps. Our design support method was implemented in a prototype design support tool. The cognitive contribution and the ability to support the design activities of the proposed tool was evaluated and analysed in an experimental design context
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Freire, Marco. "Layout problems under topological constraints for computational fabrication". Electronic Thesis or Diss., Université de Lorraine, 2024. http://www.theses.fr/2024LORR0073.

Texto completo da fonte
Resumo:
Les problèmes d'agencement surviennent dans de nombreux contextes en ingénierie et en informatique. Typiquement, la résolution d'un problème d'agencement consiste en l'organisation spatiale et l'interconnexion d'un ensemble d'éléments dans un espace. Cet espace et ces interconnexions peuvent être de complexité très variable. Un ensemble de contraintes et d'objectifs complémentent la description du problème, tels que minimiser la longueur ou la surface des interconnexions, ou fixer la position de certains éléments. La planification des étages en architecture, de niveaux de jeux vidéo, l'agencement d'installations industrielles ou de circuits électroniques, sont tous des exemples de problèmes d'agencement. Les contraintes topologiques jouent un rôle important dans l'agencement. La topologie considère des objets définis par les voisinages de leurs éléments, sans s'attarder sur leur géométrie spécifique. Par exemple, un graphe est une entité topologique, constituée uniquement des liens entre ses nœuds. Au contraire, dessiner un graphe est une opération géométrique, puisqu'elle demande de spécifier la position des nœuds. Cette thèse se focalise sur la résolution de deux problèmes d'agencement spécifiques liés à la fabrication et la conception computationnelles sujets à des contraintes topologiques. Plus particulièrement, il s'agit de la génération d'agencements de circuits électroniques et la génération de supports pour l'impression 3D. La première contribution est un système pour la conception d'écrans surfaciques constitués de DEL RVB à travers l'utilisation de circuits imprimés pliables. Nous plions les circuits imprimés traditionnels en utilisant des motifs de découpe localisés, créant ainsi des `charnières' dans la plaque. Le système prend en entrée un maillage basse-résolution et produit des plans pouvant être envoyés à des services en ligne de fabrication de circuits. Suite à la fabrication, l'écran est assemblé en pliant le circuit sur une impression 3D du maillage d'origine. Les écrans fabriqués peuvent être contrôlés à travers une interface similaire à des shaders pour créer des effets lumineux impressionnants. Le problème global est découpé en sous-problèmes locaux grâce à la topologie chaînée du circuit, les plans finaux étant obtenus en `recousant' les solutions aux sous-problèmes. Au lieu de suivre la méthode traditionnelle d'agencement électronique (concevoir le schéma électrique, placer et connecter les composants); nous décidons du nombre de composants, leur placement et leur routage séparément pour chaque triangle au moment-même de la génération. La deuxième contribution est un algorithme procédural pour la génération de supports pour l'impression 3D sous forme d'échafaudages. Ces supports s'impriment de manière fiable et sont stables [DHL14]. L'algorithme précédent ne considère pas les intersections entre les supports et l'objet imprimé, laissant des marques indésirables sur la surface de l'objet. De plus, la complexité de l'algorithme dépend du nombre de points à porter. Nous proposons un nouvel algorithme inspiré du emph{Model Synthesis} (MS) [Mer09]. Il évite implicitement les intersections et sa complexité est indépendante du nombre de points à porter. Les supports sont représentés indirectement à travers un ensemble d'étiquettes, chacune représentant une partie de la structure (par exemple une partie de pilier, de pont, ou une jonction); et un ensemble de contraintes d'adjacence déterminant quelles combinaisons d'étiquettes sont possibles dans toutes les directions. Les supports sont générés de haut en bas en attribuant de façon répétée une étiquette à un voxel, puis en propageant les contraintes afin d'éliminer les étiquettes rendues impossibles. Cet algorithme, les contraintes d'adjacences et les heuristiques utilisées sont conçues ensemble pour générer des supports sans essai-erreur ou retours arrière, typiques du MS et autres méthodes similaires
Layout problems appear in many areas of engineering and computer science. Typically, a layout problem requires to spatially arrange and interconnect a number of geometric elements in a domain. The elements can have a fixed or variable size, as well as an arbitrary shape. The domain may be be a volume, a planar region or a surface. It may be fixed or allowed to reshape. The interconnections may be simple paths, shared contact regions, or both. A set of constraints and objectives complement the problem definition, such as minimizing interconnection length, fixed positions for some elements, and many others. Layout problems are ubiquitous: floorplanning in architectural design, video game level design, industrial facility layout planning, electronics physical layout design, and so on. Topological constraints often arise in layout problems. Topology considers objects as defined by their elements' neighborhoods, without consideration for their specific geometry of placement. For example, a graph is a purely topological structure, consisting only of the relationships between its nodes. On the other hand, a graph drawing needs to specify the position of its nodes, i.e. the geometry of the graph. This thesis focuses on tackling two specific layout problems subject to topological constraints arising in computational design and fabrication. These are electronic circuit physical layout generation and 3D printing support generation. The first contribution is an entire system for the design of freeform RGB LED displays through bendable circuit boards. Typical rigid PCBs are made to bend by strategically using kerfing, i.e. cutting patterns into the board to create `hinges' where it needs to fold. The system takes a low-poly mesh as an input and outputs fabrication-ready blueprints, that can be sent to any online PCB manufacturer. After fabrication, the display is obtained by folding the circuit over the 3D printed mesh. The LEDs are commonly found on commercially available LED strips and are easy to control. Thus, the display can be used through a programmable interface to generate impressive lighting effects in real time. The global layout problem is decomposed into local per-triangle sub-problems by exploiting the chain topology of the electronic circuit, the final layout being obtained by stitching the local solutions. Instead of traditionally following the physical design pipeline, i.e. schematics design, component placement and routing; we decide the number of components, their placement and their routing per-triangle on the fly. The second contribution is a procedural algorithm for generating bridges-and-pillars supports for 3D printing. These supports have been shown to print reliably and in a stable manner in [DHL14]. Unfortunately, the previous algorithm struggles to generate supports that do not intersect the object, leaving visible scars on its surface after support removal. Additionally, its complexity scales with the number of points to support. We propose an algorithm based on emph{Model Synthesis} (MS) [Mer09] to generate these supports, with an implicit knowledge of object avoidance and a complexity independent of the number of points to support. Our algorithm works on a voxelized representation of the object. The supports are encoded in the algorithm with a set of labels, each representing a part of the structure (e.g. a pillar block, a bridge block, a pillar-bridge junction); and a set of adjacency constraints defining all possible label combinations in every direction. The supports for an object are generated top to bottom by repeatedly assigning labels to voxels and propagating constraints to remove inconsistent labels in the domain. The algorithm, adjacency constraints and heuristics are co-designed to avoid the need for trial-and-error or backtracking, typical of MS and similar approaches
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Gallas, Mohamed-Anis. "De l'intention à la solution architecturale : proposition d'une méthode d'assistance à la prise en compte de la lumière naturelle durant les phases amont de conception". Electronic Thesis or Diss., Université de Lorraine, 2013. http://www.theses.fr/2013LORR0101.

Texto completo da fonte
Resumo:
La lumière naturelle éclaire l'espace architectural créant les conditions nécessaires pour accueillir des activités humaines. La fonction d'éclairage de la lumière naturelle est associée à une autre dimension plus sensible attribuant une identité et une singularité à l'espace conçu. La maîtrise du comportement lumineux est une activité complexe qui fait appel à une multiplicité de facteurs dont la caractérisation est confrontée à l'incertitude et l'imprécision des informations disponibles durant les phases conceptuelles du projet. L'objectif de notre recherche est de proposer une méthode d'assistance qui prend en considération les propriétés des phases amont de conception pour aider le concepteur à intégrer ses intentions d'ambiance de lumière naturelle. Nous proposons une méthode d'assistance structurée selon un processus déclaratif permettant au concepteur d'expliciter ses intentions d'effets de lumière naturelle et de les traduire en solutions architecturales potentielles qu'il peut intégrer dans son projet. Cette méthode considère les intentions d'ambiance de lumière naturelle comme une information source à utiliser pour proposer une aide à la conception pendant les phases préliminaires du projet où elles constituent les seules informations disponibles. Cette méthode offre des fonctionnalités capables de gérer l'incertitude qui caractérise les phases de recherche et de formalisation d'idées. Notre méthode d'assistance a été implémentée dans un prototype d'outil dont l'apport cognitif et la capacité d'accompagnement des activités de conception ont été évalués et analysés dans un cadre expérimental de conception de projet
The daylight illuminates the architectural space and creates the necessary conditions to accommodate human activities. The illuminating function of daylight is joined to another sensitive dimension that attributes a distinctive identity to the designed space. The control of daylight in architectural environment needs some detailed and precise characteristics about aperture and walls features. The multiplicity of these characteristics is faced with the inaccuracy and the uncertainty of the design information available during the early steps. Our research aims to propose a design support method that takes into account the early design step features and helps designers to integrate there daylight atmosphere intentions in project. We propose a design support method structured as a declarative modelling process. The declarative process helps the designer to declare his daylight intentions and to translate them to potential solutions that could be integrated in his project. This method considers the designer intentions as the main design information used to help designer during the early design steps. The proposed method provides functionalities that could operate the inaccuracy and the uncertainty of the ideas research and formalisation steps. Our design support method was implemented in a prototype design support tool. The cognitive contribution and the ability to support the design activities of the proposed tool was evaluated and analysed in an experimental design context
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Brown, Ingi. "Entre firme et usagers : des biens génératifs d’usages.Théorie des biens comme espaces de conception". Thesis, Paris, ENMP, 2013. http://www.theses.fr/2013ENMP0001/document.

Texto completo da fonte
Resumo:
De nouveaux produits et services jouissent aujourd'hui d'un succès surprenant, alors qu'ils ne s'intègrent pas dans les canons traditionnels de l'innovation. Sans proposer de ruptures technologiques ni d'usages clairement identifiés, ces biens suscitent toutefois une large exploration d'usages nouveaux et inconnus, à l'image du service web Twitter ou du téléphone iPhone qui viennent bouleverser les pratiques quotidiennes de leurs usagers dans de nombreux domaines, y compris professionnels.La littérature apporte des réponses partielles aux enjeux soulevés par cette classe de biens, mais semble limitée par une vision des biens comme systèmes de découplages de la conception d'usages : celle-ci aurait lieu au sein de la firme par des approches de type analyse d'usage ou bien auprès d'usagers-concepteurs très compétents.Nous proposons ici une théorie qui veut intégrer ces différents apports tout en soulevant les hypothèses que nous jugeons trop restrictives sur les usagers, les biens et leurs rapports à la conception d'usage. Ce projet nous amène à rediscuter la notion de biens pour les considérer comme des espaces de conception d'usages, à destination d'acteurs à la fois usagers et concepteurs.Ce nouveau paradigme suppose en revanche de réinterroger le rôle de la firme dans l'organisation de cette action collective de conception d'usages. La confrontation de notre modèle théorique à trois études de cas révèle que les succès que l'on connait aujourd'hui reposent sur une organisation sophistiquée des relations entre la firme et ses usagers concepteurs, ainsi qu'une ingénierie spécifique de dispositifs de conception, de formation et de coordination
De nouveaux produits et services jouissent aujourd'hui d'un succès surprenant, alors qu'ils ne s'intègrent pas dans les canons traditionnels de l'innovation. Sans proposer de ruptures technologiques ni d'usages clairement identifiés, ces biens suscitent toutefois une large exploration d'usages nouveaux et inconnus, à l'image du service web Twitter ou du téléphone iPhone qui viennent bouleverser les pratiques quotidiennes de leurs usagers dans de nombreux domaines, y compris professionnels.La littérature apporte des réponses partielles aux enjeux soulevés par cette classe de biens, mais semble limitée par une vision des biens comme systèmes de découplages de la conception d'usages : celle-ci aurait lieu au sein de la firme par des approches de type analyse d'usage ou bien auprès d'usagers-concepteurs très compétents.Nous proposons ici une théorie qui veut intégrer ces différents apports tout en soulevant les hypothèses que nous jugeons trop restrictives sur les usagers, les biens et leurs rapports à la conception d'usage. Ce projet nous amène à rediscuter de la notion de biens pour les considérer comme des espaces de conception d'usages, à destination d'acteurs à la fois usagers et concepteurs.Ce nouveau paradigme suppose en revanche de réinterroger le rôle de la firme dans l'organisation de cette action collective de conception d'usages. La confrontation de notre modèle théorique à trois études de cas révèle que les succès que l'on connait aujourd'hui reposent sur une organisation sophistiquée des relations entre la firme et ses usagers concepteurs, ainsi qu'une ingénierie spécifique de dispositifs de conception, de formation et de coordination
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Lannuzel, Thibault. "Génération Formes Utiles, étude d’un groupe de designers en France : 1945-1973". Thesis, Paris 4, 2016. http://www.theses.fr/2016PA040127.

Texto completo da fonte
Resumo:
Le sujet se concentre sur un cycle majeur de l’Histoire de l’art et du design français d’après-guerre, pourtant largement méconnu. Durant cette période de croissance plus communément appelée Trente Glorieuses, une lignée de onze jeunes designers français s’impose ainsi dans le paysage de la création de modèles de série. Cette génération s’attachera à promouvoir le design dès la sortie de la Seconde Guerre mondiale, se basant sur la doctrine du fonctionnalisme social défendue plus tôt par Francis Jourdain, père du mobilier de série français et membre de l’UAM, puis par ses disciples René Gabriel et Marcel Gascoin. Leur formation commune au sein des meilleures écoles ou des bureaux d’études de leurs aînés, la similitude des parcours professionnels et l’existence d’affinités personnelles nous permettent ici d’avancer l’hypothèse d’un phénomène générationnel encore jamais identifié en tant que tel. Ensemble et séparément, ces designers s’attachent donc à défendre le rationalisme à la française et une production dépouillée de tout artifice, mais plus largement l’alliance du créateur et de l’industriel pour des formes justes et l’affirmation du beau dans l’utile. En outre, avec eux apparaît le statut de designer qui doit concevoir mobilier et aménagements d’intérieur de qualité, fonctionnel et accessible à tous. Cette génération fondatrice, pourtant reléguée au second plan de l’histoire du design, mérite à ce titre d’être inscrite dans la genèse d’une profession et d’une discipline dont nous tirons encore aujourd’hui les enseignements
The topic is focused on a main period of the history of art and French post-war design but which is though largely unknown. During this period of growth also called « Trente Glorieuses », a line of eleven young French designers impose their self in the landscape of the model’s creation. This generation tries hard to promote the design from the end of the Second World War by basing on the social functionalism’s doctrine which is defended before by Francis Jourdain, father of the French serial furniture and member of the UAM, and then by his disciples René Gabriel and Marcel Gascoin. Their communal training in the best schools or in the design offices of their eldests, the similarity of their careers and the existence of personal affinities may allow us to claim the possibility of a generational phenomenon never identified in itself yet. Together or separately, this designers desire to defend the French rationalism and a production without any artifice, but above all the collaboration of the creator and the manufacturer for relevant forms and the proclamation of the beauty in the utility. Moreover, it is with them that appears the designer status who has to conceive furniture and interior organisations of quality and which is functional and reachable for everyone. This pioneer generation, relegated at the middle ground of the design history, deserves to have their place in the genesis of a profession and a discipline from which we still learn lessons
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Mognol, Pascal. "Contribution à la génération automatique de gammes en tournage : génération dirigée par évaluation progressive". Cachan, Ecole normale supérieure, 1994. http://www.theses.fr/1994DENS0019.

Texto completo da fonte
Resumo:
Ce travail de recherche porte sur la génération automatique de gammes d'usinage en tournage. La complexité de ces recherches porte principalement sur deux points: il faut, d'une part, formaliser la connaissance de l'expert en gammes d'usinage (connaissance basée sur des calculs scientifiques mais aussi principalement sur l'expérience) et d'autre part, utiliser cette connaissance au mieux pour obtenir un système de génération automatique de gammes d'usinage (expertise cogniticienne). Il faut mettre en œuvre une méthode qui évite l'explosion combinatoire du nombre de solutions possibles, tout en ne réduisant pas l'espace des solutions envisagées. Pour répondre a ces exigences, nous avons mis en place un nouveau concept base sur la construction d'un graphe de résolution. Ce principe est du type ascendant. L'étude de la pièce finie permet, par habillages successifs, d'obtenir la forme brute. Des critères technologiques, qui traduisent l'expertise du gammiste, évaluent et éliminent progressivement les solutions peu fiables, tout en ne réduisant pas l'espace des solutions valides. De plus, l'analyse des critères défaillants permet de diriger l'élaboration du graphe vers des solutions répondant aux problèmes décelés. Le principe même d'élaboration du graphe garantit la non explosion combinatoire du nombre de solutions. Le graphe finalement obtenu, ne contient qu'un nombre restreint de gammes technologiquement faisables, sur lesquelles une étude finale et complète (étude de cout, par exemple) est menée. L'utilisateur peut ainsi choisir, en toutes connaissances de cause, la gamme qu'il va mettre en œuvre. Une maquette informatique a été réalisée. Les résultats obtenus ont permis de valider ces concepts dans le cadre du tournage
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Prost-Boucle, Adrien. "Génération rapide d'accélerateurs matériels par synthèse d'architecture sous contraintes de ressources". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT039/document.

Texto completo da fonte
Resumo:
Dans le domaine du calcul générique, les circuits FPGA sont très attrayants pour leur performance et leur faible consommation. Cependant, leur présence reste marginale, notamment à cause des limitations des logiciels de développement actuels. En effet, ces limitations obligent les utilisateurs à bien maîtriser de nombreux concepts techniques. Ils obligent à diriger manuellement les processus de synthèse, de façon à obtenir une solution à la fois rapide et conforme aux contraintes des cibles matérielles visées.Une nouvelle méthodologie de génération basée sur la synthèse d'architecture est proposée afin de repousser ces limites. L'exploration des solutions consiste en l'application de transformations itératives à un circuit initial, ce qui accroît progressivement sa rapidité et sa consommation en ressources. La rapidité de ce processus, ainsi que sa convergence sous contraintes de ressources, sont ainsi garanties. L'exploration est également guidée vers les solutions les plus pertinentes grâce à la détection, dans les applications à synthétiser, des sections les plus critiques pour le contexte d'utilisation réel. Cette information peut être affinée à travers un scénario d'exécution transmis par l'utilisateur.Un logiciel démonstrateur pour cette méthodologie, AUGH, est construit. Des expérimentations sont menées sur plusieurs applications reconnues dans le domaine de la synthèse d'architecture. De tailles très différentes, ces applications confirment la pertinence de la méthodologie proposée pour la génération rapide et autonome d'accélérateurs matériels complexes, sous des contraintes de ressources strictes. La méthodologie proposée est très proche du processus de compilation pour les microprocesseurs, ce qui permet son utilisation même par des utilisateurs non spécialistes de la conception de circuits numériques. Ces travaux constituent donc une avancée significative pour une plus large adoption des FPGA comme accélérateurs matériels génériques, afin de rendre les machines de calcul simultanément plus rapides et plus économes en énergie
In the field of high-performance computing, FPGA circuits are very attractive for their performance and low consumption. However, their presence is still marginal, mainly because of the limitations of current development tools. These limitations force the user to have expert knowledge about numerous technical concepts. They also have to manually control the synthesis processes in order to obtain solutions both fast and that fulfill the hardware constraints of the targeted platforms.A novel generation methodology based on high-level synthesis is proposed in order to push these limits back. The design space exploration consists in the iterative application of transformations to an initial circuit, which progressively increases its rapidity and its resource consumption. The rapidity of this process, along with its convergence under resource constraints, are thus guaranteed. The exploration is also guided towards the most pertinent solutions thanks to the detection of the most critical sections of the applications to synthesize, for the targeted execution context. This information can be refined with an execution scenarion specified by the user.A demonstration tool for this methodology, AUGH, has been built. Experiments have been conducted with several applications known in the field of high-level synthesis. Of very differen sizes, these applications confirm the pertinence of the proposed methodology for fast and automatic generation of complex hardware accelerators, under strict resource constraints. The proposed methodology is very close to the compilation process for microprocessors, which enable it to be used even by users non experts about digital circuit design. These works constitute a significant progress for a broader adoption of FPGA as general-purpose hardware accelerators, in order to make computing machines both faster and more energy-saving
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Marcati, Alain. "Génération de particules de polymères à structure contrôlée par la microfluidique". Thesis, Toulouse, INPT, 2009. http://www.theses.fr/2009INPT033G/document.

Texto completo da fonte
Resumo:
Ces travaux de recherche s’inscrivent d’une part dans une thématique d’intensification de procédés : la synthèse des particules de polymères est classiquement réalisée en batch en présence de solvants, tensioactifs et agents stabilisateurs. Dans ces conditions, les particules générées ont une distribution de taille assez large. Pour palier à celà, la synthèse des particules est envisagée en continu dans des microcanaux avec l’eau en phase dispersante, sans ajout de tensioactifs et sans traitement de surface des parois du microréacteur. L’utilisation de l’échelle micrométrique va ainsi procurer une très grande régularité aux dispersions générées et empêcher la coalescence des gouttelettes au sein du milieu qui provoque la polydispersité des particules dans les cuves agitées. Nous avons donc développé des outils microfluidiques et étudié l’hydrodynamique dans ces microréacteurs pour obtenir la génération de gouttelettes sphériques afin de synthétiser des billes d’un diamètre inférieur à la centaine de microns par polymérisation directe des gouttes. Ces travaux visent d’autre part, la production de nouveaux matériaux puisque l’objectif était non seulement de produire des particules simples mais d’envisager des structures plus complexes telles que des particules multicouches de type oignon pour lesquelles on pourrait choisir la nature et l’épaisseur de chaque couche. Nous avons donc travaillé sur la manipulation de l’écoulement après polymérisation pour envisager des méthodes d’enrobage des particules coeurs. Enfin nous avons trouvé une nouvelle application liée à la synthèse de particules en microcanaux : la création de colonnes chromatographiques remplies de particules
This work is full part of process intensification : polymer particles are usually synthesized in batch reactors with solvents, surfactants and stabilizers. In these conditions, particles are obtained with large size distribution. In order to reduce size distribution, particles synthesis is then studied in a continuous process in microchannels in water, without surfactants nor surface treatment of microreactors’ walls. The micron-size scale provides indeed better control of monomer dispersion and prevents droplets coalescence which is the major reason of polydispersity in stirred tank reactors.That is why we have developped microfluidic tools and studied hydrodynamics and droplet generation into microreactors in order to synthetize polymer beads smaller than a hundred microns by direct polymerization of spherical droplets. This work also deals with new material creaction : the objective was also to produce onion-like structures for whom we could choose each layer chemical nature and thickness. We have then analysed manipulation of partciles flow to determine ways of encapsulating core particles. Finally, we also developped a new application related to polymer beads into microchannels : the creation of micropacked chromatography columns
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Tissot, Régis. "Contribution à la génération automatique de tests à partir de modèles et de schémas de test comme critères de sélection dynamiques". Besançon, 2009. http://www.theses.fr/2009BESA2015.

Texto completo da fonte
Resumo:
Cette thèse est une contribution à la conception d'une méthode de génération automatique de tests à partir de modèles (ou MBT -Model Based Testing). Le contexte de nos travaux se situe dans la continuité de ceux effectués autour de l'outil BZ- TT (BZ- Testing Tools) qui permet d'engendrer des tests fonctionnels à partir de modèles décrits en langage B. Les critères de sélection de tests implémentés dans l'outil BZ- TT reposent sur la couverture structurelle du modèle du système à valider en prenant en compte les structures de données et de contrôle de celui-ci. Cette approche ne permet pas de générer de tests à partir de propriétés liées au comportement dynamique du système, par exemple en tenant compte de propriétés basées sur des enchaînements d'opérations. Afin de répondre à cette problématique, un certain nombre de travaux proposent des méthodes où l'expertise humaine est exploitée afin de définir des critères de sélection de tests "dynamiques". De tels critères de sélection permettent, à l'ingénieur de définir des stratégies basées sur des propriétés et des aspects du système qu'il souhaite valider. Nos contributions s'inscrivent dans cette voie, tout en visant la complémentarité par rapport à la génération automatique de tests par couverture structurelle du modèle dans un objectif de valorisation des technologies et ressources déployées à cette fin. Notre première contribution est la définition d'un langage de formalisation d'objectifs de tests qui permet d'exprimer des ensembles de scénarios de tests inspirés de propriétés à valider sur le système. Ce langage permet de décrire des schémas de tests à partir d'un formalisme, basé sur celui des expressions régulières, qui permet de décrire des ensembles de scénarios principalement par des enchaînements d'appels d'opération et d'états symboliques. Nous définissons une méthode de génération de tests intégrée à l'outil BZ- TT, afin que celui-ci prenne en compte ce nouveau critère de sélection de tests. Cette méthode permet de réutiliser les technologies d'animation symbolique et de résolution de contraintes de cet outil, ainsi que de conserver les fonctionnalités d'exportation et de concrétisation des tests produits. Dans cette méthode, la seule charge supplémentaire pour l'ingénieur de validation est la définition des schémas de test utilisés comme critère de sélection. Nos dernières contributions, visent à évaluer la complémentarité de notre méthode avec celle de génération automatique de tests par couverture structurelle du modèle. Nous proposons une méthode d'évaluation de la complémentarité entre deux suites de tests. Cette méthode est basée sur le calcul de la couverture d'états et de transitions des suites de tests sur une abstraction du système. Enfin, nous appliquons cette méthode à trois études de cas (deux applications de type carte à puce et un système de gestion de fichiers Posix), et nous montrons la complémentarité qu'elle apporte
This PhD thesis is a contribution to the conception of an automatic Model Based Testing (MBT) approach for test generation. The framework of our works is the BZ-TT (BZ-Testing Tools) technology, that allows for generating functional tests from models written in B. The test selection criteria implemented in BZ- TT ensure structural coverage of the model of the system to validate. It takes into account the data and control structures of the model. This approach does not allow for generating tests from properties expressing dynamic behaviors of the system such as properties based on operations sequencing. To address this problem, some works propose to involve human expertise to define "dynamic" selection criteria. Such selection criteria make it possible for the validation engineer to define strategies based on properties and aspects of the system thet he wants to validate. Our contributions explore this way, and target the complementarity with respect to the tests generated from the structural coverage of the model, in order to benefit from the resources and technology previously deployed for this goal. Our first contribution is the definition of a language for the formalization of test purposes, that allows for expressing test scenarios inspired by the properties to validate on the system. This language is based on a regular expressions-like formalism, and aims at describing scenarios by means of operation calls and symbolic states. We define a test generation method integrated to BZ- TT, so that these tools can take these new selection criteria into account. This way, we can re-use the technics of symbolic animation and of constraint solving of BZ- TT. We also benefit from the functionalities of export and concretization of the produced tests. With this method, the only additional work for the validation engineer is to define the test schemas used as selection criteria. Our last contribution is to assess the complementarity of our method with the automatic generation of tests by structural coverage of the model. We propose a method to assess the complementarity of two test suites. It is based on the computing of the coverage in terms of states and transitions of an abstraction of the system by th test suites. Finally, we apply this method to three case studies (two smart card applications and the POSIX fil management system), and we show the complementarity brought by the method
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Ghorbel, Imen. "Génération de fréquences agiles pour petits objets communicants autonomes". Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4363.

Texto completo da fonte
Resumo:
Le secteur des communications sans fil a connu un essor considérable, soutenu par l’évolution des "smartphones" et par le développement des réseaux de capteurs sans fil et de l’Internet des Objets (connu en anglais sous le nom ‘IoT’ pour Internet of Things). Les applications actuelles visent l’autonomie énergétique des objets communicants et nécessitent la conception de circuits intégrés pouvant assurer à la fois un fonctionnement à hautes performances et à moindre coût. L’une des principales fonctions des systèmes de communications radiofréquences (RF) est la génération de fréquence, assurée par l’oscillateur. De nombreux efforts de conception sont ainsi nécessaires afin d’assurer les performances requises par les nouvelles applications sans fil. Nos travaux de recherche ont pour objectif de proposer une méthode de conception d’oscillateurs agiles à faible consommation au sein des systèmes d’émission-réception RF. Le travail s’est focalisé sur l’étude et l’optimisation des éléments constitutifs d’un oscillateur LC passif en technologie CMOS et sur la proposition d’une méthode de conception. La méthode proposée peut être exploitée pour différentes structures d’oscillateurs afin d’optimiser leurs performances essentiellement en termes de consommation de puissance et de bruit de phase. Cette méthode a été appliquée pour implémenter plusieurs VCOs en technologie CMOS. Une série de mesure sous pointes a permis de valider leur fonctionnement. La suite de ce travail de thèse est consacrée à la proposition d’une nouvelle topologie d’oscillateur LC reconfigurable à base d’inductance active dédiée aux applications multistandards faible coût
The rapid growth of the Internet of Things (IoT) applications and the wireless sensor networks boosts the need for low cost and low power radiofrequency (RF) transceivers. The voltage-controlled oscillator (VCO) is an essential building block of several RF transceivers. Design tradeoffs have been very stringent in terms of power consumption, phase-noise, area and tuning range. In this context, the aim of this work is to propose a design method, aiming to optimize the VCO design and to improve its performances essentially in terms of power consumption and phase noise.The first part of this thesis sets a study of the elements of passive LC oscillators in CMOS technology. The second part presents a complete design method, aiming to optimize the LC-VCO performance regarding the phase noise and power consumption. The evaluation of the proposed method is carried out with some test-cases in full CMOS technology. Many RF LC-VCOs have been implemented and measured. The final part of this thesis presents a new tunable VCO suitable for multi-standards applications. The frequency tuning of the VCO is ensured using an active inductor based on CMOS inverters. The desired bandwidth can be selected while achieving low surface area and low power consumption
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Lacourcière, Roxanne. "Dissidence : pour une nouvelle génération de résistance". Master's thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/25326.

Texto completo da fonte
Resumo:
Je m’intéresse aux femmes et à la résistance qu’elles imposent aux conditionnements en matière de beauté qui leur sont infligés par la société occidentale. Dissidence est le résultat de deux années de recherches et créations portant sur l’exploration de cette forme résistance. La dissidence est l’action ou l’état d’une personne qui cesse d’obéir à une communauté, à une autorité établie. Ce type de refus existe chez les femmes en regard aux normes imposées par les diverses industries gérant le domaine de la mode. C’est d’ailleurs autour de ces notions que je définis ma démarche artistique et mon corpus de dessins.
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Petit, Dorian. "Génération automatique de composants logiciels sûrs à partir de spécifications formelles B". Valenciennes, 2003. http://www.theses.fr/2003VALE0039.

Texto completo da fonte
Resumo:
Ce mémoire est consacré à l'étude de la génération de code à partir de spécifications formelles B. L'aspect primordial à maîtriser pour la génération de code est la modularité du langage B. Pour ce faire, nous avons modélisé le système de modules du langage B en l'exprimant par un système de modules à la Harper-Lillibridge-Leroy. Cette modélisation nous permet de clarifier certains aspects de la modularité de B et nous permet ainsi d'avoir une représentation des spécifications B qui pourra ensuite être utilisée lors de la phase de génération de code. Ce nouveau système de module pour B nous permet également d'aborder une technique de production de logiciel, la programmation par composants. Cette technique est souvent utilisée conjointement à la programmation par contrats. Notre démarche de génération de code permet de marier ces deux techniques à celle du développement formel B pour tirer partie des avantages de chacune des méthodes de développement
These works are related to the study of the code generation from B formal specifications. The main aspect that should be studied in the code generation is the modularity of the B language. We have expressed the B modularity with an Harper-Lillibridge-Leroy module system (an ML-like module system). This modelisation clarifies some aspects of the B modularity and gives us a representation of the B modules that are used during the phase of code generation. This new module system for the B language allows us to tackle a software production technique: the components based approach. This technique is often used conjointly with the design by contracts technique. Our code generation process allows to blend the design by contracts approach, the component based approach and the B method. We can take advantage of the three approaches to develop software
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Ouattara, Issa. "Recherche, développement et réalisation d'un contrôleur de Fabry-Perot de nouvelle génération". Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4725.

Texto completo da fonte
Resumo:
L’équipe Physique des Galaxies du Laboratoire d’Astrophysique de Marseille a développé un nouveau type d'interféromètre de Fabry-Perot, équipé de trois actionneurs piézoélectriques amplifiés et de trois capteurs capacitifs permettant le contrôle de l'espacement et du parallélisme des lames de verres de l'ordre de 200 µm avec une précision de positionnement du nm.L'objectif visé de ce manuscrit, composé de 3 parties, est le pilotage de cet interféromètre. La première partie, composée des chapitres 1 et 2, présente les généralités sur l'interférométrie de Fabry-Perot puis décrit les instruments 3DNTT et BTFI où seront installés l'interféromètre de nouvelle génération et son contrôleur associé. La conception et la réalisation d'un amplificateur hybride en vue de la réduction des non-linéarités des actionneurs piézoélectriques mettent fin à cette partie.La deuxième partie, chapitres 3 et 4, décrit le développement et la réalisation du contrôleur. Pour cela, une démarche basée sur le concept du Co-design a été adoptée.Le contrôleur ainsi réalisé est composé d'une carte de développement Microzed dont le cœur est un système sur puce de la série Zynq 7000 EPP et d'une carte d'interfaçage comportant des convertisseurs 3 ADC et 3 DAC et des circuits d'alimentation. La troisième et dernière partie, chapitres 5 et 6, traite de la modélisation d'état de l’interféromètre de Fabry-Perot et de son contrôle : un contrôle classique basé sur la régulation PID et un contrôle robuste et optimal basé sur le filtrage de KALMAN. Cette dernière partie conclut sur les perspectives pouvant découler des contributions de ce travail sur le contrôle et la commande Fabry-Perot
The Physics of Galaxies Team of Laboratoire d'Astrophysique de Marseille (LAM) has developed a new type of Fabry-Perot, with three amplified piezoelectric actuators and three capacitive sensors to control the spacing and parallelism of mirror plates of approximately 200 µm with a positioning accuracy of 3 nm.The purpose of this manuscript, consisting of 3 parts is the control of this interferometer.The first part, consisting of Chapters 1 and 2 presents the general interferometry Fabry-Perot and then describes 3DNTT and BTFI instruments which will be installed the next generation interferometer and its associated controller. The design and implementation of a hybrid amplifier to reduce non-linearities of the piezoelectric actuators (hysteresis and creep) end this first part.The second part, Chapters 3 and 4, describes the development and implementation of the controller.For this, an approach based on codesign concept was adopted. The thus achieved controller consists of a Microzed development board whose heart is a system on chip of the 7000 series Zynq EPP (FPGA + Dual-Core ARM Cortex A9) and an interface card with converters (3 ADC and 3 DAC) and power supply circuits.For the finalization of the controller, two steps are necessary: hardware design in Xilinx Vivado and software design in Xilinx SDK.The third and final section, chapters 5 and 6 deals with the Fabry-Perot space-state modeling and its control: a classic control based on PID control and a robust and optimal control based on KALMAN filtering. This last part concludes the outlook may result from contributions of this work on the monitoring and control of the Fabry-Perot
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Wang, Chenggang. "Génération des séquences de désassemblage et leur évaluation : Intégration dans un environnement de réalité virtuelle". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENI087/document.

Texto completo da fonte
Resumo:
De nos jours, l'intégration des opérations de désassemblage lors de la conception des produits est un enjeu crucial. On estime que dans la phase initiale de la conception d'un produit, le coût des opérations de désassemblage représente environ 30% de son coût total. Ainsi, la simulation des opérations de désassemblage de produits industriels trouve un fort intérêt pour des simulations interactives grâce à des programmes d'immersion et en temps réel. Dans ce contexte, dans un premier temps, cette thèse présente une méthode de génération des séquences de désassemblage possibles pour le désassemblage sélectif. La méthode est basée sur les niveaux les plus bas du graphe de désassemblage des produits. Au lieu de considérer les contraintes géométriques pour chaque paire de composants, la méthode proposée tient compte des contacts (relations géométriques entre les composants) et des collisions afin de générer le Graphe Géométrique de Contacts et de Désassemblage (DGCG). Celui-ci est ensuite utilisé pour la génération des séquences de désassemblage permettant ainsi de réduite le nombre de séquences possibles en ignorant les composants non liés avec la cible. Une application de simulation a été développée, intégrée dans un environnement de réalité virtuelle (RV) permettant ainsi la génération du nombre minimum de séquences possibles de désassemblage.Dans un second temps, une méthode d'évaluation des opérations de désassemblage par analyse géométrique 3D de l'amovibilité dans un environnement RV est proposée. Elle est basée sur sept nouveaux critères qui sont: la visibilité d'une pièce, les angles de désassemblage, le nombre des changements d'outils, le changement d'orientation des trajectoires, la stabilité des sous-ensembles, les angles de rotation du cou et flexion du corps. Tous ces critères sont présentés par des coefficients sans dimension calculés automatiquement par l'application développée, permettant ainsi d'évaluer la complexité des séquences de désassemblage. A cet effet, un environnement mixte de réalité virtuelle pour le désassemblage (VRDE) est développé, basé sur le langage de programmation Python, en utilisant deux bibliothèques : VTK (Visualisation Toolkit) et ODE (Open Dynamics Engine), les formats d'échange étant fichiers: STEP, WRL et STL. L'analyse des résultats obtenus démontrent la fiabilité de l'approche proposée fournissant ainsi une aide non négligeable pour l'évaluation des séquences de désassemblage lors de processus de développement de produits (PDP). Les autres conséquences de ce travail consistent à classer les critères en fonction de leur importance. A cet effet, des coefficients de modération peuvent être attribués à chacun d'eux permettant ainsi une méthode d'évaluation plus complète
Integration of disassembly operations during product design is an important issue today. It is estimated that at the earliest stages of product design, the cost of disassembly operations almost represents 30 % of its total cost. Nowadays, disassembly operation simulation of industrial products finds a strong interest in interactive simulations through immersive and real-time schemes. In this context, in the first place, this thesis presents a method for generating the feasible disassembly sequences for selective disassembly. The method is based on the lowest levels of a disassembly product graph. Instead of considering the geometric constraints for each pair of components, the proposed method considers the geometric contact and collision relationships among the components in order to generate the so-called Disassembly Geometry Contacting Graph (DGCG). The latter is then used for disassembly sequence generation thus allowing the number of possible sequences to be reduced by ignoring any components which are unrelated to the target. A simulation framework was developed integrated in a Virtual reality environment thus allowing generating the minimum number of possible disassembly sequences. Secondly, a method for disassembly operation evaluation by 3D geometric removability analysis in a Virtual environment is proposed. It is based on seven new criteria which are: visibility of a part, disassembly angles, number of tools' changes, path orientation changing, sub-assembly stability, neck score and bending score. All criteria are presented by dimensionless coefficients automatically calculated, thus allowing evaluating disassembly sequences complexity. For this purpose, a mixed virtual reality disassembly environment (VRDE) is developed based on Python programming language, utilizing VTK (Visualization Toolkit) and ODE (Open Dynamics Engine) libraries. The framework is based on STEP, WRL and STL exchange formats. The analysis results and findings demonstrate the feasibility of the proposed approach thus providing significant assistance for the evaluation of disassembly sequences during Product Development Process (PDP). Further consequences of the present work consist in ranking the criteria according to their importance. For this purpose, moderation coefficients may be allocated to each of them thus allowing a more comprehensive evaluating method
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Caglar, Alper Harun. "Structures adaptatives en fonction de la lumière : DARMIN comme outil de génération d'ambiances architecturales dynamiques". Master's thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/25448.

Texto completo da fonte
Resumo:
Cette recherche propose un milieu virtuel comme un dispositif de représentation morphologique des ambiances lumineuses générées par une structure adaptative et dynamique, mettant en relation le rapport entre l’extérieur et l’intérieur à l’étape de conception architecturale. L’outil développé appelé DARMIN, « Daylight Adaptive aRchitecture Modeling INterface », devient l’inducteur exploratoire de la démarche de création, grâce à son système interactif. Le concepteur, en situation d’exploration typologique formelle, exploite les potentialités et les qualités de l’espace architectural que l’ambiance lumineuse recèle. De cette façon, la recherche proposée offre la possibilité de l'émergence de nouvelles réponses morphologiques complexes soutenant la démarche du design. Elle permet en outre aux concepteurs d’expérimenter un large éventail de solutions possibles dans un laboratoire virtuel, un environnement de conception contrôlée qui renforce la créativité de l’architecte. Ainsi, la recherche présentée s’intéresse particulièrement à montrer le potentiel d’une structure architecturale adaptative qui bonifie quantitativement et qualitativement l’expérience de l’espace interne et externe, à travers la nature dynamique de l’ambiance lumineuse.
This research proposes a virtual environment as a device for morphological representation of luminous ambiances generated by an adaptive and dynamic structure, linking the relationship between the outside and inside at the stage of architectural conception. This developed tool called DARMIN « Daylight Adaptive aRchitecture Modeling INterface », becomes an exploratory inductor within the creative process through its interactive system. The designer, in typologically formal exploration phase, exploits the potential and qualities of architectural space that luminous ambiances harbors. In this way, the proposed research offers the possibility of the emergence of new complex morphological responses supporting the process of design. It also allows designers to experiment with a wide range of possible solutions in a virtual laboratory, controlled design environment that enhances the creativity of the architect. Thus, the presented research is particularly interested in showing the potential of adaptive architectural structure that quantitatively and qualitatively improves the experience of internal and external space through the dynamic nature of the luminous ambiances.
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Solanki, Jigar. "Approche générative conjointe logicielle-matérielle au développement du support protocolaire d’applications réseaux". Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0301/document.

Texto completo da fonte
Resumo:
Les communications entre les applications réseaux sont régies par un ensemble de règles regroupées sous forme de protocoles. Les messages protocolaires sont gérés par une couche de l’application réseau connue comme étant la couche de support protocolaire. Cette couche peut être de nature logicielle, matérielle ou conjointe. Cette couche se trouve à la frontière entre le coeur de l’application et le monde extérieur. A ce titre, elle représente un composant névralgique de l’application. Les performances globales de l’application sont ainsi directement liées aux performances de la couche de support protocolaire associée.Le processus de développement de ces couches consiste à traduire une spécification du protocole, écrite dans un langage de haut niveau tel que ABNF dans un langage bas niveau, logiciel ou matériel. Avec l’avènement des systèmes embarqués, de plus en plus de systèmes sur puce proposent l’utilisation de ressources matérielles afin d’accroître les performances des applicatifs. Néanmoins, peu de processus de développement de couches de support protocolaire tirent parti de ces ressources, en raison notamment de l’expertise nécessaire dans ce domaine.Cette thèse propose une approche générative conjointe logicielle-matérielle au développement du support protocolaire d’applications réseaux, pour améliorer leur performance tout en restant ergonomique pour le développeur de l’application. Notre approche est basée sur l’exploitation d’un langage dédié, appellé Zebra pour générer les différents composants logiciels et matériels formant la couche de support. L’expertise nécessaire est déportée dans l’utilisation du langage Zebra et les composants matériels générés permettent d’accroître les performances de l’application.Les contributions de cette thèse sont les suivantes : Nous avons effectué une analyse des protocoles et applications réseaux. Cette analyse nous a permis d’identifier les composants pour lesquels il est possible d’obtenir des gains de performances.Nous avons conçu et exploité un langage dédié, Zebra, permettant de décrire les différentes entités de la couche de support protocolaire et générant les éléments logiciels et matériels la composant. Nous avons construit un système sur puce exécutant un système d’exploitation Linux afin d’étayer notre approche. Nous avons conçu des accélérateurs matériels déployables pour différents protocoles réseaux sur ce système et pilotables par les applicatifs. Afin de rendre l’accès aux accélérateurs matériels transparent pour les applications réseaux, nous avons développé un intergiciel gérant l’ensemble de ces accès. Cet intergiciel permet à plusieurs applications et/ou à plusieurs clients d’une même application d’utiliser les accélérateurs pour le traitement des messages protocolaires. Nous avons évalué les performances de notre approche dans des conditions réelles. Nous avons comparé ces performances à celles de couches de supports faisant référence dans le domaine. Nous avons constaté un gain de performance conséquent pour l’approche que nous proposons
Communications between network applications is achieved by using rulesets known as protocols. Protocol messages are managed by the application layer known as the protocol parsing layer or protocol handling layer. Protocol parsers are coded in software, in hardware or based on a co-design approach. They represent the interface between the application logic and the outside world. Thus, they are critical components of network applications. Global performances of network applications are directly linked to the performances of their protocol parser layers.Developping protocol parsers consists of translating protocol specifications, written in a high level language such as ABNF towards low level software or hardware code. As the use of embedded systems is growing, hardware ressources become more and more available to applications on systems on chip (SoC). Nonetheless, developping a network application that uses hardware ressources is challenging, requiring not only expertise in hardware design, but also a knowledge of the protocols involved and an understanding of low-level network programming.This thesis proposes a generative hardware-software co-design based approach to the developpement of network protocol message parsers, to improve their performances without increasing the expertise the developper may need. Our approach is based on a dedicated language, called Zebra, that generates both hardware and software elements that compose protocol parsers. The necessary expertise is deported in the use of the Zebra language and the generated hardware components permit to improve global performances.The contributions of this thesis are as follows : We provide an analysis of network protocols and applications. This analysis allows us to detect the elements which performances can be improved using hardware ressources. We present the domain specific language Zebra to describe protocol handling layers. Software and hardware components are then generated according to Zebra specifications. We have built a SoC running a Linux operating system to assess our approach.We have designed hardware accelerators for different network protocols that are deployed and driven by applications. To increase sharing of parsing units between several tasks, we have developped a middleware that seamlessly manages all the accesses to the hardware components. The Zebra middleware allows several clients to access the ressources of a hardware accelerator. We have conducted several set of experiments in real conditions. We have compared the performances of our approach with the performances of well-knownprotocol handling layers. We observe that protocol handling layers baded on our approach are more efficient that existing approaches
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Ghorbel, Imen. "Génération de fréquences agiles pour petits objets communicants autonomes". Electronic Thesis or Diss., Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4363.

Texto completo da fonte
Resumo:
Le secteur des communications sans fil a connu un essor considérable, soutenu par l’évolution des "smartphones" et par le développement des réseaux de capteurs sans fil et de l’Internet des Objets (connu en anglais sous le nom ‘IoT’ pour Internet of Things). Les applications actuelles visent l’autonomie énergétique des objets communicants et nécessitent la conception de circuits intégrés pouvant assurer à la fois un fonctionnement à hautes performances et à moindre coût. L’une des principales fonctions des systèmes de communications radiofréquences (RF) est la génération de fréquence, assurée par l’oscillateur. De nombreux efforts de conception sont ainsi nécessaires afin d’assurer les performances requises par les nouvelles applications sans fil. Nos travaux de recherche ont pour objectif de proposer une méthode de conception d’oscillateurs agiles à faible consommation au sein des systèmes d’émission-réception RF. Le travail s’est focalisé sur l’étude et l’optimisation des éléments constitutifs d’un oscillateur LC passif en technologie CMOS et sur la proposition d’une méthode de conception. La méthode proposée peut être exploitée pour différentes structures d’oscillateurs afin d’optimiser leurs performances essentiellement en termes de consommation de puissance et de bruit de phase. Cette méthode a été appliquée pour implémenter plusieurs VCOs en technologie CMOS. Une série de mesure sous pointes a permis de valider leur fonctionnement. La suite de ce travail de thèse est consacrée à la proposition d’une nouvelle topologie d’oscillateur LC reconfigurable à base d’inductance active dédiée aux applications multistandards faible coût
The rapid growth of the Internet of Things (IoT) applications and the wireless sensor networks boosts the need for low cost and low power radiofrequency (RF) transceivers. The voltage-controlled oscillator (VCO) is an essential building block of several RF transceivers. Design tradeoffs have been very stringent in terms of power consumption, phase-noise, area and tuning range. In this context, the aim of this work is to propose a design method, aiming to optimize the VCO design and to improve its performances essentially in terms of power consumption and phase noise.The first part of this thesis sets a study of the elements of passive LC oscillators in CMOS technology. The second part presents a complete design method, aiming to optimize the LC-VCO performance regarding the phase noise and power consumption. The evaluation of the proposed method is carried out with some test-cases in full CMOS technology. Many RF LC-VCOs have been implemented and measured. The final part of this thesis presents a new tunable VCO suitable for multi-standards applications. The frequency tuning of the VCO is ensured using an active inductor based on CMOS inverters. The desired bandwidth can be selected while achieving low surface area and low power consumption
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Valderrama, Carlos. "Prototype virtuel pour la génération des architectures mixtes logicielles-matérielles". Grenoble INPG, 1998. http://www.theses.fr/1998INPG0121.

Texto completo da fonte
Resumo:
L'objectif de ce travail de thèse est le développement d'une méthodologie pour la génération rapide d'architectures flexibles et modulaires pour les systèmes distribués. Cette approche, appelé aussi "prototypage virtuel", est une étape essentielle dans le processus de conception conjointe des systèmes mixtes logiciel/matériel. Les approches de recherche dans ce domaine sont motivées par le besoin urgent de prototypes pour valider la spécification, par la disponibilité des outils et des environnements de synthèse pour les parties logicielles et matérielles. Le prototypage virtuel permet à la fois la manipulation du domaine logiciel ainsi que du domaine matériel. Il prend en entrée une architecture hétérogène composée d'un ensemble de modules distribués issu du découpage matériel/logiciel et génère des descriptions exécutables pour des éléments matériels et logiciels. Ce travail décrit une stratégie de prototypage virtuel pour la co­synthèse (génération des modules matériels et logiciels sur une plate­forme architecturale) et la co­simulation (c'est­à­dire la simulation conjointe de ces deux composants) dans un environnement unifié. Ces travaux définissent également le développement d'un environnement de co­simulation distribué et flexible permettant l'utilisation de différents outils de simulation, de langages, la génération de modèles matériels et logiciels synthésisables et l'ordonnancement des modèles multiprocesseurs sur une architecture monoprocesseur. Cette approche, présentée dans la conférence ED&TC, a obtenu le prix de l'année 1995. Des outils ont été mis en pratique dans l'environnement de conception conjointe Cosmos. Ce travail a aussi fait l'objet d'un transfert de technologie au profit de SGS­Thomson Microelectronics. Les outils développés au cours de cette thèse ont été utilisés pour les projets Européens COMITY (particulièrement utilisé par l'Aérospatiale Missiles à Toulouse et Intracom en Grèce) et CODAC, et par d'autres groupes comme le FZI de l'université de Tübingen et PSA à Paris
The objective of this work is to develop a methodology for the generation of flexible and modular architectures for distributed systems. This approach (also called " virtual prototyping ") is an essential stage in the process of joint design (codesign) of mixed software/hardware systems. Virtual prototyping takes as input a heterogeneous architecture made up of a whole of distributed modules resulting from software/hardware partitioning. It generates executable descriptions for software and hardware elements. Research approaches in this field are justified by the evolution of technology, the urgent need for prototypes to validate the specification, and by the availability of tools and synthesis environments for the design of software and hardware parts. One of the major difficulties of virtual prototyping is that it allows at the same time to handle both, software and hardware. This work describes a strategy of virtual prototyping for the cosynthesis (generation of the modules material and software on an architectural platform) and cosimulation (i. E. The joint simulation of these two kind of components) in a unified environment, the development of a distributed and flexible cosimulation environment allowing the use of several simulation tools and languages, the generation of hardware/software synthesizable models and mono-processor architecture software generation for a set of communicating processes. This approach, presented in the ED&TC conference, got the best paper award in 1995. The tools developed during this thesis were put into practice in the Cosmos codesign environment. One of them was transferred to SGS-Thomson Microelectronics. The tools were also used for the Europeans projects COMITY (particularly used by Aerospace the Missiles in Toulouse and Intracom in Greece) and CODAC, and by other groups like the FZI of the university of Tübingen and PSA in Paris
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Stefanakis, Themistoklis. "Tsunami amplification phenomena". Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2013. http://tel.archives-ouvertes.fr/tel-00920527.

Texto completo da fonte
Resumo:
This thesis is divided in four parts. In the first one I will present our work on long wave run-up and some resonant amplification phenomena. With the use of numerical simulations for the nonlinear shallow water equations, we show that in the case of monochromatic waves normally incident on a plane beach, resonant run-up amplification occurs when the incoming wavelength is 5.2 times larger the beach length. We also show that this resonant run-up amplification can be observed for several wave profiles such as bichromatic, polychromatic and cnoidal. However, resonant run-up amplification is not restricted to infinitely sloping beaches. We varied the bathymetric profile, and we saw that resonance is present in the case of piecewise linear and real bathymetries. In the second part I will present a new analytical solution to study the propagation of tsunamis from a finite strip source over constant depth using linear shallow-water wave theory. The solution, which is based on separation of variables and a double Fourier transform in space, is exact, easy to implement and allows the study of realistic waveforms such as N-waves. In the third part I will explore the effect of localized bathymetric features on long wave generation. Even when the final displacement is known from seismic analysis, the deforming seafloor includes relief features such as mounts and trenches. We investigate analytically the effect of bathymetry on the surface wave generation, by solving the forced linear shallow water equation. Our model for bathymetry consists of a cylindrical sill on a flat bottom, to help understand the effect of seamounts on tsunami generation. We derive the same solution by applying both the Laplace and the Fourier transforms in time. We find that as the sill height increases, partial wave trapping reduces the wave height in the far field, while amplifying it above the sill. Finally, in the last part I will try to explore whether small islands can protect nearby coasts from tsunamis as it is widely believed by local communities. Recent findings for the 2010 Mentawai Islands tsunami show amplified run-up on coastal areas behind small islands, compared with the run-up on adjacent locations, not influenced by the presence of the islands. We will investigate the conditions for this run-up amplification by numerically solving the nonlinear shallow water equations. Our bathymetric setup consists of a conical island sitting on a flat bed in front of a plane beach and we send normally incident single waves. The experimental setup is governed by five physical parameters. The objective is twofold: Find the maximum run-up amplification with the least number of simulations. Given that our input space is five-dimensional and a normal grid approach would be prohibitively computationally expensive, we present a recently developed active experimental design strategy, based on Gaussian Processes, which significantly reduces the computational cost. After running two hundred simulations, we find that in none of the cases considered the island did offer protection to the coastal area behind it. On the contrary, we have measured run-up amplification on the beach behind it compared to a lateral location on the beach, not directly affected by the presence of the island, which reached a maximum factor of 1.7. Thus, small islands in the vicinity of the mainland will act as amplifiers of long wave severity at the region directly behind them and not as natural barriers as it was commonly believed so far.
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Kabac, Milan. "A Design-Driven Methodology for the Development of Large-Scale Orchestrating Applications". Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0133/document.

Texto completo da fonte
Resumo:
Notre environnement est de plus en plus peuplé de grandes quantités d’objets intelligents. Certains surveillent des places de stationnement disponibles, d’autres analysent les conditions matérielles dans les bâtiments ou détectent des niveaux de pollution dangereux dans les villes. Les quantités massives de capteurs et d’actionneurs constituent des infrastructures de grande envergure qui s’étendent sur des terrains de stationnement entiers, des campus comprenant plusieurs bâtiments ou des champs agricoles. Le développement d’applications pour de telles infrastructures reste difficile, malgré des déploiement réussis dans un certain nombre de domaines. Une connaissance considérable des spécificités matériel / réseau de l’infrastructure de capteurs est requise de la part du développeur. Pour remédier à ce problème, des méthodologies et des outils de développement logiciel permettant de relever le niveau d’abstraction doivent être introduits pour que des développeurs non spécialisés puissent programmer les applications. Cette thèse présente une méthodologie dirigée par la conception pour le développement d’applications orchestrant des quantités massives d’objets communicants. La méthodologie est basée sur un langage de conception dédié, nommé DiaSwarm qui fournit des constructions déclaratives de haut niveau permettant aux développeurs de traiter des masses d’objets en phase de conception, avant de programmer l’application. La programmation générative est utilisée pour produire des cadres de programmation spécifiques à la conception pour guider et soutenir le développement d’applications dans ce domaine. La méthodologie intègre le traitement parallèle de grandes quantités de données collectées à partir de masses de capteurs. Nous introduisons un langage de déclarations permettant de générer des cadres de programmation basés sur le modèle de programmation MapReduce. En outre, nous étudions comment la conception peut être utilisée pour rendre explicites les ressources requises par les applications ainsi que leur utilisation. Pour faire correspondre les exigences de l’application à une infrastructure de capteurs cible, nous considérons les déclarations de conception à différents stades du cycle de vie des applications. Le passage à l’échelle de cette approche est évaluée dans une expérience qui montre comment les cadres de programmation générés s’appuyant sur le modèle de programmation MapReduce sont utilisés pour le traitement efficace de grands ensembles de données de relevés des capteurs. Nous examinons l’efficacité de l’approche proposée pour relever les principaux défis du génie logiciel dans ce domaine en mettant en oeuvre des scénarios d’application qui nous sont fournis par des partenaires industriels. Nous avons sollicité des programmeurs professionnels pour évaluer l’utilisabilité de notre approche et présenter des données quantitatives et qualitatives de l’expérience
Our environment is increasingly populated with large amounts of smart objects. Some monitor free parking spaces, others analyze material conditions in buildings or detect unsafe pollution levels in cities. The massive amounts of sensing and actuation devices constitute large-scale infrastructures that span over entire parking lots, campuses of buildings or agricultural fields. Despite being successfully deployed in a number of domains, the development of applications for such infrastructures remains challenging. Considerable knowledge about the hardware/network specificities of the sensor infrastructure is required on the part of the developer. To address this problem, software development methodologies and tools raising the level of abstraction need to be introduced to allow non-expert developers program applications. This dissertation presents a design-driven methodology for the development of applications orchestrating massive amounts of networked objects. The methodology is based on a domain-specific design language, named DiaSwarm that provides high-level, declarative constructs allowing developers to deal with masses of objects at design time, prior to programming the application. Generative programming is used to produce design-specific programming frameworks to guide and support the development of applications in this domain. The methodology integrates the parallel processing of large-amounts of data collected from masses of sensors. We introduce specific language declarations resulting in the generation of programming frameworks based on the MapReduce programming model. We furthermore investigate how design can be used to make explicit the resources required by applications as well as their usage. To match the application requirements to a target sensor infrastructure, we consider design declarations at different stages of the application lifecycle. The scalability of this approach is evaluated in an experiment, which shows how the generated programming frameworks relying on the MapReduce programming model are used for the efficient processing of large datasets of sensor readings. We examine the effectiveness of the proposed approach in dealing with key software engineering challenges in this domain by implementing application scenarios provided to us by industrial partners. We solicited professional programmers to evaluate the usability of our approach and present quantitative and qualitative data from the experiment
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Lasnier, Gilles. "Une approche intégrée pour la validation et la génération de systèmes critiques par raffinement incrémental de modèles architecturaux". Thesis, Paris, ENST, 2012. http://www.theses.fr/2012ENST0036/document.

Texto completo da fonte
Resumo:
L’augmentation de la complexité des systèmes temps-réel répartis embarqués (TR2E) et leur implication dans de nombreux domaines de notre quotidien imposent de nouvelles mé thodes de réalisation. Dans les domaines dits critiques (transport, médecine...) ces systèmes doivent satisfaire des contraintes dures pour garantir leur bon fonctionnement et éviter toutes défaillances qui engendreraient des conséquences financières ou humaines dramatiques. L’Ingénierie Dirigée par les Modèles (IDM) introduit le “modèle” - i.e. une description abstraite du système - et un ensemble d’outils (édition, transformation...) permettant la simplification et l’automatisation des étapes de conception, de validation et de génération du système. Ainsi, différentes abstractions du système sont élaborées dans des formalismes spécifiques de manière à couvrir un aspect du système et à permettre la réutilisation des outils d’analyse et de génération existants. Cependant, ces multiples représentations évoluent à des niveaux d’abstractions différents et il n’est pas toujours évident de mettre en corrélation système analysé et système généré. Ce travail de thèse exploite les concepts et les mécanismes offerts par l’IDM pour améliorer la fiabilité du processus de réalisation des systèmes critiques basé sur les modèles. L’approche que nous avons définie repose sur la définition du langage de modélisation architecturale et comportementale AADL-HI Ravenscar - un sous-ensemble du langage AADL (Architecture Analysis & Design Language) et de son annexe comportementale - contraint pour permettre conjointement l’analyse et la génération de l’ensemble des composants de l’application y compris de son exécutif, avec une sémantique proche d’un langage de programmation impératif
The increasing complexity of distributed realtime and embedded (DRE) systems and their implication in various domains imply new design and development methods. In safety- criticial domains such as space, aeronautical, transport or medicine, their failure could result in the failure of the mission, or in dramatic damages such as human losses. This particular class of systems comes with strong requirements to satisfy safety, reliability and security properties. The Model-driven Engineering (MDE) introduces the concept of «model» - an abstract description of the system and a set of tools (editor, transformation engine, code generator) to simplify and automatize the design, the validation and the implementation of the system. Thus, various abstractions are realized using different domain-specific modeling languages in order to assess one particular aspect of the system and to re-use model-based analysis tools and generative technologies. These various representations may share some commonalities but the consistency between them is hard to validate (for example : Is the analyzed system the same as the generated one ?).This PhD thesis leverages MDE concepts and mechanisms, to enhance the reliability of the model-based development process of DRE systems. Our approach is based on the definition of the architectural and behavioral modeling language AADLHI Ravenscar, a restriction of AADL (Architecture Analysis & Design Language) and its behavioral annex. This subset of AADL constructs, comes up with a semantic close to the one of an imperative programming language, to drive both the analysis and the code generation of the application components and its relying execution platform (middleware) components
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Dabbebi, Ines. "Conception et génération dynamique de tableaux de bord d’apprentissage contextuels". Thesis, Le Mans, 2019. http://www.theses.fr/2019LEMA1040/document.

Texto completo da fonte
Resumo:
Ce travail s’inscrit dans une problématique générale de l’analytique de l’apprentissage numérique et particulièrement dans le contexte du projet ANR HUBBLE, un observatoire national permettant le dépôt de processus d’analyse de haut niveau. Nous nous intéressons principalement à la communication des données d’analyse aux utilisateurs en mettant à leur disposition des tableaux de bord d'apprentissage (TBA). Notre problématique porte sur l’identification de structures génériques dans le but de générer dynamiquement des TBA sur mesure. Ces structures doivent être à la fois génériques et adaptables aux besoins d’utilisateurs. Les travaux existants proposent le plus souvent des TBA trop généraux ou développés de manière adhoc. Au travers du projet HUBBLE, nous souhaitons exploiter les décisions des utilisateurs pour générer dynamiquement des TBA. Nous nous sommes intéressés au domaine de l’informatique décisionnelle en raison de la place des tableaux de bord dans leur processus. La prise de décision exige une compréhension explicite des besoins des utilisateurs. C'est pourquoi nous avons adopté une approche de conception centrée sur l'utilisateur dans le but de lui fournir des TBA adaptés. Nous proposons aussi un processus de capture des besoins qui a permis l’élaboration de nos modèles (indicateur, moyens de visualisation, utilisateur, …). Ces derniers sont utilisés par un processus de génération implémenté dans un prototype de générateur dynamique. Nous avons procédé à une phase d'évaluation itérative dont l’objectif est d'affiner nos modèles et de valider l'efficacité de notre processus de génération ainsi que de démontrer l'impact de la décision sur la génération des TBA
This work is part of a broader issue of Learning Analytics (LA). It is particularly carried out within the context of the HUBBLE project, a national observatory for the design and sharing of data analysis processes. We are interested in communicating data analysis results to users by providing LA dashboards (LAD). Our main issue is the identification of generic LAD structures in order to generate dynamically tailored LAD. These structures must be generic to ensure their reuse, and adaptable to users’ needs. Existing works proposed LAD which remains too general or developed in an adhoc way. According to the HUBBLE project, we want to use identified decisions of end-users to generate dynamically our LAD. We were interested in the business intelligence area because of the place of dashboards in the decision-making process. Decision-making requires an explicit understanding of user needs. That's why we have adopted a user-centered design (UCD) approach to generate adapted LAD. We propose a new process for capturing end-users’ needs, in order to elaborate some models (Indicator, visualization means, user, pattern, …). These models are used by a generation process implemented in a LAD dynamic generator prototype. We conducted an iterative evaluation phase. The objective is to refine our models and validate the efficiency of our generation process. The second iteration demonstrates the impact of the decision on the LAD generation. Thus, we can confirm that the decision is considered as a central element for the generation of LADs
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Brun, Juliette. "Modéliser le pouvoir expansif de la structuration des connaissances en conception innovante : mise en évidence des effets génératifs du K-preordering grâce à l'étude du non-verbal". Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLEM007/document.

Texto completo da fonte
Resumo:
La thèse étudie le pouvoir génératif de la structuration des connaissances pour la conception innovante. Partant d’une analyse de la générativité des structures de connaissances non-verbales, et notamment du dessin d’architecte, elle identifie un nouveau mode de conception en montrant comment une revisite des rapports entre connaissances favorise la génération de nouveaux concepts. En particulier, une restructuration des connaissances visant à rendre la structure splitting, c’est-à-dire, sans rapports modulaires ou déterministes entre connaissances, possède un fort pouvoir génératif. En session collective, les médias non-verbaux, tels que le dessin, les images ou encore le prototypage 3D, se révèlent ainsi particulièrement favorables à la restructuration des connaissances : trois conditions nécessaires présentées dans la thèse doivent cependant être réunies afin de garantir la performance du non-verbal en session collective. Par ailleurs, ce phénomène de restructuration générative - aussi appelée K-preordering – diffère de l’exploration classique par génération de concepts alternatifs. Les deux modes de conception ne sont pas pour autant incompatibles : la thèse propose ainsi un processus de conception alternant phases de K-preordering et phases de génération de concepts. Ce processus est notamment testé à travers deux cas de recherche-intervention visant à provoquer la réorganisation des structures de connaissances stabilisées et partagées à l’échelle de l’organisation. Ces deux cas montrent en particulier comment un tel processus favorise la conception de programmes de recherche transdisciplinaires
The thesis investigates the generative power of knowledge structuration for innovative design. Analyzing the generativity of non-verbal knowledge structures - especially, architectural drawings -, this work identifies a new design method by showing that the transformation of links between knowledge bases fosters concept generation. In particular, a restructuration that aims to design a splitting structure - a structure avoiding modular and deterministic links between knowledge bases - has a strong generative power. During collective creativity sessions, non-verbal tools such as sketches, pictures or 3D-printing, can enhance knowledge restructuration: however, three necessary conditions, which are presented in the thesis, have to be met in order to ensure performance of the non-verbal tools used during the session. Moreover, this generative restructuration - also called K-preordering - differs from the classic design exploration by alternative concepts generation. But the two design modes are not mutually exclusive: the thesis proposes a design process that alternates K-preordering and concept generation. This process is applied in two studies, which were led as action research and intended to foster the reorganization of knowledge structures that were both stabilized and shared at the organizational level. In particular, these studies show how such a process helps enhancing the design of transdisciplinary research programs
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Emilien, Arnaud. "Création interactive de mondes virtuels : combiner génération procédurale et contrôle utilisateur intuitif". Thèse, Grenoble, 2014. http://hdl.handle.net/1866/11661.

Texto completo da fonte
Resumo:
Réalisé en cotutelle avec l'Université de Grenoble.
La complexité des mondes virtuels ne cesse d’augmenter et les techniques de modélisation classiques peinent à satisfaire les contraintes de quantité nécessaires à la production de telles scènes. Les techniques de génération procédurale permettent la création automatisée de mondes virtuels complexes à l’aide d’algorithmes, mais sont souvent contre-intuitives et par conséquent réservées à des artistes expérimentés. En effet, ces méthodes offrent peu de contrôle à l’utilisateur et sont rarement interactives. De plus, il s’agit souvent pour l’utilisateur de trouver des valeurs pour leurs nombreux paramètres en effectuant des séries d’essais et d’erreurs jusqu’à l’obtention d’un résultat satisfaisant, ce qui est souvent long et fastidieux. L’objectif de cette thèse est de combiner la puissance créatrice de la génération procédurale avec un contrôle utilisateur intuitif afin de proposer de nouvelles méthodes interactives de modéli- sation de mondes virtuels. Tout d’abord, nous présentons une méthode de génération procédurale de villages sur des terrains accidentés, dont les éléments sont soumis à de fortes contraintes de l’environnement. Ensuite, nous proposons une méthode interactive de modélisation de cascades, basée sur un contrôle utilisateur fin et la génération automatisée d’un contenu cohérent en regard de l’hydrologie et du terrain. Puis, nous présentons une méthode d’édition de terrains par croquis, où les éléments caractéristiques du terrain comme les lignes de crêtes sont analysés et déformés pour correspondre aux silhouettes complexes tracées par l’utilisateur. Enfin, nous proposons une métaphore de peinture pour la création et l’édition interactive des mondes virtuels, où des tech- niques de synthèse d’éléments vectoriels sont utilisées pour automatiser la déformation et l’édition de la scène tout en préservant sa cohérence.
The complexity required for virtual worlds is always increasing. Conventional modeling tech- niques are struggling to meet the constraints and efficiency required for the production of such scenes. Procedural generation techniques use algorithms for the automated creation of virtual worlds, but are often non-intuitive and therefore reserved to experienced programmers. Indeed, these methods offer fewer controls to users and are rarely interactive. Moreover, the user often needs to find values for several parameters. The user only gets indirect control through a series of trials and errors, which makes modeling tasks long and tedious. The objective of this thesis is to combine the power of procedural modeling techniques with intuitive user control towards interactive methods for designing virtual worlds. First, we present a technique for procedural modeling of villages over arbitrary terrains, where elements are subjected to strong environmental constraints. Second, we propose an interactive technique for the procedural modeling of waterfall sceneries, combining intuitive user control with the automated generation of consistent content, in regard of hydrology and terrain constraints. Then, we describe an interactive sketch-based technique for editing terrains, where terrain features are extracted and deformed to fit the user sketches. Finally, we present a painting metaphor for virtual world creation and editing, where methods for example-based synthesis of vectorial elements are used to automate deformation and editing of the scene while maintaining its consistency.
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Chaisemartin, Philippe. "Contribution à la génération automatique de plans de masse". Phd thesis, Grenoble 1, 1986. http://tel.archives-ouvertes.fr/tel-00322531.

Texto completo da fonte
Resumo:
Cette thèse présente l'introduction de méthodes nouvelles dans le domaine de la conception assistée par ordinateur de circuits à haute intégration. A partir de la description d'un ensemble d'individus par la liste de leurs corrélations (ou distances) deux à deux, l'analyse factorielle de données se propose d'en fournir une représentation planaire. Le but de cette thèse est de décrire le cheminement parcouru pour pouvoir utiliser ces méthodes connues depuis longtemps des statisticiens, dans le domaine de la génération de plans de masse. Ainsi, plusieurs idées originales permettant l'utilisation d'algorithmes classiques d'analyse factorielle de données dans le cadre de la CAO de circuits sont présentées. Ces idées sont concrétisées par la réalisation et la présentation d'un logiciel de génération de plans de masse
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Hamdi, Belgacem. "Outils CAO pour la génération automatique de parties opératives auto-controlables". Grenoble INPG, 1994. http://www.theses.fr/1994INPG0041.

Texto completo da fonte
Resumo:
Le travail presente dans cette these concerne l'etude et l'implementation d'outils cao pour la generation des circuits auto-controlables. Une bibliotheque de cellules dediees aux implementations auto-controlables est developpee. Un outil cao de generation automatique de parties operative (po) auto-controlables est realise autour de cette bibliotheque et integre a un outil cao standard en l'occurence cadence. Pour la realisation d'un tel outil, plusieurs approches ont ete envisagees. L'approche qui combinant l'utilisation de cellules standards et de cellules predefinies a ete retenue, car elle offre un meilleur compromis optimisation/flexibilite. L'un des points essentiels de cette these est qu'elle s'appuie sur une implementation efficace de po auto-controlables. Cette implementation repose sur trois techniques essentielles. La premiere consiste a combiner le code double-rail (pour les additionneurs, uals) et le code de parite (pour les autres blocs de la po). Avec cette approche, les convertisseurs de code sont evites. La deuxieme technique consiste en l'utilisation de portes differentielles specifiques qui sont concues de facon a inclure leurs duales. Leur duplication est ainsi evitee. Enfin, ce schema beneficie de l'approche appelee controle de la retenue et prediction de la parite (cr/pp). Cette approche evite la duplication des registres d'entree et des blocs complexes tels que celui de l'anticipation de retenue ou de retenue bondissante. Notre outil permet ainsi, l'implementation de po auto-controlables efficaces avec un minimum d'augmentation materielle. La generation est automatique. Elle offre, toutefois, au concepteur le choix de plusieurs parametres de la po (taille et type de l'ua/ual, nombre de bus de la po, taille de la memoire locale, etc). L'interet de ce travail reside dans le fait que, dans l'etat actuel des choses, les techniques de test en ligne ont un handicap majeur a savoir le temps de conception considerable en l'absence d'outils cao adequats. Les outils du type presentes dans cette these permettent de combler ce manque et de surmonter cet handicap
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Kebichi, Omar. "Techniques et outils de CAO pour la génération automatique de test intégré pour RAMs". Grenoble INPG, 1994. http://www.theses.fr/1994INPG0062.

Texto completo da fonte
Resumo:
Le bist (built-in self-test) est une technique de test autonome puisque toutes les fonctions necessaires pour le test sont implementees a l'interieur du circuit lui-meme. Il peut assurer la testabilite pendant la duree de vie du circuit (test apres fabrication au niveau puce et wafer, test au niveau carte et systeme, test de maintenance et test periodique pendant l'utilisation du circuit). En ce qui concerne le scan path, cette solution permet l'elimination des problemes de controlabilite et d'observabilite qui sont presents surtout lors du test de circuits enterres. L'inconvenient de cette technique est l'augmentation du temps de test. L'utilisation d'un circuit bist requiert generalement un peu plus de materiel, mais reduit considerablement le temps de test. Cependant, le choix de la solution de test la plus performante depend de differents criteres (taille de la memoire, temps de test, taux de couverture de fautes, effort de conception etc. ). Ainsi, dans cette these nous proposons plusieurs techniques scan path et bist pour memoires ram. Pour la solution scan path, nous proposons une technique divisant par n le temps d'application des donnees de test (n etant la longueur de la donnee de test). Pour l'observation des reponses plusieurs techniques tenant compte du temps d'observation et de la couverture de fautes sont etudiees. Concernant la solution bist, differentes techniques pour la generation d'adresses, la generation des donnees de test et la verification des reponses de sorties sont proposees. Un outil pour la generation automatique de ces schemas bist et scan path a ete realise. Cet outil permet aussi de choisir la technique de test la plus adequate. Toujours concernant la solution bist, une technique de realisation d'analyseurs de signature sans masquage et une autre pour le calcul exact du taux de masquage ont ete aussi proposees. Concernant le test periodique de rams qui est parfois obligatoire dans un systeme, nous proposons une architecture de bist transparent tres efficace qui permet de tester la ram sans detruire son contenu initial. Un outil de generation automatique de bist transparent pour rams a aussi ete developpe
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Dang, Dinh Khanh. "Analyse de performance des technologies sans fil pour les systèmes embarqués avioniques de nouvelle génération". Thesis, Toulouse, ISAE, 2014. http://www.theses.fr/2014ESAE0057/document.

Texto completo da fonte
Resumo:
Les architectures de communication avionique actuelles impliquent un poids et des coûts d'intégration importants à cause de la quantité croissante du câblage et des connecteurs utilisés. Afin de répondre à ces besoins émergents, nous avons proposé dans cette thèse l'intégration des technologies sans fil dans le contexte avionique comme principale solution pour diminuer le poids et la complexité dus au câblage. Tout d’abord, nous avons conçu un réseau avionique de secours basé sur la technologie HRUWB, implémentant un protocole d'arbitrage TDMA et des divers mécanismes de fiabilité pour garantir les exigences de déterminisme et de sûreté. Par la suite, nous avons procédé à l'évaluation des performances de notre proposition en termes de délais en se basant sur des méthodes analytiques. Par ailleurs, nous avons étudié différentes solutions afin d’améliorer les marges d'évolutivité et de fiabilité du système. Enfin, nous avons validé notre réseau proposé à travers une étude de cas avionique réaliste; et les résultats obtenus ont mis en évidence la capacité de notre proposition à garantir les exigences du système en termes de déterminisme et de fiabilité
The current avionics communication architecture inherits significant weight and integration costs due to the increasing quantity of wires and connectors. In addition, avionics interconnects are still subject to structural failure and fire hazard which decrease reliability and ramify the maintenance. To cope with these arising issues, integrating wireless technologies in avionics context is proposed in this thesis as a main solution to decrease the wiring-related weight and complexity.To achieve this aim, we design an alternative backup avionic network based on HR-UWB technology implementing a TDMA arbitration protocol and various reliability mechanisms to guarantee predictability and reliability requirements.Afterwards, we conduct analytical performance evaluation of our proposal in terms of delays. Moreover, we investigate different solutions to reach further enhancements on the system scalability and reliability.Finally, the validation of our proposal through a realistic avionics case study has been conduced, and the obtained results highlight its ability to guarantee the system requirements in terms of predictability and reliability
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Stauff, Nicolas. "Etude conceptuelle d’un cœur de quatrième génération, refroidi au sodium, à combustible de type carbure". Thesis, Paris 11, 2011. http://www.theses.fr/2011PA112284.

Texto completo da fonte
Resumo:
Contrairement à ses prédécesseurs (Phénix, Super-Phénix, EFR…), le réacteur à neutrons rapides refroidi au sodium (RNR-Na) de IVième génération doit justifier un niveau de sûreté élevé tout en étant à la fois viable économiquement et non-proliférant. Profitant d’un large retour d’expérience, les combustibles de type Oxyde (U,Pu)O2 représentent actuellement la solution de référence en France. Cependant, les combustibles de type carbure (U,Pu)C sont considérés comme une option innovante pour apporter à la conception d’un RNR-Na des degrés d’optimisation supplémentaires. L’objectif de cette thèse était donc de mettre en avant les potentialités du combustible carbure en concevant un cœur de RNR-Na à la fois attractif d’un point de vue économique et au comportement naturel en transitoire incidentel. Pour un parc de réacteurs français, on s’intéressera plus particulièrement à des cœurs iso-générateurs de forte puissance électrique (1500 MWe).Cet objectif a requis la mise en place d’une approche pluridisciplinaire prenant en compte les contraintes de thermomécanique combustible et de thermo-hydraulique en transitoire incidentel dès les premières étapes de la conception. Des modèles simplifiés basés sur les contre-réactions globales K, G et H ont été développés pour estimer le comportement d’un projet de cœur en transitoire de type insertion de réactivité, perte de débit primaire et/ou secondaire. L’avantage de cette nouvelle approche est surtout d’apporter au concepteur des outils complémentaires l’aidant à avoir une vision globale des problématiques de conception, mettant ainsi en avant les innovations ou les paramètres à optimiser pour améliorer les performances d’un cœur de RNR-Na.Cette approche a été appliquée à la conception de cœurs à combustibles carbure avec des performances très intéressantes. Un cœur de forte puissance électrique est proposé : il est isogénérateur de faible volume, avec un inventaire fissile initial réduit et un comportement naturel en transitoire incidentel très satisfaisant. Cependant, le taux de combustion d’une aiguille carbure dans un tel cœur semble limité à 100 MWj/kg à cause du gonflement important du carbure et de sa faible capacité à fluer, ce qui conduit rapidement à l’Interaction Mécanique Pastille-Gaine. Une aiguille fonctionnant à forte puissance linéique nécessite à la fois un jeu pastille-gaine épais et un joint sodium pour retarder l’IMPG, mais aussi un acier de gainage capable d’accommoder l’interaction par son fluage.Les performances en irradiation d’un combustible carbure pour un cœur industriel semblent donc très inférieures à celles obtenues expérimentalement dans le FBTR, où des aiguilles ont atteint un taux de combustion maximal de 155 MWj/kg. Cette différence a été étudiée et en partie expliquée, notamment par la fluence beaucoup plus faible obtenue dans un réacteur expérimental, retardant le critère de gonflement volumique. Deux voies d’exploration ont été mises en évidence pour augmenter les performances du carbure tel qu’utilisé dans un réacteur industriel. La première utilise un jeu pastille-gaine avec une technologie de type « buffer » pour retarder l’IMPG. La seconde est un cœur de faible fluence utilisant un enrichissement accru en plutonium. Les résultats préliminaires obtenus montrent que des taux de combustion supérieurs à 100 MWj/kg devraient être atteignables.Pour conclure, l’approche de conception pluridisciplinaire mise en place au cours de cette thèse s’est révélée efficace pour mettre en avant les avantages du combustible de type carbure. Celle-ci a permis de concevoir une image de cœur de RNR-Na attractive d’un point de vue économique, avec un comportement pardonnant en transitoire accidentel et capable d’atteindre un taux de combustion élevé
Compared with earlier plant designs (Phénix, Super-Phénix, EFR), GEN IV Sodium-cooled Fast Reactor requires improved economics while meeting safety and non-proliferation criteria. Mixed Oxide (U-Pu)O2 fuels are considered as the reference fuels due to their important and satisfactory feedback experience. However, innovative carbide (U-Pu)C fuels can be considered as serious competitors for a prospective SFR fleet since carbide-fueled SFRs can offer another type of optimization which might overtake on some aspects the oxide fuel technology. The goal of this thesis is to reveal the potentials of carbide by designing an optimum carbide-fueled SFR with competitive features and a naturally safe behavior during transients. For a French nuclear fleet, a 1500 MW(e) break-even core is considered.To do so, a multi-physic approach was developed taking into account neutronics, fuel thermo-mechanics and thermal-hydraulic at a pre-design stage. Simplified modeling with the calculation of global neutronic feedback coefficients and a quasi-static evaluation was developed to estimate the behavior of a core during overpower transients, loss of flow and/or loss of heat removal transients. The breakthrough of this approach is to provide the designer with an overall view of the iterative process, emphasizing the well-suited innovations and the most efficient directions that can improve the SFR design project.This methodology was used to design a core that benefits from the favorable features of carbide fuels. The core developed is a large carbide-fueled SFR with high power density, low fissile inventory, break-even capability and forgiving behaviors during the unscrammed transients studied that should prevent using expensive mitigate systems. However, the core-peak burnup is unlikely to significantly exceed 100 MWd/kg because of the large swelling of the carbide fuel leading to quick pellet-clad mechanical interaction and the low creep capacity of carbide. Moderate linear power fuel pins require both a large initial sodium-bonded gap, delaying the fuel clad mechanical interaction, and a clad able to accommodate it by its high irradiation creep capacity.Irradiated carbide fuel performances predicted for an industrial SFR design are lower than the one obtained in the FBTR reactor irradiations, where 155 MWd/kg was obtained. This difference was studied and partly explained by the lower flux of experimental reactor delaying the embrittlement criterion. Innovative designs are now being considered to enhance the carbide-fueled pins burnup performance of industrial cores. The first innovative design uses a buffer technology to induce a delay in getting to the fuel clad mechanical interaction. The second innovative design is a core using high plutonium content so as to optimize the fluence over burnup ratio. Preliminary results show that a burnup higher than 100 MWd/kg can be reached.As a conclusion, this global approach has proven to be efficient in revealing the benefits gained using carbide fuel in a SFR. An optimum SFR core was designed exhibiting economic competitiveness while having inherent behavior during transient and reaching high burnup performance
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Da, Silva Joao Lucas. "Design and control of a multicell interleaved converter for a hybrid photovoltaic-wind generation system". Phd thesis, Toulouse, INPT, 2017. http://oatao.univ-toulouse.fr/19318/7/DASILVA_JoaoLucas.pdf.

Texto completo da fonte
Resumo:
The solution for the generating energy derived from non-polluting sources configures a worldwide problem, which is undetermined, complex, and gradual; and certainly, passes through the diversification of the energetic matrix. Diversification means not only having different sources converted into useful energy, like the electricity, but also decentralizing the energy generation in order to fit with higher adequacy the demand, which is decentralized too. Distributed Generation proposes this sort of development but in order to increase its penetration several technical barriers must be overpassed. One of them is related to the conversion systems, which must be more flexible, modular, efficient and compatible with the different energy sources, since they are very specific for a certain area. The present study drives its efforts towards this direction, i.e. having a system with several inputs for combining different renewable energy sources into a single and efficient power converter for the grid connection. It focuses on the design and control of an 11.7 kW hybrid renewable generation system, which contains two parallel circuits of photovoltaic panels and a wind turbine. A multicell converter divided in two stages accomplishes the convertion: Generation Side Converter (GSC) and Mains Side Converter (MSC). Two boost converters responsible for the photovoltaic generation and a rectifier and a third boost, for the wind constitue the GSC. It allows the conversion to the fixed output DC voltage, controlling individually and performing the maximum power point tracking in each input. On the other side, the single-phase 4- cell MSC accomplishes the connection to the grid through an LCL filter. This filter uses an Intercell Transformer (ICT) in the first inductor for reducing the individual ripple generated by the swicthing. The MSC controls the DC-link voltage and, by doing that, it allows the power flow from the generation elements to the network.
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Ghosh, Amar Nath. "Design, simulations et expériences de génération de supercontinuum dans l'infrarouge moyen dans des fibres à cristaux phoniques en verre souple". Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCD035.

Texto completo da fonte
Resumo:
Cette thèse de doctorat, financée dans le cadre d’un projet Européen Marie-Curie H2020 SUPUVIR, porte sur la conception et la fabrication de nouvelles fibres optiques de verres infrarouges permettant de produire un large spectre d’émission dans l’infrarouge moyen par génération de supercontinuum. Les applications couvrent la spectroscopie, la détection optique d’espèces chimiques et moléculaires, le traitement des matériaux et l'imagerie biomédicale. Plusieurs fibres optiques avec différents structures photoniques et différent matériaux infrarouges ont été réalisées et étudiées. En collaboration avec l'Institut de technologie des matériaux électroniques à Varsovie, nous avons dans un premier temps développé des fibres microstructurées en verre d’oxyde de métal (PBG81) et nous avons démontré avec ces fibres la génération efficace de supercontinuum de 0.89 µm à 2.5 µm, limité par l’absorption du verre. Ensuite, nous avons conçu en partenariat avec l’Université de Rennes et l’Université Technique du Danemark des fibres microstructurées à base de verres chalcogénures (As38Se62) avec un maintien de la polarisation. Ces fibres ont permis de générer un supercontinuum de 3.1 à 6 µm linéairement polarisé. Les capacités de tenue à la puissance laser de ces fibres chalcogénures ont été également analysées. Afin d’étendre cette bande d’émission, des fibres étirées en verre Ge10As22Se68 à très petit cœur ont été ensuite réalisées. Enfin, nous avons développé un système compact comprenant une série de fibres de silice, de verre fluoré, et de verre chalcogénure, pompé par un laser à fibre à 1.55 µm, et permettant d’étendre la gamme d’émission de 2 à 10 µm. Ces travaux de recherche constituent ainsi une étape importante vers le développement de sources fibrées, stables et compactes pour diverses applications dans l’infrarouge moyen
This doctoral thesis, funded within the framework of a European Marie-Curie H2020 SUPUVIR project, focuses on the design and fabrication of new photonic crystal fibers from infrared soft glasses making it possible to produce a wide emission spectrum in the mid-infrared (IR) wavelength region through generation of supercontinuum (SC). Applications of mid-IR SC sources cover infrared spectroscopy, optical detection of chemical and molecular species, materials processing, and biomedical imaging. An alternative to conventional thermal light sources, mid-IR sources have broad spectral bandwidth like a lamp or Globar and high brightness, which is more than 20 times of the sun focussed in a small spot similar to a laser. Several optical fibers with different photonic structures and different soft glasses have been produced and studied. In collaboration with the Institute of Electronic Materials Technology in Warsaw, heavy metal-oxide glass (PBG81) microstructured fibers were first developed and with these fibers we demonstrated the efficient generation of SC from 0.89 to 2.5 µm, limited by the absorption of the glass. Then, in partnership with the University of Rennes and the Technical University of Denmark, we fabricated microstructured fibers based on chalcogenide glasses (As38Se62) with polarization-maintaining property. These fibers have made it possible to generate a linearly polarized 3.1 to 6 µm supercontinuum. SC bandwidth was further extended between 1 µm and 7.4 µm in taper fibers produced from Ge10As22Se68 glass. The laser power handling capacities of these chalcogenide fibers were also analyzed. Finally, we have developed a compact mid-IR SC system using a fiber cascade comprising of silica, fluoride, and chalcogenide fiber, pumped by a fiber laser at 1.55 µm, and making it possible to extend the emission range from 2 to 10 µm. This research work thus constitutes an important step towards the development of stable and compact fiber SC sources for various applications in the mid-infrared
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Lasnier, Gilles. "Une approche intégrée pour la validation et la génération de systèmes critiques par raffinement incrémental de modèles architecturaux". Electronic Thesis or Diss., Paris, ENST, 2012. http://www.theses.fr/2012ENST0036.

Texto completo da fonte
Resumo:
L’augmentation de la complexité des systèmes temps-réel répartis embarqués (TR2E) et leur implication dans de nombreux domaines de notre quotidien imposent de nouvelles mé thodes de réalisation. Dans les domaines dits critiques (transport, médecine...) ces systèmes doivent satisfaire des contraintes dures pour garantir leur bon fonctionnement et éviter toutes défaillances qui engendreraient des conséquences financières ou humaines dramatiques. L’Ingénierie Dirigée par les Modèles (IDM) introduit le “modèle” - i.e. une description abstraite du système - et un ensemble d’outils (édition, transformation...) permettant la simplification et l’automatisation des étapes de conception, de validation et de génération du système. Ainsi, différentes abstractions du système sont élaborées dans des formalismes spécifiques de manière à couvrir un aspect du système et à permettre la réutilisation des outils d’analyse et de génération existants. Cependant, ces multiples représentations évoluent à des niveaux d’abstractions différents et il n’est pas toujours évident de mettre en corrélation système analysé et système généré. Ce travail de thèse exploite les concepts et les mécanismes offerts par l’IDM pour améliorer la fiabilité du processus de réalisation des systèmes critiques basé sur les modèles. L’approche que nous avons définie repose sur la définition du langage de modélisation architecturale et comportementale AADL-HI Ravenscar - un sous-ensemble du langage AADL (Architecture Analysis & Design Language) et de son annexe comportementale - contraint pour permettre conjointement l’analyse et la génération de l’ensemble des composants de l’application y compris de son exécutif, avec une sémantique proche d’un langage de programmation impératif
The increasing complexity of distributed realtime and embedded (DRE) systems and their implication in various domains imply new design and development methods. In safety- criticial domains such as space, aeronautical, transport or medicine, their failure could result in the failure of the mission, or in dramatic damages such as human losses. This particular class of systems comes with strong requirements to satisfy safety, reliability and security properties. The Model-driven Engineering (MDE) introduces the concept of «model» - an abstract description of the system and a set of tools (editor, transformation engine, code generator) to simplify and automatize the design, the validation and the implementation of the system. Thus, various abstractions are realized using different domain-specific modeling languages in order to assess one particular aspect of the system and to re-use model-based analysis tools and generative technologies. These various representations may share some commonalities but the consistency between them is hard to validate (for example : Is the analyzed system the same as the generated one ?).This PhD thesis leverages MDE concepts and mechanisms, to enhance the reliability of the model-based development process of DRE systems. Our approach is based on the definition of the architectural and behavioral modeling language AADLHI Ravenscar, a restriction of AADL (Architecture Analysis & Design Language) and its behavioral annex. This subset of AADL constructs, comes up with a semantic close to the one of an imperative programming language, to drive both the analysis and the code generation of the application components and its relying execution platform (middleware) components
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Jousselin, Baptiste. "Développement d'une méthodologie de génération de trajectoires d'ébauche en usinage 5 axes". Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPAST061.

Texto completo da fonte
Resumo:
La complexité des pièces à fabriquer ne permet plus de s’affranchir d’aides numériques à la programmation de trajectoires d’usinage telles que les logiciels de Fabrication Assistée par Ordinateur (FAO). Cependant, la large gamme d’opérations pour la finition 5 axes généralement proposée par les logiciels contraste avec le manque de solutions concernant la phase d’ébauche. Cette séquence peut pourtant améliorer la productivité du processus d’usinage global.Les travaux présentés dans cette thèse portent donc sur le développement d’une méthodologie de génération de trajectoires d’usinage 5 axes simultanés pour la séquence d’ébauche. L’utilisation de courbes pour guider l’outil dans le volume de matière à retirer garantit le parcours de la totalité de celui-ci, et donc un enlèvement de matière maximal. Les courbes guides sont construites automatiquement à partir du modèle numérique de la pièce à usiner et mettent en œuvre des algorithmes de calcul d’offsets de courbes et de surfaces au moyen de méthodes vectorielles ou de champs scalaires. Les orientations de l’outil de long des courbes guides sont ensuite déterminées par un algorithme d’Optimisation Quadratique Successive, selon des critères de productivité, de comportement de l’outil, et de qualité de surface, par la recherche d’un paramétrage spécifique des courbes guides.L'implémentation de la stratégie d'ébauche 5 axes dans le logiciel de FAO TopSolid a permis de réaliser des essais d’usinage avec outils toriques et valider la stratégie sur des pièces industrielles typiques de l’industrie aéronautique
The complexity of the parts to be manufactured leads to an indispensable recourse to digital media for trajectory planning such as Computer Aided Manufacturing (CAM) software. However, a real imbalance is noted between the wide range of 5-axis finishing operations currently available in CAM software and the lack of solutions for the roughing sequence, which can though improve the productivity of the overall machining process.This thesis manuscript therefore tackles the development of a simultaneous 5-axis toolpath planning methodology for the roughing sequence. Guiding curves are used to create a geometric path which allows the tool to travel the whole volume to remove, and thus ensure a maximum material removal. Guiding curves are built automatically from the numerical model of the workpiece and implemented algorithms for calculating curve and surface offsets using vector methods or scalar fields. The orientations of the tool along the guiding curves are then determined by a Sequential Quadratic Programming algorithm, according to criteria of productivity, tool behaviour, and surface quality, by searching for a specific parameterization of the guiding curves.The implementation of the 5-axis roughing strategy in the TopSolid CAM software enabled machining tests with toroidal cutter, which allowed the strategy's validation on typical parts of the aerospace industry
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Bourgos, Paraskevas. "Rigorous Design Flow for Programming Manycore Platforms". Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM012/document.

Texto completo da fonte
Resumo:
L'objectif du travail présenté dans cette thèse est de répondre à un verrou fondamental, qui est «comment programmer d'une manière rigoureuse et efficace des applications embarquées sur des plateformes multi-coeurs?». Cette problématique pose plusieurs défis: 1) le développement d'une approche rigoureuse basée sur les modèles pour pouvoir garantir la correction; 2) le « mariage » entre modèle physique et modèle de calcul, c'est-à-dire, l'intégration du fonctionnel et non-fonctionnel; 3) l'adaptabilité. Pour s'attaquer à ces défis, nous avons développé un flot de conception rigoureux autour du langage BIP. Ce flot de conception permet l'exploration de l'espace de conception, le traitement à diffèrent niveaux d'abstraction à la fois pour la plate-forme et l'application, la génération du code et le déploiement sur des plates-formes multi-cœurs. La méthode utilisée s'appuie sur des transformations source-vers-source des modèles BIP. Ces transformations sont correctes-par-construction. Nous illustrons ce flot de conception avec la modélisation et le déploiement de plusieurs applications sur deux plates-formes différentes. La première plate-forme considérée est MPARM, une plate-forme virtuelle, basée sur des processeurs ARM et structurée avec des clusters, où chacun contient plusieurs cœurs. Pour cette plate-forme, nous avons considérée les applications suivantes: la factorisation de Cholesky, le décodage MPEG-2, le décodage MJPEG, la Transformée de Fourier Rapide et un algorithme de demosaicing. La seconde plate-forme est P2012/STHORM, une plate-forme multi-cœur, basée sur plusieurs clusters capable d'une gestion énergétique efficace. L'application considérée sur P2012/STHORM est l'algorithme HMAX. Les résultats expérimentaux montrent l'intérêt du flot de conception, notamment l'analyse rapide des performances ainsi que la modélisation au niveau du système, la génération de code et le déploiement
The advent of many-core platforms is nowadays challenging our capabilities for efficient and predictable design. To meet this challenge, designers need methods and tools for guaranteeing essential properties and determining tradeoffs between performance and efficient resource management. In the process of designing a mixed software/hardware system, functional constraints and also extra-functional specifications should be taken into account as an essential part for the design of embedded systems. The impact of design choices on the overall behavior of the system should also be analyzed. This implies a deep understanding of the interaction between application software and the underlying execution platform. We present a rigorous model-based design flow for building parallel applications running on top of many-core platforms. The flow is based on the BIP - Behavior, Interaction, Priority - component framework and its associated toolbox. The method allows generation of a correct-by-construction mixed hardware/software system model for manycore platforms from an application software and a mapping. It is based on source-to-source correct-by-construction transformations of BIP models. It provides full support for modeling application software and validation of its functional correctness, modeling and performance analysis of system-level models, code generation and deployment on target many-core platforms. Our design flow is illustrated through the modeling and deployment of various software applications on two different hardware platforms; MPARM and platform P2012/STHORM. MPARM is a virtual ARM-based multi-cluster manycore platform, configured by the number of clusters, the number of ARM cores per cluster, and their interconnections. On MPARM, the software applications considered are the Cholesky factorization, the MPEG-2 decoding, the MJPEG decoding, the Fast Fourier Transform and the Demosaicing algorithm. Platform 2012 (P2012/STHORM) is a power efficient manycore computing fabric, which is highly modular and based on multiple clusters capable of aggressive fine-grained power management. As a case study on P2012/STHORM, we used the HMAX algorithm. Experimental results show the merits of the design flow, notably performance analysis as well as correct-by-construction system level modeling, code generation and efficient deployment
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Marin, Philippe. "Exploration des mécanismes évolutionnaires appliqués à la conception architecturale : mise en oeuvre d'un algorithme génétique guidé par les qualités solaires passives de l'enveloppe". Thesis, Vandoeuvre-les-Nancy, INPL, 2010. http://www.theses.fr/2010INPL022N/document.

Texto completo da fonte
Resumo:
Cette recherche porte sur l’exploration et la qualification des dispositifs évolutionnaires appliquées à la conception architecturale. Ici, ce sont les qualités environnementales et plus particulièrement les qualités solaires passives de l’enveloppe de l’édifice qui guideront le processus évolutionnaire. Nous nous attachons plus particulièrement aux phases initiales de la conception, et nous cherchons à spécifier un outil d’assistance favorisant et stimulant une conception créative. Après avoir établi et structuré une connaissance sur les processus de conception, sur la créativité, sur les qualités thermiques et sur les méthodes évolutionnaires, nous proposons un outil prototypal, fondé sur un algorithme génétique et implanté dans un logiciel de type modeleur. Celui-ci a été expérimenté dans le milieu pédagogique, et nous a conduit à caractériser les modalités de création et de conceptualisation de la forme architecturale dans le cadre d’une instrumentation évolutionnaire.Ainsi nous notons le basculement cognitif d’une pensée implicite vers une pensée explicite comme caractéristique fondamentalement de l’instrumentation générative. De plus nous insistons sur l’importance de l’indétermination signifiante comme composante essentielle de la création. Enfin nous proposons la notion de « trans-forme » comme élément caractéristique d’une pensée du processus et de la multiplicité. Cette « meta-forme » serait issue de la description des conditions de mise en forme à travers la paramétrisation des comportements aux limites et des modalités d’émergence
This research tackles the exploration and the qualification of evolutionary mechanisms applied to the architectural design. Here, it is the environmental qualities and more particularly the passive solar qualities of the envelope of the building that will guide the evolutionary process. We become attached more particularly to the initial phases of the conception, and we try to specify a aided digital tool of facilitating and stimulating a creative design. Having established and structured the knowledge on the processes of conception, on the creativity, on the thermal qualities and on the evolutionary methods, we propose a prototypal tool, based on an genetic algorithm and implanted in a modeller software. This one was experimented in the educational environment, and led to us to characterize the modalities of creation and conceptualization of the architectural shape within the framework of an evolutionary instrumentation.So we note the cognitive fall of an implicit thought towards an explicit thought as a main characteristic of the generative tools. Furthermore we insist on the importance of the significant indecision as essential constituent of the creation. Finally we propose the notion of "transform" as characteristic element of a thought of the process and the multiplicity. This "meta-shape" would arise from the description of the conditions of shaping through the parameterisation of the behaviours at the limits and from modalities of emergence
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Angelini, Philippe. "Contribution à l'étude de nouvelles technologies de co-packaging et de co-design appliquées à la réalisation de modules photorécepteurs pour les systèmes de télécommunications de prochaine génération". Thesis, Limoges, 2017. http://www.theses.fr/2017LIMO0023/document.

Texto completo da fonte
Resumo:
Les travaux présentés dans cette thèse s'inscrivent dans le cadre des télécommunications optiques à haut-débit sur courtes distances. L'ère numérique dans laquelle nous vivons pousse les architectures actuelles à évoluer aussi rapidement que le besoin en débit. Les réseaux d'accès et data-centers doivent d'ores et déjà évoluer, notamment au niveau des composants et sous-systèmes chargés de détecter les signaux optiques après leur transmission : les photorécepteurs. La montée en débit à 40 Gb/s et au-delà est limitée par l'architecture actuelle des photorécepteurs dont l'interfaçage entre ses deux fonctions primaires (photodétection[PD]/amplification[TIA]) limite la bande passante. Les solutions présentées, visant à limiter la parallélisation multi-longueurs d'onde des composants et ainsi les coût de déploiement, proposent d'augmenter la rapidité des modules photorécepteurs en optimisant leur architecture. Deux axes d'optimisation sont alors proposés au niveau du photorécepteur : Une approche co-packaging ayant pour objectif de considérer les deux fonctions clés du photorécepteur comme des boîtes noires auxquelles il convient d'ajouter un circuit externe permettant d'augmenter la bande passante, et une approche co-design visant à concevoir un nouveau circuit amplificateur transimpédance (TIA) intégrant directement une fonction de pré-égalisation adaptée à la photodiode permettant de repousser la fréquence de coupure du récepteur
This thesis falls within the scope of high-speed short-reach optical communication where the growing need in data transfer forces the current architectures to evolve as quickly. Acces network and data-center components and subsystems must follow this growth, especially on the photoreceiver side. 40 Gb{s and beyond high-speed communications are limited by the current photoreceiver architecture, which, due to the integration of both of its main functions (photodetection[PD]/amplification[TIA]), limits the maximum achievable bandwitdh. In order to reduce the amount of components and price caused by multi-architectures, photoreceivers bandwidth must be increased. Two solutions are proposed so that the photoreceiver performances can be optimized : A co-packaging approach in which both main functions of the photoreceiver are considered as black boxes to which must be added an external circuit allowing to increase the bandwidth, and a co-design approach in which a new transimpedance amplifier (TIA) is designed, integrating a pre-equalizing function based on the photodiode characteristics, allowing an enhancement of the photoreceiver bandwitdh
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Wang, Zhiping. "Constructive generative design methods for qualified additive manufacturing". Thesis, Ecole centrale de Nantes, 2021. https://tel.archives-ouvertes.fr/tel-03670417.

Texto completo da fonte
Resumo:
Les technologies de fabrication additive (FA) donnent de plus en plus de liberté de conception aux concepteurs et aux ingénieurs pour concevoir et définir des géométries et des compositions de matériaux très complexes. En raison d'un traitement couche par couche, les contraintes, méthodes, outils et processus de conception en FA sont différents de ceux des processus de fabrication traditionnels. Les méthodes et outils de conception traditionnels ne peuvent pas répondre aux besoins de la conception en FA. Par conséquent, un nouveau domaine de recherche, la conception pour la FA (Design for AM - DfAM), a émergé pour répondre à ce besoin. Cependant, les méthodes de DfAM existantes sont soit des lignes directrices, soit des outils de calculs, qui ont une prise en compte limitée des contraintes couplées le long de la chaîne de traitement numérique de la FA et peinent à garantir la fabricabilité de la conception en FA. Pour contribuer à l’obtention d’une conception qualifiée en FA, ce travail de thèse se concentre sur trois problèmes existants typiques dans le domaine du DfAM : premièrement, com-ment assurer la fabricabilité dans le processus d’optimisation topologique ? Deuxièmement, comment concevoir des structures de supports allégées, faciles à retirer pour le post-traitement et de diffusion de chaleur conviviales pour assurer la précision de la forme et améliorer la rugosité de surface des pièces imprimées ? Enfin, comment éviter les pertes de précision lors de la préparation de l'impression de structures en treillis complexes et assurer leur fabricabilité lors de la conception ?Pour résoudre les trois problèmes identifiés, ce travail de thèse propose un ensemble de nouvelles méthodes de conception générative constructive : 1. Méthode de conception générative basée sur un modèle CSG pour assurer la fabricabilité dans l'optimisation de la topologie de la structure allégée ; 2. Méthode de conception générative constructive basée sur des modèles pour optimiser la conception de la structure de supports et 3. Conception constructive inversée basée sur les « parcours d'outils » pour obtenir directement des modèles de traitement de structures poreuses ou de réseaux complexes correspondants avec des « parcours d'outils » pour obtenir directement des modèles de traitement de structures poreuses ou de réseaux complexes correspondants avec des « parcours d'outils » d'impression qualifiés. Les trois méthodes proposées intègrent les contraintes de processus de FA, réalisent un contrôle paramétrique et économisent des coûts de calcul dans le processus de conception pour obtenir un ensemble de solutions de conception candidates avec une fabrication garantie. Un ensemble d'études comparatives avec les méthodes DfAM existantes et quelques études de cas expérimentaux dans des applications médicales ont démontré les avantages des méthodes proposées. Ces méthodes constructives peuvent avoir un grand potentiel d'application pour être adoptées comme outils de conception et de prise de décision pour d'autres applications industrielles lorsqu'un DfAM qualifié est requis
Additive manufacturing (AM) technologies give more and more design freedom to designers and engi-neers to design and define highly complex geometries and material compositions. Due to a layer-by-layer processing, the constraints, methods, tools and processes of design in AM are different from that in traditional manufacturing processes. Traditional design methods and tools cannot meet the needs of design in AM. Therefore, a new re-search field, design for AM (DfAM), has emerged to serve this need. However, existing DfAM methods are either guidelines or pure computation-based, which have limited consideration of coupled constraints along the AM digital processing chain and are difficult to ensure manufactura-bility of design in AM. To obtain qualified design in AM, this research focuses on three typical existing problems in DfAM domain: Firstly, how to ensure manufacturability in (topology optimization) TO process? Secondly, how to design support structures with lightweight, easy-to-remove for post-processing and friendly heat-diffusion properties to ensure shape accuracy and improve surface roughness of printed parts? Finally, how to avoid accuracy loss in print-ing preparation of complex lattice structures and ensure their manufacturability in design?To solve the three identified problems, this research developed a set of new constructive genera-tive design methods: 1. CSG-based generative design method to ensure manufacturability in light-weight topology optimization; 2. Pattern-based constructive generative design method to optimize support structure design and 3. Toolpath-based inversed constructive design to directly ob-tain processing models of corresponding complex lattice or porous structures with qualified print-ing toolpaths. The three proposed methods can well embed AM process constraints, realize para-metric control and save computation cost in design process to obtain a set of candidate design solutions with ensured manufacturability. A set of comparison studies with existing DfAM meth-ods and a couple of experiment case studies in medical applications demonstrated the methods’ advantages. These constructive methods may have large application potential to be adopted as design and decision making tools for other industrial applications when qualified DfAM is required
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Duarte, Ricardo de Oliveira. "Techniques de conception et outils de CAO pour la génération des parties opératives auto-controlables". Grenoble INPG, 1997. http://www.theses.fr/1997INPG0068.

Texto completo da fonte
Resumo:
Les circuits auto-controlables ont la capacite d'auto-detecter erreurs pendant son fonctionnement. Ce caracteristique est essentiel puis elle assure un haut degre de surete a un circuit. Cependant, les techniques de conception de ces circuits restent encore assez limite a un groupe de concepteurs ayant une large experience dans le domaine du test en ligne. La difficulte d'implantation des circuits auto-controlables optimises en surface et delai sont des consequences principales de manque de vulgarisation du domaine du test en ligne. L'absence d'outils de cao pour automatiser la tache de generation de circuits auto-controlables est aussi un facteur tres significatif pour decourager la conception de circuits surs. Ce travail de these essaie de stimuler l'application des techniques d'auto-controle dans la conception des circuits integres, plus specifiquement dans la conception des chemins de donnes. Pour accomplir ce defi un nombre des techniques de conception des circuits auto-controlables ont ete developpes. Ces techniques garantissent la surete des resultats du circuit pour une faute quelconque apparu pendant son fonctionnement. Elles sont basees sur la prediction de parite qui pourvoit dans la plupart des cas des circuits surs avec une augmentation de surface et delai minimal. Des operateurs logiques et arithmetiques auto-controlables optimises en surface et en delai ont ete developpes utilisant ces techniques. Ces operateurs sont composes de facon a former des chemins de donnes compatibles, performants et surs utilisant la parite comme code detecteur d'erreur. Un outil de cao a ete developpe pour generer des circuits auto-controlables. Cet outil genere netlists de circuits decrits en langages de description des materiaux en fonction des parametres d'entrees. Ces parametres sont, un fichier de technologie contenant informations sur les cellules standards pre-caracterises, le nombre de bits ainsi que la fonction du circuit. Les netlists generes peuvent etre importes vers des outils professionnels acceptant le vhdl ou verilog. L'outil de cao a ete concu de facon a que le concepteur puisse implanter facilement de nouveaux operateurs ou de nouvelles techniques du test concurrent avec un tres faible effort de programmation. Une methodologie de conception de circuits sur a ete etablie dans ce travail. Cette methodologie est composee sur un nombre de techniques de conception de circuits auto-controlables qui sont bases sur le code de parite. En appliquant cet ensemble de techniques le concepteur pourra developper ses propres circuits auto-controlables bases sur le code de parite.
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Bourguet, Vincent. "Conception d'une bibliothèque de composants analogiques pour la synthèse orientée layout". Paris 6, 2007. http://www.theses.fr/2007PA066299.

Texto completo da fonte
Resumo:
Les technologies actuelles permettent d'intégrer des systèmes complexes sur une seule puce et on parle alors de SoC (System-on-Chip). Leur complexité incite à baser la conception sur des blocs réutilisables, appelés IP. En numérique, la synthèse automatisée et la réutilisation sont relativement bien maîtrisées. Elles s'appuient sur un IP logiciel qui est une description du fonctionnement dans un langage tel que VHDL , et sur une bibliothèque de cellules standard spécifiques à une technologie. En revanche, le grand nombre de performances qui caractérisent un bloc analogique rend la description formelle de son fonctionnement extrêmement difficile. C'est pourquoi un IP analogique est souvent un dessin des masques complètement caractérisé, dédié à une technologie et dont la réutilisation n'est possible que dans des contextes très similaires. On parle d'IP matériel. Le projet CAIRO+ mené au LIP6 cherche à élever le niveau d'abstraction des IP analogiques afin de favoriser leur réutilisation. Il s'inspire du flot de synthèse utilisé en numérique qui s'appuie sur un langage de description et une bibliothèque de cellules standard. Le langage CAIRO+ permet au concepteur d'exprimer son expertise et de formaliser ses compromis de conception, tandis que les cellules de la bibliothèque CAIRO+ sont des générateurs capables de produire un dessin des masques pour différents jeux de spécifications et pour différents procédés de fabrication. Cette thèse s'est intéressée à la conception des générateurs de base de CAIRO+ et a porté particulièrement sur les problèmes liés à la génération du dessin des masques, capitale en analogique.
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Marin, Philippe. "Exploration des mécanismes évolutionnaires appliqués à la conception architecturale : mise en oeuvre d'un algorithme génétique guidé par les qualités solaires passives de l'enveloppe". Electronic Thesis or Diss., Vandoeuvre-les-Nancy, INPL, 2010. http://www.theses.fr/2010INPL022N.

Texto completo da fonte
Resumo:
Cette recherche porte sur l’exploration et la qualification des dispositifs évolutionnaires appliquées à la conception architecturale. Ici, ce sont les qualités environnementales et plus particulièrement les qualités solaires passives de l’enveloppe de l’édifice qui guideront le processus évolutionnaire. Nous nous attachons plus particulièrement aux phases initiales de la conception, et nous cherchons à spécifier un outil d’assistance favorisant et stimulant une conception créative. Après avoir établi et structuré une connaissance sur les processus de conception, sur la créativité, sur les qualités thermiques et sur les méthodes évolutionnaires, nous proposons un outil prototypal, fondé sur un algorithme génétique et implanté dans un logiciel de type modeleur. Celui-ci a été expérimenté dans le milieu pédagogique, et nous a conduit à caractériser les modalités de création et de conceptualisation de la forme architecturale dans le cadre d’une instrumentation évolutionnaire.Ainsi nous notons le basculement cognitif d’une pensée implicite vers une pensée explicite comme caractéristique fondamentalement de l’instrumentation générative. De plus nous insistons sur l’importance de l’indétermination signifiante comme composante essentielle de la création. Enfin nous proposons la notion de « trans-forme » comme élément caractéristique d’une pensée du processus et de la multiplicité. Cette « meta-forme » serait issue de la description des conditions de mise en forme à travers la paramétrisation des comportements aux limites et des modalités d’émergence
This research tackles the exploration and the qualification of evolutionary mechanisms applied to the architectural design. Here, it is the environmental qualities and more particularly the passive solar qualities of the envelope of the building that will guide the evolutionary process. We become attached more particularly to the initial phases of the conception, and we try to specify a aided digital tool of facilitating and stimulating a creative design. Having established and structured the knowledge on the processes of conception, on the creativity, on the thermal qualities and on the evolutionary methods, we propose a prototypal tool, based on an genetic algorithm and implanted in a modeller software. This one was experimented in the educational environment, and led to us to characterize the modalities of creation and conceptualization of the architectural shape within the framework of an evolutionary instrumentation.So we note the cognitive fall of an implicit thought towards an explicit thought as a main characteristic of the generative tools. Furthermore we insist on the importance of the significant indecision as essential constituent of the creation. Finally we propose the notion of "transform" as characteristic element of a thought of the process and the multiplicity. This "meta-shape" would arise from the description of the conditions of shaping through the parameterisation of the behaviours at the limits and from modalities of emergence
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Clair, Romain. "Etude de méthodes de production d'art génératif et de leur application pour la conception d'outils de création artistique accessibles". Thesis, Tours, 2010. http://www.theses.fr/2010TOUR4026/document.

Texto completo da fonte
Resumo:
Partant d'une étude de méthodes algorithmiques de création artistique automatique, nos travaux s'intéressent à des adaptations de ces méthodes pour proposer des formes de création artistique accessibles centrées sur la musique et le dessin par ordinateur. Le développement d'outils informatiques accessibles impose certaines contraintes. Elles servent de cadre au développement de deux outils qui illustrent la mise en œuvre de ces contraintes, associées à l'adaptation de systèmes de production artistique automatique, notamment basés sur des algorithmes de colonie de fourmis artificielles. Le premier programme est un instrument de musique virtuel permettant au plus grand nombre de jouer de la musique, et fournissant un accompagnement automatique. Le second est un atelier de dessin où des outils basés sur des méthodes génératives offrent un résultat complexe à partir d'actions très simples. Cette thèse détaille le développement de ces deux programmes ainsi que leur évaluation, sur le terrain, à la rencontre d'utilisateurs réels
Starting from a survey of algorithmic methods for automatic artistic creation, our works deals with adaptations of these methods to provide accessible art creation forms, focusing on music and computer drawing.the development of accessible computer software requires some constraints. Following these constraints and using adapted automatic art production systems, notably based on artificial ant colony algorithms, we developed two computer programs.The first one is a virtual music instrument, allowing most people to play music and providing and automatic accompaniment.The second one is a drawing workshop with generative methods-based tools provide complex results from simple actions.This PhD thesis details the development of this two programs and their evaluations, with real users meetings
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Sabouni, Imad. "Génération de modules dédiés aux circuits de communication de contrôle-commande : une étude de conception appliquée dans le cadre de la voiture sûre PROMETHEUS". Grenoble INPG, 1992. http://www.theses.fr/1992INPG0143.

Texto completo da fonte
Resumo:
Les travaux présentés dans cette thèse concernent l'implantation des protocoles de communication de niveau bas sur silicium. Cette approche tient compte des exigences de vitesse, de débit, de coût et de «versatilité» d'interfaces hôte dont témoignent les nouveaux protocoles et réseaux. Nous nous intéressons ici à la conception de circuits de communication destinés aux réseaux de contrôle-commande. Dans cette classe, les spécifications du protocole MAC présentent des ressemblances significatives; une architecture cible générique (paramétrable) peut alors être définie et utilisée comme modèle d'implantation. L'idée de la généricité d'une architecture conduit à l'emploi des méthodes de conception automatique. L'architecture cible se basant sur un ensemble de modules asynchrones interconnectés, nous avons appliqué la technique de génération de modules qui permet de produire ces différentes composantes à partir des paramètres du protocole à implanter. Les travaux de cette thèse ont été supportés par le projet européen PROMETHEUS/PRO-CHIP. Dans le cadre de ce projet, nous nous sommes intéressés par l'analyse des différents protocoles intra-véhicule existants, par la génération de circuits de communication destinés à ces protocoles et par la réalisation d'un réseau embarqué sur automobile conçu pour faire communiquer les équipements d'un système distribué de détection d'obstacles
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

Jamier, Robert. "Génération automatique de parties opératives de circuits VLSI de type microprocesseur". Phd thesis, Grenoble INPG, 1986. http://tel.archives-ouvertes.fr/tel-00322276.

Texto completo da fonte
Resumo:
Le compilateur de parties opératives Apollon qui est présenté dans cette thèse, génère automatiquement le dessin des masques de parties opératives de circuits VLSI de type microprocesseur à partir d'une description comportementale de niveau transfert de registres constituée d'un ensemble non ordonné d'instructions opératives. Une instruction opérative est formée d'un ensemble d'actions opératives dont le format est prédéfini (transferts - opérations unaires ou binaires et entrées-sorties) devant se dérouler en parallèle en au plus deux cycles opératifs. Un cycle opératif comprend 4 phases qui correspondent aux 4 phases d'exécution d'un transfert entre 2 registres. Apollon est basé sur un modèle dérivé de la partie opérative du MC68000. Ce modèle fournit à la fois: un modèle architectural: la partie opérative est formée d'un ensemble de sous parties opératives alignées à deux bus qui traversent tous les éléments d'une sous partie opérative; un modèle temporel: une opération prend 2 cycles, un transfert un seul; un modèle électrique: les bus sont complémentés et à précharge; un modèle topologique: le plan de masse est basé sur la structure en tranches appelée communément bis slice. Le compilateur génère d'abord l'architecture de la partie opérative, puis les spécification des masques à partir de cette architecture. Pour générer l'architecture de la partie opérative en un temps raisonnable, le compilateur doit recourir à des heuristiques. Pour générer le dessin des masques, le compilateur utilise l'assembleur de silicium Lubrick qui permet d'assembler et de connecter automatiquement les cellules de base des éléments fonctionnels de la partie opérative. Les spécifications des masques sont générées à partir des spécifications des cellules prédéfinies d'une bibliothèque NMOS.
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Bignon, Alain. "Génération conjointe de commandes et d'interfaces de supervision pour systèmes sociotechniques reconfigurables". Phd thesis, Université de Bretagne Sud, 2012. http://tel.archives-ouvertes.fr/tel-00735869.

Texto completo da fonte
Resumo:
La conception de grands systèmes se heurte souvent à des problèmes de communication au sein des équipes de concepteurs et à l'incohérence de certains documents de conception. Nous avons identifié deux approches de conception concurrentes mais complémentaires. L'une est ascendante et voit la conception réalisée par agrégation de composants standardisés, l'autre est descendante et voit la conception réalisée par raffinages successifs d'un modèle de base. Dans ces travaux, nous proposons un flot de conception intégré, tirant partie des deux approches et permettant la génération conjointe de commandes et d'interfaces de supervision pour un système sociotechnique reconfigurable. Conformément à notre retour d'expérience industriel, notre approche est basée sur un modèle métier appelé synoptique, et sur une bibliothèque d'éléments standards. Nous proposons également un modèle d'analyse des configurations du système. Il peut être utilisé pour une analyse hors ligne, afin de valider les spécifications de l'expert en charge de la conception. Il peut également être utilisé lors d'une analyse en ligne pour rechercher des configurations alternatives, en cas d'aléas ou de commandes conflictuelles. Nous présentons enfin l'outil Anaxagore, qui implémente le flot proposé et qui permet de générer, en quelques minutes, un programme de commande et une interface de supervision pour un système de gestion des fluides.
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Mba, Mathieu Leonel. "Génération automatique de plate-forme matérielles distribuées pour des applications de traitement du signal". Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS341.

Texto completo da fonte
Resumo:
Les langues locales ou langues maternelles propres aux individus jouent un rôle important pour leur épanouissement dans leurs différentes activités socio-économiques. Les langues africaines, et spécifiquement les langues camerounaises sont exposées à la disparition au profit des langues étrangères adoptées comme langues officielles au lendemain des indépendances. C’est la raison pour laquelle il est primordial de les numériser et les intégrer dans la majorité des services dématérialisés pour leur pérennisation. La reconnaissance vocale, largement utilisée comme interface d'interaction homme machine, peut être non seulement un outil d'intégration des langues locales dans les applications, mais aussi un outil de collecte et de numérisation des corpus. Les systèmes embarqués sont l'environnement par excellence de déploiement des applications qui exploitent cette interface d'interaction homme machine. Cela implique qu'il est nécessaire de prendre des mesures (à travers la réduction du temps de réponse) pour satisfaire la contrainte de temps réel très souvent rencontrée dans ce type d'application. Deux approches existent pour la réduction du temps de réponse des applications à savoir la parallélisation et l'usage des architectures matérielles efficaces. Dans cette thèse, nous exploitons une approche hybride pour réduire le temps de réponse d'une application. Nous le faisons par la parallélisation de cette application et sa mise en œuvre sur architecture reconfigurable. Une architecture dont les langages de mise en œuvre sont connus pour être de bas niveau. De plus, au vu de la multitude des problématiques posées par la mise en œuvre des systèmes parallèles sur architecture reconfigurable, il se pose un problème de productivité de l'ingénieur. Dans cette thèse, en vue de mettre en œuvre un système de reconnaissance vocale temps réel sur système embarqué, nous proposons, une approche de mise en œuvre productive d'applications parallèles sur architecture reconfigurable. Notre approche exploite MATIP un outil de conception orienté plateforme, comme FPGA Overlay basé sur la synthèse de haut niveau. Nous exploitons cette approche pour mettre en œuvre un modèle parallèle d'un algorithme d'extraction des caractéristiques pour la reconnaissance des langues à tons (caractéristique de la majorité des langues camerounaises). L'expérimentation de cette solution sur des mots isolés de la langue Kóló, en comparaison à d'autres propositions (version logicielle et IP matérielles), montre que, notre approche est non seulement productive en temps de mise en œuvre, mais aussi l'application parallèle obtenue est efficace en temps de traitement. C’est la raison pour laquelle nous avons mis en œuvre XMATIP une extension de MATIP pour rendre cette approche compatible à la co-conception et co-synthèse matérielle logicielle
Local languages or mother tongues of individuals play an essential role in their fulfillment in their various socio-economic activities. African languages and specifically Cameroonian languages are exposed to disappearance in favor of foreign languages adopted as official languages after independence. This is why it is essential to digitalize and integrate them into the majority of dematerialized services for their sustainability. Speech recognition, widely used as a human-machine interface, can be not only a tool for integrating local languages into applications but also a tool for collecting and digitizing corpora. Embedded systems are the preferred environment for deploying applications that use this human-machine interface. This implies that it is necessary to take measures (through the reduction of the reaction time) to satisfy the real-time constraint very often met in this type of application. Two approaches exist for the reduction of the application's response time, namely parallelization and the use of efficient hardware architectures. In this thesis, we exploit a hybrid approach to reduce the response time of an application. We do this by parallelizing this application and implementing it on a reconfigurable architecture. An architecture whose implementation languages are known to be low-level. Moreover, given the multitude of problems posed by the implementation of parallel systems on reconfigurable architecture, there is a problem with design productivity for the engineer. In this thesis, to implement a real-time speech recognition system on an embedded system, we propose an approach for the productive implementation of parallel applications on reconfigurable architecture. Our approach exploits MATIP, a platform-based design tool, as an FPGA Overlay based on high-level synthesis. We exploit this approach to implement a parallel model of a feature extraction algorithm for the recognition of tonal languages (characteristic of the majority of Cameroonian languages). The experimentation of this implementation on isolated words of the Kóló language, in comparison to other implementations (software version and hardware IP), shows that our approach is not only productive in implementation time but also the obtained parallel application is efficient in processing time. This is the reason why we implemented XMATIP an extension of MATIP to make this approach compatible with hardware-software co-design and co-synthesis
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

Ben, Jemaa Fatma. "Design and optimization of next-generation carrier-grade wi-fi networks". Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066226/document.

Texto completo da fonte
Resumo:
Comme le Wi-Fi est devenu de plus en plus important dans les réseaux actuels, ainsi que dans les réseaux du futur, de nouvelles exigences " opérateur " se sont apparues afin de supporter les attentes des utilisateurs et de fournir des réseaux Wi-Fi de haute performance. Dans ce contexte, nous étudions plusieurs problèmes liés à la conception et l'optimisation des réseaux Wi-Fi opérateur de nouvelle génération. Dans la première étape, notre objectif est d'améliorer l'expérience utilisateur Wi-Fi et de lui offrir un accès personnalisé et transparent aux réseaux et services Wi-Fi. Pour cela, nous proposons une extension des trames de gestion IEEE 802.11 pour activer la découverte des services locaux avant l'association Wi-Fi, tout en évitant la surcharge du canal. Nous définissons également un ensemble d'étiquettes de service pour identifier d'une manière standardisée les services les plus connus. Dans la deuxième étape, nous adressons les problèmes liés à l'architecture et la gestion du réseau dans un environnement Wi-Fi opérateur de nouvelle génération. Plus précisément, nous proposons, tout d'abord, une nouvelle architecture Wi-Fi qui exploite les concepts de NFV et du Edge Cloud Computing. Nous visons à travers cette architecture à apporter plus d'agilité et d'adaptabilité et d'améliorer la QoS perçue par l'utilisateur en plaçant des fonctions réseau et certains services à proximité de lui. Pour faire face à certains problèmes de gestion dans cette architecture, nous proposons ensuite des stratégies de placement et de provisionnement des fonctions de réseau virtuelles en s'appuyant sur des exigences de QoS
As Wi-Fi is gaining a lot of momentum in today’s networks as well as in future networks, new carrier-grade requirements are emerging to support future user expectations and provide high-performance Wi-Fi networks. In this context, we investigate several problems surrounding the design and optimization of carrier-grade next-generation Wi-Fi networks. In the first stage, our objective is to improve the Wi-Fi user experience and offer to him a personalized and seamless access to Wi-Fi networks and services. For this, we propose an extension to the IEEE 802.11 management frames to enable venue service discovery prior to Wi-Fi association while avoiding channel overhead. We define also a set of extensible service labels to uniquely and globally identify the most known venue-based services. In the second stage, we deal with network architecture and management issues in next-generation carrier Wi-Fi environment. More specifically, we first propose a novel carrier-managed Wi-Fi architecture that leverages NFV and Edge Cloud Computing concepts. We aim through this architecture to bring more agility and adaptability and improve user perceived QoS by placing network functions and certain services close to end-users. To address some major management issues in this proposed architecture, we then propose placement and provisioning strategies of Virtual Network Functions based on QoS requirements. These strategies can also be applied to any edge-central wireless carrier architecture, since they do not make any assumption about the underlying wireless technology
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Benhima, Abderrahim. "Contribution à l'optimisation dynamique de mouvements de robots-manipulateurs avec génération automatique des équations du problème optimal". Poitiers, 1989. http://www.theses.fr/1989POIT2278.

Texto completo da fonte
Resumo:
Developpement d'un logiciel specifique en langage fortran 77 pour l'optimisation dynamique de trajectoire de robot allant d'une position donnee a une autre fixee pendant un temps oppose. Le critere a minimiser porte sur les efforts moteurs et/ou les forces de liaison aux articulations du robot
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Robert, Rémi. "Étude des mécanismes contrôlant l’expression des gènes HOX et implications pour la génération in vitro de tissus humains". Electronic Thesis or Diss., Sorbonne université, 2023. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2023SORUS399.pdf.

Texto completo da fonte
Resumo:
La formation du schéma corporel des vertébrés dépend, lors de l’embryogenèse, de l’organisation spatiale des différents types cellulaires le long de l’axe antéro-postérieur. Ce processus est orchestré par les facteurs de transcription HOX qui sont différentiellement exprimés le long de cet axe et confèrent leur identité positionnelle aux tissus en développement. Ces patrons d’expression sont initiés par l’activation séquentielle des gènes HOX dans les progéniteurs axiaux, une population de cellules souches nourrissant l’allongement progressif du corps des embryons en développement, notamment les somites et la moelle épinière. Parallèlement à l’induction progressive de cette famille de gènes, ces progéniteurs génèrent donc des structures de plus en plus caudales transformant la séquence temporelle d’activation en domaines d'expression spatiaux le long de l’axe antéro-postérieur. Néanmoins, les mécanismes qui rythment la temporalité de cette induction et sa transformation en domaines spatiaux restent mal connus, en particulier chez l’humain. Pour aborder ces questions, au cours de ma thèse, j’ai produit à partir de cellules souches pluripotentes humaines des progéniteurs arborant les caractéristiques moléculaires et fonctionnelles des progéniteurs axiaux. En effet, nous avons montré que ces progéniteurs activent séquentiellement les gènes HOX et peuvent donner naissance à des organoïdes récapitulant de multiples aspects de la génération et de l’organisation de l’axe antéro-postérieur comme la formation de somites entourant un tube neural le long duquel les patrons d’expression spatiaux de plusieurs HOX sont récapitulés. En utilisant ces progéniteurs axiaux produits in vitro, nous avons tout d’abord démontré que la vitesse d’induction des gènes HOX est dynamiquement modulée par l’activité graduelle de facteurs extrinsèques, FGFs et GDF11 qui sont séquentiellement exprimés dans la région caudale des embryons vertébrés au cours du développement. Puis, nous avons montré 1) que les gènes HOX activés sont des cibles directes des voies de signalisation en aval de ces facteurs et 2) que la vitesse d’activation des gènes exprimés de plus en plus tardivement est déterminée par la durée d‘activation des voies de signalisation dans les progéniteurs axiaux, une propriété des voies régulée par des mécanismes intrinsèques de rétrocontrôles négatifs. Dans l’ensemble, mes résultats permettent de proposer un nouveau modèle dans lequel le rythme d’activation des gènes HOX est une propriété émergente des dynamiques de voies de signalisation en aval de facteurs extrinsèques. Parallèlement, mes études ont permis d’améliorer l’ingénierie cellulaire et tissulaire des cellules du tronc à partir de cellules souches pluripotentes humains culminant en des protocoles de génération des différents sous-types de motoneurones présent le long de l’axe du corps et en un nouveau modèle d’organoïde mimant la morphogenèse et la formation de la diversité cellulaire le long de l’axe du corps humain
During embryogenesis, the formation of the vertebrate body plan depends on the spatial organization of different cell types along the anterior-posterior axis. This process is orchestrated by HOX transcription factors, which are differentially expressed along this axis, conferring positional identity on developing tissues. HOX patterns of expression are initiated by the sequential activation of HOX genes in axial progenitors, a population of stem cells fueling the progressive elongation of the body of developing embryos, forming notably the somites and the spinal cord. In parallel with the progressive induction of this gene family, these progenitors generate increasingly caudal structures, transforming the temporal sequence of activation into spatial domains of expression along the anterior-posterior axis. Nevertheless, the mechanisms that regulate the temporality of this induction and its transformation into spatial domains remain poorly understood, particularly in humans. To address these questions, during my thesis I generated progenitors from human pluripotent stem cells that display the molecular and functional characteristics of axial progenitors. Indeed, we have shown that these progenitors sequentially activate HOX genes and can give rise to organoids recapitulating multiple aspects of the generation and organization of the anterior-posterior axis, such as the formation of somites surrounding a neural tube along which the spatial expression patterns of several HOXs are recapitulated. Using these in vitro-produced axial progenitors, we first demonstrated that the tempo of induction of HOX genes is dynamically modulated by the graded activity of two extrinsic factors, FGFs and GDF11, which are sequentially expressed in the caudal region of vertebrate embryos during development. Then, we showed that 1) activated HOX genes are direct targets of signaling pathways downstream of these factors and 2) that the speed of activation of genes expressed later and later is determined by the duration of pathway activation in axial progenitors, a property of the pathways regulated by intrinsic negative feedback mechanisms. Overall, my results suggest a new model in which the timing of HOX gene activation is an emergent property of the dynamics of signaling pathways downstream of extrinsic factors. In parallel, my studies have led to improved cellular and tissue engineering of trunk cells from human pluripotent stem cells, culminating in protocols for generating the different motor neuron subtypes present along the body axis, and a new organoid model mimicking morphogenesis and the formation of cellular diversity along the human body axis
Estilos ABNT, Harvard, Vancouver, APA, etc.
50

Mawissi, Kwamivi. "Modèles de représentation et de définition d'outillages de forme complexe : application à le génération automatique de processus d'usinage". Cachan, Ecole normale supérieure, 1995. http://www.theses.fr/1995DENS0001.

Texto completo da fonte
Resumo:
Ce mémoire porte sur l'automatisation de la fonction de préparation a la fabrication permettant de passer de la conception des pièces brutes forgées à la définition et la fabrication des outillages. Notre apport se traduit principalement par la construction d'un modèle de représentation d'outillages qui établit le lien entre les différentes fonctions de production, et l'élaboration d'une méthode originale de génération du processus d'usinage des outillages. Nous proposons un modèle de representation d'outillages, permettant la conceptualisation des données de définition d'ordre géométrique et technologique suivant les aspects sémantiques, structurels et topologiques. Du point de vue des deux premiers aspects, la conceptualisation des données nous a permis de définir quatre éléments génériques (entité complexe, macro-entité, primitive et méta-primitive) qui servent de base a la représentation d'outillages. De plus, nous proposons une description formelle des interférences géométriques entre les éléments permettant de représenter à la fois les topologies locales et globales. Notre méthode de génération du processus d'usinage des outillages est basée sur la notion d'état d'usinage qui s'appuie à la fois sur les informations définies dans le modèle de représentation d'outillages et sur des connaissances d'usinage traduisant le savoir-faire des outilleurs. A cet effet, nous présentons une formalisation pertinente des connaissances d'usinage a partir de laquelle sont construits les états. Pour cette construction, nous avons adopte une démarche semi-ascendante de génération d'états d'usinage. La spécification de ces états, ainsi que la définition et l'ordonnancement des séquences d'usinage correspondantes conduisent à l'élaboration d'une gamme d'usinage des outillages. Enfin, nous validons notre approche sur un exemple industriel. La maquette informatique développée permet d'implémenter les taches de génération de gamme et d'unifier l'ensemble des données de représentation d'outillages dans un modèle objet homogène pour une exploitation pertinente et cohérente des liens existant entre ces données
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia