Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Heuristic analyzer.

Дисертації з теми "Heuristic analyzer"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-30 дисертацій для дослідження на тему "Heuristic analyzer".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Semyonov, S. G., Svitlana Gavrylenko, and Viktor Chelak. "Processing information on the state of a computer system using probabilistic automata." Thesis, Institute of Electrical and Electronics Engineers, 2017. http://repository.kpi.kharkov.ua/handle/KhPI-Press/40752.

Повний текст джерела
Анотація:
The paper deals with the processing of information about the state of a computer system using a probabilistic automaton. A model of an intelligent system for detection and classification of malicious software is proposed, which compares a set of features that are characteristic for different classes of viruses with multiple states of the machine. The analysis process is reduced to modeling the operation of the automaton taking into account the probability of transition from state to state, which at each step is recalculated depending on the reaction of the environment. The received results of research allow to reach a conclusion about the possibility of using the offered system for detection of the harmful software.
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Goyal, Devendra. "Five new systems heuristics to analyze small group teamwork." Thesis, Massachusetts Institute of Technology, 2016. http://hdl.handle.net/1721.1/106248.

Повний текст джерела
Анотація:
Thesis: S.M. in Engineering and Management, Massachusetts Institute of Technology, School of Engineering, System Design and Management Program, Engineering and Management Program, 2016.
Cataloged from PDF version of thesis.
Includes bibliographical references (pages 69-72).
Small groups are the most common of all organizations. In this thesis we apply a systems architecture approach to small group teamwork in order to study small groups. We propose five new systems heuristics and use these heuristics as lenses to view small groups. We make use of concepts from systems and complexity theories in order to come up with these heuristics. With each heuristic, we provide literature review both from systems and small group perspectives. We find that in many cases there is sufficient literature available to support application of each heuristic on small groups, but in some cases the literature is scant. We further apply these heuristics to small group work in a movie called "Twelve Angry Men" to provide an application example of these heuristics to analyze the work of a jury group presented in the movie. We find that each heuristic within its scope is able to provide significant insights into the working of the group. We finally provide guidelines for how these heuristics can be used for the practice of leadership in small groups. We report that each heuristic covers different aspects of group life and together can be used to analyze group work in details. Understanding group work in real time opens up opportunities for a member or members to influence the work and thus help practice leadership.
by Devendra Goyal.
S.M. in Engineering and Management
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Balakrishnan, Anantaram, Thomas L. Magnanti, and Prakash Mirchandani. "Heuristics, LPs, and Trees on Trees: Network Design Analyses." Massachusetts Institute of Technology, Operations Research Center, 1994. http://hdl.handle.net/1721.1/5277.

Повний текст джерела
Анотація:
We study a class of models, known as overlay optimization problems, with a "base" subproblem and an "overlay" subproblem, linked by the requirement that the overlay solution be contained in the base solution. In some telecommunication settings, a feasible base solution is a spanning tree and the overlay solution is an embedded Steiner tree (or an embedded path). For the general overlay optimization problem, we describe a heuristic solution procedure that selects the better of two feasible solutions obtained by independently solving the base and overlay subproblems, and establish worst-case performance guarantees on both this heuristic and a LP relaxation of the model. These guarantees depend upon worst-case bounds for the heuristics and LP relaxations of the unlinked base and overlay problems. Under certain assumptions about the cost structure and the optimality of the subproblem solutions, both the heuristic and the LP relaxation of the combined overlay optimization model have performance guarantees of 4/3. We extend this analysis to multiple overlays on the same base solution, producing the first known worst-case bounds (approximately proportional to the square root of the number of commodities) for the uncapacitated multicommodity network design problem. In a companion paper, we develop heuristic performance guarantees for various new multi-tier. survivable network design models that incorporate both multiple facility types or technologies and differential node connectivity levels.
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Watson, Jebulan Ryan. "Finding a representative day for simulation analyses." Thesis, Atlanta, Ga. : Georgia Institute of Technology, 2009. http://hdl.handle.net/1853/31762.

Повний текст джерела
Анотація:
Thesis (M. S.)--Aerospace Engineering, Georgia Institute of Technology, 2010.
Committee Chair: John-Paul Clarke; Committee Member: Ellis Johnson; Committee Member: Eric Feron. Part of the SMARTech Electronic Thesis and Dissertation Collection.
Стилі APA, Harvard, Vancouver, ISO та ін.
5

FILHO, EMILIO ABUD. "APPLICATION OF VARIATIONAL METHODS AND HEURISTIC FORMULATIONS FOR ANALYZES AND NUMERICAL SYNTHESIS OF RECTANGULAR WAVEGUIDE TRANSFORMERS." PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO, 2010. http://www.maxwell.vrac.puc-rio.br/Busca_etds.php?strSecao=resultado&nrSeq=16456@1.

Повний текст джерела
Анотація:
PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO
Transformadores de guia de onda são amplamente empregados no projeto de componentes em onda guiada e são encontrados em praticamente todas as cadeias alimentadoras de antenas e demais estruturas de onda guiada na faixa de microondas. Embora a teoria de transformadores seja conhecida, os requisitos de ordem sistêmica têm levado os projetos de transformadores de guia de onda ao seu limite. Para tal nível de exigência, e considerando o número de variáveis no projeto de transformadores, técnicas numéricas de análise (tais como FDTD e expansão modal dentre outros), e otimização têm sido obrigatoriamente empregadas. Por outro lado, o número de variáveis de um transformador, acaba sendo um processo de alto consumo de tempo computacional, incoerente com o porte e objetivo de custo desses transformadores. Este trabalho propõe uma possibilidade alternativa para a análise mais rápida para essas estruturas, através do emprego de formulações fechadas derivadas de métodos varacionais. Um modelo heurístico é proposto para o caso de descontinuidades em dois planos, sejam para o caso de descontinuidades homogêneas ou para não-homogêneas.
Waveguide transformers are widely used on antenna’s feeder chains and other microwave devices. Although the theory of quarter wavelength transformers is well known, the current electrical performance of such microwave devices has been pushing the waveguide transformers design to its limit. For attending such level of requirements, and considering the number of existing variables on a waveguide transformer design, very accurate numerical techniques has been applied on its analyses, (such as FDTD, mode matching, etc), and optimization techniques as well. On the other hand, such numerical techniques are very memory and/or CPU/time consuming, which do not match with the cost objective of those simple concept transformers. This work proposes an alternative technique, based on close-form models derived from varational theory. A heuristic model is also proposed for attending the two plane transformer case, which can be easily applied for both homogeneous and inhomogeneous structures. Keywords Waveguide;
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Glöckner, Andreas. "Automatische Prozesse bei Entscheidungen : das dominierende Prinzip menschlicher Entscheidungen: Intuition, komplex-rationale Analyse oder Reduktion? /." Hamburg : Kovač, 2006. http://www.verlagdrkovac.de/3-8300-2625-0.htm.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Ahmadi, Jah Robert Roham, Daniel Chatten, and Ali Hesen Sabah. "Analysera eller gå på magkänsla? : Hur svenska chefer använder analys och intuition i sina beslut under Coronakrisen." Thesis, Linnéuniversitetet, Institutionen för organisation och entreprenörskap (OE), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-104827.

Повний текст джерела
Анотація:
En kris såsom Coronapandemin är en extrem situation som skiljer sig från normala förhållanden och kräver att rätt beslut tas. Det sätter press på chefen i en organisation att fatta ett beslut som många gånger är improviserat, dels på grund av tidspress och stress, dels på grund av att varje kris är unik där det är otydligare vad som är rätt och fel beslut. Det beslut som chefen tar under en kris kan många gånger skilja sig från hur beslutet hade tagits under en normal situation. Bör chefen göra mer analyser före beslutet tas eftersom krisen är så pass komplex eller bör chefen i stället förlita sig mer på sin magkänsla eftersom krisens komplexitet är alltför omfattande att göra en analys av? Det är en fråga som har fått mycket uppmärksamhet inom beslutsforskning, inte minst under extrema situationer och kriser såsom en pandemi. Syftet med denna studie är att öka förståelsen för hur chefer hanterar det improviserande beslutsfattandet som uppstår under en kris. I studien sätts analytiska beslut i kontrast till beslut baserade på intuition eller magkänsla, men öppnar samtidigt upp för en möjlighet att båda kan kombineras. Intervjuer har gjorts med chefer från olika branscher runtom i Sverige för att öka förståelsen för krisbeslut under Coronapandemin. Studien visar att de flesta chefer använder analys eller kombinerar analys med intuition. Endast ett fåtal chefer tenderar att enbart använda intuition. Vidare framkommer det att hur chefen betraktar krisen får en effekt på vilka beslut som tas. Betraktas pandemin enbart som ett hot väljer chefen att fokusera på interna aktiviteter som ämnar lindra pandemins negativa påverkan i organisationen och stödja medarbetarna. Väljer chefen att även betrakta pandemin som en möjlighet så öppnar det upp för externa aktiviteter som kan dra nytta av pandemin, såsom att expandera verksamheten till och bredda kontaktnätverken för nya affärsmöjligheter. I de allra flesta beslut framkommer det att de baseras på ett nära samspel och kommunikation med andra aktörer. Det är sällan som ett beslut tas utan någon som helst kommunikation med någon annan. Denna kommunikation tycks ha motarbetat de negativa effekter som olika biaser medför i besluten. Exempelvis är cheferna mindre partiska när andras perspektiv tas med i beaktning före ett beslut tas. Slutligen tror de flesta cheferna att denna pandemi har gjort dem till en bättre beslutsfattare och vissa tror att tidigare stressfulla situationer och kriser har varit till stor hjälp även under Coronapandemin.
A crisis such as the Covid-19 pandemic is an extreme situation that differs from day-to-day situations and require that the right decisions be made. Such extreme situations put pressure on managers in organizations to make decisions that many times are improvised, in part because of time pressure and stress, and in part because each crisis is unique and makes it harder to know what the right decision is. The decisions managers make during a crisis are often different from how those decisions would have been made during a normal situation. Should the manager analyse the situation before the decision is made because the crisis is so complex, or should the manager instead follow his or her gut feeling because the crisis’ complexity is too overwhelming to possibly analyse? Such a question has received much attention in research of decision making, not least under extreme situations and crisis such as a pandemic. The purpose of this study is to increase the understanding of how managers deal with the improvised decision making that occur during a crisis. This study contrasts analytical decisions to intuitive decisions, while at the same time opens for the possibility that both styles of decision making could be combined. Interviews have been made with managers from different industries throughout Sweden to increase the understanding of crisis decision making during the Covid-19 pandemic. The study shows that most managers use analysis or combine analysis with intuition. Few managers tend to use intuition only. Furthermore, this study shows that the way the manager views the crisis can affect the decisions that he or she makes. If the manager views the merely as a threat, he or she will tend to focus on internal activities aimed at reducing the negative effects caused by the pandemic on the organisation and their members. If the manager chooses also to view the pandemic as an opportunity, it can lead to external activities that can take advantage of the pandemic, by for example expanding their business and business network. The study shows that most decisions have been made through communication and interplay with other actors. Only few decisions have been made without any communication or interplay whatsoever. The fact that most decisions have been made through communication with others seem to have reduced the effect of different biases. Managers have become less partial when other people’s perspectives have been included in the decisions. Finally, most managers believe that this pandemic has made them a better decision maker, and some believe that prior stressful situations and crisis have greatly assisted them during this pandemic.
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Rambow, Angela Inge. "Sozialer Wert der Stadtbibliothek Wolgast." Doctoral thesis, Humboldt-Universität zu Berlin, Philosophische Fakultät I, 2006. http://dx.doi.org/10.18452/15525.

Повний текст джерела
Анотація:
Diese Arbeit verfolgt das Ziel, soziale Wirkungen einer ausgewählten Bibliothek gültig und verlässlich nachzuweisen. Sie beschäftigt sich mit dem vielschichtigen Problem, Tätigkeitszusammenhänge zu untersuchen, die bedeutsame Veränderungen hervorrufen und fragt nach dem Einfluss der Bibliothek in individueller und gesellschaftlicher Hinsicht. Dies steht im Zusammenhang mit der Leistungsbeurteilung einer Bibliothek. Ausgehend von verschiedenen Wirkungsdefinitionen im Kontext ihres theoretischen Hintergrundes (Kapitel eins) werden unterschiedliche Ansätze der Leistungs- und Wirkungsmessung verglichen (Kapitel zwei). Darauf aufbauend wird die Wahl des social-process-audit-Ansatzes begründet und führt im Kapitel drei zur Darstellung des Forschungsdesigns. Im Kapitel vier werden die Forschungsergebnisse vorgestellt. Die Ergebnisse dieser empirischen Untersuchung zeigen, dass die Wirkungen der ausgewählten Bibliothek gesellschaftlich bedeutsam sind. Durch ihr Angebot bewirkt diese Bibliothek nicht nur vielfältigen Nutzen, sondern auch Veränderungen innerhalb der Lebensbereiche ihrer Interessengruppen. Diese langfristigen sozialen Wirkungen können für die Bibliothek von strategischer Bedeutung sein. Die Besonderheiten der Arbeit bestehen darin, (1) dass gesellschaftliche Wirkungsbezüge gültig nachgewiesen worden sind, (2) dass nicht auf Nutzungszusammenhänge eingeschränkt, sondern im Kontext des Auftrages der Bibliothek untersucht wurde und (3) dass das Einbeziehen der Positionen aller relevanter Interessengruppen – sowohl in Hinblick auf das Ermitteln der erwünschten Wirkungen als auch der erreichten Wirkungen – eine entscheidende Grundlage darstellte. Die im Kapitel fünf enthaltenen Schlussbetrachtungen beschäftigen sich mit Problemen der wissenschaftlich-empirischen Methode des Interviewens, der Verallgemeinerung der Untersuchungsergebnisse und ausgewählten aktuellen Fragestellungen.
This thesis aims at validly and reliably proving social effects (Impact, Outcome) of a selected library. It deals with the complex problem of surveying the context of activities causing significant changes. Apart from that, it looks into the library''s influence on the individual and on society, thus furnishing results which facilitate the assessment of a library''s achievements. Starting with various definitions of outcomes in the context of their theoretical background (chapter one), different approaches to assessing performace, impact and outcome are compared (chapter two). Based on that, the selection of the social-process-audit approach is justified and then the research design described (chapter three). In chapter four, the results of the survey are presented. The empirical study proves that the effects of the selected library are socially significant. This library''s offer does not only bring about a variety of benefits, but it also causes changes in its stakeholders'' lives – long-term social effects that may be of strategic significance for the library. The special features of the thesis are (1) the valid proof of social effects, (2) the fact that the survey has not been restricted to ways of use, but has been carried out in the context of the library''s task and (3) that the inclusion of the positions of all relevant interest groups (stakeholders) – with regard to both determining the intended effects and the ones that have been actually reached – has built a decisive basis. The concluding remarks (chapter five) consider problems of the scientific-empirical method of interviewing and contain a generalization of the thesis''s results as well as selected topical questions.
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Rumm, Stefanie [Verfasser], Klaus [Akademischer Betreuer] [Gutachter] Menrad, and Luisa [Gutachter] Menapace. "Verbrauchereinschätzungen zu Biokunststoffen: eine Analyse vor dem Hintergrund des heuristic-systematic model / Stefanie Rumm ; Gutachter: Klaus Menrad, Luisa Menapace ; Betreuer: Klaus Menrad." München : Universitätsbibliothek der TU München, 2016. http://d-nb.info/1125627026/34.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Kirner, Benedikt. "The ethical focal point of moral symmetry – a heuristic to analyse risk culture and misconduct in banking: Demonstrated on three recent misconduct cases." HHL Leipzig Graduate School of Management, 2020. https://slub.qucosa.de/id/qucosa%3A74391.

Повний текст джерела
Анотація:
Many recent scandals in banking highlight the importance and challenges of risk governance due to non-financial risk issues such as misconduct and failed risk cultures of financial corporations. The study of risk culture and misconduct in banking requires addressing questions on corporate governance beyond compliance; next to the empirical level, it is important to focus fundamentally on normative aspects, such as ethical norms and values. The heuristic of the ethical focal point of moral symmetry is developed and used to unravel these complex culture and conduct issues on both the normative and empirical level to differentiate good conduct from misconduct in the banking industry, and to guide leaders and risk-takers in decision-making. Based on three case studies on recent banking scandals, the following main drivers of risk culture and misconduct issues in banking were derived: (i) bad leadership, (ii) decoupling of actions and values, and (iii) ignorance of risk policies due to the complexity and ambiguity of the banking business. Banks are requested to internalize a heuristic such as the ethical focal point of moral symmetry to overcome the issues of misconduct and its spill-over effects on risk-taking and risk culture in the banking industry.
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Thau, Sebastian Leonid [Verfasser], and A. [Akademischer Betreuer] Albers. "Heuristiken zur Analyse und Synthese technischer Systeme mit dem C&C²[[Elektronische Ressource]] : Ansatz auf Basis von Entwicklungsprojekten im industriellen Umfeld = Heuristics to analyze and design technical systems with the C&C² / Sebastian Leonid Thau. Betreuer: A. Albers." Karlsruhe : KIT-Bibliothek, 2013. http://d-nb.info/1043756256/34.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Janeček, David. "Sdružená EEG-fMRI analýza na základě heuristického modelu." Master's thesis, Vysoké učení technické v Brně. Fakulta elektrotechniky a komunikačních technologií, 2015. http://www.nusl.cz/ntk/nusl-221334.

Повний текст джерела
Анотація:
The master thesis deals with the joint EEG-fMRI analysis based on a heuristic model that describes the relationship between changes in blood flow in active brain areas and in the electrical activity of neurons. This work also discusses various methods of extracting of useful information from the EEG and their influence on the final result of joined analysis. There were tested averaging methods of electrodes interest, decomposition by principal components analysis and decomposition by independent component analysis. Methods of averaging and decomposition by PCA give similar results, but information about a stimulus vector can not be extracted. Using ICA decomposition, we are able to obtain information relating to the certain stimulation, but there is the problem in the final interpretation and selection of the right components in a blind search for variability coupled with the experiment. It was found out that although components calculated from the time sequence EEG are independent for each to other, their spectrum shifts are correlated. This spectral dependence was eliminated by PCA / ICA decomposition from vectors of spectrum shifts. For this method, each component brings new information about brain activity. The results of the heuristic approach were compared with the results of the joined analysis based on the relative and absolute power approach from frequency bands of interest. And the similarity between activation maps was founded, especially for the heuristic model and the relative power from the gamma band (20-40Hz).
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Namanya, Anitta P. "A Heuristic Featured Based Quantification Framework for Efficient Malware Detection. Measuring the Malicious intent of a file using anomaly probabilistic scoring and evidence combinational theory with fuzzy hashing for malware detection in Portable Executable files." Thesis, University of Bradford, 2016. http://hdl.handle.net/10454/15863.

Повний текст джерела
Анотація:
Malware is still one of the most prominent vectors through which computer networks and systems are compromised. A compromised computer system or network provides data and or processing resources to the world of cybercrime. With cybercrime projected to cost the world $6 trillion by 2021, malware is expected to continue being a growing challenge. Statistics around malware growth over the last decade support this theory as malware numbers enjoy almost an exponential increase over the period. Recent reports on the complexity of the malware show that the fight against malware as a means of building more resilient cyberspace is an evolving challenge. Compounding the problem is the lack of cyber security expertise to handle the expected rise in incidents. This thesis proposes advancing automation of the malware static analysis and detection to improve the decision-making confidence levels of a standard computer user in regards to a file’s malicious status. Therefore, this work introduces a framework that relies on two novel approaches to score the malicious intent of a file. The first approach attaches a probabilistic score to heuristic anomalies to calculate an overall file malicious score while the second approach uses fuzzy hashes and evidence combination theory for more efficient malware detection. The approaches’ resultant quantifiable scores measure the malicious intent of the file. The designed schemes were validated using a dataset of “clean” and “malicious” files. The results obtained show that the framework achieves true positive – false positive detection rate “trade-offs” for efficient malware detection.
Стилі APA, Harvard, Vancouver, ISO та ін.
14

Ameli, Mostafa. "Heuristic Methods for Calculating Dynamic Traffic Assignment Simulation-based dynamic traffic assignment: meta-heuristic solution methods with parallel computing Non-unicity of day-to-day multimodal user equilibrium: the network design history effect Improving traffic network performance with road banning strategy: a simulation approach comparing user equilibrium and system optimum." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSET009.

Повний текст джерела
Анотація:
Les systèmes de transport sont caractérisés de manière dynamique non seulement par des interactions non linéaires entre les différents composants, mais également par des boucles de rétroaction entre l'état du réseau et les décisions des utilisateurs. En particulier, la congestion du réseau impacte à la fois la répartition de la demande locale en modifiant les choix d’itinéraire et la demande multimodale globale. Selon les conditions du réseau, ils peuvent décider de changer, par exemple, leur mode de transport. Plusieurs équilibres peuvent être définis pour les systèmes de transport. L'équilibre de l'utilisateur correspond à la situation dans laquelle chaque utilisateur est autorisé à se comporter de manière égoïste et à minimiser ses propres frais de déplacement. L'optimum du système correspond à une situation où le coût total du transport de tous les utilisateurs est minimal. Dans ce contexte, l’étude vise à calculer les modèles de flux d'itinéraires dans un réseau prenant en compte différentes conditions d’équilibre et à étudier l’équilibre du réseau dans un contexte dynamique. L'étude se concentre sur des modèles de trafic capables de représenter une dynamique du trafic urbain à grande échelle. Trois sujets principaux sont abordés. Premièrement, des méthodes heuristiques et méta-heuristiques rapides sont développées pour déterminer les équilibres avec différents types de trafic. Deuxièmement, l'existence et l'unicité des équilibres d'utilisateurs sont étudiées. Lorsqu'il n'y a pas d'unicité, la relation entre des équilibres multiples est examinée. De plus, l'impact de l'historique du réseau est analysé. Troisièmement, une nouvelle approche est développée pour analyser l’équilibre du réseau en fonction du niveau de la demande. Cette approche compare les optima des utilisateurs et du système et vise à concevoir des stratégies de contrôle afin de déplacer la situation d'équilibre de l'utilisateur vers l'optimum du système
Transport systems are dynamically characterized not only by nonlinear interactions between the different components but also by feedback loops between the state of the network and the decisions of users. In particular, network congestion affects both the distribution of local demand by modifying route choices and overall multimodal demand. Depending on the conditions of the network, they may decide to change for example their transportation mode. Several equilibria can be defined for transportation systems. The user equilibrium corresponds to the situation where each user is allowed to behave selfishly and to minimize his own travel costs. The system optimum corresponds to a situation where the total transport cost of all the users is minimum. In this context, the study aims to calculate route flow patterns in a network considering different equilibrium conditions and study the network equilibrium in a dynamic setting. The study focuses on traffic models capable of representing large-scale urban traffic dynamics. Three main issues are addressed. First, fast heuristic and meta-heuristic methods are developed to determine equilibria with different types of traffic patterns. Secondly, the existence and uniqueness of user equilibria is studied. When there is no uniqueness, the relationship between multiple equilibria is examined. Moreover, the impact of network history is analyzed. Thirdly, a new approach is developed to analyze the network equilibrium as a function of the level of demand. This approach compares user and system optimums and aims to design control strategies in order to move the user equilibrium situation towards the system optimum
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Müller, Johannes. "Wertbasierte Portfolio-Optimierung bei Software-Produktlinien." Doctoral thesis, Universitätsbibliothek Leipzig, 2012. http://nbn-resolving.de/urn:nbn:de:bsz:15-qucosa-83047.

Повний текст джерела
Анотація:
Das Software Product Line Engineering (SPLE) ist ein ganzheitlicher Ansatz zur Entwicklung und Vermarktung von Software-Produktlinien auf Basis von Software-Systemfamilien. Eine in frühen Phasen des SPLE durchzuführende Aktivität ist das Scoping, bei dem die zu realisierenden Produkte mit den zwischen ihnen bestehenden Wiederverwendungspotentialen identifiziert werden. Bei der Durchführung des Scopings steht der Produkt-Manager vor dem Problem einen Ausgleich zwischen den Bedürfnissen der Kunden und dem Aufwand der Entwicklung zu finden. Durch die bestehenden Wiederverwendungspotentiale bei Software-Systemfamilien wird die Entscheidung zusätzlich erschwert. Aufgrund der bestehenden Komplexität der Entscheidung, wird in Literatur und Praxis eine Unterstützung in Form einer statistisch-mathematischen Optimierung gefordert. Dieser Forderung nimmt sich die vorliegende Arbeit an. In ihr werden mit der Konstruktion eines Modells gewinnbeeinflussender Faktoren, einer Methode zur wertbasierten Portfolio-Optimierung und eines Prototyps zur Unterstützung der wertbasierten Portfolio-Optimierung und der anschließenden Evaluation dieser Artefakte zwei Fragen adressiert. Erstens wird geprüft, ob die Optimierung von Produkt-Portfolios bei Software-Produktlinien mit statistisch-mathematischen Verfahren unterstützt werden kann. Zweitens wird geprüft, ob die statistisch-mathematische Optimierung von Produkt-Portfolios eine akzeptierte Unterstützung von Software-Anbietern sein kann. Die Arbeit ordnet sich mit ihren Fragen in die Forschung zum Produkt-Management bei Software-Produktlinien ein und trägt die vorgenannten Artefakte bei.
Стилі APA, Harvard, Vancouver, ISO та ін.
16

Bou, Malham Christelle. "Méthodologie d’optimisation hybride (Exergie/Pinch) et application aux procédés industriels." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEM082.

Повний текст джерела
Анотація:
Dans la perspective du présent scénario énergétique, ce travail de thèse propose une méthodologie qui associe la méthode du pincement à l’analyse exergétique de manière à dépasser leurs limitations individuelles aboutissant à une conception améliorée aux deux niveaux : paramètres opératoires et topologie. Une méthodologie globale, consistant à hybrider les deux méthodes thermodynamiques dans une approche entrelacée avec des règles heuristiques et une optimisation numérique, est donc évoquée. À l'aide de nouveaux critères d'optimisation basés sur l’exergie, l'analyse exergétique est utilisée non seulement pour évaluer les pertes d’exergie mais également pour guider les améliorations potentielles des conditions de fonctionnement et de structure des procédés industriels. En plus, au lieu de considérer uniquement l’intégration de la chaleur pour satisfaire des besoins existants, la méthodologie proposée étend la méthode de pincement pour inclure d’autres formes d’exergie récupérables et exploiter de nouvelles voies de synergie via des systèmes de conversion. Après avoir présenté les lignes directrices de la méthodologie proposée, l’approche est démontrée sur deux systèmes industriels, un procédé d’hydrotraitement de gasoil sous vide et un procédé de liquéfaction de gaz naturel. L’application du cadre méthodologique à des processus réalistes a montré comment ajuster les conditions opératoires de chaque procédé et comment mettre en œuvre des systèmes de conversion générant des économies d’énergie substantielles
In the perspective of the prevailing and alarming energy scene, this doctoral work puts forward a methodology that couples pinch and exergy analysis in a way to surpass their individual limitations in the aim of generating optimal operating conditions and topology for industrial processes. A global methodology, a hybrid of the two thermodynamic methods in an intertwined approach with heuristic rules and numerical optimization, is therefore evoked. Using new optimizing exergy-based criteria, exergy analysis is used not only to assess the exergy losses but also to guide the potential improvements in industrial processes structure and operating conditions. And while pinch analysis considers only heat integration to satisfy existent needs, the proposed methodology allows including other forms of recoverable exergy and explores new synergy pathways through conversion systems. After exhibiting the guidelines of the proposed methodology, the entire approach is demonstrated on two industrial systems, a vacuum gasoil hydrotreating process and a natural gas liquefaction process. The application of the methodological framework on realistic processes demonstrated how to adjust each process operating conditions and how to implement conversion systems ensuing substantial energy savings
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Chu, Liu. "Reliability and optimization, application to safety of aircraft structures." Thesis, Rouen, INSA, 2016. http://www.theses.fr/2016ISAM0008/document.

Повний текст джерела
Анотація:
Les chercheurs dans le domaine de la conception aérodynamique et de la fabrication des avions ont fait beaucoup d'effort pour améliorer les performances des ailes par des techniques d'optimisation. Le développement de la mécanique des fluides numérique a permis de réduire les dépenses en soufflerie tout en fournissant des résultats convaincants pour simuler des situations compliquées des aéronefs. Dans cette thèse, il a été choisi une partie spéciale et importante de l'avion, à savoir, la structure de l'aile. L'optimisation basée sur la fiabilité est une méthode plus appropriée pour les structures sous incertitudes. Il se bat pour obtenir le meilleur compromis entre le coût et la sécurité tout en tenant compte des incertitudes du système en intégrant des mesures de fiabilité au sein de l'optimisation. Malgré les avantages de l'optimisation de la fiabilité en fonction, son application à un problème d'ingénierie pratique est encore assez difficile. Dans notre travail, l'analyse de l'incertitude dans la simulation numérique est introduite et exprimée par la théorie des probabilités. La simulation de Monte Carlo comme une méthode efficace pour propager les incertitudes dans le modèle d'éléments finis de la structure est ici appliquée pour simuler les situations compliquées qui peuvent se produire. Pour améliorer l'efficacité de la simulation Monte Carlo dans le processus d'échantillonnage, la méthode de l'Hypercube Latin est effectuée. Cependant, l'énorme base de données de l'échantillonnage rend difficile le fait de fournir une évaluation explicite de la fiabilité. L'expansion polynôme du chaos est présentée et discutée. Le modèle de Kriging comme un modèle de substitution joue un rôle important dans l'analyse de la fiabilité. Les méthodes traditionnelles d'optimisation ont des inconvénients à cause du temps de calcul trop long ou de tomber dans un minimum local causant une convergence prématurée. Le recuit simulé est une méthode heuristique basée sur une recherche locale, les Algorithmes Génétiques puisent leur inspiration dans les principes et les mécanismes de la sélection naturelle, qui nous rendent capables d'échapper aux pièges des optimums locaux. Dans l'optimisation de la conception de base de la fiabilité, ces deux méthodes ont été mises en place comme procédure d'optimisation. La boucle de l'analyse de fiabilité est testée sur le modèle de substitution
Tremendous struggles of researchers in the field of aerodynamic design and aircraft production were made to improve wing airfoil by optimization techniques. The development of computational fluid dynamic (CFD) in computer simulation cuts the expense of aerodynamic experiment while provides convincing results to simulate complicated situation of aircraft. In our work, we chose a special and important part of aircraft, namely, the structure of wing.Reliability based optimization is one of the most appropriate methods for structural design under uncertainties. It struggles to seek for the best compromise between cost and safety while considering system uncertainties by incorporating reliability measures within the optimization. Despite the advantages of reliability based optimization, its application to practical engineering problem is still quite challenging. In our work, uncertainty analysis in numerical simulation is introduced and expressed by probability theory. Monte Carlo simulation as an effective method to propagate the uncertainties in the finite element model of structure is applied to simulate the complicate situations that may occur. To improve efficiency of Monte Carlo simulation in sampling process, Latin Hypercube sampling is performed. However, the huge database of sampling is difficult to provide explicit evaluation of reliability. Polynomial chaos expansion is presented and discussed. Kriging model as a surrogate model play an important role in the reliability analysis.Traditional methods of optimization have disadvantages in unacceptable time-complexity or natural drawbacks of premature convergence because of finding the nearest local optima of low quality. Simulated Annealing is a local search-based heuristic, Genetic Algorithm draws inspiration from the principles and mechanisms of natural selection, that makes us capable of escaping from being trapped into a local optimum. In reliability based design optimization, these two methods were performed as the procedure of optimization. The loop of reliability analysis is running in surrogate model
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Connault, Pierre. "Calibration d'algorithmes de type Lasso et analyse statistique de données métallurgiques en aéronautique." Thesis, Paris 11, 2011. http://www.theses.fr/2011PA112041.

Повний текст джерела
Анотація:
Notre thèse comprend deux parties : l’une méthodologique, l’autre appliquée.La partie méthodologique porte sur le Lasso et une variante de cet algorithme, le Lasso projeté, en vue de leur calibration par pente. Notre méthode tire parti des propriétés de parcimonie du Lasso, en envisageant le problème de sa calibration comme un problème de sélection de modèles, permettant l’emploi de critères pénalisés nécessitant le réglage d’une constante. Pour déterminer la forme de la pénalité et la valeur de la constante, nous adaptons les approches classiques de Birgé et Massart. Ceci permet de dégager la notion de pénalité canonique. Pente et validation croisée sont ensuite comparées. La proximité des résultats suggère qu’en pratique on utilise les deux conjointement, avec des corrections visuelles concernant la pente. Des améliorations sur le temps de calcul des pénalités canoniques sont ensuite proposées, mais sans succès patent. La partie appliquée analyse certaines questions métallurgiques en aéronautique. En fiabilité, le grand nombre de variables présentes, relativement au nombre limité de données, mène à une instabilité des solutions par modèles linéaires et à des temps de calculs trop élevés ; c’est pourquoi le Lasso constitue une solution intéressante. Notre méthode de réglage permet souvent de retenir les variables conformes à l’expérience métier. La question de la qualité du procédé de fabrication, par contre, ne peut se traiter au moyen du Lasso. Quatre aspects sont alors envisagés : la détermination des facteurs du procédé, la mise en évidence de recettes, l’étude de la stabilité du procédé dans le temps et la détection de pièces hors-normes. Un schéma général d’étude procédé est ainsi dégagé,en qualité comme en fiabilité
Our work contains a methodological and an applied part.In the methodological part we study Lasso and a variant of this algorithm : the projectedLasso. We develop slope heuristics to calibrate them.Our approach uses sparsity properties of the Lasso, showing how to remain to a modelselection framework. This both involves a penalized criterion and the tuning of a constant.To this aim, we adopt the classical approaches of Birgé and Massart about slope heuristics.This leads to the notion of canonical penalty.Slope and (tenfold) crossvalidation are then compared through simulations studies.Results suggest the user to consider both of them. In order to increase calculation speed,simplified penalties are (unsuccessfully) tried.The applied part is about aeronautics. The results of the methodological part doapply in reliability : in classical approaches (without Lasso) the large number of variables/number of data ratio leads to an instability of linear models, and to huge calculustimes. Lasso provides a helpful solution.In aeronautics, dealing with reliability questions first needs to study quality of theelaboration and forging processes. Four major axis have to be considered : analysing thefactor of the process, discrimining recipes, studying the impact of time on quality anddetecting outliers. This provides a global statistical strategy of impowerment for processes
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Boussaa, Mohamed. "Automatic non-functional testing and tuning of configurable generators." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S011/document.

Повний текст джерела
Анотація:
Les techniques émergentes de l’ingénierie dirigée par les modèles et de la programmation générative ont permis la création de plusieurs générateurs (générateurs de code et compilateurs). Ceux-ci sont souvent utilisés afin de faciliter le développement logiciel et automatiser le processus de génération de code à partir des spécifications abstraites. De plus, les générateurs modernes comme les compilateurs C, sont devenus hautement configurables, offrant de nombreuses options de configuration à l'utilisateur de manière à personnaliser facilement le code généré pour la plateforme matérielle cible. Par conséquent, la qualité logicielle est devenue fortement corrélée aux paramètres de configuration ainsi qu'au générateur lui-même. Dans ce contexte, il est devenu indispensable de vérifier le bon comportement des générateurs. Cette thèse établit trois contributions principales : Contribution I: détection automatique des inconsistances dans les familles de générateurs de code : Dans cette contribution, nous abordons le problème de l'oracle dans le domaine du test non-fonctionnel des générateurs de code. La disponibilité de multiples générateurs de code avec des fonctionnalités comparables (c.-à-d. familles de générateurs de code) nous permet d'appliquer l'idée du test métamorphique en définissant des oracles de test de haut-niveau (c.-à-d. relation métamorphique) pour détecter des inconsistances. Une inconsistance est détectée lorsque le code généré présente un comportement inattendu par rapport à toutes les implémentations équivalentes de la même famille. Nous évaluons notre approche en analysant la performance de Haxe, un langage de programmation de haut niveau impliquant un ensemble de générateurs de code multi-plateformes. Les résultats expérimentaux montrent que notre approche est capable de détecter plusieurs inconsistances qui révèlent des problèmes réels dans cette famille de générateurs de code. Contribution II: une approche pour l'auto-configuration des compilateurs. Le grand nombre d'options de compilation des compilateurs nécessite une méthode efficace pour explorer l'espace d’optimisation. Ainsi, nous appliquons, dans cette contribution, une méta-heuristique appelée Novelty Search pour l'exploration de cet espace de recherche. Cette approche aide les utilisateurs à paramétrer automatiquement les compilateurs pour une architecture matérielle cible et pour une métrique non-fonctionnelle spécifique tel que la performance et l'utilisation des ressources. Nous évaluons l'efficacité de notre approche en vérifiant les optimisations fournies par le compilateur GCC. Nos résultats expérimentaux montrent que notre approche permet d'auto-configurer les compilateurs en fonction des besoins de l'utilisateur et de construire des optimisations qui surpassent les niveaux d'optimisation standard. Nous démontrons également que notre approche peut être utilisée pour construire automatiquement des niveaux d'optimisation qui représentent des compromis optimaux entre plusieurs propriétés non-fonctionnelles telles que le temps d'exécution et la consommation des ressources. Contribution III: Un environnement d'exécution léger pour le test et la surveillance de la consommation des ressources des logiciels. Enfin, nous proposons une infrastructure basée sur les micro-services pour assurer le déploiement et la surveillance de la consommation des ressources des différentes variantes du code généré. Cette contribution traite le problème de l'hétérogénéité des plateformes logicielles et matérielles. Nous décrivons une approche qui automatise le processus de génération, compilation, et exécution du code dans le but de faciliter le test et l'auto-configuration des générateurs. Cet environnement isolé repose sur des conteneurs système, comme plateformes d'exécution, pour une surveillance et analyse fine des propriétés liées à l'utilisation des ressources (CPU et mémoire)
Generative software development has paved the way for the creation of multiple generators (code generators and compilers) that serve as a basis for automatically producing code to a broad range of software and hardware platforms. With full automatic code generation, users are able to rapidly synthesize software artifacts for various software platforms. In addition, they can easily customize the generated code for the target hardware platform since modern generators (i.e., C compilers) become highly configurable, offering numerous configuration options that the user can apply. Consequently, the quality of generated software becomes highly correlated to the configuration settings as well as to the generator itself. In this context, it is crucial to verify the correct behavior of generators. Numerous approaches have been proposed to verify the functional outcome of generated code but few of them evaluate the non-functional properties of automatically generated code, namely the performance and resource usage properties. This thesis addresses three problems : (1) Non-functional testing of generators: We benefit from the existence of multiple code generators with comparable functionality (i.e., code generator families) to automatically test the generated code. We leverage the metamorphic testing approach to detect non-functional inconsistencies in code generator families by defining metamorphic relations as test oracles. We define the metamorphic relation as a comparison between the variations of performance and resource usage of code, generated from the same code generator family. We evaluate our approach by analyzing the performance of HAXE, a popular code generator family. Experimental results show that our approach is able to automatically detect several inconsistencies that reveal real issues in this family of code generators. (2) Generators auto-tuning: We exploit the recent advances in search-based software engineering in order to provide an effective approach to tune generators (i.e., through optimizations) according to user's non-functional requirements (i.e., performance and resource usage). We also demonstrate that our approach can be used to automatically construct optimization levels that represent optimal trade-offs between multiple non-functional properties such as execution time and resource usage requirements. We evaluate our approach by verifying the optimizations performed by the GCC compiler. Our experimental results show that our approach is able to auto-tune compilers and construct optimizations that yield to better performance results than standard optimization levels. (3) Handling the diversity of software and hardware platforms in software testing: Running tests and evaluating the resource usage in heterogeneous environments is tedious. To handle this problem, we benefit from the recent advances in lightweight system virtualization, in particular container-based virtualization, in order to offer effective support for automatically deploying, executing, and monitoring code in heterogeneous environment, and collect non-functional metrics (e.g., memory and CPU consumptions). This testing infrastructure serves as a basis for evaluating the experiments conducted in the two first contributions
Стилі APA, Harvard, Vancouver, ISO та ін.
20

Gurevsky, Evgeny. "Conception de lignes de fabrication sous incertitudes : analyse de sensibilité et approche robuste." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2011. http://tel.archives-ouvertes.fr/tel-00820619.

Повний текст джерела
Анотація:
Les travaux présentés dans cette thèse portent sur la conception de systèmes de fabrication en contexte incertain. La conception d'un tel système peut être vue comme un problème d'optimisation qui consiste à trouver une configuration qui permet d'optimiser certains objectifs tout en respectant des contraintes technologiques et économiques connues. Les systèmes de fabrication étudiés dans ce mémoire sont des lignes d'assemblage et d'usinage. La première est une ligne qui se présente comme une chaîne de postes de travail où, dans chaque poste, les opérations d'assemblage s'exécutent de manière séquentielle. La deuxième, quant à elle, est une ligne particulière qui se compose de machines de transfert comportant plusieurs boîtiers multibroches où les opérations s'exécutent simultanément. Dans un premier temps, nous décrivons de différentes approches permettant de modéliser l'incertitude des données en optimisation. Une attention particulière est portée sur les deux approches suivantes : l'approche robuste et l'analyse de sensibilité. Puis, nous présentons trois applications : la conception d'une ligne d'assemblage et d'une ligne d'usinage soumises aux variations de temps opératoires et la conception d'une ligne d'assemblage avec les temps opératoires connus sous la forme d'intervalles des valeurs possibles. Pour chaque application, nous identifions les performances attendues ainsi que la complexité de la prise en compte de l'incertitude. Ensuite, nous proposons de nouveaux critères d'optimisation en adéquation avec la problématique introduite. Enfin des méthodes de résolution sont développées pour appréhender les différents problèmes mis en évidence par ces critères.
Стилі APA, Harvard, Vancouver, ISO та ін.
21

Loubiere, Peio. "Amélioration des métaheuristiques d'optimisation à l'aide de l'analyse de sensibilité." Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1051/document.

Повний текст джерела
Анотація:
L'optimisation difficile représente une classe de problèmes dont la résolution ne peut être obtenue par une méthode exacte en un temps polynomial.Trouver une solution en un temps raisonnable oblige à trouver un compromis quant à son exactitude.Les métaheuristiques sont une classe d'algorithmes permettant de résoudre de tels problèmes, de manière générique et efficiente (i.e. trouver une solution satisfaisante selon des critères définis: temps, erreur, etc.).Le premier chapitre de cette thèse est notamment consacré à la description de cette problématique et à l'étude détaillée de deux familles de métaheuristiques à population, les algorithmes évolutionnaires et les algorithmes d'intelligence en essaim.Afin de proposer une approche innovante dans le domaine des métaheuristiques, ce premier chapitre présente également la notion d'analyse de sensibilité.L'analyse de sensibilité permet d'évaluer l'influence des paramètres d'une fonction sur son résultat.Son étude caractérise globalement le comportement de la fonction à optimiser (linéarité, influence, corrélation, etc.) sur son espace de recherche.L'incorporation d'une méthode d'analyse de sensibilité au sein d'une métaheuristique permet d'orienter sa recherche le long des dimensions les plus prometteuses.Deux algorithmes réunissant ces notions sont proposés aux deuxième et troisième chapitres.Pour le premier algorithme, ABC-Morris, la méthode de Morris est introduite dans la métaheuristique de colonie d'abeilles artificielles (ABC).Cette inclusion est dédiée, les méthodes reposant sur deux équations similaires.Afin de généraliser l'approche, une nouvelle méthode, NN-LCC, est ensuite développée et son intégration générique est illustrée sur deux métaheuristiques, ABC avec taux de modification et évolution différentielle.L'efficacité des approches proposées est testée sur le jeu de données de la conférence CEC 2013. L'étude se réalise en deux parties: une analyse classique de la méthode vis-à-vis de plusieurs algorithmes de la littérature, puis vis-à-vis de l'algorithme d'origine en désactivant un ensemble de dimensions, provoquant une forte disparité des influences
Hard optimization stands for a class of problems which solutions cannot be found by an exact method, with a polynomial complexity.Finding the solution in an acceptable time requires compromises about its accuracy.Metaheuristics are high-level algorithms that solve these kind of problems. They are generic and efficient (i.e. they find an acceptable solution according to defined criteria such as time, error, etc.).The first chapter of this thesis is partially dedicated to the state-of-the-art of these issues, especially the study of two families of population based metaheuristics: evolutionnary algorithms and swarm intelligence based algorithms.In order to propose an innovative approach in metaheuristics research field, sensitivity analysis is presented in a second part of this chapter.Sensitivity analysis aims at evaluating arameters influence on a function response. Its study characterises globally a objective function behavior (linearity, non linearity, influence, etc.), over its search space.Including a sensitivity analysis method in a metaheuristic enhances its seach capabilities along most promising dimensions.Two algorithms, binding these two concepts, are proposed in second and third parts.In the first one, ABC-Morris, Morris method is included in artificial bee colony algorithm.This encapsulation is dedicated because of the similarity of their bare bone equations, With the aim of generalizing the approach, a new method is developped and its generic integration is illustrated on two metaheuristics.The efficiency of the two methods is tested on the CEC 2013 conference benchmark. The study contains two steps: an usual performance analysis of the method, on this benchmark, regarding several state-of-the-art algorithms and the comparison with its original version when influences are uneven deactivating a subset of dimensions
Стилі APA, Harvard, Vancouver, ISO та ін.
22

Rojas, Jhojan Enrique. "Méthodologie d’analyse de fiabilité basée sur des techniques heuristiques d’optimisation et modèles sans maillage : applications aux systèmes mécaniques." Thesis, Rouen, INSA, 2008. http://www.theses.fr/2008ISAM0003/document.

Повний текст джерела
Анотація:
Les projets d'Ingénierie Structurale doivent s’adapter aux critères de performance, de sécurité, de fonctionnalité, de durabilité et autres, établis dans la phase d’avant-projet. Traditionnellement, les projets utilisent des informations de nature déterministe comme les dimensions, les propriétés des matériaux et les charges externes. Toutefois, la modélisation des systèmes structuraux complexes implique le traitement des différents types et niveaux d'incertitudes. Dans ce sens, la prévision du comportement doit être préférablement faite en termes de probabilités puisque l'estimation de la probabilité de succès d'un certain critère est une nécessité primaire dans l’Ingénierie Structurale. Ainsi, la fiabilité est la probabilité rapportée à la parfaite opération d'un système structural donné durant un certain temps en des conditions normales d'opération pour trouver le meilleur compromis entre coût et sécurité pour l’élaboration des projets. Visant à pallier les désavantagés des méthodes traditionnelles FORM et SORM (First and Second Order Reliability Method), cette thèse propose une méthode d’analyse de fiabilité basée sur des techniques d’optimisation heuristiques (HBRM, Heuristic-based Reliability Method). Les méthodes heuristiques d’optimisation utilisées par cette méthode sont : Algorithmes Génétiques (Genetic Algorithms), Optimisation par Essaims Particulaires (Particle Swarm Optimisation) et Optimisation par Colonie de Fourmis (Ant Colony Optimization). La méthode HBRM ne requiert aucune estimation initiale de la solution et opère selon le principe de la recherche multi-directionnelle, sans besoin de calculer les dérivées partielles de la fonction d’état limite par rapport aux variables aléatoires. L’évaluation des fonctions d’état limite est réalisée en utilisant modèles analytiques, semi analytiques et numériques. Dans ce but, la mise en oeuvre de la méthode de Ritz (via MATLAB®), la méthode des éléments finis (via MATLAB® et ANSYS®) et la méthode sans maillage de Galerkin (Element-free Galerkin sous MATLAB®) a été nécessaire. La combinaison d’analyse de fiabilité, des méthodes d’optimisation et méthodes de modélisation, ci-dessus mentionnées, configure la méthodologie de conception fiabiliste proposée dans ce mémoire. L’utilisation de différentes méthodes de modélisation et d’optimisation a eu pour objectif de mettre en évidence leurs avantages et désavantages pour des applications spécifiques, ainsi pour démontrer l’applicabilité et la robustesse de la méthodologie de conception fiabiliste en utilisant ces techniques numériques. Ce qui a été possible grâce aux bons résultats trouvés dans la plupart des applications. Dans ce sens, des applications uni, bi et tridimensionnelles en statique, stabilité et dynamique des structures explorent l’évaluation explicite et implicite des fonctions d’état limite de plusieurs variables aléatoires. Procédures de validation déterministe et analyses stochastiques, et la méthode de perturbation de Muscolino, donnent les bases de l’analyse de fiabilité des applications en problèmes d’interaction fluide-structure bi et tridimensionnelles. La méthodologie est particulièrement appliquée à une structure industrielle. Résultats de applications uni et bidimensionnelles aux matériaux composites stratifiés, modélisés par la méthode EFG sont comparés avec les obtenus par éléments finis. A la fin de la thèse, une extension de la méthodologie à l’optimisation fiabiliste est proposée à travers la méthode des facteurs optimaux de sûreté. Pour cela, sont présentes des applications pour la minimisation du poids, en exigent un indice de fiabilité cible, aux systèmes modélisés par la méthode de EF et par la méthode EFG
Structural Engineering designs must be adapted to satisfy performance criteria such as safety, functionality, durability and so on, generally established in pre-design phase. Traditionally, engineering designs use deterministic information about dimensions, material properties and external loads. However, the structural behaviour of the complex models needs to take into account different kinds and levels of uncertainties. In this sense, this analysis has to be made preferably in terms of probabilities since the estimate the probability of failure is crucial in Structural Engineering. Hence, reliability is the probability related to the perfect operation of a structural system throughout its functional lifetime; considering normal operation conditions. A major interest of reliability analysis is to find the best compromise between cost and safety. Aiming to eliminate main difficulties of traditional reliability methods such as First and Second Order Reliability Method (FORM and SORM, respectively) this work proposes the so-called Heuristic-based Reliability Method (HBRM). The heuristic optimization techniques used in this method are: Genetic Algorithms, Particle Swarm Optimization and Ant Colony Optimization. The HBRM does not require initial guess of design solution because it’s based on multidirectional research. Moreover, HBRM doesn’t need to compute the partial derivatives of the limit state function with respect to the random variables. The evaluation of these functions is carried out using analytical, semi analytical and numerical models. To this purpose were carried out the following approaches: Ritz method (using MATLAB®), finite element method (through MATLAB® and ANSYS®) and Element-free Galerkin method (via MATLAB®). The combination of these reliability analyses, optimization procedures and modelling methods configures the design based reliability methodology proposed in this work. The previously cited numerical tools were used to evaluate its advantages and disadvantages for specific applications and to demonstrate the applicability and robustness of this alternative approach. Good agreement was observed between the results of bi and three-dimensional applications in statics, stability and dynamics. These numerical examples explore explicit and implicit multi limit state functions for several random variables. Deterministic validation and stochastic analyses lied to Muscolino perturbation method give the bases for reliability analysis in 2-D and 3-D fluidstructure interaction problems. This methodology is applied to an industrial structure lied to a modal synthesis. The results of laminated composite plates modelled by the EFG method are compared with their counterparts obtained by finite elements. Finally, an extension in reliability based design optimization is proposed using the optimal safety factors method. Therefore, numerical applications that perform weight minimization while taking into account a target reliability index using mesh-based and meshless models are proposed
Os projectos de Engenharia Estrutural devem se adaptar a critérios de desempenho, segurança, funcionalidade, durabilidade e outros, estabelecidos na fase de anteprojeto. Tradicionalmente, os projectos utilizam informações de natureza deterministica nas dimensões, propriedades dos materiais e carregamentos externos. No entanto, a modelagem de sistemas complexos implica o tratamento de diferentes tipos e níveis de incertezas. Neste sentido, a previsão do comportamento deve preferivelmente ser realizada em termos de probabilidades dado que a estimativa da probabilidade de sucesso de um critério é uma necessidade primária na Engenharia Estrutural. Assim, a confiabilidade é a probabilidade relacionada à perfeita operação de um sistema estrutural durante um determinado tempo em condições normais de operação. O principal objetivo desta análise é encontrar o melhor compromisso entre custo e segurança. Visando a paliar as principais desvantagens dos métodos tradicionais FORM e SORM (First and Second Order Reliability Method), esta tese propõe um método de análise de confiabilidade baseado em técnicas de optimização heurísticas denominado HBRM (Heuristic-based Reliability Method). Os métodos heurísticos de otimização utilizados por este método são: Algoritmos Genéticos (Genetic Algorithms), Optimização por Bandos Particulares (Particle Swarm Optimisation) e Optimização por Colónia de Formigas (Ant Colony Optimization). O método HBRM não requer de uma estimativa inicial da solução e opera de acordo com o princípio de busca multidirecional, sem efetuar o cálculo de derivadas parciais da função de estado limite em relação às variáveis aleatórias. A avaliação das funções de estado limite é realizada utilizando modelos analíticos, semi analíticos e numéricos. Com este fim, a implementação do método de Ritz (via MATLAB®), o método dos elementos terminados (via MATLAB® e ANSYS®) e o método sem malha de Galerkin (Element-free Galerkin via MATLAB®) foi necessária. A combinação da análise de confiabilidade, os métodos de optimização e métodos de modelagem, acima mencionados, configura a metodologia de projeto proposta nesta tese. A utilização de diferentes métodos de modelagem e de otimização teve por objetivo destacar as suas vantagens e desvantagens em aplicações específicas, assim como demonstrar a aplicabilidade e a robustez da metodologia de análise de confiabilidade utilizando estas técnicas numéricas. Isto foi possível graças aos bons resultados encontrados na maior parte das aplicações. As aplicações foram uni, bi e tridimensionais em estática, estabilidade e dinâmica de estruturas, as quais exploram a avaliação explícita e implícita de funções de estado limite de várias variáveis aleatórias. Procedimentos de validação déterministica e de análises estocásticas, aplicando o método de perturbação de Muscolino, fornecem as bases da análise de confiabilidade nas aplicações de problemas de iteração fluído-estrutura bi e tridimensionais. A metodologia é testada com uma estrutura industrial. Resultados de aplicações bidimensionais em estratificados compostos, modelados pelo método EFG são comparados com os obtidos por elementos finitos. No fim da tese, uma extensão da metodologia à optimização baseada em confiabilidade é proposta aplicando o método dos factores óptimos de segurança. Finalmente são apresentadas as aplicações para a minimização do peso em sistemas modelados pelo método de EF e o método EFG que exigem um índice de confiabilidade alvo
Стилі APA, Harvard, Vancouver, ISO та ін.
23

Ireta, sánchez Iván tadeo. "La improvisación libre en solo : una aproximación fenomenológica y una proposición de análisis." Thesis, Toulouse 2, 2019. http://www.theses.fr/2019TOU20110.

Повний текст джерела
Анотація:
L’improvisation libre en solo emerge, en tant que pratique musicale, dans les années soixante-dix, au sein de ce qui est connu comme la Free European Improvisation. Cependant, tous les musiciens issus de ce mouvement musical ne se sont pas aventurés à expérimenter l’improvisation dépourvue d’interaction. Il revient néanmoins aux anglais Derek Bailey, Evan Parker, Barry Guy, Paul Rutherford, Howard Riley; aux néerlandais Hann Bennink y Maarten Altena; aux allemands Peter Brötzmann y Alexander Von Schlippenbach; au belge Fred Van Hove y à la suisse Irène Schweizer, d’être les précurseurs qui enregistrèrent en solo. Le premier chapitre a pour objectif de clarifier la notion d’improvisation dans le domaine musical. A cet effet, nous identifions les termes qui sont associés à ce phénomène musical et qui suscitent des interprétations inadéquates. Nous expliquons, par ailleurs, le paradigme de Matthias Rousselot, dont les concepts d’improviso et d’improvisum spécifient les deux états de ce phénomène musical. Pour finir, nous exposons les différences d’improvisation dans les contextes collectif idiomatique et libre. Le second chapitre fait état des influences qui contribuèrent à l’émergence de l’improvisation libre, d’un point de vue historique, tout en relevant les caractéristiques esthétiques qui la distingue du Free Jazz et de la musique indéterministe. Dans le troisième chapitre, nous abordons l’improvisation libre en solo à travers une approche historique basée sur les informations obtenues à partir des différentes productions discographiques conférées à cette pratique. Dans cette partie, nous exposons les LP’s les plus significatifs de cette période. Partant d’une réflexion ainsi que de notre expérience personnelles, nous nous intéressons également aux conditions de développement de l’improvisation libre en solo, avec pour objectif de démontrer son imprévisibilité, son immédiateté, sa nature résolutive ainsi que sa transitoriété. Le quatrième chapitre consiste en l’analyse de trois registres audiovisuels d’improvisations des musiciens Fred Van Hove, Barry Guy et Evan Parker. Pour mener à bien cette analyse, nous proposons la notion d’ “unité formationnelle” qui nous permet d’établir une perspective en nous focalisant sur le processus ou l’improviso. Notre intention est, en ce sens, de proposer une approche originale de ce type de phénomène musical éphémère. Pour finir, nous soulignons le fait que ce travail de recherche contribuera à revendiquer l’improvis
Free improvisation en solo emerged as a musical practice in the 1970s and is also known as the Free European Improvisation. However, not all musicians of this musical movement experimented this experience´s improvisation abstained from interaction. But so, the English Derek Bailey, Evan Parker, Barry Guy, Paul Rutherford and Howard Riley; the Dutch Hann Bennink and Maarten Altena; the Germans Peter Brötzmann and Alexander Von Schlippenbach; the Belgian Fred Van Hove; and the Swiss Irène Schweizer were the precursors that recorded in these conditions.The first chapter aims to clarify the notion of improvisation in the music field. The conditions that surround this musical phenomenon and generate inappropriate interpretations are identified. Further, the Matthias Rousselot paradigm is explained, whose terms of improviso and improvisum specify the two states of this musical phenomenon. The improvisation differences in the collective and idiomatic environments are also exposed.The second chapter consists of a historical review of the influences that contributed to the emergence of free improvisation and also, its aesthetic characteristics that distinguish it from Free Jazz and indeterministic music are highlighted. The third chapter reports a historical approximation of free improvisation en solo from the information obtained from different record productions provided on this practice. In this section, the most significant LP’s are exposed during this period. Also, an approximation is made about their development conditions based on reflection and personal experience in order to demonstrate their unpredictability, their immediacy, their decisive nature and their transience.The fourth chapter consists of analyzing three audiovisual improvisation records of musicians as Fred Van Hove, Barry Guy and Evan Parker. To achieve this, the notion of “formative unity” is proposed in order to establish a perspective whose focus is the process or improviso. The foregoing is in order to establish a different perspective of musical analysis in an ephemeral musical phenomenon. Finally, we want to point out that this research will contribute to claiming free improvisation en solo, understanding it as an activity of authentic artistic creation
La improvisación libre en solo surgió como una práctica musical en la década de los setentas, y al interior de lo que se conoce como la Free European Improvisation. Sin embargo, no todos los músicos de este movimiento musical se aventuraron a experimentar la improvisación abstenidos de interacción. Pero así, los ingleses Derek Bailey, Evan Parker, Barry Guy, Paul Rutherford, Howard Riley; los neerlandeses Hann Bennink y Maarten Altena; los alemanes Peter Brötzmann y Alexander Von Schlippenbach; el belga Fred Van Hove y la suiza Irène Schweizer fueron los precursores que grabaron en estas condiciones.El primer capítulo tiene por objetivo esclarecer la noción de improvisación en el campo de la música. Se identifican los términos que circundan a este fenómeno musical y que suscitan interpretaciones inadecuadas. Además, se explica el paradigma de Matthias Rousselot, cuyos términos de improviso e improvisum especifican los dos estados de este fenómeno musical. También se exponen las diferencias de improvisación en los entornos colectivo idiomático y libre.El segundo capítulo consiste en una revisión histórica de las influencias que contribuyeron en la emergencia de la improvisación libre, y además, se remarcan sus características estéticas que la distinguen del Free Jazz y de la música indeterminista. En el tercer capítulo se hace una aproximación histórica de la improvisación libre en solo, a partir de la información obtenida de diferentes producciones discográficas conferidas a esta práctica. En esta sección, se exponen los LP’s más significativos durante este período. También, se hace una aproximación sobre sus condiciones de desarrollo con base en la reflexión y en la experiencia personal con el objetivo de demostrar su imprevisibilidad, su inmediatez, su naturaleza resolutiva y su transitoriedad. El cuarto capítulo consiste en analizar tres registros audiovisuales de improvisaciones de los músicos Fred Van Hove, Barry Guy y Evan Parker. Para conseguirlo, se propone la noción de “unidad formacional” con el fin de establecer una perspectiva cuyo enfoque de atención sea el proceso o el improviso. Es decir, un enfoque diferente de análisis musical de un fenómeno sonoro efímero. Por último, queremos señalar que este trabajo de investigación contribuirá a reivindicar la improvisación libre en solo, comprendiéndola como una actividad de creación artística auténtica
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Maqrot, Sara. "Méthodes d'optimisation combinatoire en programmation mathématique : Application à la conception des systèmes de verger-maraîcher." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30131.

Повний текст джерела
Анотація:
Dans le cadre du développement durable et des innovations dans les systèmes agroalimentaires, les systèmes mixtes horticoles (vergers et maraîchage) visent à répondre aux enjeux actuels auxquels l'agriculture est confrontée, à savoir une diminution de la pollution des sols, une meilleure gestion des ressources (eau, énergies) et un enrichissement de la biodiversité, tout en continuant d'assurer des fonctions alimentaires. Ils combinent des productions à la fois diversifiées et relativement intensifiées, leur permettant de s'insérer en périphérie urbaine. Ces systèmes agroforestiers reposent sur un ensemble complexe d'interactions modifiant l'utilisation de la lumière, de l'eau et des nutriments. La conception d'un tel système doit donc optimiser l'utilisation de ces ressources en maximisant les interactions positives (facilitations) et en minimisant celles négatives (compétitions). Nous définissons le problème de verger-maraîcher comme un problème d'allocation des arbres et des cultures dans les dimensions spatio-temporelles. Nous proposons trois formulations mathématiques : modèle quadratique en variables binaires (BQP), modèle linéaire en variables mixtes (MILP) et modèle linéaire en variables binaires (01LP). Les limites des méthodes exactes pour résoudre ce problème sont présentées, montrant la nécessité d'appliquer des méthodes approchées, capables de résoudre des systèmes à grande échelle avec des solutions de bonne qualité en temps raisonnable. Pour cela, nous avons développé un solveur open source, baryonyx, qui est une version parallèle de l'heuristique de Wedelin (généralisée). Nous avons utilisé l'analyse de sensibilité pour identifier les paramètres les plus influents. Une fois trouvés, nous avons fixé les autres et utilisé un algorithme génétique pour régler les plus importants sur un ensemble d'instances d'entraînement. Le jeu de paramètres optimisé peut alors être utilisé pour résoudre d'autres instances de plus grande taille du même type de problème. baryonyx avec son réglage automatique obtient des résultats améliorant l'état-de-l'art sur des problèmes de partitionnement. Les résultats sont plus mitigés sur le problème de verger-maraîchage, bien que capable de passer à l'échelle
Mixed fruit-vegetable cropping systems (MFVCS) are a promising way of ensuring environmentally sustainable agricultural production systems in response to the challenge of being able to fulfill local market requirements. They combine productions and make a better use of biodiversity. These agroforestry systems are based on a complex set of interactions modifying the utilization of light, water and nutrients. Thus, designing such systems requires to optimize the use of these resources : by maximizing positive interactions (facilitations) and minimizing negative ones (competitions). To reach these objectives, the system's design has to include the spatial and temporal dimensions, taking into account the evolution of above- and belowground interactions over a time horizon. For that, we define the MFVCAP using a discrete representation of the land and the interactions between vegetable crops and fruit trees. We formulate the problem as three models : binary quadratic program (BQP), mixed integer linear programming (MILP) and binary linear programming (01LP). We explore large models using exact solvers. The limits of exact methods in solving the MFVCS problem show the need for approximate methods, able to solve a large-scale system with solutions of good quality in reasonable time, which could be used in interactive design with farmers and advisers. We have implemented a C++ open-source solver, called baryonyx, which is a parallel version of a (generalized) Wedelin heuristic. We used a sensitivity analysis method to find useful continuous parameters. Once found, we fixed other parameters and let a genetic optimization algorithm using derivatives adjust the useful ones in order to get the best solutions for a given time limit. The optimized configuration could be used to solve larger instances of the same problem type. Baryonyx got competitive results compared to state-of-the-art exact and approximate solvers on crew and bus driver scheduling problems expressed as set partitioning problems. The results are less convincing on MFVCS but still able to produce valid solutions on large instances
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Brassard, Serge. "Méthodologie et modélisation floues des connaissances dans l'activité de conception en électrotechnique : application à la réalisation d'un système expert d'aide à la conception de l'appareillage électrique." Grenoble INPG, 1989. http://www.theses.fr/1989INPG0093.

Повний текст джерела
Анотація:
La conception de l'appareillage électrique relève dune méthodologie généralement fort complexe. Les problèmes posés par la conception de l'appareillage électrique sont analysés et montrent l'inefficacité des méthodes mathématiques. Une approche ensembliste floue est exposée et permet de modéliser l'aspect heuristique du problème ainsi que les aspects scientifiques et industriels de la conception. Un système expert d'aide à la conception des disjoncteurs à arc tournant a été réalisé. Les résultats obtenus sont commentés et montrent l'intérêt d'une telle approche
Стилі APA, Harvard, Vancouver, ISO та ін.
26

Gruza, Jan. "Modélisation de la flexibilité des glycannes complexes en solution et en interaction avec des protéines." Grenoble 1, 1998. http://www.theses.fr/1998GRE10158.

Повний текст джерела
Анотація:
Le comportement conformationnel des glycannes, et donc leur flexibilite, peuvent influencer directement la reactivite chimique et l'activite biologique de ces molecules. Dans ce travail, la modelisation moleculaire d'une serie de glycannes de complexite croissante a ete realisee en utilisant plusieurs methodes d'exploration de l'espace conformationnel, dont la methode heuristique cicada, associees a differents champs de force : mm3 et amber avec plusieurs parametrisations disponibles pour les glycannes. La validation des modeles a ete apportee par des methodes theoriques de chimie quantique et des methodes experimentales telles que la resonance magnetique nucleaire et la cristallographie aux rayons x. Pour les monosaccharides, les comportements conformationnels de deux cycles furanose ont ete etudies par plusieurs methodes et les resultats ont ete compares aux structures cristallines connues. Les constantes de couplage #3j#h#-#h intracycliques ont ete calculees et comparees aux donnees de rmn. Cette approche a permis de determiner les conformations de plus basse energie ainsi que de demontrer la grande flexibilite de ces systemes. Le comportement conformationnel de la liaison glycosidique a ete etudie par modelisation moleculaire de deux disaccharides et d'un heptasaccharide. Ces etudes ont demontre la capacite de la methode cicada a explorer des espaces conformationnels tres complexes de facon rapide et efficace. Les donnees rmn et cristallographiques ont confirme l'existence des modeles de plus basse energie. Afin d'etudier les interactions proteine-glucide, un modele tridimensionnel d'un complexe entre la lectine de lathyrus ochrus et un nonasaccharide biantenne et flucosyle a ete construit. Les comportements conformationnels du nonasaccharide libre et complexe ont ete etablis en utilisant les methodes conformationnelles validees sur les molecules plus petites. Les resultats de la modelisation ont pu etre compares avec les donnees cristallographiques de plusieurs complexes lectine/oligosaccharides. Les limites des methodes de modelisation moleculaire utilisees dans cette etude sont discutees.
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Inamdar, Jaydeep Vijay. "Performance evaluation of greedy heuristic for SIP analyzer in H.264/SVC." 2008. http://hdl.handle.net/10106/922.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
28

Kang, Shih-Huang, and 康詩凰. "Back analyses of earthdam seepage problems using heuristic optimization method." Thesis, 2011. http://ndltd.ncl.edu.tw/handle/97563619349681806887.

Повний текст джерела
Анотація:
碩士
國立交通大學
土木工程學系
99
Embankment dam is the most common type of dams in Taiwan. Besides dam failure caused by overflow erosion, piping due to seepage is one of the major reason that may result in the breach of an embankment dam. Piping failure tends to take place unexpectedly and catastrophically. A proper program of monitoring for seepage and water pressure can help to reduce the chance of piping failure. When unusual monitored data occurs, an appropriate diagnosis will be essential to look for the real cause and timely solve the problem. This thesis aims to propose a diagnosis procedure by means of back analyses of earth-dam seepage problems using one of the heuristic optimization methods - the harmonic search method. This procedure incorporates the harmonic search algorithm into MATLAB as the optimization server and a commercial numerical simulation tool FLAC as the simulation engine to allow the simulated results match the monitoring data. A common data file serves as the interface communicating between MATLAB and FLAC. This work also makes use of two earth-dam seepage problems to demonstrate the feasibility and applicability of the proposed diagnosis procedure.
Стилі APA, Harvard, Vancouver, ISO та ін.
29

Pietrocatelli, Simon. "Analyse bayésienne et élicitation d’opinions d’experts en analyse de risques et particulièrement dans le cas de l’amiante chrysotile." Thèse, 2008. http://hdl.handle.net/1866/3345.

Повний текст джерела
Анотація:
L’appréciation de la puissance cancérogène des fibres d’amiante chrysotile repose en grande partie sur des jugements subjectifs et incertains des experts et des analystes en raison des résultats hétérogènes et équivoques d’études épidémiologiques et toxicologiques sérieuses. L’approche probabiliste bayésienne en évaluation de risques peut formaliser l’impact des jugements subjectifs et de leurs incertitudes sur les estimations de risques, mais elle est encore peu utilisée en santé publique. Le présent travail examine la possibilité d’appliquer l’approche bayésienne dans une récente élicitation d’opinions d’experts pour estimer la toxicité du chrysotile, le degré de consensus et de divergence, ainsi que les niveaux d’incertitude des experts. Les estimations des experts concordaient assez bien sur la différence de toxicité entre chrysotile et amphiboles pour les mésothéliomes. Pour le cancer du poumon, les évaluations probabilistes étaient bien plus disparates. Dans ce cas, les jugements des experts semblaient influencés à différents degrés par des biais heuristiques, surtout les heuristiques d’affect et d’ancrage liés à la controverse du sujet et à l’hétérogénéité des données. Une méthodologie rigoureuse de préparation des experts à l’exercice d’élicitation aurait pu réduire l’impact des biais et des heuristiques sur le panel.
Characterizing the carcinogenic potency of chrysotile asbestos fibres relies a great deal on subjective and uncertain judgements by experts and analysts, given heterogeneous and equivocal results of important epidemiological and toxicological studies. The probabilistic Bayesian approach in risk assessments quantifies these subjective judgements and their uncertainties, along with their impact on risk estimations, but it is rarely used in the public health context. This report examines how the Bayesian approach could have been applied to a recent elicitation of experts’ opinions to estimate the toxicity of chrysotile asbestos, the degree of convergence and divergence, as well as the uncertainty levels of these experts. The experts’ estimations on the relative toxicity of chrysotile and amphibole asbestos were similar in the case of mesothelioma. However, in the case of lung cancer, the heterogeneity of the studies resulted in diverging and incompatible probabilistic evaluations. The experts’ judgements seemed influenced by heuristic biases, particularly the affect and anchor heuristics associated with a controversial topic and to heterogeneous data. If the elicitation process had been prepared following a rigorous methodology, these heuristics and biases could have been mitigated.
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Müller, Johannes. "Wertbasierte Portfolio-Optimierung bei Software-Produktlinien: Value-based Portfolio-Optimization of Software Product Lines: Modell, Vorgehen, Umsetzung." Doctoral thesis, 2011. https://ul.qucosa.de/id/qucosa%3A11342.

Повний текст джерела
Анотація:
Das Software Product Line Engineering (SPLE) ist ein ganzheitlicher Ansatz zur Entwicklung und Vermarktung von Software-Produktlinien auf Basis von Software-Systemfamilien. Eine in frühen Phasen des SPLE durchzuführende Aktivität ist das Scoping, bei dem die zu realisierenden Produkte mit den zwischen ihnen bestehenden Wiederverwendungspotentialen identifiziert werden. Bei der Durchführung des Scopings steht der Produkt-Manager vor dem Problem einen Ausgleich zwischen den Bedürfnissen der Kunden und dem Aufwand der Entwicklung zu finden. Durch die bestehenden Wiederverwendungspotentiale bei Software-Systemfamilien wird die Entscheidung zusätzlich erschwert. Aufgrund der bestehenden Komplexität der Entscheidung, wird in Literatur und Praxis eine Unterstützung in Form einer statistisch-mathematischen Optimierung gefordert. Dieser Forderung nimmt sich die vorliegende Arbeit an. In ihr werden mit der Konstruktion eines Modells gewinnbeeinflussender Faktoren, einer Methode zur wertbasierten Portfolio-Optimierung und eines Prototyps zur Unterstützung der wertbasierten Portfolio-Optimierung und der anschließenden Evaluation dieser Artefakte zwei Fragen adressiert. Erstens wird geprüft, ob die Optimierung von Produkt-Portfolios bei Software-Produktlinien mit statistisch-mathematischen Verfahren unterstützt werden kann. Zweitens wird geprüft, ob die statistisch-mathematische Optimierung von Produkt-Portfolios eine akzeptierte Unterstützung von Software-Anbietern sein kann. Die Arbeit ordnet sich mit ihren Fragen in die Forschung zum Produkt-Management bei Software-Produktlinien ein und trägt die vorgenannten Artefakte bei.:Abbildungsverzeichnis ix Tabellenverzeichnis xi Abkürzungsverzeichnis xii Symbolverzeichnis xiv 1 Einleitung 1 1.1 Stand der Forschung 3 1.2 Forschungsbedarf 5 1.3 Forschungskonzept 7 1.4 Verwendete Methoden und Notationen 9 1.4.1 Method Engineering 10 1.4.2 Software & Systems Process Engineering Meta-Model 12 1.4.3 Merkmaldiagramme 14 1.5 Aufbau der Arbeit 16 I Modell 17 2 Software-Ökonomie 18 2.1 Unternehmen und ihre Produkte 20 2.1.1 Eigenschaften von Software-Produkten 23 2.1.2 Vom Software-System zum Geschäftsmodell 24 2.1.3 Kosten 28 2.1.4 Erlös 31 2.2 Kunden 35 2.2.1 Nutzen und Wertvorstellung 35 2.2.2 Zahlungsbereitschaft 35 2.2.3 Kundenmodell 37 2.3 Konkurrenz und Markt 38 2.3.1 Konkurrenzmodell 38 2.3.2 Ökonomische Besonderheiten von Software-Produkten 39 2.3.3 Struktur von Software-Märkten 40 2.4 Preis 41 2.4.1 Preisbeeinflussende Faktoren 42 2.4.2 Verfahren der Preisbildung 42 2.4.3 Preismodell 44 2.5 Produkt- und Preisdifferenzierung 44 2.5.1 Typen der Preisdifferenzierung 46 2.5.2 Preisdifferenzierung mit Selbstselektion 47 2.5.3 Gewinnoptimalität 48 2.6 Zusammenfassung 49 3 Software-Produktlinien 50 3.1 Prozesse des Software Product Line Engineerings 53 3.1.1 Domain Engineering 54 3.1.2 Anwendungsentwicklung 56 3.1.3 Management 57 3.1.4 Scoping 58 3.2 Methoden des Software Product Line Engineerings 60 3.3 Szenarios des Einsatzes von Software-Systemfamilien 62 3.4 Angereicherte Software-Produktlinien 64 3.5 Kostenmodell bei Software-Systemfamilien 65 3.6 Modell gewinnbeeinflussender Faktoren 68 3.6.1 Interne Einflüsse 68 3.6.2 Externe Einflüsse 70 3.7 Zusammenfassung 71 I I Vorgehen 72 4 Methode zur wertbasierten Portfolio-Optimierung 73 4.1 Die Methode im Überblick 74 4.2 Kundenanalyse 76 4.2.1 Techniken 77 4.2.2 Einsatz 83 4.2.3 Zusammenfassung 88 4.3 Kostenanalyse 89 4.3.1 Techniken 91 4.3.2 Einsatz 94 4.3.3 Zusammenfassung 97 4.4 Konkurrenzanalyse 98 4.5 Optimierung und weitere Schritte 100 4.6 Zusammenfassung 101 5 Merkmalbasierte Generierung adaptiver Conjoint-Studien 102 5.1 Meta-Modelle 103 5.1.1 Merkmalmodelle 103 5.1.2 ACA-PE-Konfigurationen 105 5.2 Abbildung von Merkmalmodellen auf ACA-PE 106 5.2.1 Erste Überlegungen 106 5.2.2 Stufen 107 5.3 Illustrierendes Beispiel 111 5.4 Zusammenfassung 113 6 Wertbasierte Portfolio-Optimierung 114 6.1 Technische Vorbemerkungen 115 6.2 Verwandte Arbeiten 117 6.2.1 Analytische Arbeiten 117 6.2.2 Praktische Arbeiten 118 6.2.3 Besondere Ansätze 121 6.2.4 Schlussfolgerung 122 6.3 Entwurfsproblem bei Software-Produkt-Portfolios 123 6.3.1 Notationsmittel 123 6.3.2 Mathematisches Programm 125 6.4 Lösungsprozedur 126 6.4.1 Finden des optimalen Software-Produkt-Portfolios 127 6.4.2 Identifikation wichtiger Systeme 129 6.5 Illustrierendes Beispiel 129 6.6 Erweiterung 132 6.7 Zusammenfassung 133 I I I Umsetzung 134 7 Software-Prototyp zur wertbasierten Portfolio-Optimierung 135 7.1 Anforderungen 136 7.1.1 Funktional 136 7.1.2 Nicht-funktional 140 7.2 Technologiestudie 140 7.3 Entwurf 143 7.4 Implementierung 146 7.4.1 Spezifikationseditor 146 7.4.2 ACA-PE-Editor 151 7.4.3 Anwendungskern 152 7.5 Test 157 7.6 Zusammenfassung 157 8 Evaluation 158 8.1 Demonstration 158 8.2 Ergebnisgüte und Skalierbarkeit 162 8.2.1 Theoretisches Testdaten-Modell 163 8.2.2 Testtreiber und Testdatengenerator 166 8.2.3 Auswertung 167 8.3 Akzeptanz 174 8.3.1 Untersuchungsdesign 174 8.3.2 Auswertung 175 8.4 Zusammenfassung 176 9 Zusammenfassung und Ausblick 177 IV Anhang 181 Glossar 182 Literaturverzeichnis 184 A Befragungen 206 A.1 Befragung zur praktischen Relevanz der Portfolio-Optimierung 206 A.2 Experteninterview zur Akzeptanz 208 B Herleitungen 214 B.1 Struktur von Software-Märkten 214 B.2 Gewinnoptimalität der Preisdifferenzierung mit Selbstselektion 219 B.3 Preis-Subproblem für den Simplex-Algorithmus 227 B.4 Beispiel analytisch bestimmter Testdaten 228 C Modelle und Ausgaben des Prototyps 229 Wissenschaftlicher und persönlicher Werdegang 232 Selbstständigkeitserklärung 233
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії