Дисертації з теми "Data-Driven Processes"
Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями
Ознайомтеся з топ-50 дисертацій для дослідження на тему "Data-Driven Processes".
Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.
Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.
Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.
Sham, Gregory C. (Gregory Chi-Keung). "Developing a data-driven approach for improving operating room scheduling processes." Thesis, Massachusetts Institute of Technology, 2012. http://hdl.handle.net/1721.1/73397.
Повний текст джерелаCataloged from PDF version of thesis.
Includes bibliographical references (p. 52).
In the current healthcare environment, the cost of delivering patient care is an important concern for hospitals. As a result, healthcare organizations are being driven to maximize their existing resources, both in terms of infrastructure and human capital. Using a data-driven approach with analytical techniques from operations management can contribute towards this goal. More specifically, this thesis shows, drawing from a recent project at Beth Israel Deaconess Medical Center (BIDMC), that predictive modeling can be applied to operating room (OR) scheduling in order to effectively increase capacity. By examining the current usage of the existing block schedule system at BIDMC and developing a linear regression model, OR time that is expected to go unused can be instead identified in advance and freed for use. Sample model results show that it is expected to be operationally effective by capturing a large enough portion of OR time for a pooled set of blocks to be useful for advanced scheduling purposes. This analytically determined free time represents an improvement in how the current block system is employed, especially in terms of the nominal block release time. This thesis makes the argument that such a model can integrate into a scheduling system with more efficient and flexible processes, ultimately resulting in more effective usage of existing resources.
by Gregory C. Sham.
S.M.
M.B.A.
Le, Tallec Yann. "Robust, risk-sensitive, and data-driven control of Markov Decision Processes." Thesis, Massachusetts Institute of Technology, 2007. http://hdl.handle.net/1721.1/38598.
Повний текст джерелаIncludes bibliographical references (p. 201-211).
Markov Decision Processes (MDPs) model problems of sequential decision-making under uncertainty. They have been studied and applied extensively. Nonetheless, there are two major barriers that still hinder the applicability of MDPs to many more practical decision making problems: * The decision maker is often lacking a reliable MDP model. Since the results obtained by dynamic programming are sensitive to the assumed MDP model, their relevance is challenged by model uncertainty. * The structural and computational results of dynamic programming (which deals with expected performance) have been extended with only limited success to accommodate risk-sensitive decision makers. In this thesis, we investigate two ways of dealing with uncertain MDPs and we develop a new connection between robust control of uncertain MDPs and risk-sensitive control of dynamical systems. The first approach assumes a model of model uncertainty and formulates the control of uncertain MDPs as a problem of decision-making under (model) uncertainty. We establish that most formulations are at least NP-hard and thus suffer from the "'curse of uncertainty." The worst-case control of MDPs with rectangular uncertainty sets is equivalent to a zero-sum game between the controller and nature.
(cont.) The structural and computational results for such games make this formulation appealing. By adding a penalty for unlikely parameters, we extend the formulation of worst-case control of uncertain MDPs and mitigate its conservativeness. We show a duality between the penalized worst-case control of uncertain MDPs with rectangular uncertainty and the minimization of a Markovian dynamically consistent convex risk measure of the sample cost. This notion of risk has desirable properties for multi-period decision making, including a new Markovian property that we introduce and motivate. This Markovian property is critical in establishing the equivalence between minimizing some risk measure of the sample cost and solving a certain zero-sum Markov game between the decision maker and nature, and to tackling infinite-horizon problems. An alternative approach to dealing with uncertain MDPs, which avoids the curse of uncertainty, is to exploit directly observational data. Specifically, we estimate the expected performance of any given policy (and its gradient with respect to certain policy parameters) from a training set comprising observed trajectories sampled under a known policy.
(cont.) We propose new value (and value gradient) estimators that are unbiased and have low training set to training set variance. We expect our approach to outperform competing approaches when there are few system observations compared to the underlying MDP size, as indicated by numerical experiments.
by Yann Le Tallec.
Ph.D.
Jiang, Tianyu. "Data-Driven Cyber Vulnerability Maintenance of Network Vulnerabilities with Markov Decision Processes." The Ohio State University, 2017. http://rave.ohiolink.edu/etdc/view?acc_num=osu1494203777781845.
Повний текст джерелаArdakani, Mohammad Hamed. "Data driven methods for updating fault detection and diagnosis system in chemical processes." Doctoral thesis, Universitat Politècnica de Catalunya, 2018. http://hdl.handle.net/10803/650845.
Повний текст джерелаLos procesos industriales modernos son cada vez más complejos y, en consecuencia, su control se ha convertido en una tarea desafiante. La detección y el diagnóstico de fallos (FDD), como un elemento clave de la supervisión del proceso, deben ser investigados debido a su papel esencial en los procesos de toma de decisiones. Entre los métodos disponibles de FDD, los enfoques basados en datos están recibiendo una atención creciente debido a su relativa simplicidad en la implementación. Independientemente de los tipos de FDD, una de las principales características de los sistemas FDD confiables es su capacidad de actualización, mientras que las nuevas condiciones que no fueron consideradas en su entrenamiento inicial, ahora aparecen en el proceso. Estas nuevas condiciones pueden surgir de forma gradual o abrupta, pero tienen el mismo nivel de importancia ya que en ambos casos conducen al bajo rendimiento de FDD. Para abordar las tareas de actualización, se han propuesto algunos métodos, pero no mayoritariamente en el área de investigación de la ingeniería química. Podrían ser categorizados en los que están dedicados a manejar Concept Drift (CD) (que aparecen gradualmente), y a los que tratan con clases nuevas (que aparecen abruptamente). Los métodos disponibles, además de la falta de estrategias claras para la actualización, sufren debilidades en su funcionamiento y de un tiempo de capacitación ineficiente, como se ha referenciado. En consecuencia, esta tesis está dedicada principalmente a la actualización de FDD impulsada por datos en procesos químicos. Los esquemas propuestos para manejar nuevas clases de fallos se basan en métodos no supervisados, mientras que para hacer frente a la CD se han investigado los marcos de actualización supervisados y no supervisados. Además, para mejorar la funcionalidad de los sistemas FDD, se han investigado algunos de los principales métodos de procesamiento de datos, incluida la imputación de valores perdidos, la selección de características y la extensión de características. Los algoritmos y marcos sugeridos para la actualización de FDD han sido evaluados a través de diferentes puntos de referencia y escenarios. Como parte de los resultados, los algoritmos sugeridos para el CD de manejo supervisado superan el rendimiento del aprendizaje incremental tradicional con respecto al puntaje MGM (puntuación adimensional definida basada en el puntaje F1 ponderado y el tiempo de entrenamiento) hasta en un 50% de mejora. Esta mejora se logra mediante los algoritmos propuestos que detectan y olvidan la información redundante, así como ajustan correctamente la ventana de datos para la actualización oportuna y el reciclaje del sistema de detección de fallas. Además, el marco de actualización FDD no supervisado propuesto para tratar fallas nuevas en condiciones de proceso estáticas y dinámicas logra hasta 90% en términos de la puntuación de NPP (puntuación adimensional definida basada en el número de la clase de muestras correcta predicha). Este resultado se basa en un marco innovador que puede asignar muestras a clases nuevas o a clases disponibles explotando una clase de técnicas de clasificación y enfoques de agrupamiento
Cleve, Jochen. "Data-driven theoretical modelling of the turbulent energy cascade." Doctoral thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2004. http://nbn-resolving.de/urn:nbn:de:swb:14-1103125565484-63361.
Повний текст джерелаModelling the turbulent energy cascade gives valuable insight into the dynamics of a turbulent flow. In this work, random multiplicative cascade processes are studied and compared with dissipation time series obtained from various experiments. The emphasis of this comparison is laid on the two-point correlation function because the unavoidable surrogacy of the dissipation field, i.e.the substitution of the multi-component expression by a single component of the velocity signal, corrupts the scaling behaviour of other observables such as integral moments. Finite-size expressions for the two-point correlation function are derived, which make it possible to fit data obtained at moderate or low Reynolds numbers and extract accurate values of scaling exponents. A comprehensive data analysis attempts to determine the free parameters of the cascade generator. The statistics are too limited to claim more than that the cascade generator will be close to having a log-normal distribution. The most basic scaling exponent of the dissipation field is called intermittency exponent and can be used to characterise the data. The investigated data fall into two groups. One set of data obtained from measurements with air show an increasing intermittency exponent with an increasing Reynolds number and saturate for high Reynolds numbers to a value of 0.2. The other set, obtained in a helium jet is best characterised with a constant intermittency exponent of 0.1. The differences are not fully understood. To investigate this issue further, a new construction is suggested, that translates the Kramers-Moyal coefficients of the velocity field into a dissipation field in order to calculate the intermittency exponent from different perspective. Finally, a dynamical generalisation of the cascade process, introduced recently, is tested. The dynamical model makes predictions for point correlation functions. The analytical expressions for three-point correlation functions are compared with their counterparts obtained from experimental data and show remarkable agreement
Tu, Zhuowen. "Image Parsing by Data-Driven Markov Chain Monte Carlo." The Ohio State University, 2002. http://rave.ohiolink.edu/etdc/view?acc_num=osu1038347031.
Повний текст джерелаStubbs, Shallon Monique. "Data-driven, mechanistic and hybrid modelling for statistical fault detection and diagnosis in chemical processes." Thesis, University of Newcastle Upon Tyne, 2012. http://hdl.handle.net/10443/1519.
Повний текст джерелаHöcker, Filip, and Finn Brand. "‘Data over intuition’ – How big data analytics revolutionises the strategic decision-making processes in enterprises." Thesis, Internationella Handelshögskolan, Jönköping University, IHH, Företagsekonomi, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:hj:diva-48560.
Повний текст джерелаLee, Michael D. "Incidental text priming without reinstatement of context, the role of data-driven processes in implicit memory." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape10/PQDD_0006/MQ45081.pdf.
Повний текст джерелаJung, Christian [Verfasser], Günter [Akademischer Betreuer] Rudolph, and Thomas [Gutachter] Bartz-Beielstein. "Data-driven optimization of hot rolling processes / Christian Jung ; Gutachter: Thomas Bartz-Beielstein ; Betreuer: Günter Rudolph." Dortmund : Universitätsbibliothek Dortmund, 2019. http://d-nb.info/120260577X/34.
Повний текст джерелаJung, Christian Verfasser], Günter [Akademischer Betreuer] Rudolph, and Thomas [Gutachter] [Bartz-Beielstein. "Data-driven optimization of hot rolling processes / Christian Jung ; Gutachter: Thomas Bartz-Beielstein ; Betreuer: Günter Rudolph." Dortmund : Universitätsbibliothek Dortmund, 2019. http://d-nb.info/120260577X/34.
Повний текст джерелаJung, Christian [Verfasser], Günter Akademischer Betreuer] Rudolph, and Thomas [Gutachter] [Bartz-Beielstein. "Data-driven optimization of hot rolling processes / Christian Jung ; Gutachter: Thomas Bartz-Beielstein ; Betreuer: Günter Rudolph." Dortmund : Universitätsbibliothek Dortmund, 2019. http://d-nb.info/120260577X/34.
Повний текст джерелаShahzad, Muhammad Khurram. "Improving Business Processes using Process-oriented Data Warehouse." Doctoral thesis, KTH, Data- och systemvetenskap, DSV, 2012. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-107691.
Повний текст джерелаQC 20121217
Ritter, Tobias [Verfasser], Oskar von Akademischer Betreuer] Stryk, and Stefan [Akademischer Betreuer] [Ulbrich. "PDE-Based Dynamic Data-Driven Monitoring of Atmospheric Dispersion Processes / Tobias Ritter ; Oskar von Stryk, Stefan Ulbrich." Darmstadt : Universitäts- und Landesbibliothek Darmstadt, 2017. http://d-nb.info/1142377393/34.
Повний текст джерелаRitter, Tobias Verfasser], Oskar von [Akademischer Betreuer] Stryk, and Stefan [Akademischer Betreuer] [Ulbrich. "PDE-Based Dynamic Data-Driven Monitoring of Atmospheric Dispersion Processes / Tobias Ritter ; Oskar von Stryk, Stefan Ulbrich." Darmstadt : Universitäts- und Landesbibliothek Darmstadt, 2017. http://d-nb.info/1142377393/34.
Повний текст джерелаRall, Deniz Patrick [Verfasser], Matthias [Akademischer Betreuer] Wessling, and Anthony [Akademischer Betreuer] Szymczyk. "Data-Driven development of layer-by-layer nanofiltration membranes and processes / Deniz Patrick Rall ; Matthias Wessling, Anthony Szymczyk." Aachen : Universitätsbibliothek der RWTH Aachen, 2020. http://d-nb.info/1227054610/34.
Повний текст джерелаDuran, Villalobos Carlos Alberto. "Run-to-run modelling and control of batch processes." Thesis, University of Manchester, 2016. https://www.research.manchester.ac.uk/portal/en/theses/runtorun-modelling-and-control-of-batch-processes(1d42c508-b96d-4ee6-96ad-ec649a199913).html.
Повний текст джерелаKratsch, Wolfgang [Verfasser], and Maximilian [Akademischer Betreuer] Röglinger. "Data-driven Management of Interconnected Business Processes : Contributions to Predictive and Prescriptive Process Mining / Wolfgang Kratsch ; Betreuer: Maximilian Röglinger." Bayreuth : Universität Bayreuth, 2021. http://d-nb.info/122950544X/34.
Повний текст джерелаSchliephake, Hanna Josephina, and Charlotte Laila Niemann. "Digital Institutions to Support Data-Driven Circularity Innovation : The Improvement of Textile and Apparel Recycling Processes through Blockchain Technology." Thesis, Högskolan i Borås, Akademin för textil, teknik och ekonomi, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:hb:diva-26415.
Повний текст джерелаAgamah, Francis Edem. "Large–scale data–driven network analysis of human–plasmodium falciparum interactome: extracting essential targets and processes for malaria drug discovery." Master's thesis, Faculty of Health Sciences, 2020. http://hdl.handle.net/11427/32185.
Повний текст джерелаEl, Akkaoui Zineb. "A BPMN-based conceptual language for designing ETL processes." Doctoral thesis, Universite Libre de Bruxelles, 2014. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209198.
Повний текст джерелаHowever, the development of ETL processes is still considered to be very complex and time-consuming, to such a point that roughly 80% of the BI project effort is dedicated to the ETL development. Among the phases of ETL development life cycle, ETL modeling is a critical and laborious task. Actually, this phase produces
the first effective formal representation of the ETL process, i.e. ETL model, that is completely reused and refined in the subsequent phases of the development.
Typically, the ETL processes are modeled using vendor-specific ETL tools from the very beginning of development. However, these tools are unsuitable for business users since they induce overwhelming fine-grained models.
As an attempt to provide more appropriate tools to business users, vendor-independent ETL modeling languages have been proposed in the literature. Nevertheless, they still remain immature. In order to get a precise view on these languages, we conduct a survey which: i) defines a set of criteria associated to major ETL
requirements identified in the literature; ii) compares the surveyed conceptual languages, issued from research work, to the physical languages, issued from prominent ETL tools; and iii) studies the whole methodologies of ETL development associated
to these modeling languages.
The analysis of our survey reveals several drawbacks in responding to the ETL requirements. Particularly, the conceptual languages have incomplete elements for ETL modeling with few or no formalization. Several languages are only descriptive with no ability to be automatically implemented into executable code, nor are they able to be automatically maintained according to changes over time.
To address these shortcomings, we present, in this thesis, a novel approach that tackles the whole development life cycle of ETL processes.
First, we propose a new vendor-independent language aiming at modeling ETL processes similar to typical business processes, the processes responsible for managing the operations in an organization. The rational behind this proposal is to provide ETL processes with better access to data in events and applications of the organization, including fresh data, and better design capabilities such as available analysis for any users. By using the standard representation mechanism denoted BPMN (Business Process Modeling and Notation) and a classification of ETL elements resulting from a study of the most used commercial and open source ETL tools, the language enables building agile and full-edged ETL processes. We name our language BPMN4ETL to refer to BPMN for ETL processes.
Second, we build a model-driven framework that provides automatic code generation capability and ameliorates maintenance support of our ETL language. We use the Model-Driven Development (MDD) technology as it helps in developing software, particularly in automating the transformation from one phase of the software development to another. We present a set of model-to-text transformations able to produce code for different business process engines and ETL engines. Also, we depict the model-to-model transformations that automatically update the ETL models with the aim of supporting the maintenance of the generated code according to data source evolution. A demonstration using a case study is conducted as an initial validation to show that the framework covering modeling, implementation and maintenance could be used in practice.
To illustrate new concepts introduced in the thesis, mainly the BPMN4ETL language, and the implementation and maintenance framework, we use a case study from the fictitious Northwind Traders company, a retailer company that imports and exports foods from around the world.
Doctorat en Sciences de l'ingénieur
info:eu-repo/semantics/nonPublished
Alghwiri, Alaa Ali. "INTELLIGENT PUBLIC TRANSPORTATION SYSTEM PLATFORM IN A UNIVERSITY SETTING." University of Akron / OhioLINK, 2017. http://rave.ohiolink.edu/etdc/view?acc_num=akron1543919012077744.
Повний текст джерелаHannila, H. (Hannu). "Towards data-driven decision-making in product portfolio management:from company-level to product-level analysis." Doctoral thesis, Oulun yliopisto, 2019. http://urn.fi/urn:isbn:9789526224428.
Повний текст джерелаTiivistelmä Tuotteet ja palvelut ovat yrityksille kriittisiä, sillä ne luovat perustan yritysten taloudelliselle menestykselle. Kaksikymmentä prosenttia yrityksen tuotteista edustaa tyypillisesti noin kahdeksaakymmentä prosenttia myyntimääristä. Siitä huolimatta tuoteporfoliopäätöksiin — kuinka strategisesti uudistetaan yrityksen tuotetarjoomaa — liittyy tunteita, lemmikkituotteita ja kuka-huutaa-kovimmin -mentaliteettia faktojen, numeroiden ja kvantitatiivisten analyysien puuttuessa. Kannattavuutta mitataan ja raportoidaan tällä hetkellä yritystasolla, ja yritykset eivät näyttäisi pystyvän mittaamaan tuotetason kannattavuutta johdonmukaisesti. Tämä estää yrityksiä ylläpitämästä ja uudistamasta tuotevalikoimaansa strategisesti tai kaupallisesti tasapainoisella tavalla. Tämän tutkimuksen päätavoite on tarjota dataohjattu (data-driven) tuoteportfoliohallinnan konsepti, joka tunnistaa ja visualisoi reaaliajassa ja faktapohjaisesti, mitkä yrityksen tuotteet ovat samanaikaisesti strategisia ja kannattavia ja mikä on niiden osuus tuoteportfoliossa. Tämä väitöskirja on laadullinen tutkimus, jossa yhdistyy kirjallisuuskatsaus, yrityshaastattelut, havainnot ja yritysten sisäinen dokumentaatio, joiden pohjalta pyritään kohti dataohjautuvaa päätöksentekoa tuoteportfolion hallinnassa. Tämä tutkimus osoittaa, että yrityksen data assettit on yhdistettävä ja hallittava yrityksenlaajuisesti, jotta yrityksen strategisten assettien — DATAN — potentiaali voidaan hyödyntää kokonaisuudessaan. Data on hallittava erillään yrityksen IT-teknologiasta ja sen yläpuolella. Ennen dataa ja teknologiaa on omaksuttava dataohjattu yrityskulttuuri. Dataohjatun tuoteportfolionhallinnan konsepti yhdistää keskeiset liiketoimintaprosessit, liiketoiminnan IT-järjestelmät ja useita konsepteja, kuten tuotteistaminen, tuotteen elinkaaren hallinta ja tuoteportfolion hallinta. Yhteisymmärrys yrityksen tuotteista ja sekä kaupallisen että teknisen tuoterakenteet luominen vastaavasti on ennakkoedellytys dataohjatulle tuoteportfolion hallinnalle, koska ne muodostavat yrityksen liiketoiminnan selkärangan, joka yhdistää kaikki tuotteisiin liittyvät liiketoimintakriittiset tiedot tuotetason kannattavuuden analysoimiseksi. Lisäksi tarvitaan tuotteiden kategorisointi strategisiin, tukeviin ja ei-strategisiin tuotteisiin, koska tuotteen strateginen luonne voi muuttua tuotteen elinkaaren aikana, johtuen esimerkiksi teknologian vanhenemisesta, kilpailijoiden häiritsevistä innovaatioista tai mistä tahansa muusta syystä
Loos, Carolin [Verfasser], Jan [Akademischer Betreuer] Hasenauer, Jan [Gutachter] Hasenauer, Oliver [Gutachter] Junge, and Ruth [Gutachter] Baker. "Data-driven robust and efficient mathematical modeling of biochemical processes / Carolin Loos ; Gutachter: Jan Hasenauer, Oliver Junge, Ruth Baker ; Betreuer: Jan Hasenauer." München : Universitätsbibliothek der TU München, 2019. http://d-nb.info/1188815962/34.
Повний текст джерелаBerg, Martin, and Albin Eriksson. "Toward predictive maintenance in surface treatment processes : A DMAIC case study at Seco Tools." Thesis, Luleå tekniska universitet, Institutionen för ekonomi, teknik, konst och samhälle, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:ltu:diva-84923.
Повний текст джерелаSchiller, Alexander [Verfasser], Bernd [Akademischer Betreuer] Heinrich, and Mathias [Akademischer Betreuer] Klier. "Concepts and Methods from Artificial Intelligence in Modern Information Systems – Contributions to Data-driven Decision-making and Business Processes / Alexander Schiller ; Bernd Heinrich, Mathias Klier." Regensburg : Universitätsbibliothek Regensburg, 2020. http://d-nb.info/1203875061/34.
Повний текст джерелаHebig, Regina. "Evolution of model-driven engineering settings in practice." Phd thesis, Universität Potsdam, 2014. http://opus.kobv.de/ubp/volltexte/2014/7076/.
Повний текст джерелаUm die steigende Komplexität von Softwaresystemen beherrschen zu können, werden heutzutage unterschiedlichste Techniken gemeinsam eingesetzt. Beispiele sind, Design Pattern, Serviceorientierte Architekturen, Softwareentwicklungsprozesse oder modellgetriebene Entwicklung (MDE). Ziel dabei ist die Erhöhung der Produktivität, so dass Entwicklungsdauer und Qualität stabil bleiben können. Während hoch entwickelte Softwareentwicklungsprozesse heute schon standardmäßig genutzt werden, fangen Firmen gerade erst an MDE einzusetzen. Jedoch zeigen Studien, dass der erhoffte Erfolg von MDE nicht jedes Mal eintritt. So scheint es, dass noch kein ausreichendes Verständnis dafür existiert, inwiefern MDE auch Nachteile für die Produktivität bergen kann. Zusätzlich ist bei der Kombination von unterschiedlichen Techniken damit zu rechnen, dass die erreichten Effekte sich gegenseitig negieren anstatt sich zu ergänzen. Hier entsteht die Frage wie MDE und andere Techniken, wie Softwareentwicklungsprozesse, zusammenwirken. Beide Aspekte, der direkte Einfluss auf Produktivität und die Wechselwirkung mit anderen Techniken, müssen aber verstanden werden um den Risiken für den Produktivitätseinfluss von MDE zu identifizieren. Außerdem, muss auch die Generalisierbarkeit dieser Aspekte untersucht werden. Das betrifft die Fragen, ob der Produktivitätseinfluss bei jedem Einsatz von MDE gleich ist und ob der Produktivitätseinfluss über die Zeit stabil bleibt. Beide Fragen sind entscheidend, will man geeignete Risikobehandlung ermöglichen oder künftige Studien zum Erfolg von MDE planen. Diese Dissertation widmet sich der genannten Fragen. Dafür wird zuerst der Begriff MDE Setting'' eingeführt um eine differenzierte Betrachtung von MDE-Verwendungen zu ermöglichen. Ein MDE Setting ist dabei der technische Aufbau, inklusive manueller und automatische Aktivitäten, Artefakten, Sprachen und Werkzeugen. Welche Produktivitätseinflüsse von MDE Settings möglich sind, wird in der Dissertation mit Fokus auf Änderbarkeit und die Wechselwirkung mit Softwareentwicklungsprozessen betrachtet. Dafür wird einerseits eine Taxonomie von Changeability Concerns'' (potentiell betroffene Aspekte von Änderbarkeit) vorgestellt. Zusätzlich, werden drei MDE Traits'' (Charakteristika von MDE Settings die unterschiedlich ausgeprägt sein können) identifiziert. Es wird untersucht welche Ausprägungen dieser MDE Traits Einfluss auf Softwareentwicklungsprozesse haben können. Um die Erfassung und Bewertung dieser Einflüsse zu ermöglichen wird die Software Manufaktur Modell Sprache eingeführt. Diese Prozessmodellierungssprache ermöglicht eine Beschreibung, der Veränderungen von Artefaktbeziehungen während der Anwendung von Aktivitäten (z.B. Codegenerierung). Weiter werden auf Basis dieser Modelle, Analysetechniken eingeführt. Diese Analysetechniken erlauben es Risiken für bestimmte Changeability Concerns aufzudecken sowie die Ausprägung von MDE Traits zu erfassen (und damit den Einfluss auf Softwareentwicklungsprozesse). Um die Generalisierbarkeit der Ergebnisse zu studieren, wurden im Rahmen der Arbeit mehrere MDE Settings aus der Praxis sowie teilweise deren Evolutionshistorien erhoben. Daran wird gezeigt, dass MDE Settings sich in einem breiten Spektrum von Einflüssen auf Änderbarkeit und Prozesse bewegen. So ist es weder selten, dass ein MDE Setting neutral für Prozesse ist, noch, dass ein MDE Setting Einschränkungen für einen Prozess impliziert. Ähnlich breit gestreut ist der Einfluss auf die Änderbarkeit.Zusätzlich, wird diskutiert, inwiefern unterschiedliche Evolutionstypen den Einfluss eines MDE Settings auf Änderbarkeit und Prozesse verändern können. Diese Diskussion führt zur Identifikation der strukturellen Evolution'', die sich stark auf die genannten Charakteristika eines MDE Settings auswirken kann. Mithilfe der erfassten MDE Settings, wird gezeigt, dass strukturelle Evolution in der Praxis üblich ist. Schließlich, werden Beispiele aufgedeckt bei denen strukturelle Evolutionsschritte tatsächlich zu einer Änderung der Charakteristika des betreffenden MDE Settings geführt haben. Einerseits bestärkt die ermittelte Vielfalt den Bedarf nach Analysetechniken, wie sie in dieser Dissertation eingeführt werden. Zum Anderen erscheint es nun, dass Evolution zumindest zum Teil die unterschiedlichen Ausprägungen von MDE Settings erklärt. Zusammenfassend wird studiert wie MDE Settings und deren Evolution in der Praxis ausgeprägt sind. Als Ergebnis, werden Techniken zur Identifikation von Risiken für Produktivitätseinflüsse bereitgestellt um den Einsatz von MDE Settings zu unterstützen.
Chang, Chia-Jung. "Statistical and engineering methods for model enhancement." Diss., Georgia Institute of Technology, 2012. http://hdl.handle.net/1853/44766.
Повний текст джерелаCan, Ouyan, and Shi Chang-jie. "MULTI-STREAM DATA-DRIVEN TELEMETRY SYSTEM." International Foundation for Telemetering, 1991. http://hdl.handle.net/10150/613172.
Повний текст джерелаThe Multi-Stream Data-Driven Telemetry System (MSDDTS) is a new generation system in China developed by Beijing Research Institute of Telemetry (BRIT) for high bit rate, multi-stream data acquisition, processing and display. Features of the MSDDTS include: .Up to 4 data streams; .Data driven architecture; .Multi-processor for parallel processing; .Modular, Configurable, expandable and programmable; .Stand-along capability; .And, external control by host computer. This paper addresses three very important aspects of the MSDDTS. First, the system architecture is discussed. Second, three basic models of the system configuration are described. The third shows the future development of the system.
Mäkynen, R. (Riku). "Some data-driven methods in process analysis and control." Bachelor's thesis, University of Oulu, 2018. http://urn.fi/URN:NBN:fi:oulu-201808222647.
Повний текст джерелаDWIVEDI, SAURABH. "DIMENSIONALITY REDUCTION FOR DATA DRIVEN PROCESS MODELING." University of Cincinnati / OhioLINK, 2003. http://rave.ohiolink.edu/etdc/view?acc_num=ucin1069770129.
Повний текст джерелаZhou, Yifeng. "Data driven process monitoring based on neural networks and classification trees." Texas A&M University, 2004. http://hdl.handle.net/1969.1/2740.
Повний текст джерелаBendezú, Mamani Katherine Fiorella, and Valdivia Ronal Esteven Ccanto. "Factores de adecuación de la cultura Data-driven en las organizaciones." Bachelor's thesis, Universidad Peruana de Ciencias Aplicadas (UPC), 2021. http://hdl.handle.net/10757/657591.
Повний текст джерелаThe culture based on data basically consists of making decisions based on data, being today more than ever by various organizations that seek to improve their processes in order to better serve their customers and consumers. However, many companies are based on unfounded actions and end up missing great opportunities by failing to take full advantage of the potential in data. Therefore, it is important that to implement a data-driven culture, the integration of data from the business strategy must be considered. In turn, organizational culture is a key factor for the development of data-driven culture in organizations. This work seeks to present an exhaustive investigation of high impact articles with the aim of contrasting the various positions and assessment of the authors regarding the success factors for the adoption of a data-based culture in organizations.
Trabajo de Suficiencia Profesional
Roychowdhury, Sayak. "Data-Driven Policies for Manufacturing Systems and Cyber Vulnerability Maintenance." The Ohio State University, 2017. http://rave.ohiolink.edu/etdc/view?acc_num=osu1493905616531091.
Повний текст джерелаPaulin, Carl. "Detecting anomalies in data streams driven by ajump-diffusion process." Thesis, Umeå universitet, Institutionen för fysik, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-184230.
Повний текст джерелаHopp-diffusionsprocesser används regelbundet för att modellera finansiella tidsserier eftersom de kan simulera de slumpmässiga hopp som ofta uppstår. Dessa hopp kan ses som anomalier och är viktiga för finansiell analys och modellbyggnad, vilket gör dom väldigt viktiga att hitta. Den realiserade variationen, realiserade bipower variationen, och realiserade semi-variationen är faktorer av en tidsserie som kan användas för att hitta hopp i hopp-diffusionprocesser. De används här för att testa om anomali-detektionsalgoritmer kan använda funktionerna för att förbättra dess förmåga att detektera hopp. Algoritmerna som testades var Isolation Forest, Robust Random Cut Forest, och Isolation Forest Algoritmen för Strömmande data, där de två sistnämnda använder strömmande data. Detta gjordes genom att genera data från en Merton hopp-diffusionprocess med varierande hoppfrekvens där de olika algoritmerna testades med varje funktion samt med kombinationer av funktioner. Prestationen av varje algoritm beräknades med hjälp av F1-värde för att kunna jämföra algoritmerna och funktionerna med varandra. Det hittades att funktionerna kan användas för att extrahera hopp från hopp-diffusionprocesser och även använda de som en indikator för när hopp skulle ha hänt. Algoritmerna fick även ett högre F1-värde när de använde funktionerna. Isolation Forest fick ett förbättrat F1-värde genom att använda en eller fler utav funktionerna och hade ett högre F1-värde än att bara använda funktionerna för att detektera hopp. Robust Random Cut Forest hade högst F1-värde av de två algoritmer som använde strömmande data och båda fick högst F1-värde när man använde en kombination utav alla funktioner. Resultatet visar att dessa funktioner fungerar för att extrahera hopp från hopprocesser, använda dem för att detektera hopp, och att algoritmernas förmåga att detektera hoppen ökade med hjälp av funktionerna.
Wei, Xiupeng. "Modeling and optimization of wastewater treatment process with a data-driven approach." Diss., University of Iowa, 2013. https://ir.uiowa.edu/etd/2659.
Повний текст джерелаAddy, Nicholas G. "Ontology driven geographic information retrieval." Thesis, Curtin University, 2009. http://hdl.handle.net/20.500.11937/2526.
Повний текст джерелаWiigh, Oscar. "Visualizing partitioned data in Audience Response Systems : A design-driven approach." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-280847.
Повний текст джерелаMöten och presentationer är ofta sedda som ett produktivitetshinder på arbetsplatser runtom i världen på grund av deras monologiska natur. Genom att använda moderna tekniska lösningar såsom webbaserade Audience Response Systems (ARS) så kan möten och presentationer omvandlas till interaktiva moment där en publiks perspektiv, åsikter och svar kan uttryckas. Att visualisera en publiks svar och relatera frågespecifika partitionerade svar mellan varandra, genom visualiseringar, var denna rapports huvudämne. Projektet utfördes i samarbete med Mentimeter, skapare av ett webbaserat ARS och digitalt presentationsverktyg. Double Diamond-modellen användes för att undersöka och förankra design- och utvecklingsarbetet i projektet. För att guida utvecklingsarbetet, och få feedback på designförslag, genomfördes en fokusgrupp med fyra visualiserings- och designexperter som besatt kunskap om ARS. De framtagna prototyperna utvärderas genom den utökade Technology Acceptance Model (TAM) för att undersöka slutanvändares inställning och villighet att använda visualiseringarna. Totalt testade åtta slutanvändare de framtagna webbaserade prototyperna. Resultatet av användartesterna indikerade att båda visualiseringsprototyperna har potential att visualisera partitionerad data på nya sätt i ARS, men att en klustervisualisering var överlägsen från en utforskningssynpunkt. Resultaten innebär vidare att det finns ett värde i att presentera partitionerad data på sätt som möjliggör utforskning av publikens svar, och att publiken troligen kommer att anta en fullständig implementering av visualiseringarna förutsatt några extra funktioner och justeringar. Framtida forskning bör fokusera på att fullständigt implementera och testa visualiseringarna framför en faktiskt publik, samt undersöka andra samtida visualiseringsstrukturer och deras möjligheter att visualisera partitionerad ARS-data.
Das, Debasish. "Bayesian Sparse Regression with Application to Data-driven Understanding of Climate." Diss., Temple University Libraries, 2015. http://cdm16002.contentdm.oclc.org/cdm/ref/collection/p245801coll10/id/313587.
Повний текст джерелаPh.D.
Sparse regressions based on constraining the L1-norm of the coefficients became popular due to their ability to handle high dimensional data unlike the regular regressions which suffer from overfitting and model identifiability issues especially when sample size is small. They are often the method of choice in many fields of science and engineering for simultaneously selecting covariates and fitting parsimonious linear models that are better generalizable and easily interpretable. However, significant challenges may be posed by the need to accommodate extremes and other domain constraints such as dynamical relations among variables, spatial and temporal constraints, need to provide uncertainty estimates and feature correlations, among others. We adopted a hierarchical Bayesian version of the sparse regression framework and exploited its inherent flexibility to accommodate the constraints. We applied sparse regression for the feature selection problem of statistical downscaling of the climate variables with particular focus on their extremes. This is important for many impact studies where the climate change information is required at a spatial scale much finer than that provided by the global or regional climate models. Characterizing the dependence of extremes on covariates can help in identification of plausible causal drivers and inform extremes downscaling. We propose a general-purpose sparse Bayesian framework for covariate discovery that accommodates the non-Gaussian distribution of extremes within a hierarchical Bayesian sparse regression model. We obtain posteriors over regression coefficients, which indicate dependence of extremes on the corresponding covariates and provide uncertainty estimates, using a variational Bayes approximation. The method is applied for selecting informative atmospheric covariates at multiple spatial scales as well as indices of large scale circulation and global warming related to frequency of precipitation extremes over continental United States. Our results confirm the dependence relations that may be expected from known precipitation physics and generates novel insights which can inform physical understanding. We plan to extend our model to discover covariates for extreme intensity in future. We further extend our framework to handle the dynamic relationship among the climate variables using a nonparametric Bayesian mixture of sparse regression models based on Dirichlet Process (DP). The extended model can achieve simultaneous clustering and discovery of covariates within each cluster. Moreover, the a priori knowledge about association between pairs of data-points is incorporated in the model through must-link constraints on a Markov Random Field (MRF) prior. A scalable and efficient variational Bayes approach is developed to infer posteriors on regression coefficients and cluster variables.
Temple University--Theses
Andersson, Johan, and Amirhossein Gharaie. "It is Time to Become Data-driven, but How : Depicting a Development Process Model." Thesis, Högskolan i Halmstad, Akademin för företagande, innovation och hållbarhet, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:hh:diva-45353.
Повний текст джерелаDecker, Sebastian. "Data-driven business process improvement : An illustrative case study about the impacts and success factors of business process mining." Thesis, Internationella Handelshögskolan, Högskolan i Jönköping, IHH, Företagsekonomi, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:hj:diva-43958.
Повний текст джерелаSTRÖMBERG, HANNA. "Data driven customer insights in the B2B sales process at high technology scaleups." Thesis, KTH, Skolan för industriell teknik och management (ITM), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-296246.
Повний текст джерелаNär ett företag ska skalas upp är det viktigt att implementera kundinsikter för att uppnå ökad omsättning. Att förstå och definiera en passande B2B-försäljningsprocess har också visats spela en viktig roll för nå ökade intäkter, och traditionella säljprocesser innehåller flera steg som säljpersonal utför. Ett steg kretsar kring presentationen av den erbjudna produkten eller tjänsten. För att säljpersonal ska kunna presentera en produkt eller tjänst med framgång behöver de förvärva eller ha djup kunskap om kunden, såsom branschtrender och generell verksamhet. Detta kan uppnås genom att anskaffa kundinsikter som är datadrivna. Att använda datadriven kundinsikt har också visats öka försäljningssiffror. Med detta som bakgrund undersöker därför den här forskningen sambandet mellan B2B-försäljningsprocessen och generering och implementering av datadriven kundinsikt. I synnerhet undersöker denna forskning stegen som ingår i en B2B-försäljningsprocess i ett högteknologiskt scale up och därmed hur datadriven kundinsikt kan förbättra presentationssteget i B2B-försäljningsprocessen. Forskningen utförs genom en fallstudie på ett fallföretag som räknas som ett högteknologiskt scale up. Intervjuer genomfördes med försäljningsmedarbetare som jobbar i det kommersiella teamet på företaget. Resultatet från denna forskning visar att sex steg ingår i B2B-försäljningsprocessen vid högteknologiska scale ups. Dessa sex stegen är: Leadsgenerering, Första möte, Utvärdering, Kontraktsförslag, Förhandling och Avslutad affär. Det andra steget innebär att den erbjudna produkten eller tjänsten presenteras, och detta steg identifieras som mest utmanande för försäljningsmedarbetarna att utföra med framgång på grund av produktens/tjänstens tekniska komplexitet. Vidare visar resultat från denna forskning att datadriven kundinsikt kan användas för att förenkla detta steg i processen. Datadriven kundinsikt kan till exempel hjälpa till att personalisera presentationsmaterial och möjliggöra förtroendebyggande. Dessutom möjliggör datadrivna kundinsikter att köpare och säljare delar gemensamma förväntningar på det första mötet, vilket ökar sannolikheten att uppnå en sluten affär.
Sitruk, Yohann. "Pilotage de la performance des projets de science citoyenne dans un contexte de transformation du rapport aux données scientifiques : systématisation et perte de production." Thesis, Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM035/document.
Повний текст джерелаA growing number of contemporary scientific organizations collaborate with crowds for diverse tasks of the scientific process. These collaborations are often designed as citizen science projects. The collaboration is an opportunity for scientific structures in a context of massive data deluge which lead organizations to face limits in terms of resources and capabilities. However, in such new forms of cooperation a major crisis is caused when tasks delegated to the crowd require a certain inventiveness - solving problems, formulating scientific hypotheses - and when these projects have to be repeated in the organization. From two experimental studies based on an original modeling, this thesis studies the management mechanisms needed to ensure the performance of projects delegated to the crowd. We show that the performance is linked to the management of two types of capitalization: a cross-capitalization (each participant can reuse the work of the other participants); a sequential capitalization (capitalization by the participants then by the organizers). In addition, this research highlights the figure of a new managerial figure to support the capitalization, the "manager of inventive crowds", essential for the success of the projects
Morselli, Luca. "Analisi e implementazione di un sistema di Data Visualization in relazione al modello organizzativo aziendale." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020.
Знайти повний текст джерелаDyrhage, Max. "Incorporating a tag management system in an agile web development process to become more data-driven." Thesis, KTH, Skolan för datavetenskap och kommunikation (CSC), 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-240395.
Повний текст джерелаWebbanalys används för att spåra och undersöka användarbeteende på hemsidor och webbapplikationer. För att ta datadrivna beslut, använder sig företag och organisationer av webbanalys för att förstå sina användare. Några rader Javascript-kod kan användas för att samla upp användarbeteende och kallas ibland för ett tag. Dessa tags kan behandlas i ett så kallad tag management-system. Tag management-system kan ge struktur över hur användarbeteendet på en hemsida spåras och analyseras. Den har uppsatsen undersöker hur ett tag management-system kan möjliggöra att data från webbanalys blir använt i en agil webbutvecklingsprocess hos det svenska företaget Dailybitsof. Med en litteraturstudie, fallstudie och intervjuer med professionella inom ämnet presenteras rekommendationer för att att möjliggöra webbanalys. Uppsatsen föreslår att ett tag management-system kan möjliggöra användandet av webbanalys i en agil webbutvecklingsprocess om det implementeras i kombination med ändringar av den agila processen.
Carleson, Hannes, and Marcus Lyth. "Evaluation of Problem Driven Software Process Improvement." Thesis, KTH, Skolan för informations- och kommunikationsteknik (ICT), 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-189216.
Повний текст джерелаWendin, Ingrid, and Per Bark. "Data at your service! : A case study of utilizing in-service data to support the B2B sales process at a large information and communications technology company." Thesis, Linköpings universitet, Industriell ekonomi, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-176403.
Повний текст джерелаFalkenstrand, Johanna, and Camilla Lemos. "Fostering Proactiveness in Data-Driven Matrix Organizations : A Study of Alfa Laval's Distribution Center in Tumba." Thesis, KTH, Industriell produktion, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-254341.
Повний текст джерелаGlobalisering har ökat komplexiteten av affärsvärlden, då ytterligare dimensioner måste tas hänsyn till i företags verksamheter, så som globala leverantörer och kunder, och ökad konkurrens från globala aktörer. För att hantera komplexiteten blir företag mer datadrivna, för att kunna mäta och samordna sin verksamhet och skapa möjligheter för effektivitet och konkurrenskraftighet [Skjott-Larsen et al.,2007; Long, 2018]. För att möljiggöra ett skifte mot att bli mer datadriven, måste företag se över sin organisationsstruktur. Matrisstrukturer har ökat i popularitet då de möjliggör att företag kan fokusera på fler än en dimensioner samtidigt genom att skapa funktionella grupper fokuserade på specifikauppgifter [Sy et al., 2005]. Dock är det inte ovanligt att funktionella grupper förvandlas till funktionella silos, med ett inåtriktat fokus på den egna gruppens prestationer, vilket leder till minskad förtåelse och bristfällig kommunikation grupper emellan. Bristande förståelse för andra grupper kan leda till ett klimat där problem hanteras reaktivt snarare än proaktivt [Motiwalla and Pearson, 2009]. Syftet med detta projekt är att skapa en process som kan användas för att underlätta proaktivt arbetet i en datadriven organisation där problem hanteras reaktivt. Processen kan användas som ett hjälpmedel för att välja den bästa av flera möjliga lösningar, samtidigt som påverkade avdelningar involveras i ett tidigt stadium av beslutsprocessen. På Alfa Lavals distributionscenter (DC) i Tumba, finns utmaningar med funktionella silos och reaktivt arbete. Organisationen är datadriven, och beslut fattas baserat på data. Dock är inte alltid beslut som baserats på data rimliga, vilket har lett till att beslut tas som påverkar andra avdelningar negativt. Baserat på data från och observationer på DCt, skapades en preliminär process. Processen itererades och förbättrades sedan genom att appliceras på verkliga problem och förbättringsområden som identifierades på DC Tumba. Även om processen togs fram och baserades på Alfa Lavals verksamhet, kan den appliceras på andra organisationer som står inför samma utmaningar. Den slutgiltiga versionen av processen visade sig generera bra lösningar till problemen genom att involvera intressenter tidigt i processen, vilket gav dem möjligheten att påverka hur den rekommenderade lösningen skulle justeras för att undvika att dereas dagliga arbete skulle påverkas negativt. Den viktigaste slutsatsen är att det är viktigt att involvera intressentavdelningar i ett tidigt skede i beslutsfattandeprocesser. På så sätt kan deras värdefulla kompetens och kunskaper nyttjas när potentiella lösningar till ett problem genereras, och negativa effekter från lösningen på andra avdelningar kan upptäckas innan implementering. Att dessutom noggrant analysera roten till problemet och dess effekter kan leda till att förståelsen för hela kedjan ökar.
Calfa, Bruno Abreu. "Data Analytics Methods for Enterprise-wide Optimization Under Uncertainty." Research Showcase @ CMU, 2015. http://repository.cmu.edu/dissertations/575.
Повний текст джерелаDeWitt, David. "Teacher-Based Teams Talk of Change in Instructional Practices." ScholarWorks, 2017. https://scholarworks.waldenu.edu/dissertations/4615.
Повний текст джерела