Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Graphical Modeler.

Dissertationen zum Thema „Graphical Modeler“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Graphical Modeler" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Morris, David Victor. „A new graphical user interface for a 3D topological mesh modeler“. Texas A&M University, 2008. http://hdl.handle.net/1969.1/85977.

Der volle Inhalt der Quelle
Annotation:
In this thesis, I present a new platform-independent, open source, intuitive graphical user interface for TopMod, an application designed for interacting with 3-dimensional manifold meshes represented by a Doubly Linked Face List (DLFL). This new interface, created using the Trolltech Qt user interface library, enables users to construct and interact with complex manifold meshes much faster and more easily than was previously possible. I also present a method for the rapid creation of a successful online community of users and developers, by integrating a variety of open source web-based software packages. The new website, which includes a discussion forum, a news blog, a collaborative user and developer wiki, and a source code repository and release manager, received an average of 250 unique visits per day during the first two months of its existence, and it continues to be utilized by a variety of users and developers worldwide.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Lindén, Philip. „Improving accessibility to the bus service : Building an accessibility measurement tool in QGIS“. Thesis, Umeå universitet, Institutionen för geografi, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-185145.

Der volle Inhalt der Quelle
Annotation:
Satisfactory public transportation (PT) should enable people to reach attractive destinations and desired activities fast, comfortably, safely, and affordably. When PT fails to do so it will have negative effects on the overall accessibility in a society. Evaluating a PT system essentially means measuring to what extent the demand from the users is met, and for such an analysis understanding the concept of accessibility is paramount. Whether an individual will experience a high or a low level of accessibility will likely depend on their personal capabilities, as well as on the surrounding environment. Barriers obstructing an individual from using PT could for example be of physical of phycological nature or come in the shape of public space management disproportionally favoring certain groups of society. Low accessibility can thus be linked to social exclusion, since when a person cannot reach important destinations, their chances to participate in society will be subdued. To measure the accessibility of a PT system, and how a PT system affects the overall accessibility of a destination, it is common practice to use indicators that can represent different categories of social exclusion. This approach was the basis for constructing the performance measurement tool called Bus Stop Ranking Algorithm (BSRA) which was created in the QGIS application Graphical Modeler. BSRA calculates the usefulness of bus stops by counting the number of vulnerable groups, the number of workplaces, and the total population within comfortable walking distance from bus stops, as well as comparing travel times by car and bicycle from residential areas to important locations. The tool was ordered by a private PT company which will use it to make decisions regarding e.g., creating new bus stops, or for relocating, removing, or redesigning existing bus stops or bus routes. The Swedish municipality Lidingö was used as the study area to demonstrate how to use BSRA and how to interpret its output. Using equal weights for all indicators, it was discovered that 9 bus stops in the southern part of Lidingö could be regarded as particularly useful compared to the other 207 bus stops in the municipality. Variables such as the space-temporal component, i.e., changes during the day were not used. Socio economic factors such as segregation were also not highlighted, since all indicators had the same effect on the total scores. Adjusting the weights for some indicators could expose underlying dynamics affecting the total scores for the bus stops and help the PT company make design changes where they will be needed the most.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Srogis, Andrius. „Automatizuotas grafinio modelio performulavimas į natūralią kalbą“. Master's thesis, Lithuanian Academic Libraries Network (LABT), 2013. http://vddb.laba.lt/obj/LT-eLABa-0001:E.02~2013~D_20130826_150207-45443.

Der volle Inhalt der Quelle
Annotation:
Grafinių modelių projektavimas yra plačiai naudojamas tiek mokslo, tiek verslo srytyse. Pasaulyje naudojama įvairių kalbų, skirtų tiek sistemų architektūrų, tiek verslo procesų projektavimui. Daugumai kalbų yra sukurta įvairių įrankių, leidžiančių jų naudotojams projektuoti įvairius procesus ar statines sistemas. Vienai labiausiai paplitusių kalbų (UML) trūksta metodikos ir įrankių, gebančių korektiškai perteikti natūralia kalba sistemų architektų aprašytus grafinius modelius asmenims, mažai kvalifikuotiems grafinių modelių sudaryme, skaityme. Perteikimas tuo natūralesnis ir labiau suprantamesnis, kuo jis artimesnis natūraliai kalbai. Yra metodikų ir įrankių atliekančių grafinio modelio verbalizavimą, tačiau nėra koncentruotų ties diagramomis UML kalba, kurios geba formuoti ne tik statiką, bet ir dinamiką. Pagrindinis darbo tikslas yra sukurti metodiką ir realizuoti įrankį, kuris gebėtų grafinį modelį išreikštą UML kalba performuluoti natūralia kalba.
The graphical model architecture design is widely used for scientific and enterprise purposes. There are many languages concentrated on enterprise processes and static systems designing. One of the most popular modeling language (UML) is missing methodology and tools suitable for correct reformulation of graphical models (formulated by the UML) in natural language. The main purpose of the graphical model reformulation in natural language is to make models easier to understand for people whose are not specialized in UML. Methodology and tool which is capable of reformulating graphical models in natural language already exists, but it isn’t concentrated on UML or capable of reformulating static and dynamic processes. The main goal of this work is to define a methodology and implement a tool, which would be capable of translating the graphical UML model to a natural language text.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Cruz, Fernández Francisco. „Probabilistic graphical models for document analysis“. Doctoral thesis, Universitat Autònoma de Barcelona, 2016. http://hdl.handle.net/10803/399520.

Der volle Inhalt der Quelle
Annotation:
Actualmente, más del 80\% de los documentos almacenados en papel pertenecen al ámbito empresarial. Avances en materia de digitalización de documentos han fomentado el interés en crear copias digitales para solucionar problemas de mantenimiento y almacenamiento, además de poder disponer de formas eficientes de transmisión y extracción automática de la información contenida en ellos. Esta situación ha propiciado la necesidad de crear sistemas capaces de extraer y analizar automáticamente esta información. La gran variedad en tipos de documentos hace que esta no sea una tarea trivial. Un proceso de extracción de datos numéricos de tablas o facturas difiere sustancialmente del reconocimiento de texto manuscrito en un documento con anotaciones. No obstante, hay un nexo común en las dos tareas: dado un documento, es necesario localizar la región donde está la información de interés. En el área del Análisis de Documentos, a este proceso se denomina Análisis de la estructura del documento, y tiene como objetivo la identificación y categorización de las diferentes entidades que lo componen. Estas entidades pueden ser regiones de texto, imágenes, líneas de texto, celdas de una tabla, campos de un formulario, etc. Este proceso se puede realizar desde dos enfoques diferentes: análisis físico, o análisis lógico. El análisis físico consiste en identificar la ubicación y los limites que definen el área donde se encuentra la región de interés. El análisis lógico incluye además información acerca de su función y significado dentro del ámbito del documento. Para poder modelar esta información, es necesario incorporar al proceso de análisis un conocimiento previo sobre la tarea. Este conocimiento previo se puede modelar haciendo uso de relaciones contextuales entre las diferentes entidades. El uso del contexto en tareas de visión por computador ha demostrado ser de gran utilidad para guiar el proceso de reconocimiento y reforzar los resultados. Este proceso implica dos cuestiones fundamentales: qué tipo de información contextual es la adecuada para cada problema, y como incorporamos esa información al modelo. En esta tesis abordamos el análisis de la estructura de documentos basándonos en la incorporación de información contextual en el proceso de análisis. Hacemos énfasis en el uso de modelos gráficos probabilísticos y otros mecanismos para proponer soluciones al problema de la identificación de regiones y la segmentación de líneas de texto manuscritas. Presentamos varios métodos que hacen uso de modelos gráficos probabilísticos para resolver las anteriores tareas, y varios tipos de información contextual. En primer lugar presentamos un conjunto de características que pueden modelar información contextual sobre la posición relativa entre las diferentes regiones. Utilizamos estas características junto a otras para en varios modelos basados en modelos gráficos probabilísticos, y los comparamos con un modelo sintáctico clásico basado en gramáticas libres de contexto. En segundo lugar presentamos un marco probabilístico aplicado a la segmentación de líneas de líneas de texto. Combinamos el proceso de inferencia en el modelo con la estimación de las líneas de texto. Demostramos como el uso de información contextual mediante modelos gráficos probabilísticos es de gran utilidad para estas tareas.
Currently, more than 80% of the documents stored on paper belong to the business field. Advances in digitization techniques have fostered the interest in creating digital copies in order to solve maintenance and storage problems, as well as to have efficient ways for transmission and automatic extraction of the information contained therein. This situation has led to the need to create systems that can automatically extract and analyze this kind of information. The great variety of types of documents makes this not a trivial task. The extraction process of numerical data from tables or invoices differs substantially from a task of handwriting recognition in a document with annotations. However, there is a common link in the two tasks: Given a document, we need to identify the region where the information of interest is located. In the area of Document Analysis this process is called Layout Analysis, and aims at identifying and categorizing the different entities that compose the document. These entities can be text regions, pictures, text lines or tables, among others. This process can be done from two different approaches: physical or logical analysis. Physical analysis focus on identifying the physical boundaries that define the area of interest, whereas logical analysis also models information about the role and semantics of the entities within the scope of the document. To encode this information it is necessary to incorporate prior knowledge about the task into the analysis process, which can be introduced in terms of contextual relations between entities. The use of context has proven to be useful to reinforce the recognition process and improve the results on many computer vision tasks. It presents two fundamental questions: what kind of contextual information is appropriate, and how to incorporate this information into the model. In this thesis we study several ways to incorporate contextual information on the task of document layout analysis. We focus on the study of Probabilistic Graphical Models and other mechanisms for the inclusion of contextual relations applied to the specific tasks of region identification and handwritten text line segmentation. On the one hand, we present several methods for region identification. First, we present a method for layout analysis based on Conditional Random Fields for maximum a posteriori estimation. We encode a set of structural relations between different classes of regions on a set of features. Second, we present a method based on 2D-Probabilistic Context-free Grammars and perform a comparative study between probabilistic graphical models and this syntactic approach. Third, we propose a statistical approach based on the Expectation-Maximization algorithm devised to structured documents. We perform a thorough evaluation of the proposed methods on two particular collections of documents: a historical dataset composed of ancient structured documents, and a collection of contemporary documents. On the other hand, we present a probabilistic framework applied to the task of handwritten text line segmentation. We successfully combine the EM algorithm and variational approaches for this purpose. We demonstrate that the use of contextual information using probabilistic graphical models is of great utility for these tasks.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Melkersson, Oskar, und Adam Wretström. „Grafisk modellering som stöd i förstudiefasen : En aktionsforskning om hur grafiska modeller kan underlätta kommunikation mellan utvecklare ochanvändare i en förstudie“. Thesis, Linnéuniversitetet, Institutionen för informatik (IK), 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-27734.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Papadopoulos, Nicholas. „A 3-D computer modelled animation system, implemented in an object-oriented message-passing environment“. Thesis, University of Sussex, 1996. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.360489.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Meruvia, Pastor Oscar Ernesto. „Frame coherent 3D stippling for non-photorealistic computer graphics“. [S.l.] : [s.n.], 2003. http://deposit.ddb.de/cgi-bin/dokserv?idn=971456097.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Lohikoski, Håkansson Laura, und Elin Rudén. „Optimization of 3D Game Models : A qualitative research study in Unreal Development Kit“. Thesis, Södertörns högskola, Institutionen för naturvetenskap, miljö och teknik, 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:sh:diva-22822.

Der volle Inhalt der Quelle
Annotation:
Our goal with this study is to examine how much optimization of 3D game models can affect the overall performance of a game. After a previous pilot study we decided on use a method where we worked with a 3D scene which was made earlier unconnected to this study. We created two versions of the scene in Unreal Development Kit, one with none of the meshes optimized and the second scene where the meshes are optimized. From these two scenes we wrote down the different stats: the draw calls, frame rate, millisecond per frame and visible static mesh elements as well as the memory usage. Comparing these stats from the two scenes, we found that there was a change in the stats. Draw calls and frame rate had dropped in the second scene, as well as the memory usage which made the game run more smoothly without losing much of its aesthetic quality.
Målet med vår studie var att se hur stor skillnad optimering av 3D-modeller i spel gör för att förbättra spelprestandan. Efter att ha utfört en pilotstudie beslutade vi oss för att använda en tidigare byggd 3D-scen för undersökningen i vår C-uppsats. Vi skapade två versioner av scenen i Unreal Development Kit, en där inga modeller var optimerade och den andra där vi optimerat modellerna. Vi skrev därefter ner statistik från de olika scenerna, nämligen draw calls, frame rate, millisecond per frame och visible static mesh elements liksom minnesanvändning. Efter att ha jämfört resultaten såg vi att det fanns en väsentlig skillnad mellan scenerna prestandamässigt. Både draw calls, frame rate och minnesanvändningen hade minskat efter optimeringen vilket ledde till att spelet kördes smidigare.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Santana, Murillo Vinícius Bento. „Desenvolvimento de sistema computacional via MATLAB/GUI (Graphical User Interface) para análise geometricamente não linear de estruturas“. reponame:Repositório Institucional da UFOP, 2015. http://www.repositorio.ufop.br/handle/123456789/5463.

Der volle Inhalt der Quelle
Annotation:
Programa de Pós Graduação em Engenharia Civil. Departamento de Engenharia Civil, Escola de Minas, Universidade Federal de Ouro Preto.
Submitted by Oliveira Flávia (flavia@sisbin.ufop.br) on 2015-05-20T20:14:24Z No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_SistemaComputacionalGráfico.pdf: 7158699 bytes, checksum: 95038dc4d47ce770d2d418b6065f18d5 (MD5)
Approved for entry into archive by Gracilene Carvalho (gracilene@sisbin.ufop.br) on 2015-05-22T14:56:03Z (GMT) No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_SistemaComputacionalGráfico.pdf: 7158699 bytes, checksum: 95038dc4d47ce770d2d418b6065f18d5 (MD5)
Made available in DSpace on 2015-05-22T14:56:03Z (GMT). No. of bitstreams: 2 license_rdf: 22190 bytes, checksum: 19e8a2b57ef43c09f4d7071d2153c97d (MD5) DISSERTAÇÃO_SistemaComputacionalGráfico.pdf: 7158699 bytes, checksum: 95038dc4d47ce770d2d418b6065f18d5 (MD5) Previous issue date: 2015
Com os avanços científicos e tecnológicos, o engenheiro estrutural passou a desenvolver e/ou ter acesso a programas computacionais que possibilitam análises numéricas mais avançadas. Isso vem proporcionando aumento da segurança e economia dos projetos. Para a concepção de estruturas mais esbeltas, a realização de análises não lineares geométricas, em que os efeitos de segunda ordem são explicitamente incluídos, torna-se cada vez mais comum. Nesse contexto, esta dissertação tem como objetivo avaliar o comportamento não linear geométrico estático de sistemas estruturais reticulados planos através do desenvolvimento e emprego de um sistema computacional gráfico interativo, denominado aqui AFA-OPSM (Advanced Frame Analysis - Ouro Preto School of Mines). Esse sistema utiliza os recursos de programação gráficos interativos (GUI) do software MATLAB, e apresenta, de forma acoplada, as etapas de pré-processamento, análise estrutural e pósprocessamento. Destaca-se ainda que ele é construído segundo o paradigma da programação orientada à objetos (POO), em que várias estratégias de solução não linear foram incorporadas. As formulações não lineares de elementos finitos são desenvolvidas considerando as teorias de treliças, de viga de Euler-Bernoulli e de Timoshenko, nos referenciais Lagrangiano total e co-rotacional. Os resultados numéricos obtidos, assim como os recursos gráficos interativos do AFA-OPSM, são avaliados através do estudo de problemas estruturais clássicos de estabilidade encontrados na literatura, alguns considerados fortemente não lineares. ______________________________________________________________________________
ABSTRACT: With the scientific and technologic advances, the structural engineer has now access to computational programs that make possible more advanced numerical analysis. This have proportionate an increase in the safety and economy of projects. For the conception of slender structures, the use of geometrically nonlinear analysis, where second order effects are explicitly included, are becoming more and more common. In this context, this dissertation aims to evaluate the geometrically nonlinear static behavior of plane trusses and frame structural systems through the development and use of an interactive graphical computational system, named here AFA-OPSM (Advanced Frame Analysis – Ouro Preto School of Mines). This system is developed with the programming and graphics resources of the software MATLAB, and shows, in an integrated way, the phases of modeling, analysis and results visualization. Still, it is important to point out that this computational system is build following the object orientation paradigm, in which a diversity of nonlinear solution strategies are incorporated. The nonlinear finite elements formulations are developed considering the bar and the Euler-Bernoulli and Timoshenko beam theories, and the total Lagrangian and co-rotational reference systems. The numerical results obtained in this work, as well as the graphical resources in AFA-OPSM, are evaluated and validated through the study of classical stability structural problems found in literature, some of which are considered highly nonlinear.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Schwaller, Loïc. „Exact Bayesian Inference in Graphical Models : Tree-structured Network Inference and Segmentation“. Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS210/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur l'inférence de réseaux. Le cadre statistique naturel à ce genre de problèmes est celui des modèles graphiques, dans lesquels les relations de dépendance et d'indépendance conditionnelles vérifiées par une distribution multivariée sont représentées à l'aide d'un graphe. Il s'agit alors d'apprendre la structure du modèle à partir d'observations portant sur les sommets. Nous considérons le problème d'un point de vue bayésien. Nous avons également décidé de nous concentrer sur un sous-ensemble de graphes permettant d'effectuer l'inférence de manière exacte et efficace, à savoir celui des arbres couvrants. Il est en effet possible d'intégrer une fonction définie sur les arbres couvrants en un temps cubique par rapport au nombre de variables à la condition que cette fonction factorise selon les arêtes, et ce malgré le cardinal super-exponentiel de cet ensemble. En choisissant les distributions a priori sur la structure et les paramètres du modèle de manière appropriée, il est possible de tirer parti de ce résultat pour l'inférence de modèles graphiques arborescents. Nous proposons un cadre formel complet pour cette approche.Nous nous intéressons également au cas où les observations sont organisées en série temporelle. En faisant l'hypothèse que la structure du modèle graphique latent subit un certain nombre de brusques changements, le but est alors de retrouver le nombre et la position de ces points de rupture. Il s'agit donc d'un problème de segmentation. Sous certaines hypothèses de factorisation, l'exploration exhaustive de l'ensemble des segmentations est permise et, combinée aux résultats sur les arbres couvrants, permet d'obtenir, entre autres, la distribution a posteriori des points de ruptures en un temps polynomial à la fois par rapport au nombre de variables et à la longueur de la série
In this dissertation we investigate the problem of network inference. The statistical frame- work tailored to this task is that of graphical models, in which the (in)dependence relation- ships satis ed by a multivariate distribution are represented through a graph. We consider the problem from a Bayesian perspective and focus on a subset of graphs making structure inference possible in an exact and e cient manner, namely spanning trees. Indeed, the integration of a function de ned on spanning trees can be performed with cubic complexity with respect to number of variables under some factorisation assumption on the edges, in spite of the super-exponential cardinality of this set. A careful choice of prior distributions on both graphs and distribution parameters allows to use this result for network inference in tree-structured graphical models, for which we provide a complete and formal framework.We also consider the situation in which observations are organised in a multivariate time- series. We assume that the underlying graph describing the dependence structure of the distribution is a ected by an unknown number of abrupt changes throughout time. Our goal is then to retrieve the number and locations of these change-points, therefore dealing with a segmentation problem. Using spanning trees and assuming that segments are inde- pendent from one another, we show that this can be achieved with polynomial complexity with respect to both the number of variables and the length of the series
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Baiardi, Marco. „Sviluppo di modello dinamico di elicottero per simulazione del volo“. Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Den vollen Inhalt der Quelle finden
Annotation:
Nella tesi di laurea ho avuto occasione di sfruttare nozioni e competenze acquisite durante il mio corso di studi in Ingegneria Aerospaziale, imparare la struttura alla base del simulatore di volo Flightgear, realizzare un modello dinamico di volo di un elicottero reale (AgustaWestland AW109) e verificarne il corretto funzionamento a computer. Dopo una breve introduzione alla storia della simulazione del volo e al simulatore Flightgear, vengono descritte le attività svolte: ricerca bibliografica delle caratteristiche fisiche e dei parametri di volo dell’elicottero AgustaWestland AW109, realizzazione ed implementazione del modello CAD 3D, sviluppo del modello dinamico di volo, installazione sul programma di simulazione, test e funzionamento del modello di volo completo.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Ekman, Jonas. „Evaluation of HCI models to control a network system through a graphical user interface“. Thesis, KTH, Data- och elektroteknik, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-208951.

Der volle Inhalt der Quelle
Annotation:
SAAB has a project under development for a network system with connected nodes, where the nodes are both information consumer and producer of different communication types. A node is an equipment or an object that are used by the army e.g. it can be a soldier, military hospital or an UAV. The nodes function as a part of a mission e.g. a mission can be Defend Gotland. The aim of this project is that the user will rank different missions from the one with the highest priority to the lowest. This will affect the network in a way that the communication between the nodes at the mission with the highest rank will be prioritised over the communication between the underlying missions. A user can via the GUI rank the missions, and then set the associated settings for them. Via the GUI the user should be able to work at three different levels. The first is to plan upcoming missions. The second one is in real time see if the system delivers the desired conditions. The last one is to simulate if the system can deliver the desired conditions. This thesis investigated various HCI models that could be used to create a GUI, to reduce the risk of a user configuring the system incorrectly. The study showed that there are no HCI models that take account for misconfigurations, and therefore a new model was created. The new model was used and evaluated by creating a prototype of a GUI for SAAB’s project and was tested on a potential user. The test showed that the new model reduced the risk of misconfigurations.
SAAB har ett projekt för utveckling av ett nätverkssystem med anslutande noder, med noder som kan vara både informationsproducent och konsument för olika kommunikationstyper. En nod är en sak eller ett objekt inom försvaret t.ex. kan det vara en soldat, militärt sjukhus eller en obemannad farkost. Varje nod tillhör ett uppdrag, tex att försvara Gotland. Målet med projektet är att man ska kunna gradera de olika uppdragen och därmed gradera vilken prioritet dessa noder har i nätet. Noder som tillhör ett uppdrag med hög gradering kommer prioriteras över de underliggande uppdragen i nätverket. En användare kan via ett grafiskt användargränssnitt gradera uppdragen och konfigurera tillhörande inställningar. Via det grafiska användargränssnittet kan en användare även planera, gradera och konfigurera inställningar för kommande uppdrag samt simulera om det går att genomföra. Användaren ska även i realtid kunna se om de önskade inställningarna inte kan leva upp till de önskade kraven, och därmed kunna åtgärda detta.  Detta arbete undersökte olika MMI-modeller som kan användas för att skapa ett grafiskt användargränssnitt som minimerar risken att användaren konfigurerar systemet på ett felaktigt sätt. Studien visade sig att det inte finns några MMI modeller som tar hänsyn till felkonfigureringar, och en ny modell skapades. Den nya modellen användes och utvärderas genom att skapa en prototyp av ett grafiskt användargränssnitt för SAAB:s projekt, som testades på en potentiell användare. Testet visade att den nya modellen minskar risken för felkonfigureringar.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Bolfarine, Henrique. „Comparative evaluation of network reconstruction methods in high dimensional settings“. Universidade de São Paulo, 2017. http://www.teses.usp.br/teses/disponiveis/45/45133/tde-18052017-001105/.

Der volle Inhalt der Quelle
Annotation:
In the past years, several network reconstruction methods modeled as Gaussian Graphical Model in high dimensional settings where proposed. In this work we will analyze three different methods, the Graphical Lasso (GLasso), Graphical Ridge (GGMridge) and a novel method called LPC, or Local Partial Correlation. The evaluation will be performed in high dimensional data generated from different simulated random graph structures (Erdos-Renyi, Barabasi-Albert, Watts-Strogatz ), using Receiver Operating Characteristic or ROC curve. We will also apply the methods in the reconstruction of genetic co-expression network for the differentially expressed genes in cervical cancer tumors.
Vários métodos tem sido propostos para a reconstrução de redes em alta dimensão, que e tratada como um Modelo Gráfico Gaussiano. Neste trabalho vamos analisar três métodos diferentes, o método Graphical Lasso (GLasso), Graphical Ridge (GGMridge) e um novo método chamado LPC, ou Correlação Parcial Local. A avaliação será realizada em dados de alta dimensão, gerados a partir de grafos aleatórios (Erdos-Renyi, Barabasi-Albert, Watts-Strogatz ), usando Receptor de Operação Característica, ou curva ROC. Aplicaremos também os metidos apresentados, na reconstrução da rede de co-expressão gênica para tumores de câncer cervical.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Ali, Fakhraldeen H. „A concurrent processing system for the generation of real-time three dimensional graphics : A VME-bus compatible low cost raster graphics system for the generation of polygonally modelled three dimensional images in real-time“. Thesis, University of Bradford, 1989. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.236459.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Paschoal, Alexandre Rossi. „GINGA - Graphical Interface for Comparative Genome Analysis: o desenvolvimento de um sistema computacional de visualização gráfica para a análise comparativa de genomas de bactérias“. Laboratório Nacional de Computação Científica, 2007. http://www.lncc.br/tdmc/tde_busca/arquivo.php?codArquivo=124.

Der volle Inhalt der Quelle
Annotation:
Esta dissertação resultou de um sistema computacional voltado para a visualização gráfica de análises comparativas entre genomas de procariotos. O sistema denominado de GINGA Graphical Interface for comparative Genome Analysis foi desenvolvido basicamente para analisar genomas parcialmente seqüenciados por meio da comparação com genomas completos. O sistema mostra a representação do alinhamento entre seqüências de reads, contigs e scaffolds do genoma parcial com a seqüência completa do outro genoma, permitindo a identificação de blocos comuns, regiões específicas e rearranjos. GINGA é um sistema web-based que foi desenvolvido em linguagem PERL para acessar um banco de dados MySQL, onde estão armazenadas as informações obtidas nas análises comparativas. O módulo de interface da biblioteca gráfica GD da linguagem PERL foi utilizado para a construção da ferramenta de visualização. A representação gráfica criada permite a navegação com opções de zoom in/out, disponibilizando as informações de montagem, anotação das seqüências codificadoras e da organização das seqüências entre os genomas. Relatórios são ainda disponibilizados como fonte complementar da apresentação dos resultados. O sistema GINGA foi utilizado para analisar de maneira comparativa o genoma das bactérias Leifsonia xyli subsp. cynodontis (Lxc genoma parcialmente seqüenciado) e Leifsonia xyli subsp. xyli (Lxx genoma completamente seqüenciado). Lxx provoca o raquitismo da soqueria em cana-de-açúcar, enquanto Lxc é capaz de colonizar cana-de-açúcar sem provocar sintomas de doença. O objetivo foi revelar, ainda durante o processo de seqüenciamento do genoma de Lxc, diferenças genéticas existentes entre os genomas dessas duas bactérias. Fizeram parte das análises comparativas um total de 9.754 reads do genoma de Lxc que formaram 1.064 contigs e 317 scaffolds, totalizando 1.470.731 de bases não redundantes. GINGA permitiu a identificação de 206.320 bases (~19%) em seqüências de contigs específicos (contigs que não apresentaram alinhamento algum com o genoma completo de Lxx) e 19 scaffolds (5,9%) que totalizaram 56.884 bases específicas ao genoma de Lxc, além de aproximadamente 1 milhão de nucleotídeos alinhados ao genoma de Lxx e pelo menos 6 grandes rearranjos. Estes resultados foram disponibilizados em uma interface gráfica e relatórios, permitindo orientar o andamento do projeto de seqüenciamento do genoma de Lxc quanto à seleção das regiões a serem seqüenciadas e, simultaneamente, oferecendo informações para a formalização de hipóteses relevantes à biologia destes microorganismos.
This study aimed to develop a computational system applied to the comparative analysis of prokaryotic genomes in a graphical view. The system named GINGA Graphical Interface for comparative Genome Analysis was developed to analyse a draft genome sequence in comparison to a complete genome. The system shows the alignment between sequence of reads, contigs and scaffolds from partial sequenced genomes and the complete sequence of another genome and allows the identification shared and unique regions as well as rearrangements. GINGA is a web-based system developed using the PERL language to access a MySQL database where all the information regard to the comparative analysis is stored. The module of the interface to GD (Graphics Library) was used to help the construction of the graphical tool. The graphical view allows zoom in/out on the information on assembly, annotation and the organization of the sequences. Supplementary information can be accessed in the form of reports. GINGA system was used to compare the genomes of Leifsonia xyli subsp. cynodontis (Lxc draft genome sequence) and Leifsonia xyli subsp. xyli (Lxx complete genome sequence). The mail goal was to identify genetic differences that may help to understand the pathogeniciy of Lxx towards sugarcane. A total of 9.754 reads assembled in 1.064 contigs and 317 scaffolds produced 1.470.731 of no redundant bases of Lxc genome and were used in the analysis. GINGA allowed the identification of 206.320 bp (~20%) of Lxc specific sequences organized in contigs and 56.884 bp organized in 19 scaffolds (5,9%), around 1 milion bp aligned to Lxx genome and at least 6 large scale genomic rearrangements. These results were presented in a graphical interface and allowed to guide the partial genome sequencing, helping to decide which regions should be further sequenced and at the same time allowing the formulation of hypothesis related to important biological aspects of these microorganisms
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Gianotto, Adriana Cheavegatti. „Desenvolvimento de modelos de causalidade com informações de QTLs para estudo do relacionamento de caracteres fenotípicos relativos à absorção de fósforo em milho“. Universidade de São Paulo, 2015. http://www.teses.usp.br/teses/disponiveis/11/11137/tde-26052015-103020/.

Der volle Inhalt der Quelle
Annotation:
Metodologias de mapeamento de QTLs modernas empregam abordagem multivariada e se beneficiam da matriz de covariâncias fenotípicas para melhorar as estimativas de localização e efeitos de QTLs. No entanto, a correlação fenotípica pode ser em parte atribuída às relações de causalidade entre os fenótipos e mesmo as abordagens de mapeamento de QTLs multivariadas atuais têm desconsiderado tais relacionamentos. Dentre as metodologias científicas desenvolvidas para o estudo da causalidade em dados observacionais, destacam-se os modelos de equações estruturais e os modelos gráficos. Neste trabalho, foi estudado um conjunto de caracteres fenotípicos relacionados à morfologia de raízes, absorção de fósforo e acúmulo de biomassa em uma população composta de 145 linhagens endogâmicas recombinantes (RILs) do programa de melhoramento de milho da EMBRAPA Milho e Sorgo. O mapeamento de QTLs para os caracteres fenotípicos foi realizado utilizando mapeamento de múltiplos intervalos univariado (MIM) e multivariado (MT-MIM). A análise MIM revelou QTLs afetando diâmetro de raízes, área de superfície de raízes finas, peso seco da parte aérea e concentração de fósforo na parte aérea e nas raízes. A análise MT-MIM revelou 12 QTLs, com diferentes padrões de pleiotropia, com efeitos marginais para as sete variáveis analisadas. Um modelo de relacionamento causal entre os caracteres fenotípicos foi desenvolvido utilizando conhecimento prévio e modelagem de equações estruturais. O modelo de equações estruturais apresentou fluxo unidirecional de causalidade entre as variáveis, com as variáveis de morfologia de raízes exercendo efeito sobre as variáveis de acúmulo de biomassa, que por sua vez, têm efeito sobre as variáveis de absorção de fósforo. A aplicação do algoritmo PC para a descoberta de causalidade automatizada baseada nos padrões de independências condicionais não foi capaz de orientar todas as relações de causalidade descobertas, porém revelou um relacionamento mais complexo que o modelo de equações estruturais, com potenciais ciclos de retroalimentação causais. O emprego de algoritmos de descoberta de causalidade baseados em informações de QTLs, chamados QDG e QPSO, permitiu a orientação de todos os relacionamentos de causalidade encontrados pelo algoritmo PC e confirmou a existência de dois ciclos vizinhos de relacionamento causais entre as variáveis estudadas. Como regra geral, os QTLs pleiotrópicos detectados pela metodologia MT-MIM apresentaram efeitos sobre caracteres fenotípicos alinhados causalmente nos modelos propostos pelos algoritmos PC e QDG, sugerindo que alguns dos QTLs detectados são na realidade efeitos indiretos de QTLs situados em posição mais elevada no modelo causal. O emprego da abordagem MT-MIM aliada à análise de causalidade permitiu melhor compreensão da arquitetura genética dos caracteres de morfologia de raiz, acumulação de biomassa e aquisição de fósforo em milho.
Modern QTL mapping approaches are multivariate and take advantage of the phenotypic covariance matrix to improve estimates of QTL positions and effects. However, phenotypic correlation can also be assigned to the causal relationship among phenotypes, and even modern multivariate QTL analysis does not take these relationships into account. Structural equation models and graphical models are the main methodologies to study causality from observational data. We studied a set of phenotypes related to root morphology, biomass accumulation and phosphorus acquisition in maize. These phenotypes were measured in a maize population from the EMBRAPA breeding program composed of 145 recombinant inbred lines (RILs) derived from the crossing of two divergent lines for phosphorus acquisition efficiency. QTL mapping for the traits was performed using univariate (MIM) and multivariate (MT-MIM) multiple interval mapping. MIM analysis revealed QTL affecting root diameter, fine root surface area, shoot dry weight and root dry weight. MT-MIM analysis revealed 12 QTL with different pleiotropy patterns and QTL with marginal effects affecting all seven studied characters. A causal model for phenotype characters was developed using a priori knowledge and structural equation model techniques. The structural equation model presented an unidirectional causal flow among the variables, with root morphological traits exerting causal effects over biomass traits, which in turn cause phosphorus acquisition traits. Using PC algorithm for an automatic search of causal models based on conditional independence was not able to orient all discovered causal relationships among traits but revealed a more intricated relationship than the structural equation model, with potential causal feedback loops among the traits. Employing causal search algorithms based on QTL information (named QDG and QPSO) allowed the orientation of all causal relationships detected by PC algorithm and it has also confirmed the presence of two neighbor causal cycles among the studied traits. As a general rule, pleiotropic QTL detected by MT-MIM approach exerted effects over traits according to the causal model discovered by PC and QDG algorithms, suggesting that some of the QTL detected effects were indirect effects of QTL located upstream at the proposed causal model. Employing MT-MIM approach and causal analysis has allowed a better comprehension of genetic architecture underlying root morphology, biomass accumulation and phosphorus acquisition traits in maize.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Emmanuel, Desmontils. „Le projet CordiFormes : une plate-forme pour la construction de modeleurs déclaratifs“. Phd thesis, Université de Nantes, 1998. http://tel.archives-ouvertes.fr/tel-00816786.

Der volle Inhalt der Quelle
Annotation:
Les travaux en modélisation déclarative sont assez nombreux. Il est désormais nécessaire de mettre en place des méthodes générales basées sur celles déjà étudiées et de proposer des outils pour le développement de modeleurs déclaratifs. Nous proposons un nouveau formalisme basé sur les ensembles flous. Ce formalisme apparaît d'une part comme une synthèse et une unification des travaux existants et d'autre part apporte des éléments nouveaux comme la logique floue, la gestion linguistique de la négation. Nous étudions particulièrement le type de propriété le plus simple : la propriété élémentaire. A partir d'une propriété de base, d'un opérateur flou et d'un modificateur, nous mettons en place une méthode pour déterminer la sémantique d'une propriété élémentaire. Nous proposons aussi un traitement original de sa négation. Plutôt que d'utiliser la négation logique habituelle, nous nous intéressons à une gestion se basant sur des notions linguistiques. Enfin, nous présentons des solutions de traitement pour les autres propriétés. Cependant, ces solutions ne sont pas encore vraiment satisfaisantes. La plupart des projets en modélisation déclarative mettent en oeuvre des techniques similaires. A partir de ces travaux et du formalisme flou, nous développons le projet CordiFormes, une plate-forme de programmation visant à faciliter la mise en oeuvre de futurs modeleurs déclaratifs. Ses caractéristiques sont la simplicité, la souplesse de programmation, l'efficacité, l'extensibilité, la réutilisabilité et le prototypage rapide du modeleur. CordiFormes propose des outils sur trois niveaux : le noyau comportant toutes les structures et algorithmes de base, la couche interface proposant dialogues et composants d'interface et, enfin, la couche application pour produire rapidement un premier modeleur. Trois applications permettent de valider le formalisme et les outils de la plate-forme.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Talavera, Edwin Rafael Villanueva. „Métodos Bayesianos aplicados em taxonomia molecular“. Universidade de São Paulo, 2007. http://www.teses.usp.br/teses/disponiveis/18/18152/tde-03102007-105125/.

Der volle Inhalt der Quelle
Annotation:
Neste trabalho são apresentados dois métodos de agrupamento de dados visados para aplicações em taxonomia molecular. Estes métodos estão baseados em modelos probabilísticos, o que permite superar alguns problemas apresentados nos métodos não probabilísticos existentes, como a dificuldade na escolha da métrica de distância e a falta de tratamento e aproveitamento do conhecimento a priori disponível. Os métodos apresentados combinam por meio do teorema de Bayes a informação extraída dos dados com o conhecimento a priori que se dispõe, razão pela qual são denominados métodos Bayesianos. O primeiro método, método de agrupamento hierárquico Bayesiano, está baseado no algoritmo HBC (Hierarchical Bayesian Clustering). Este método constrói uma hierarquia de partições (dendrograma) baseado no critério da máxima probabilidade a posteriori de cada partição. O segundo método é baseado em um tipo de modelo gráfico probabilístico conhecido como redes Gaussianas condicionais, o qual foi adaptado para problemas de agrupamento. Ambos métodos foram avaliados em três bancos de dados donde se conhece a rótulo da classe. Os métodos foram usados também em um problema de aplicação real: a taxonomia de uma coleção brasileira de estirpes de bactérias do gênero Bradyrhizobium (conhecidas por sua capacidade de fixar o \'N IND.2\' do ar no solo). Este banco de dados é composto por dados genotípicos resultantes da análise do RNA ribossômico. Os resultados mostraram que o método hierárquico Bayesiano gera dendrogramas de boa qualidade, em alguns casos superior que o melhor dos algoritmos hierárquicos analisados. O método baseado em redes gaussianas condicionais também apresentou resultados aceitáveis, mostrando um adequado aproveitamento do conhecimento a priori sobre as classes tanto na determinação do número ótimo de grupos, quanto no melhoramento da qualidade dos agrupamentos.
In this work are presented two clustering methods thought to be applied in molecular taxonomy. These methods are based in probabilistic models which overcome some problems observed in traditional clustering methods such as the difficulty to know which distance metric must be used or the lack of treatment of available prior information. The proposed methods use the Bayes theorem to combine the information of the data with the available prior information, reason why they are called Bayesian methods. The first method implemented in this work was the hierarchical Bayesian clustering, which is an agglomerative hierarchical method that constructs a hierarchy of partitions (dendogram) guided by the criterion of maximum Bayesian posterior probability of the partition. The second method is based in a type of probabilistic graphical model knows as conditional Gaussian network, which was adapted for data clustering. Both methods were validated in 3 datasets where the labels are known. The methods were used too in a real problem: the clustering of a brazilian collection of bacterial strains belonging to the genus Bradyrhizobium, known by their capacity to transform the nitrogen (\'N IND.2\') of the atmosphere into nitrogen compounds useful for the host plants. This dataset is formed by genetic data resulting of the analysis of the ribosomal RNA. The results shown that the hierarchical Bayesian clustering method built dendrograms with good quality, in some cases, better than the other hierarchical methods. In the method based in conditional Gaussian network was observed acceptable results, showing an adequate utilization of the prior information (about the clusters) to determine the optimal number of clusters and to improve the quality of the groups.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Mamane, Salha. „Lois de Wishart sur les cônes convexes“. Thesis, Angers, 2017. http://www.theses.fr/2017ANGE0003/document.

Der volle Inhalt der Quelle
Annotation:
En analyse multivariée de données de grande dimension, les lois de Wishart définies dans le contexte des modèles graphiques revêtent une grande importance car elles procurent parcimonie et modularité. Dans le contexte des modèles graphiques Gaussiens régis par un graphe G, les lois de Wishart peuvent être définies sur deux restrictions alternatives du cône des matrices symétriques définies positives : le cône PG des matrices symétriques définies positives x satisfaisant xij=0, pour tous sommets i et j non adjacents, et son cône dual QG. Dans cette thèse, nous proposons une construction harmonieuse de familles exponentielles de lois de Wishart sur les cônes PG et QG. Elle se focalise sur les modèles graphiques d'interactions des plus proches voisins qui présentent l'avantage d'être relativement simples tout en incluant des exemples de tous les cas particuliers intéressants: le cas univarié, un cas d'un cône symétrique, un cas d'un cône homogène non symétrique, et une infinité de cas de cônes non-homogènes. Notre méthode, simple, se fonde sur l'analyse sur les cônes convexes. Les lois de Wishart sur QAn sont définies à travers la fonction gamma sur QAn et les lois de Wishart sur PAn sont définies comme la famille de Diaconis- Ylvisaker conjuguée. Ensuite, les méthodes développées sont utilisées pour résoudre la conjecture de Letac- Massam sur l'ensemble des paramètres de la loi de Wishart sur QAn. Cette thèse étudie aussi les sousmodèles, paramétrés par un segment dans M, d'une famille exponentielle paramétrée par le domaine des moyennes M
In the framework of Gaussian graphical models governed by a graph G, Wishart distributions can be defined on two alternative restrictions of the cone of symmetric positive definite matrices: the cone PG of symmetric positive definite matrices x satisfying xij=0 for all non-adjacent vertices i and j and its dual cone QG. In this thesis, we provide a harmonious construction of Wishart exponential families in graphical models. Our simple method is based on analysis on convex cones. The focus is on nearest neighbours interactions graphical models, governed by a graph An, which have the advantage of being relatively simple while including all particular cases of interest such as the univariate case, a symmetric cone case, a nonsymmetric homogeneous cone case and an infinite number of non-homogeneous cone cases. The Wishart distributions on QAn are constructed as the exponential family generated from the gamma function on QAn. The Wishart distributions on PAn are then constructed as the Diaconis- Ylvisaker conjugate family for the exponential family of Wishart distributions on QAn. The developed methods are then used to solve the Letac-Massam Conjecture on the set of parameters of type I Wishart distributions on QAn. Finally, we introduce and study exponential families of distributions parametrized by a segment of means with an emphasis on their Fisher information. The focus in on distributions with matrix parameters. The particular cases of Gaussian and Wishart exponential families are further examined
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Llerena, Julissa Giuliana Villanueva. „Multi-label classification based on sum-product networks“. Universidade de São Paulo, 2017. http://www.teses.usp.br/teses/disponiveis/45/45134/tde-08122017-100124/.

Der volle Inhalt der Quelle
Annotation:
Multi-label classification consists of learning a function that is capable of mapping an object to a set of relevant labels. It has applications such as the association of genes with biological functions, semantic classification of scenes and text categorization. Traditional classification (i.e., single-label) is therefore a particular case of multi-label classification in which each object is associated with exactly one label. A successful approach to constructing classifiers is to obtain a probabilistic model of the relation between object attributes and labels. This model can then be used to classify objects, finding the most likely prediction by computing the marginal probability or the most probable explanation (MPE) of the labels given the attributes. Depending on the probabilistic models family chosen, such inferences may be intractable when the number of labels is large. Sum-Product Networks (SPN) are deep probabilistic models, that allow tractable marginal inference. Nevertheless, as with many other probabilistic models, performing MPE inference is NP- hard. Although, SPNs have already been used successfully for traditional classification tasks (i.e. single-label), there is no in-depth investigation on the use of SPNs for Multi-Label classification. In this work we investigate the use of SPNs for Multi-Label classification. We compare several algorithms for learning SPNs combined with different proposed approaches for classification. We show that SPN-based multi-label classifiers are competitive against state-of-the-art classifiers, such as Random k-Labelsets with Support Vector Machine and MPE inference on CutNets, in a collection of benchmark datasets.
A classificação Multi-Rótulo consiste em aprender uma função que seja capaz de mapear um objeto para um conjunto de rótulos relevantes. Ela possui aplicações como associação de genes com funções biológicas, classificação semântica de cenas e categorização de texto. A classificação tradicional, de rótulo único é, portanto, um caso particular da Classificação Multi-Rótulo, onde cada objeto está associado com exatamente um rótulo. Uma abordagem bem sucedida para classificação é obter um modelo probabilístico da relação entre atributos do objeto e rótulos. Esse modelo pode então ser usado para classificar objetos, encon- trando a predição mais provável por meio da probabilidade marginal ou a explicação mais provavél dos rótulos dados os atributos. Dependendo da família de modelos probabilísticos escolhidos, tais inferências podem ser intratáveis quando o número de rótulos é grande. As redes Soma-Produto (SPN, do inglês Sum Product Network) são modelos probabilísticos profundos, que permitem inferência marginal tratável. No entanto, como em muitos outros modelos probabilísticos, a inferência da explicação mais provavél é NP-difícil. Embora SPNs já tenham sido usadas com sucesso para tarefas de classificação tradicionais, não existe investigação aprofundada no uso de SPNs para classificação Multi-Rótulo. Neste trabalho, investigamos o uso de SPNs para classificação Multi-Rótulo. Comparamos vários algoritmos de aprendizado de SPNs combinados com diferentes abordagens propostos para classi- ficação. Mostramos que os classificadores Multi-Rótulos baseados em SPN são competitivos contra classificadores estado-da-arte, como Random k-Labelsets usando Máquinas de Suporte Vetorial e inferência exata da explicação mais provavél em CutNets, em uma coleção de conjuntos de dados de referência.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Bresolin, Tiago. „Causal learning techniques using multi-omics data for carcass and meat quality traits in Nelore cattle /“. Jaboticabal, 2019. http://hdl.handle.net/11449/190717.

Der volle Inhalt der Quelle
Annotation:
Orientador: Lucia Galvão de Albuquerque
Resumo: Registros de características quantitativas e informações genotípicas cole- tadas para cada animal são utilizados para identificar regiões do genoma associadas à variação fenotípica. No entanto, essas investigações são, geralmente, realizadas com base em testes estatísticos de correlação ou associação, que não implicam em causalidade. A fim de explorar amplamente essas informações, métodos poderosos de inferência causal foram desenvolvidos para estimar os efeitos causais entre as variáveis estudadas. Apesar do progresso significativo neste campo, inferir os efeitos causais entre variáveis aleatórias contínuas ainda é um desafio e poucos estudos têm explorado as relações causais em genética quantitativa e no melhoramento animal. Neste contexto, dois estudos foram realizados com os seguintes objetivos: 1) Buscar as relações causais entre as características de carcaça e qualidade de carne usando um modelo de equação estrutural (MEE), sob modelo linear misto em bovinos da raça Nelore, e 2) Reconstruir redes de genes-fenótipos e realizar análise de rede causal por meio da integração de dados fenotípicos, genotípicos e transcriptômicos em bovinos da raça Nelore. Para o primeiro estudo, um total de 4.479 animais com informação fenotípica para o peso da carcaça quente (PCQ), área de olho lombo (AOL), espessura de gordura subcutânea (EGS), força de cisalhamento (FC) e marmoreio (MAR) foram usados. Os animais foram genotipados usando os painéis BovineHD Bead- Chip e GeneSeek Genomic Pro... (Resumo completo, clicar acesso eletrônico abaixo)
Abstract: Quantitative traits and genotypes information have been collected for each animal and used to identify genome regions related to phenotypes variation. However, these investigations are, usually, performed based on correlation or association statistical tests, which do not imply in causation. In order to fully explore these information, powerful causal inference methods have been developed to estimate causal effects among the variables under study. Despite significant progress in this field infer causal effect among random variables remains a challenge and some few studies have explored causal relationships in quantitative genetics and animal breeding. In this context, two studies were performed with the following objectives: 1) Search for the causal relationship among carcass yield and meat quality traits using a structural equation model (SEM), under linear mixed model context in Nelore cattle, and 2) Reconstruct gene-phenotype networks and perform causal network analysis through the integrating of phenotypic, genotypic, and transcriptomic data in Nelore cattle. For the first study, a total of 4,479 animals with phenotypic information for hot carcass weight (HCW), longissimus muscle area (LMA), backfat thickness (BF), Warner-Bratzler shear force (WBSF), and marbling score (MB) traits were used. Animals were genotyped using BovineHD BeadChip and GeneSeek Genomic Profiler Indicus HD - GGP75Ki. For causal inference using SEM a multistep procedure methodology was used as follow:... (Complete abstract click electronic access below)
Doutor
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Ashurbekova, Karina. „High-dimensional robust structure learning“. Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT100.

Der volle Inhalt der Quelle
Annotation:
L'apprentisage de structure de graphes est un problème essentiel dans de nombreuses applications, i.e. génétiques, neuroscience.L'estimation de la matrice de covariance/précision est le point crucial. Les techniques usuelles souffrent de deux problèmes. Le premier problème est la robustesse aux données non gaussiennes. Le second problème est le manque de données quand le nombre de paramètres à estimer est trop grand devant la taille de l'échantillon disponible. L'objectif de cette thèse est de fournir des méthodes robustes et adaptée à une faible taille d'échantillon.La première contribution de cette thèse considère les estimateurs de maximum de vraisemblance de la matrice de covariance avec shrinkage sous l'hypothèse de distributions à queue lourde et moyenne inconnue. La difficulté principale est le choix du paramètre de régularisation. Nous dérivons une expression explicite du coefficient de shrinkage pour toute distribution elliptique. Nous proposons aussi un algorithm dans le cas de distribution de Student multivariée qui est appliqué à des données simulées et des données réelles.La deuxième contribution concerne l'estimation de matrice de précision parcimonieuse pour des données non gaussiennes. En partant des résultats de la littérature, nous avons généralisé ceux-ci à des modèles de mélanges en grande dimension pour une sous-classe de famille de distribution elliptique.Pour finir, nous avons testé nos approches sur des données réelles d'IRMf. La structure estimée est soit la correlation soit la correlation partielle. Nous proposons une nouvelle construction de graphes prenant en compte la correlation et la correlation partielle. Cette nouvelle approche est validée sur des simulations et des données réelles
Structure learning in graphical models is an essential topic in different application areas, i.e., genetics, neuroscience. The crucial part of this model is the estimation of covariance/precision matrices. Traditional techniques for handling this problem suffer from two main issues. The first one is the lack of robustness when samples are assumed to follow a Gaussian distribution. The second one is the lack of data when the number of parameters to estimate is too large compared to the number of samples. Thus this thesis aims to build robust high-dimensional models for covariance and precision matrices estimation.The first question we address in the manuscript is the link between zero elements of precision matrices and the measure of the relationship between variables it reveals for different distributions.par In the first main contribution of this thesis we consider the shrinked likelihood-based estimators of the covariance matrix under the assumption of heavy-tailed distribution with unknown mean vector. The main difficulty at this point is the choice of the regularization parameters. We provide a closed-form expression of an optimal shrinkage coefficient for any sample distribution in the elliptical family. Based on these results, an algorithm for the case of the multivariate t-distribution with the simulated and real data is presented.The second contribution is dealing with sparse precision matrix estimation for the non-Gaussian data. Starting with the traditional techniques, we are able to generalize results for the high-dimensional mixture models for the subclass of elliptical family.Finally, we test our graph structure learning approach on brain signals using fMRI. The structure induced by both the correlation and the partial correlation is considered. We then propose a new graph construction method taking into account both conditional and marginal independences. The proposed approach shows better results than classical algorithms
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Trenhago, Paulo Roberto. „Ambiente de Realidade Virtual Automático para Visualização de Dados Biológicos“. Laboratório Nacional de Computação Científica, 2009. http://www.lncc.br/tdmc/tde_busca/arquivo.php?codArquivo=207.

Der volle Inhalt der Quelle
Annotation:
Este trabalho descreve o desenvolvimento de uma estrutura lógica de software para o controle do CAVE do LNCC e sua utilização na visualização de dados biológicos. Configuramos e adaptamos o framework InstantReality para fazer funcionar todos os componentes singulares do CAVE do LNCC ( uma parede não ortogonal, duas paredes com cinco lados, projetores convencionais, entre outros ) por meio de uma tecnologia emergente, o X3D, usado para distribuir conteúdo 3D multimídia pela Internet. Propomos um processo para o rápido desenvolvimento, recorrendo ou não a uma linguagem de programação, de aplicações para visualização de dados biológicos, tais como: descrição geométrica de parte do sistema cardiovascular humano, de parte de uma larva, visualização de modelos de proteínas e capsídios de vírus. Apresentamos questões importantes na visualização de superfícies complexas, como a importância do modelo de iluminação utilizado e descrevemos a implementação de um modelos de iluminação em GPU. Adicionalmente, justificamos o emprego da Realidade Virtual como ferramenta valiosa para a visualização em bioinformática, e mesmo na biologia. Finalmente, avaliamos a eficiência geral do CAVE e de cada componente,através dos resultados obtidos na visualização de cenários temáticos de interesse biológico. Identificamos possíveis problemas e sugerimos opções para uma melhoria geral do desempenho.
This work describes the development of a software structure that currently controls the CAVE at LNCC, as well as its use for biological data visualization. This work also includes the adaptation and configuration of the InstantReality framework considering all particularities of the CAVE built at LNCC, which amongst other things does not have square walls all around (two walls have a particular shape). In order to accompish this task we make use of the emerging X3D technology. This work also proposes a process for fast development of biological data visualization. Such process has been used to develop a series of sample applications, which included geometric description of parts of the human cardiovascular system as well as other structures such as parts of worms and other creatures, visualization of proteine models and virus envelops both relying or not on some programming language. This work also introduces important aspects of complex surface visualization and describes the implementation of a GPU based ilumination model. Additionally, some justifications are presented regarding the use of Virtual Reality as a tool for bioinformatics visuzalization or biologic applications. Finally, this work evaluates the CAVE prototype, considering each of its components, in the light of the results achieved in the biologic visualization applications developed. Problems are identified and further improvements are proposed.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Woxler, Platon. „Efficient generation and rendering of tube geometry in Unreal Engine : Utilizing compute shaders for 3D line generation“. Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-302564.

Der volle Inhalt der Quelle
Annotation:
Massive graph visualization in an immersive environment, such as virtual reality (VR) or Augmented Reality (AR), has the possibility to improve users’ understanding when exploring data in new ways. To make the most of a visualization, such as this, requires interactive components that are fast enough to accommodate interactivity. By rendering the edges of the graph as shaded lines that imitate three‑dimensional (3D) lines or tubes, one can circumvent technical limitations. This method works well enough when using traditional two‑dimensional (2D) monitors, but representing tubes as flat lines in a virtual environment (VE) makes for a less immersive user experience as opposed to visualizing true 3D geometry. In order to accommodate for these requirements i.e., speed and visual fidelity, we need a time efficient way of producing tubular meshes. This thesis project explores how one can generate tubular geometry utilizing compute shaders in the modern game engine, Unreal Engine (UE). Exploiting the parallel computing power of the graphical processing unit (GPU) we use compute shaders to generate a tubular mesh following a predetermined path. The result from the project is an open source plugin for UE, able to generate tubular geometry at rapid rates. While not giving any major advantages when generating smaller models, comparing it to a sequential implementation, the compute shader implementation create and render models > 40× faster when generating 106 tube segments. A secondary effect of generating most of the data on the GPU, is that we avoid bottlenecks that can occur when surpassing the bandwidth of the central processing unit (CPU) to GPU data transfer. Using this tool researches can more easily explore information visualization in a VE. Furthermore, this thesis promotes extended development of mesh generation, using compute shaders in UE.
Att visualisera stora grafer i en immersiv miljö, såsom VR eller AR, kan förbättra en användares förståelse när de utforskar data på nya sätt. För att få ut det mesta av denna typen av visualiseringar krävs interaktiva komponenter som är tillräckligt snabba för att tillgodose interaktivitet. Genom att visa de linjer, som binder samman en grafs noder, som plana linjer som imiterar 3Dlinjer eller rör, kan man undvika att slå i det tak som tekniska begränsningar medför. Denna metoden är acceptabel vid användning av traditionella 2Dskärmar, men att representera rör som plana linjer i VE ger en mindre immersiv användarupplevelse, i kontrast till att visualisera sann 3D -geometri. För att tillgodose dessa krav dvs, tidseffektivitet och visuella kvaliteter, behöver vi ett effektivt sätt att producera 3D-linjer. Denna uppsats undersöker hur man kan generera rörformad geometri med hjälp av compute shaders i den moderna spelmotorn Unreal Engine (UE). Genom att använda compute shaders kan vi utnyttja den parallella beräkningskraften hos en GPU, kan vi generera ett rörformat mesh som följer en förutbestämd bana. Resultatet från projektet är ett open source-plugin för UE, som kan generera rörformad geometri i höga hastigheter. Även om det inte kan visas ge några större fördelar när man genererar mindre modeller, jämfört med en sekventiell implementering, skapar och renderar implementeringen av compute Shaders modeller > 40× snabbare, när de genererar 106 rörsegment. I och med att den större delen av datan skapas på GPU kan vi också undvika den flaskhals som kan uppstå när vi överskrider bandbredden mellan CPU och GPU. Med hjälp av verktyget som skapats i samband med denna uppsats kan människor lättare utforska informationsvisualisering i VE. Dessutom främjar denna uppsats utökad utveckling av mesh-generering med hjälp av compute shaders i UE.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Saavedra, Cayan Atreio Portela Bárcena. „Um aplicativo shiny para modelos lineares generalizados“. Universidade de São Paulo, 2018. http://www.teses.usp.br/teses/disponiveis/11/11134/tde-22012019-174209/.

Der volle Inhalt der Quelle
Annotation:
Recentes avanços tecnológicos e computacionais trouxeram alternativas que acarretaram em mudanças na forma com que se faz análises e visualizações de dados. Uma dessas mudanças caracteriza-se no uso de plataformas interativas e gráficos dinâmicos para a realização de tais análises. Desta maneira, análises e visualizações de dados não se limitam mais a um ambiente estático, de modo que, explorar a interatividade pode possibilitar um maior leque na investigação e apresentação dos dados. O presente trabalho tem como objetivo propor um aplicativo interativo, de fácil uso e interface amigável, que viabilize estudos, análises descritivas e ajustes de modelos lineares generalizados. Este aplicativo é feito utilizando o pacote shiny no ambiente R de computação estatística com a proposta de atuar como ferramenta de apoio para a pesquisa e ensino da estatística. Usuários sem afinidade em programação podem explorar os dados e realizar o ajuste de modelos lineares generalizados sem digitar uma linha código. Em relação ao ensino, a dinâmica e interatividade do aplicativo proporcionam ao aluno uma investigação descomplicada de métodos envolvidos, tornando mais fácil a assimilação de conceitos relacionados ao tema.
Recent technological and computational advances have brought alternatives that have led to changes in the way data analyzes and visualizations are done. One of these changes is characterized by the use of interactive platforms and dynamic graphics to carry out such analyzes. In this way, data analyzes and visualizations are no longer limited to a static environment, so exploring this dynamic interactivity can enable a wider range of data exploration and presentation. The present work aims to propose an interactive application, easy to use and with user-friendly interface, which enables studies and descriptive analysis and fit generalized linear models. This application is made using the shiny package in the R environment of statistical computing. The purpose of the application is to act as a support tool for statistical research and teaching. Users with no familiarity in programming can explore the data and perform the fit of generalized linear models without typing a single code line. Regarding teaching, the dynamics and interactivity of the application gives the student an uncomplicated way to investigate the methods involved, making it easier to assimilate concepts related to the subject.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Gadbem, Edgar Vilela 1984. „Representação de plantas para renderização em tempo real“. [s.n.], 2011. http://repositorio.unicamp.br/jspui/handle/REPOSIP/275709.

Der volle Inhalt der Quelle
Annotation:
Orientador: Hélio Pedrini
Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação
Made available in DSpace on 2018-08-20T03:30:59Z (GMT). No. of bitstreams: 1 Gadbem_EdgarVilela_M.pdf: 11643474 bytes, checksum: 35e2467fd623d01bf07083e515dec67c (MD5) Previous issue date: 2011
Resumo: Com a crescente capacidade gráfica de computadores e outros equipamentos eletrônicos como celulares e videogames, cenas interativas que demandam alto grau de realismo têm se tornado cada vez mais frequentes, sejam em jogos ou em ambientes de realidade virtual. Com uma considerável complexidade, as plantas apresentam um desafio em tais cenas. Devido aos avanços nas técnicas de simulação do crescimento de plantas, obtidos com a aplicação de conhecimentos de botânica nessas simulações, a geração de modelos detalhados de plantas tornou-se possível. Entretanto, estes modelos apresentam uma grande quantidade de triângulos em sua representação. Com a estrutura complexa das plantas, técnicas tradicionais de simplificação de modelos não produzem bons resultados, por isso, vários estudos foram feitos para a criação de técnicas de representação e simplificação específicas para plantas, em busca de manter o realismo e ganhar em desempenho. Este trabalho avalia um conjunto de técnicas de representação com o intuito de combiná-las em uma abordagem mista que proporcione um melhor resultado visual em comparação com a aplicação individual dessas técnicas, bem como oferece melhorias frente aos avanços das placas gráficas e identifica situações de uso de cada técnica com base na estrutura particular de diferentes espécies de plantas. O trabalho apresenta uma estrutura de dados, organizada em ramos e nós terminais, para facilitar a renderização em tempo real dos modelos das plantas em cenas por meio da aplicação das técnicas abordadas
Abstract: Due to the increasing graphical capabilities of computers and other electronic devices such as cell phones and video games, interactive scenes that require a high degree of realism have become more often, for instance, in games or virtual reality environments. With a considerable complexity, representation of plants is a challenging task in such scenes. Due to advances in simulation techniques for plant growth, obtained by applying knowledge of botany in the simulations, the generation of detailed models of plants became possible. However, these models contain a large number of triangles in their representation. As a consequence of the complex structure of plants, traditional simplification techniques of models do not produce good results, therefore, several studies have been conducted to create techniques for plant representation and simplification with proper balance between realism and performance. This work analyzes a set of representation techniques in order to combine them into a mixed approach that provides better visual results compared to the individual application of these techniques. It also offers improvements through the advances of graphics units and identifies scenarios for each technique based on the particular structure of different plant species. The work presents a data structure, organized into branches and terminal nodes, to facilitate real-time rendering of plant models in scenes with the application of the discussed techniques
Mestrado
Ciência da Computação
Mestre em Ciência da Computação
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Torres, Daniel Seidenberger. „Simulador pediátrico InCor: desenvolvimento de um modelo hidráulico do sistema circulatório pediátrico com ajustes automatizados de pressões“. Universidade de São Paulo, 2018. http://www.teses.usp.br/teses/disponiveis/3/3154/tde-27082018-150622/.

Der volle Inhalt der Quelle
Annotation:
Os dispositivos de assistência ventricular (DAVs) podem ser utilizados para a estabilização hemodinâmica de pacientes à espera do transplante cardíaco. Os avanços nas tecnologias e a utilização de materiais biocompatíveis vem contribuindo para o desenvolvimento de dispositivos com dimensões reduzidas e menor trauma ao sangue. A avaliação do desempenho desses dispositivos demanda a utilização de simuladores hidráulicos do sistema circulatório que reproduzam as pressões e fluxos existentes nas condições fisiológicas de interesse. Este trabalho tem como objetivo o desenvolvimento de um simulador da circulação pediátrica com ajustes automatizados de pressões. O simulador é composto por um circuito hidráulico modelando os laços sistêmico e pulmonar e um sistema microcontrolado com uma interface de usuário para medição e visualização dos fluxos e pressões ventriculares e automatização dos ajustes das pressões arteriais aórtica e pulmonar (PAo, PAP) e das pressões atriais esquerda e direita (PAE, PAD). Duas bombas pulsáteis com 15 ml de volume de ejeção são utilizadas para modelar os comportamentos mecânicos dos ventrículos esquerdo e direito. As complacências da aorta e da artéria pulmonar e as pré-cargas dos ventrículos são simuladas por câmaras com volumes ajustáveis de ar e líquido (análogo sanguíneo) utilizando uma bomba de ar. As resistências hidráulicas dos laços são ajustadas por oclusores motorizados. Os sinais instantâneos dos fluxos de entrada e saída dos DAVs e das pressões arteriais, atriais e ventriculares são obtidos por transdutores e digitalizados em um microcontrolador que comanda os oclusores e a bomba de ar. Foram desenvolvidos algoritmos para ajustes das resistências, complacências e pré-cargas. Uma interface gráfica de usuário apresenta os sinais em tempo real (ou gravados) permitindo a escolha dos parâmetros e condições de simulação. O desempenho do sistema de automatização foi avaliado nas simulações de: 1) condições definidas pelo aplicativo da interface e 2) condições fisiológicas (normal e redução na contratilidade do miocárdio). No modelo hidráulico sistêmico as pressões foram ajustadas em ambas as situações com erro máximo de 0,5% para a PAo e 5% para a PAE em aproximadamente 80 segundos. No modelo completo da circulação o erro máximo para as simulações de condições fisiológicas foi de 4% para as pressões arteriais e 5% para as atriais. Os resultados obtidos demonstram que o simulador desenvolvido permite reproduzir adequadamente as características da circulação pediátrica essenciais para a avaliação do desempenho de dispositivos de assistência mecânica. O simulador é portátil, de fácil utilização e pode ser utilizado como ferramenta didática ou para o treinamento de profissionais da saúde envolvidos em assistência a pacientes com suporte circulatório.
Ventricular assist devices (VADs) can be used for the hemodynamic stabilization of patients waiting for heart transplantation. Advances in the technologies and the use of biocompatible materials have contributed to the development of devices with reduced dimensions and blood trauma. Evaluation of the performance of these devices demands the use of hydraulic simulators of the circulatory system that reproduce pressures and flows existing in physiological conditions of interest. This work aims to develop a simulator of the pediatric circulation with automated adjustments of pressures. The simulator consists of a hydraulic circuit modeling the systemic and pulmonary branches and a microcontrolled system with a user interface for monitoring flows and ventricular pressures, and automating adjustments of aortic and pulmonary arterial pressures (AoP, PAP) and left and right atrial pressures (LAP, RAP). Two pulsatile pumps with 15 ml ejection volume are used to model the mechanical behavior of the left and right ventricles. Aortic and pulmonary arterial compliances and preloads of the ventricles are simulated by chambers with adjustable volumes of air and fluid (blood analog) using an air pump. Motorized clamps adjust the hydraulic resistances of the loops. Instantaneous signals of VAD input and output flows and of arterial, atrial and ventricular pressures are obtained by transducers and digitalized in a microcontroller that commands the clamps and the air pump. Algorithms were developed to adjust the resistances, compliances and preloads. A graphical user interface displays signals in real time (or recorded) and allows selection of simulation parameters. The performance of the automation system was tested setting pressures in two situations: 1) simulations of random conditions defined by the interface software and 2) simulations of physiological conditions (normal and low myocardial contractility). In the systemic model, the pressures were adjusted in both cases (maximum error of 0.5% for AoP and 5% for LAP) in approximately 80 seconds. In the complete model, the maximum error for simulations of physiological conditions was 4% for arterial pressures and 5% for atrial pressures. The results obtained demonstrate that the simulator developed allows mimicking the relevant features of the systemic and pulmonary branches of the circulation needed to assess the performance of mechanical circulatory assist devices. The simulator is portable, easy to operate and can be applied in teaching and training of health professionals working with mechanical circulatory support of patients.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Gonçalves, André de Freitas. „Avaliação de território e coremática. Aplicação ao município de São Paulo“. Universidade de São Paulo, 2012. http://www.teses.usp.br/teses/disponiveis/8/8136/tde-10122012-121403/.

Der volle Inhalt der Quelle
Annotation:
Em um período no qual as transformações ocorrem de maneira acelerada, com a atuação de um número cada vez maior de atores, bem como de processos gerais que refletem direta ou indiretamente nas dinâmicas locais, é preciso encontrar instrumentos de análise capazes de auxiliar na compreensão desse contexto. Mesmo sabendo que os eventos globais influenciam fortemente o local, cada vez mais as escalas menores têm adquirido mais e maiores responsabilidades, pois é no local onde as desigualdades sociais e espaciais aparecem de forma explícita. As características do período contemporâneo nos impõem o desafio de pensar e renovar as técnicas de análise. Considerando que uma das dimensões da sociedade é o espaço geográfico, e que o bom entendimento da realidade presente passa pela avaliação de nossos territórios, acreditamos pertinente o uso da avaliação de território e da coremática como formas de executar essa tarefa. Entendidos como instrumentos teórico-metodológicos, a avaliação de território e a coremática fazem parte do esforço de compreender a realidade contemporânea, emergidos da necessidade de conhecer melhor, de forma mais clara e objetiva a organização do espaço geográfico, a dinâmica territorial, como também realizar, por meio de critérios e parâmetros, uma avaliação da situação de determinado espaço. Essas técnicas de análise têm a mesma origem teórica e se complementam mutuamente. Tiveram suas primeiras formulações feitas por Roger Brunet, que liderava um grupo de geógrafos franceses que desenvolveram uma série de trabalhos e, assim, puderam aprimorá-las teórica e metodologicamente. Demonstraremos seu uso ao aplicarmos a metodologia na análise do município de São Paulo.
In a period where the changes occur at an accelerated way, operating a growing number of actors and the general processes that directly or indirectly reflect the local dynamics, we need to find analytical tools that can assist in understanding these changes. Even though global events strongly influence the location, increasingly smaller scales have greater responsibilities, because it is the place where the social and spatial inequalities appear explicitly. The characteristics of the contemporary period imposes us to the challenge of thinking and renew the technical analysis. Whereas the dimensions of a society is the geographical space, and good understanding of current reality involves the evaluation of our territories, we believe to be pertinent using the appropriate evaluation of territory and coremática as a way to achieving this task. Understood as theoretical methodological tools, the evaluation of territory and coremática are part of efforts to comprehend the contemporary reality, emerged from the need to better understand, more clearly and objectively, the organization of geographical space and the territorial dynamic and be able to, by means of criteria and parameters, an evaluation of the situation of a certain space. These analysis techniques have the same theoretical source and they complement each other. Their first formulations were composed by Roger Brunet, who led a group of French geographers who developed a series of investigations and therefore could improve them theoretically and methodologically. We will validate its use by applying the methodology in the analysis of São Paulo City.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Marturelli, Leandro Schaeffer. „Fluxo do Vetor Gradiente e Modelos Deformáveis Out-of-Core para Segmentação e Imagens“. Laboratório Nacional de Computação Científica, 2006. http://www.lncc.br/tdmc/tde_busca/arquivo.php?codArquivo=9.

Der volle Inhalt der Quelle
Annotation:
Limitações de memória principal podem diminuir a performance de aplicativos de segmentação de imagens para grandes volumes ou mesmo impedir seu funcionamento. Nesse trabalho nós integramos o modelo das T-Superfícies com um método de extração de iso-superfícies Out-of-Core formando um esquema de segmentação para imagens de grande volume. A T-Superficie é um modelo deformável paramétrico baseado em uma triangulação do domínio da imagem, um modelo discreto de superfície e um threshold da imagem. Técnicas de extração de isso-superfícies foram implementadas usando o método Out-of-Core que usa estruturas kd-tree, chamadas técnicas de Meta-Células. Usando essas técnicas, apresentamos uma versão Out-of-Core de um método de segmentação baseado nas T-Superfícies e em iso-superfícies. O fluxo do Vetor Gradiente (GVF) é um campo vetorial baseado em equações diferenciais parciais. Esse método é aplicado em conjunto com o modelo das Snakes para segmentação de imagens através de extração de contorno. A idéia principal é usar uma equação de difusão-reação para gerar um novo campo de força externa que deixa o modelo menos sensível a inicialização e melhora a habilidade das Snakes para extrair bordas com concavidades acentuadas. Nesse trabalho, primeiramente serão revistos resultados sobre condições de otimização global do GVF e feitas algumas considerações numéricas. Além disso, serão apresentadas uma análise analítica do GVF e uma análise no domínio da frequência, as quais oferecem elementos para discutir a dependência dos parâmetros do modelo. Ainda, será discutida a solução numérica do GVF baseada no método de SOR. Observamos também que o modelo pode ser estendido para Domínios Multiplamente Conexos e aplicamos uma metodologia de pré-processamento que pode tornar mais eficiente o método.
Main memory limitations can lower the performance of segmentation applications for large images or even make it undoable. In this work we integrate the T-Surfaces model and Out-of-Core isosurface generation methods in a general framework for segmentation of large image volumes. T-Surfaces is a parametric deformable model based on a triangulation of the image domain, a discrete surface model and an image threshold. Isosurface generation techniques have been implemented through an Out-of-Core method that uses a kd-tree structure, called Meta-Cell technique. By using the Meta-Cell framework, we present an Out-of-Core version of a segmentation method based on T-Surfaces and isosurface extraction. The Gradient Vector Flow (GVF) is an approach based on Partial Differential Equations. This method has been applied together with snake models for image segmentation through boundary extraction. The key idea is to use a diffusion-reaction PDE in order to generate a new external force field that makes snake models less sensitivity to initialization as well as improves the snakes ability to move into boundary concavities. In this work, we firstly review basic results about global optimization conditions of the GVF and numerical considerations of usual GVF schemes. Besides, we present an analytical analysis of the GVF and a frequency domain analysis, which gives elements to discuss the dependency from the parameter values. Also, we discuss the numerical solution of the GVF based in a SOR method. We observe that the model can be used for Multiply Connected Domains and applied an image processing approach in order to increase the GVF efficiency.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Monteiro, Leandro de Pinho. „Soluções numericas em um modelo de tecidos baseado na superficie de Cosserat“. [s.n.], 2008. http://repositorio.unicamp.br/jspui/handle/REPOSIP/260029.

Der volle Inhalt der Quelle
Annotation:
Orientador: Wu Shin-Ting
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e Computação
Made available in DSpace on 2018-08-12T07:57:07Z (GMT). No. of bitstreams: 1 Monteiro_LeandrodePinho_M.pdf: 2175636 bytes, checksum: 41d333af4978e00fcca508aa92a49e03 (MD5) Previous issue date: 2008
Resumo: Atualmente, os modelos físicos são amplamente utilizados em simulações computacionais de vestuários e tecidos em geral. Eles podem ser divididos em duas abordagens: mecânica de partículas e mecânica de contínuos. A mecânica de partículas é hoje a abordagem mais utilizada, possuindo vantagens como a simplicidade da formulação e um bom desempenho computacional. Já a mecânica de contínuos é reconhecida por ser a abordagem mais precisa sob o ponto de vista físico, porém tem um alto custo computacional. Muitas vezes, o baixo desempenho da mecânica de contínuos está relacionado à solução numérica utilizada para obter diferentes estados do tecido ao longo do tempo, em decorrência da sua solução demandar resolução de sistemas de equações de um grande número de variáveis. As soluções encontradas na literatura são técnicas de elementos finitos ou de diferenças finitas, com integração semi-implícita ou implícita, todas com uma complexidade computacional não linear. Desta forma, este trabalho visa analisar a adequabilidade de utilizar métodos explícitos, que tem um comportamento linear, em um modelo físico fundamentado na teoria de superfície de Cosserat, cujos autores provam que ele consegue produzir dobras sob forças de compressão. Discretizando espacialmente este modelo com a técnica das diferenças finitas, métodos explícitos são avaliados para solucionar as equações diferenciais ordinárias resultantes. Com base nestas avaliações, foi selecionado o método de Verlet e implementado um simulador da dinâmica de malhas retangulares provido de uma interface gráfica interativa. Isso viabilizou uma validação prática do modelo, demonstrando a sua superioridade na produção de dobras em relação aos outros modelos existentes.
Abstract: Currently, physics-based models are frequently used for cloth simulations. There are basically two approaches: particle mechanics and continuum mechanics. The particle mechanics is at the present time the most widely used method, having some advantages like an easy formulation and a high performance. The continuum mechanics is regarded as being a more precise approach, but it has a high computational cost. This low performance is mostly owing to the numerical solution that obtains cloth states along the time, because its formulation is based involves a large number of variables. The solutions found in the literature are the finite element and the finite differences techniques, with the semi-implicit and implicit integration. They possess a non linear computational complexity. So, this work aims to analyze the suitability of application of an explicit integration technique, that has a linear behavior, to a cloth model founded on the theory of Cosserat surface, whose authors claim to have proved it can produce natural folds under pure compression forces. Based on this evaluation, the Verlet method was selected and a rectangular mesh dynamics simulator with an interactive graphics interface has been implemented. This permits a practice validation of the cloth model, showing its superiority on production of folds compared with the other models.
Mestrado
Engenharia de Computação
Mestre em Engenharia Elétrica
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Raminelli, Jaqueline Aparecida. „Métodos de adequação e diagnóstico em modelos de sobrevivência dinâmicos“. Universidade de São Paulo, 2016. http://www.teses.usp.br/teses/disponiveis/11/11134/tde-03052016-164950/.

Der volle Inhalt der Quelle
Annotation:
A análise de dados de sobrevivência tem sido tradicionalmente baseada no modelo de regressão de Cox (COX, 1972). No entanto, a suposição de taxas de falha proporcionais assumida para esse modelo pode não ser atendida em diversas situações práticas. Essa restrição do modelo de Cox tem gerado interesse em abordagens alternativas, dentre elas os modelos dinâmicos que permitem efeito das covariáveis variando no tempo. Neste trabalho, foram revisados os principais modelos de sobrevivência dinâmicos com estrutura aditiva e multiplicativa nos contextos não paramétrico e semiparamétrico. Métodos gráficos baseados em resíduos foram apresentados com a finalidade de avaliar a qualidade de ajuste desses modelos. Uma versão tempo-dependente da área sob a curva ROC, denotada por AUC(t), foi proposta com a finalidade de avaliar e comparar a qualidade de predição entre modelos de sobrevivência com estruturas aditiva e multiplicativa. O desempenho da AUC(t) foi avaliado por meio de um estudo de simulação. Dados de três estudos descritos na literatura foram também analisados para ilustrar ou complementar os cenários que foram considerados no estudo de simulação. De modo geral, os resultados obtidos indicaram que os métodos gráficos apresentados para avaliar a adequação dos modelos em conjunto com a AUC(t) se constituem em um conjunto de ferramentas estatísticas úteis para o próposito de avaliar modelos de sobrevivência dinâmicos nos contextos não paramétrico e semiparamétrico. Além disso, a aplicação desse conjunto de ferramentas em alguns conjuntos de dados evidenciou que se, por um lado, os modelos dinâmicos são atrativos por permitirem covariáveis tempo-dependentes, por outro lado podem não ser apropriados para todos os conjuntos de dados, tendo em vista que estimação pode apresentar restrições para alguns deles.
Analysis of survival data has been traditionally based on the Cox regression model (COX, 1972). However, the proportionality of the hazards required by this model may not be attended for many practical situations. This restriction of the Cox model has generated interest in alternative approaches, among them dynamic models that allow covariates with time-varying effect. In this work, the main dynamic survival models with additive and multiplicative structures were revised under the nonparametric and semiparametric settings. Graphical methods based on residuals were presented in order to evaluate the goodness-of-fit of these models. A time-dependent version of the area under the ROC curve, denoted by AUC(t), was proposed to evaluate and compare the predictive accuracy of additive and multiplicative survival models. The performance of the AUC(t) was evaluated by means of a simulation study. Data from three studies described in the literature were also analyzed to illustrate or complement the scenarios that were considered in the simulation study. Overall, the results indicate that the graphical methods presented to assess the goodness-of-fit of the models together with the AUC(t) provide a useful set of statistics tools for the purpose of evaluating dynamic survival models in the nonparametric and semiparametric settings. Moreover, applying this set of tools in some data sets showed that on the one hand dynamic models are attractive because they allow time-dependent covariates, but on the other hand they may not be appropriate for all data sets since estimation may present restrictions for some of them.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Moreno, Vilson. „Concepção e implementação de um modelo de coordenação para uma plataforma de visualização exploratória“. Universidade de São Paulo, 2006. http://www.teses.usp.br/teses/disponiveis/55/55134/tde-23012007-163303/.

Der volle Inhalt der Quelle
Annotation:
Técnicas de Visualização Exploratória acopladas a estratégias de interação podem ser muito úteis para apoiar processos de descoberta de conhecimento a partir de dados. Múltiplas visualizações de um mesmo conjunto de dados permitem observá-lo sob várias perspectivas, bem como explorar os pontos fortes e minimizar o efeito dos pontos fracos de técnicas específicas. Nesse contexto, é interessante que as múltiplas visualizações estejam coordenadas de forma que ações de interação executadas pelo usuário sobre uma delas possam ser propagadas para as demais durante as etapas exploratórias. Um aspecto complexo do projeto de ferramentas de visualização é justamente como acoplar representações visuais e controles interativos de maneira flexível. Esse projeto de mestrado abordou a concepção e implementação de um modelo de coordenação de ações capaz de tratar a coordenação entre múltiplas visualizações de forma genérica e flexível. Para isso, foram estudados alguns modelos de coordenação descritos na literatura e utilizados em Sistemas de Visualização de uso geral. O modelo proposto foi implementado no InfoVis, uma plataforma de software extensível que incorpora múltiplas técnicas de visualização exploratória, em desenvolvimento no ICMC-USP
Exploratory Visualization techniques in association with interaction techniques provide useful tools to support knowledge discovery processes from raw data. Multiple visualizations of the same data set allows users to observe the data from multiple perspectives, so as to make the most of the strengths of each technique, while minimizing their weaknesses. In this context, in exploratory processes it is interesting to coordinate the multiple visualizations, so that user interaction actions on one visualization are reflected in the remaining ones, thus reducing the cognitive load on the user. A complex aspect in the project of visualization tools is how to connect visual representations and interactive controls in a flexible way. This work approaches the conception and implementation of a coordination model capable of handling multiple visualizations in a generic and flexible manner. In order to accomplish this, some coordination models described in recent works in the literature and used in multi-purpose Visualization Systems were studied. The proposed model was implemented in InfoVis, an extensible software framework that incorporates multiple exploratory visualization techniques under development at the ICMC-USP
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Bao, Xin. „Sketch-based intuitive 3D model deformations“. Thesis, University of Manchester, 2014. https://www.research.manchester.ac.uk/portal/en/theses/sketchbased-intuitive-3d-model-deformations(2c12a1f9-cf0c-45d1-926e-a5f3db0d5acb).html.

Der volle Inhalt der Quelle
Annotation:
In 3D modelling software, deformations are used to add, to remove, or to modify geometric features of existing 3D models to create new models with similar but slightly different details. Traditional techniques for deforming virtual 3D models require users to explicitly define control points and regions of interest (ROIs), and to define precisely how to deform ROIs using control points. The awkwardness of defining these factors in traditional 3D modelling software makes it difficult for people with limited experience of 3D modelling to deform existing 3D models as they expect. As applications which require virtual 3D model processing become more and more widespread, it becomes increasingly desirable to lower the "difficulty of use" threshold of 3D model deformations for users. This thesis argues that the user experience, in terms of intuitiveness and ease of use, of a user interface for deforming virtual 3D models, can be greatly enhanced by employing sketch-based 3D model deformation techniques, which require the minimal quantities of interactions, while keeping the plausibility of the results of deformations as well as the responsiveness of the algorithms, based on modern home grade computing devices. A prototype system for sketch-based 3D model deformations is developed and implemented to support this hypothesis, which allows the user to perform a deformation using a single deforming stroke, eliminating the need to explicitly select control points, the ROI and the deforming operation. GPU based accelerations have been employed to optimise the runtime performance of the system, so that the system is responsive enough for real-time interactions. The studies of the runtime performance and the usability of the prototype system are conducted to provide evidence to support the hypothesis.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Higa, Mali Naomi. „Determinação do limiar de anaerobiose pela análise visual gráfica e pelo modelo matemático de regressão linear bi-segmentado de Hinkley em mulheres saudáveis“. Universidade de São Paulo, 2006. http://www.teses.usp.br/teses/disponiveis/17/17145/tde-07122006-084132/.

Der volle Inhalt der Quelle
Annotation:
O limiar de anaerobiose (LA) é definido como a intensidade de exercício físico em que a produção de energia pelo metabolismo aeróbio é suplementada pelo metabolismo anaeróbio. Este índice constitui-se de um delimitador fisiológico de grande importância para o fornecimento de informações concernentes aos principais sistemas biológicos do organismo, os quais estão envolvidos na realização de um exercício físico. O LA é um importante parâmetro de determinação da capacidade aeróbia funcional de um indivíduo. Diversos métodos são usados para estimar o LA durante exercício. Existem métodos invasivos, como a medida repetida da concentração de lactato sanguíneo; e métodos não-invasivos, por meio de análise de variáveis biológicas como medidas contínuas dos gases respiratórios, através da análise de mudança do padrão de resposta das variáveis ventilatórias e metabólicas, e também pela análise da mudança do padrão de resposta da freqüência cardíaca (FC) frente a um exercício físico incremental. O objetivo deste estudo foi comparar e correlacionar o LA determinado por métodos não-invasivos de análise visual gráfica das variáveis ventilatórias e metabólicas, considerado como padrão-ouro neste estudo, e pelo modelo matemático de regressão linear bi-segmentado utilizando o algoritmo de Hinkley, aplicado a série de dados de FC (Hinkley – FC) e da produção de dióxido de carbono ( CO2) (Hinkley – CO2). Metodologia: Treze mulheres jovens (24 ± 2,63 anos) e dezesseis mulheres na pós-menopausa (57 ± 4,79 anos), saudáveis e sedentárias realizaram teste ergoespirométrico continuo do tipo rampa em cicloergômetro (Quinton Corival 400), com incrementos de 10 a 20 Watts/min até a exaustão física. As variáveis ventilatórias e metabólicas foram captadas respiração a respiração (CPX-D, Medical Graphics), e a FC batimento a batimento (ECAFIX, ACTIVE-E). Os dados foram analisados por testes não paramétricos de Friedman, Mann-Whitney e correlação de Spearman. Nível de significância de ? = 5%. Resultados: Os valores das variáveis potência (W), FC (bpm), consumo de oxigênio relativo ( O2) (mL/kg/min), O2 absoluto (mL/min), CO2 (mL/min) e ventilação pulmonar ( E) (L/min) no LA não apresentaram diferenças significativas entre as metodologias (p > 0,05) nos dois grupos de mulheres estudadas. A análise de correlação dos valores de potência em W, FC em bpm, O2 em mL/kg/min, O2 em mL/min, CO2 em mL/min e E em L/min, entre o método padrão-ouro com o Hinkley – CO2 foram respectivamente: rs=0,75; rs=0,57; rs=0,48; rs=0,66; rs=0,47 e rs=0,46 no grupo jovem, e rs=-0,013; rs=0,77; rs=0,88; rs=0,60; rs=0,76 e rs=0,80 no grupo pós-menopausa. Os valores de correlação do método padrão-ouro com Hinkley – FC para as variáveis potência em W, FC em bpm, O2 em mL/kg/min, O2 em mL/min, CO2 em mL/min e E em L/min, obtidas no LA foram respectivamente: rs=0,58; rs=0,42; rs=0,61; rs=0,57; rs=0,33 e rs=0,39 no grupo de jovens, e rs=0,14; rs=0,87; rs=0,76; rs=0,52; rs=0,33 e rs=0,65 no grupo pós-menopausa. O grupo pós-menopausa apresentou melhores valores de correlação em relação ao grupo de jovens, exceto para as variáveis potência e consumo de oxigênio absoluto (mL/min). Este fato pode estar relacionado a uma maior taxa de variação e magnitude das variáveis analisadas em indivíduos jovens em relação aos de meia-idade, sendo, desta forma, obtida melhor adequação do modelo matemático estudado em mulheres de meia idade. Conclusão: O algoritmo matemático de Hinkley proposto para detectar a mudança no padrão de resposta da CO2 e da FC foi eficiente nos indivíduos de meia-idade, portanto, a metodologia matemática utilizada no presente estudo constitui-se de uma ferramenta promissora para detectar o LA em mulheres saudáveis, por ser um método semi-automatizado, não invasivo e objetivo na determinação do LA.
The anaerobic threshold (AT) is defined as the intensity level of physical exercise at which energy production by aerobic metabolism is supplemented by anaerobic metabolism. This index provides a physiologic delimitation of great importance to supply the organism biological systems information involved in physical exercise performance. The AT constitutes a most important determining of an individuals functional aerobic capacity. Several methods are used for estimating the AT during exercise. There are invasive methods that require repeated blood lactate accumulation; and there exist non-invasive methods by biological variables analysis, like continuous respiratory gases determination by analysis of changes in pattern respiratory and metabolic responses, and heart rate (HR) responses too. The aim of the present study was to compare AT obtained by a graphic visual method of ventilatory and metabolic variables, considered by gold standard method in the present study, with the bi-segmental linear regression mathematic model of Hinkley’s algorithm applied in a HR (Hinkley – HR) and carbon dioxide output ( CO2) (Hinkley – CO2) data. Methodology: Thirteen young women, 24 ± 2,63 years old, and sixteen postmenopausal women, 57 ± 4,79 years old, leading healthy and sedentary life style were submitted to an incremental test in a cicloergometer electromagnetic braking (Quinton Corival 400), with 10 to 20 W/min increments up to physical exhaustion. The ventilatory variables were registered breath-to-breath (CPX-D, Medical Graphics) and HR was obtained beat-to-beat (ECAFIX, ACTIVE-E), over real time. The data were analyzed by Friedman’s test and Spearman’s correlation test, with a level of significance set at 5%. Results: The Power output (W), HR (bpm), oxygen uptake ( O2) (mL/kg/min), O2 (mL/min), CO2 (mL/min) and pulmonary ventilation ( E) (L/min) data in AT have showed no significant differences (p > 0,05) between methods to determine AT in both women groups. The correlation analysis of power output in W, HR in bpm, O2 in mL/kg/min, O2 in mL/min, CO2 in mL/min and E in L/min values, determined by gold standard method and by Hinkley – CO2 data were respectively: rs=0,75; rs=0,57; rs=0,48; rs=0,66; rs=0,47 and rs=0,46 in young group, and rs=-0,013; rs=0,77; rs=0,88; rs=0,60; rs=0,76 and rs=0,80 in postmenopausal group. The correlation analysis by gold standard method and Hinkley – FC in AT of power output in W, HR in bpm, O2 in mL/kg/min, O2 in mL/min, CO2 in mL/min and E in L/min data were respectively: rs=0,58; rs=0,42; rs=0,61; rs=0,57; rs=0,33 and rs=0,39 in young group, and rs=0,14; rs=0,87; rs=0,76; rs=0,52; rs=0,33 and rs=0,65 in postmenopausal group. The postmenopausal group presents better correlations values than young group, except in power output and O2 (mL/min) data. This may be related to more variability rate and higher kinetics responses to variables studied in young group in relation to postmenopausal group. Nevertheless, there was obtained better mathematical model adequacy in middle-age women. Conclusion: the Hinkley’s mathematical algorithm proposed to detect the response patterns changes of CO2 and HR variables was efficient to detect AT in health postmenopausal women’s group, therefore, the mathematical methodology used in the present study showed be a promissory tool because this method represent a semi-automatized, non invasive and objective measure of AT determination.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Dannecker, Lars. „Visualisierung von Service-Frontends in einem Werkzeug zur präsentationsorientierten Komposition annotierter Dienste“. Master's thesis, Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2010. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-25352.

Der volle Inhalt der Quelle
Annotation:
Das Ziel des ServFace Projektes ist es Endnutzern ohne umfangreiche IT-Kenntnisse das einfache Erstellen von servicebasierten Anwendungen zu ermöglichen. Dazu wird ein Kompositions- werkzeug mit dem Namen “ServFace Builder“ verwendet. Das Werkzeug erlaubt es Endnutzern, interaktive Anwendungen durch die Komposition von Service-Operationen zu erstellen. Dafür ist eine grafische Repräsentation der Service-Operationen durch UI-Fragmente notwendig. Die UI-Fragmente werden im ServFace-Umfeld als Frontends bezeichnet. In der vorliegenden Arbeit wird ein Konzept zur automatischen Visualisierung dieser Frontends vorgestellt. Um das Ergebnis der Visualisierung zu verbessern, nutzt der Visualisierungsprozess neben der Service-Beschreibung weitere Informationen in Form von Annotationen und Gestaltungsempfehlungen. Konkret werden die folgenden Aspekte in dieser Arbeit beschrieben: • Visualisierung von Frontends zur Repräsentation von Service-Operationen auf Basis von Service-Beschreibungen, Annotationen, Plattformspezifikationen und Gestaltungsempfehlungen unter der Maßgabe der Gebrauchstauglichkeit und Nutzbarkeit. • Integration der Frontends in die jeweils aktuelle Instanzen des gegebenen Anwendungsmodells. • Technische Umsetzung und Evaluation der entwickelten Konzepte
The aim of the ServFace Project is to enable users with limited IT skills to easily create service-based applications. In order to do so, a tool called "ServFace Builder" has been developed. This tool allows users to build a composite application by combining several service operations. An important part of the ServFace Builder is the graphical representation of those service operations through user interfaces. This thesis describes an approach to automatically generate user interfaces for service operations. To enhance the graphical representation, the user interface generation process of the ServFace Builder comprises annotations and design recommendations next to the common service descriptions to enhance the result of the generation process. This thesis discusses: • Graphical representation of service operations on the basis of service descriptions, annotations, plattform specifications and design recommendations. • Integration of the graphical representation into the actual instance of the given application model. • Implementation and evaluation of the presented concepts
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Castro, Thiago Rais de. „Proposta de um modelo para projetos lógicos gráficos para BDOR com implementação no ArgoUML“. Universidade de São Paulo, 2011. http://www.teses.usp.br/teses/disponiveis/3/3141/tde-01062011-131450/.

Der volle Inhalt der Quelle
Annotation:
Investigou-se neste trabalho a proposta de um Modelo Lógico Gráfico para suporte à fase do Projeto Lógico em BDORs. O Modelo Lógico Gráfico proposto é uma extensão da UML para o Diagrama de Classes. A extensão deu-se por meio da elaboração de um Perfil UML, o qual foi disponibilizado em XMI para ser empregado em ferramentas CASE de diferentes fabricantes. Desenvolveu-se dois módulos para a ferramenta CASE ArgoUML. Esses módulos têm por finalidade a automação do desenvolvimento em BDORs, onde, a partir de um esquema gráfico, projetado utilizando-se o Modelo Lógico Gráfico proposto, gera-se código no padrão da SQL:2003 e no dialeto SQL utilizado pelo Oracle 11g. Foi proposta uma arquitetura baseada na ANSI/SPARC e na MDA para o projeto em BDORs que relaciona as fases do Projeto com as tecnologias empregadas para suportá-las. Por meio dessa arquitetura, destacam-se os pontos onde houve contribuição deste trabalho e os pontos que serão alvos de futuras pesquisas. Esta dissertação difunde os recursos existentes em BDORs e facilita a elaboração do Projeto Lógico em BDORs ao disponibilizar o modelo gráfico proposto e ao automatizar seu desenvolvimento na ferramenta CASE ArgoUML.
A Logical Graphic Model was proposed to support the Logical Design phase in ORDB. The Logical Graphic Model proposed is an extension of the UML Class Diagram. The extension was obtained by the elaboration of a UML Profile, which was released in XMI to be used in CASE tools from different manufacturers. Two modules were developed for ArgoUML CASE tool. These modules were designed to automate the development in ORDB, where, from a logical graphic, projected using the proposed Logical Graphic Model, creates the code standard SQL: 2003 and the SQL dialect used by Oracle 11g. An architecture based on the ANSI / SPARC and MDA for the project in ORDBs was proposed. This architecture associates the Project phases with the technologies used to support them. Through this architecture, the contributions of this paper and the subjects that will be target for future researches are highlighted. This dissertation diffuses the existing resources in ORDBs and facilitates the development of the Logical Design in ORDB, by disposing the proposed graphic model and automating its development in the ArgoUML CASE tool.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Ferreira, Bruno Leite. „O que sabem sobre as curvas cônicas? : uma possível leitura para o processo de produção de significado em um grupo de estudos /“. Rio Claro, 2019. http://hdl.handle.net/11449/182512.

Der volle Inhalt der Quelle
Annotation:
Orientador: Rúbia Barcelos Amaral-Schio
Resumo: A presente pesquisa partiu da motivação do seu autor sobre o processo de investigação matemática com estudantes. Entendendo que a Matemática não é produzida do mesmo modo que é apresentada nos livros voltados para o seu estudo, foi intencionado na tese elaborar compreensões sobre o processo de produção de significado para determinadas noções matemáticas em um contexto investigativo de aprendizagem. Desse modo, a pesquisa configurou-se em uma abordagem qualitativa, apoiando-se na Teoria do Modelo dos Campos Semânticos para realizar uma possível leitura desse processo, enfatizando-se a contribuição deste trabalho no diálogo do referencial teórico com o campo da Geometria. Para tal, foi organizado um Grupo de Estudos Independente sobre curvas cônicas composto por quatro estudantes do curso de graduação em Matemática e o pesquisador, autor desta tese de doutorado. Não houve um programa pré-definido, permitindo que os participantes conduzissem as discussões partindo da seguinte pergunta: O que vocês sabem sobre curvas cônicas? Como instrumento de produção de dados, foram utilizadas gravações em vídeo-áudio dos vinte e dois encontros que ocorreram ao longo do ano de 2016, conversas no aplicativo para smartphone WhatsApp (em grupo e em pares) e diários dos participantes. Em consonância com o objetivo, o estilo de escrita da tese adorado como estética buscou evidenciar tanto o processo de produção de conhecimento (matemático) como também o d... (Resumo completo, clicar acesso eletrônico abaixo)
Abstract: The present research is based on the motivation of its author on the mathematical investigation process with students. Understanding that Mathematics is not produced in the same way as it is presented in textbooks, it was intended in elaborating understandings about the producing meaning process for certain mathematical notions in a research context of learning. In this way, the research is framed on a qualitative approach, based on Semantic Field Model Theory to carry out a possible reading of this process, so that the contribution of this work is emphasized in the dialog of the theoretical reference with the Geometry’s field. For that, a Study Group on conic curves was composed by four undergraduate students in Mathematics and the researcher, author of this doctoral thesis. There was no predefined program, allowing participants to conduct the discussions from referrals through the following question: What do you know about conic curves? As a data production tool, video-audio recordings of the twenty-two meetings that took place throughout 2016, conversations in the WhatsApp smartphone application (in group and in pairs) and participants' diaries were used. In agreement with our aim, the text form of the thesis sought to evidence both the process of production of knowledge (mathematical) as well as of scientific knowledge (to do research). The analysis consisted in making a plausible reading of the dynamics of meaning production from the point of view of one of the subjects.... (Complete abstract click electronic access below)
Doutor
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Brandão, Daniel Nicolau. „Métodos de renderização não-fotorrealística“. Universidade Federal de Alagoas, 2008. http://repositorio.ufal.br/handle/riufal/1019.

Der volle Inhalt der Quelle
Annotation:
This dissertation dicusses the main concepts involved in the non-photorealistic rendering techniques and proposes a general scheme to implement such techniques. The work discusses also a non-photorealistic rendering style from line drawing to 3D models presented by Stéphane Grabli et al, in such a way that the line styles are programmable. We also present an implementation from portion of the work of Grabli.
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior
Nesta dissertação são discutidos os principais conceitos envolvidos nas técnicas de renderização não-fotorrelística e propõe um esquema geral para implementação de tais técnicas. É discutido também um estilo de renderização não-fotorrealística de desenhos de linha para modelos 3D apresentado por Stéphane Grabli e colaboradores, cujos estilos de linha sejam programáveis. Também apresentamos uma implementação de parte do trabalho de Grabli.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

SILVA, Wilane Carlos da. „Gerência de Interfaces para Sistemas de Informação: uma abordagem baseada em modelos“. Universidade Federal de Goiás, 2010. http://repositorio.bc.ufg.br/tede/handle/tde/530.

Der volle Inhalt der Quelle
Annotation:
Made available in DSpace on 2014-07-29T14:57:53Z (GMT). No. of bitstreams: 1 wilane_mestrado.pdf: 4461079 bytes, checksum: da62fa9aebf506f095f41942a579aecc (MD5) Previous issue date: 2010-04-16
Building and maintaining a Graphical User Interface (GUI) for Enterprise Information Systems usually requires much Software Engineering staff time and effort. This paper describes a model-driven approach to create dynamically and manage these GUIs. In this approach, the Software Engineer designs conceptual models of the information system using object-oriented meta-models. A set of predefined mapping rules is applied to automatically transform and refine the conceptual models in order to generate, in runtime, the look and feel of the GUI, without source code creation. This improves the software usability, assuring consistency and homogeneity of the GUI, increases the productivity of the software engineering staff and simplifies maintenance. In our experiments we have observed an average productivity fifteen times higher than traditional methods of GUI development.
Construir e manter uma Interface Gráfica com Usuário (GUI) para Sistemas de Informação (SI) demanda muito tempo e esforço da equipe de Engenharia de Software. Esta dissertação descreve uma abordagem dirigida por modelos para criar dinamicamente e gerenciar essas interfaces. Nessa abordagem, o Engenheiro de Software projeta um modelo conceitual do sistema de informação usando um meta-modelo orientado a objetos. Um conjunto de regras de mapeamento predefinidas é aplicado para refinar e transformar o modelo conceitual do SI, gerando, em tempo de execução, a sua interface gráfica, com aparência e comportamentos específicos. Esse mecanismo melhora a usabilidade do software, assegurando consistência e homogeneidade das GUIs, aumenta a produtividade da equipe de Engenharia de Software e simplifica a manutenção do SI. Nos experimentos realizados foi observada uma média de produtividade quinze vezes maior do que os métodos tradicionais no desenvolvimento de GUIs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Bernigau, Holger. „Causal Models over Infinite Graphs and their Application to the Sensorimotor Loop“. Doctoral thesis, Universitätsbibliothek Leipzig, 2015. http://nbn-resolving.de/urn:nbn:de:bsz:15-qucosa-164734.

Der volle Inhalt der Quelle
Annotation:
Motivation and background The enormous amount of capabilities that every human learns throughout his life, is probably among the most remarkable and fascinating aspects of life. Learning has therefore drawn lots of interest from scientists working in very different fields like philosophy, biology, sociology, educational sciences, computer sciences and mathematics. This thesis focuses on the information theoretical and mathematical aspects of learning. We are interested in the learning process of an agent (which can be for example a human, an animal, a robot, an economical institution or a state) that interacts with its environment. Common models for this interaction are Markov decision processes (MDPs) and partially observable Markov decision processes (POMDPs). Learning is then considered to be the maximization of the expectation of a predefined reward function. In order to formulate general principles (like a formal definition of curiosity-driven learning or avoidance of unpleasant situation) in a rigorous way, it might be desirable to have a theoretical framework for the optimization of more complex functionals of the underlying process law. This might include the entropy of certain sensor values or their mutual information. An optimization of the latter quantity (also known as predictive information) has been investigated intensively both theoretically and experimentally using computer simulations by N. Ay, R. Der, K Zahedi and G. Martius. In this thesis, we develop a mathematical theory for learning in the sensorimotor loop beyond expected reward maximization. Approaches and results This thesis covers four different topics related to the theory of learning in the sensorimotor loop. First of all, we need to specify the model of an agent interacting with the environment, either with learning or without learning. This interaction naturally results in complex causal dependencies. Since we are interested in asymptotic properties of learning algorithms, it is necessary to consider infinite time horizons. It turns out that the well-understood theory of causal networks known from the machine learning literature is not powerful enough for our purpose. Therefore we extend important theorems on causal networks to infinite graphs and general state spaces using analytical methods from measure theoretic probability theory and the theory of discrete time stochastic processes. Furthermore, we prove a generalization of the strong Markov property from Markov processes to infinite causal networks. Secondly, we develop a new idea for a projected stochastic constraint optimization algorithm. Generally a discrete gradient ascent algorithm can be used to generate an iterative sequence that converges to the stationary points of a given optimization problem. Whenever the optimization takes place over a compact subset of a vector space, it is possible that the iterative sequence leaves the constraint set. One possibility to cope with this problem is to project all points to the constraint set using Euclidean best-approximation. The latter is sometimes difficult to calculate. A concrete example is an optimization over the unit ball in a matrix space equipped with operator norm. Our idea consists of a back-projection using quasi-projectors different from the Euclidean best-approximation. In the matrix example, there is another canonical way to force the iterative sequence to stay in the constraint set: Whenever a point leaves the unit ball, it is divided by its norm. For a given target function, this procedure might introduce spurious stationary points on the boundary. We show that this problem can be circumvented by using a gradient that is tailored to the quasi-projector used for back-projection. We state a general technical compatibility condition between a quasi-projector and a metric used for gradient ascent, prove convergence of stochastic iterative sequences and provide an appropriate metric for the unit-ball example. Thirdly, a class of learning problems in the sensorimotor loop is defined and motivated. This class of problems is more general than the usual expected reward maximization and is illustrated by numerous examples (like expected reward maximization, maximization of the predictive information, maximization of the entropy and minimization of the variance of a given reward function). We also provide stationarity conditions together with appropriate gradient formulas. Last but not least, we prove convergence of a stochastic optimization algorithm (as considered in the second topic) applied to a general learning problem (as considered in the third topic). It is shown that the learning algorithm converges to the set of stationary points. Among others, the proof covers the convergence of an improved version of an algorithm for the maximization of the predictive information as proposed by N. Ay, R. Der and K. Zahedi. We also investigate an application to a linear Gaussian dynamic, where the policies are encoded by the unit-ball in a space of matrices equipped with operator norm.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Geitner, Gert-Helge. „Modellbildung dynamischer Systeme mittels Leistungsfluß“. Saechsische Landesbibliothek- Staats- und Universitaetsbibliothek Dresden, 2012. http://nbn-resolving.de/urn:nbn:de:bsz:14-qucosa-97096.

Der volle Inhalt der Quelle
Annotation:
Im Beitrag wird zunächst die konventionelle auf Signalflüssen basierte Modellbildung mit modernen leistungsflussbasierten Methoden, die auf dem Prinzip von Aktion und Reaktion aufbauen, verglichen. BG (Bond Graph), POG (Power Oriented Graph) und EMR (Energetic Macroscopic representation) sind solche modernen Methoden die den Leistungsaustausch zwischen Teilsystemen als Grundlage für den Modellbildungsansatz nutzen. Diese Werkzeuge erhalten die physikalische Struktur, erlauben es in das dynamische System hineinzuschauen und unterstützen das Verständnis des Leistungsflusses. Unterschiede werden anhand verschiedener Eigenschaften in einer Tabelle angegeben. Nach Erläuterung der Grundlagen zu POG und BG erfolgt die Vorstellung einer Freeware Zusatzbibliothek zur Simulation von Bondgraphen. Spezielle Eigenschaften werden kurz umrissen. Diese Blockbibliothek läuft unter Simulink, besteht aus nur 9 mittels Menü konfigurierbaren Blöcken und realisiert bidirektionale Verbindungen. Die Beispiele Gleichstrommotor, Pulssteller und elastische Welle demonstrieren die Vorteile der leistungsflussorientierten Modellbildung. Zustandsregelung, Energieeffizienz und Simulink LTI Analysewerkzeuge führen in die Anwendung der vorgestellten Simulink Zusatzbibliothek für Bondgraphen ein
The paper starts with a comparison of the conventional modelling method based on signal flow and modern power flow oriented modelling methods based on the principle of action and reaction. BG (Bond Graph), POG (Power Oriented Graph) and EMR (Energetic Macroscopic representation) are such modern methods based on the power exchange between partial systems as a key element for the basic modelling approach. These tools preserve the physical structure, enable a view inside dynamical systems and support understanding the power flow. Relationships between these graphical representations will be given. After the explanation of basics for POG and BG an overview and special features of a freeware add-on library for simulation of BGs will be outlined. The block library runs under Simulink, consists of nine menu-driven customised blocks only and realises bidirectional connections. Examples DC motor, chopper and elastic shaft demonstrate the advantages of power flow oriented modelling. State space control, energy efficiency and Simulink LTI analysis tools exemplify the application of the presented Simulink add-on BG library
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Jaeger, Marc. „Representation et simulation de croissance des vegetaux“. Université Louis Pasteur (Strasbourg) (1971-2008), 1987. http://www.theses.fr/1987STR13224.

Der volle Inhalt der Quelle
Annotation:
L'image de synthese se heurte a la representation des vegetaux, etres complexes, varies et evolutifs. Le modele developpe ici utilise une modelisation fine de l'architecture des vegetaux a partir de deux approches complemezntaires. La premiere, botanique, decrit les hierarchies et processus intervenant dans l'elaboration de l'architecture des vegetaux: la deuxieme, de nature mathematique, definit l'architecture d'une plante precise par des lois stochastiques de croissance, de viabilite et de ramification des bourgeons. La traduction informatique du modele aboutit a un generateur de vegetaux compose d'un moteur de croissance (qui determine l'evolution topologique de la plante) et de fonctions geometrique (qui definissent les directions de developpement et l'effet de la pesanteur)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Goes, Fernando Ferrari de. „Analise espectral de superficies e aplicações em computação grafica“. [s.n.], 2009. http://repositorio.unicamp.br/jspui/handle/REPOSIP/275916.

Der volle Inhalt der Quelle
Annotation:
Orientador: Siome Klein Goldenstein
Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação
Made available in DSpace on 2018-08-14T02:23:56Z (GMT). No. of bitstreams: 1 Goes_FernandoFerraride_M.pdf: 31957234 bytes, checksum: c369081bcbbb5f360184a1f8467839ea (MD5) Previous issue date: 2009
Resumo: Em computação gráfica, diversos problemas consistem na análise e manipulação da geometria de superfícies. O operador Laplace-Beltrami apresenta autovalores e autofunções que caracterizam a geometria de variedades, proporcionando poderosas ferramentas para o processamento geométrico. Nesta dissertação, revisamos as propriedades espectrais do operador Laplace-Beltrami e propomos sua aplicação em computação gráfica. Em especial, introduzimos novas abordagens para os problemas de segmentação semântica e geração de atlas em superfícies
Abstract: Many applications in computer graphics consist of the analysis and manipulation of the geometry of surfaces. The Laplace-Beltrami operator presents eigenvalues and eigenfuncitons which caracterize the geometry of manifolds, supporting powerful tools for geometry processing. In this dissertation, we revisit the spectral properties of the Laplace-Beltrami operator and apply them in computer graphics. In particular, we introduce new approaches for the problems of semantic segmentation and atlas generation on surfaces
Mestrado
Computação Grafica
Mestre em Ciência da Computação
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Le, Ret Anne. „Programmation hors-ligne : modelisation des composants d'une cellule robotisee, application a la detection de collision“. Paris, ENSAM, 1988. http://www.theses.fr/1988ENAM0004.

Der volle Inhalt der Quelle
Annotation:
Conception du module de modelisation d'une cellule robotisee par la technique de la programmation des robots "hors-ligne". Ce module est divise entre la partie graphique et cinematique pour les composants de la cellule et leur arrangement les uns par rapport aux autres. Etude des problemes de detection de collision rencontres et detection des interferences entre le robot et son environnement d'une part et les objets mobiles (autre que le robot) et l'environnement d'une part et les objets mobiles (autre que le robot) et l'environnement, d'autre part
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Mahdjoubi, Cyrus. „Description et simulation de systemes physiques complexes controles par grafcet“. Rennes, INSA, 1987. http://www.theses.fr/1987ISAR0014.

Der volle Inhalt der Quelle
Annotation:
Etude consacree a la realisation d'un logiciel qui permet de decrire et de simuler des automates logiques representes par le grafcet. Des modules specifiques permettent d'interconnecter des systemes analogiques (pouvant representer des systemes physiques) avec des automatismes logiques decrits par le grafcet (representant des automates de controle) en vue de modeliser et de simuler des systemes hybrides complexes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Valeinis, Janis. „Confidence bands for structural relationship models“. Doctoral thesis, [S.l.] : [s.n.], 2007. http://webdoc.sub.gwdg.de/diss/2007/valeinis.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Geitner, Gert-Helge. „Modellbildung dynamischer Systeme mittels Leistungsfluß“. Technische Universität Dresden, 2009. https://tud.qucosa.de/id/qucosa%3A26149.

Der volle Inhalt der Quelle
Annotation:
Im Beitrag wird zunächst die konventionelle auf Signalflüssen basierte Modellbildung mit modernen leistungsflussbasierten Methoden, die auf dem Prinzip von Aktion und Reaktion aufbauen, verglichen. BG (Bond Graph), POG (Power Oriented Graph) und EMR (Energetic Macroscopic representation) sind solche modernen Methoden die den Leistungsaustausch zwischen Teilsystemen als Grundlage für den Modellbildungsansatz nutzen. Diese Werkzeuge erhalten die physikalische Struktur, erlauben es in das dynamische System hineinzuschauen und unterstützen das Verständnis des Leistungsflusses. Unterschiede werden anhand verschiedener Eigenschaften in einer Tabelle angegeben. Nach Erläuterung der Grundlagen zu POG und BG erfolgt die Vorstellung einer Freeware Zusatzbibliothek zur Simulation von Bondgraphen. Spezielle Eigenschaften werden kurz umrissen. Diese Blockbibliothek läuft unter Simulink, besteht aus nur 9 mittels Menü konfigurierbaren Blöcken und realisiert bidirektionale Verbindungen. Die Beispiele Gleichstrommotor, Pulssteller und elastische Welle demonstrieren die Vorteile der leistungsflussorientierten Modellbildung. Zustandsregelung, Energieeffizienz und Simulink LTI Analysewerkzeuge führen in die Anwendung der vorgestellten Simulink Zusatzbibliothek für Bondgraphen ein.:Modellbildung dynamischer Systeme mittels Leistungsfluß 1. Leistungsfluß versus Signalfluß 2. Konjugierte Leistungsvariablen und Kausalität 3. Grundlagen Leistungsfluß orientierter Modellierung 3.1 Definitionen zum POG (Power Oriented Graph) 3.2 Definitionen zu Grundelementen für Bondgraphen (BG) 4. Freeware Bibliothek zur Simulation von Bondgraphen 4.1 Übersicht und Nutzerfreundlichkeit 4.2 Besonderheiten 5. Beispiele 5.1 Gleichstrommotor mit starrer Welle 5.2 Elastische Welle 5.3 Eingangsfilter und Pulssteller 5.4 Vereinfachter Antriebsstrang 6. Anwendung der Simulink Bondgraph Blockbibliothek 6.1 Beispiel elastische Welle 6.2 Zustandsregelung 6.3 Energieeffizienz 6.4 Simulink Analysewerkzeuge 7. Vorteile im Überblick
The paper starts with a comparison of the conventional modelling method based on signal flow and modern power flow oriented modelling methods based on the principle of action and reaction. BG (Bond Graph), POG (Power Oriented Graph) and EMR (Energetic Macroscopic representation) are such modern methods based on the power exchange between partial systems as a key element for the basic modelling approach. These tools preserve the physical structure, enable a view inside dynamical systems and support understanding the power flow. Relationships between these graphical representations will be given. After the explanation of basics for POG and BG an overview and special features of a freeware add-on library for simulation of BGs will be outlined. The block library runs under Simulink, consists of nine menu-driven customised blocks only and realises bidirectional connections. Examples DC motor, chopper and elastic shaft demonstrate the advantages of power flow oriented modelling. State space control, energy efficiency and Simulink LTI analysis tools exemplify the application of the presented Simulink add-on BG library.:Modellbildung dynamischer Systeme mittels Leistungsfluß 1. Leistungsfluß versus Signalfluß 2. Konjugierte Leistungsvariablen und Kausalität 3. Grundlagen Leistungsfluß orientierter Modellierung 3.1 Definitionen zum POG (Power Oriented Graph) 3.2 Definitionen zu Grundelementen für Bondgraphen (BG) 4. Freeware Bibliothek zur Simulation von Bondgraphen 4.1 Übersicht und Nutzerfreundlichkeit 4.2 Besonderheiten 5. Beispiele 5.1 Gleichstrommotor mit starrer Welle 5.2 Elastische Welle 5.3 Eingangsfilter und Pulssteller 5.4 Vereinfachter Antriebsstrang 6. Anwendung der Simulink Bondgraph Blockbibliothek 6.1 Beispiel elastische Welle 6.2 Zustandsregelung 6.3 Energieeffizienz 6.4 Simulink Analysewerkzeuge 7. Vorteile im Überblick
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Mahboob, Atif, Stephan Husung, Christian Weber, Andreas Liebal und Heidi Krömker. „Modellbasierter Systems Engineering Ansatz zur effizienten Aufbereitung von VR-Szenen“. Thelem Universitätsverlag & Buchhandlung GmbH & Co. KG, 2019. https://tud.qucosa.de/id/qucosa%3A36928.

Der volle Inhalt der Quelle
Annotation:
Ein wesentliches Ziel während der Produktentwicklung ist die frühzeitige Absicherung der Produkteigenschaften auf Basis der definierten Produktmerkmale unter Beachtung der äußeren Randbedingungen. Digitale Modelle und Methoden unterstützen den Produktentwickler bei der frühzeitigen virtuellen Evaluation des Produktes. [...] In diesem Beitrag wird eine Methodik präsentiert, die mit Hilfe der SysML-Modelle eine Simulation in VR ermöglicht. Die SysML-Beschreibung wird als Kern der Simulation dienen und das gesamte Simulationsmodell steuern. Weiterhin wird erläutert, wie die SysML-Beschreibung mit einem VR-Tool und einem Physikberechnungstool verbunden werden kann. Die in CAVE und HMD durchgeführten Simulationen wurden im Rahmen von Usability Tests evaluiert. Aus diesen Tests werden Ergebnisse präsentiert, die sich mit Verwendungsschwerpunkten in VR und der Zufriedenheit bei der Beurteilung von Produkten in VR beschäftigt haben. Schlussendlich wird ein Beispiel-Simulationsszenario in der CAVE-VR und einem Head Mounted Display (HMD) diskutiert. [... aus der Einleitung]
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

HAJHOUJ, MOUAMD. „Programmation hors ligne : emulation des composants d'une cellule robotisee“. Paris, ENSAM, 1988. http://www.theses.fr/1988ENAM0005.

Der volle Inhalt der Quelle
Annotation:
On traite du cas d'une cellule robotisee comportant plusieurs chaines cinematiques. Le module d'execution gene la synchronisation et la communication entr les differentes taches. Le passage au robot reel montre que l'emulation de la commande elimine les erreurs dues a l'utilisation d'algorithmes generaux
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Mendes, Nilton Paulo Raimundo. „Modelo virtual exploratório: proposta de uma ferramenta de vendas para o mercado imobiliário residencial“. Universidade de São Paulo, 2012. http://www.teses.usp.br/teses/disponiveis/3/3146/tde-19112012-094310/.

Der volle Inhalt der Quelle
Annotation:
Analisando-se os ambientes comerciais do setor imobiliário, pode-se verificar a presença frequente de maquetes que hoje fazem parte dos estandes de vendas dos edifícios. As maquetes são peças frágeis, de custo elevado, considerável prazo de execução e têm pequena vida útil, sendo usualmente descartadas no desmonte do estande de vendas. Nos estandes de vendas pode-se encontrar também o apartamento modelo decorado, com custos ainda mais elevados. É nesse ambiente que o MVE (Modelo Virtual Exploratório) se torna importante para os setores da construção e imobiliário, cujos mercados são cada vez mais competitivos, onde há a real necessidade da diminuição dos custos, da diminuição dos prazos de execução e do aumento da qualidade dos produtos. Por se tratar de um importante tema de pesquisa científica, este trabalho propôs o desenvolvimento do MVE para venda imobiliária residencial. O MVE foi modelado com um programa CAD (Computer-Aided Design) / BIM (Building Information Modeling) que se mostrou adequado às exigências levantadas na pesquisa. Avaliou-se o MVE através de estudos de caso em empreendimentos imobiliários reais, com corretores e clientes. Os resultados obtidos mostraram que o MVE pode ser desenvolvido com custo e prazo muito inferiores aos da maquete ou apartamento modelo e que tem grande aceitação tanto pelos profissionais de vendas quanto pelos clientes de empreendimentos imobiliários.
Examining the business environment of the real estate sector, it can be verified the large number of architectural mockups that today are part of real estate points-of-sale. Mockups are fragile, expensive, take considerable time to be made and have a short life span, as they are discarded when the sales booth is decommissioned. In the sales booths, it is also possible to find full size furnished mock-up flats, with even higher costs. In this environment, the MVE (Exploratory Virtual Model) becomes important for the construction and real estate industries, whose markets are increasingly competitive, where there is a real need to reduce costs, to decrease in execution times and to increase product quality. As it is an important topic of scientific research, this paper proposes the MVE development for selling residential real estate property. The MVE was modeled with a CAD (Computer-Aided Design) / BIM (Building Information Modeling) tool which proved adequate to meet requirements raised in the survey. The MVE was evaluated through case studies in real estate ventures with brokers and customers. Results show that MVE can be developed with much lower cost and in shorter time than the architectural mockup or the mock-up flat and that it has very well accepted both by real estate sales professionals and clients.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie