To see the other types of publications on this topic, follow the link: Dose Computation.

Dissertations / Theses on the topic 'Dose Computation'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Dose Computation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Jung, Haejae. "Algorithms for external beam dose computation." [Florida] : State University System of Florida, 2000. http://etd.fcla.edu/etd/uf/2000/ane5955/etd.pdf.

Full text
Abstract:
Thesis (Ph. D.)--University of Florida, 2000.
Title from first page of PDF file. Document formatted into pages; contains xii, 143 p.; also contains graphics. Vita. Includes bibliographical references (p. 140-142).
APA, Harvard, Vancouver, ISO, and other styles
2

Fox, Timothy Harold. "Computation and optimization of dose distributions for rotational stereotactic radiosurgery." Diss., Georgia Institute of Technology, 1994. http://hdl.handle.net/1853/32843.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Inacio, Eloïse. "Méthodes numériques en imagerie médicale pour l'évaluation de dose per-opératoire en ablation par électroporation." Electronic Thesis or Diss., Bordeaux, 2024. http://www.theses.fr/2024BORD0474.

Full text
Abstract:
Alors que l’espérance de vie augmente, le cancer est devenu l’une des principales causes de décès dans le monde. Parmi les cancers les plus difficiles à traiter figurent les tumeurs profondes, qui sont compliquées à soigner en raison de leur emplacement près de structures vitales dans des organes tels que le foie ou le pancréas. Une méthode prometteuse pour traiter ces tumeurs est l’ablation par électroporation, qui utilise des champs électriques pour créer des pores dans les membranes des cellules tumorales. Lorsqu’ils sont appliqués à haute intensité, cela entraîne une électroporation irréversible, conduisant à la mort des cellules sans endommager les structures avoisinantes. Cependant, l’électroporation nécessite une planification précise et une adaptation en temps réel en raison de sa complexité. Cela implique des outils numériques pour analyser les images médicales et estimer la zone de traitement. L’objectif de ce travail est de fournir de tels outils permettant d’analyser les images médicales afin d’estimer, pendant l’opération, la zone de traitement, de manière à ce que le radiologue interventionnel puisse adapter son approche. Plus précisément, nous abordons la localisation des électrodes en introduisant l’apprentissage profond dans le programme existant, ainsi que le recalage des multiples images capturées durant l’intervention avec des conditions aux limites auto-adaptatives innovantes. Ces deux tâches de vision par ordinateur sont cruciales pour une estimation précise du champ électrique et doivent être résolues en quasi-temps réel pour être praticables en contexte clinique. Ces avancées dans la vision par ordinateur et le traitement d’images permettent une estimation plus précise du champ électrique et améliorent l’efficacité globale de la procédure, conduisant à de meilleurs résultats pour les patients atteints de tumeurs profondes
As life expectancy rises, cancer has tragically become one of the world’s leading causes of death. Among the most challenging cancers are deep-seated tumors, which are difficult to treat due to their location in vital organs like the liver or the pancreas. A promising method to tackle these tumors is electroporation ablation, which uses electric fields to create pores in the cell membranes of tumor cells. When applied with high intensity, this results in irreversible electroporation, leading to cell death without damaging nearby structures. However, electroporation requires precise planning and real-time adaptation due to its complexity. This involves numerical tools to analyze medical images and estimate the treatment area. The aim of this work is to provide such tools, analysing medical images, to per-operatively estimate the treatment area so that the interventional radiologists may adapt their approach as they are performing the procedure. More specifically, we tackle the localisation of the electrode by introducing deep learning in the existing pipeline, and the registration of the multiple scans captured during the intervention with novel auto-adaptive boundary conditions. Both computer vision tasks are crucial for a precise estimation of the electric field and need to be solved in near real time to be practical in clinical settings. These advancements in computer vision and image processing contribute to more accurate electric field estimation and improve the overall effectiveness of the procedure, leading to better patient outcomes for those battling deep-seated cancers
APA, Harvard, Vancouver, ISO, and other styles
4

Vautrin, Mathias. "Planification de traitement en radiothérapie stéréotaxique par rayonnement synchrotron. Développement et validation d'un module de calcul de dose par simulations Monte Carlo." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00641325.

Full text
Abstract:
La radiothérapie stéréotaxique par rayonnement synchrotron (SSRT) est une technique innovanteutilisant un faisceau synchrotron de rayons X monochromatiques entre 50 et 100 keV. Une augmentationde dose par prise de contraste est obtenue localement par effet photoélectrique sur unélément lourd injecté dans le volume cible (tumeur cérébrale). Des essais cliniques de SSRT sont encours de préparation à l'ESRF (établissement européen de rayonnement synchrotron). Un systèmede planification de traitement (TPS) est nécessaire pour le calcul de l'énergie déposée au patient(dose) pendant le traitement. Une version dédiée du TPS ISOgray a donc été développée. Ce travaildécrit l'adaptation du TPS réalisée, particulièrement au niveau du module de simulation virtuelleet de dosimétrie. Pour un calcul de dose, le TPS utilise une simulation Monte Carlo spécifique desphotons polarisés et de basse énergie. Les simulations sont réalisées depuis la source synchrotron,à travers toute la géométrie de la ligne de lumière modélisée et dans le patient. Pour ce calcul, desmatériaux spécifiques ont été notamment ajoutés pour la modélisation voxélisée du patient, afin deprendre en compte la présence d'iode dans certains tissus. Le processus de calcul Monte Carlo a étéoptimisé en vitesse et précision. De plus, un calcul des doses absolues et des temps d'irradiation,particulier à la SSRT, a été ajouté au TPS. Grâce à des mesures de rendements, profils de dose, etdoses absolues, réalisées à l'ESRF en cuve à eau et en fantôme solide avec ou sans couche d'os, lecalcul de dose du TPS a été validé pour la SSRT.
APA, Harvard, Vancouver, ISO, and other styles
5

Nygren, Nelly. "Optimization of the Gamma Knife Treatment Room Design." Thesis, KTH, Fysik, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-300904.

Full text
Abstract:
Radiation shielding is a central part of the design of treatment rooms for radiation therapy systems. The dose levels that medical staff and members of the public can be exposed to outside the treatment rooms are regulated by authorities and influence the required wall thicknesses and possible locations for the systems. Several standard methods exist for performing shielding calculations, but they are not well adapted to the stereotactic radiosurgery system Leksell Gamma Knife because of its self-shielding properties. The built-in shielding makes the leakage radiation anisotropic and generally have lower energy than the primary radiation from the Gamma Knife's cobalt sources. Oversimplifications made in the standard shielding calculation methods regarding the field can lead to excessively thick shielding and limit the number of suitable locations for the system.  In this thesis project, a simulation-based dose calculation algorithm was developed, that uses Monte Carlo-generated data in two steps. The algorithm uses a phase space to accurately describe the radiation field around the Gamma Knife. Information about individual photons in the field is then combined with a generated library of data describing the resulting dose outside a wall depending on the wall thickness and the photon energy. The dose calculation algorithm is fast enough to be integrated into optimization processes, in which the algorithm is used iteratively while varying room design parameters. Demonstrated in this report is a case with a room of fixed size, in which the Gamma Knife's position and the walls' thicknesses are varied, with the aim to find the room design resulting in the minimum wall thicknesses needed to achieve acceptable dose levels outside. The results in this thesis indicate that the dose calculation algorithm performs well and could likely be used in more complex optimizations with more design variables and more advanced design goals.
Strålsäkerhet är en viktig aspekt vid uppförandet av behandlingsrum för strål-terapisystem. Strålningsnivåerna som sjukvårdspersonal och allmänheten kan exponeras för utanför behandlingsrummet regleras av myndigheter och påverkar vilken väggtjocklek som behövs och vilka platser som är lämpliga att placera systemen på. Flertalet metoder för strålskyddsberäkning existerar, men de är inte väl anpassade till det stereotaktiska radiokirurgiska systemet Leksell Gamma Knife, eftersom det har ett inbyggt strålskydd. Det inbyggda strålskyddet gör att strålfältet runt Gamma Knife är anisotropt och generellt har lägre energi än primärstrålningen från systemets koboltkällor. Förenklingar som görs rörande strålfältet i flera existerande metoder för strålskyddsberäkning kan leda till att överdrivet tjocka strålskydd används eller begränsa antalet lämpliga platser att placera systemet på. I detta projekt utvecklades en dosberäkningsalgoritm, som i två steg använder data genererad genom Monte Carlo-simuleringar. Algoritmen använder ett fasrum för att detaljerat beskriva strålfältet runt Gamma Knife. Information om enskilda fotoner i fältet används sen i kombination med ett genererat bibliotek av data som beskriver det dosbidrag som en foton bidrar med utanför behandlingsrummet, baserat på fotonens energi och väggarnas tjocklek. Dosberäkningsalgoritmen är snabb nog att integreras i optimeringsprocesser där den används iterativt samtidigt som rumsdesignparametrar varieras. I denna rapport demonstreras ett fall med ett rum av bestämd storlek, där positionen av Gamma Knife i rummet och väggarnas tjocklekar varieras. Optimeringens syfte i exemplet är att hitta den rumsdesign som med de minsta väggtjocklekarna resulterar i acceptabla strålningsnivåer utanför rummet. Resultaten tyder på att dosberäkningsalgoritmen sannolikt kan användas i mer komplexa optimeringar med fler designvariabler och mer avancerade designmål.
APA, Harvard, Vancouver, ISO, and other styles
6

Morén, Björn. "Mathematical Modelling of Dose Planning in High Dose-Rate Brachytherapy." Licentiate thesis, Linköpings universitet, Optimeringslära, 2019. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-154966.

Full text
Abstract:
Cancer is a widespread type of diseases that each year affects millions of people. It is mainly treated by chemotherapy, surgery or radiation therapy, or a combination of them. One modality of radiation therapy is high dose-rate brachytherapy, used in treatment of for example prostate cancer and gynecologic cancer. Brachytherapy is an invasive treatment in which catheters (hollow needles) or applicators are used to place the highly active radiation source close to or within a tumour. The treatment planning problem, which can be modelled as a mathematical optimization problem, is the topic of this thesis. The treatment planning includes decisions on how many catheters to use and where to place them as well as the dwell times for the radiation source. There are multiple aims with the treatment and these are primarily to give the tumour a radiation dose that is sufficiently high and to give the surrounding healthy tissue and organs (organs at risk) a dose that is sufficiently low. Because these aims are in conflict, modelling the treatment planning gives optimization problems which essentially are multiobjective. To evaluate treatment plans, a concept called dosimetric indices is commonly used and they constitute an essential part of the clinical treatment guidelines. For the tumour, the portion of the volume that receives at least a specified dose is of interest while for an organ at risk it is rather the portion of the volume that receives at most a specified dose. The dosimetric indices are derived from the dose-volume histogram, which for each dose level shows the corresponding dosimetric index. Dose-volume histograms are commonly used to visualise the three-dimensional dose distribution. The research focus of this thesis is mathematical modelling of the treatment planning and properties of optimization models explicitly including dosimetric indices, which the clinical treatment guidelines are based on. Modelling dosimetric indices explicitly yields mixedinteger programs which are computationally demanding to solve. The computing time of the treatment planning is of clinical relevance as the planning is typically conducted while the patient is under anaesthesia. Research topics in this thesis include both studying properties of models, extending and improving models, and developing new optimization models to be able to take more aspects into account in the treatment planning. There are several advantages of using mathematical optimization for treatment planning in comparison to manual planning. First, the treatment planning phase can be shortened compared to the time consuming manual planning. Secondly, also the quality of treatment plans can be improved by using optimization models and algorithms, for example by considering more of the clinically relevant aspects. Finally, with the use of optimization algorithms the requirements of experience and skill level for the planners are lower. This thesis summary contains a literature review over optimization models for treatment planning, including the catheter placement problem. How optimization models consider the multiobjective nature of the treatment planning problem is also discussed.
APA, Harvard, Vancouver, ISO, and other styles
7

Aspradakis, Maria M. "A study to assess and improve dose computations in photon beam therapy." Thesis, University of Edinburgh, 1997. http://hdl.handle.net/1842/21334.

Full text
Abstract:
This thesis is concerned with the calculation of dose at a point for megavoltage photon therapy. The review of dose calculation algorithms provides a comprehensive and critical analysis of the models developed to date. Emphasis is given to the dimensionality of density information utilised by these algorithms in relation to their capability of producing accurate dose information in three dimensions. Two applications of the Monte Carlo method to radiotherapy have been studied. Namely, the generation of energy deposition kernels (EDK) and the use of the method as a benchmarking tool. EDKs represent the fractional energy deposited around a single photon interaction site. Dose distributions in homogeneous and heterogenous media were calculated in absolute units of absorbed dose per incident photon fluence (Gy . cm2). Both applications were carried out using the EGS4 code system. A superposition model was developed from the dose deposition point of view. Dose at a point was obtained from knowledge of the total energy released per unit mass in the medium (TERMA) and the EDK. Effective energy spectrum information was used to calculate dose for clinical beams. The performance of this model was verified in homogenous and heterogeneous media against both Monte Carlo generated and measured data. The necessity for computation speed is addressed. As a trade off between accuracy and speed, a method was developed which reduces the calculation time required to obtain a true three dimensional dose matrix.
APA, Harvard, Vancouver, ISO, and other styles
8

OLIVEIRA, JUNIOR Wilson Rosa de. "Turing´s analysis of computation and artificial neural network." Universidade Federal de Pernambuco, 2004. https://repositorio.ufpe.br/handle/123456789/1970.

Full text
Abstract:
Made available in DSpace on 2014-06-12T15:53:32Z (GMT). No. of bitstreams: 2 arquivo5203_1.pdf: 2427628 bytes, checksum: b7e101175fb8c6dac688a04de83a3303 (MD5) license.txt: 1748 bytes, checksum: 8a4605be74aa9ea9d79846c1fba20a33 (MD5) Previous issue date: 2004
Conselho Nacional de Desenvolvimento Científico e Tecnológico
Inspirado por uma sugestão de McCulloch e Pitts em seu trabalho pioneiro, uma simulação de Máquinas de Turing (MT) por Redes Neurais Artifiais (RNAs) apresentada. Diferente dos trabalhos anteriores, tal simulação está de acordo com a interpretação correta da análise de Turing sobre computação; é compatvel com as abordagens correntes para análise da cognição como um processo interativo agente-ambiente; e é fisicamente realizável uma vez que não se usa pesos nas conexãos com precisão ilimitada. Uma descrição completa de uma implementação de uma MT universal em uma RNA recorrente do tipo sigmóide é dada. A fita, um recurso infinito, é deixada fora da codificação como uma caracterstica externa não-intrínsica. A rede resultante é chamada de Máquina de Turing Neural. O modelo clássico de computação Máquina de Turing = Fita + Autômato de Estados Finito (AEF) é trocado pelo modelo de computação neural Máquina de Turing Neural (MTN) = Fita + Rede Neural Artifial (RNA) Argumentos para plausabilidade física e cognitiva desta abordagem são fornecidos e as consequências matemáticas são investigadas. E bastante conhecido na comunidade de neurocomputação teórica, que um AEF arbitrário não pode ser implementado em uma RNA quando ruído ou limite de precisão é considerado: sob estas condições, sistemas analógicos em geral, e RNA em particular, são computacionalmente equivalentes aos Autômatos Definidos uma classe muita restrita de AEF. Entre as principais contribuições da abordagem proposta é a definição de um novo modelo de máquina, Máquina de Turing Definida(MTD), que surge quando ruído é levado em consideração. Este resultado reflete na segunda equação descrita acima se tornando MTN com ruíıdo (MTN) = Fita + RNA com ruído(RNA) com a equação correspondente Máquina de Turing Definida = Fita + Autômatos Finitos Definidos (AFD) A investigação de capacidades computacionais das Máquinas de Turing Definida é uma outra contribuição importante da Tese. É provado que elas computam a classe das funções elementares (Brainerd & Landweber, 1974) da Teoria da Recursão
APA, Harvard, Vancouver, ISO, and other styles
9

Palit, Robin. "Computational Tools and Methods for Objective Assessment of Image Quality in X-Ray CT and SPECT." Diss., The University of Arizona, 2012. http://hdl.handle.net/10150/268492.

Full text
Abstract:
Computational tools of use in the objective assessment of image quality for tomography systems were developed for computer processing units (CPU) and graphics processing units (GPU) in the image quality lab at the University of Arizona. Fast analytic x-ray projection code called IQCT was created to compute the mean projection image for cone beam multi-slice helical computed tomography (CT) scanners. IQCT was optimized to take advantage of the massively parallel architecture of GPUs. CPU code for computing single photon emission computed tomography (SPECT) projection images was written calling upon previous research in the image quality lab. IQCT and the SPECT modeling code were used to simulate data for multimodality SPECT/CT observer studies. The purpose of these observer studies was to assess the benefit in image quality of using attenuation information from a CT measurement in myocardial SPECT imaging. The observer chosen for these studies was the scanning linear observer. The tasks for the observer were localization of a signal and estimation of the signal radius. For the localization study, area under the localization receiver operating characteristic curve (A(LROC)) was computed as A(LROC)^Meas = 0.89332 ± 0.00474 and A(LROC)^No = 0.89408 ± 0.00475, where "Meas" implies the use of attenuation information from the CT measurement, and "No" indicates the absence of attenuation information. For the estimation study, area under the estimation receiver operating characteristic curve (A(EROC)) was quantified as A(EROC)^Meas = 0.55926 ± 0.00731 and A(EROC)^No = 0.56167 ± 0.00731. Based on these results, it was concluded that the use of CT information did not improve the scanning linear observer's ability to perform the stated myocardial SPECT tasks. The risk to the patient of the CT measurement was quantified in terms of excess effective dose as 2.37 mSv for males and 3.38 mSv for females.Another image quality tool generated within this body of work was a singular value decomposition (SVD) algorithm to reduce the dimension of the eigenvalue problem for tomography systems with rotational symmetry. Agreement in the results of this reduced dimension SVD algorithm and those of a standard SVD algorithm are shown for a toy problem. The use of SVD toward image quality metrics such as the measurement and null space are also presented.
APA, Harvard, Vancouver, ISO, and other styles
10

Moura, Augusto Fontan. "A computational study of the airflow at the intake region of scramjet engines." Instituto Tecnológico de Aeronáutica, 2014. http://www.bd.bibl.ita.br/tde_busca/arquivo.php?codArquivo=2973.

Full text
Abstract:
This work is part of the research and development, at the Institute for Advanced Studies (IEAv), of the first Brazilian hypersonic vehicle prototype, the 14-X airplane. As this vehicle will be propelled by scramjet (supersonic combustion ramjet) engines, this work presents detailed two-dimensional CFD analyses of the airflow in the intake system of such engines based on the 14-XB scramjet geometry and the expected flight conditions. The main objective is to study the airflow in the intake of the 14-XB at nominal flight condition and also for some off-design flight conditions and geometry using numerical methods and models available in the Fluent code. Off-design values of the vehicle velocity, angle of attack and altitude as well as of the angle of the inlet compression ramp and the number of inlet compression ramps were chosen to show how these changes impact the overall intake airflow. In this study are presented results for the airflow in the entire intake system and of specific flow variables at the engine combustor entrance, as well as calculation results of some intake performance parameters. Both, wall temperature and free stream flow turbulence effects on the intake airflow have also been analyzed. Investigation of viscous flow modeling and of the effects of temperature-dependent air properties has also been performed. Inviscid flow calculations have been performed to serve as a comparison basis for the viscous flow effects and as preliminary information of the airflow. A model validation analysis of the k-kl-? and Transition SST transition models has shown that both models can calculate BL and shock wave interactions (SWBLI) quite well, although, the k-kl-? is better to calculate the separation region whereas the Transition SST is superior to predict the reattachment point. Wall temperature has shown to affect quite significantly SWBLI while viscous flow modeling has shown to have an important impact on the intake airflow with some degradation of the intake system performance.
APA, Harvard, Vancouver, ISO, and other styles
11

Campanelli, Henrique Barcellos. "Avaliação do sistema computadorizado de planejamento radioterápico XiO 5.10 – aspectos funcionais e avanços tecnológicos para melhoria da resposta terapêutica dos tratamentos." Universidade Estadual Paulista (UNESP), 2018. http://hdl.handle.net/11449/153158.

Full text
Abstract:
Submitted by Henrique Barcellos Campanelli null (henrique.barcellos@aluno.ibb.unesp.br) on 2018-03-21T19:10:05Z No. of bitstreams: 1 Dissertação Henrique B Campanelli.pdf: 1741646 bytes, checksum: 36fc92e7787c2620fa984fb8bcfeedf4 (MD5)
Approved for entry into archive by Luciana Pizzani null (luciana@btu.unesp.br) on 2018-03-22T15:09:17Z (GMT) No. of bitstreams: 1 campanelli_hb_me_bot.pdf: 1741646 bytes, checksum: 36fc92e7787c2620fa984fb8bcfeedf4 (MD5)
Made available in DSpace on 2018-03-22T15:09:17Z (GMT). No. of bitstreams: 1 campanelli_hb_me_bot.pdf: 1741646 bytes, checksum: 36fc92e7787c2620fa984fb8bcfeedf4 (MD5) Previous issue date: 2018-02-23
Outra
Este trabalho apresenta um estudo de planos radioterápicos realizados com o Sistema de Planejamento de Tratamento (TPS) XiO 5.10, utilizados em centros de radioterapia. Foram analisados os protocolos clínicos de radioterapia através de pesquisa bibliográfica em artigos científicos e textos produzidos pelas sociedades especializadas da área da radioncologia. Foram realizadas visitas técnicas junto a serviços de radioterapia para melhor entendimento das diferenças entre os distintos sistemas de planejamentos radioterápicos aplicados. A pesquisa verificou a resposta de três diferentes algoritmos computacionais de cálculo de dose de radiação: Superposition, Convolution e Fast Superposition, disponíveis no TPS XiO® da Elekta Medical Systems. Para isto foram analisados os parâmetros de distribuição de dose para 22 planejamentos radioterápicos realizados em uma clínica de radioterapia privada, sendo: 1 paciente com metástase cerebral, 3 pacientes com tumores de cabeça e pescoço, 9 com câncer de mama e 9 com tumores da próstata. Também foi quantificada a influência da heterogeneidade do tecido irradiado, através dos métodos de correção de heterogeneidade do XiO. Independentemente da correção de heterogeneidade do tecido, de um modo geral, o algoritmo de Convolution tendeu a subestimar a dose no PTV quando comparado com os outros dois algoritmos de cálculo de dose. Não foram percebidas diferenças significativas nos valores de dose de radiação calculados para o PTV, determinadas com os outros dois algoritmos, no entanto, o método Superposition proporciona leve redução do tempo de processamento computacional. O trabalho pretende contribuir para uma melhor compreensão da sistemática de cálculo do TPS XiO e assim, beneficiar os usuários dos planejamentos computadorizados durante a análise dos indicadores da qualidade do plano de tratamento.
This paper bring forward a study of radiotherapeutic planning accomplished by XiO 5.10 treatment planning systems utilized in radiotherapic centers. The clinical protocols of radiotherapy were analyzed through bibliographic research in scientific articles and texts produced by societies related to the area of radioncology. . Technical reconnaissance visits were performed in radiotherapy services for a better understanding of the differences between the systems of radiotherapy planning applied. The research verified the response of three distinct computational algorithms of calculation of dose radiation: Superposition, Convolution and Fast Superposition, available in the Tps XiO® of Elekta Medical Systems. For this purpose, were analyzed the dose distribution parameters for 22 radiotherapy plans performed in a private radiotherapy clinic: 1 patient with cerebral metastasis, 3 patients with head and neck tumors, 9 with breast cancer and 9 with prostate tumors . The influence of the heterogeneity of the irradiated tissue was also quantified through the XiO heterogeneity correction methods. Regardless of the correction of tissue heterogeneity, the Convolution algorithm tended to, in general, underestimate the dose in the PTV when compared to the other two dose calculation algorithms. No significant differences were observed in the radiation dose values calculated for the PTV, determined with the other two algorithms, however, the Superposition method provides a slight reduction of computational processing time. This paper aims to contribute to a better understanding of the systematics of TPS XiO calculation and thus, to benefit the users of the computerized planning during the analysis of the quality indicators of the treatment plan.
empresa privada
APA, Harvard, Vancouver, ISO, and other styles
12

Lee, Choonik. "Development of the voxel computational phantoms of pediatric patients and their application to organ dose assessment." [Gainesville, Fla.] : University of Florida, 2006. http://purl.fcla.edu/fcla/etd/UFE0013660.

Full text
APA, Harvard, Vancouver, ISO, and other styles
13

Staton, Robert J. "Organ dose assessment in pediatric fluoroscopy and CT via a tomographic computational phantom of the newborn patient." [Gainesville, Fla.] : University of Florida, 2005. http://purl.fcla.edu/fcla/etd/UFE0013050.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Perin, Lucas Pandolfo. "Formulas for p-th root computations in finite fields of characteristic p using polynomial basis." reponame:Repositório Institucional da UFSC, 2016. https://repositorio.ufsc.br/xmlui/handle/123456789/162861.

Full text
Abstract:
Dissertação (mestrado) - Universidade Federal de Santa Catarina, Centro Tecnológico, Programa de Pós-Graduação em Ciência da Computação, Florianópolis, 2016.
Made available in DSpace on 2016-05-24T17:57:52Z (GMT). No. of bitstreams: 1 339450.pdf: 541374 bytes, checksum: f41e40b020a69e46c7f813384780d40b (MD5) Previous issue date: 2016
Motivado por algoritmos criptográficos de emparelhamento bilinear, a computação da raiz cúbica em corpos finitos de característica 3 já fora abordada na literatura. Adicionalmente, novos estudos sobre a computação da raiz p-ésima em corpos finitos de característica p, onde p é um número primo, têm surgido. Estas contribuições estão centradas na computação de raízes para corpos de característica fixa ou para polinômios irredutíveis com poucos termos não nulos. Esta dissertação propõe novas famílias de polinômios irredutíveis em ??p, com k termos não nulos onde k = 2 e p = 3, para a computação eficiente da raiz p-ésima em corpos finitos de característica p. Além disso, para o caso onde p = 3, são obtidas novas extensões onde a computação da raiz cúbica é eficiente e polinômios cujo desempenho é ligeiramente melhor em comparação aos resultados da literatura. Palavras-chave: Criptografia, Teoria de Números, Aritmética em Corpos Finitos.

Abstract : Efficient cube root computations in extensions fields of characteristic three have been studied, in part motivated by pairing cryptography implementations. Additionally, recent studies have emerged on the computation of p-th roots of finite fields of characteristic p, where p prime. These contributions have either considered a fixed characteristics for the extension field or irreducible polynomials with few nonzero terms. We provide new families of irreducible polynomials over ??p, taking into account polynomials with k = 2 nonzero terms and p = 3. Moreover, for the particular case p = 3, we slightly improve some previous results and we provide new extensions where efficient cube root computations are possible.
APA, Harvard, Vancouver, ISO, and other styles
15

Pelz, Philipp M. [Verfasser], and R. J. Dwayne [Akademischer Betreuer] Miller. "Low-dose computational phase contrast transmission electron microscopy via electron ptychography / Philipp M. Pelz ; Betreuer: R.J. Dwayne Miller." Hamburg : Staats- und Universitätsbibliothek Hamburg, 2018. http://d-nb.info/1173899243/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Nelms, Mark David. "Development of in silico models to support repeat dose safety assessment of cosmetic ingredients to humans." Thesis, Liverpool John Moores University, 2015. http://researchonline.ljmu.ac.uk/4424/.

Full text
Abstract:
Cosmetic products are used daily on a global scale. Therefore, it is necessary to ensure that these products, and their ingredients, do not cause any adverse human health effects under normal usage; to ensure this, risk assessment must be performed. Traditionally, risk assessments are performed in vivo, i.e. conducting tests on animals using the chemical(s) of interest. However, over the past decade there has been an increase in research into the use of alternative toxicity testing methods, such as in vitro, in chemico and in silico. Whilst there are a number of alternative techniques that may be employed, no one method can be used in isolation as a full replacement for an in vivo test. Therefore, the Adverse Outcome Pathway (AOP) concept is an emerging method by which information provided by the in vitro, in chemico, and in silico approaches can be utilised in an integrated testing strategy. The AOP concept links an upstream molecular initiating event to a downstream adverse outcome, via a number of testable key events. In silico approaches utilise computers in order to develop predictive models. Within the AOP paradigm in silico method work to identify the key features of a chemical (structural alerts) that induce a molecular initiating event (MIE). A collection of structural alerts that induce the same MIE are considered to be an in silico profiler. Typically, these in silico profilers are supported by associated toxicity, or mechanistic, information pertaining to the ability to induce a specific MIE. The overall aim of the work presented in this thesis was the development of an in silico profiler, based upon the hypothesis that the induction of mitochondrial toxicity is a key driver of organ-level toxicity. The research presented herein demonstrates the ability to identify, and develop, two types of structural alert; mechanism- and chemistry-based; that pertain to mitochondrial toxicity. Due to the differences inherent in these two types of alert they should be utilised for different purposes. As such, the main usage of the mechanism-based alerts should be in the formation of chemical categories and subsequent data gap filling via read-across. In comparison, the chemistry-based alerts should be utilised for the purposes of prioritising chemicals, within an inventory, that should undergo additional testing in in vitro and/or in chemico assays. It is envisaged that these two types of structural alerts could be used to profile chemical inventories as part of a tiered testing strategy. Therefore, the future work discussed in detail the need to expand the chemical space covered by the alerts. Additional future work involves utilising experimental information from in vitro/in chemico assays to verify the mechanism-based alerts and to refine the chemistry-based alerts by discerning mechanistic information associated with them. Furthermore, it is envisaged that these alerts could be incorporated into predictive tools, such as the OECD QSAR Toolbox, to enable their use for screening and prioritisation purposes.
APA, Harvard, Vancouver, ISO, and other styles
17

Moignier, Alexandra. "Dosimétrie cardiovasculaire à l’aide de fantômes numériques hybrides en radiothérapie externe." Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112309/document.

Full text
Abstract:
Les atteintes cardiovasculaires consécutives à la radiothérapie font partie des effets secondaires tardifs soulevant de nombreuses interrogations au sein de la communauté scientifique, notamment du point de vue de la relation dose-Effet et des effets concomitants d’autres facteurs de risque (chimiothérapie, cholestérol, âge, tension artérielle,…). Les coronaropathies post-Radiques sont une des principales causes de morbidité cardiaque. Cependant, l’étude des doses reçues par les coronaires lors d’une radiothérapie requiert des approximations importantes, notamment d’un point de vue morphologique. Pour les études rétrospectives avec des dossiers médicaux anciens, les informations anatomiques sont réduites à des radiographies orthogonales et quelques contours au simulateur. Pour les dossiers médicaux plus récents, l’utilisation de l’imagerie scanner pour la planification de traitement permet la considération d’une anatomie 3D, toutefois extrêmement limitée pour les coronaires en raison d’une résolution et d’un contraste trop faibles. Par ailleurs, lors de la planification de traitement des patients traités actuellement, les doses reçues par les artères coronaires sont rarement quantifiées en clinique, et quand elles le sont, c’est au moyen d’une segmentation par a priori anatomique. Ce travail de thèse propose une utilisation originale des fantômes numériques hybrides afin d’étudier les doses aux coronaires dans le cadre de radiothérapies du sein gauche et du lymphome de Hodgkin.Au cours de la thèse, une méthode d’insertion de fantômes numériques hybrides au format DICOM dans le système de planification de traitement a été développée et validée. Elle a été adaptée et testée avec des informations anatomiques limitées aux radiographies comme c’est le cas pour les dossiers médicaux anciens, pour des traitements du sein gauche.La méthode a également été adaptée pour effectuer des reconstructions dosimétriques précises aux artères coronaires de patients traités par radiothérapie pour un lymphome de Hodgkin médiastinal, ayant bénéficié d’un suivi cardiovasculaire incluant le diagnostic de sténoses coronariennes à l’aide d’un coroscanner. Par une étude cas-Témoin, le risque de sténoses à un segment d’artère coronaire donné a été évalué comme étant multiplié par 1,049 à chaque Gray aditionnel sur la dose médiane au segment d’artère coronaire.Pour les dossiers actuels, les incertitudes associées à l’approche de segmentation par a priori anatomique des artères coronaires ont été estimées dans le cadre du traitement du sein gauche, en simulant différentes topologies réalistes d’artères coronaires dans un unique thorax et en évaluant les doses, pour une balistique donnée avec et sans irradiation de la chaîne mammaire interne. La variabilité inter-Topologique de la dose moyenne à l’artère coronaire la plus irradiée, l’interventriculaire antérieure, a été estimée à respectivement 35%et 19% avec et sans irradiation de la chaîne mammaire interne tandis qu’avec la dose aux 2% du volume de l’artère interventriculaire les plus irradiés, cette variabilité est respectivement de 76% et 49%.Enfin, l’ordre de grandeur des écarts entre des mesures par films radiochromiques et des calculs de dose du système de planification de traitement ISOgray en bordure de champ et hors du champ a été évalué pour des configurations simple (fantôme physique homogène parallélépipédique, champ carré ouvert) et complexe (fantôme physique anthropomorphe avec hétérogénéités, faisceaux tangentiels rectangulaires avec filtres en coin). Ces écarts sont jugés significatifs essentiellement en bordure de champ quelle que soit la configuration
Cardiovascular diseases following radiotherapy are major secondary late effects raising questions among the scientific community, especially regarding the dose-Effect relationship and confounding risk factors (chemotherapy, cholesterolemia, age at treatment, blood pressure,…). Post-Radiation coronary diseases are one of the main causes of cardiac morbidity. Some approximations are made when coronary doses due to radiotherapy are estimated, especially regarding the morphology. For retrospective studies with old medical records, only radiographs are usually available with sometimes some contours made with a simulator. For recent medical records, CT scans displaying the anatomy in 3D are used for radiotherapy simulation but do not allow the coronary artery visualization due to low resolution and contrast. Currently, coronary doses are barely assessed in clinical practice, and when it is done, anatomical prior knowledge is generally used. This thesis proposes an original approach based on hybrid computational phantoms to study coronary artery doses following radiotherapy for left-Side breast cancer and Hodgkin lymphoma.During the thesis, a method inserting hybrid computational phantoms in a DICOM format into the treatment planning system has been developed and validated. It has been adapted and tested in conditions where only radiographs provide anatomical information, as with old medical records for left side breast radiotherapy.The method has also been adapted to perform precise dose reconstructions to the coronary artery for patients treated for a mediastinal Hodgkin lymphoma and diagnosed with coronary stenosis through a coroscanner. A case-Control study was carried out and the risk of coronary stenosis on a coronary artery segment was assessed to be multiplied by 1.049 at each additional gray on the median dose to the coronary artery segment.For recent medical records, coronary doses uncertainties related to an approach by anatomical prior knowledge segmentation were estimated for a left side breast radiotherapy by simulating different realistic coronary artery topologies in a single representative thorax anatomy and calculating doses due to beam sets, with and without irradiation of the internal mammary chain. The inter-Topology variability of the mean dose to the most irradiated coronary artery, the left descending coronary artery, was assessed to 35% and 19% with and without the internal mammary chain irradiation, respectively; and it was of 76% and 49%, respectively, considering the dose to the most irradiated 2% of this coronary artery volume.Finally, an order of magnitude of the differences between measurments by radiochromic films and dose calculations by the ISOgray treatment planning system in the peripheral field area, has been estimated by for both a simple configuration (parallelepiped physical phantom, homogeneous media, open square field) and a complex configuration (anthropomorphic physical phantom, heterogeneous media, rectangular tangential beams with wedge filter). These differences were judged significant essentially around the geometrical border of the irradiation field for both configuration
APA, Harvard, Vancouver, ISO, and other styles
18

Silva, André Carvalho 1987. "Sobre a caracterização de grafos de visibilidade de leques convexos." [s.n.], 2013. http://repositorio.unicamp.br/jspui/handle/REPOSIP/275633.

Full text
Abstract:
Orientadores: Pedro Jussieu de Rezende, Orlando Lee
Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação
Made available in DSpace on 2018-08-23T03:33:56Z (GMT). No. of bitstreams: 1 Silva_AndreCarvalho_M.pdf: 846347 bytes, checksum: ec1253f464900a70a0ef3bb68f9af1fa (MD5) Previous issue date: 2013
Resumo: Grafos de visibilidade entre vértices de polígonos são estruturas que resumem as informações de visibilidade de tais vértices. Existem três relevantes problemas relativos a grafos de visibilidade: caracterização, reconhecimento e reconstrução. O problema da caracterização consiste em encontrar um conjunto de condições necessárias e suficientes para a classe de grafos de visibilidade. A procura de uma forma algorítmica para se reconhecer quando um grafo é de visibilidade define o problema de reconhecimento. O problema de reconstrução trata da questão de se reconstruir um polígono a partir de um grafo de visibilidade de tal forma que este seja isomorfo ao grafo de visibilidade do polígono. Neste trabalho, abordamos estes problemas para uma subclasse destes grafos: grafos de visibilidade de leques convexos. Dois resultados principais são apresentados nesse trabalho. O primeiro deles é um conjunto de três condições necessárias que um grafo de visibilidade de um leque convexo deve satisfazer. Adicionalmente, mostramos que estas condições são necessárias e suficientes para grafos de visibilidade de pseudo-leques convexos. Um resultado colateral deste processo é a equivalência entre grafos de visibilidade entre vértices, e grafos de visibilidade vértice-aresta, para leques convexos em posição geral. O segundo resultado consiste em que podemos reduzir o problema de reconstrução de polígonos unimonótonos para o mesmo problema para leques convexos
Abstract: The (vertex) visibility graph of a polygon is a graph that gathers all the visibility information among the vertices of the polygon. Three relevant problems related to visibility graphs are: characterization, recognition and reconstruction. Characterization calls for a set of necessary and sufficient conditions that every visibility graph must satisfy. Recognition deals with the problem of determining whether a given graph is the visibility graph of some polygon. Reconstruction asks for the generation of a polygon whose visibility graph is isomorphic to a given visibility graph. In this work, we study these problems on a restricted class of polygons, namely, convex fans: polygons that contain a convex vertex in its kernel. This work is comprised of two main results. The first one presents three necessary conditions that visibility graphs of convex fans must satisfy. We also show that those conditions are necessary and sufficient for visibility graphs of convex pseudo-fans. As a byproduct, we show that we can construct the vertex-edge visibility graph of a convex fan in general position from its vertex visibility graph. In the second major result, we show that we can reduce the reconstruction problem of unimonotone polygons to the same problem for convex fans
Mestrado
Ciência da Computação
Mestre em Ciência da Computação
APA, Harvard, Vancouver, ISO, and other styles
19

De, Pietri Marco. "Development of a Human Unstructured Mesh Model Based on CT Scans for Dose Calculation in Medical Radiotherapy." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2017.

Find full text
Abstract:
Questo lavoro di tesi analizza l’opportunità di applicare dei metodi Monte Carlo nei campi della Radioterapia Superficiale e Ortovoltaica. Inizialmente i protocolli di cura attualmente esistenti sono stati studiati. Una revisione della letteratura è stata condotta sulle tipologie ed evoluzione dei fantocci umani computazionali. I passaggi pratici per la realizzazione di due tipi di fantocci basati su paziente, partendo da immagini TAC, sono stati descritti. Questi due tipi, modelli voxel e modelli a mesh non strutturate, sono stati studiati e comparati attraverso simulazioni. Dalla collaborazione con il reparto di Fisica Medica dell’Arcispedale S. Maria Nuova di Reggio Emilia, un modello di un tubo a Raggi X è stato modellato e validato con misure sperimentali. Questa sorgente è stata utilizzata su fantocci di teste attraverso simulazioni con MCNP6. In particolare è stata valutata la distribuzione spaziale della dose, dentro al modello, a tensioni crescenti all’interno del tubo. Il confronto dei risultati delle simulazioni ha permesso di valutare le interazioni dei fotoni all’interno del modello e le dosi al Planning Target Volume (PTV) e Organ At Risk (OAR) a tensioni della sorgente crescenti. Queste applicazioni hanno dimostrato che un prototipo di Sistema di Piano di Trattamento (TPS) è facilmente implementabile e può fornire preziose informazioni aggiuntive su questi tipi di radioterapia. Sebbene i protocolli esistenti siano in uso da molti anni, con innegabili tassi di cura elevati, è opinione dell’autore che l’integrazione di un TPS basato su Monte Carlo possa fornire potenziali benefici a questi tipi di radioterapia. In particolare, potrebbe fornire informazioni aggiuntive sulla scelta dei parametri di trattamento, portando a migliori risultati nella terapia e qualità di vita del paziente oncologico.
APA, Harvard, Vancouver, ISO, and other styles
20

Lima, Alessandro Alberto de. "Estudo numérico do escoamento ao redor de cilindros flexíveis." Universidade de São Paulo, 2011. http://www.teses.usp.br/teses/disponiveis/3/3150/tde-07112011-122650/.

Full text
Abstract:
Este trabalho aborda o escoamento ao redor de cilindros flexíveis com grande razão de aspecto, representando os riser utilizados na indústria petrolífera. O escoamento foi dividido em seções bidimensionais ao longo do comprimento do riser. O método dos vórtices discretos foi utilizado para estimativa dos coeficientes hidrodinâmicos nas seções correspondentes e o acoplamento se dá através da dinâmica estrutural. Esta dinâmica é resolvida pelo método dos elementos finitos implementado no código Anflex (Mourelle et al. (2001)). Processamento paralelo é utilizado para acelerar o desempenho do método numérico. Um esquema master-slave (\"mestre-escravo\") utilizando MPI (Message Passing Interface1) é utilizado para que seja explorado o paralelismo da modelagem. As seções hidrodinâmicas são igualmente divididas ao longo dos nós de um cluster de computadores utilizado nos cálculos. Cada nó do cluster (núcleo de processamento) resolve o escoamento nas seções hidrodinâmicas necessárias. As forças hidrodinâmicas atuando nas seções correspondentes são enviadas ao processo mestre que também é responsável pela resolução da dinâmica estrutural. Uma das contribuições do presente trabalho é a possibilidade de análise de risers em regime pós-crítico, através da imposição do ponto de separação da camada-limite baseado em resultados experimentais, e da modelagem de casos com risers em tandem. O Método dos Vórtices Discretos (MVD) está detalhado de forma a facilitar a implementação computacional, levando em consideração a possibilidade de estudo de interferência entre esteiras de múltiplos corpos. Como primeira aproximação, foram simulados, casos de cilindros rígidos fixos e em base elástica para os quais foram examinadas as amplitudes máximas de oscilação e os coeficientes de arrasto e sustentação. Posteriormente, o MVD foi integrado ao Anflex dando origem ao AnflexCFD, com capacidade de processamento paralelo da parte correspondente ao CFD. Os resultados obtidos numericamente foram comparados a resultados experimentais realizados em laboratório. A metodologia de utilização do MVD para cálculo dos coeficientes hidrodinâmicos é baseada na comparação com resultados experimentais obtidos em laboratório para cilindros rígidos fixos e em base elástica para os quais se observa uma aderência satisfatória com relação aos resultados obtidos numericamente. O resultado do presente trabalho foi a criação de uma ferramenta alternativa no projeto de risers de grande razão de aspecto, como uma forma de avaliação do comportamento dinâmico da estrutura submetida a diferentes perfis de corrente e, consequentemente, a estimativa do tempo de sua vida útil. A característica puramente Lagrangiana do MVD possibilita a simulação de centenas de ciclos de oscilação da estrutura sendo que para os métodos Eulerianos tradicionais de CFD, como o método dos volumes finitos e o método dos elementos finitos, a simulação necessita de um tempo computacional inviável para projeto. A aderência do modelo adotado em relação aos resultados experimentais, aliada a eficiência do MVD, é um indicativo da vantagem da utilização de métodos Lagrangianos na modelagem do escoamento ao redor de cilindros flexíveis com grande razão de aspecto, em relação aos métodos Eulerianos tradicionais. A metodologia apresentada neste trabalho pode ser aplicada utilizando outros métodos de CFD, lembrando que isto pode implicar num aumento significativo do tempo computacional necessário para uma análise.
In this work the dynamic response of a high aspect ratio flexible cylinder due to vortex shedding is numerically investigated. The model is divided in two-dimensional sections along the riser length. The discrete vortex method (DVM) is employed for the assessment of the hydrodynamic forces acting on these two-dimensional sections. The hydrodynamic sections are solved independently, and the coupling among the sections is taken into account by the solution of the structure in the time domain by the finite element method implemented in Anflex code (Mourelle et al. (2001)). Parallel processing is employed to improve the performance of the method. A master-slave approach via MPI (Message Passing Interface) is used to exploit the parallelism of the present code. The riser sections are equally divided among the nodes of the cluster. Each node solves the hydrodynamic sections assigned to it. The forces acting on the sections are then passed to the master processor, which is responsible for the calculation of the displacement of the whole structure. One of the main contributions of the present work is the possibility of simulating the flow around flexible cylinders in the pos-critical regime and around bundle of risers.
APA, Harvard, Vancouver, ISO, and other styles
21

Kyffin, J. A. "Establishing species-specific 3D liver microtissues for repeat dose toxicology and advancing in vitro to in vivo translation through computational modelling." Thesis, Liverpool John Moores University, 2018. http://researchonline.ljmu.ac.uk/9707/.

Full text
Abstract:
The scientific basis of xenobiotic safety is complicated because of the variance in predictability of the primary and secondary pharmacology of foreign chemical substances, as well as variability in individual susceptibility within the population [1]. Despite a wealth of research into this field, our understanding of the mechanisms underpinning the occurrence of adverse effects from xenobiotics remains limited [2]. Adverse drug reactions (ADRs) represent a major encumbrance to the development of new therapeutics with approximately 21% of drug attrition attributed to toxicity during the development process [3]. The in vivo/ex vivo use of animals in science, and in particular drug development, is a global practice and the main purposes of animal experiments are; (i) to gain basic biological knowledge, (ii) for fundamental medical research, (iii) for the discovery and development of drugs, vaccines and medical devices, and (iv) for the toxicity testing of xenobiotics/drugs [4]. However, with there being species-species differences in mechanistic responses, it is difficult to assess results in animal trials and translate these findings in order to predict the in-vivo response in humans [5]. Current in vitro model systems developed to assess ADRs have a number of down falls including; (i) the isolating procedure of primary hepatocytes, (ii) their cost, (iii) inter-donor differences, (iv) limited availability, (v) as well as increasing ethical pressure to implement the 3R's (Replacement, Reduction and Refinement) in research [6]. The emphasis on producing a relevant and representative in vitro model for hepatotoxicity has therefore expanded. The aim of this thesis is to characterise a novel 3D microtissue model that, in the future, aims to provide a better in vitro platform to assess liver toxicity after repeat-dose exposure to xenobiotics. This is particularly important because the processes of hepatotoxicity manifest themselves over several hours and even days, and therefore in vitro models need to be able to comprehensively assess toxic potential for repeat-dose scenarios as well as chronic exposures. Computational modelling is implemented to 14 allow translation of results and to better bridge the gap between in vitro and in vivo approaches and to exploit the knowledge gained from experimental work. Chapter 1 is a critical review of culture techniques and cell types that are used during the development stages of xenobiotic discovery. A number of in vitro models are evaluated with regards to the determination of hepatotoxic potential of compounds. This review has been previously published [7]. Chapter 1 also includes an introduction to mathematical modelling of hepatic clearance and other pharmacokinetic approaches. Chapter 2 describes the experimental characterisation of a primary rat hepatocyte (PRH) spheroid model. The application of the liquid-overlay technique (LOT) [8] with PRH results in the production of viable and reproducible microtissues, amenable for high-throughput investigations. I show that our in vitro system mimics the in vivo cellular morphology, exhibiting both structural and functional polarisation, along with active and functional transporters. Chapter 3 describes the construction of a mathematical model of oxygen diffusion for my experimental in vitro spheroid system. This model is utilised to predict oxygen profiles within the spheroids and to propose optimised operating conditions in order to recapitulate healthy sinusoidal oxygen tensions. This optimisation is based on initial cell seeding densities and experimentally derived oxygen consumption rates (OCR). Chapter 4 describes the construction of a mathematical model to predict the diffusion of xenobiotics based on their inherent physicochemical properties. The in silico system incorporates specific parameters from the experimental spheroid system including paracellular transport features, namely tortuosity and pore fraction properties. The model describes how these spatiotemporal characteristics vary over the duration of the culture period and what effect these have on the transport of xenobiotics.
APA, Harvard, Vancouver, ISO, and other styles
22

Popov, G. F., S. I. Savan, R. V. Lazurik, and A. V. Pochynok. "Selection of calculation methods for the analysis of absorbed depth-dose distributions of electron beams." Thesis, Sumy State University, 2016. http://essuir.sumdu.edu.ua/handle/123456789/46936.

Full text
Abstract:
The work is dedicated to comparison methods of processing the results of measurements of the absorbed depth-dose distributions (DDD) of the electron radiation to determine the practical range of electrons. The sets of test data were obtained by modeling the DDD with use Monte Carlo method. The accuracy of the calculation method is determined by the mean square error of processing results the sets of test data. In the paper it was performed the comparison of computational methods of processing the measurement results that differs in the sizes of the array of data being processed and types of functions which use for approximation the data. Comparison the accuracy methods is base for the recommendations on the selection of computational methods for determining the practical range of electrons for computational dosimetry of electron radiation.
APA, Harvard, Vancouver, ISO, and other styles
23

Carmo, Bruno Souza. "Estudo numérico do escoamento ao redor de cilindros alinhados." Universidade de São Paulo, 2005. http://www.teses.usp.br/teses/disponiveis/3/3132/tde-21072005-144943/.

Full text
Abstract:
Este trabalho lida com o escoamento incompressível ao redor de pares de cilindros rígidos e imóveis, posicionados de forma alinhada em relação a uma corrente uniforme. São dois os objetivos desta pesquisa: o primeiro é estabelecer relações de causalidade entre características físicas do escoamento e as mudanças observadas nas forças e no campo fluido com as variações do número de Reynolds (Re) e do espaçamento entre os corpos; e o segundo consiste em compreender a influência mútua entre tridimensionalidades e interferência no escoamento. Utilizou-se o método de elementos espectrais para realizar simulações bi e tridimensionais do escoamento. Os espaçamentos entre centros (lcc) analisados vão de 1,5 a 8 diâmetros, e eles são comparados com o caso de um cilindro isolado. A faixa de Re vai de 160 a 320, compreendendo a transição na esteira. O foco foi dado nas instabilidades de pequena escala (modos A e B). Dados referentes ao número de Strouhal, coeficiente de arrasto médio, flutuação do coeficiente de sustentação e correlação axial são apresentados. Com auxílio de visualizações do escoamento, são propostos mecanismos que explicam o fenômeno de interferência, refletido no comportamento das curvas. Os resultados mostraram que simulações bidimensionais são insuficientes para se prever a combinação (Re, lcc) de inversão do arrasto. Verificou-se também que, quando o espaçamento é menor do que o crítico, o processo de transição na esteira se dá de forma diferente do observado para um cilindro isolado.
This work deals with the incompressible flow around pairs of rigid and immovable circular cylinders in tandem arrangements. There are two goals in this research: the first one is to find causality relationships between physical characteristics of the flow and the changes that are observed in the forces and in the flow field with the variation of the Reynolds number (Re) and the distance between the bodies; and the second one is to comprehend the mutual influence between three-dimensional structures and interference. The spectral element method was employed to carry out two- and three-dimensional simulations of the flow. The centre-to-centre distance (lcc) of the investigated configurations varies between 1.5 and 8 diameters, and they are compared to the isolated cylinder case. The Re range goes from 160 to 320, covering the transition in the wake. We focused in the small scale instabilities (modes A and B). Data of Strouhal number, mean drag coefficient, RMS of the lift coefficient and axial correlation are presented. With aid of flow visualizations, we propose mechanisms to explain the interference phenomenon, which is reflected in the behaviour of the graphics. The results show that two-dimensional simulations are not sufficient to predict the (Re, lcc) pair correspondent to the drag inversion point. We also verified that, in the cases where lcc is lower than the critical spacing, the transition in the wake happens in a way different from the one observed in the flow around a single cylinder.
APA, Harvard, Vancouver, ISO, and other styles
24

Masuero, Joao Ricardo. "Computação paralela na análise de problemas de engenharia utilizando o Método dos Elementos Finitos." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2009. http://hdl.handle.net/10183/16874.

Full text
Abstract:
O objetivo deste trabalho é estudar algoritmos paralelos para a solução de problemas de Mecânica dos Sólidos, Mecânica dos Fluídos e Interação Fluido-Estrutura empregando o Método dos Elementos Finitos para uso em configurações de memória distribuída e compartilhada. Dois processos para o particionamento da estrutura de dados entre os processadores e divisão de tarefas foram desenvolvidos baseados na aplicação do método de particionamento em faixas e do método da bissecção coordenada recursiva não sobre a geometria da malha mas sim diretamente sobre o sistema de equações, através de reordenações nodais para minimização da largura da banda. Para ordenar a comunicação entre os processadores, foi desenvolvido um algoritmo simples e genérico baseado em uma ordenação circular e alternada que permite a organização eficiente dos processos mesmo em cenários nos quais cada processador precisa trocar dados com todos os demais. Os algoritmos selecionados foram todos do tipo iterativo, por sua adequabilidade ao paralelismo de memória distribuída. Foram desenvolvidos códigos paralelos para o Método dos Gradientes Conjugados utilizado em problemas de Mecânica dos Sólidos, para o esquema explícito de Taylor-Galerkin com um passo e iterações utilizado na simulação de escoamentos compressíveis em regime transônico e supersônico, para o esquema explícito de Taylor- Galerkin com 2 passos para simulação de escoamentos incompressíveis em regime subsônico e para interação fluído-estrutura usando o esquema explícito de dois passos para o fluído e o método implícito de Newmark no contexto do método de estabilização α-Generalizado para a estrutura, com acoplamento particionado. Numerosas configurações foram testadas com problemas tridimensionais utilizando elementos tetraédricos e hexaédricos em clusters temporários e permanentes, homogêneos e heterogêneos, com diferentes tamanhos de problemas, diferentes números de computadores e diferentes velocidades de rede.
Analysis and development of distributed memory parallel algorithms for the solution of Solid Mechanics, Fluid Mechanics and Fluid-Structure Interaction problems using the Finite Element Method is the main goal of this work. Two process for mesh partitioning and task division were developed, based in the Stripwise Partitioning and the Recursive Coordinate Bisection Methods, but applied not over the mesh geometry but over the resultant system of equations through a nodal ordering algorithm for system bandwidth minimization. To schedule the communication tasks in scenarios where each processor must exchange data with all others in the cluster, a simple and generic algorithm based in a circular an alternate ordering was developed. The algorithms selected to be parallelized were of iterative types due to their suitability for distributed memory parallelism. Parallel codes were developed for the Conjugate Gradient Method ( for Solid Mechanics analysis), for the explicit one-step scheme of Taylor-Galerkin method (for transonic and supersonic compressible flow analysis), for the two-step explicit scheme of Taylor-Galerkin method (for subsonic incompressible flow analysis) and for a Fluid-Structure Interaction algorithm using a coupling model based on a partitioned scheme. Explicit two-step scheme of Taylor-Galerkin were employed for the fluid and the implicit Newmark algorithm for the structure. Several configurations were tested for three-dimensional problems using tetrahedral and hexahedral elements in uniform and nonuniform clusters and grids, with several sizes of meshes, numbers of computers and network speeds.
APA, Harvard, Vancouver, ISO, and other styles
25

Mostrag-Szlichtyng, A. S. "Development of knowledge within a chemical-toxicological database to formulate novel computational approaches for predicting repeated dose toxicity of cosmetics-related compounds." Thesis, Liverpool John Moores University, 2017. http://researchonline.ljmu.ac.uk/6798/.

Full text
Abstract:
The European Union (EU) Cosmetics Regulation established the ban on animal testing for cosmetics ingredients. This ban does not assume that all cosmetics ingredients are safe, but that the non-testing procedures (in vitro and in silico) have to be applied for their safety assessment. To this end, the SEURAT-1 cluster was funded by EU 7th Framework Programme and Cosmetics Europe. The COSMOS (Integrated In Silico Models for the Prediction of Human Repeated Dose Toxicity of COSMetics to Optimise Safety) project was initiated as one of the seven consortia of the cluster, with the purpose of facilitating the prediction of human repeated dose toxicity associated with exposure to cosmetics-related compounds through in silico approaches. A critical objective of COSMOS was to address the paucity of publicly available data for cosmetics ingredients and related chemicals. Therefore a database was established containing (i) an inventory of cosmetics ingredients and related structures; (ii) skin permeability/absorption data (route of exposure relevant to cosmetics); and (iii) repeated dose toxicity data. This thesis describes the process of “knowledge discovery from the data”, including collation of the content of the COSMOS database and its subsequent application for developing tools to support the prediction of repeated dose toxicity of cosmetics and related compounds. A rigorous strategy of curation and quality control of chemical records was applied in developing the database (as documented in the Standard Operating Procedure, chapter 2). The chemical space of the cosmetics-related compounds was compared to food-related compounds from the U.S. FDA CFSAN PAFA database using the novel approach combining the analysis of structural features (ToxPrint chemotypes) and physicochemical properties. The cosmetics- and food- specific structural classes related to particular use functions and manifested by distinct physicochemical properties were identified (chapter 3). The novel COSMOS Skin Permeability Database containing in vivo and in vitro skin permeability/absorption data was developed by integrating existing databases and enriching them with new data for cosmetics harvested from regulatory documents and scientific literature (chapter 4). Compounds with available data on human in vitro maximal flux (JMAX) were subsequently extracted from the developed database and analysed in terms of their structural features (ToxPrint chemotypes) and physicochemical properties. The profile of compounds exhibiting low or high skin permeability potential was determined. The results of this analysis can support rapid screening and classification of the compounds without experimental data (chapter 5). The new COSMOS oral repeated dose toxicity database was established through consolidation of existing data sources and harvesting new regulatory documents and scientific literature. The unique data structure of the COSMOS oRepeatToxDB allows capturing all toxicological effects observed at particular dose levels and sites, which are hierarchically differentiated as organs, tissues, and cells (chapter 6). Such design of this database enabled the development of liver toxicity ontology, followed by mechanistic mining of in vivo data (chapter 7). As a result, compounds associated with liver steatosis, steatohepatitis and fibrosis phenotypic effects were identified and further analysed. The probable mechanistic reasoning for toxicity (Peroxisome Proliferator-Activated Receptor gamma (PPAR ) activation) was formulated for two hepatotoxicants, namely 1,3-bis-(2,4-diaminophenoxy)-propane and piperonyl butoxide. Key outcomes of this thesis include an extensive curated database, Standard Operating Procedures, skin permeability potential classification rules, and the set of structural features associated with liver steatosis. Such knowledge is particularly important in the light of the 21st Century Toxicology (NRC, 2007) and the ongoing need to move away from animal toxicity testing to non-testing alternatives.
APA, Harvard, Vancouver, ISO, and other styles
26

Silva, Vinicius Girardi. "Estudo numérico da vibração induzida por vórtices em um corpo cilíndrico." Universidade de São Paulo, 2013. http://www.teses.usp.br/teses/disponiveis/3/3150/tde-26062014-112828/.

Full text
Abstract:
Este trabalho tem por objetivo estudar através de simulações numéricas a interação fluido-estrutura de um escoamento ao redor de um cilindro livre para vibrar na direção transversal do escoamento, com o objetivo de compreender melhor o fenômeno muito recorrente em estruturas oceânicas, principalmente os dutos de extração de petróleo, chamados risers. A condição a ser estudada é a de escoamento com número de Reynolds igual a 10000, em um cilindro com parâmetro de massa igual a 3,3 e de amortecimento igual a 0,0026. Nestas condições, diversos modelos serão criados para representar toda a faixa de velocidades reduzidas em que ocorre o fenômeno de sincronização. Estes parâmetros foram escolhidos devido à presença de dados experimentais para o comparativo entre as simulações e os dados experimentais, que será apresentado ao final do trabalho. Resultados como a média do coeficiente de arrasto e o RMS do coeficiente de sustentação também serão comparados com dados experimentais disponíveis na literatura e uma análise dos perfis de escoamento na região da esteira é feita para a identificação de padrões recorrentes nestes tipos de caso.
The objective of this work is to study through numerical simulations the fluid-structure interaction in a cylinder, which is free to oscillate in the cross flow direction, aiming to better comprehend the phenomena that frequently appears in offshore structures, mainly in pipelines for oil extraction, called risers, The studied condition is a flow with Reynolds 10000 around a cylinder with mass ratio of 3.3 and damping factor of 0.0026. Under these conditions, multiples models are created to represent the reduced velocities range where the synchronization phenomena happen. Those parameters were chosen due to the availability of experimental data in the literature, which allows the comparison between the simulations and experiments that is presented in the end of the work. Results such as the drag coefficient mean and the lift coefficient RMS are also compared with the experimental data available in the literature and an analysis of the flow in the wake region is done with the intention of identifying the patterns found in this type of case.
APA, Harvard, Vancouver, ISO, and other styles
27

Isler, João Anderson. "Computational study in fluid mechanics of bio-inspired geometries: constricted channel and paediatric ventricular assist device." Universidade de São Paulo, 2018. http://www.teses.usp.br/teses/disponiveis/3/3150/tde-18072018-140712/.

Full text
Abstract:
Numerical modelling and simulation are powerful tools for analysis and design, and with the improvement of computational power and numerical methods they are being applied on complex phenomena and systems. This work shows examples of the application of a very sophisticated numerical method, namely the Spectral/hp element method, in the study of the flow inside bioinspired complex geometries. The two topics investigated are fluid dynamic instabilities in a constricted channel and flow inside a paediatric ventricular assist device were studied by means of computational fluid mechanics. The constricted channel is an idealized model of a nasal cavity, which is characterized by complex airway channels, and also bears some resemblance to a human artery in the presence of an atherosclerotic plaques. The paediatric ventricular assist device is an actual device, designed by the Bioengineering research group of the Heart Institute of the Medicine School of the University of São Paulo, which works as a pump that assists the left ventricle of patients waiting for transplantation. Therefore, the aim of this thesis is to contribute in the understanding of biological and bio-inspired geometries flows, using computational tools. Linear and nonlinear stability were carried out for the constricted channel. Three different flow regimes were investigated: symmetric steady flow, which is stable for low Reynolds number, asymmetric steady flow, which rises as a result of the primary bifurcation of the symmetric flow and pulsatile flow. Direct stability analysis was carried out to determine the unstable regions and the critical values for each flow regime. The physical mechanisms behind the transition processes were studied by means of direct numerical simulations to characterize the bifurcations. Since the bifurcations had subcritical behaviour, the relevance of non-normal growth in these flows was assessed. Dependence on phase, Reynolds number and spanwise wavenumber of optimal modes were extensively investigated in stable regions of the three flow regimes. Convective instabilities were also studied in order to comprehend the physical mechanisms which led the optimal modes to their maxima growth, and different convective mechanisms were found. The flow inside the paediatric ventricular assist device was analyzed by means of threedimensional numerical simulations. A computational model based on special boundaries conditions was developed to model the pulsatile flow. In this model, the opening and closure of the mitral valve and diaphragm were represented with the use of specially devised boundary conditions. The driving force and the flow direction of the diaphragm were defined by velocity distribution on the diaphragm wall, and the opening and closure of the mitral valve were performed by a velocity waveform which goes to zero in the systolic period. Flow patterns, velocity fields and time-average wall shear rate were analyzed to evaluate the performance of the device.
Modelagem e simulação numéricas são ferramentas poderosas para análise e design, e com a melhoria do poder computacional e dos métodos numéricos, eles estão sendo aplicados em fenômenos e sistemas complexos. Este trabalho mostra exemplos de aplicações de um método numérico sofisticado, o método dos elementos espectrais/hp, no estudo do escoamento dentro de geometrias complexas bio-inspiradas. Os dois tópicos investigados são: instabilidades em dinâmica de fluido em um canal constrito e o escoamento dentro de um dispositivo de assistência ventricular pediátrica. O canal constrito é um modelo idealizado de uma cavidade nasal, que é caracterizada por canais complexos da via aérea, e também tem semelhança com uma artéria humana na presença de placas ateroscleróticas. O dispositivo de assistência ventricular pediátrica é um dispositivo real, projetado pelo grupo de pesquisa de Bioengenharia do Instituto do Coração da Faculdade de Medicina da Universidade de São Paulo, que funciona como uma bomba que auxilia o ventrículo esquerdo dos pacientes à espera de transplante. Portanto, o objetivo desta tese é contribuir na compreensão de escoamentos em geometrias biológicas e bio-inspiradas, usando ferramentas computacionais. Análises de estabilidade linear e não linear foram feitas para um canal constrito. Três diferentes regimes de escoamento foram empregados: escoamento estacionário simétrico, que é estável para baixo número de Reynolds, escoamento assimétrico, o qual é resultado da primeira bifurcação do escoamento simétrico e escoamento pulsátil. Análise de estabilidade direta foi executada para determinar as regiões instáveis em cada regime de escoamento. Os mecanismos físicos por trás do processo de transição foram estudados por meio de simulação numérica direta para caracterizar as bifurcações. Uma vez que, as bifurcações tiveram um comportamento subcrítico, a relevância do crescimento não normal nestes escoamentos foi avaliado. Assim, dependência com a fase, número de Reynolds e número de onda do modo tridimensional foram extensivamente investigados em regiões estáveis para os três regimes de escoamento. Instabilidades convectivas foram também estudadas a fim de compreender os mecanismos físicos que conduzem os modos ótimos para seus crescimentos máximos, e diferentes mecanismos convectivos foram encontrados. O escoamento dentro do dispositivo de assistência ventricular pediátrico foi analisado por meios de simulações numéricas tridimensionais. Um modelo computacional baseado em condições de contorno especiais foi desenvolvido para modelar o escoamento pulsátil. Neste modelo, a abertura e fechamento da válvula mitral e diafragma foram representados com o uso de condições de contorno especialmente elaboradas. A força motora e o direcionamento do fluxo do diafragma foram definidos por uma distribuição de velocidades na parede do diafragma, e a abertura e fechamento da válvula mitral foram executadas por uma função de onda de velocidade que vai a zero no período sistólico. Padrões do escoamento, campos de velocidade e tensão de cisalhamento no tempo foram analisadas para avaliar o desempenho do dispositivo.
APA, Harvard, Vancouver, ISO, and other styles
28

Silva, Fernanda Martins da. "Pensamento computacional : uma análise dos documentos oficiais e das questões de Matemática dos vestibulares /." Bauru, 2020. http://hdl.handle.net/11449/192267.

Full text
Abstract:
Orientador: Renata Cristina Geromel Meneghetti
Resumo: Essa dissertação tem como objetivo investigar as habilidades em potencial do Pensamento Computacional no contexto da Educação Matemática no quesito das questões de Matemática dos vestibulares do estado de São Paulo, ENEM e dos documentos oficiais. Além disso, pretende contribuir com a discussão sobre o papel ou não do Pensamento Computacional na Educação Básica. Isso porque muitas habilidades estão próximas de conceitos matemáticos e o processo de ensino e aprendizagem através do Pensamento Computacional pode contribuir com o desempenho de estudantes da Educação Básica. A importância de se buscar uma melhora no desempenho dos estudantes é baseada na avaliação realizada pelo Programa Internacional de Avaliação de Alunos (PISA 2015) que apontou uma grande dificuldade por parte de estudantes em questões que exigem conclusões diretas e fórmulas básicas, sendo que sua maioria está cursando o Ensino Médio e buscando o ingresso no Ensino Superior. A partir disso, essa pesquisa explora argumentos para justificar a inclusão das habilidades do Pensamento Computacional na Educação Básica, especificamente na disciplina de Matemática. Enquadrando-se como uma pesquisa qualitativa, essa investigação utilizou da metodologia de Análise de Conteúdo para analisar os documentos oficiais como complemento de possíveis habilidades em potencial do Pensamento Computacional exploradas nestes. Também fez-se a análise das questões de Matemática das avaliações de ingresso do Ensino Superior público como ... (Resumo completo, clicar acesso eletrônico abaixo)
Abstract: This dissertation aims to investigate the potential skills of Computational Thinking in the context of Mathematics Education in the area of Mathematics questions regarding the admission exams of the São Paulo state universities, the ENEM and the official documents. In addition, it intends to contribute to the discussion about the role, or not, of Computational Thinking in Basic Education, because many skills are close to mathematical concepts and the process of teaching and learning through Computational Thinking can contribute to the performance of Basic Education students. The importance of seeking an improvement in student performance is based on the assessment carried out by the International Student Assessment Program (PISA 2015), which pointed out that students face great difficulty in issues that consider basic guidelines and formulas, the majority of whom are attending High School and trying to join Higher Education. Based on that, this research explores arguments to justify the inclusion of Computational Thinking skills in Basic Education, specifically in the Mathematics subject. Being a qualitative research, this investigation used the Content Analysis methodology to analyze the official documents as a complement to the potential Computational Thinking skills explored by them. Mathematics questions of the admission exams to join public Higher Education, such as ENEM and the admission exams of state universities of São Paulo, such as USP, UNESP and UNICAMP, for the y... (Complete abstract click electronic access below)
Mestre
APA, Harvard, Vancouver, ISO, and other styles
29

Miranda, Alberto Alexandre Assis. "Grafos pfaffianos e problemas relacionados." [s.n.], 2009. http://repositorio.unicamp.br/jspui/handle/REPOSIP/275836.

Full text
Abstract:
Orientador: Claudio Leonardo Lucchesi
Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação
Made available in DSpace on 2018-08-15T06:54:51Z (GMT). No. of bitstreams: 1 Miranda_AlbertoAlexandreAssis_D.pdf: 571362 bytes, checksum: bd3600cbf8fe0c2875d8e5c60b6abfd3 (MD5) Previous issue date: 2009
Resumo: A área de grafos Pfaffianos apresenta muitos problemas em aberto. Nesta tese resolvemos dois problemas sobre grafos Pfaffianos. O primeiro problema resolvido é a obtenção de um algoritmo polinomial para reconhecimento de grafos quase-bipartidos Pfaffianos. Além disso, estendemos tanto o algoritmo como a caracterização de grafos quase-bipartidos Pfaffianos para a classe dos grafos meio-bipartidos. O segundo resultado é a obtencão de vários resultados estruturais básicos sobre grafos k-Pfaffianos. Utilizando esses resultados, obtivemos um contra-exemplo para a conjectura de Norine, que afirma que o número Pfaffiano de todo grafo é uma potência de quatro: apresentamos um grafo cujo numero Pfaffiano é 6
Abstract: The area of Pfaffian graphs contains many open problems. In this thesis, we solve two problems related to Pfaffian graphs. The first result is a polynomial time algorithm to recognize near-bipartite Pfaffian graphs. Moreover, we extend this algorithm and the characterization of near-bipartite Pfaffian graphs to the class of half-bipartite graphs. The second result is obtaining several basic structural results concerning k-Pfaffian graphs. Using these results, we obtained a counter-example to Norine's conjecture, which states that the Pfaffian number of a graph is always a power of four: we present a graph whose Pfaffian number is 6
Doutorado
Matematica Discreta e Combinatoria
Doutor em Ciência da Computação
APA, Harvard, Vancouver, ISO, and other styles
30

Lautenschlager, Willian Wagner. "Um modelo estocástico de simulação da dinâmica dos queratinócitos, melanócitos e melanomas no desenvolvimento dos tumores." Universidade de São Paulo, 2017. http://www.teses.usp.br/teses/disponiveis/100/100132/tde-21082017-174520/.

Full text
Abstract:
Durante as últimas décadas, pesquisas em biologia do tumor com a utilização de novas técnicas de biologia molecular produziram informações em profusão, motivando e dando condições para que fossem criados novos modelos matemáticos dedicados à análise de vários aspectos de crescimento e proliferação da população celular. Alguns desses modelos têm sido dedicados à descrição e análise do regime estacionário do processo de desenvolvimento de uma população celular sob condições químicas que se consideram favorecer a aceleração ou desaceleração do crescimento da população de células tumorais. Todavia, a dinâmica temporal do crescimento de uma população de células tumorais ainda não foi analisada nesses trabalhos. Uma das dificuldades é o estabelecimento da interação entre células de múltiplos tipos que sirvam como descrição para essa dinâmica. Nosso trabalho vem preencher essa lacuna e a presente dissertação tem como objetivo a apresentação do modelo, desenvolvido por nós, de simulação da dinâmica do crescimento e proliferação celular do melanoma (câncer de baixa incidência, mas de letalidade extremamente alta) e também dos resultados obtidos através das simulações deste modelo computacional
During the last decades, tumor biology research with the use of new techniques in molecular biology resulted in a profusion of information that have given conditions and motivated the development of new mathematical models dedicated to analyzing various aspects of growth and proliferation of the cell population. Some of these models have been devoted to the description and analysis of the steady state of the development process of a cell population under chemical conditions that, in theory, promote the acceleration or deceleration of the growth of tumor cell population. However, these studies have not yet analyzed the temporal dynamics of growth of a tumor cell population. One of the difficulties is the establishment of the interaction between cells of multiple types that serve as the description for this dynamic. Our work fills this gap and this dissertation aims to present the model, developed by us, to simulate the growth dynamics and cellular proliferation of melanoma (cancer of low incidence but of extremely high lethality) and the results obtained through the simulations of this computational model
APA, Harvard, Vancouver, ISO, and other styles
31

Jönsson, Carl Axel, and Emil Tarukoski. "How does an appointed ceo influence the stock price? : A Multiple Regression Approach." Thesis, KTH, Matematisk statistik, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-209788.

Full text
Abstract:
When a publicly traded company changes CEOs, the stock market will react in either a positive or negative way. This thesis uses multiple regression analysis to investigate which characteristics of the personal profile of the new CEO that might evoke positive or negative reactions from the stock market, both on one-day and one-year time perspectives. The mathematical results are compared to professional opinions regarding what defines an optimal CEO. The inefficiency of the financial markets and complexity of stocks make the mathematical results mostly insignificant. The only correlations found were a positive correlation for highly paid CEOs and a negative correlation for insider recruitment. The thesis concludes that an optimal CEO is defined by its leadership abilities, not by its personal profile.
När ett börsnoterat företag byter VD kommer aktiemarknaden att reagera på ett positivt eller negativt sätt. Denna uppsats använder multipel regressionsanalys för att undersöka vilka egenskaper hos den nya VD:n som kan framkalla positiva eller negativa reaktioner från aktiemarknaden, både på en dags och på ett års tid. De matematiska resultaten jämförs med professionella åsikter om vad som definierar en optimal VD. De ineffektiva egenskaperna hos den finansiella marknaden kombinerat med aktiers komplexitet gör de matematiska resultaten till stor del insignifikanta. De enda korrelationerna som hittades var en positive korrelation för högt betalda VD:ar och en negativ korrelation för internt rekryterade VD:ar. Uppsatsen drar slutsatsen att en optimal VD definieras av sina ledarskapsförmågor och inte av sin personliga bakgrund.
APA, Harvard, Vancouver, ISO, and other styles
32

Romeiro, Lauro Correa. "Estudo termodinâmico da influência dos microelementos (V, Nb, Al e Ti) no crescimento dos grãos em aços forjados a quente." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2013. http://hdl.handle.net/10183/75882.

Full text
Abstract:
São realizados estudos termodinâmicos de nitretos, carbonetos e carbonitretos dos microelementos V, Nb, Al e Ti, utilizando bancos de dados computacionais do programa FactSage, com finalidade de verificar seus potenciais como inibidores do crescimento do grão na faixa de temperatura do processo de forjamento a quente dos aços. Um procedimento para verificação da solubilidade dos compostos dos microelementos por meio do FactSage foi desenvolvido e foram estudadas situações mais complexas e menos abordadas na literatura, tais como o efeito combinado de dois microelementos no aço e o estudo do comportamento dos carbonitretos em altas temperaturas com variantes do porcentual de carbono e nitrogênio. Os estudos demonstraram que os nitretos com presença de titânio possuem elevada estabilidade em altas temperaturas e, por isso, são potencialmente muito efetivos no controle do crescimento do grão. Alguns carbonetos com presença de nióbio apresentam também uma boa estabilidade em altas temperaturas, assim como os carbonitretos desses dois elementos. Foi verificada uma boa correlação dos produtos de solubilidade obtidos tanto por métodos experimentais como por cálculos termodinâmicos apresentados pela literatura, bem como a valiosa contribuição do software para estudos de precipitação e dissolução de carbonetos, nitretos e carbonitretos na austenita, permitindo auxiliar na seleção de aços e/ou modificação da composição de aços convencionais por meio da adição de microelementos juntamente com uma escolha apropriada de porcentuais de nitrogênio e/ou carbono, quando se busca controlar o crescimento do grão em altas temperaturas. Os resultados obtidos podem auxiliar de forma indireta nos estudos de eliminação de tratamentos térmicos convencionais, seja pelo uso de aços microligados com resfriamento controlado, seja pelo uso de aços convencionais de baixa liga temperados logo após forjamento, permitindo, assim, uma redução dos custos globais das peças. Além dessas considerações, os resultados apresentados e a técnica desenvolvida podem também ser úteis em outras áreas em que seja importante o controle do crescimento do grão, tais como laminação a quente e cementação em alta temperatura.
Thermodynamics studies of nitrides, carbides and carbonitrides of the micro elements V, Nb, Al and Ti were performed using the FactSage program databases, in order to verify their potential for grain growth inhibition in a range of temperatures of hot forged steels. A procedure to verify the solubility of compounds of the micro elements was developed by means of FactSage, and it was studied complex states less discussed in literature, such as the combined effect of two micro elements in steel and the behavior of carbonitrides at high temperatures, varying carbon and nitrogen contents. The studies demonstrate that the nitrides with Titanium have high stability in austenite at elevated temperatures: therefore they are potentially highly effective in grain size control. Carbides with Niobium also present effective stability at high temperatures, as well as the carbonitrides of these two elements. A good correlation was verified between the solubility product obtained either by experimental methods, or by thermodynamics calculation presented by literature. Also, a valuable contribution is made by the software in the studies of precipitation and dissolution of nitrides, carbides and carbonitrides in austenite; thus aiding the selection of steels, and/or modification of the chemical composition of standardized steels, by means of adding micro elements; and providing a suitable choice of carbon and nitrogen content when one seeks to control the grain growth at elevated temperatures. Such results can help indirectly in the studies eliminating conventional heat treatment methods, by using micro alloyed steels with controlled cooling and low alloy steels quenched after forging, with overall reducing costs. Besides these considerations, the results presented and the developed procedure can be useful in other areas where grain growth is an important factor, such as in hot rolling and carburizing at high temperature.
APA, Harvard, Vancouver, ISO, and other styles
33

Vatanabe, Sandro Luis. "Estudo de viabilidade de atuadores piezelétricos bilaminares para bombeamento de líquidos." Universidade de São Paulo, 2008. http://www.teses.usp.br/teses/disponiveis/3/3152/tde-09022009-181845/.

Full text
Abstract:
As bombas de fluxo, além das aplicações clássicas em Engenharia, são instrumentos importantes em áreas como a Bioengenharia, seja para o bombeamento de sangue ou dosagem de reagentes e medicamentos, e na área de refrigeração de equipamentos eletrônicos. Muitos dos novos princípios aplicados no desenvolvimento desse tipo de bomba de fluxo baseiam-se no uso de atuadores piezelétricos. Esses atuadores apresentam certas vantagens em relação a outros tipos tradicionalmente utilizados, como maior potencial de miniaturização, menor geração de ruídos e número reduzido de partes móveis. Entre os vários tipos de bombas de fluxo piezelétricas destacam-se as baseadas nos movimentos ondulatórios e oscilatórios, como o nadar dos peixes. É bem conhecido que os peixes ao nadarem não provocam a morte de micro-organismos ao seu redor, o que torna esse princípio bem promissor para as aplicações em Biotecnologia, por exemplo. Assim, o presente trabalho de mestrado dedica-se ao estudo de novas configurações de atuadores piezelétricos bilaminares associados em paralelo e série para bombeamento de líquidos através do princípio oscilatório, a fim de se obter maiores vazões ou pressões. O escopo deste projeto abrange, computacionalmente, análises estruturais de atuadores piezelétricos bilaminares e simulações do escoamento de fluido e, experimentalmente, construções de protótipos para validação de resultados. Inicialmente é investigado o comportamento de um único atuador piezelétrico bilaminar em fluido viscoso (água), a fim de se dominar o princípio de funcionamento proposto neste trabalho. Esse estudo serviu de referência para as configurações de atuadores em série e paralelo propostas. Espera-se que a configuração dos atuadores em paralelo apresente um ganho na vazão de saída, enquanto que a configuração dos atuadores em série apresente um ganho na pressão de saída. Ao longo desta dissertação são apresentadas a metodologia empregada e as discussões dos resultados obtidos, de forma a analisar o princípio proposto e os fenômenos físicos em questão.
Flow pumps, in addition to traditional applications in Engineering, are important tools in areas such as Bioengineering, applied to blood pumping, dosage of medicine and chemical reagents, and in the field of thermal management solutions for electronic devices. Many of the new principles in flow pumps development are based on the use of piezoelectric actuators. These actuators present some advantages in relation to other applied types, for example, miniaturization potential, lower noise generation and fewer numbers of moving parts. Flow pumps based on undulatory and oscillatory movements, such as fish swimming, stand out among the various types of piezoelectric flow pumps. It is well known that fish swimming does not cause the death of microorganisms, what makes this principle applicable in Biotechnology, for example. Thus, the objective of this work is to study parallel-cascade configurations of bimorph piezoelectric actuators for liquid pumping based on the oscillatory principle, in order to obtain higher flow rates and pressure. The scope of this work includes structural and analyses of bimorph piezoelectric actuators and fluid flow simulations, and construction of prototypes for result validation. First, it is investigated the behavior of a single bimorph piezoelectric actuator oscillating in viscous fluid (water) to better understand the working principle used in this work. The study of a single piezoelectric actuator was used as a reference for the other proposed parallel-cascade configurations of actuators. It is expected that parallel actuators achieve higher flow rates, while the series actuators achieve higher pressures. The methods employed are presented and the obtained results are discussed, analyzing the principle and the related physical phenomena.
APA, Harvard, Vancouver, ISO, and other styles
34

Peres, Jose Carlos Gonçalves. "Análise de microrreatores usando a fluidodinâmica computacional." Universidade de São Paulo, 2018. http://www.teses.usp.br/teses/disponiveis/3/3137/tde-16072018-152921/.

Full text
Abstract:
Dispositivos de reação miniaturizados tendem a ganhar espaço na indústria de processos químicos por elevarem o transporte de massa e de calor e a segurança dos processos. Para compreender o papel de cada elemento constituinte de um microrreator sobre seu campo de velocidades e fenômenos de mistura, foram simulados um conjunto de dois canais, uma junção em T, 30 canais em formato de serpentina e um microchip completo através da fluidodinâmica computacional. A seção transversal destes microdispositivos têm dimensões entre 100 e 300 µm, enquanto o comprimento dos canais varia de 3000 a 25190 µm. Os modelos computacionais foram discretizados por malhas hexaédricas e os campos de velocidade em estado estacionário foram calculados para vazões de alimentação entre 12,5 e 2000 µL min-1, considerando regime laminar. A mistura foi avaliada pela injeção de traçadores não-reativos e distribuição das respectivas frações mássicas. As simulações foram validadas usando microvelocimetria por imagens de partículas. Os campos de velocidade possuem magnitudes significativas apesar das dimensões reduzidas e baixas vazões de operação dos sistemas. As imagens experimentais do escoamento evidenciaram o formato parabólico do campo de velocidades e o deslocamento de seu ponto máximo nas regiões curvas causado pela força centrífuga, como estimado pelo modelo computacional. Tal força, em conjunto com as forças viscosas na parede, gera fluxos secundários no escoamento. A distribuição de traçadores não-reativos evidenciou a importância dos fluxos secundários para promover mistura na direção ortogonal ao escoamento principal, ocorrendo sob o regime estacionário nas vazões analisadas. O estudo aqui realizado evidencia o emprego da fluidodinâmica computacional como ferramenta para melhor compreensão da fluidodinâmica e como apoio ao projeto de microdispositivos.
Miniaturized reaction vessels are drawing attention of chemical industries because they promote better mass and heat transfer and also enhance process safety. To understand the relevance of each element of a microreactor on the velocity field of the equipment and the corresponding mixing processes, several microdevices were simulated using computational fluid dynamics: an assembly of two channels, a T-junction, 30 channels in a serpentine assembly and a full microreactor. The cross section of the devices is 100 - 300 µm wide and the length of the channels varies between 3000 and 25190 µm. Computational domains were discretized using hexahedral meshes and steady-state velocity fields were computed considering laminar flow for flow rates between 12,5 and 2000 µL min-1. Mixing was evaluated by injecting inert tracers and monitoring their distribution. Simulations were validated against experimental micro particle image velocimetry data. Velocities throughout the devices are relatively high despite the small dimensions of the cross sections and small flow rates. Experimental images of the flow elucidated the parabolic shape of the velocity profile and its distortion on curved segments caused by centrifugal forces, matching predictions of the computational model. Tracer maps indicated secondary flows play an important role in mixing stream perpendicular to the main flow direction. This study emphasizes the use of computational fluid dynamics as a tool for understating flow throughout microdevices and supporting their design.
APA, Harvard, Vancouver, ISO, and other styles
35

Leão, Cedric Rocha. "Propriedades eletrônicas de nanofios semicondutores." Universidade de São Paulo, 2008. http://www.teses.usp.br/teses/disponiveis/43/43134/tde-19112008-104834/.

Full text
Abstract:
No presente trabalho, efetuamos um extensivo estudo das propriedades eletrônicas e estruturais de nanofios de silcio (Si NWs) utilizando simulações computacionais totalmente ab-initio (metodo do DFT). Mostramos que nestes sistemas, diferentes facetas podem ser eletronicamente ativas ou inativas nos estados de borda dependendo apenas da maneira como os átomos de superfície se ligam aos átomos mais internos. Estes efeitos são causados pelo confinamento quântico nos fios, e por isso podem ser estendidas para outros tipos de fios semicondutores. Nossos resultados podem ser utilizados para guiar o processo de manufatura de sensores baseados em nanofios. Efetuamos cálculos ab-initio de transporte eletrônico nos nanofios com radicais de NH2 adsorvidos em diferentes facetas. Estas análises indicam que há diferenças entre a resposta do sistema a perturbações em superfícies distintas que são eletronicamente ativas. Em certas circunstâncias que serão discutidas, o nível de impureza gera centros espalhadores que reduzem o transporte eletrônico de maneira mais uniforme, enquanto em outros casos as quedas na transmitância são extremamente agudas, com perfil lembrando ressonâncias de fano. Investigamos ainda dopagem de Si NWs com boro e fósforo. Mostramos que estas impurezas se distribuem de maneira razoavelmente uniforme em sítios internos e superficiais dos fios. Embora o confinamento quântico tenda a tornar os níveis de impureza significativamente mais profundos nos fios que no cristal de Si, mostramos que rapidamente, para diâmetros acima de 30°A, dopagem com características de bulke recuperada. Efeitos associados as diferentes superfícies nas quais as impurezas estão localizadas também foram identificados, e acordo com nossas constatações anteriores. Estudamos outra importante impureza em nanofios de Si, que é o ouro, que é utilizado como catalisador no crescimento destes fios. Nossas analises indicam que ha uma forte tendência para estes átomos serem incorporados em sítios superficiais, onde eles não introduzem estados próximos ao gap de energia. Isso indica que ouro pode ser utilizado para catalisar estes fios sem afetar suas propriedades eletrônicas. Por fim analisamos as propriedades eletrônicas de heteroestruturas filiformes de silicio-germânio. Dispositivos eletrônicos baseados nestes materiais têm apresentado propriedades superiores a de equivalentes em arquitetura planar ou mesmo dispositivos baseados em outros nanofios. Nossas análises indicam que estes materiais podem apresentar tão variadas que os tornam candidatos `a diversas implementações tecnológicas, desde detectores de alta sensibilidade e grande liberdade de manipulação até materiais de propriedades eletrônicas robustas e pouco sujeitas a indesejáveis perturbações.
We have performed an extensive study on the electronic and structural properties of silicon nanowires (NWs) using parameter free computational simulations (DFT). We show that in Si NWs, surfaces whose atoms are connected to inner ones perpendicularly to the wires axes become electronically inactive at the band edges. However, when these bonds are oriented along the growth axes the surface states contribute significantly to the formation of the HOMO and LUMO, even for relatively large wires (diameters > 30 °A). This is the dimension of the smallest experimental as-grown wires. These effects are caused by the fact that the electronic wave function is confined in the two directions perpendicular to the wires axes but it is not along it. Therefore, these conclusions can be extended to other types of semiconductor NWs, grown along different directions, with different facets and even surface reconstructions. These results can be used to guide actual implementations of NW based chemical and biological sensors, in a fashion that is now being followed by experimentalists. Following this work, we have investigated the electronic transport in these NWs with a NH2 radical adsorbed on different types of facets. These investigations not only confirm our previous conclusions but also indicate different effects associated with impurities adsorbed on distinct active surfaces. In some cases, the impurity level induces scattering centres that reduce the transport in an uniform way, whereas on other types of facets the decrease in the eletronic transport is sharp, suggesting the occurence of fano resonance.
APA, Harvard, Vancouver, ISO, and other styles
36

Lamarre, Greg Brian. "Experimental and computational determination of radiation dose rates in the SLOWPOKE-2 research reactor at the Royal Military College of Canada/Collège militaire royal du Canada." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp04/Mq44912.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Bispo, Danilo Gustavo. "Dos fundamentos da matemática ao surgimento da teoria da computação por Alan Turing." Pontifícia Universidade Católica de São Paulo, 2013. https://tede2.pucsp.br/handle/handle/13286.

Full text
Abstract:
Made available in DSpace on 2016-04-28T14:16:18Z (GMT). No. of bitstreams: 1 Danilo Gustavo Bispo.pdf: 2512902 bytes, checksum: 2261f415993066c8892733480af9c1c9 (MD5) Previous issue date: 2013-04-15
In this paper I present initially in order to contextualize the influences involved in the emergence of the theory of Alan Turing computability on a history of some issues that mobilized mathematicians in the early twentieth century. In chapter 1, an overview will be exposed to the emergence of ideology Formalist designed by mathematician David Hilbert in the early twentieth century. The aim was to base the formalism elementary mathematics from the method and axiomatic theories eliminating contradictions and paradoxes. Although Hilbert has not obtained full success in your program, it will be demonstrated how their ideas influenced the development of the theory of computation Turing. The theory proposes that Turing is a decision procedure, a method that analyzes any arbitrary formula of logic and determines whether it is likely or not. Turing proves that there can be no general decision. For that will be used as a primary source document On Computable Numbers, with an application to the Entscheidungsproblem. In Chapter 2, you will see the main sections of the document Turing exploring some of its concepts. The project will be completed with a critique of this classic text in the history of mathematics based on historiographical proposals presented in the first chapter
Neste texto apresento inicialmente com o intuito de contextualizar as influências envolvidas no surgimento da teoria de Alan Turing sobre computabilidade um histórico de algum problemas que mobilizaram os matemáticos no início do século XX. No capítulo 1, será exposto um panorama do surgimento da ideologia formalista concebida pelo matemático David Hilbert no início do século XX. O objetivo do formalismo era de fundamentar a matemática elementar a partir do método e axiomático, eliminando das teorias suas contradições e paradoxos. Embora Hilbert não tenha obtido pleno êxito em seu programa, será demonstrado como suas concepções influenciaram o desenvolvimento da teoria da computação de Turing. A teoria que Turing propõe é um procedimento de decisão, um método que analisa qualquer fórmula arbitrária da lógica e determina se ela é provável ou não. Turing prova que nenhuma decisão geral pode existir. Para tanto será utilizado como fonte primária o documento On computable numbers, with an application to the Entscheidungsproblem. No capítulo 2, será apresentado as principais seções do documento de Turing explorando alguns de seus conceitos. O projeto será finalizado com uma crítica a este texto clássico da história da matemática com base nas propostas historiográficas apresentadas no primeiro capítulo
APA, Harvard, Vancouver, ISO, and other styles
38

Andrade, Luiz Fernando de Souza. "Animação de jatos oscilantes em fluidos viscosos usando SPH em GPU." Universidade de São Paulo, 2014. http://www.teses.usp.br/teses/disponiveis/55/55134/tde-08082014-113954/.

Full text
Abstract:
Nos últimos anos, o estudo de métodos de animação de escoamento de fluidos tem sido uma área de intensa pesquisa em Computação Gráfica. O principal objetivo desse projeto é desenvolver novas técnicas em GPGPU baseadas na arquitetura CUDA para simular o escoamento de fluidos não-newtonianos, tais como fluidos viscoplásticos e viscoelásticos. Ao invés dos tradicionais métodos com malha diferenças finitas e elementos finitos, essas técnicas são baseadas em uma discretização lagrangeana das equações de governo desses fluidos através do método sem malha conhecido como SPH (Smoothed Particle Hydrodynamics)
I n recent years, the study of methods of animating fluid flow has been an area of intense research in Computer Graphics. The main objective of this project is to develop new techniques based on the CUDA GPGPU architecture to simulate the flow of non-Newtonian fluids, such as viscoelastic and viscoplastic fluids. Instead of traditional methods with mesh - finite differences and finite elements, these techniques are based on a Lagrangian discretization of the governing equations of these fluids through the mesh free method known as SPH (Smoothed Particle Hydrodynamics)
APA, Harvard, Vancouver, ISO, and other styles
39

Moraes, Herickson Faria de. "Análise numérica do escoamento da mistura de ar e EGR em coletores de admissão com misturador do tipo pré-câmara e tipo anel." [s.n.], 2010. http://repositorio.unicamp.br/jspui/handle/REPOSIP/263398.

Full text
Abstract:
Orientador: Luiz Felipe Mendes de Moura
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecânica
Made available in DSpace on 2018-08-17T03:33:15Z (GMT). No. of bitstreams: 1 Moraes_HericksonFariade_M.pdf: 3805937 bytes, checksum: 448bbae52b9a5cf3e1dc4574be708118 (MD5) Previous issue date: 2010
Resumo: As normas regulamentadoras que restringem as emissões provenientes dos veículos automotores tem se tornado cada vez mais rigorosas, especialmente para os veículos movidos a motores diesel. Para atender estas normas, os fabricantes automotivos têm desenvolvido diversas tecnologias para reduzir e controlar a emissão de poluentes resultantes do processo de combustão nos motores. Entre estas tecnologias está o sistema de recirculação de gases de escapamento, usualmente conhecido na indústria como sistema EGR. Este sistema é extremamente funcional, entretanto o sucesso de sua operação é bastante sensível às condições de contorno que cercam seu funcionamento. Uma destas condições de contorno é a homogeneidade da mistura de ar e gás EGR que chega aos cilindros. Quanto mais homogênea for esta mistura, mais eficiente será o funcionamento do sistema EGR e menor será o nível de emissão de poluentes gerados pelo motor. Neste trabalho objetivou-se avaliar numericamente dois tipos de dispositivos que são responsáveis pela execução deste processo de mistura, o misturador do tipo pré-câmara e o misturador do tipo anel. Foram utilizadas as técnicas da Dinâmica dos Fluidos Computacional (CFD) para a realização destas analises. O pacote computacional de CFD adotado foi o FLUENT® 6.3.26, um código que se baseia no método dos volumes finitos para solução das equações de transporte da mecânica dos fluidos. As condições de contorno foram definidas com base no ciclo de testes ao qual o motor é submetido para avaliação pelas entidades regulamentadoras. Como foi adotado o regime permanente para a realização das análises, apresentam-se resultados qualitativos do processo de mistura e do escoamento da mistura ar EGR (no fenômeno real as condições de contorno variam em função da operação do motor - regime transiente). Na análise dos resultados é possível observar de forma clara e objetiva a eficiência de cada dispositivo e qual deles se apresentou como a melhor solução
Abstract: The standards which define the limits of the pollutant emissions produced by the automotive vehicles have become increasingly restricted, specialty for diesel engines. To meet these standards, the automotive companies have developed several technologies to reduce and control the pollutant emissions resulting from the combustion process in the engines. Among these technologies we can find the exhaust gas recirculation system, which is usually known in the industry as EGR system. This system is very functional; however the success of its operation is quite sensitive to the boundary conditions which surround its operating. One of these boundary conditions is the homogeneity of the air and EGR gas mixture which is provided to the engine cylinders. The more homogeneous were this mixture, more efficient will be the EGR system operation and lower will be the pollutant emissions generated by the engine. In this investigation aimed to evaluate numerically two types of devices which are responsible for the mixture process, the prechamber mixer and the ring mixer. It was used the Computational Fluid Dynamics (CFD) techniques to develop the analyses. The computational code used is the FLUENT® 6.3.26, which is a code based on the finite volume method to solve the transport equations of the fluid mechanics. The boundary conditions of the problems were defined with basis on the test cycles which the engine is submitted to be evaluated by the regulatory agencies. As it was adopted the permanent regime to make the system numerical analyses, it's presented qualitative results of the flow and the mixture process of the air and EGR gas (in the real phenomena the boundary conditions vary according to the engine operation - transient regime). On the result analysis it's easy to check the efficiency of each mixer and see which one has presented as the best solution for the problem
Mestrado
Motores
Mestre em Engenharia Automobilistica
APA, Harvard, Vancouver, ISO, and other styles
40

Santos, Ivanildo Antonio dos. "Avaliação dos diagramas de fase do sistema LiF-GdF3 - LuF3 utilizando termodinâmica computacional." Universidade de São Paulo, 2012. http://www.teses.usp.br/teses/disponiveis/85/85134/tde-08032013-151744/.

Full text
Abstract:
Neste trabalho, realizou-se o estudo que permitiu a otimização termodinâmica das seções binárias pertencentes ao diagrama de fase ternário do sistema LiF-GdF3-LuF3, para tanto o programa FactSage foi empregado na simulação computacional. Assim, o comportamento de fusão das misturas destes compostos foi elucidado, o que representa uma contribuição inovadora para o conhecimento das propriedades físicas e químicas destes materiais. Em particular, determinou-se a faixa de composições nas quais as soluções sólidas de LiGdxLu1-xF4 e GdxLu1-xF3 podem ser obtidas diretamente da fase líquida. Neste trabalho as três secções binárias, LiF-GdF3, LiF-LuF3 e GdF3-LuF3 foram reavaliadas experimentalmente utilizando a calorimetria exploratória diferencial para a obtenção de dados mais precisos de temperatura versus composição, uma vez que foi possível minimizar a contaminação das amostras com compostos de oxigênio. A capacidade calorífica e outros dados calorimétricos foram também determinados experimentalmente e comparados com os existentes na literatura. Os termos da energia livre de Gibbs de excesso para as fases representadas como soluções, os quais descrevem os efeitos de interação não ideal entre os dois fluoretos nestas fases, foram expressos com sucesso pela modelo polinomial Redlich-Kister. Finalmente, o caminho de solidificação no diagrama de fase ternário LiF-GdF3-LuF3 pôde ser extrapolado de acordo com o formalismo de Kohler-Toop. Assim, pela primeira vez, a interação ternária entre os compostos LiF, GdF3 e LuF3 foi determinada.
In this work, it was carried out the study that allowed the thermodynamic optimization of the binary sections belonging to the ternary phase diagram of the LiF-GdF3-LuF3 system, for this purpose the FactSage software was used in the computational simulation. Thus, the melting behavior of the mixture of these compounds has been elucidated, which represents an innovative contribution to the knowledge of the physical and chemical properties of these materials. In particular, it was determined the composition ranges in which the solid solutions of LiGdxLu1-xF4 and GdxLu1-xF3 can be obtained directly from the liquid phase. In this work the three binary sections, LiF-GdF3, LiF-LuF3 and GdF3-LuF3, were evaluated using differential scanning calorimetry to obtain more accurate data of temperature versus composition, since it was possible to minimize the contamination of the samples due to oxygen compounds. The heat capacity and other calorimetric data were experimentally determined and compared with those cited in the literature. The terms of the Gibbs free excess energy for the solution phases, which describe the non ideal interaction effects between the two fluorides at these phases, were expressed by the Redlich-Kister polynomial model. Finally, the solidification path in the ternary phase diagram LiF-GdF3-LuF3 could be extrapolated according to the Kohler-Toop formalism. Thus, for the first time, the interaction between the ternary compounds LiF, GdF3 and LuF3 was determined.
APA, Harvard, Vancouver, ISO, and other styles
41

Carvalho, Heber Lombardi de. "Método de análise para a coordenação dos processos de produção sob a ótica de redes de inovação colaborativas apoiado por agente inteligente evolutivo." Universidade de São Paulo, 2012. http://www.teses.usp.br/teses/disponiveis/18/18156/tde-15012013-103000/.

Full text
Abstract:
No contexto da engenharia de produção a pesquisa analisa a coordenação do processo de produção. As principais frentes de gerentes de planejamento e de controladoria são o atendimento à demanda do mercado e os custos de produção divergentes em relação ao plano inicial. Verifica-se que há uma lacuna processual entre dois processos organizacionais, a análise de controladoria direcionada a custos realizados e a análise de planejamento e controle da produção voltada ao atendimento da demanda. A assimetria do uso do mesmo conjunto de dados com visões críticas distintas, contudo com intenções finais similares, motivam o trabalho. Levanta-se a hipótese da análise dos dados com fundamentação conceitual estruturada para abranger a rede de colaboração produtiva. O objetivo é, então, estabelecer um método de análise para a coordenação do processo de produção, elaborado sob a ótica de redes de inovação colaborativas apoiado por agente inteligente evolutivo. A fundamentação conceitual da coordenação do processo de produção, da inovação e da função de produção compõem a estrutura da revisão literária. Pelo método de pesquisa, sob o recorte analítico de vertentes teóricas de redes, uma inovação promovida pela pesquisa foi o mapeamento e a associação de variáveis processuais internas ao nó principal da rede aos nós processuais externos. Uma aplicação tecnológica comercial não é suficiente para interpretar esse ambiente dinâmico e orientado à mudança. O algoritmo DAMICORE, sob a égide evolutiva da biologia, encontra nós homólogos e interpreta o rótulo dos nós processuais validados em campo. O novo método de análise para a coordenação do processo de produção é aferido em rede por um projeto piloto e replicado, então, em vinte e uma redes com resultados melhores comparativamente ao método tradicional. Assim, a pesquisa cria um novo paradigma de análise para processos em rede e demonstra a representatividade de variáveis associadas a nós processuais, desde que eleitas conceitualmente e validadas por especialistas da área.
In the industrial engineering context this research examines the coordination of production process. The main concerns of planning managers and controllers are the demand oscillation and deviation of budget production costs. There is a lack between two processes, the controlling analysis aimed at real costs and planning analysis aimed at demand. The motivation of this work is the asymmetry of the use of the same data set from different perspectives but with similar goals. It is possible to elaborate the hypothesis to analyse of structured data with the conceptual basis to study the cooperative network. The goal is to establish a method of analysis for the coordination of production process systematized from the perspective of innovation collaborative networks where this method is compiled by evolutionary concepts with an intelligent agent application. The literature review comprises the coordination of production process, the innovation concepts and the production function concepts. The method of research applies variables belonging to internal process to external process from principal network node, this approach it is done under the analytical of theoretical networks basis. The method of research is designed to find variables belonging to internal process to relate to external process variables from principal network node, this approach it is done under the analytical of theoretical networks basis. This way has promoted a innovation for the work. A commercial technological application is not enough to mining data set from this dynamic and change oriented environment. The DAMICORE algorithm under the evolutionary concepts from biology area can find correlated nodes validated with the field data. The new method of analysis for the coordination of production process is adjusted by a pilot project then it is replicated in twenty-one networks with amazing results when compared to the current method. The research creates a new paradigm for process analysis and demonstrates the variables power representation and association from network processes if they are under conceptual basis to validate by experts.
APA, Harvard, Vancouver, ISO, and other styles
42

Ribeiro, Gabriel Henrique de Souza. "Desenvolvimento de ferramentas computacionais para a simulação do fenômeno de cravação de estacas torpedos pelo método de partículas Moving Particle Semi-implicit (MPS)." Universidade de São Paulo, 2018. http://www.teses.usp.br/teses/disponiveis/3/3135/tde-07032019-114456/.

Full text
Abstract:
Este trabalho tem como objetivo desenvolver ferramenta computacional para simulação e análise do fenômeno de penetração e cravação de estacas torpedos em solo marítimo. A abordagem será baseada no método Moving Particle Semi-Implicit (MPS). Por se tratar de um método de partícula, sem malha, o mesmo apresenta grande flexibilidade na modelagem de problemas de interação fluido-sólido com fragmentação ou junção de superfície livre e grandes deslocamentos ou deformações dos sólidos, fenômenos esses presentes no impacto e cravação da estaca no solo marítimo. Para isso, dois desafios foram elencados: a modelagem dos solos como fluidos não-newtonianos e a determinação da força de arrasto viscosa na superfície de sólidos. A modelagem do fluido não-newtoniano foi feita considerando os modelos de Power Law, Bingham e Herschel-Bulkley. O cálculo da força de arrasto viscosa foi avaliado determinando-se o gradiente da velocidade do fluido na direção normal à parede com base na regressão polinomial. Por simplicidade, foi considerada a hipótese de que a variação da velocidade na direção tangencial da parede é muito menor se comparada a variação da mesma na direção do vetor normal. O método implementado, assim como o escoamento de fluidos não-newtonianos, foi validado por meio de comparação entre o resultado obtido de simulações com geometrias pré-definidas e as respostas analíticas para tais casos. Como exemplo de aplicação da ferramenta computacional desenvolvida, um caso simplificado de cravação das estacas torpedos foi simulado avaliando-se o seu deslocamento dentro do solo e os esforços cisalhantes a ela submetidas.
This work aims to develop computational tools to simulate and analysis the torpedo anchor penetration in marine soil. The approach will be based on the Moving Particle Semi-Implicit (MPS) method. Because it is a meshless method, it is extremely flexible to model fluid-solid interaction with fragmentation or junction of free surface and large displacements or deformations of solids, phenomena presented at the torpedo anchor impact. Two challenges were listed: the modeling of soils as non-Newtonian fluids and the determination of the viscous drag on the solids surface. The modeling of non-Newtonian fluid was done based on the Power Law, Bingham and Herschel-Bulkley models. The calculation of the viscous drag was evaluated by determining the velocity gradient in the normal direction of the wall based on polynomial regression considering the fluid particles near the solid wall. In this work, for sake of simplicity, the hypothesis that the velocity variation in the tangential direction of the wall is much smaller compared to its variation in the normal direction is adopted. The proposed technique, as well as the flow of non-Newtonian fluids, were validated comparing the results obtained in flow simulations with predefined geometries with the expected analytical responses. As an example of the application of the computational tools developed, a simplified case of torpedo penetration was simulated by evaluating its displacement and the shear stresses submitted to it.
APA, Harvard, Vancouver, ISO, and other styles
43

Grilo, Alex Bredariol 1987. "Computação quântica e teoria de computação." [s.n.], 2014. http://repositorio.unicamp.br/jspui/handle/REPOSIP/275508.

Full text
Abstract:
Orientador: Arnaldo Vieira Moura
Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação
Made available in DSpace on 2018-08-25T06:09:05Z (GMT). No. of bitstreams: 1 Grilo_AlexBredariol_M.pdf: 1279418 bytes, checksum: 80f0b105ffcfb57f6e43c530b32cb7a9 (MD5) Previous issue date: 2014
Resumo: A Computação Quântica é um tópico relativamente recente e pouco conhecido, principalmente no meio da Computação. Seu estudo surgiu na tentativa de físicos simularem sistemas regidos pela Mecânica Quântica por computadores clássicos, o que se conjecturou inviável. Portanto, um novo modelo computacional que utiliza a estrutura quântica da matéria para computar foi teorizado para suprir estas deficiências. Este trabalho tem como objetivo principal estudar as influências da Computação Quântica na Teoria da Computação. Para atingir tal objetivo, primeiramente são expostos os conhecimentos básicos da Mecânica Quântica através de uma linguagem voltada para Teóricos de Computação sem conhecimento prévio na área, de forma a remover a barreira inicial sobre o tema. Em seguida, serão apresentadas inovações na área da Teoria de Computação oriundas da Computação Quântica. Começaremos com os principais Algoritmos Quânticos desenvolvidos até hoje, que foram os primeiros passos para demonstrar a possível superioridade computacional do novo modelo. Dentre estes algoritmos, apresentaremos o famoso Algoritmo de Shor, que fatora números em tempo polinomial. Adicionalmente, neste trabalho foram estudados tópicos mais avançados e atuais em Computabilidade e Complexidade Quânticas. Sobre Autômatos Quânticos, foram estudados aspectos de um modelo que mistura estados clássicos e quânticos, focando na comparação do poder computacional em relação aos Autômatos Finitos Clássicos. Do ponto de vista de Classes de Complexidade, será abordada a questão se em linguagens da classe QMA, o análogo quântico da classe NP, consegue-se atingir probabilidade de erro nulo na aceitação de instâncias positivas
Abstract: Quantum Computing is a relatively new area and it is not well known, mainly among Computer Scientists. It has emerged while physicists tried to simulate Quantum Systems with classical computers efficiently, which has been conjectured impossible. Then, a new computational model that uses the quantum structure of matter to perform computations has been theorized in order to perform these operations. We intend in this work to study the influences of Quantum Computing in Theoretical Computer Science. In order to achieve this goal, we start by presenting the basics of Quantum Computing to Theoretical Computer Science readers with no previous knowledge in this area, removing any initial barriers for a clean understanding of the topic. We will then follow by showing innovations in Theoretical Computer Science introduced by Quantum Computation. We start by showing the main Quantum Algorithms, that exemplify advantages of the new computational model. Among these algorithms, we will present the Shor Algorithm that factors numbers in polynomial time. We follow with more advanced topics in Quantum Computability and Complexity. We study Quantum Finite Automata Models that work with quantum and classical states, focusing on comparing their computational power with Deterministic Finite Automata. In Complexity Theory, we study the question if for languages in QMA, the quantum analogue of NP, zero probability error can be achieved in yes-instances
Mestrado
Ciência da Computação
Mestre em Ciência da Computação
APA, Harvard, Vancouver, ISO, and other styles
44

Costa, Isis Santos. "Modelagem do escoamento em reator catalítico de membrana cerâmica para hidrogenação parcial trifásica." Universidade de São Paulo, 2011. http://www.teses.usp.br/teses/disponiveis/3/3137/tde-20032012-160003/.

Full text
Abstract:
No presente trabalho, foi desenvolvido um modelo para o escoamento em reator de membrana do tipo contator ativo, através da abordagem de dinâmica dos fluidos computacional (CFD), utilizando o código comercial ANSYS FLUENT. O modelo incluiu todo o módulo de membrana constituído por uma membrana tubular e um casco metálico. A reação modelo estudada foi a hidrogenação parcial de 1,5-ciclooctadieno, realizada pelo bombeamento da mistura reacional, dissolvida em n-heptano, através da membrana, a partir das extremidades do tubo. Como catalisador, considerou-se a presença de nanopartículas de Pd impregnadas na membrana. O meio poroso foi aproximado por leito granular representado pela equação de Ergun, tendo como parâmetros a porosidade e o tamanho de grão da membrana de alfa-Al2O3 . O valor para o tamanho de grão foi adotado como equivalente ao diâmetro de partícula determinado com uso do código aberto de estereologia ImageJ, do instituto Nacional de Saúde dos Estados Unidos. O modelo de turbulência adotado foi o RNG k-epsilon. Um estudo de sensibilidade incluiu simulações comparando escoamento desprezando reações como escoamento reativo, variação da velocidade, alteração da saída do fluxo e ativação de modelo de turbulência no meio poroso. Foram realizadas simulações de defeitos estruturais na membrana, correspondendo a regiões de porosidade alterada, com e sem perda de sua uniformidade azimutal. Conclui-se que a presença de defeitos estruturais que afetem a uniformidade azimutal da membrana pode resultar em sensível alteração do escoamento em CMRs.
This study focused on the development of a model for the flow in a reactor membrane of the type active contactor, approached through computational fluid dynamics (CFD), using the commercial code ANSYS FLUENT. The model included the entire membrane module, consisted of a tubular membrane and a metal shell. The model reaction studied was the partial hydrogenation of 1,5-cyclooctadiene initiated by the pumping of the reaction mixture, dissolved in n-heptane, through the membrane, from the ends of the tube. As a catalyst, the study considered the presence of impregnated Pd nanoparticles in the membrane. The porous medium was approximated by a granular bed as represented by the Ergun equation, having as parameters the porosity and the grain size of the alfa-Al2O3 membrane. The value for the grain size was adopted as equivalent to particle diameter determined through the open source stereology software ImageJ, of the National Institute of Health USA. The turbulence model used was the RNG k-epsilon. A sensitivity study included simulations of flow neglecting and including reactions, speed variation, change the flow outlet and activation of turbulence model in the porous media. Simulations of structural defects in the membrane were performed, defining regions of porosity changes with and without loss of azimuthal uniformity. The conclusion was that the presence of structural defects that affect the azimuthal uniformity of the membrane can result in marked alteration of the flow regime in CMRs.
APA, Harvard, Vancouver, ISO, and other styles
45

Akwa, João Vicente. "Análise aerodinâmica de turbinas eólicas Savonius empregando dinâmica dos fluidos computacional." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2010. http://hdl.handle.net/10183/26532.

Full text
Abstract:
Neste trabalho, são apresentados a discussão de conceitos fundamentais, a metodologia e os resultados de simulações numéricas baseadas no Método de Volumes Finitos do escoamento de ar sobre algumas opções de configurações de turbinas eólicas do tipo Savonius, com e sem estatores, em operação e, também, em condições estáticas, como as encontradas nas partidas das mesmas. Comparam-se os resultados para diferentes domínios computacionais, bem como alternativas de discretização espacial e temporal, visando apresentar a influência desses sobre os valores obtidos e estabelecer os parâmetros computacionais adequados para a análise das turbinas em estudo. Nas simulações numéricas, desenvolvidas empregando o programa comercial Star-CCM+, a equação da continuidade e as equações de Navier-Stokes com médias de Reynolds são resolvidas, juntamente com as equações de um modelo de turbulência adequado, que é escolhido, para a obtenção dos campos de pressão e de velocidade do escoamento. Emprega-se um domínio contendo uma região com malha móvel, na qual o rotor é inserido. A cada simulação, a velocidade angular da região de malha móvel é especificada de maneira a variar a razão de velocidade de ponta do rotor. Através da integração das forças ocasionadas devido aos gradientes de pressão e das forças originadas pelo atrito viscoso sobre as pás do rotor eólico, obtém-se o coeficiente de torque em cada simulação. O torque e as forças atuantes no rotor também são obtidos de forma semelhante. Com esses dados, outros parâmetros como a potência e o coeficiente de potência são obtidos. Análises dos principais parâmetros de desempenho do rotor Savonius são realizadas e indicam uma boa concordância com resultados experimentais e de simulações numéricas realizadas por outros autores. Os resultados obtidos nas simulações apresentaram-se bastante representativos do fenômeno analisado.
This research work presents a discussion of basic concepts, the methodology and the results of numerical simulations based on Finite Volume Method for the air flow through some configuration options of the Savonius wind turbines, with and without stators, in operation, and also under static conditions, such as those found in the self starting. Results for different computational domains, as well as alternative spatial and temporal discretization are compared, in order to present the influence of these on the obtained values from the computational analysis of the turbines in study. In the numerical simulations, performed using the commercial software Star-CCM+, the equation of continuity and the Reynolds Averaged Navier-Stokes Equations were solved, together with the equations of a turbulence model appropriate, which is chosen, so that the fields of pressure and velocity could be found. It was used, in the calculations, a domain containing a region with a moving mesh, in which the rotor was inserted. In each simulation, the rotational rate of the moving mesh region was specified so as to vary the tip speed ratio of rotor. Through the integration of the forces arising due to the pressure gradients and the forces originated from the viscous friction on the wind rotor blades, the moment coefficient could be obtained in each simulation. The moment and forces acting on the rotor were also obtained similarly. With these data, other parameters such as the power and the power coefficient of the wind rotor could be obtained. Analysis of the principals performance parameters of the Savonius wind rotor were performed and indicated a good agreement with experimental results and numerical simulations performed by other authors. The simulations results are quite representative of the phenomenon analyzed.
APA, Harvard, Vancouver, ISO, and other styles
46

Nogueira, Leon White. "Otimização acústica e análise numérica do escoamento ao redor de um conjunto cilindro-placa separadora." Universidade de São Paulo, 2015. http://www.teses.usp.br/teses/disponiveis/3/3150/tde-13072016-150044/.

Full text
Abstract:
RESUMO Simulações de aeroacústica computacional demandam uma quantidade considerável de tempo, o que torna complicada a realização de estudos paramétricos. O presente trabalho propõe uma metodologia viável para otimização aeroacústica. Através da análise numérica utilizando dinâmica dos fluidos computacional, foi estudada a aplicação de uma placa separadora desacoplada como método de controle passivo da esteira turbulenta de um cilindro e avaliou-se a irradiação de ruído causado pela interação do escoamento com ambos os corpos, empregando ferramentas de aeroacústica computacional baseadas no método de Ffowcs-Williams e Hawkings. Algumas abordagens distintas de metodologias de otimização de projeto foram aplicadas neste problema, com o objetivo de chegar a uma configuração otimizada que permita a redução do nível sonoro ao longe. Assim, utilizando uma ferramenta de otimização multidisciplinar, pode-se avaliar a capacidade de modelos heurísticos e a grande vantagem do emprego de algoritmos baseados em método de superfície de resposta quando aplicados em um problema não linear, pois requerem a avaliação de um menor número de alternativas para se obter um ponto ótimo. Além disso, foi possível identificar e agrupar os resultados em 5 clusters baseados em seus parâmetros geométricos, nível de pressão sonora global e o valor quadrático médio do coeficiente de arrasto, confirmando a eficiência da aplicação de placas separadoras longas desacopladas posicionadas próximas ao cilindro na estabilização da esteira turbulenta, enquanto que o posicionamento de placas acima de um espaçamento crítico aumentou o nível de pressão acústica irradiado devido à formação de vórtices no espaço entre o cilindro e a placa separadora.
Computational aeroacoustics simulations require a considerable amount of time, which makes the comparison of a large number of different geometric designs a difficult task. The goal of the present study is to provide a suitable methodology for aeroacustic optimization. By means of numerical analyses using computational fluid dynamics tools, the application of a detached splitter plate as a passive control method for the turbulent wake of a circular cylinder was investigated. The irradiation of noise caused by the interaction between the flow and both bodies was evaluated using computational aeroacoustics tools based on the Ffowcs-Williams and Hawkings method. Various design optimization methodologies were applied to this flow in order to achieve a possible optimal configuration, i.e., one which is capable of reducing the far field noise level without increasing the aerodynamic forces. Using a multidisciplinary optimization tool, it was possible to evaluate the behavior of heuristic optimization algorithms and the major advantage of algorithms based on response surface methods when applied to a nonlinear aeroacoustics problem, since they require a smaller number of calculated designs to reach the optimal configuration. In addition, it was possible to identify and group the outcomes into 5 clusters based on their geometric parameters, overall sound pressure level and drag coefficient, confirming the efficiency of the application of long detached splitter plates placed next to the cylinder in stabilizing the turbulent wake, whereas the positioning of splitter plates at a distance larger than a critical gap increased the overall sound pressure level radiated due to the formation of vortices in the gap.
APA, Harvard, Vancouver, ISO, and other styles
47

Andrade, Thiago Menezes de. "Compartimentação de edifí­cios para a segurança contra incêndio." Universidade de São Paulo, 2018. http://www.teses.usp.br/teses/disponiveis/3/3146/tde-24092018-090530/.

Full text
Abstract:
Os métodos para se projetar um edifício com segurança adequada para a situação de incêndio são pouco estudados e aplicados no Brasil. Essa falta de estudo é ainda mais visível quando nos deparamos com o assunto compartimentação, tópico pouco desenvolvido e ainda não normatizado pela ABNT. A compartimentação, especialmente a vertical, é fundamental para a segurança à vida, pois minimiza a propagação do incêndio entre pavimentos de edifícios. Para validar os procedimentos normatizados de dimensionamento de estruturas em situação de incêndio é necessário considerar que as edificações são compartimentadas. Atualmente as exigências sobre compartimentação são apresentadas apenas em Instruções Técnicas do Corpo de Bombeiros, variando de estado para estado. Neste trabalho é apresentado um estudo sobre a compartimentação, uma análise de sua influência na segurança contra incêndio das edificações e a comparação da visão do assunto em países de quatro continentes distintos. Após um estudo comparativo entre a visão e normatização do Brasil, Portugal, Inglaterra, Hong Kong e Estados Unidos foram realizadas simulações computacionais com base na teoria dos volumes finitos e da fluidodinâmica computacional de forma a se tentar verificar de forma mais aprofundada a influência das exigências de compartimentação na real propagação de um incêndio. Por fim, o principal foco deste trabalho é demonstrar que é possível utilizar a Dinâmica dos Fluidos Computacionais (CFD) de maneira a auxiliar o estudo do incêndio, e possibilitar uma análise mais aprofundada do assunto.
Methods for designing a building with adequate fire safety are poorly studied and applied in Brazil. This lack of study is even more present in the compartmentation subject, much-undeveloped topic and not yet standardized by ABNT. The compartmentation, especially the vertical, is critical to life safety, since it minimizes the spread of fire between building floors, and to validate the standardized procedures for structures in fire situation, because an important hypothesis of design methods is the vertical compartmentation. Currently the requirements of compartmentation are only present in the Technical Instructions of the States Fire Department, varying from state to state. This paper presents a study on compartmentation, its influence on the fire safety of buildings and a comparison of the vision of some countries of four different continents on this subject. After a comparative study of the vision and standardization between countries such as Brazil, Portugal, England, Hong Kong and the United States, computer simulation based on the theory of the finite volumes and computational fluid dynamics were carried out in order to try to check thoroughly the influence of compartmentation requirements in a real fire spread. Ultimately, the main focus of this work is to demonstrate that the Computational Fluid Dynamics (CFD) can be used in order to assist the study of fire, in order to allow a more in-depth analysis of the subject.
APA, Harvard, Vancouver, ISO, and other styles
48

Reiser, Renata Hax Sander. "A categoria computável dos espaços coerentes gerados por conjuntos básicos com aplicação em análise real." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 1997. http://hdl.handle.net/10183/18235.

Full text
Abstract:
Neste trabalho desenvolve-se um estudo sobre os Espaços Coerentes Gerados por Conjuntos Básicos, dotados de uma estrutura adicional. Por estrutura adicional entende-se uma estrutura algébrica, de ordem pontual, de medidas, topológica e lógica. Estes espaços, denotados por , constituem uma subcategoria dos Espaços Coerentes, cujos objetos, ordenados pela inclusão, são conjuntos coerentes constituídos por subconjuntos do conjunto básico, os quais estão relacionados pela relação de coerência induzida, que estrutura a teia deste espaço. Os morfismos desta categoria são as funções de objetos geradas por funções básicas. As propriedades algébricas e relacionais destas funções básicas, externas ao processo de construção, ao se propagarem, passam a influenciar na verificação das propriedades internas das funções de objetos. Contudo, este trabalho não é um estudo categórico. A metodologia adotada utiliza a linguagem simples e intuitiva da Teoria dos Conjuntos, que possibilita a visualização e a análise dos relacionamentos existentes, não apenas entre os morfismos que envolvem os objetos totais ou parciais desta categoria, mas também das estruturas ou pré-estruturas externas que os formam, representados pelas funções de tokens e funções básicas. Mostra-se que as funções de objetos são totais e bem definidas, alem de serem monótonas e continuas neste espaço. Entretanto a análise da estabilidade, e consequentemente da linearidade esta associada a injetividade das funções básicas. Uma das características mais importantes da construção proposta e o desenvolvimento de um sistema de representação linear para funções localmente lineares, com a definição do espaço coerente A* gerado pelo produto de subteias. Neste espaço, as funções de objetos são lineares e coincidem com os morfismo da categoria dos espaços coerentes. Além disso, mostra-se que A* e isomorfo ao espaço coerente gerado pelo produto direto dos sub-espaços, ПĄ. Desta forma, toda transformação definida para um tipo de dado estruturado a partir de um conjunto básico enumerável tem uma representação linear, constituída pelos morfismos da categoria dos espaços coerentes. A existência da representação linear para as funções elementares garante a existência da representação linear para outras funções derivadas destas. Apresenta-se ainda uma especificação desta construção, introduzindo-se o Espaço Coerente de Intervalos Racionais, IIQ. Na busca de uma aplicação compatível com uma abordagem computacional, em especial para Análise Real, mostra-se que, em IIQ, cada função real elementar esta identificada com uma função de objetos linear, definida a partir da correspondente função elementar racional. Dentre as funções que foram analisadas destacam-se: a exponencial, a logarítmica, a potência, a potência estendida, a raiz n-ésima, as funções trigonométricas como seno, cosseno e tangente e suas correspondentes funções inversas, como também a função polinomial. Verificou-se que todas estas funções de objetos são totais, bem definidas, ou pertencem ou possuem uma representação linear na categoria COSP-LIN dos espaços coerentes, alem de serem fechadas para os objetos totais e quasi-totais deste espaço, sendo possível estabelecer o correspondente par-projeção para cada uma delas.
In this work the Coherence Spaces Generated by Basic Sets with additional structure are studied. By additional structure one means an algebraic, topological and logical structure with a punctual order and a measure system. These spaces, indicated by A, are a subcategory of the category of Coherence Spaces, whose objects, ordered by inclusion, are coherent sets formed by the induced web coherence relation. The morphisms of this category are the functions of objects generated by basic functions. The algebraic and relational properties of these basic functions - external to the construction process - are propagated and cause important influences in the verification of the internal properties of the functions of objects However, this research is not a categorical study. The methodology uses the simple and intuitive language of the Set Theory, which allows the visualization and the analysis of the existing relationships, not only among, the morphisms of the total and partial objects of this category, but also among their structures or pre-structures, represented by the functions of tokens and basic functions. It is shown that the functions of objects are total and well defined. They are also monotone and continuous. However the stability and the linearity of the functions of objects depend on the fact if the basic functions are injective or not. One of the most important features of this construction is the development of a linear representation system for the local linear functions, by the definition of a coherence space A*, which is generated by the subweb product. In this space the functions of objects are linear and therefore they are the morphisms of the category of Coherence Spaces. Moreover, it is proved that A* is isomorphic to the coherence space generated by the directed product of the subspaces, denoted by ПĄ . Then, for each transformation defined for a structured data type considering a denumerable basic set there exists its related linear representation. The existence of a linear representation for elementary functions guarantees the existence of a linear representation for others derived functions. As an application of this construction, the Coherence Space of Rational Intervals, denoted by IIQ, is introduced. In order to show an application which is compatible to a computational approach, specially for the real analysis, each elementary real function is identified with a linear function of objects, defined considering the related elementary rational function. Some of the analyzed functions are the exponential, the logarithmic, the power , the extended power, the root, the trigonometric (sine, cosine and tangent and their relates inverses), and the polynomial functions. It is proved that all of these functions of objects are total and well defined. Moreover, either they belong to the category COPS-LIN of the coherence spaces or they have a linear representation in the same category. It is also possible to define a related projection pair for each one of them.
APA, Harvard, Vancouver, ISO, and other styles
49

Hodapp, Maximilian Joachim. "Modelagem e simulação de um leito fluidizado : um estudo comparativo." [s.n.], 2009. http://repositorio.unicamp.br/jspui/handle/REPOSIP/266452.

Full text
Abstract:
Orientador: Milton Mori
Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Quimica
Made available in DSpace on 2018-08-12T20:09:08Z (GMT). No. of bitstreams: 1 Hodapp_MaximilianJoachim_M.pdf: 3485880 bytes, checksum: 79b4777bac2b444262795c5ddaaa44ac (MD5) Previous issue date: 2009
Resumo: O objetivo deste trabalho foi o estudo comparativo de duas modelagens para representação de um escoamento gás-sólido. Na primeira modelagem avaliou-se uma correlação de arraste apresentada recentemente na literatura, baseada em simulações lattice Boltzmann, aplicada a escoamentos gás-sólido. Na segunda observou-se o efeito da variação do coeficiente de especularidade na condição de contorno na parede sobre os perfis de velocidade da fase particulada. Grande atenção tem sido dada a modelagem matemática de escoamentos multifásicos, em especial ao gás-sólido, uma vez que vários processos industriais utilizam-se desta operação. Porém o desenvolvimento de modelos analíticos que incluam todos os fenômenos de transferência de massa, energia e quantidade de movimento não encontra-se disponível, devido principalmente a grande complexidade dos fenômenos envolvidos. Neste aspecto a fluidodinâmica computacional (CFD) tem demonstrado ser uma boa alternativa para o estudo de sistemas complexos, sendo diversos estudos, não somente de engenharia, aplicando esta técnica, publicados todos os anos. Como forma de validar os resultados obtidos por este método numérico, escolheu-se um caso de estudo em escala de laboratório. Os softwares comerciais ANSYS CFX 10 e FLUENT 6.3 foram utilizados para a definição e resolução do problema, além do pós-processamento. Os resultados obtidos foram comparados com os dados numéricos de um trabalho de mestrado do PQGe, bem como com dados experimentais da literatura. Pode-se perceber que os resultados, para a primeira abordagem não apresentaram melhoras em relação a outras modelagens das forças entre e intra-partículas, além do maior tempo computacional requerido. A segunda abordagem demonstrou valores adequados para o coeficiente estudado
Abstract: The aim of this work was a comparative study of two different modeling to represent a gas-solid flow. The first approach consists of a new drag correlation presented in the literature. This relation was obtained through lattice Boltzmann simulations of gas-solid flow, thus not depending on empirical data. The second looked for the effects of the variation of the specularity coefficient at the wall boundary condition. Multiphase flow modeling is gathering great attention, especially to gas-solid flows, due to its importance in industrial processes. However analytical models that take into account the mass, momentum and energy transfers are not available, mainly because of the complexities evolved in such systems. Therefore Computational Fluid Dynamics (CFD) has proved to be a viable alternative, having a large number of scientific works been published in recent years. In order to validate the results a comparison with other simulations using different modeling, done by another member of the PQGe laboratory, and with experimental data was carried out. The commercial softwares ANSYS CFX 10 and FLUENT 6.3 were used to define and numerically solve the problem, also to post process the results. For the first approach, the comparison showed that the studied drag correlation gave no improvement upon the other two models analyzed. Also a longer computational time was required, which can not be ignored as an important parameter in CFD simulations. As for the second approach, it was possible to obtain adequate values for the specularity coefficient
Mestrado
Desenvolvimento de Processos Químicos
Mestre em Engenharia Química
APA, Harvard, Vancouver, ISO, and other styles
50

Almeida, André Silva. "Uma análise dos leilões de partilha de produção do pré-sal através de simulação computacional." reponame:Repositório Institucional do FGV, 2013. http://hdl.handle.net/10438/11369.

Full text
Abstract:
Submitted by André Silva Almeida (ansial@fgvmail.br) on 2013-11-03T20:38:56Z No. of bitstreams: 1 Dissertação de Mestrado - André Almeida.pdf: 3036708 bytes, checksum: f5e9d98bba824c492f931f0e8fa4ae69 (MD5)
Approved for entry into archive by Janete de Oliveira Feitosa (janete.feitosa@fgv.br) on 2013-12-17T11:28:40Z (GMT) No. of bitstreams: 1 Dissertação de Mestrado - André Almeida.pdf: 3036708 bytes, checksum: f5e9d98bba824c492f931f0e8fa4ae69 (MD5)
Approved for entry into archive by Marcia Bacha (marcia.bacha@fgv.br) on 2013-12-19T16:37:12Z (GMT) No. of bitstreams: 1 Dissertação de Mestrado - André Almeida.pdf: 3036708 bytes, checksum: f5e9d98bba824c492f931f0e8fa4ae69 (MD5)
Made available in DSpace on 2013-12-19T16:37:41Z (GMT). No. of bitstreams: 1 Dissertação de Mestrado - André Almeida.pdf: 3036708 bytes, checksum: f5e9d98bba824c492f931f0e8fa4ae69 (MD5)
This work considers the application of computer simulation as a method of deepening the study of mechanisms for auctions applied in the allocation of oil exploitation rights in the pre-salt layer. The pre-salt layer is located in the Brazilian coast and presents a large potential in terms of barrel of oil equivalent. Based on an experimental data, the bid function was estimated as an exponential function and applied at the participants created computationally. Considering all features and parameters of the experiments, the simulation allows to reproduce the auction model without incurring implementation costs on new auction sessions with real participants. The auction models studied were the rst-price sealed-bid auction and the second-price sealed-bid auction. The results show that the rst-price sealed-bid auctions are less risky than the second-price sealed-bid auctions; the Revenue Equivalence Principle is valid on symmetric auctions; asymmetric auctions present lower e ciency compared to the rst-price auction; the second-price auction presents a tra- deo between e ciency and government revenue; and considering participant learning, were not observed signi cant changes on the statistics analyzed as the participants become more experienced.
O presente trabalho consiste na aplicação da simulação computacional como método de aprofundamento do estudo de mecanismos de leilões aplicados na alocação do direito de exploração das reservas de petróleo da camada do pré-sal. A camada do pré-sal está localizada na costa brasileira e apresenta um grande potencial em termos de reserva de óleo e gás. A função lance aplicada para os participantes criados computacionalmente foi estimada com base em dados experimentais e segue uma função exponencial. A simulação possibilita reproduzir o modelo de leilão considerando todas as características e parâmetros dos experimentos sem incorrer no custo da realização de novas sessões de leilão com participantes reais. Os leilões estudados foram o leilão de valores privados de 1° preço e o leilão de valores privados de 2° preço. Através dos resultados obtidos identificou-se que o leilão de valores privados de 1° preço é menos arriscado que o leilão de valores privados de 2° preço; no leilão com simetria, o Princípio de Equivalência de Receita é válido; a eficiência observada é menor em leilões assimétricos; o leilão de 2° preço comparado com o de 1° preço apresenta um tradeoff entre a eficiência e a receita do governo; e que considerando o aprendizado dos participantes, não se observam alterações significativas nas estatísticas analisadas à medida que os participantes se tornam mais experientes.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography