Dissertations / Theses on the topic 'Interface engineering techniques'

To see the other types of publications on this topic, follow the link: Interface engineering techniques.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Interface engineering techniques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cinkilic, Emre. "Comparison of Interface State Spectroscopy Techniques by Characterizing Dielectric – InGaAs Interfaces." The Ohio State University, 2013. http://rave.ohiolink.edu/etdc/view?acc_num=osu1366329582.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Mindel, Julian Eduardo. "Interface Tracking and Solid-Fluid Coupling Techniques with Coastal Engineering Applications." Thesis, Imperial College London, 2008. http://hdl.handle.net/10044/1/4376.

Full text
Abstract:
Multi-material physics arise in an innumerable amount of engineering problems. A broadlyscoped numerical model is developed and described in this thesis to simulate the dynamic interactionof multi-fluid and solid systems. It is particularly aimed at modelling the interactionof two immiscible fluids with solid structures in a coastal engineering context; however it canbe extended to other similar areas of research. The Navier Stokes equations governing thefluids are solved using a combination of finite element (FEM) and control volume finite element(CVFE) discretisations. The sharp interface between the fluids is obtained through thecompressive transport of material properties (e.g. material concentration). This behaviour isachieved through the CVFE method and a conveniently limited flux calculation scheme basedon the Hyper-C method by Leonard (1991). Analytical and validation test cases are provided,consisting of steady and unsteady flows. To further enhance the method, improve accuracy, andexploit Lagrangian benefits, a novel moving mesh method is also introduced and tested. It isessentially an Arbitrary Lagrangian Eulerian method in which the grid velocity is defined bysemi-explicitly solving an iterative functional minimisation problem. A multi-phase approach is used to introduce solid structure modelling. In this approach,solution of the velocity field for the fluid phase is obtained using Model B as explained byGidaspow (1994, page 151). Interaction between the fluid phase and the solids is achievedthrough the means of a source term included in the fluid momentum equations. The interactingforce is calculated through integration of this source term and adding a buoyancy contribution. The resulting force is passed to an external solid-dynamics model such as the Discrete ElementMethod (DEM), or the combined Finite Discrete Element Method (FEMDEM).The versatility and novelty of this combined modelling approach stems from its ability tocapture the fluid interaction with particles of random size and shape. Each of the three maincomponents of this thesis: the advection scheme, the moving mesh method, and the solid interactionare individually validated, and examples of randomly shaped and sized particles areshown. To conclude the work, the methods are combined together in the context of coastal engineeringapplications, where the complex coupled problem of waves impacting on breakwateramour units is chosen to demonstrate the simulation possibilities. The three components developedin this thesis significantly extend the application range of already powerful tools, suchas Fluidity, for fluids-modelling and finite discrete element solids-modelling tools by bringingthem together for the first time.
APA, Harvard, Vancouver, ISO, and other styles
3

Smith, William W. "An evaluation of three user-system interface specification techniques." Thesis, Virginia Tech, 1988. http://hdl.handle.net/10919/45187.

Full text
Abstract:
User-System Interface (USI) design is a highly iterative process involving empirical testing and evaluation. The existence of a design specification is implicit in this design process. The quality of the design specification impacts the length and cost of the design cycle. A survey was made of available USI specification tools to determine: which USI components they can specify; their relation to a finite state model of the USI; and if they are usable by the human factors engineer as a basis for an analytic analysis of a USI design to detect violations of excepted USI design guidelines. Four categories of tools were surveyed: semi-formal techniques, Backus-Naur Form grammars, programming languages, and transition networks. An engineering tradeoff analysis was performed based on four pragmatic criteria: understandability, efficiency, expressive power, and fidelity. The results of the tradeoff analysis suggest that specification tools differ in representational strength and it is best to use a set of tools for a complete specification. A behavioral study using human factors engineers was performed to validate the results of the tradeoff analysis. Human factors graduate students were trained in the use of one of three specification tools and asked to perform an analytic analysis looking for design defects. Fifteen design defects were embedded in each of the specifications. Results suggest that using two of the tools together is the most effective specification technique. In light of these results, current and future software design practices were examined to determine what role the human factors engineer can have on the design team.
Master of Science
APA, Harvard, Vancouver, ISO, and other styles
4

Clay, Christopher S. "Investigation and development of techniques for the characterisation of the synthetic/biological interface." Thesis, Aston University, 1991. http://publications.aston.ac.uk/9730/.

Full text
Abstract:
The purpose of this study is to increase our knowledge of the nature of the surface properties of polymeric materials and improve our understanding of how these factors influence the deposition of proteins to form a reactive biological/synthetic interface. A number of surface analytical techniques were identified as being of potential benefit to this investigation and included in a multidisciplinary research program. Cell adhesion in culture was the primary biological sensor of surface properties, and it showed that the cell response to different materials can be modified by adhesion promoting protein layers: cell adhesion is a protein-mediated event. A range of surface rugosity can be produced on polystyrene, and the results presented here show that surface rugosity does not play a major role in determining a material's cell adhesiveness. Contact angle measurements showed that surface energy (specifically the polar fraction) is important in promoting cell spreading on surfaces. The immunogold labelling technique indicated that there were small, but noticeable differences, between the distribution of proteins on a range of surfaces. This study has shown that surface analysis techniques have different sensitivities in terms of detection limits and depth probed, and these are important in determining the usefulness of the information obtained. The techniques provide information on differing aspects of the biological/synthetic interface, and the consequence of this is that a range of techniques is needed in any full study of such a complex field as the biomaterials area.
APA, Harvard, Vancouver, ISO, and other styles
5

Li, Kun. "Advanced Signal Processing Techniques for Single Trial Electroencephalography Signal Classification for Brain Computer Interface Applications." Scholar Commons, 2010. http://scholarcommons.usf.edu/etd/3484.

Full text
Abstract:
Brain Computer Interface (BCI) is a direct communication channel between brain and computer. It allows the users to control the environment without the need to control muscle activity [1-2]. P300-Speller is a well known and widely used BCI system that was developed by Farwell and Donchin in 1988 [3]. The accuracy level of the P300-BCI Speller as measured by the percent of communicated characters correctly identified by the system depends on the ability to detect the P300 event related potential (ERP) component among the ongoing electroencephalography (EEG) signal. Different techniques have been tested to reduce the number of trials needed to be averaged together to allow the reliable detection of the P300 response. Some of them have achieved high accuracies in multiple-trial P300 response detection. However the accuracy of single trial P300 response detection still needs to be improved. In this research, two single trial P300 response classification methods were designed. One is based on independent component analysis (ICA) with blind tracking and the other is based on variance analysis. The purpose of both methods is to detect a chosen character in real-time in the P300-BCI speller. The experimental results demonstrate that the proposed methods dramatically reduce the signal processing time, improve the data communication rate, and achieve overall accuracy of 79.1% for ICA based method and 84.8% for variance analysis based method in single trial P300 response classification task. Both methods showed better performance than that of the single trial stepwise linear discriminant analysis (SWLDA), which has been considered as the most accurate and practical technique working with P300-BCI Speller.
APA, Harvard, Vancouver, ISO, and other styles
6

Özenir, Onur. "Redundancy techniques for 5G Ultra Reliable Low Latency Communications." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2022. http://amslaurea.unibo.it/25082/.

Full text
Abstract:
The 5G Core Network architecture is modeled to include instruments that can establish networks built on the same physical infrastructure but serve different service categories for communication types with varying characteristics. Relying on virtualization and cloud technologies, these instruments make the 5G system different from previous mobile communication systems, change the user profile, and allow new business models to be included in the system. The subject of this thesis includes the study of Ultra-reliable low latency communication, which is one of the fundamental service categories defined for the 5G system, and the analysis of the techniques presented in 3GPP’s Release 16, which enhance the service parameters by modifying the core network. In the theoretical part, the 5G system and URLLC are introduced with a particular focus on the user plane on the core network. In the implementation part, redundant transmission support on the N3 interface, one of the techniques presented in the technical specification, is modeled using open source software tools (Open5GS and UERANSIM) and network virtualization instruments. As a result of the tests and measurements performed on the model, it was observed that the implemented technique enhanced the system's reliability.
APA, Harvard, Vancouver, ISO, and other styles
7

Leal, Anamary. "Exploring the effectiveness of 3D file browsing techniques for file searching tasks." Honors in the Major Thesis, University of Central Florida, 2009. http://digital.library.ucf.edu/cdm/ref/collection/ETH/id/1285.

Full text
Abstract:
This item is only available in print in the UCF Libraries. If this is your Honors Thesis, you can help us make it available online for use by researchers around the world by following the instructions on the distribution consent form at http://library.ucf.edu/Systems/DigitalInitiatives/DigitalCollections/InternetDistributionConsentAgreementForm.pdf You may also contact the project coordinator, Kerri Bottorff, at kerri.bottorff@ucf.edu for more information.
Bachelors
Engineering and Computer Science
Early Childhood Education
APA, Harvard, Vancouver, ISO, and other styles
8

King, Timothy L. "Hardware interface to connect an AN/SPS-65 radar to an SRC-6E reconfigurable computer." Thesis, Monterey, Calif. : Springfield, Va. : Naval Postgraduate School ; Available from National Technical Information Service, 2005. http://library.nps.navy.mil/uhtbin/hyperion/05Mar%5FKing.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Laffite, Guillaume. "Etude et développement de dispositifs micro et nanofluidiques à interface polarisable de type silicium/diélectrique/électrolyte." Phd thesis, Université Claude Bernard - Lyon I, 2012. http://tel.archives-ouvertes.fr/tel-00864727.

Full text
Abstract:
Ce travail de thèse s'articule autour de deux axes de recherche liés à l'étude et au développement de dispositifs micro- et nano-fluidiques à interface polarisable de type SOE (pour Semiconductor Oxide Electrolyte ). La première partie du manuscrit est consacrée à la réalisation de membranes en silicium formées d'un réseau périodique de nano-canaux (i.e. de diamètre ~ 100nm). La spécificité de nos travaux réside dans l'utilisation d'un procédé de gravure électrochimique du silicium assisté d'un pré-masquage. Les résultats de gravure électrochimique obtenus constituent à ce jour l'état de l'art en termes de formation de réseaux périodiques de pores denses. Ces structures dites submicrom étriques sont caractérisés par des densités allant de 1 jusqu'à 8pores.μm-² avec des rapports d'aspects supérieurs à 50. A partir de ces réseaux de pores, nous avons optimisé un procédé technologique de gravure de la face arrière du silicium qui nous a permis de réaliser des membranes à hautes densités de nano-canaux sur des surfaces typique de ~ 0,1mm². Ces structures qui présentent de hautes propriétés de sélectivité, de perméabilité et de surface spécifique, seront tout à fait adaptées à la réalisation de futurs transistors nano-fluidiques performants. La seconde partie du manuscrit traite de l'étude de la modulation du potentiel ξ au niveau d'interfaces SOE polarisées. Cette grandeur qui est reliée par l'intermédiaire de l'équation de Grahame à la densité de contre-ions présents dans la couche diffuse mobile, va notamment influencer les phénomènes de transport sélectifs d'espèces chargées à l'échelle du nano-canal. Dans le cadre de cette thèse, les caractérisations du potentiel ξ de nos interfaces SOE ont été réalisées par une technique de courants d'écoulement et une technique par AFM à sonde colloïdale. Les couches isolantes que nous avons utilisées (silice et alumine), ont été choisies pour garantir une influence négligeable des courants de fuite (~ 10pA.cm-²) et pour assurer une accumulation maximale de charges ioniques dans le liquide sous l'effet du potentiel appliqué (> 1mC.m-²). Cependant, aucune modulation du potentiel ξ n'a expérimentalement été mesurée quelle que soit la technique sur nos deux types de surfaces. En parallèle, nous avons développé un modèle de description théorique du comportement du potentiel ξ en solution (en fonction du pH, de la force ionique et de la polarisation), qui tient spécifiquement compte du phénomène de régulation de charges présent à la paroi de l'interface solide/liquide. Les résultats de simulations que nous présentons dans cette thèse, mettent clairement en avant le fait que nous devrions mesurer une modulation non négligeable du potentiel ξ dans nos conditions opératoires (~ 10mV). Ce désaccord entre les résultats théoriques et expérimentaux, conduit en fin du manuscrit à une discussion sur le comportement des charges ioniques déplacées du côté du liquide sous l'effet de la polarisation. Nous proposons une interprétation qui implique que la quasi- totalité de ces charges ioniques serait directement adsorbée à la paroi de l'interface solide/liquide. Cela aurait pour conséquence de ne pas modifier la densité contre-ionique de charges présente dans la couche diffuse (i.e. pas de modulation du potentiel ξ). L'ensemble des connaissances acquises durant cette thèse, ouvriront des perspectives sur le développement et la caractérisation de transistors nano-fluidiques, en vue de les intégrer dans les futurs laboratoires sur puce
APA, Harvard, Vancouver, ISO, and other styles
10

Jaumouillé, Vincent. "Dynamique des structures à interfaces non linéaires : Extension des techniques de balance harmonique." Phd thesis, Ecole Centrale de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00670283.

Full text
Abstract:
Cette étude porte sur la simulation dynamique de structures présentant des interfaces non linéaires et plus particulièrement sur le développement de diverses extensions à la méthode de balance harmonique. Cette méthode, qui permet le calcul de réponses vibratoires stationnaires, est basée sur l'approximation en série de Fourier tronquée de la réponse. En fonction de caractère plus ou moins non linéaire de la réponse, le nombre d'harmoniques à retenir pour approcher de façon satisfaisante la réponse peut être important et varier fortement sur l'ensemble de la plage de fréquence de simulation. Un des objectifs principaux de cette recherche a été de proposer une stratégie de calcul qui permette d'adapter le nombre d'harmoniques à chaque fréquence. Dans l'optique d'approcher le mouvement global de la structure, la méthodologie proposée se base sur le suivi de l'énergie de déformation du système en fonction de la richesse du contenu fréquentiel. La formulation développée reste simple à calculer et compatible avec les étapes de condensation interne à la méthode de balance harmonique. L'extension de cette technique au calcul de réponses quasi-stationnaires est en outre possible en redéfinissant les stratégies de choix des harmoniques à retenir. Parallèlement à ce but principal, la présence de variables internes dans les modèles non linéaires d'interface (modèle de frottement par exemple) a été prise en compte dans la formulation des équations de la balance harmonique adaptative. Ces méthodes spécifiques ont ensuite été mises en oeuvre sur des modèles numériques de structures aéronautiques. Un isolateur d'équipement utilisant un matériau viscoélastique non linéaire a ainsi pu être simulé. Ensuite, la méthode de balance harmonique adaptative a pu être appliquée à l'étude des effets dynamiques non linéaires observée sur les structures boulonnées. Enfin, le calcul de réponses quasi périodiques s'est effectué sur un tronçon de lanceur intégrant des amortisseurs à frottement sec.
APA, Harvard, Vancouver, ISO, and other styles
11

Pagliuso, Priscilla de Barros Basso. "Metodo para avalição de interface Web baseado nos principios de usabilidade - AvalUWeb." [s.n.], 2004. http://repositorio.unicamp.br/jspui/handle/REPOSIP/264783.

Full text
Abstract:
Orientador: Ademir Jose Petenate
Dissertação (mestrado profissional) - Universidade Estadual de Campinas, Faculdade de Engenharia Mecanica
Made available in DSpace on 2018-08-04T19:20:41Z (GMT). No. of bitstreams: 1 Pagliuso_PriscilladeBarrosBasso_M.pdf: 977669 bytes, checksum: 2b308bdd494e07f6bd69f24520908463 (MD5) Previous issue date: 2004
Resumo: Este trabalho aborda o desenvolvimento de um método para avaliação de características de usabilidade de interface web através de um checklist definido e desenvolvido neste trabalho. São propostos estudos, planejamento, construção, aplicação e evolução do checklist. Um estudo de caso relata o emprego do método aqui proposto, baseado nos critérios para desenvolvimento de interface Web descritos por Jacob Nielsen e em quesitos para a ergonomia de software da norma ISO 9241, para a avaliação da usabilidade de interface web. O estudo de caso é composto pela preparação do material a ser avaliado e pelo checklist, apresentando os formulários a serem preenchidos com os dados obtidos durante o processo de avaliação, o treinamento dos avaliadores e finalmente discute os resultados obtidos pelos avaliadores em um site escolhido como estudo de caso. Com os resultados obtidos durante o processo de avaliação, busca-se sugerir melhorias aos desenvolvedores de interface web a fim de que estas interfaces disponibilizadas na rede possuam o máximo de qualidade, fazendo com que usuários se sintam atraídos a navegar pela rede e pelos sites e que retomem por ter encontrado a informação ou o serviço procurado. Tudo de forma rápida e fácil pois intenautas tem sempre pouco tempo a dispor e buscam qualidade, facilidade e rapidez nas informações. O diferencial deste método é a possibilidade de trabalho em duas (02) fases dentro do ciclo de vida de um projeto web, na fase de elaboração e desenvolvimento ou então na fase de avaliação de interfaces já concluídas ou em fase de conclusão
Abstract: In this work we describe the development of a detailed method to evaluate aspects of web interface usability using a well defined checklist. Complete procedures how to plan, construct and apply the proposed checklist is presented. To illustrate, we employed the developed methods to an example case, describing how to perform web interface usability evaluation according to the rules of web interface development by Jacob Nielsen and following the requirements of software ergonomy by norm ISO 9241. This case study inc1udes the preparation of the material to be evaluated, the elaboration of the checklist itself, instructions concerning how to fill the forms with the information collected during the evaluation process, procedures for evaluators training and finally, a complete worksheet with the results. These results obtained by the evaluation process can guide to the web designers to correct errors and make significant improvements in order to achieve the maximum usability quality in their web pages. As such, web user will be pleased surfing on web, browsing sites which can provide them the service they are looking for in the easiest and fastest possible way. Web users usually do not have much time to search for the service anel/or information they need, therefore they will came back more frequently 1"0sites that can provide what they want with maximum quality in the shortest time. We argue that our web interface usability evaluation method can help the web designers to reach this level
Mestrado
Gestão da Qualidade Total
Mestre em Engenharia Mecânica
APA, Harvard, Vancouver, ISO, and other styles
12

Martín, Adriana. "Engineering accesible web applications." Editorial de la Universidad Nacional de La Plata (EDULP), 2014. http://hdl.handle.net/10915/35691.

Full text
Abstract:
En esta tesis presentamos un nuevo enfoque para concebir, diseñar y desarrollar aplicaciones web accesibles usando conceptos de la Orientación a Aspectos. Con el fin de alcanzar nuestro objetivo, proveemos algunas técnicas de modelado que desarrollamos explícitamente para manejar las características no-funcionales, genéricas y transversales de la accesibilidad. Concretamente, enriquecimos la técnica UID con puntos de integración para registrar los intereses de accesibilidad que serán considerados en el diseño de la interfaz de usuario. Luego, instanciando la plantilla SIG con tablas de asociación, trabajamos en el modelo de interfaz abstracta con softgoals de accesibilidad para obtener un modelo de interfaz concreta y accesible de la aplicación web en desarrollo. Para ilustrar nuestras ideas y señalar las ventajas de una clara separación de intereses durante el ciclo de vida de desarrollo, utilizamos un ejemplo de aplicación real. De esta manera, nuestra propuesta se fundamenta en técnicas de diseño reconocidas, las cuales hemos embebido en una herramienta de software, con el propósito de facilitar la transferencia del enfoque a la industria. (del texto de la contratapa)
Tesis doctoral de la Facultad de Informática (UNLP). Grado alcanzado: Doctor en Ciencias Informáticas. Director de tesis: Alejandra Cechich; co-director de tesis: Gustavo Rossi. La tesis, presentada en el año 2012, obtuvo el Premio "Dr. Raúl Gallard" en el 2013.
APA, Harvard, Vancouver, ISO, and other styles
13

Park, So Jeong. "Propriétés électriques et modélisation des dispositifs MOS avanvés : dispositif FD-SOI, transistors sans jonctions (JLT) et transistor à couche mince à semi-conducteur d'oxyde amorphe." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00954637.

Full text
Abstract:
Selon la feuille de route des industriels de la microélectronique (ITRS), la dimension critiqueminimum des MOSFET en 2026 ne devrait être que de 6 nm [1]. La miniaturisation du CMOS reposeessentiellement sur deux approches, à savoir la réduction des dimensions géométriques physiques etdes dimensions équivalentes. La réduction géométrique des dimensions conduit à la diminution desdimensions critiques selon la " loi " de Moore, qui définit les tendances de l'industrie dessemiconducteurs. Comme la taille des dispositifs est réduite de façon importante, davantage d'effortssont consentis pour maintenir les performances des composants en dépit des effets de canaux courts,des fluctuations induites par le nombre de dopants.... [2-4]. D'autre part, la réduction des dimensionséquivalentes devient de plus en plus importante de nos jours et de nouvelles solutions pour laminiaturisation reposant sur la conception et les procédés technologiques sont nécessaires. Pour cela,des solutions nouvelles sont nécessaires, en termes de matériaux, d'architectures de composants et detechnologies, afin d'atteindre les critères requis pour la faible consommation et les nouvellesfonctionnalités pour les composants futurs ("More than Moore" et "Beyond CMOS"). A titred'exemple, les transistors à film mince (TFT) sont des dispositifs prometteurs pour les circuitsélectroniques flexibles et transparents.
APA, Harvard, Vancouver, ISO, and other styles
14

Hak, Jean-Luc. "Engineering annotations for supporting the design process of interactive systems : a model based approach and a tool suite." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30062.

Full text
Abstract:
Au cours d'un processus de développement de système interactifs, différents acteurs collaborent lors des activités de ce processus et plusieurs choix de conceptions sont effectués afin de converger vers une solution répondant à la fois aux besoins des utilisateurs et aux exigences. Pour atteindre cette solution, de nombreux artefacts sont produits, utilisés et révisés par les différents intervenants du processus. Afin de communiquer sur des points particuliers d'un artefact, collaborer dans son élaboration ou tout simplement rajouter des informations complémentaires, des annotations peuvent être créés sur ces artefacts. En fonction des annotations et de leurs contenus, certains artefacts peuvent par la suite être amenés à évoluer, reflétant ainsi l'influence des annotations sur ces artefacts et donc leurs influences sur le projet de manière globale. Il est donc possible de considérer les annotations comme un outil versatile jouant un rôle non négligeable dans le processus de conception. Néanmoins, plusieurs problèmes peuvent être identifiés concernant l'intégration des annotations au sein des activités d'un processus de conception de système interactifs. Premièrement, le rôle des annotations n'est pas clairement défini dans les différents processus de conceptions. En effet, bien qu'on observe l'usage omniprésent des annotations lors de la conception de systèmes interactif, les processus de conception actuels n'expliquent pas comment les relier aux tâches à accomplir et les artefacts à produire. Deuxièmement, une annotation peut concerner plusieurs artefacts car chacun modélise des points de vue complémentaires du système interactif. Néanmoins, la multiplicité des types d'artefacts et des outils pour la création de ces artefacts pose un problème car chaque outil qui offre la possibilité de créer des annotations propose son propre modèle d'annotation. Ce modèle est généralement restreint à un type d'artefact donné : celui manipulé par l'outil. Ceci implique que les annotations d'un projet sont éparpillées par lot et que chaque lot d'annotations est fermé à un seul type d'artefact. Cette thèse s'appuie sur une analyse des annotations et des pratiques liées aux annotations ainsi que sur la recommandation "Web Annotation Data Model" du W3C pour proposer un modèle d'annotation et une architecture logicielle permettant de centraliser les annotations d'un projet et d'intégrer ces annotations dans divers types d'outils et d'artefacts. Ce modèle d'annotation et cette architecture logicielle a été appliquée dans trois études de cas différents afin d'explorer différentes intégrations possibles au sein d'un processus de conception. La première étude de cas démontre l'intégration et la personnalisation d'annotations au sein d'un outil de prototypage. La seconde étude de cas s'attarde sur la présentation d'un outil permettant de consulter dans une vue unique l'ensemble des annotations créés sur différents artefacts et sur les différents modèles d'un projet. La troisième étude de cas illustre une intégration des annotations dans un environnement industriel comprenant des outils et un processus de conception existant. Ainsi, ces contributions autour des annotations servent de base pour la réalisation de travaux complémentaires tels que l'utilisation d'annotations pour structurer et connecter les différents modèles d'un système interactif, l'utilisation d'annotations en tant que ressource pour les processus de prises de décisions, et l'utilisation d'annotations pour étudier la traçabilité de l'évolution d'un système interactif. En effet, en reliant les artefacts entre eux en utilisant les annotations et en justifiant les choix de conceptions avec des annotations, il serait possible d'assurer la traçabilité des différents choix de design effectués au cours d'un projet ainsi que la traçabilité de l'impact de ces différents choix sur les artefacts
During the development process of an interactive system, different actors collaborate in the activities of this process and several design choices are made to converge to a solution that meets both user needs and requirements. To achieve this solution, many artifacts are produced, used and reviewed by the various stakeholders of the process. In order to communicate on particular points of an artifact, to collaborate in its elaboration or simply to add additional information, annotations can be created on these artifacts. Depending on the annotations and their contents, some artefacts may subsequently evolve, thus reflecting the influence of annotations on these artifacts and therefore reflecting their influence on the project. Thus, it is possible to consider annotations as a versatile tool playing a significant role in the design process. Nevertheless, several issues can be identified regarding the integration of annotations within the activities of the design process of interactive systems. First, the role of annotations is not clearly defined in the different design processes. While there is a widespread and a ubiquitous use of annotations in the design of interactive systems, current design processes do not address how to relate them to the tasks to be performed and the artifacts to be produced. Secondly, an annotation can be related to several artifacts as each models are giving a complementary representation of the interactive system. However, the multiplicity of artifact types and tools for creating these artifacts is a problem since each tool that provide features for annotations implements their own annotation model. These models are usually restricted to one type of artifact: the one handled by the tool. This implies that the annotations produced within a project are scattered by sets and that each these annotation set is closed to a single type of artifact. This PhD thesis is based on an analysis of annotations and their uses as well as on the W3C "Web Annotation Data Model" recommendation to propose an annotation model and an architecture to centralize the annotations of a project. This architecture also allows to include the annotations support on various tools and type of artifacts. This contribution has been applied on three different case studies to explore the possible integrations of annotations within a design process. The first case study demonstrates the integration and customization of annotations within a prototyping tool. The second case study focuses on the presentation of a tool allowing to consult in a single view all the annotations created on different artefacts and on different models of a project. The third case study illustrates an integration of annotations into an industrial environment that includes existing tools and an existing design process. Thus, these contributions around annotations are used as a basis for the realization of complementary works such as the use of annotations to structure and connect the different models of an interactive system, the use of annotations as a resource for the decisions making processes, and the use of annotations to study the traceability of the evolution of an interactive system. Indeed, by linking the artifacts to each other using annotations and justifying the choice of designs with annotations, it would be possible to ensure the traceability of the different design choices made during a project as well as the traceability of the impact of these different choices on the artifacts
APA, Harvard, Vancouver, ISO, and other styles
15

Corus, Mathieu. "Amélioration de méthodes de modification structurale par utilisation de techniques d'expansion et de réduction de modèle." Phd thesis, Ecole Centrale Paris, 2003. http://tel.archives-ouvertes.fr/tel-00011298.

Full text
Abstract:
Les méthodes de modification structurale sont l'ensemble des techniques qui permettent d'estimer l'influence d'une modification quelconque sur le comportement dynamique d'une structure. Dans le cadre général, le modèle de comportement de la structure cible, comme celui de la modification, peut être aussi bien numérique qu'expérimental. Dans le cadre de ce travail, seul le cas particulier du couplage d'un modèle expérimental de la structure et d'un modèle numérique de la modification sera traité.
Les concepts fondamentaux utilisés dans cette thèse sont ensuite présentés. Les relations de la dynamique des structures pour les problèmes discrets sont rappelées, ainsi que les principes de la synthèse modale, de la sous-structuration dynamique et de la réduction de modèle, tout comme la notion de modes d'interface. Les formulations classiques des méthodes de modification structurale sont ensuite détaillées pour en illustrer les limitations et les restrictions.
Une formulation originale permettant de prendre en compte les incompatibilités entre les mesures et les DDL de l'interface structure/modification et de régulariser la construction d'un modèle de comportement couplé est alors proposée. Cette première contribution de la thèse repose sur l'utilisation des techniques d'expansion de données et de réduction de modèle. Des indicateurs sont également construits pour estimer la cohérence de la prédiction réalisée. Les évolutions sont appliquées au cas d'un démonstrateur numériques et les résultats sont comparés avec les prédictions réalisées par les méthodes classiques. La méthodologie associée à cette nouvelle formulation est alors largement exposée.
L'influence des différents facteurs intervenant dans la construction du modèle couplé et la qualité de la prédiction est ensuite analysée en détail. Cette analyse permet de dresser une liste non exhaustive des précautions à prendre lors de la mise en œuvre de la méthode proposée, depuis la réalisation pratique de l'analyse modale expérimentale jusqu'à l'interprétation des premiers résultats.
Enfin, plusieurs applications sont présentées. Une première structure académique démontre la faisabilité de la méthode. Une deuxième étude, réalisée sur un cas industriel, illustre les gains de temps potentiels en comparant la prédiction avec les résultats d'une étude basée sur un modèle EF recalé de la structure. La troisième étude illustre l'application de la méthode dans un cas type. L'analyse modale de la structure cible permet de comprendre le problème, une modification est conçue, réalisée et mise en place. La prédiction est ensuite comparée aux résultats de l'analyse modale de la structure modifiée. Enfin, la dernière application montre les limites de la méthodologie. L'étude multi-objectifs sur une large bande de fréquences d'une structure industrielle permet de faire une ouverture vers la suite des travaux et montre la nature des difficultés à surmonter.
APA, Harvard, Vancouver, ISO, and other styles
16

Yaul, Frank M. "Amplifier and data converter techniques for low power sensor interfaces." Thesis, Massachusetts Institute of Technology, 2016. http://hdl.handle.net/1721.1/107360.

Full text
Abstract:
Thesis: Ph. D., Massachusetts Institute of Technology, Department of Electrical Engineering and Computer Science, 2016.
Cataloged from PDF version of thesis.
Includes bibliographical references (pages 151-157).
Sensor interfaces circuits are integral components of wireless sensor nodes, and improvements to their energy-efficiency help enable long-term medical and industrial monitoring applications. This thesis explores both analog and algorithmic energy-saving techniques in the sensor interface signal chain. First, a data-dependent successive-approximation algorithm is developed and is demonstrated in a low-power analog-to-digital converter (ADC) implementation. When averaged over many samples, the energy per conversion and number of bitcycles per conversion used by this algorithm both scale logarithmically with the activity of the input signal, with each N-bit conversion using between 2 and 2N+1 bitcycles, compared to N for conventional binary SA. This algorithm reduces ADC power consumption when sampling signals with low mean activity, and its effectiveness is demonstrated on an electrocardiogram signal. With a 0.6V supply, the 10-bit ADC test chip has a maximum sample rate of 16 kHz and an effective number of bits (ENOB) of 9.73b. The ADC's Walden Figure of Merit (FoM) ranges from 3.5 to 20 fJ/conversion-step depending on the input signal activity. Second, an ultra-low supply voltage amplifier stage is developed and used to create an energy-efficient low-noise instrumentation amplifier (LNIA). This chopper LNIA uses a 0.2V-supply inverter-based input stage followed by a 0.8V-supply folded-cascode common-source stage. The high input-stage current needed to reduce the input-referred noise is drawn from the 0.2V supply, significantly reducing power consumption. The 0.8V stage provides high gain and signal swing, improving linearity. Biasing and common-mode rejection techniques for the 0.2V-stage are also presented. The analog front-end (AFE) test chip incorporating the chopper LNIA achieves a power-efficiency figure (PEF) of 1.6 with an input noise of 0.94 [mu]VRMS, integrated from 0.5 to 670 Hz. Human biopotential signals are measured using the AFE.
by Frank M. Yaul.
Ph. D.
APA, Harvard, Vancouver, ISO, and other styles
17

Bergeling, Rickard. "Layer Management in Virtual Reality : An Explorative Technical Design Study." Thesis, KTH, Medieteknik och interaktionsdesign, MID, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-210812.

Full text
Abstract:
Virtual Reality has once again emerged as a platform with great potential for exploratory research. An expectation for the next generation virtual reality platforms is to be used as a tool for graphical designers as a new way to access the virtual world and interact with digital content. Just as mobile applications are developed for smaller screens with touch capabilities and desktop applications for computer screens with the input of mouse and keyboard, the interfaces of VR applications need to be designed with the capabilities and limitations of the platform in mind. A common component in modern graphic editing software is layer management: having the final output of the application divided into sub-components. This thesis explores how layer management can best be implemented in room-scale Virtual Reality with a focus on selection, navigation and manipulation through an iterative design study. The study concludes that, to improve the learnability of a system, interactions should be based on real-world interaction for naturalistic tasks while drawing inspiration from desktop applications for more abstract tasks. Furthermore, the environment needs to be adjusted to the systems designated tasks as well as the physical characteristics of the user. Lastly, as previous studies have suggested, amplifying the movement of manipulated objects in relation to the movement of the controller decreases the required movement of the user, reducing fatigue and increasing the user’s reach. However, this amplification was perceived as a reduction in precision, which some users valued more than movement reduction. Therefore, the amplification factor should be adjusted in relation to the operation’s precision requirements. While directly applicable to layer management in VR, these findings could serve as guidelines for applications utilizing 2D content in a virtual environment, room-scale VR applications designed to perform abstract tasks, and productivity tools for Virtual Reality.
Virtual Reality (VR) har på senare år sett ett uppsving både vad gäller teknisk utveckling och intresse hos konsumenter. Den nya generationens VR-plattformar har stor potential för utforskande studier både vad gäller användningsområden och interaktionsgränssnitt. En av förväntningarna är att VR ska kunna användas inom grafisk formgivning som ett verktyg för att tillgå- och interagera med digitalt innehåll på nya sätt. Precis som mobila applikationer är utvecklade för mindre touch-skärmar och PC-applikationer är designade för mus- och tangentbordsinteraktion med återkoppling genom en datorskärm så kommer gränssnitten för framtidens VR applikationer att vara utformade efter denna plattforms specifikationer. En vanlig komponent i dagens grafiska redigeringsprogramvaror är bildlagerhantering; att ha en bild eller bildruta uppdelad i mindre delar där varje del kan redigeras och påverkas som en separat enhet. Denna uppsats utforskar genom en iterativ designstudie hur bildlagerhantering kan implementeras i en VR miljö med fokus på navigation, val av objekt och manipulation av objekt. Studien visar att interaktionsgränssnitten som baseras på interaktioner med verkligheten och interaktion med traditionella PC applikationer för naturliga respektive abstrakta operationer gör interaktionerna lättare att lära sig och förstå. Förutom de uppgifter som systemet är ämnat att utföra bör även utformningen av den virtuella miljön ta hänsyn till de fysiska egenskaperna hos användaren. Som tidigare studier har visat så kan ett förstärkt utslag av manipulerade objekt i förhållande till kontrollen minska den rörelse som krävs av användaren för att utföra en uppgift och därigenom minska trötthet och öka användarens effektiva räckvidd. Denna förstärkning uppfattades dock som en reducering av precision, vilket vissa användare värdesatte mer än reducering av krävd rörelse. Därför ska förstärkningsgraden sättas i relation till den precision som krävs av varje operation. Studiens resultat är direkt applicerbara för lagerhantering i VR men kan också användas som riktlinjer för VR applikationer som hanterar 2D-innehåll i en 3D miljö samt VR applikationer med syfte att användas som produktivitetsverktyg.
APA, Harvard, Vancouver, ISO, and other styles
18

Allameh, Seyed Majdoddin. "Determination of low-energy interfaces in the Ag/Ni by computer simulations and experimental techniques /." The Ohio State University, 1993. http://rave.ohiolink.edu/etdc/view?acc_num=osu1487842372897431.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Kanetkar, Kavita Vijay. "Formal analysis of component adaptation techniques." Link to electronic thesis, 2002. http://www.wpi.edu/Pubs/ETD/Available/etd-0430102-150305.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Ahmadi, Habiburrahman. "Adhesion evaluation of glass fiber-PDMS interface by means of microdroplet technique." Thesis, Kansas State University, 2011. http://hdl.handle.net/2097/9155.

Full text
Abstract:
Master of Science
Department of Mechanical and Nuclear Engineering
Kevin B. Lease
This research was intended to measure the interfacial shear strength between fiber/ matrix systems and to investigate the relation between structure-mechanical properties and performance of fiber/matrix systems. This work conducted a systematic study on model fiber/matrix systems to enhance the fundamental understanding on how variation of polymeric compositions (and hence, different structures), different curing conditions, and fiber surface treatments influence the interactions between the fiber and matrix. In order to measure the interfacial shear strength of fiber/matrix systems, the microdroplet technique was used. In this technique a polymer droplet was deposited on a fiber in the liquid state. Once the droplet was cured a shear force was applied to the droplet in order to detach the droplet from the fiber. The amount of the force needed to de-bond the droplet was directly related to the strength of the bonds formed between the fiber and matrix during the curing process. In addition, the micro-droplet technique was used to evaluate effects of different crosslinker ratio of fiber/ matrix system and also to see if different curing conditions affect the interfacial shear strength of fiber/ matrix system. Surface treatment was also conducted to evaluate its effects on the interfacial shear strength of the fiber/ matrix system using microdroplet technique. The interfacial shear strength of fiber/ matrix system increased along with the increase of crosslinker ratio to a limiting value, and it decreased as long as the crosslinker ratio increased. Curing condition also caused the interfacial shear strength of fiber/ matrix system to increase when it was cured at higher temperature. Fiber surface treatment exhibited a significant effect to the interfacial shear strength as well as the fiber/ matrix contact angle measurement.
APA, Harvard, Vancouver, ISO, and other styles
21

Chen, Yuhao. "Conforming to interface structured adaptive mesh refinement technique for modeling moving boundary problems." The Ohio State University, 2017. http://rave.ohiolink.edu/etdc/view?acc_num=osu1492428866626613.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Rülander, Britta Angela. "Galvanic vestibular stimulator for fMRI research." Universidade Tecnológica Federal do Paraná, 2016. http://repositorio.utfpr.edu.br/jspui/handle/1/1843.

Full text
Abstract:
CAPES
This master thesis presents the further development of a galvanic vestibular stimulator for use in fMRI examinations developed in a previous thesis (MANCZAK, 2012). This thesis amends the GVS by circuits to measure feedback values and implements the stimulation circuit with digital components, such as a microcontroller and flyback integrated circuits. The microcontroller is used in order to control the current source and process the measured values. The communication between the PC, which allows user interaction through a graphical user interface, and the microcontroller is implemented through optical communication, which is defined by a communication protocol specification. The digital circuitry is designed to be placed within the MRI room, meeting the requirements imposed by strong magnetic fields and radio frequency pulses. The underlying hypothesis of the thesis is that the device can be placed within the MRI room without having a negative impact on the MRI image quality. Laboratory tests without the MRI confirmed the correct design of the galvanic vestibular stimulator.
APA, Harvard, Vancouver, ISO, and other styles
23

Valkov, Boris Ivanov. "A blurred interface formulation of The Reference Map Technique for Fluid-Solid Interactions and Fluid-Solid-Solid Interactions." Thesis, Massachusetts Institute of Technology, 2014. http://hdl.handle.net/1721.1/92123.

Full text
Abstract:
Thesis: S.M., Massachusetts Institute of Technology, Department of Mechanical Engineering, 2014.
Cataloged from PDF version of thesis.
Includes bibliographical references (pages 143-144).
In this work we present a blurred interface method for Fluid-Solid Interactions (FSI) and multiple solids immersed in a fluid or FSSI (Fluid-Solid-Solid Interactions) based on the reference map technique as presented by Kamrin and Rycroft. I will follow the chain of thought which lead from the initial sharp interface technique to the newer blurred interface one. We will present its capabilities of doing fully-coupled simulations of a compressible Navier-Stokes fluid and highly non-linear solid undergoing large deformations all performed on a single Eulerian grid with no Lagrangian particles whatsoever. The Reference Map Technique (RMT) provides an Eulerian simulation framework allowing to compute fully coupled fluid/soft-solid interactions. However, due to the extrapolations inherent to the Ghost Fluid Method (GFM) for fluid/fluid interactions, on which the RMT is based, numerical artifacts get created in the resulting pressure and velocity fields whenever the levelset defining the interface crosses a gridpoint from the fixed cartesian grid utilized in this method. We will therefore follow the creation and propagation of these artifacts as well as analyze how the blurred technique solves or avoids these problems.
by Boris Ivanov Valkov.
S.M.
APA, Harvard, Vancouver, ISO, and other styles
24

Valente, Pedro Dionísio. "Goals Software Construction Process." Master's thesis, Universidade da Madeira, 2007. http://hdl.handle.net/10400.13/13.

Full text
Abstract:
Generalized hyper competitiveness in the world markets has determined the need to offer better products to potential and actual clients in order to mark an advantagefrom other competitors. To ensure the production of an adequate product, enterprises need to work on the efficiency and efficacy of their business processes (BPs) by means of the construction of Interactive Information Systems (IISs, including Interactive Multimedia Documents) so that they are processed more fluidly and correctly.The construction of the correct IIS is a major task that can only be successful if the needs from every intervenient are taken into account. Their requirements must bedefined with precision, extensively analyzed and consequently the system must be accurately designed in order to minimize implementation problems so that the IIS isproduced on schedule and with the fewer mistakes as possible. The main contribution of this thesis is the proposal of Goals, a software (engineering) construction process which aims at defining the tasks to be carried out in order to develop software. This process defines the stakeholders, the artifacts, and the techniques that should be applied to achieve correctness of the IIS. Complementarily, this process suggests two methodologies to be applied in the initial phases of the lifecycle of the Software Engineering process: Process Use Cases for the phase of requirements, and; MultiGoals for the phases of analysis and design. Process Use Cases is a UML-based (Unified Modeling Language), goal-driven and use case oriented methodology for the definition of functional requirements. It uses an information oriented strategy in order to identify BPs while constructing the enterprise’s information structure, and finalizes with the identification of use cases within the design of these BPs. This approach provides a useful tool for both activities of Business Process Management and Software Engineering. MultiGoals is a UML-based, use case-driven and architectural centric methodology for the analysis and design of IISs with support for Multimedia. It proposes the analysis of user tasks as the basis of the design of the: (i) user interface; (ii) the system behaviour that is modeled by means of patterns which can combine Multimedia and standard information, and; (iii) the database and media contents. This thesis makes the theoretic presentation of these approaches accompanied with examples from a real project which provide the necessary support for the understanding of the used techniques.
Orientador Professor Doutor Paulo Nazareno Maia Sampaio
APA, Harvard, Vancouver, ISO, and other styles
25

Lau, Anthony Kwok. "A digital oscilloscope and spectrum analyzer for anaysis of primate vocalizations : master's research project report." Scholarly Commons, 1989. https://scholarlycommons.pacific.edu/uop_etds/2177.

Full text
Abstract:
The major objective of this report is to present information regarding the design, construction, and testing of the Digital Oscilloscope Peripheral which allows the IBM Personal Computer (IBM PC) to be used as both a digital oscilloscope and a spectrum analyzer. The design and development of both hardware and software are described briefly; however, the test results are analyzed and discussed in great detail. All documents including the circuit diagrams, program flowcharts and listings, and user manual are provided in the appendices for reference. Several different products are referred to in this report; the following lists each one and its respective company: IBM, XT, AT, and PS/2 are registered trademarks of International Business; Machines Corporation.; MS-DOS is a registered trademark of Microsoft Corporation.; and Turbo Basic is a registered trademark of Borland International, Inc.
APA, Harvard, Vancouver, ISO, and other styles
26

Gkouskos, Antonis. "A Comparison of Interface Approaches for Immersive Pervasive Games." Thesis, Malmö högskola, Fakulteten för teknik och samhälle (TS), 2014. http://urn.kb.se/resolve?urn=urn:nbn:se:mau:diva-20571.

Full text
Abstract:
The aim of this thesis is to compare two different interface approaches for pervasive gameswith a focus on immersion. We designed and created two small pervasive games and implemented bothon two different platforms; smartphone and wearable device. We created four pervasive gameprototypes which we tested with a group of fourteen testers. We subsequently conducted interviewsusing the Repertory Grid Technique. The findings suggest that our testers appreciated wearable devicesmore than smartphones in the context of immersion, while they identified characteristics theyassociated with each platform; Smartphones were considered familiar, inconspicuous, casual but notvery exciting. Wearables were considered a new experience and fun but also strange and attention-drawing.
APA, Harvard, Vancouver, ISO, and other styles
27

Zheng, Chen. "Design and integration of multi-disciplinary interfaces : method and modelling language for mechatronic systems engineering." Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2241/document.

Full text
Abstract:
Les systèmes mécatroniques sont caractérisés par la combinaison synergique de la mécanique, de l'électronique et de l'informatique en temps réel. Ils possèdent leur propre cycle de vie et doivent associer des expertises métiers et des technologies très variées, ce qui rend leur conception plus complexe et nécessairement plus intégrée. Afin de mettre en œuvre une approche permettant d’assurer une meilleure intégration fonctionnelle et spatiale des systèmes mécatroniques, et plus particulièrement sur l’axe développement de produit en assurant une meilleure combinaison des expertises métier, deux types de problématiques doivent être surmontés. La première problématique a trait aux données de conception alors que la seconde est relative aux processus. La contribution de nos travaux de thèse s’appuie sur deux concepts complémentaires. Le premier, un modèle d’interfaces multidisciplinaires, est proposé pour répondre à la problématique relative aux données de conception. Ces interfaces s’appuient sur l’architecture du système et précisent quels transferts existent entre les composants conçus par les différentes disciplines. Instanciées dans le modèle de données, les interfaces multidisciplinaires permettent d’échanger et de partager les informations entre les différentes disciplines. Le second concept concerne la méthode de conception basée sur le modèle d’interfaces multidisciplinaires. Cette méthode est définie pour pouvoir établir le processus d’ingénierie et permettre une meilleure intégration des expertises métiers tout au long de la conception des systèmes mécatroniques. Enfin, les deux propositions sont implémentées par l’intermédiaire d’un démonstrateur basé sur 3DEXPERIENCE Platform. Un système de mesure 3D, combinaison synergique de la mécanique, de l'électronique, de l'informatique et l’optique, est utilisé afin de démontrer et de valider les contributions par nos travaux en termes d'intégration multidisciplinaire des expertises métier lors de la conception des systèmes mécatroniques
Mechatronic system is considered as a synergetic combination of mechanical engineering, electronic engineering and computer engineering. Such mechatronic system has its own lifecycle and should integrate different disciplines and various technologies. Therefore the design of mechatronic systems becomes increasing complex. In order to propose an approach to achieve a better functional and spatial integration of mechatronic systems, especially to achieve a higher integration of different disciplines during the design process of mechatronic systems, two kinds of problems must be overcome. The first problem is related to design data of mechatronic systems while the second is related to the design process. The contribution of the thesis is based on two complementary concepts. The first contribution, the multi-disciplinary interface model, is proposed to address the issue of design data. These interfaces are based on the system architecture and specify which transfers exist between components designed by the project teams of different disciplines. Instantiated in the data model, multi-disciplinary interfaces enables a better data exchange and sharing among the engineers of different disciplines. The second concept concerns the design method based on the multi-disciplinary interface model. This method is proposed to establish the process for mechatronic engineering in order to achieve a better multi-disciplinary integration for the design of mechatronic systems. Finally, the two propositions are then implemented in a demonstrator developed based on 3DEXPERIENCE Platform. A 3D measurement system, considered as a synergistic combination of mechanical engineering, electronic engineering, computer engineering and optical engineering, is used to demonstrate and validate the propositions of the thesis in terms of multi-disciplinary integration for the design of mechatronic systems
APA, Harvard, Vancouver, ISO, and other styles
28

Rajamani, Bharanidharan. "Composite Solution Technique for Efficient Simulation of Incompressible Flow in Complex 2-D AND Axisymmetric Geometries." University of Cincinnati / OhioLINK, 2002. http://rave.ohiolink.edu/etdc/view?acc_num=ucin1030031668.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Paoli, Roberto. "Cell culture interfaces for different organ-on-chip applications: from photolithography to rapid-prototyping techniques with sensor embedding." Doctoral thesis, Universitat de Barcelona, 2019. http://hdl.handle.net/10803/668376.

Full text
Abstract:
Despite the last 60 years have seen major advances in many scientific and technological inputs of drug Research and Development, the number of new molecules hitting the market per billion US dollars of R&D spending has been declined steadily during the same period. The current scenario highlights the need for new research tools to enable reduce costly animal and clinical trials while providing a better prediction about drug efficacy and security in humans A recent emerging approach to improve the current models is emerging from the field of microfluidics, which studies systems that process or manipulate tiny amounts of fluids using channels with dimensions of tens to hundreds of micrometers. Combining microfluidics with cell culture, scientists gave rise to a new field named “Organ-on-chip” (OOC). Microfluidic OOCs are advanced platforms designed to mimic physiological structures and continuous flow conditions, thus allowing the culture of cells in a friendlier microenvironment. This thesis, titled “Cell culture interfaces for different organ-on-chip applications: from photolithography to rapid-prototyping techniques with sensor embedding”, aims to design, simulate and test new OOC devices to reproduce cell culture interface under flow conditions. The work has a focus on the exploration of novel fabrication techniques which enable rapid prototyping of OOC devices, reducing costs, time and human labor associated to the fabrication process. The final objective is to demonstrate the viability of the devices as research tools for biological problems, applying them to the tubular kidney and the blood brain barrier (BBB). To achieve the objective, at least three device version have been developed: 1) OOCv1, fabricated by multilayer PDMS soft lithography; 2) OOCv2, fabricated in thermoplastic by layered object manufacturing using both a vinyl cutter and a laser cutter, integrating standard fluidic connectors alone (OOCv2.1) or together with embedded electrodes (OOCv2.2); 3) OOCv3 using a mixed technique of laser cut and 3D printing by stereolithography. All devices are fabricated using biocompatible materials with high optical quality and an embedded commercial membrane. The biological experiments with renal tubular epithelial cells, realized on OOCv1 and OOCv2.1 devices, demonstrated the viability of the device for culturing cells under flow conditions. The study realized on fatty acid oxidation and accumulation in cells exposed to physiological and diabetogenic oscillating levels of glucose suggest a possible positive role of shear stress in activation of fatty acid metabolism. The studies were performed using a compact experimental unit with embedded flow control which reduce significatively the complexity and cost of the fluidic experimental setup. The biological experiments on the BBB confirmed viability of OOCv2.1 and OOCv2.2 for compartmentalized co-culturing of endothelial cells and pericytes. The formation and recovery of the barrier after disruptive treatment has been assessed using different techniques, including immunostaining, fluorescence and live phase contrast imaging, and electrical impedance spectroscopy. The repeatability of measurements using electrodes was verified. A model to classify measurements from different timepoints has been developed, resulting in accuracy of 100% in learning and 90% in testing case. Results are confirmed by imaging data, which also suggest a critical role of pericytes in the development, maintenance, and regulation of BBB, in accordance with the literature.
En los últimos años está emergiendo una nueva propuesta para mejorar los modelos actuales en el estudio de nuevos fármacos. Mediante la fusión de cultivos celulares y microfluídica ha nacido un nuevo campo de aplicación denominado “Órgano-en-un-chip” (OOC), donde se recrea un entorno fisiológico capaz de reproducir unidades funcionales mínimas de diversos órganos del cuerpo humano. Un elemento importante para el desarrollo de dispositivos OOC es la reproducción de zonas de interacción entre varios tejidos formados por diferentes tipos celulares. Esta tesis, titulada “Interfaces de cultivo celular para diferentes aplicaciones de OOC: desde fotolitografía a técnicas de prototipado rápido con inclusión de sensores”, tiene como objetivo el diseño, simulación y evaluación de dispositivos OOC capaces de reproducir superficies de contacto de tejidos contiguos expuestos a flujo. El trabajo está enfocado a la exploración de nuevas técnicas de fabricación que permitan el prototipado rápido de dispositivos OOC, reduciendo costes, tiempo y mano de obra asociada a dicha fabricación. El objetivo final es demostrar la utilidad de los dispositivos como herramientas de investigación para problemas biológicos, aplicándolos en esta tesis al estudio del túbulo renal y de la barrera hematoencefálica. Para ello se han fabricado tres versiones de dispositivos: 1) OOCv1 fabricado por litografía suave en múltiples capas de PDMS; 2) OOCv2 fabricado con cortadora de vinilo y cortadora láser en múltiples capas de materiales termoplásticos y con electrodos integrados en la versión OOCv2.2; 3) OOCv3 fabricado mediante impresión 3D por esterolitografía. Todos los dispositivos están hechos de materiales biocompatibles de alta calidad óptica, con conectores fluídicos y una membrana comercial integrada. Los experimentos biológicos sobre túbulo renal, realizados en los dispositivos OOCv1 y OOCv2, han demostrado la viabilidad de los dispositivos, integrados con un sistema de flujo, para estudios de la metabolización de ácidos grasos en el riñón relacionados con condiciones diabetogénicas. Los experimentos biológicos sobre la barrera hematoencefálica han confirmado la viabilidad de OOCv2 para el cocultivo compartimentado de células endoteliales de cerebro y pericitos. La integración de electrodos en el OOCv2.2 ha demostrado ser una técnica fiable para la medición de la integridad de barreras biológicas de modo no-invasivo, libre de etiqueta (“label-free”), y a tiempo real gracias a la espectroscopía de impedancia.
APA, Harvard, Vancouver, ISO, and other styles
30

Bonnafous, Claire. "Analyse multi échelle des mécanismes d'endommagement de composites chanvre/époxy à renforts tissés." Phd thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2010. http://www.theses.fr/2010ESMA0015.

Full text
Abstract:
Le comportement mécanique de composites chanvre/époxy à renfort tissu a été étudié au moyen d'essais de traction aux différentes échelles des constituants. La variabilité des fibres naturelles a été prise en compte grâce à des analyses statistiques qui ont été intégrées dans un modèle analytique permettant d'obtenir une estimation des caractéristiques mécaniques des composites à partir de ses constituants élémentaires. Les mécanismes d'endommagement des composites ont été analysés par des observations microscopiques couplées à la technique d'émission acoustique et au suivi de la perte de rigidité. Les résultats ont montré une progression plus rapide de l'endommagement dans les composites chanvre/époxy [0/90]7 et [-45/+45]7 que dans leurs équivalents en composite verre/époxy pour un même taux volumique de fibres. De plus, les endommagements de l'interface fibre/matrice sont les plus nombreux et les plus précoces dans les composites chanvre/époxy. Les propriétés interfaciales et le transfert de charge à l'interface fibre/matrice des composites chanvre/époxy ont été étudiés grâce à des essais spécifiques instrumentés par photoélasticimétrie et corrélation d'images numériques. Les résultats de l'étude expérimentale ont montré une contrainte critique de cisaillement interfacial plus faible dans les composites chanvre/époxy que dans les composites verre/époxy. Les simulations numériques des tests de fragmentation ont fourni une estimation correcte de cette grandeur sur éprouvette monofilamentaire chanvre/époxy. Des tests d'optimisation ont également été réalisés en effectuant des traitements thermiques et chimiques des renforts
The mechanical behavior of hemp woven fabric/epoxy composites has been studied through tensile tests at the composite constituent scales. The variability of natural fibers has been considered thanks to statistical analyses. It has been integrated in an analytical modeling which has allowed to determine the mechanical properties of composites from elementary components ones. Damage mechanisms have been tracked with microscopic observations coupled with acoustic emission and stiffness loss measurements. Results have shown that the growth of damage is faster in [-45/+45]7 and [0/90]7 hemp/epoxy composites than in glass/epoxy ones, for the same fiber volume fraction. Moreover, fiber/matrix interface damage are the earliest and the most numerous damage in hemp/epoxy composites. The interfacial properties and the stress transfer at fiber/matrix interface in hemp/epoxy composites have been studied thanks to specific tests using photoelasticity and digital image correlation methods. Results have shown that the critical interfacial shear strength is lower for hemp/epoxy composites than for glass/epoxy ones. Numerical simulation of the fragmentation tests provides a correct estimation of this data for single hemp yarn specimen. Optimization tests have also been realized applying thermal and chemical treatments of reinforcement
APA, Harvard, Vancouver, ISO, and other styles
31

Yilmaz, Suphi. "Buckling Driven Delamination Of Orthotropic Functionally Graded Materials." Master's thesis, METU, 2006. http://etd.lib.metu.edu.tr/upload/3/12607836/index.pdf.

Full text
Abstract:
In today'
s technology severe working conditions increase demands on structural materials. A class of materials which are developed to meet these increased demands is Functionally Graded Materials (FGMs). These are inhomogeneous structural materials which are able to withstand large temperature gradients and corrosive environment. Application areas of FGMs are in aerospace industry, nuclear reactors, chemical plants and turbine systems. FGMs have gradual compositional variation from metal to ceramic which give them mechanical strength, toughness and heat resistance. However under high temperature gradients, cracking problems may arise due to thermal stresses. In layered structures the final stage of failure may be delamination due to crack extension. The objective of this study is to model a particular type of crack problem in a layered structure consisting of a substrate, a bond coat and an orthotropic FGM coating. There is an internal crack in the orthotropic layer and it is perpendicular to material gradation of coating. The position of the crack inside the coating is kept as a variable. The steady-state temperature distribution between the substrate and the coating causes a buckled shape along crack face. The critical temperature change, temperature distribution, mixed mode stress intensity values and energy release rates are calculated by using Displacement Correlation Technique. Results of this study present the effects of geometric parameters such as crack length, crack position, etc as well as the effects of the type of gradation on buckling behavior and mixed mode stress intensity factors.
APA, Harvard, Vancouver, ISO, and other styles
32

Crawford, Alistair, and n/a. "Bad Behaviour: The Prevention of Usability Problems Using GSE Models." Griffith University. School of Information and Communication Technology, 2006. http://www4.gu.edu.au:8080/adt-root/public/adt-QGU20061108.154141.

Full text
Abstract:
The aim of Human Computer Interaction or HCI is to both understand and improve the quality of the users' experience with the systems and technology they interact with. Recent HCI research requirements have stated a need for a unified predictive approach to system design that consolidates system engineering, cognitive modelling, and design principles into a single 'total system approach.' At present, few methods seek to integrate all three of these aspects into a single method and of those that do many are extensions to existing engineering techniques. This thesis, however proposes a new behaviour based approach designed to identify usability problems early in the design process before testing the system with actual users. In order to address the research requirements, this model uses a new design notation called Genetic Software Engineering (GSE) in conjunction with aspects of a cognitive modelling technique called NGOMSL (Natural GOMS Language) as the basis for this approach. GSE's behaviour tree notation, and NGOMSL's goal orientated format are integrated using a set of simple conversion rules defined in this study. Several well established design principles, believed to contribute to the eventual usability of a product, are then modelled in GSE. This thesis addresses the design of simple interfaces and the design of complex ubiquitous technology. The new GSE approach is used to model and predict usability problems in an extensive range of tasks from programming a VCR to making a video recording on a modern mobile phone. The validity of these findings is tested against actual user tests on the same tasks and devices to demonstrate the effectiveness of the GSE approach. Ultimately, the aim of the study is to demonstrate the effectiveness of the new cognitive and engineering based approach at predicting usability problems based on tangible representations of established design principles. This both fulfils the MCI research requirements for a 'total system approach' and establishes a new and novel approach to user interface and system design.
APA, Harvard, Vancouver, ISO, and other styles
33

Charbonneau, Emiko. "Bridging the Gap Between Fun and Fitness: Instructional Techniques and Real-World Applications for Full-Body Dance Games." Doctoral diss., University of Central Florida, 2013. http://digital.library.ucf.edu/cdm/ref/collection/ETD/id/5780.

Full text
Abstract:
Full-body controlled games offer the opportunity for not only entertainment, but education and exercise as well. Refined gameplay mechanics and content can boost intrinsic motivation and keep people playing over a long period of time, which is desirable for individuals who struggle with maintaining a regular exercise program. Within this gameplay genre, dance rhythm games have proven to be popular with game console owners. Yet, while other types of games utilize story mechanics that keep players engaged for dozens of hours, motion-controlled dance games are just beginning to incorporate these elements. In addition, this control scheme is still young, only becoming commercially available in the last few years. Instructional displays and clear real-time feedback remain difficult challenges. This thesis investigates the potential for full-body dance games to be used as tools for entertainment, education, and fitness. We built several game prototypes to investigate visual, aural, and tactile methods for instruction and feedback. We also evaluated the fitness potential of the game Dance Central 2 both by itself and with extra game content which unlocked based on performance. Significant contributions include a framework for running a longitudinal video game study, results indicating high engagement with some fitness potential, and informed discussion of how dance games could make exertion a more enjoyable experience.
Ph.D.
Doctorate
Computer Science
Engineering and Computer Science
Computer Science
APA, Harvard, Vancouver, ISO, and other styles
34

Py, Matthieu. "A study of interfaces and nanostructures by time of flight mass spectrometry : towards a spatially resolved quantitative analysis." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00721832.

Full text
Abstract:
Les dispositifs avancés pour la microélectronique intègrent divers matériaux et sont de dimensions nanométriques. Une connaissance précise de leur composition est requise pour améliorer leurs procédés de fabrication et comprendre leur comportement électrique. Le ToF-SIMS est un candidat intéressant, qui souffre cependant des effets de matrice et ne possède pas toujours une résolution spatiale suffisante. Le but de ce travail est de permettre une analyse quantitative et résolue en profondeur de matériaux et structures pour la microélectronique avancée à l'aide d'un ToF-SIMS standard. Cette étude porte sur SiGe, sur des matériaux à haute permittivité, des implants basse énergie et des matériaux organiques. Elle se concentre sur la préparation d'échantillons, l'optimisation des conditions expérimentales et le traitement de données pour mettre au point des protocoles d'analyse originaux dont la précision est évaluée grâce à d'autres techniques de caractérisation de pointe. Ces protocoles permettent d'améliorer la qualité des analyses en termes de résolution en profondeur, de précision et de reproductibilité
APA, Harvard, Vancouver, ISO, and other styles
35

Mastail, Cedric. "Modélisation et simulation du dépôt des oxydes à forte permittivité par la technique du Monte-Carlo cinétique." Phd thesis, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-00541993.

Full text
Abstract:
Miniaturiser les composants impose des changements radicaux pour l'élaboration des dispositifs micro électroniques du futur. Dans ce cadre, les oxydes de grille MOS atteignent des épaisseurs limites qui les rendent perméables aux courants de fuite. Une solution est de remplacer le SiO2 par un matériau de permittivité plus élevée permettant l'utilisation de couches plus épaisses pour des performances comparables. Dans ce travail nous présentons une modélisation multi-échelle de la croissance par couche atomique (ALD) d'HfO2 sur Si permettant de relier la nano-structuration d'une interface au procédé d'élaboration. Nous montrons que la connaissance de processus chimiques élémentaires, via des calculs DFT, permet d'envisager une simulation procédé qui repose sur le développement d'un logiciel de type Monte Carlo Cinétique nommé "HIKAD". Au delà des mécanismes les plus évidents, adsorption, désorption, décomposition et hydrolyse des précurseurs sur la surface, nous introduirons la notion de mécanismes de densification des couches d'oxyde déposées. Ces mécanismes sont l'élément clé permettant de comprendre comment s'effectue la croissance de la couche en termes de couverture. Mais au delà de cet aspect ils nous permettent d'appréhender comment, à partir de réactions de type moléculaire le système évolue vers un matériau massif. Nous discuterons ces divers éléments à la lumière de résultats de caractérisations obtenus récemment sur le plan expérimental du dépôt d'oxydes d'hafnium.
APA, Harvard, Vancouver, ISO, and other styles
36

Mastricola, Nicholas Palma. "Nonlinear Stiffness and Edge Friction Characterization of Coned Disk Springs." The Ohio State University, 2016. http://rave.ohiolink.edu/etdc/view?acc_num=osu1480346443676492.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Yao, Yulong. "THERMAL CONDUCTIVITIES OF ORGANIC SEMICONDUCTORS." UKnowledge, 2017. http://uknowledge.uky.edu/physastron_etds/48.

Full text
Abstract:
Organic semiconductors have gained a lot of interest due to their ease of processing, low-cost and inherent mechanical flexibility. Although most of the research has been on their electronic and optical properties, knowledge of the thermal properties is important in the design of electronic devices as well. Our group has used ac-calorimetric techniques to measure both in-plane and transverse thermal conductivities of a variety of organic semiconductors including small-molecule crystals and polymer blends. For layered crystals composed of molecules with planar backbones and silylethynyl (or germylethynyl) sidegroups projecting between the layers, very high interplanar thermal conductivities have been observed, presumably implying that heat flows between layers mostly via interactions between librations on these sidegoups. Since most organic semiconducting devices require materials in thin film rather than bulk crystal form, I have focused on using the “3ω- technique” to measure the thermal resistances of thin films of this class of organic semiconductors, including bis(triisopropylsilylethynyl) pentacene (TIPS-pn), bis(triethylsilylethynyl) anthradithiophene (TES-ADT), and difluoro bis(triethylsilylethynyl) anthradithiophene (diF-TES-ADT). For each material, several films of different thicknesses have been measured to separate the effects of intrinsic thermal conductivity from interface thermal resistance. For sublimed films of TIPS-pn and diF-TES-ADT, with thicknesses ranging from less than 100 nm to greater than 4 μm, the thermal conductivities are similar to those of polymers and over an order of magnitude smaller than those of single crystals, presumably reflecting the large reduction in phonon mean-free path due to disorder in the films. On the other hand, the thermal resistances of thin (≤ 205 nm) crystalline films of TES-ADT, prepared by vapor-annealing of spin-cast films, are dominated by their interface resistances, possibly due to dewetting of the film from the substrate during the annealing process.
APA, Harvard, Vancouver, ISO, and other styles
38

Nguyen, Nhan Hoa. "Dégradation du béton armé sous actions sévères : Etude du comportement résiduel de l’adhérence à l’aide de la technique d’émission acoustique." Thesis, Rennes, INSA, 2014. http://www.theses.fr/2014ISAR0019.

Full text
Abstract:
De nos jours, le béton est le matériau de construction le plus utilisé dans le monde en raison de ses performances mécaniques, sa facilité de mise en oeuvre, son coût compétitif et sa « recyclabilité ». Toutefois, compte tenu de son caractère fragile en terme mécanique et de sa faible résistance à la traction, il est souvent renforcé par des armatures métalliques qui lui confèrent une bonne ténacité et une meilleure aptitude à supporter les efforts de traction. Ce composite béton-armature ne peut cependant assurer efficacement son rôle que si les deux composants sont étroitement liés l’un à l’autre. C’est donc dans la qualité de l’adhérence que réside l’efficacité du transfert des efforts entre les deux matériaux. Or, dès la mise en place des ouvrages en béton armé et pendant toute la durée de leur exploitation, différentes actions et agents agresseurs peuvent modifier la qualité de cette adhérence. Il peut s’agir de phénomènes naturels comme le gel/dégel et l’action du dioxyde de carbone atmosphérique, ou des sollicitations accidentelles comme l’incendie ou encore l’action de certains agents spécifiques comme les chlorures et les sulfates. Notre objectif dans cette thèse est de qualifier les modifications d’adhérence qui résultent de quatre types de sollicitations couramment rencontrées dans la vie des ouvrages en béton armé: l’effet des températures élevées, l’effet de la carbonatation, l’effet des cycles gel/dégel, l’effet de la corrosion. Nous évaluons la qualité de l’adhérence par la mesure de la résistance à l’arrachement et par l’analyse du comportement résiduel sous sollicitation mécanique. La technique d’émission acoustique est utilisée pour localiser en temps réel, l’endommagement du matériau sous sollicitation. Les applications de notre étude concernent non seulement les armatures et inserts classiques du béton armé mais aussi les nombreux dispositifs constructifs des structures mixtes acier – béton qui utilisent les liaisons par goujons pour relier les deux matériaux
Nowadays, concrete is the most used construction material in the world because of its mechanical performances, its ability to be molded or cast, its competitive cost and its recyclability. However, concrete has a low ductility and a relatively low tensile strength compared to other construction materials. Therefore, concrete is often reinforced by steel rebars to improve the ductility and tensile strength. Nevertheless, to make reinforced concrete being highly efficient material, the two components need to be correctly bonded each to other. The bond quality the efficiency of the force transfer between rebar and concrete surrounding ensures. In fact, since the casting of concrete and during the service life of reinforced concrete structure, various actions such corrosion action, freeze/thaw attack and chemical attack etc. may affect the bond quality. The objective of this PhD research work is to qualify the changes of adhesion property causing by four types of action which frequently takes place in the service life of reinforced concrete structures: the effect of high temperatures, the effect of carbonation, the effect of cycles freeze/thaw, the effect of corrosion. The concrete-rebar bond quality is evaluated by doing pull-out tests under static mechanical action and measuring the bond strength and analyzing residual behaviour. Moreover, the acoustic emission technique is used to locate the cracks and evaluate the cracking evolution in real time. The founding of this study can be also extended to apply to other concrete-steel structures like composite structures in which headed studs are used to connect steel profiles to concrete
APA, Harvard, Vancouver, ISO, and other styles
39

Qazi, Imtnan-Ul-Haque. "Luminance-Chrominance linear prediction models for color textures: An application to satellite image segmentation." Phd thesis, Université de Poitiers, 2010. http://tel.archives-ouvertes.fr/tel-00574090.

Full text
Abstract:
Cette thèse détaille la conception, le développement et l'analyse d'un nouvel outil de caractérisation des textures exploitant les modèles de prédiction linéaire complexe sur les espaces couleur perceptuels séparant l'intensité lumineuse de la partie chromatique. Des modèles multicanaux 2-d causaux et non-causaux ont été utilisés pour l'estimation simultanée des densités spectrales de puissance d'une image " bi-canal ", le premier contenant les valeurs réelles de l'intensité et le deuxième les valeurs complexes de la partie chromatique. Les bonnes performances en terme de biais et de variance de ces estimations ainsi que l'usage d'une distance appropriée entre deux spectres assurent la robustesse et la pertinence de l'approche pour la classification de textures. Une mesure de l'interférence existante entre l'intensité et la partie chromatique à partir de l'analyse spectrale est introduite afin de comparer les transformations associées aux espaces couleur. Des résultats expérimentaux en classification de textures sur différents ensembles de tests, dans différents espaces couleur (RGB, IHLS et L*a*b*) sont présentés et discutés. Ces résultats montrent que la structure spatiale associée à la partie chromatique d'une texture couleur est mieux caractérisée à l'aide de l'espace L*a*b* et de ce fait, cet espace permet d'obtenir les meilleurs résultats pour classifier les textures à l'aide de leur structure spatiale et des modèles de prédiction linéaire. Une méthode bayésienne de segmentation d'images texturées couleur a aussi été développée à partir de l'erreur de prédiction linéaire multicanale. La contribution principale de la méthode réside dans la proposition d'approximations paramétriques robustes pour la distribution de l'erreur de prédiction linéaire multicanale : la distribution de Wishart et une approximation multimodale exploitant les lois de mélanges gaussiennes multivariées. Un autre aspect original de l'approche consiste en la fusion d'un terme d'énergie sur la taille des régions avec l'énergie du modèle de Potts afin de modéliser le champ des labels de classe à l'aide d'un modèle de champ aléatoire possédant une distribution de Gibbs. Ce modèle de champ aléatoire est ainsi utilisé pour régulariser spatialement un champ de labels initial obtenu à partir des différentes approximations de la distribution de l'erreur de prédiction. Des résultats expérimentaux en segmentation d'images texturées couleur synthétiques et d'images satellites hautes résolutions QuickBird et IKONOS ont permis de valider l'application de la méthode aux images fortement texturées. De plus les résultats montrent l'intérêt d'utiliser les approximations de la distribution de l'erreur de prédiction proposées ainsi que le modèle de champ de labels amélioré par le terme d'énergie qui pénalise les petites régions. Les segmentations réalisées dans l'espace L*a*b* sont meilleures que celles obtenues dans les autres espaces couleur (RGB et IHLS) montrant à nouveau la pertinence de caractériser les textures couleur par la prédiction linéaire multicanale complexe à l'aide de cet espace couleur.
APA, Harvard, Vancouver, ISO, and other styles
40

Dragicevic, Pierre. "Un modèle d'interaction en entrée pour des systèmes interactifs multi-dispositifs hautement configurables." Phd thesis, Université de Nantes, 2004. http://tel.archives-ouvertes.fr/tel-00009800.

Full text
Abstract:
Aujourd'hui, les applications comme les outils de développement demeurent câblés pour une utilisation exclusive et stéréotypée du clavier et de la souris, et ignorent tout autre paradigme d'interaction. Bien qu'avérés, les problèmes liés à l'adaptabilité en entrée ont encore fait l'objet de très peu d'études. Dans cette thèse, nous proposons un modèle basé sur des configurations d'entrée, où des dispositifs d'entrée sont librement connectés aux applications à travers des adaptateurs, et où la traditionnelle file d'événements est remplacée par un paradigme à flot de données réactif. Ce modèle a donné lieu à la boîte à outils en entrées ICON (Input Configurator), qui permet de construire des applications interactives entièrement configurables en entrée, capables d'exploiter des dispositifs et des techniques d'interaction non-standard. Son éditeur visuel permet au développeur de créer rapidement des configurations pour des entrées appauvries ou enrichies, que les utilisateurs avancés peuvent ensuite adapter à leurs besoins.
APA, Harvard, Vancouver, ISO, and other styles
41

Ta, Vinh Thong. "Equations aux différences partielles définies sur des graphes pour le traitement d'images et de données." Phd thesis, Université de Caen, 2009. http://tel.archives-ouvertes.fr/tel-00472041.

Full text
Abstract:
Cette thèse s'intéresse aux traitements d'images et de données non uniformes en utilisant le formalisme des équations aux différences partielles définies sur des graphes pondérés. Nous exploitons ce formalisme afin de transcrire et d'adapter des modèles définis dans le domaine continu vers des formulations discrètes. Les modèles continus considérés dans ce manuscrit proviennent du domaine du traitement des images et sont définis comme des modèles variationnels ou des approches basées sur des équations aux dérivées partielles. Nous nous sommes intéressés à des modèles de régularisation, à la morphologie mathématique et à l'équation eikonale. Afin de transcrire ces modèles définis dans le domaine continu vers des formulations discrètes, nous avons introduit une large famille de nouveaux opérateurs différentiels discrets définis sur des graphes pondérés: différences pondérées, gradients discrets, p-Laplacien. Ces opérateurs permettent de redéfinir les modèles continus considérés dans un cadre discret mais également de proposer un formalisme général permettant de considérer de nombreux problèmes liées aux traitements des images et, plus généralement, de données arbitraires. A partir des modèles discrets de régularisation, de morphologie mathématique et de l'équation eikonale, nous montrons dans ce manuscrit les potentialités de notre formalisme pour des applications telles que le filtrage, la simplification, la segmentation, le regroupement et la classification d'images et de données. Notre formalisme unifie également les traitements locaux et non locaux basés sur des patchs. Nous avons généralisé l'utilisation de ce type de configuration dans les problématiques considérées et montré la supériorité de ces schémas dans le contexte du traitement des images. Notre formalisme est basé sur des graphes pondérés. Cela nous permet d'étendre les modèles définis dans le domaine continu aux traitements de n'importe quel type de donnée pouvant être représenté par cette structure (par exemple des images, des collections d'images, des nuages de points, des variétés, des bases de données, etc.). Finalement, ces travaux de thèse permettent d'envisager de nombreuses pistes de recherche tant dans le domaine du traitement des images que dans des domaines tels que celui de l'apprentissage ou de la fouille de données.
APA, Harvard, Vancouver, ISO, and other styles
42

Louys, Mireille. "Traitement d'images de microscopie électronique appliqué à l'étude structurale de macromolécules biologiques." Université Louis Pasteur (Strasbourg) (1971-2008), 1988. http://www.theses.fr/1988STR13153.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Loquin, Kevin. "De l'utilisation des noyaux maxitifs en traitement de l'information." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2008. http://tel.archives-ouvertes.fr/tel-00356477.

Full text
Abstract:
Dans cette thèse, nous proposons et développons de nouvelles méthodes en statistiques et en traitement du signal et des images basées sur la théorie des possibilités. Ces nouvelles méthodes sont des adaptations d'outils usuels de traitement d'information dont le but est de prendre en compte les défauts dus à la méconnaissance de l'utilisateur sur la modélisation du phénomène observé. Par cette adaptation, on passe de méthodes dont les sorties sont précises, ponctuelles, à des méthodes dont les sorties sont intervallistes et donc imprécises. Les intervalles produits reflètent, de façon cohérente, l'arbitraire dans le choix des paramètres lorsqu'une méthode classique est utilisée.
Beaucoup d'algorithmes en traitement du signal ou en statistiques utilisent, de façon plus ou moins explicite, la notion d'espérance mathématique associée à une représentation probabiliste du voisinage d'un point, que nous appelons noyau sommatif. Nous regroupons ainsi, sous la dénomination d'extraction sommative d'informations, des méthodes aussi diverses que la modélisation de la mesure, le filtrage linéaire, les processus d'échantillonnage, de reconstruction et de dérivation d'un signal numérique, l'estimation de densité de probabilité et de fonction de répartition par noyau ou par histogramme,...
Comme alternative à l'extraction sommative d'informations, nous présentons la méthode d'extraction maxitive d'informations qui utilise l'intégrale de Choquet associée à une représentation possibiliste du voisinage d'un point, que nous appelons noyau maxitif. La méconnaissance sur le noyau sommatif est prise en compte par le fait qu'un noyau maxitif représente une famille de noyaux sommatifs. De plus, le résultat intervalliste de l'extraction maxitive d'informations est l'ensemble des résultats ponctuels des extractions sommatives d'informations obtenues avec les noyaux sommatifs de la famille représentée par le noyau maxitif utilisé. En plus de cette justification théorique, nous présentons une série d'applications de l'extraction maxitive d'informations en statistiques et en traitement du signal qui constitue une boîte à outils à enrichir et à utiliser sur des cas réels.
APA, Harvard, Vancouver, ISO, and other styles
44

Noël, Laurence. "Vers une approche praxéologique du design." Phd thesis, Université Paris VIII Vincennes-Saint Denis, 2010. http://tel.archives-ouvertes.fr/tel-00580289.

Full text
Abstract:
La profession de designer n'est pas toujours bien identifiée dans le monde du travail et les designers ont eux-mêmes des difficultés à expliquer en quoi consiste leur activité. La recherche en design n'a en fait pas d'assise théorique clairement établie et le premier objectif de cette thèse est de mettre en lumière les zones d'ombre qui règnent en son sein. Notre second objectif est d'élaborer un cadre d'analyse permettant d'apporter un nouvel éclairage sur le design. Le design étant une activité effectuée par un praticien réflexif, l'approche praxéologique invite à construire un discours permettant de décrire cette activité, quel que soit le domaine d'application concerné. Cette activité se décline donc selon deux plans : celui de l'action réflexive et celui de l'action pratique (qui porte sur le monde réel), l'une étant intrinsèquement liée à l'autre par des processus que nous qualifions de transducteurs. C'est la terre du réalisable, qui se trouve à la croisée du monde réflexif et du monde réel, que le designer explore. Celui-ci n'est par ailleurs pas le seul agent à intervenir lors du processus de création : identifier clairement son rôle au sein de cette organisation est donc nécessaire. Un designer occupe une position pivot au sein de cette organisation, il est amené à adopter différents points de vue entre eux, qu'ils articulent entre eux de manière à pouvoir voir l'entité réelle qui est à la croisée des regards. Un des défis de la recherche en design est alors non seulement de s'affirmer en tant que discipline à part entière, mais aussi de montrer qu'appréhender des problèmes de design permet de développer une manière de penser complexe et transdisciplinaire.
APA, Harvard, Vancouver, ISO, and other styles
45

Ligeret, Christophe. "Réduction de la Consommation Electrique du Contrôle-Commande des Machines Automatisées." Phd thesis, Université Rennes 1, 2010. http://tel.archives-ouvertes.fr/tel-00555655.

Full text
Abstract:
Cette thèse présente une analyse de la consommation d'énergie des systèmes de contrôlecommande électriques des machines automatisées en vue de réduire leur consommation d'énergie. Il est notamment présenté les notions associées aux systèmes de contrôle-commande et il est développé des méthodes et un simulateur de consommation d'énergie destiné à l'analyse de la consommation d'énergie. A partir de ceci, il est réalisé une analyse selon 3 axes : consommation des composants de contrôlecommande pris individuellement, consommation des systèmes de contrôle-commande selon le type de machine et l'assemblage des composants et enfin, consommation dans le temps selon les modes de marche. Ces travaux mettent en évidence que la consommation des systèmes de contrôle-commande est souvent faible comparée à celle des actionneurs, mais qu'il est tout de même possible de réduire d'un facteur 2 la consommation d'énergie.
APA, Harvard, Vancouver, ISO, and other styles
46

Bennes, Lionel. "Vers une méthodologie de développement d'outils de réalité virtuelle pour faciliter la convergence métiers en conception de produits centrée sur l'homme." Phd thesis, Université de Technologie de Belfort-Montbeliard, 2013. http://tel.archives-ouvertes.fr/tel-00931376.

Full text
Abstract:
La conception concourante de produits matériels centrée sur l'homme est basée sur une collaboration entre le concepteur mécanicien, l'ergonome et le designer industriel. Cette collaboration souvent difficile peut être facilitée par l'utilisation d'objets intermédiaires de conception, tels que la Réalité Virtuelle (RV). Néanmoins, bien que largement utilisée dans l'industrie, la RV souffre d'un déficit d'acceptation de la part des concepteurs de produits. Dans le cadre de ces travaux, nous proposons d'utiliser la RV sous la forme d'outils immersifs d'assistance à la convergence multidisciplinaire développés selon une démarche anthropocentrée en fonction des besoins spécifiques à chaque projet de conception de produits. Afin d'optimiser les délais de développement, nous proposons une méthodologie de conception d'applications immersive dédiée : la méthodologie ASAP(As Soon As Possible). Une première série expérimentale a été conduite dans le cadre de contrats industriels d'études et de recherche afin de valider la faisabilité de la méthodologie et l'efficacité des outils développés.Une deuxième série expérimentale a été effectuée sur plus de 50 sujets dans le cadre de projets, cette fois, pédagogiques qui ont nécessité le développement de 12 applications. Elle a permis de valider quantitativement l'influence des outils immersifs sur l'efficacité perçue des phases de convergence interdisciplinaires ainsi que l'influence de l'approche proposée sur l'acceptation de la RV par les concepteurs de produits. Ces travaux de thèse présentent une première approche qui, selon nous, permettra à terme, de faire évoluer l'usage de la RV vers une intégration plus forte au sein des processus de conception de produits avec, par exemple, une plus large utilisation des applications immersives de modélisation 3D, réelles sources d'innovation.
APA, Harvard, Vancouver, ISO, and other styles
47

Cummer, Jason. "Methodology and Techniques for Building Modular Brain-Computer Interfaces." Thesis, 2014. http://hdl.handle.net/1828/5837.

Full text
Abstract:
Commodity brain-computer interfaces (BCI) are beginning to accompany everything from toys and games to sophisticated health care devices. These contemporary interfaces allow for varying levels of interaction with a computer. Not surprisingly, the more intimately BCIs are integrated into the nervous system, the better the control a user can exert on a system. At one end of the spectrum, implanted systems can enable an individual with full body paralysis to utilize a robot arm and hold hands with their loved ones [28, 62]. On the other end of the spectrum, the untapped potential of commodity devices supporting electroencephalography (EEG) and electromyography (EMG) technologies require innovative approaches and further research. This thesis proposes a modularized software architecture designed to build flexible systems based on input from commodity BCI devices. An exploratory study using a commodity EEG provides concrete assessment of the potential for the modularity of the system to foster innovation and exploration, allowing for a combination of a variety of algorithms for manipulating data and classifying results. Specifically, this study analyzes a pipelined architecture for researchers, starting with the collection of spatio temporal brain data (STBD) from a commodity EEG device and correlating it with intentional behaviour involving keyboard and mouse input. Though classification proves troublesome in the preliminary dataset considered, the architecture demonstrates a unique and flexible combination of a liquid state machine (LSM) and a deep belief network (DBN). Research in methodologies and techniques such as these are required for innovation in BCIs, as commodity devices, processing power, and algorithms continue to improve. Limitations in terms of types of classifiers, their range of expected inputs, discrete versus continuous data, spatial and temporal considerations and alignment with neural networks are also identified.
Graduate
0317
0984
jasoncummer@gmail.com
APA, Harvard, Vancouver, ISO, and other styles
48

Ungor, Mehmet Kerim. "Mixed interface-tracking/interface-capturing technique for computation of moving objects in multiple fluids." Thesis, 2004. http://hdl.handle.net/1911/18827.

Full text
Abstract:
We present here for the first time a successful 3D implementation of the Edge-Tracked Interface Locator Technique (ETILT) over the Deforming Spatial-Domain/Stabilized Space-Time (DSD/SST) formulation thus allowing the simulation of moving objects in multiple fluid flows. While the DSD/SST technique allows us to track solid-fluid interfaces, ETILT lets us capture fluid-fluid interfaces accurately, forming one approach to Mixed Interface-Tracking/Interface-Capturing Technique (MITICT). Based on the well-known Volume-of-Fluid (VOF) method where the interface location is captured with an interface function governed by the advection equation, in ETILT an edge representation is formed over the nodal representation to increase accuracy. Several different approaches are discussed to project from the nodal level to the edge level and vice versa accurately and efficiently. The reverse projection from the edge to the node level is established through a penalty formulation which ensures that the accuracy obtained in the edge level is passed correctly to the node level. A 3D volume conservation scheme based on tetrahedral elements that uses accuracy gained in the edge representation is introduced to prevent the volume errors present in the standard Volume of Fluid (VOF) method. The different projection strategies, the 3D tetrahedral volume conservation scheme, and the MITICT formulation is tested through several numerical problems. The numerical scheme is evaluated using the well-known broken dam problem. The results not only agree very well with the literature, but prove to be insightful. The collapse of a cylindrical water column is computed to add the literature an easy to reproduce 3D benchmark problem in free surface flows. In order to deal with sharp corners and flows where the interface hits a wall, improvements are suggested and presented by the filling of a step mold problem. Lastly, the method's capability to model moving objects in multiple fluid environments is presented by the simulation of an oscillating cylinder through the interface between water and air.
APA, Harvard, Vancouver, ISO, and other styles
49

Lin, Yin-Chung, and 林盈忠. "A Study on Technique of Risk Assessments Applied to Interface Events Prevent - Take the Examples of Substation Engineering." Thesis, 2008. http://ndltd.ncl.edu.tw/handle/21723426897096634895.

Full text
Abstract:
碩士
國立交通大學
工學院碩士在職專班產業安全與防災組
97
The interface events to be in engineering include Space, Area, Entity, Materiel and between the phase schedule to form the common limit facet, usually to influence all the engineering quality and the success or failure about the project, to result in cost increase, and the convenience has the long term influence in the following use and the maintenance, about these are the project performer most needs to be able to beforehand to prevent and overcomes. How to application project resources effectively to carry on the interface events identify and take suitable countermeasure as well as decision processing order of priority. And to establish into a series of inheritance experience study knowledge base about the process and result, regarding to the more complex engineering scope and temporary organize project manager, must needs a simple and easy to use and beneficial to track manage for record implement. Failure Mode and Effect Analysis (FMEA) is a technique tool for system hazard analysis and risk management, it’s also one of the total quality management, FMEA form is belong a dynamic management document to track and update at any time for continuous improve effectively. Form operation and writing summary process to be summarize for experience study knowledge library. This study wills application hazard analysis and risk management implement for identify and prevent for engineering interface. For example of substation construction process within civil and electrical engineering interface events model to identify and effect analysis, to build up a [Interface FMEA form] to integrate interface events characteristic and FMEA result for systematization form record. Expect to be the follow up project design and construction events prevent and improve reference resources to solve the problem and for the listed below goal. 1. To build up a engineering interface with FMEA model to analysis substation engineering between civil and electrical engineering interface. 2. Evaluation by FMEA for influence level to the interface events in the project. 3. The process recording to the contact interface FMEA form, establishes knowledge library of the experience inheritance. Between civil and electrical engineering interface via substation engineering to assay operation, the confirmation applies the method to be possible effectively to achieve the upper row goal, Provides besides the present interface conformity and the coordinated mechanism a simple practical method may supply reference the correlation project contact surface management utilization.
APA, Harvard, Vancouver, ISO, and other styles
50

Wang, Wen-Jung, and 王文榮. "A study on design-construction related interfaces problems between MEP and Civil engineering works in constructions projects by system thinking technique." Thesis, 2014. http://ndltd.ncl.edu.tw/handle/61212603005261303822.

Full text
Abstract:
碩士
國立高雄第一科技大學
營建工程研究所
102
ABSTRACT Key Words:System thinking,engineering interface, building information modeling, Causal Loop relationship, Learning Organization. Among the construction engineering projects in Taiwan, there are problems of interfaces and interference existed commonly between the trades of M.E.P and Civil works. This research applies theories from the book “The Fifth Discipline” and learning organization to analyze the interface problems. Several cases were studied to explore the systemic factors of Employee, Supervision unit, Design unit, and Construction unit. Causal loop diagrams describing the interface problems for design and construction work were developed to explore the root causes of conflicts between construction and design work. It is concluded that the mental model of “departmentalism” is the essential reason leading to the interface problems between the M.E.P and Civil Engineering system. Trying to pursue the possible solution between the M.E.P and Civil Engineering can be from “solution not available” to “solution available” through the angle of theory and humanity .
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography