To see the other types of publications on this topic, follow the link: EfficientNet.

Dissertations / Theses on the topic 'EfficientNet'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'EfficientNet.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Havelka, Martin. "Detekce aktuálního podlaží při jízdě výtahem." Master's thesis, Vysoké učení technické v Brně. Fakulta strojního inženýrství, 2021. http://www.nusl.cz/ntk/nusl-444988.

Full text
Abstract:
This diploma thesis deals with the detection of the current floor during elevator ride. This functionality is necessary for robot to move in multi-floor building. For this task, a fusion of accelerometric data during the ride of the elevator and image data obtained from the information display inside the elevator cabin is used. The research describes the already implemented solutions, data fusion methods and image classification options. Based on this part, suitable approaches for solving the problem were proposed. First, datasets from different types of elevator cabins were obtained. An algorithm for working with data from the accelerometric sensor was developed. A convolutional neural network, which was used to classify image data from displays, was selected and trained. Subsequently, the data fusion method was implemented. The individual parts were tested and evaluated. Based on their evaluation, integration into one functional system was performed. System was successfully verified and tested. Result of detection during the ride in different elevators was 97%.
APA, Harvard, Vancouver, ISO, and other styles
2

Prax, Jan. "Efektivnost hlubokých konvolučních neuronových sítí na elementární klasifikační úloze." Master's thesis, Vysoké učení technické v Brně. Fakulta strojního inženýrství, 2021. http://www.nusl.cz/ntk/nusl-442831.

Full text
Abstract:
In this thesis deep convolutional neural networks models and feature descriptor models are compared. Feature descriptors are paired with suitable chosen classifier. These models are a part of machine learning therefore machine learning types are described in this thesis. Further these chosen models are described, and their basics and problems are explained. Hardware and software used for tests is listed and then test results and results summary is listed. Then comparison based on the validation accuracy and training time of these said models is done.
APA, Harvard, Vancouver, ISO, and other styles
3

Currà, Pier Nicola. "Alma.Domus: residenza eco-efficiente per Solar Decathlon Europe." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amslaurea.unibo.it/3619/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Bovet, Gérôme. "Architecture évolutive et efficiente du Web des bâtiments." Thesis, Paris, ENST, 2015. http://www.theses.fr/2015ENST0033/document.

Full text
Abstract:
Les bâtiments sont de plus en plus équipés avec des réseaux d’automatisation dédiés, visant à réduire la consommation d’énergie ainsi que d’optimiser le confort. D’un autre côté, nous observons l’arrivée de capteurs et actionneurs liés à l’Internet des objets, pouvant naturellement se connecter à des réseaux IP. Dû à des contraintes d’obsolescence ou imposées par les propriétés physiques des bâtiments, il n’est pas rare que différentes technologies doivent cohabiter. Celles-ci fonctionnant avec des modèles et protocoles différents rend le développement de systèmes d’automatisation globaux compliqué. Les modèles classiques de systèmes distribués ne sont pas adaptés aux problématiques des réseaux de capteurs. Le paradigme du Web des objets est basé sur des ressources et vise quand à lui d’uniformiser la couche applicative entre différents objets à l’aide des technologies du Web, essentiellement HTTP et REST. Dans cette thèse, nous nous basons sur le Web des objets afin de créer un framework dédié au bâtiments intelligents, permettant aux développeurs de concevoir des applications composites sans connaissances des différentes technologies sous-jacentes. Grâce aux technologies Web, nous pouvons offrir des services homogènes tout en profitant des ressources disponibles à l’intérieur du réseau (capteurs et actionneurs), formant un nuage auto-géré. Dans le but de doter les bâtiments d’une plus grande intelligence, l’apprentissage automatique, souvent réservé aux experts, est rendu accessible à travers des interfaces Web cachant la complexité des processus
Buildings are increasingly equipped with dedicated automation networks, aiming to reduce the energy consumption and to optimize the comfort. On the other hand, we see the arrival of sensors and actuators related to the Internet of Things, which can naturally connect to IP networks. Due to constraints imposed by the obsolescence or physical properties of buildings, it is not uncommon that different technologies have to coexist. These networks operate with different models and protocols, making the development of global automation systems difficult. Traditional models of distributed systems are not adapted to the context of sensor networks. The paradigm of the Web of Things is resource-based and strives to standardize the application layer of different objects using Web technologies, primarily HTTP and REST. In this thesis, we use the Web of Things to create a framework dedicated to smart buildings, allowing developers to develop composite applications without knowledge of the underlying technologies. By relying on Web technologies, we can provide seamless service while reusing the available resources within the network (sensors and actuators), forming a self-managed cloud. In order to equip the buildings with a higher-level intelligence, machine learning, often reserved for experts, is made accessible through Web interfaces hiding the complexity of the process
APA, Harvard, Vancouver, ISO, and other styles
5

Bonelli, Michael. "Gestione Efficiente di Eventi Complessi su Piattaforma IoT ThingWorx." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Find full text
Abstract:
Nella prima parte di questa tesi viene introdotto il concetto di Internet of Things. Vengono discussi gli elementi costituitivi fondamentali di tale tecnologia, le differenti architetture proposte nel corso degli anni e le sfide che devono ancora essere affrontate per vedere realizzato l’IoT. Questa prima parte si conclude inoltre con due esempi di applicazione dell’IoT. Questi due esempi, Smart City e Smart Healthcare, hanno l’obbiettivo di evidenziare quali sono i vantaggi ed i servizi che possono essere offerti all’utente finale una volta applicato l’IoT. Nel secondo capitolo invece, vengono presentate le funzionalità della piattaforma IoT ThingWorx, la quale mette a disposizione un ambiente di sviluppo per applicazioni IoT con l’obbiettivo di ridurre i tempi e quindi anche i costi di sviluppo delle stesse. Questa piattaforma cerca di ridurre al minimo la necessità di scrivere codice, utilizzando un sistema di sviluppo di tipo “Drag and Drop”. ThingWorx mette anche a disposizione degli SDK per facilitare la programmazione dei device, gestendo soprattutto la parte di comunicazione nodo – piattaforma. Questo argomento viene trattato ampiamente nella parte finale di questo capitolo dopo aver visto quali sono i concetti fondamentali di modellazione e rappresentazione dei dati sui quali si basa la piattaforma. Nel terzo e ultimo capitolo di questa tesi viene presentato innanzitutto il tutorial Android di ThingWorx. Svolgere e successivamente estendere il tutorial ha evidenziato alcune limitazioni del modello iniziale e questo ci ha portato a progettare e sviluppare il componente Aggregated & Complex Event Manager per la gestione di eventi complessi e che permette di sgravare parzialmente la piattaforma da tale compito. La tesi si conclude evidenziando, tramite dei test, alcune differenze fra la situazione iniziale nella quale il componente non viene utilizzato e la situazione finale, nella quale invece viene usato.
APA, Harvard, Vancouver, ISO, and other styles
6

Le, Magoarou Luc. "Matrices efficientes pour le traitement du signal et l'apprentissage automatique." Thesis, Rennes, INSA, 2016. http://www.theses.fr/2016ISAR0008/document.

Full text
Abstract:
Les matrices, en tant que représentations des applications linéaires en dimension finie, jouent un rôle central en traitement du signal et des images et en apprentissage automatique. L'application d'une matrice de rang plein à un vecteur implique a priori un nombre d'opérations arithmétiques de l'ordre du nombre d'entrées non-nulles que contient la matrice. Cependant, il existe des matrices pouvant être appliquées bien plus rapidement, cette propriété étant d'ailleurs un des fondements du succès de certaines transformations linéaires, telles que la transformée de Fourier ou la transformée en ondelettes. Quelle est cette propriété? Est-elle vérifiable aisément? Peut-on approcher des matrices quelconques par des matrices ayant cette propriété? Peut-on estimer des matrices ayant cette propriété? La thèse s'attaque à ces questions en explorant des applications telles que l'apprentissage de dictionnaire à implémentation efficace, l'accélération des itérations d'algorithmes de résolution de de problèmes inverses pour la localisation de sources, ou l'analyse de Fourier rapide sur graphe
Matrices, as natural representation of linear mappings in finite dimension, play a crucial role in signal processing and machine learning. Multiplying a vector by a full rank matrix a priori costs of the order of the number of non-zero entries in the matrix, in terms of arithmetic operations. However, matrices exist that can be applied much faster, this property being crucial to the success of certain linear transformations, such as the Fourier transform or the wavelet transform. What is the property that allows these matrices to be applied rapidly ? Is it easy to verify ? Can weapproximate matrices with ones having this property ? Can we estimate matrices having this property ? This thesis investigates these questions, exploring applications such as learning dictionaries with efficient implementations, accelerating the resolution of inverse problems or Fast Fourier Transform on graphs
APA, Harvard, Vancouver, ISO, and other styles
7

Grigoli, Francesco. "Studio dei codici, trasmissione e correzione efficiente di un messaggio." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/20965/.

Full text
Abstract:
L'elaborato si prefigge di descrivere come avviene la codifica, la decodifica e la correzione di errori in una trasmissione dati, sfruttando l'entropia di Shannon, la codifica di Huffmann e i codici di Hamming.
APA, Harvard, Vancouver, ISO, and other styles
8

Vetrano, Vittorio <1977&gt. "Biomasse e loro quantificazione economica per un efficiente uso dell'energia." Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2009. http://amsdottorato.unibo.it/2187/.

Full text
Abstract:
Biomasses and their possible use as energy resource are of great interest today, and the general problem of energy resources as well. In the present study the key questions of the convenience, from both energy and economy standpoints, have been addressed without any bias: the problem has been handled starting from “philosophical” bases disregarding any pre-settled ideology or political trend, but simply using mathematical approaches as logical tools for defining balances in a right way. In this context quantitative indexes such as LCA and EROEI have been widely used, together with multicriteria methods (such as ELECTRE) as decision supporting tools. This approach permits to remove mythologies, such as the unrealistic concept of clean energy, or the strange idea of biomasses as a magic to solve every thing in the field of the energy. As a consequence the present study aims to find any relevant aspect potentially useful for the society, looking at any possible source of energy without prejudices but without unrealistic expectations too. For what concerns biomasses, we studied in great details four very different cases of study, in order to have a scenario as various as much we can. A relevant result is the need to use biomasses together with other more efficient sources, especially recovering by-products from silviculture activities: but attention should be paid to the transportation and environmental costs. Another relevant result is the very difficult possibility of reliable evaluation of dedicated cultures as sources for “biomasses for energy”: the problem has to be carefully evaluated case-by-case, because what seems useful in a context, becomes totally disruptive in another one. In any case the concept itself of convenience is not well defined at a level of macrosystem: it seems more appropriate to limit this very concept at a level of microsystem, considering that what sounds fine in a limited well defined microsystem may cause great damage in another slightly different, or even very similar, microsystem. This approach seems the right way to solve the controversy about the concept of convenience.
APA, Harvard, Vancouver, ISO, and other styles
9

Mendonca, Fernando. "Politiques polyvalentes et efficientes d'allocation de ressources pour les systèmes parallèles." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM021/document.

Full text
Abstract:
Les plateformes de calcul à grande échelle ont beaucoup évoluées dernières années. La réduction des coûts des composants simplifie la construction de machines possédant des multicœurs et des accélérateurs comme les GPU.Ceci a permis une propagation des plateformes à grande échelle,dans lesquelles les machines peuvent être éloignées les unes des autres, pouvant même être situées sur différents continents. Le problème essentiel devient alors d'utiliser ces ressources efficacement.Dans ce travail nous nous intéressons d'abord à l'allocation efficace de tâches sur plateformes hétérogènes composées CPU et de GPU. Pour ce faire, nous proposons un outil nommé SWDUAL qui implémente l'algorithme de Smith-Waterman simultanément sur CPU et GPU, en choisissant quelles tâches il est plus intéressant de placer sur chaque type de ressource. Nos expériences montrent que SWDUAL donne de meilleurs résultats que les approches similaires de l'état de l'art.Nous analysons ensuite une nouvelle méthode d'ordonnancement enligne de tâches indépendantes de différentes tailles. Nous proposons une nouvelle technique qui optimise la métrique du stretch. Elle consiste à déplacer les jobs qui retardent trop de petites tâches sur des machines dédiées. Nos résultats expérimentaux montrent que notre méthode obtient de meilleurs résultats que la politique standard et qu'elle s'approche dans de nombreux cas des résultats d'une politique préemptive, qui peut être considérée comme une borne inférieure.Nous nous intéressons ensuite à l'impact de différentes contraintes sur la politique FCFS avec backfilling. La contrainte de contiguïté essaye de compacter les jobs et de réduire la fragmentation dans l'ordonnancement. La contrainte de localité basique place les jobs de telle sorte qu'ils utilisent le plus petit nombre de groupes de processeurs appelés textit. Nos résultats montrent que les bénéfices de telles contraintes sont suffisants pour compenser la réduction du nombre de jobs backfillés due à la réduction de la fragmentation.Nous proposons enfin une nouvelle contrainte nommée localité totale, dans laquelle l'ordonnanceur modélise la plateforme par un fat tree et se sert de cette information pour placer les jobs là où leur coût de communication est minimal.Notre campagne d'expériences montre que cette contrainte obtient de très bons résultats par rapport à un backfilling basique, et de meilleurs résultats que les contraintes précédentes
The field of parallel supercomputing has been changing rapidly inrecent years. The reduction of costs of the parts necessary to buildmachines with multicore CPUs and accelerators such as GPUs are ofparticular interest to us. This scenario allowed for the expansion oflarge parallel systems, with machines far apart from each other,sometimes even located on different continents. Thus, the crucialproblem is how to use these resources efficiently.In this work, we first consider the efficient allocation of taskssuitable for CPUs and GPUs in heterogeneous platforms. To that end, weimplement a tool called SWDUAL, which executes the Smith-Watermanalgorithm simultaneously on CPUs and GPUs, choosing which tasks aremore suited to one or another. Experiments show that SWDUAL givesbetter results when compared to similar approaches available in theliterature.Second, we study a new online method for scheduling independent tasksof different sizes on processors. We propose a new technique thatoptimizes the stretch metric by detecting when a reasonable amount ofsmall jobs is waiting while a big job executes. Then, the big job isredirected to separate set of machines, dedicated to running big jobsthat have been redirected. We present experiment results that show thatour method outperforms the standard policy and in many cases approachesthe performance of the preemptive policy, which can be considered as alower bound.Next, we present our study on constraints applied to the Backfillingalgorithm in combination with the FCFS policy: Contiguity, which is aconstraint that tries to keep jobs close together and reducefragmentation during the schedule, and Basic Locality, that aims tokeep jobs as much as possible inside groups of processors calledclusters. Experiment results show that the benefits of using theseconstrains outweigh the possible decrease in the number of backfilledjobs due to reduced fragmentation.Finally, we present an additional constraint to the Backfillingalgorithm called Full Locality, where the scheduler models the topologyof the platform as a fat tree and uses this model to assign jobs toregions of the platform where communication costs between processors isreduced. The experiment campaign is executed and results show that FullLocality is superior to all the previously proposed constraints, andspecially Basic Backfilling
APA, Harvard, Vancouver, ISO, and other styles
10

Bonfiglioli, Luca. "Identificazione efficiente di reti neurali sparse basata sulla Lottery Ticket Hypothesis." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Find full text
Abstract:
Frankle e Carbin 2018, data una rete densa inizializzata casualmente, mostrano che esistono sottoreti sparse di tale rete che possono ottenere accuratezze superiori alla rete densa e richiedono meno iterazioni di addestramento per raggiungere l’early stop. Tali sottoreti sono indicate con il nome di winning ticket. L’identificazione di questi ultimi richiede tuttavia almeno un addestramento completo del modello denso, il che ne limita l’impiego pratico, se non come tecnica di compressione. In questa tesi, si mira a trovare una variante più efficiente dei metodi di magnitude based pruning proposti in letteratura, valutando diversi metodi euristici e data driven per ottenere winning ticket senza completare l’addestramento della rete densa. Confrontandosi con i risultati di Zhou et al. 2019, si mostra come l’accuratezza all’inizializzazione di un winning ticket non sia predittiva dell’accuratezza finale raggiunta dopo l’addestramento e come, di conseguenza, ottimizzare l’accuratezza al momento di inizializzazione non garantisca altrettanto elevate accuratezze dopo il riaddestramento. Viene inoltre mostrata la presenza di good ticket, ovvero un intero spettro di reti sparse con performance confrontabili, almeno lungo una dimensione, con quelle dei winning ticket, e come sia possibile identificare sottoreti che rientrano in questa categoria anche dopo poche iterazioni di addestramento della rete densa iniziale. L’identificazione di queste reti sparse avviene in modo simile a quanto proposto da You et al. 2020, mediante una predizione del winning ticket effettuata prima del completamento dell’addestramento della rete densa. Viene mostrato che l’utilizzo di euristiche alternative al magnitude based pruning per effettuare queste predizioni consente, con costi computazionali marginalmente superiori, di ottenere predizioni significativamente migliori sulle architetture prese in esame.
APA, Harvard, Vancouver, ISO, and other styles
11

Demeli, Alessio. "Tecnologie informatiche per la gestione efficace ed efficiente di librerie digitali." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016.

Find full text
Abstract:
Questa tesi presenta una rassegna delle principali tecnologie informatiche per la gestione efficace ed efficiente delle librerie digitali. Viene posto l'accento sull'analisi comparativa delle tecnologie e dei modelli di rappresentazione del dato bibliografico presenti allo stato dell'arte.
APA, Harvard, Vancouver, ISO, and other styles
12

Reigné, Philippe. "La notion de cause efficiente du contrat en droit privé français." Paris 2, 1993. http://www.theses.fr/1993PA020106.

Full text
Abstract:
La cause efficiente du contrat est une notion sur laquelle la doctrine ne s'attarde pas. Cette notion represente pourtant un outil indispensable a la comprehension des debats relatifs a la force obligatoire du contrat et a la portee du principle du consensualisme ; de maniere generale, elle constitue l'une des pieces maitresses de toute theorie du contrat et de l'acte juridique. Est cause efficiente du contrat tout evenement a la survenance duquel l'effet contractuel considere est imperativement et specialement suybordonne. Cette definition, tres generale, ne suffit pas a caracteriser la notion, car il existe deux conceptions tres differentes de la cause efficiente du contrat. La conception mecaniste de la cause efficiente contractuelle suppose que les effets contratuels sont unis a leur cause efficiente par un lien de causalite sembable a celui qui relie un phenomene physique a sa cause. La cause efficiente mecanique est une cause generatrice. La conception mecaniste de la cause efficiente contractuelle explique la formation du contrat par un principe de causalite. Toutefois, le droit positif francais ne se plie pas au determinisme que la conception mecaniste implique quant a la formation du contrat. La conception normativiste de la cause efficiente contractuelle considere que les effets contratuels sont rattaches, de maniere artificielle, par le droit objectif a la rencontre des volontes des parties contractantes. Cette conception substitue au lien de causaulite postule par la conception mecaniste une relation d'imputation qui fait de la
APA, Harvard, Vancouver, ISO, and other styles
13

Ciavatti, Ilaria. "Analisi efficiente di tracce prodotte da un simulatore di protocolli di rete." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/6230/.

Full text
Abstract:
Questa tesi consiste nello sviluppo di codice per un applicativo esistente. Tale applicativo si occupa di simulazione di protocolli di rete su varie topologie di rete. La parte di cui si occupa questa tesi è la fase di analisi dei file di traccia generati. Tale fase è una delle tre fasi dell'applicativo. I file di traccia contengono informazioni che permettono di stimare due grandezze, copertura e ritardo. Per copertura si intende una media fra tutte le coperture. Ogni copertura sarà relativa ad uno specifico nodo della rete. Per copertura di uno specifico nodo della rete si intende la parte di messaggi arrivati a quel nodo relativamente a tutti i messaggi generati all'interno della rete. Per ritardo si intende la media del numero di salti che avvengono per arrivare ai vari nodi che compongono la rete. I valori calcolati, mediante le informazioni contenute nei trace file, vengono poi memorizzati su dei file. Oltre al calcolo di queste specifiche grandezze, la tesi include anche una possibile soluzione relativa al parallelismo dei processi. Tale soluzione mira ad avere un numero, stabilito in base alla memoria principale libera, di processi che vengono eseguiti in maniera parallela.
APA, Harvard, Vancouver, ISO, and other styles
14

Manjarrez, Sanchez Jorge Roberto. "Recherche par le contenu efficiente dans les bases de données parallèles d'images." Nantes, 2009. http://www.theses.fr/2009NANT2089.

Full text
Abstract:
Cette thèse porte sur le traitement des requêtes par similarité sur les données de haute dimensionnalité, notamment multimédias, et, parmi elles, les images plus particulièrement. Ces requêtes, notamment celles des k plus proches voisins (kNN), posent des problèmes de calcul de par la nature des données elles-mêmes et de la taille de la base des données. Nous avons étudié leurs performances quand une méthode de partitionnement est appliquée sur la base de données pour obtenir et exploiter des classes. Nous avons proposé une taille et un nombre optimaux de ces classes pour que la requête puisse être traitée en temps optimal et avec une haute précision. Nous avons utilisé la recherche séquentielle comme base de référence. Ensuite nous avons proposé des méthodes de traitement de requêtes parallèles sur une grappe de machines. Pour cela, nous avons proposé des méthodes d'allocation des données pour la recherche efficace des kNN en parallèle. Nous proposons de même, un nombre réduit de noeuds sur la grappe de machines permettant néanmoins des temps de recherche sous-linéaires et optimaux vis-à-vis des classes déterminées précédemment. Nous avons utilisé des donnés synthétiques et réelles pour les validations pratiques. Dans les deux cas, nous avons pu constater des temps de réponse et une qualité des résultats supérieurs aux méthodes existantes, lesquelles, au-delà d'un faible nombre des dimensions, deviennent inefficaces
In this thesis, we address the performance problem when searching in large databases of images. The processing of similarity queries is a computational challenge because of the dimensionality of the abstract representation for the images and size of the databases. We present two data organization methods that account for performance improvement. The first one is based on the clustering of the database in centralized settings. We derive an optimal range of values for the number of clusters to obtain from a database, which in conjunction with a searching algorithm allows to efficiently process nearest neighbor queries. However as the dimensionality and size of the database increase, a single computer is overwhelmed. The second method is based on data partitioning over a shared nothing machine. Based on the results of the first method, this method maximizes parallelism. We also derive the optimal number of processing nodes to maximize resource utilization. We performed extensive experiments with synthetic and real databases. They validate the proposals and show that the performance level is superior to existing approaches which beyond a certain dimensionality or database size become inefficient
APA, Harvard, Vancouver, ISO, and other styles
15

Candini, Andrea. "Distribuzione efficiente di mobile sensing data tramite modello push e integrazione con PubSubHubBub." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/4922/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Incammicia, Giovanni. "Lightboard: un programma efficiente per costruire una LIM con Raspberry Pi e Wiimote." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/8299/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Vaissie, Mathieu. "Les stratégies alternatives dans l'allocation globale des investisseurs institutionnels : vers une intégration efficiente." Paris 9, 2006. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2006PA090043.

Full text
Abstract:
Suite à l’éclatement de la bulle Internet, les investisseurs ont une nouvelle fois fait l’expérience des limites de la diversification traditionnelle. Ils se sont alors tournés vers les hedge funds. Leur méconnaissance des stratégies alternatives les conduit à les intégrer de façon sous optimale dans l’allocation globale de leurs actifs. Notre objectif est de familiariser les investisseurs avec les stratégies alternatives et de développer des outils leur permettant de prendre en compte leurs spécificités. Nous analysons le processus de génération de la performance des principales stratégies alternatives. Nous construisons ensuite des indices de hedge funds à la fois représentatifs de leur univers de gestion et investissables. Enfin, nous introduisons une approche économétrique originale baptisée Switching Kalman Smoother permettant de mesurer la valeur ajoutée par les fonds de hedge funds au niveau de : 1/ l’allocation stratégique, 2/ l’allocation tactique, 3/ la sélection des fonds
In the aftermath of the bursting of the Internet bubble, investors faced once again the limits of traditional diversification. They thus turned to alternative diversification. But, given their lack of experience of the alternative arena, they often integrate hedge fund strategies into their global asset allocation in a sub optimal way. Our objective is to familiarize investors with hedge fund strategies and provide them with tools allowing for an optimal integration of these alternative strategies in their global asset allocation. We analyze the return generating processes of the most popular strategies and highlight their genuine risk profile. We then design hedge fund indices that are both representative of their investment universe and investable. We finally introduce a new technology named Switching Kalman Smoother and use it analyse the performance of funds of hedge funds and their added-value at: i/ strategic allocation, ii/ tactical allocation, iii/ fund picking levels
APA, Harvard, Vancouver, ISO, and other styles
18

Caillau, Mathieu. "Nanotechnologie verte : des polymères de la biomasse comme résines éco-efficientes pour la lithographie." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEC037/document.

Full text
Abstract:
La lithographie est une étape clé de micro/nanotechnologie pour la fabrication de composants utilisés dans les domaines de la microéléctronique, de l’électronique flexible, de la photonique, du photovoltaïque, de la microfluidique... Cette étape de lithographie nécessite l’utilisation d’une résine inscriptible servant de masque temporaire permettant le transfert de motifs dans le matériau sous-jacent par gravure ou par déposition de nouveaux matériaux. La lithographie fait appel à des résines organiques mais aussi à des solvants organiques et des produits chimiques corrosifs et nocifs, ce qui va à l’encontre des problématiques environnementales et qui engendre des coûts supplémentaires liés à la gestion des risques et des déchets. De plus le contexte réglementaire (REACh ou US pollution act) évolue vers une plus grande protection de l’environnement et de la santé humaine et encourage l’utilisation de produits alternatifs. Dans ce contexte, mon projet de thèse visait à développer une résine biosourcée, non modifiée par des procédés de chimie de synthèse et développable dans l’eau. Cette résine devait être compatible avec les instruments de lithographies conventionnelles. Lors de ce travail, il a été démontré que le chitosane était une résine de tonalité positive permettant la réalisation d’un procédé complet de lithographie/gravure avec uniquement de l’eau comme solvant, sans modification du chitosane et sans l’utilisation de masque additionnel. Des motifs de 50 nm ont été obtenu dans la silice après lithographie électronique et gravure plasma et des motifs de 0.5 à 0.3 μm après photolithographie et gravure
. Lithography is a key step in micro / nanotechnology with applications in the fields of microelectronics, flexible electronics, photonics, photovoltaics, microfluidics and biomedical. This lithography step requires the use of a writable resist to act as a temporary mask for transferring patterns in the underlying material by etching or deposition. Nowadays, lithography uses synthetic organic resin, organic solvents and hazardous chemicals which is contrary to environmental issues and generates additional costs associated with risk and waste management. Furthermore, regulation rules (REACh, US pollution act) tend to move toward the protection of human health and the environment from the risks that can be posed by chemicals and promote alternative chemicals. In this context, this PhD work aimed at replacing conventional synthetic organic resist with a biopolymer. This biopolymer will not be modified by synthetic organic chemistry, will be compatible with conventional lithography instruments and it should be developable in water. It was demonstrated that chitosan was a positive tone resist allowing accomplishing a complete lithography-etching process. The whole process was performed in aqueous solution without the use of hazardous chemicals. 50 nm features were obtained after ebeam lithography/plasma etching into a silica layer without the use of an additional masking layer. 0.3-0.5 μm feature were obtained using photolithography
APA, Harvard, Vancouver, ISO, and other styles
19

Vita, Marco. "Un modello di asset allocation strategica." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2015. http://amslaurea.unibo.it/8487/.

Full text
Abstract:
La tesi affronta il problema di Finanza Matematica dell'asset allocation strategica che consiste nel processo di ripartizione ottimale delle risorse tra diverse attività finanziarie presenti su un mercato. Sulla base della teoria di Harry Markowitz, attraverso passaggi matematici rigorosi si costruisce un portafoglio che risponde a dei requisiti di efficienza in termini di rapporto rischio-rendimento. Vengono inoltre forniti esempi di applicazione elaborati attraverso il software Mathematica.
APA, Harvard, Vancouver, ISO, and other styles
20

Viale, Edoardo. "Il monitoraggio efficiente dell'analisi dei dati in una realtà aziendale: il caso Concorde spa." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/12375/.

Full text
Abstract:
La tesi vuole dimostrate l'utilizzo operativo di un'azienda(Concorde s.p.a.) nell'utilizzo di uno strumento informatico per prendere decisioni operative future strategiche. Dimostra come un'azienda di distribuzione, leader nel settore della telefonia mobile, che deve il suo successo anche grazie alle relazione con marchi di telefonia importanti e famosi, abbia deciso di distribuire un marchio completamente sconosciuto al mercato: Meizu. Nell'elaborato si evince come questo strumento informatico( DIGIMIND ) abbia dato la possibilità di far capire, a Concorde, quali fossero le esigenze mancanti dei consumatori e quindi di cercare un marchio che potesse soddisfarle. La tesi discute di chi sia concorde, descrive il brand Meizu, definisce lo strumento software DIGIMIND e soprattutto analizza l'utilizzo di Digimind per concorde nella distribuzione di un nuovo brand, Meizu. La grande novità sta nell'utilizzo di questo strumento per un'azienda già leader nel proprio settore. Vengono definiti i vantaggi operativi e strategici che è possibile avere nei confronti delle aziende concorrenti. Viene illustrato come oggi ci siano degli strumenti che riescano ad ottenere l'insieme di tutte le informazioni disponibili sul web , ma che fino adesso non era possibile gestire, al fine di ottenere un vantaggio economico, strategico e commerciale nel proprio lavoro di distribuzione. Viene dedicata una parte importante della tesi sulla descrizione di Digimind, sui dati che estrapola e su come questi dati possano essere considerati un vantaggio da parte di concorde.
APA, Harvard, Vancouver, ISO, and other styles
21

Neri, Lucia, and Christian Santi. "Sociale, sostenibile, efficiente. Una soluzione per il comparto ater di via Bramante a Rovigo." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2016. http://amslaurea.unibo.it/10005/.

Full text
Abstract:
Il progetto di tesi elaborato tratta uno dei temi più attuali nell’ambito architettonico, l’efficienza energetica degli edifici. La tesi, sviluppata all’interno del Laboratorio di Laurea in Architettura Sostenibile, tratta un caso peculiare, in quanto riguarda il recupero di un’opera incompiuta, un comparto di 24 alloggi di Social Housing situato nella città di Rovigo. Il proprietario dell’impianto, l’ente pubblico per l’edilizia sociale ATER, ha posto delle direttive qualitative e quantitative per portare a compimento l’opera. Preso atto di queste disposizioni, e a seguito di accurate analisi di tipo tecnico, morfologico e demografico, sono state definite accurate strategie progettuali, riguardanti la definizione di alloggi idonei alla richiesta dell’ente e alla conformazione demografica della città, il recupero della preesistenza e lo sviluppo di una architettura energicamente efficiente.
APA, Harvard, Vancouver, ISO, and other styles
22

Giacobazzi, Corrado. "Homeostatic Patterns - Processi biomimetici feedback-based per una architettura efficiente nei Prati di Caprara." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amslaurea.unibo.it/3449/.

Full text
Abstract:
Gli organismi biologici mostrano ricorrenti dinamiche di auto-organizzazione nei processi morfogenetici che sono alla base di come la materia acquisisce gerarchia e organizzazione.L’omeostasi è la condizione con la quale un corpo raggiunge il proprio equilibrio (termico, pressione, ecc.); un processo attraverso il quale questi sistemi stabilzzano le reazioni fisiologiche. Una delle caratteristiche fondamentali esibite da tali organismi è la capacità della materia di instaurare processi di auto-organizzazione, responsabile dei processi di ottimizzazione che guidano all’uso efficiente dell’energia nella lotta per la sopravvivenza. Questa ottimizzazione non mira al raggiungimento di un risultato globale deterministico e “chiuso” (precedentemente stabilito e poi perseguito ad ogni costo), quanto piuttosto al raggiungimento di un’efficienza di processi locali con obiettivi multipli e necessità divergenti; tali processi interagiscono organizzando sistemi nei quali proprietà peculiari uniche emergono dalle interazioni descritte. Le esigenze divergenti non sono negoziate sulla base di un principio di esclusività (una esigenza esclude o elimina le altre) ma da un principio di prevalenza, dove le necessità non prevalenti non cessano di esistere ma si modificano in funzione di quelle prevalenti (il proprio campo di espressione è vincolato dai percorsi tracciati in quello delle esigenze prevalenti). In questa tesi si descrive un’applicazione ad uno specifico caso di studio di progettazione architettonica: un parco con spazi polifunzionali nella città di Bologna. L’obiettivo principale del progetto Homeostatic Pattern è quello di dimostrare come questo tipo di processi possano essere osservati, compresi e traslati in architettura: come per gli organismi biologici, in questo progetto gli scambi di materia ed energia (stabilità, respirazione, porosità alla luce) sono regolati da sistemi integrati efficienti piuttosto che da raggruppamenti di elementi mono-ottimizzati. Una specifica pipeline di software è stata costituita allo scopo di collegare in modo bidirezionale e senza soluzione di continuità un software di progettazione parametrica generativa (Grasshopper®) con software di analisi strutturale ed ambientale (GSA Oasys®, Autodesk® Ecotect® analysis), riconducendo i dati nella stessa struttura attraverso cicli di feedback. Il sistema così ottenuto mostra caratteristiche sia a scala macroscopica, come la possibilità di utilizzo della superficie esterna che permette anche un’estensione dell’area verde (grazie alla continuità della membrana), sia alla scala del componente, come la propria capacità di negoziare, tra le altre, la radiazione solare e la modulazione della luce, così come la raccolta capillare delle acque meteoriche. Un sistema multiperformante che come tale non persegue l’ottimizzazione di una singola proprietà ma un miglioramento complessivo per una maggiore efficienza.
APA, Harvard, Vancouver, ISO, and other styles
23

Gozzoli, Gianluca. "Geometric Gamma-skyline: un metodo efficiente per la computazione di skyline su dati aggregati." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/5036/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Hassani, Bertrand Kian. "Quantification des risques opérationnels : méthodes efficientes de calcul de capital basées sur des données internes." Paris 1, 2011. http://www.theses.fr/2011PA010009.

Full text
Abstract:
Les risques opérationnels sont les risques de pertes résultant d'une inadéquation ou d'une défaillance des procédures de l'établissement (analyse ou contrôle absent ou incomplet. Procédure non sécurisée), de son personnel (erreur, malveillance et fraude) des systèmes internes (panne informatique,. . . ) ou à des risques externes (inondation, incendie,. . . ). Elles ont attiré l'attention des autorités, suites aux pertes et banqueroutes qu'elles ont engendrées. Pour les modéliser, le régulateur impose aux institutions l'utilisation de données internes, de données externes, de scénarios et certains critères qualitatifs. Utilisant des données internes, dans le cadre de la Loss Distribution Approach, nous proposons plusieurs méthodes innovantes pour estimer les provisions inhérentes à ces risques. La première innovation traitant des méthodes de convolutions suggère de mélanger les simulations de Monte Carlo, l'estimation de la densité par noyaux et l'algorithme de Panjer pour construire la distribution de perte. La seconde solution se concentre sur la modélisation de la queue droite des distributions de sévérité utilisant plusieurs résultats de la théorie des valeurs extrêmes et les méthodes d'estimation de paramètres de distributions tronquées. La troisième méthode que nous présentons s'intéresse aux calculs de VaR multivariés. Mettant en oeuvre des grappes de copules pour capter certains comportements particuliers tels que la dépendance de queue, nous fournissons un nouveau type d'architectures permettant de calculer la VaR globale.
APA, Harvard, Vancouver, ISO, and other styles
25

D'Amours, Véronique. "Le projet du recueil de nouvelles pour le développement d'une posture critique efficiente et opératoire." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25451/25451.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Menival, David. "Les conditions efficientes nécessaires à la mise en place de la viticulture raisonnée en Champagne viticole." Reims, 2008. http://www.theses.fr/2008REIME004.

Full text
Abstract:
Cette thèse traite à la fois du rôle de la viticulture raisonnée dans I'image de qualité du champagne et des conditions nécessaires à l'efficience de ce rôle. Elle vise dans un premier temps à mettre en lumiére l'existence d'un mode de régulation sectoriel des vins fins à Ia base de la stratégie de différenciation des vins de Champagne ; dans un deuxième temps elle analyse la manière dont la viticulture raisonnée est nécessaire au maintien d'une image de qualité spécifique au sein de ce mode de régulation sectoriel ; dans un troisième temps elle se focalise sur la nécessité de maintenir la coopération interprofessionnelle champenoise pour que l'accélération de l'intégration de la viticulture raisonnée soit réalisée et que ce programme environnemental puisse remplir correctement son office au sein de la Champagne viticole. Ces différentes étapes permettent de comprendre la prise en considération nécessaire d'une démarche environnementale avancée par l'ensemble des champenois afin de garantir une différenciation qualitative par l'intermédiaire du signal de qualité « AOC », dans un contexte économique et politique de plus en plus réticent au maintien du régime des AOP
The aim of the PhD dissertation is to analyse the rule of the integrated viticulture for the differentiation strategy of Champagne and the necessary efficient conditions for the success of this rule. Firstly, it shows that this strategy bases on a sectional system of regulation for the vintage wines. Secondly, it analyses how the integrated viticulture is indispensable to maintain a specific image of quality for the champagne. Lastly, it focuses on the necessity to guarantee the cooperation of the join-trade organization in order to accelerate the process of the lntegrated viticulture and to reach the initial aim of it. These steps allow us to understand the importance of an environmental program to rely on the quality signal "AOC to maintain the differentiation strategy of champagne in a hard economical and political context for the AOP
APA, Harvard, Vancouver, ISO, and other styles
27

Succi, Tommaso. "Implementazione della gestione integrata delle scorte per una supply chain più efficiente: il caso Aertecnica S.r.l." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2021.

Find full text
Abstract:
La gestione della catena logistica dell’approvvigionamento diviene fondamentale in un contesto sempre più soggetto alla globalizzazione; la crescita della concorrenza e il sempre maggiore livello di servizio richiesto dai clienti necessitano la creazione di una Supply Chain efficace ed efficiente che diventerà l’elemento chiave per il successo di un network di aziende. In questo elaborato è stata effettuata una descrizione degli attori che compongono una catena di fornitura e degli obiettivi che quest’ultima deve conseguire; si è sottolineata l’importanza dell’ottenimento di un allineamento strategico tra aziende clienti e fornitori, sono stati delineati i drivers necessari per la valutazione della performance di una Supply Chain e i fattori che ostacolano il raggiungimento di un allineamento strategico; è stata sottolineata l’importanza della fase di sourcing e si è cercato di capire come poter selezionare i fornitori ideali in un contesto globale ed incerto come quello odierno; successivamente si sono visti gli ostacoli che portano ad un mancato coordinamento, gli effetti che tale mancanza ha sulle performance dei vari attori e le leve manageriali da attuare per costruire partnership strategiche e fiducia all’interno di una Supply Chain. Uno degli ambiti dove meglio possono essere notati gli effetti di un’efficace collaborazione è la gestione delle scorte. Dopo aver effettuato una breve panoramica sugli studi per la gestione integrata delle scorte presenti in letteratura si sono approfonditi alcuni dei principali e più famosi modelli di gestione delle scorte (integrata e non) per poi concludere con una simulazione: l’ottimizzazione del magazzino dell’azienda Aertecnica S.r.l. attraverso l’implementazione del modello del Consignment Stock; lo scopo di questo elaborato è mostrare come la messa in atto di tale politica di gestione porterebbe ad ottenere numerosi vantaggi e ad una riduzione del valore a scorta di quasi 250.000€.
APA, Harvard, Vancouver, ISO, and other styles
28

Lamelas, José Pereira. "Direction hôtelière en équipe avec l’USALI et le BSC – pour une gestion plus efficace et efficiente." Perpignan, 2010. http://www.theses.fr/2010PERP1037.

Full text
Abstract:
Dans un environnement très compétitif, incertain, ambigu et donc difficile, le passage du leader unique à la direction en équipes de compétences complémentaires constitue une évolution qui a beaucoup contribué à l’innovation, à la motivation, et à l’amélioration du climat, de l’efficacité et de l’efficience. Cette recherche s'attachera à établir si oui ou non il existe un rapport entre le modèle du co-leadership et l’amélioration de l’efficacité et de l’efficience dans les entreprises de l’industrie hôtelière portugaise. À cette fin, nous avons utilisé 1 723 questionaires, des entretiens avec les CEO, l’analyse statistique (de la satisfaction des clients, de la performance économique et financière) et l’analyse de cas de co-leadership. Les résultats confirment que plus le modèle de co-direction est marqué, meilleures sont l’efficacité et l’efficience. Les variables de Co-leadership et GOP présentent une forte corrélation entre elles et avec d’autres indicateurs importants d’efficacité opérationnelle tels que le Climat Organisationnel leadership, co-leadership, efficacité, efficience, hôtellerie, Motivation du travail, Satisfaction des Clients
In a very competitive, uncertain and very complex environment, the change from a single leader to a leadership team with complementary skills is supposed to be an evolution which highly contributes to the innovation, motivation, good environment and improvement of the effectiveness and efficiency. This research aims at verifying whether or not there is a relationship between the model of co-leadership and the improvement of effectiveness and efficiency in the Portuguese hotel business companies. For this purpose we used 1723 questionnaires, interviews, customers’ satisfaction, economic and financial performance and case studies. The results confirm that the stronger the co-leadership is, the better the effectiveness and the efficiency are. “Co-leadership” and “GOP” variables are both positive and strongly correlated between themselves and with other important indicators of operational effectiveness such as “Organizational Environment”, “Work Motivation” and “Customers’ Satisfaction”
APA, Harvard, Vancouver, ISO, and other styles
29

Foroughi, Nik Rahim. "Contribution à la conception utilitariste de la peine : de la peine efficace à la peine efficiente." Thesis, Nantes, 2019. http://www.theses.fr/2019NANT3008.

Full text
Abstract:
Sur la scène classique du théâtre pénal, le rapport entre la morale conséquentialiste et la morale déontologique est une confrontation permanente. La place de l’utilitarisme, en tant que doctrine conséquentialiste la plus usitée dans le domaine de la peine, a fait l’objet de plusieurs études. Cependant, la question de l’« utilitarisation » de la peine n’a jamais été interrogée. Par « utilitarisation » de la peine, nous entendons le processus d’adaptation de la peine aux principes de l’utilitarisme. Cette étude propose de contribuer à l'analyse de l'« utilitarisation » de la peine en dégageant les fondements théoriques de ce processus. Elle révèle un paradoxe crucial dans le domaine pénal : la conception utilitariste de la peine maintes fois critiquée, mais pourtant dans le même temps maintes fois appliquée. Le processus d'« utilitarisation» de la peine a été systématisé à partir de l’utilitarisme classique de Bentham, avant d’arriver à sa forme la plus scientifique avec l’analyse économique du droit. Ce processus est d'abord marqué par l'apparition du concept d'efficacité de la peine, puis par le passage de l'efficacité au concept d’efficience de la peine. Cette étude a alors pour objet de proposer une nouvelle orientation de la justice pénale, laquelle n'instrumentalise plus l'individu à seules fins de prospérité économique, mais prend en compte l'efficience sans que cette dernière devienne la raison d'être et/ou la métavaleur de la justice pénale. Une « justice pénale efficiente », telle est la devise qui apparaît alors à l'issue de ce travail
Traditionally, punishment has been justified by consequentialist and deontological theories. The place of utilitarianism as the bestknown consequentialist doctrine in the field of punishment has been the subject of several studies. However, utilitarianization of punishment has never been questioned. Utilitarianization of punishment refers to the process of adapting punishment to the principles of utilitarianism. This study proposes a contribution to the examination of this process by analyzing its theoretical fundamentals. It aims to reveal a crucial paradox in the field of punishment: utilitarian approach to punishment, repeatedly criticized, constantly adopted. . Utilitarianization of punishment was systematized with Bentham's Classical Utilitarianism, before arriving at its most scientific form with the Law and Economics Movement. This process is marked by a transition from effectiveness of punishment to efficiency of punishment. Therefore, this study aims to propose a new direction in criminal justice, one which does not instrumentalize human beings for economic prosperity, but at the same time takes into account efficiency, without replacing justice with efficiency, i.e., "Efficient Criminal Justice"
APA, Harvard, Vancouver, ISO, and other styles
30

Bécot, François-Xavier. "Bruit de pneumatique au-dessus d'une surface d'impédance donnée - Application efficiente de la méthode des Sources Equivalentes." Phd thesis, INSA de Lyon, 2003. http://tel.archives-ouvertes.fr/tel-00126562.

Full text
Abstract:
La réduction du bruit des transports est devenue un enjeu majeur dans nos sociétés. En raison de la réduction du bruit de moteur, le bruit de contact pneumatique / chaussée est aujourd'hui la principale source du bruit de trafic en conditions normales de conduite. Dans ce contexte, le but du présent travail est de comprendre et de contrôler les mécanismes de rayonnement du pneumatique, ceci en concevant des outils de prédiction efficients pour la propagation du bruit pneumatique / chaussée au dessus de surfaces d'impédances arbitraires.
Le rayonnement du pneumatique est modélisé à l'aide de la méthode des Sources Equivalentes. Malgré des limitations en basses fréquences dues au caractère bi–dimensionel du modèle, calculs et mesures indiquent que cet outil convient bien au rayonnement au–dessus de surface totalement réfléchissantes. Les effets de sol induits par des surfaces absorbantes n'est réalisée que de manière approchée. Un modèle d'effets de sol dus à un plan d'impédance donnée est donc dévelopé pour des sources de directivité arbitraire. Cette technique est essentiellement une alternative aux méthodes dites des équations intégrales. Par ailleurs, la solution exacte du problème est présentée.
Basé sur les deux outils de prédiction précédents, un modèle iteratif est dévelopé pour le rayonnement d'un pneumatique au–dessus de surfaces dont l'impédance est arbitraire. Des comparaisons avec des mesures d'amplification sonore due à l'effet dièdre montrent que ce modèle est efficient pour des surfaces absorbantes homogènes et inhomogènes. A l'aide de ce nouvel outil, une étude paramétrique examine les tendances du rayonnement du pneumatique au–dessus de chaussées absorbantes.
Le présent travail apporte de nouveaux éléments en matière de rayonnement de pneumatique / chaussée; il contribue en outre à l'étude des possibilités de réduction du bruit de trafic, notamment en utilisant des chaussées dites “silencieuses”.
APA, Harvard, Vancouver, ISO, and other styles
31

Di, Domenico Nicolò. "Progettazione e realizzazione di un plugin efficiente per la resa e l'animazione su larga scala in Unity." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020.

Find full text
Abstract:
Questa tesi si pone l'obiettivo di realizzare un plugin per il motore grafico Unity che permetta di animare un numero molto alto di personaggi pur mantenendo un framerate alto e stabile. Questa soluzione trova impiego in diversi settori che facciano uso di computer grafica in tempo reale, quali videoludico, cinematografico e degli eventi in diretta televisiva. Le alte prestazioni del plugin saranno realizzate grazie all'impiego della GPU come strumento di calcolo parallelo massivo, alla quale saranno delegati i compiti di interpolazione delle animazioni e di skinning dei modelli, tramite l'uso dei Compute Shader forniti dalle ultime versioni delle API grafiche DirectX. Il plugin creato verrà successivamente esteso per potersi integrare con la timeline nativa di Unity, permettendo dunque di usare in maniera efficiente il progetto nei settori cinematografico (per previsualizzazioni e impiego nei set virtuali) e televisivo in diretta (settore in forte ascesa anche a causa della pandemia di COVID-19). Infine, verrà proposto anche un caso d'uso verosimile riproducendo parzialmente un breve frammento dalla Cerimonia di Apertura dei Giochi Olimpici di Londra del 2012, anche grazie al supporto di diversi software creativi quali Blender, MakeHuman e Simplygon per la realizzazione di scenografie, animazioni e personaggi.
APA, Harvard, Vancouver, ISO, and other styles
32

Makaya, kiela Serge. "Le droit à réparation des victimes des crimes internationaux, condition de justice efficiente : l'exemple de la RDC." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM1006.

Full text
Abstract:
Face aux préjudices irréparables engendrés par les crimes internationaux, le droit international, hormis les cas de poursuites devant la CPI et la pratique des commissions et fonds d'indemnisation des N.U, fait ponce-Pilate au droit interne pour la mise en oeuvre du droit à réparation des victimes de ces crimes. Une hypocrisie qui s'affirme notamment à travers des pratiques d'assistance humanitaire. Le droit interne des Etats quant à lui, fait un recours systématique à son système classique pour la mise en oeuvre de ce droit. Cet attrait pour le système classique tranche pourtant avec les facteurs matériels du droit en cette matière où le contexte des crimes, l'ampleur des préjudices, la vastitude des victimes et les fluctuations de la qualité des auteurs l'ont presque plongé dans la désuétude. C'est ce qui a fait émerger la quête d'un paradigme d'efficacité dont l'expérience de la justice transitionnelle et de la justice réparatrice constituent « l'essai ». La discussion sur l'efficacité des résultats de cet essai conduit l'observateur averti à la conclusion qu'il y a encore du chemin. Pour la RDC, contre l'aporie du droit classique face aux souffrances des victimes des crimes internationaux, cette étude propose la construction d'une politique criminelle basée sur une approche holistique de la réparation. L'approche holistique impliquant, ici, une réaction globaliste face aux préjudices subis par les victimes des crimes internationaux. Préjudices multiformes pour lesquels les réponses en termes de réparation doivent relever d'une appréhension globale du droit, reposant sur l'interdisciplinarité et l'ouverture à la « technologie sociale »
Faced with the irreparable prejudices arising from international crimes, except for the cases being prosecuted at the ICC and the processes of various Commissions and reparations funds of the UN, international law has been pontius-pilating when it comes implementing under domestic laws the rights of victims to reparations. This hypocrisy is particularly highlighted by the use of humanitarian aid. Domestic laws have systematically resorted to traditional practices to implement this right. This inclination towards traditional approaches is indeed at variance with the material elements of the law on reparations in as much as the context of the crimes, the scope of the damage, the vast number of victims and fluctuations in the types of perpetrators have simply made the traditional systems obsolete. Whence the quest for an efficiency paradigm hinged on «attempts» within transitional justice and reparations justice. Analyses of these attempts by experts reveal that a lot still has to be done. In the case of the DRC, and mindful of the shortcomings of the traditional legal system in mitigating the suffering of victims of international crimes, this study proposes a holistic approach to the development of a criminal reparations policy. This holistic approach requires a global response to the damage suffered by victims of international crimes. The reparations response to these multidimensional prejudices must reflect a global understanding of the law based on interdisciplinary and «social technology» considerations
APA, Harvard, Vancouver, ISO, and other styles
33

Vargas, Florez Jorge. "Aide à la conception de chaînes logistiques humanitaires efficientes et résilientes : application au cas des crises récurrentes péruviennes." Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2014. http://www.theses.fr/2014EMAC0008/document.

Full text
Abstract:
Chaque année, plus de 400 catastrophes naturelles frappent le monde. Pour aider les populations touchées, les organisations humanitaires stockent par avance de l’aide d’urgence dans des entrepôts. Cette thèse propose des outils d’aide à la décision pour les aider à localiser et dimensionner ces entrepôts. Notre approche repose sur la construction de scénarios représentatifs. Un scénario représente la survenue d’une catastrophe dont on connaît l’épicentre, la gravité et la probabilité d’occurrence. Cette étape repose sur l’exploitation et l’analyse de bases de données des catastrophes passées. La seconde étape porte sur la propagation géographique de la catastrophe et détermine son impact sur la population des territoires touchés. Cet impact est fonction de la vulnérabilité et de la résilience du territoire. La vulnérabilité mesure la valeur attendue des dégâts alors que la résilience estime la capacité à résister au choc et à se rétablir rapidement. Les deux sont largement déterminées par des facteurs économiques et sociaux, soit structurels (géographie, PIB…) ou politiques (existence d’infrastructure d’aide, normes de construction…). Nous proposons par le biais d’analyses en composantes principales (ACP) d’identifier les facteurs influents de résilience et de vulnérabilité, puis d’estimer le nombre de victimes touchées à partir de ces facteurs. Souvent, les infrastructures (eau, télécommunication, électricité, voies de communication) sont détruits ou endommagés par la catastrophe (ex : Haïti en 2010). La dernière étape a pour objectif d’évaluer les impacts logistiques en ce qui concerne : les restrictions des capacités de transport existant et la destruction de tout ou partie des stocks d’urgence. La suite de l’étude porte sur la localisation et le dimensionnement du réseau d’entrepôt. Nos modèles présentent l’originalité de tenir compte de la dégradation des ressources et infrastructures suite due à la catastrophe (dimension résilience) et de chercher à optimiser le rapport entre les coûts engagés et le résultat obtenu (dimension efficience). Nous considérons d’abord un scénario unique. Le problème est une extension d’un problème de location classique. Puis, nous considérons un ensemble de scénarios probabilisés. Cette approche est indispensable à la considération du caractère très incertain des catastrophes humanitaires. L’ensemble de ces contributions a été confronté à la réalité des faits dans le cadre d’une application au cas des crises récurrentes du Pérou. Ces crises, essentiellement dues aux tremblements de terre et aux inondations (El Niño), imposent la constitution d’un réseau logistique de premiers secours qui soit résilient et efficient
Every year, more than 400 natural disasters hit the world. To assist those affected populations, humanitarian organizations store in advance emergency aid in warehouses. This PhD thesis provides tools for support decisions on localization and sizing of humanitarian warehouses. Our approach is based on the design of representative and realistic scenarios. A scenario expresses some disasters’ occurrences for which epicenters are known, as well as their gravity and frequency. This step is based on the exploitation and analysis of databases of past disasters. The second step tackles about possible disaster’s propagation. The objective consists in determining their impact on population on each affected area. This impact depends on vulnerability and resilience of the territory. Vulnerability measures expected damage values meanwhile resilience estimates the ability to withstand some shock and recover quickly. Both are largely determined by social and economic factors, being structural (geography, GDP, etc.) or political (establishment or not relief infrastructure, presence and strict enforcement of construction standards, etc.). We propose through Principal Component Analysis (PCA) to identify, for each territory, influential factors of resilience and vulnerability and then estimate the number of victims concerned using these factors. Often, infrastructure (water, telecommunications, electricity, communication channels) are destroyed or damaged by the disaster (e.g. Haiti in 2010). The last step aims to assess the disaster logistics impact, specifically those related to with: transportation flows capacity limitations and destruction of all or part of emergency relief inventories. The following of our study focuses on location and allocation of a warehouses’ network. The proposed models have the originality to consider potential resources and infrastructure degradation after a disaster (resilience dimension) and seek optimizing the equilibrium between costs and results (effectiveness dimension). Initially we consider a single scenario. The problem is an extension of classical location studies. Then we consider a set of probable scenarios. This approach is essential due to the highly uncertain character of humanitarian disasters. All of these contributions have been tested and validated through a real application case: Peruvian recurrent disasters. These crises, mainly due to earthquakes and floods (El Niño), require establishment of a first aid logistics network that should be resilient and efficient
APA, Harvard, Vancouver, ISO, and other styles
34

Ba, Kader. "Développement de politiques de maintenance efficientes intégrant la gestion de la production et la gestion des pièces de rechange." Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0269.

Full text
Abstract:
Dans un contexte économique fortement concurrentiel, la maintenance des équipements de productions constitue un enjeu socio-économique décisif pour les entreprises. De même, les enjeux de maintenance ont connu de fortes évolutions, le secteur est en pleine mutation. Face à cela, les attentes, les besoins en matière de coût, de délai, de qualité et de respect de l’environnement changent. Suite à ce constat, on a souhaité développer dans cette thèse de nouvelles stratégies intégrées de maintenance, de production, de gestion des stocks de pièces de rechange en tenant compte de différentes contraintes opérationnelles. Parmi ces contraintes, on peut citer la variation de la cadence de production des systèmes et son impact sur la dégradation du système de production ainsi que sur le plan de maintenance et de gestion de pièces de rechanges. On s’est intéressé aussi à l’origine et au type des pièces de rechange (neuves ou usagées) utilisées pour assurer les activités de maintenance. En plus de l’influence technico-économique de l’origine des pièces de rechange utilisées sur le système de production, on a également évalué l’impact environnemental de ces derniers en considérant des données de l’ADEME. Formellement, L’objectif de cette thèse est de contribuer par des approches formelles permettant une optimisation des cadences de production couplée à des politiques de maintenance et intégrant des stratégies efficientes dans la gestion des pièces de rechange. Des méthodes analytiques et techniques d’optimisation, appuyées par des modèles de simulations selon la difficulté de résolutions ont été développées afin de réaliser les objectifs de cette thèse. Une étude de cas industrielle ainsi que des exemples numériques sont présentés pour valider les résultats théoriques obtenus
In a highly competitive economic environment, maintenance of production facilities is a crucial socio-economic challenge for companies. Similarly, maintenance issues experienced significant changes, the sector is changing. Faced with this, the expectations, the needs of cost, time, quality and environmental change. Following this, we wanted to develop in this thesis new integrated strategies for maintenance, production, and inventory management of spare parts taking into account different operational constraints. These constraints include the change in the rate of production systems and its impact on the deterioration of the production system and on the maintenance plan and spare parts management. It was also interested in the origin and type of spare parts (new or used) used to ensure maintenance activities. In addition to the technical and economic influence of the origin of spare parts used in the production system, we also evaluated the environmental impact of the latter considering ADEME data. Formally, The aim of this thesis is to contribute by formal approaches to optimization of production rates coupled with maintenance policies and integrating efficient strategies in the management of spare parts. Analytical methods and optimization techniques, supported by simulation models according to resolutions of difficulty have been developed to achieve the objectives of this thesis. An industrial case studies and numerical examples are presented to validate theoretical results
APA, Harvard, Vancouver, ISO, and other styles
35

Guidi, Manuel. "Messa a punto di un modello analitico generale ed efficiente per la verifica strutturale dell'anello rotante di macchine cellofanatrici." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2013. http://amslaurea.unibo.it/5904/.

Full text
Abstract:
Partendo da un precedente studio, realizzato su di una macchina cellofanatrice ad asse verticale, si è arrivati ad ottenere un modello analitico per la verifica strutturale dell’anello rotante di tali macchine. Si è cercato cioè, di fornire un valido strumento per il dimensionamento di anelli rotanti nelle moderne macchine cellofanatrici, aventi geometria coerente con quella presentata nelle ipotesi iniziali. Per fare ciò, si sono determinate, ove possibile, equazioni normalizzate e adimensionalizzate, che godono quindi di una più ampia validità di impiego; a partire dalle equazioni del precedente studio, che erano appunto finalizzate alla risoluzione del caso specifico preso in considerazione. Vengono presentate in questo elaborato le equazioni che descrivono la struttura precedentemente studiata ed il procedimento che si è effettuato per rendere il nuovo lavoro indipendente dalle caratteristiche delle sollecitazioni esterne e della geometria dell’anello stesso. Sono mostrate le equazioni ottenute per le varie incognite iperstatiche, per i momenti flettenti e sforzo normale normalizzati e assoluti, ed i relativi grafici. Grazie appunto ad alcuni di questi, si ottengono rapidamente, tramite l’applicazione di semplici formule, informazioni sullo stato di sollecitazione dell’anello. Sono infine presentati alcuni esempi per sottolineare la validità dei risultati ottenuti e la semplicità di utilizzo dei grafici ricavati.
APA, Harvard, Vancouver, ISO, and other styles
36

Loumbangoye, Sendje Gaétan. "Stratégie d'implantation du concept Lean Maintenance pour une production efficiente et sécuritaire : cas d'une installation de valorisation des sables bitumineux." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29222/29222.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

St-Jacques, Annie. "Pédagogie efficiente vers l'implantation d'une communauté d'apprentissage dans un séminaire d'études supérieures virtuel en mode synchrone: une analyse de cas." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29461/29461.pdf.

Full text
Abstract:
Cette recherche doctorale exploratoire de nature qualitative a pour objectif une application novatrice du cadre de la communauté d’apprentissage de cycle supérieur à l’apprentissage en ligne en mode synchrone. Il s’agit de la première étude à rendre compte de stratégies pédagogiques efficientes vers l’implantation d’une communauté d’apprentissage dans le cadre de séminaires d’études supérieures virtuels et de la première étude à explorer cette application concrète du e-learning intégral qu’est le séminaire virtuel. Elle repose sur une étude multi-cas (huit cas) menée en français et en anglais dans cinq universités nord-américaines. La collecte de données est fondée sur 40 heures d’observation post facto de segments d’archives de séminaires, 61 entrevues réalisées avec des professeurs (n=9), des auxiliaires d’enseignement (n=4), des étudiants (n=45) et des conseillers pédagogiques (n=3) et des sondages réalisés auprès des étudiants à la mi-trimestre (n=50) et après la formation (n=32). L’étude confirme l’importance de l’établissement d’une communauté d’apprentissage dans un séminaire d’études supérieures virtuel. Le cadre socioconstructiviste demeure toutefois nébuleux pour plusieurs professeurs et étudiants, d’où l’importance de former à la « culture » collaborative. L’étude démontre que les approches socioconstructivistes soutiennent effectivement l’efficacité de l’apprentissage. Elle cerne 30 attributs du séminaire virtuel et dégage 26 pratiques pédagogiques fructueuses pouvant baliser un apprentissage en ligne de qualité. Enfin, elle met en lumière le rôle crucial des professeurs en tant que facilitateurs d’un dialogue riche et soutenu. L’étude multi-cas rapporte un taux de satisfaction élevé tant de la part des professeurs que des étudiants à l’égard du séminaire d’études supérieures virtuel.
This exploratory qualitative study focuses on the innovative application of the community of inquiry framework to synchronous online learning. This is the first study to report on efficient teaching strategies to foster a learning community in synchronous virtual graduate seminars and to explore this concrete application of blended online learning design. It is based on a multiple-case study (eight cases) that took place in five Francophone and Anglophone North American universities. Data collection consisted of forty hours of post facto observation of archived virtual seminars, sixty-one interviews conducted with faculty (n=9), teaching assistants (n=4), students (n=45) and instructional designers (n=3), as well as mid-term (n=50) and post-term (n=32) student surveys. The study confirms the importance of establishing a community of inquiry within a virtual graduate seminar. However, the socioconstructivist framework remains nebulous for several faculty and students, hence the importance of collaborative “culture” training. The study determines that socioconstructivist approaches contribute to the effectiveness of learning in virtual graduate seminars, identifies 30 attributes of a virtual graduate seminar and reports on 26 effective teaching practices that can be used to inform guidelines for quality online learning. It highlights the crucial role of the faculty member as the facilitator of a rich and ongoing dialogue in the virtual classroom. The multiple-case study reports high satisfaction levels among both faculty and students towards the virtual graduate seminar.
APA, Harvard, Vancouver, ISO, and other styles
38

Saint-Jacques, Annie, and Annie Saint-Jacques. "Pédagogie efficiente vers l'implantation d'une communauté d'apprentissage dans un séminaire d'études supérieures virtuel en mode synchrone : une analyse de cas." Doctoral thesis, Université Laval, 2012. http://hdl.handle.net/20.500.11794/23715.

Full text
Abstract:
Cette recherche doctorale exploratoire de nature qualitative a pour objectif une application novatrice du cadre de la communauté d’apprentissage de cycle supérieur à l’apprentissage en ligne en mode synchrone. Il s’agit de la première étude à rendre compte de stratégies pédagogiques efficientes vers l’implantation d’une communauté d’apprentissage dans le cadre de séminaires d’études supérieures virtuels et de la première étude à explorer cette application concrète du e-learning intégral qu’est le séminaire virtuel. Elle repose sur une étude multi-cas (huit cas) menée en français et en anglais dans cinq universités nord-américaines. La collecte de données est fondée sur 40 heures d’observation post facto de segments d’archives de séminaires, 61 entrevues réalisées avec des professeurs (n=9), des auxiliaires d’enseignement (n=4), des étudiants (n=45) et des conseillers pédagogiques (n=3) et des sondages réalisés auprès des étudiants à la mi-trimestre (n=50) et après la formation (n=32). L’étude confirme l’importance de l’établissement d’une communauté d’apprentissage dans un séminaire d’études supérieures virtuel. Le cadre socioconstructiviste demeure toutefois nébuleux pour plusieurs professeurs et étudiants, d’où l’importance de former à la « culture » collaborative. L’étude démontre que les approches socioconstructivistes soutiennent effectivement l’efficacité de l’apprentissage. Elle cerne 30 attributs du séminaire virtuel et dégage 26 pratiques pédagogiques fructueuses pouvant baliser un apprentissage en ligne de qualité. Enfin, elle met en lumière le rôle crucial des professeurs en tant que facilitateurs d’un dialogue riche et soutenu. L’étude multi-cas rapporte un taux de satisfaction élevé tant de la part des professeurs que des étudiants à l’égard du séminaire d’études supérieures virtuel.
Cette recherche doctorale exploratoire de nature qualitative a pour objectif une application novatrice du cadre de la communauté d’apprentissage de cycle supérieur à l’apprentissage en ligne en mode synchrone. Il s’agit de la première étude à rendre compte de stratégies pédagogiques efficientes vers l’implantation d’une communauté d’apprentissage dans le cadre de séminaires d’études supérieures virtuels et de la première étude à explorer cette application concrète du e-learning intégral qu’est le séminaire virtuel. Elle repose sur une étude multi-cas (huit cas) menée en français et en anglais dans cinq universités nord-américaines. La collecte de données est fondée sur 40 heures d’observation post facto de segments d’archives de séminaires, 61 entrevues réalisées avec des professeurs (n=9), des auxiliaires d’enseignement (n=4), des étudiants (n=45) et des conseillers pédagogiques (n=3) et des sondages réalisés auprès des étudiants à la mi-trimestre (n=50) et après la formation (n=32). L’étude confirme l’importance de l’établissement d’une communauté d’apprentissage dans un séminaire d’études supérieures virtuel. Le cadre socioconstructiviste demeure toutefois nébuleux pour plusieurs professeurs et étudiants, d’où l’importance de former à la « culture » collaborative. L’étude démontre que les approches socioconstructivistes soutiennent effectivement l’efficacité de l’apprentissage. Elle cerne 30 attributs du séminaire virtuel et dégage 26 pratiques pédagogiques fructueuses pouvant baliser un apprentissage en ligne de qualité. Enfin, elle met en lumière le rôle crucial des professeurs en tant que facilitateurs d’un dialogue riche et soutenu. L’étude multi-cas rapporte un taux de satisfaction élevé tant de la part des professeurs que des étudiants à l’égard du séminaire d’études supérieures virtuel.
This exploratory qualitative study focuses on the innovative application of the community of inquiry framework to synchronous online learning. This is the first study to report on efficient teaching strategies to foster a learning community in synchronous virtual graduate seminars and to explore this concrete application of blended online learning design. It is based on a multiple-case study (eight cases) that took place in five Francophone and Anglophone North American universities. Data collection consisted of forty hours of post facto observation of archived virtual seminars, sixty-one interviews conducted with faculty (n=9), teaching assistants (n=4), students (n=45) and instructional designers (n=3), as well as mid-term (n=50) and post-term (n=32) student surveys. The study confirms the importance of establishing a community of inquiry within a virtual graduate seminar. However, the socioconstructivist framework remains nebulous for several faculty and students, hence the importance of collaborative “culture” training. The study determines that socioconstructivist approaches contribute to the effectiveness of learning in virtual graduate seminars, identifies 30 attributes of a virtual graduate seminar and reports on 26 effective teaching practices that can be used to inform guidelines for quality online learning. It highlights the crucial role of the faculty member as the facilitator of a rich and ongoing dialogue in the virtual classroom. The multiple-case study reports high satisfaction levels among both faculty and students towards the virtual graduate seminar.
This exploratory qualitative study focuses on the innovative application of the community of inquiry framework to synchronous online learning. This is the first study to report on efficient teaching strategies to foster a learning community in synchronous virtual graduate seminars and to explore this concrete application of blended online learning design. It is based on a multiple-case study (eight cases) that took place in five Francophone and Anglophone North American universities. Data collection consisted of forty hours of post facto observation of archived virtual seminars, sixty-one interviews conducted with faculty (n=9), teaching assistants (n=4), students (n=45) and instructional designers (n=3), as well as mid-term (n=50) and post-term (n=32) student surveys. The study confirms the importance of establishing a community of inquiry within a virtual graduate seminar. However, the socioconstructivist framework remains nebulous for several faculty and students, hence the importance of collaborative “culture” training. The study determines that socioconstructivist approaches contribute to the effectiveness of learning in virtual graduate seminars, identifies 30 attributes of a virtual graduate seminar and reports on 26 effective teaching practices that can be used to inform guidelines for quality online learning. It highlights the crucial role of the faculty member as the facilitator of a rich and ongoing dialogue in the virtual classroom. The multiple-case study reports high satisfaction levels among both faculty and students towards the virtual graduate seminar.
APA, Harvard, Vancouver, ISO, and other styles
39

Gaffuri, Pierre. "Nouveaux matériaux pour des LED blanches éco-efficientes : hétérostructures à base de nanofils de ZnO et luminophores d'aluminoborates sans terres rares." Thesis, Université Grenoble Alpes, 2021. http://www.theses.fr/2021GRALI004.

Full text
Abstract:
L’implémentation généralisée de diodes électroluminescentes blanches (wLED), basées sur l’électroluminescence bleue d’une LED et la photoluminescence jaune d’un luminophore, représente une opportunité majeure de réduction de la consommation énergétique mondiale. Les performances des wLED reposent sur des matériaux considérés comme critiques par les mondes politiques et scientifiques, comme les nitrures de gallium et de gallium/indium pour la LED bleue, et le grenat d'yttrium et d'aluminium dopé au cérium pour le luminophore. La synthèse de ces matériaux nécessite des techniques de dépôt physique et chimique coûteuses et à haute température. C’est dans ce contexte qu’ont été étudiés deux matériaux non critiques et fabriqués par des méthodes de chimie douce : les réseaux de nanofils de ZnO comme semi-conducteurs de type n, et les poudres d’aluminoborate comme luminophore. D’une part, les mécanismes de dopage extrinsèque et la modification associée de la croissance des nanofils de ZnO par dépôt en bain chimique ont été examinés, montrant les rôles dominants du pH et de la concentration en précurseurs. Les défauts et complexes de défauts incorporés au sein des nanofils de ZnO, cruciaux du point de vue applicatif, modifient largement leurs propriétés optiques et électriques. Leur croissance épitaxiale sur des couches minces de GaN de type p forme des hétérojonctions dont les propriétés d’électroluminescence sont évaluées. D’autre part, les poudres luminophores à base d’aluminoborate ont été synthétisées par la méthode Pechini, en substituant l’yttrium habituellement présent dans les particules amorphes. L’optimisation des nouvelles compositions chimiques et des traitements thermiques offre une émission spectrale large, dont le rendement quantique interne de luminescence dépasse 60 %. Cette étude permet une meilleure compréhension du piégeage d’espèces carbonées, et de leur rôle dans la luminescence. Finalement, l’intérêt des consommateurs pour de telles structures sans matériaux critiques et à basse énergie grise est mesuré et offre des perspectives optimistes pour leur développement
The widespread implementation of white light-emitting diodes (wLEDs), based on the blue electroluminescence of an LED and the yellow photoluminescence of a phosphor, represents a major opportunity to reduce global energy consumption. The performances of wLEDs are based on materials considered as critical, such as gallium and gallium/indium nitrides for the blue LED, and cerium doped yttrium aluminium garnet for the phosphor. The synthesis of these materials require costly and high-temperature physical and chemical deposition techniques. In this context, new non-critical materials have been studied and manufactured by soft chemistry methods: ZnO nanowires array as n-type semiconductor, and aluminoborate powders as phosphor. On the one hand, the mechanisms of the extrinsic doping and related modification of the growth of ZnO nanowires deposited by chemical bath deposition were investigated, showing the dominant roles of pH and precursor concentrations. Defects and complex defects incorporated in ZnO nanowires, crucial from an application point of view, greatly modify their optical and electrical proprieties. Their epitaxial growth on p-type GaN thin films forms heterojunctions whose electroluminescence properties are evaluated. On the other hand, aluminoborate-based phosphors powders were synthesized by the Pechini method, by substituting yttrium, usually present in the amorphous particles. The optimization of the new chemical compositions and thermal annealing offers a broad emission whose internal quantum luminescence efficiency exceeds 60 %. This study provides a better understanding of the trapping of carbon species, and their role in the luminescence. Eventually, consumer interest in such structures without critical materials and with low embodied energy is measured and offers optimistic prospects for their development
APA, Harvard, Vancouver, ISO, and other styles
40

Tahi, Hanifa. "Innover par l'information : une alternative efficiente pour le développement des PME en Algérie : le cas de 135 PME privées à M'sila." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAE006.

Full text
Abstract:
Les pouvoirs publics en Algérie compte sur les PME pour diversifier l'économie, qui demeure une économie de rente pétrolière. Cependant, ces PME sont fragiles et ne participent pas activement à la croissance et le développement du pays.Notre projet consiste à proposer une solution efficace et efficiente pour les PME. cette solution consiste à innover par l'information. L'innovation étant définie comme un moyen de l'adaptation au changement de l'environnement. Certes, la collecte de l'information nécessite des moyens humains et financiers considérables que la PME ne possèdent pas, d'ou la nécessité de l'intervention de l'Etat pour mettre à disposition de ces PME les informations dont ils ont besoin
The authorities in Algeria account for SMEs to diversify the economy, which remains an oil rent economy. However, these SMEs are fragile and do not actively participate in the growth and development of the country.Our project is to provide an effective and efficient solution for SMEs. this solution is to innovate through information. Innovation is defined as a way of adapting to environmental change. Certainly the collection of information requires considerable human and financial resources that SMEs do not possess, hence the need for state intervention to make available to these SMEs with the information they need
APA, Harvard, Vancouver, ISO, and other styles
41

Ziebel, Christelle. "Conducteurs infractionnistes : quelles pistes pour une prévention efficiente : proposition d'une extension du modèle de la théorie du comportement planifiée d'Ajzen (1991)." Thesis, Metz, 2011. http://www.theses.fr/2011METZ001L.

Full text
Abstract:
L’objectif de cette thèse consiste à mettre en lumière les déterminants sociocognitifs et de la personnalité intervenant dans différents comportements de conduite automobile auprès de conducteurs infractionnistes participant à un stage de sensibilisation à la sécurité routière. Nous nous sommes basées sur le modèle de la théorie du comportement planifié d’Ajzen (1991). Nous y avons intégré en plus les normes descriptives liées aux membres de l’entourage, les regrets anticipés, le soutien social, l’impulsivité, la perspective temporelle et la conscience. 251 conducteurs infractionnistes âgés de 18 à 77 ans ont participé à l’étude. Les résultats montrent que les croyances comportementales (CC), les normes descriptives (ND) et le passé négatif (PN) expliquent 47% de l’engagement dans des dépassements de vitesse inférieurs à 20 Km/h. Les CC, les ND et la recherche de sensations expliquent 20% de l’engagement dans des dépassements de vitesse de 30 Km/h ou +. Les CC, les ND et l’urgence expliquent 26% de l’engagement dans le non respect des distances de sécurité. Les CC, le présent hédoniste et l’insatisfaction du soutien social expliquent 44% de la conduite imprudente. La CC, les croyances normatives (CN) et les ND expliquent 42% du non port de la ceinture de sécurité. Un usage problématique de cannabis et la CC expliquent 43% de l’engagement dans une conduite sous l’influence du produit. Cette même CC, au côté d’un usage problématique d’alcool et des CN expliquent 32% de l’engagement dans une conduite sous l’influence de du dit produit. En conclusion, une prévention efficiente nécessite la mise en place d’actions à 3 niveaux distincts : individuel, familial et sociétal
This research aims at understanding social cognition and personality variables linked with different driving behaviours among drivers taking a course designed to raise awareness about the causes and consequences of road traffic accidents. We refer to the theory of planned behaviour by Ajzen (1991). We also add descriptive norms concerning family, anticipated regrets, social support and personality measures : impulsivity, time perspective and conscienciousness. 251 offenders aged from 18 to 77 have participated at the study. The results show that the behavioural beliefs (BB), descriptive norms (DN) and Past negative (PN) explain 47% of the committment of exceeding the speed limit less than 20 km/h. The BB, the DN and sensation seeking explain 20% of the committment of exceeding the speed limit by at least 30 km/h. The BB, the DN and urgency explain 26% of the frequency of close following. The BB, Present hedonistic and not to be with social support explain 44% of the commitment of risky driving. The BB, the normative beliefs (NB) and DN explain 42% of the frequency of not wearing the safety belt. A heavy marijuana consumption and BB (to feel able to drive after taking drugs) explain 43% of the commitment of Driving Under the influence (DUI) of marijuana. This same BB, coupled with a heavy drinking and NB explain 32% of the commitment of DUI of alcohol. To conclude, an effective prevention requires to implement action plans in 3 differents levels : the subject, the family, the society
APA, Harvard, Vancouver, ISO, and other styles
42

Dupont, Simon. "Gestion autonomique de l'élasticité multi-couche des applications dans le Cloud : vers une utilisation efficiente des ressources et des services du Cloud." Thesis, Nantes, Ecole des Mines, 2016. http://www.theses.fr/2016EMNA0239/document.

Full text
Abstract:
L’informatique en nuage, au travers de son modèle en couche et de l’accès à ses services à la demande, a bouleversé la façon de gérer les infrastructures (IaaS) et la manière de produire les logiciels (SaaS). Grâce à l’élasticité de l’infrastructure, la quantité de ressource peut être ajustée automatiquement en fonction de la demande afin de satisfaire un certain niveau de qualité de service (QoS) aux clients tout en minimisant les coûts d’exploitation sous-jacents. Le modèle d’élasticité actuel qui consiste à ajuster les ressources IaaS au travers de services de dimensionnement automatique basiques montre ses limites en termes de réactivité et de granularité d’adaptation. De plus, bien qu’étant une caractéristique cruciale de l’informatique en nuage, l’élasticité est à ce jour pauvrement outillée empêchant ainsi les différents acteurs du Cloud de jouir pleinement de ses bienfaits. Dans ce travail de thèse, nous proposons d’étendre leconcept d’élasticité aux couches hautes du nuage, et plus précisément au niveau du SaaS. Nous présentons ainsi le nouveau concept d’élasticité logicielle que nous définissons comme la capacité d’un logiciel à s’adapter, idéalement de manière autonome, pour répondre aux changements de la demande et/ou aux limitations de l’élasticité des ressources de l’infrastructure. Il s’agit alors d’envisager l’élasticité de manière transverse et multi-couche en considérant l’adaptation des ressources Cloud au sens large. Pour ce faire, nous présentons un modèle pour la gestion autonome de l’élasticité multi-couche et le Framework ElaStuff associé. Dans le but d’outiller et d’industrialiser le processus de gestion de l’élasticité, nous proposons l’outil de surveillance perCEPtion basé sur le traitement des événements complexes et permettant à l’administrateur de mettre en place une observation avancée du système Cloud. De plus, un langage dédié à l’élasticité multi-couche nommé ElaScript est proposé pour exprimer simplement et efficacement des plans de reconfiguration orchestrant les actions d’élasticité de différents niveaux. Enfin, notre proposition d’étendre l’élasticité aux couches hautes du Cloud, et plus particulièrement au niveau SaaS, est validée expérimentalement selon plusieurs points devue (QoS, énergie, réactivité et précision du passage à l’échelle,etc.)
Cloud computing, through its layered model and access to its on-demand services, has changed the way of managing the infrastructures (IaaS) and how to produce software (SaaS). With the advent of IaaS elasticity, the amount of resources can be automatically adjusted according to the demand to satisfy a certain level of quality of service (QoS) to customers while minimizing underlying operating costs. The current elasticity model is based on adjusting the IaaS resources through basic autoscaling services, which reaches to its limit in terms of responsiveness and adaptation granularity. Although it is an essential feature for Cloud computing, elasticity remains poorly equipped which prevents the various actors of the Cloud to really enjoy its benefits. In this thesis, we propose to extend the concept of elasticity to higher layers of the cloud, and more precisely to the SaaS level. Then, we present the new concept of software elasticity by defining the ability of the software to adapt, ideally in an autonomous way, to cope with workload changes and/or limitations of IaaS elasticity. This predicament brings the consideration of Cloud elasticity in a multi-layer way through the adaptation of all kind of Cloud resources. To this end, we present a model for the autonomic management of multi-layer elasticity and the associated framework ElaStuff. In order to equip and industrialize the elasticity management process, we propose the perCEPtion monitoring tool, based on complex event processing, which enables the administrators to set up an advanced observation of the Cloud system. In addition, we propose a domain specific language (DSL) for the multi-layer elasticity, called ElaScript, which allows to simply and effectively express reconfiguration plans orchestrating the different levels of elasticity actions. Finally, our proposal to extend the Cloud elasticity to higher layers, particularly to SaaS,is validated experimentally from several perspectives (QoS,energy, responsiveness and accuracy of the scaling, etc.)
APA, Harvard, Vancouver, ISO, and other styles
43

Le, Meur Kevin. "Etude du procédé d'estampage de plaques composites thermo-plastiques et recherche d'une méthodologie efficiente pour l'analyse de la faisabilité d'une pièce complexe." Thesis, Lyon, INSA, 2015. http://www.theses.fr/2015ISAL0115.

Full text
Abstract:
Le procédé de thermo-estampage est une voie intéressante pour la production en grande série de pièces composites. Cependant ce procédé est complexe à maitriser et simuler, en raison des phénomènes multi-physiques mis en jeu (déformation textiles, choc thermique, frottements...) ce qui engendre des campagnes par essai-erreurs qui peuvent être très coûteuses. Cette étude s'intéresse à la mesure et à la caractérisation du procédé d'estampage et des matériaux utilisés afin de simuler le refroidissement de la matrice et la mise en forme du textile. Des défauts récurrents sont évoqués ainsi que des solutions industrielles afin de les résoudre. La simulation thermique permet de déterminer le temps de consolidation nécessaire afin d'optimiser les temps de production en fonction des matériaux et de leur épaisseur. La simulation de la mise en forme textile permet de prédire la faisabilité d'une pièce et l'orientation des fibres afin de définir au mieux les pièces suivant les cas de charges statiques et dynamiques. Les apports de ce travail sont les suivants : la réalisation de mesures thermiques du flan durant un estampage et du choc thermique en surface du stratifié, la réalisation d'une méthodologie efficiente pour analyser la faisabilité d'une pièce complexe dans un contexte industriel grâce à des simulations de mise en forme couplées à des essais expérimentaux. Enfin une méthode d'analyse du comportement en cisaillement plan, pour des renforts dont les fils de chaîne et de trames ne sont pas orthogonaux est proposée
The thermo-stamping process is a promising way for the mass production of the composite parts. However this process is complex to master and simulate due to the multi-physics background (textile deformation, thermal shock, rubbing...) and trial and error tests campaigns can be expensive. This study focuses on the measurement and assessment of the process and materials behaviour, to simulate the cooling down of the matrix and the forming of the woven. Typical defects are mentioned as well as associated industrial solutions to solve them. The simulation makes it possible to determine the consolidation time necessary in order to optimize the manufacturing time as a function of the material used and of its thickness. Furthermore the forming simulation shows the feasibility of the part and the fibre orientation to design the product for the static and crash cases. The contributions of this work are the following: thermal measurements of the pre-consolidated plate during the stamping phase and the thermal chock at the surface of the composites, an efficient method to analyse the feasibility of a complex shape in an industrial context is proposed through forming simulations compared to the experiment. Finally, a methodology for the analysis of the in-plane shearing behaviour of a woven fabric with non-orthogonal warp and weft yarn is proposed
APA, Harvard, Vancouver, ISO, and other styles
44

Fernandez, Brillet Lucas. "Réseaux de neurones CNN pour la vision embarquée." Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM043.

Full text
Abstract:
Pour obtenir des hauts taux de détection, les CNNs requièrent d'un grand nombre de paramètres à stocker, et en fonction de l'application, aussi un grand nombre d'opérations. Cela complique gravement le déploiement de ce type de solutions dans les systèmes embarqués. Ce manuscrit propose plusieurs solutions à ce problème en visant une coadaptation entre l'algorithme, l'application et le matériel.Dans ce manuscrit, les principaux leviers permettant de fixer la complexité computationnelle d'un détecteur d'objets basé sur les CNNs sont identifiés et étudies. Lorsqu'un CNN est employé pour détecter des objets dans une scène, celui-ci doit être appliqué à travers toutes les positions et échelles possibles. Cela devient très coûteux lorsque des petits objets doivent être trouvés dans des images en haute résolution. Pour rendre la solution efficiente et ajustable, le processus est divisé en deux étapes. Un premier CNN s'especialise à trouver des régions d'intérêt de manière efficiente, ce qui permet d'obtenir des compromis flexibles entre le taux de détection et le nombre d’opérations. La deuxième étape comporte un CNN qui classifie l’ensemble des propositions, ce qui réduit la complexité de la tâche, et par conséquent la complexité computationnelle.De plus, les CNN exhibent plusieurs propriétés qui confirment leur surdimensionnement. Ce surdimensionnement est une des raisons du succès des CNN, puisque cela facilite le processus d’optimisation en permettant un ample nombre de solutions équivalentes. Cependant, cela complique leur implémentation dans des systèmes avec fortes contraintes computationnelles. Dans ce sens, une méthode de compression de CNN basé sur une Analyse en Composantes Principales (ACP) est proposé. L’ACP permet de trouver, pour chaque couche du réseau, une nouvelle représentation de l’ensemble de filtres appris par le réseau en les exprimant à travers d’une base ACP plus adéquate. Cette base ACP est hiérarchique, ce qui veut dire que les termes de la base sont ordonnés par importance, et en supprimant les termes moins importants, il est possible de trouver des compromis optimales entre l’erreur d’approximation et le nombre de paramètres. À travers de cette méthode il es possible d’obtenir, par exemple, une réduction x2 sur le nombre de paramètres et opérations d’un réseau du type ResNet-32, avec une perte en accuracy <2%. Il est aussi démontré que cette méthode est compatible avec d’autres méthodes connues de l’état de l’art, notamment le pruning, winograd et la quantification. En les combinant toutes, il est possible de réduire la taille d’un ResNet-110 de 6.88 Mbytes à 370kBytes (gain mémoire x19) avec une dégradation d’accuracy de 3.9%.Toutes ces techniques sont ensuite misses en pratique dans un cadre applicatif de détection de vissages. La solution obtenue comporte une taille de modèle de 29.3kBytes, ce qui représente une réduction x65 par rapport à l’état de l’art, à égal taux de détection. La solution est aussi comparé a une méthode classique telle que Viola-Jones, ce qui confirme autour d’un ordre de magnitude moins de calculs, au même temps que l’habilité d’obtenir des taux de détection plus hauts, sans des hauts surcoûts computationnels Les deux réseaux sont en suite évalues sur un multiprocesseur embarqué, ce qui permet de vérifier que les taux de compression théoriques obtenues restent cohérents avec les chiffres mesurées. Dans le cas de la détection de vissages, la parallélisation du réseau comprimé par ACP sûr 8 processeurs incrémente la vitesse de calcul d’un facteur x11.68 par rapport au réseau original sûr un seul processeur
Recently, Convolutional Neural Networks have become the state-of-the-art soluion(SOA) to most computer vision problems. In order to achieve high accuracy rates, CNNs require a high parameter count, as well as a high number of operations. This greatly complicates the deployment of such solutions in embedded systems, which strive to reduce memory size. Indeed, while most embedded systems are typically in the range of a few KBytes of memory, CNN models from the SOA usually account for multiple MBytes, or even GBytes in model size. Throughout this thesis, multiple novel ideas allowing to ease this issue are proposed. This requires to jointly design the solution across three main axes: Application, Algorithm and Hardware.In this manuscript, the main levers allowing to tailor computational complexity of a generic CNN-based object detector are identified and studied. Since object detection requires scanning every possible location and scale across an image through a fixed-input CNN classifier, the number of operations quickly grows for high-resolution images. In order to perform object detection in an efficient way, the detection process is divided into two stages. The first stage involves a region proposal network which allows to trade-off recall for the number of operations required to perform the search, as well as the number of regions passed on to the next stage. Techniques such as bounding box regression also greatly help reduce the dimension of the search space. This in turn simplifies the second stage, since it allows to reduce the task’s complexity to the set of possible proposals. Therefore, parameter counts can greatly be reduced.Furthermore, CNNs also exhibit properties that confirm their over-dimensionment. This over-dimensionement is one of the key success factors of CNNs in practice, since it eases the optimization process by allowing a large set of equivalent solutions. However, this also greatly increases computational complexity, and therefore complicates deploying the inference stage of these algorithms on embedded systems. In order to ease this problem, we propose a CNN compression method which is based on Principal Component Analysis (PCA). PCA allows to find, for each layer of the network independently, a new representation of the set of learned filters by expressing them in a more appropriate PCA basis. This PCA basis is hierarchical, meaning that basis terms are ordered by importance, and by removing the least important basis terms, it is possible to optimally trade-off approximation error for parameter count. Through this method, it is possible to compress, for example, a ResNet-32 network by a factor of ×2 both in the number of parameters and operations with a loss of accuracy <2%. It is also shown that the proposed method is compatible with other SOA methods which exploit other CNN properties in order to reduce computational complexity, mainly pruning, winograd and quantization. Through this method, we have been able to reduce the size of a ResNet-110 from 6.88Mbytes to 370kbytes, i.e. a x19 memory gain with a 3.9 % accuracy loss.All this knowledge, is applied in order to achieve an efficient CNN-based solution for a consumer face detection scenario. The proposed solution consists of just 29.3kBytes model size. This is x65 smaller than other SOA CNN face detectors, while providing equal detection performance and lower number of operations. Our face detector is also compared to a more traditional Viola-Jones face detector, exhibiting approximately an order of magnitude faster computation, as well as the ability to scale to higher detection rates by slightly increasing computational complexity.Both networks are finally implemented in a custom embedded multiprocessor, verifying that theorical and measured gains from PCA are consistent. Furthermore, parallelizing the PCA compressed network over 8 PEs achieves a x11.68 speed-up with respect to the original network running on a single PE
APA, Harvard, Vancouver, ISO, and other styles
45

Calbucci, Laura, and Eleonora Venzi. "Ri-abitare il margine urbano - Strategie di riqualificazione per il social housing: un edificio residenziale "ACER" come modello di intervento." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2011. http://amslaurea.unibo.it/2143/.

Full text
Abstract:
La tesi individua alcune strategie di rigenerazione urbana e di riqualificazione edilizia, al fine di ottenere una serie di linee guida per l’intervento sul patrimonio di edilizia abitativa situata nelle periferie urbane. Tali principi sono stati poi applicati ad un edificio ACER collocato nella prima periferia di Forlì, per sperimentare l’efficacia delle strategie individuate. Dalla ricerca svolta sulle strategie di intervento volte alla riqualificazione sociale delle periferie, in particolare la teoria del “Defencible space” di Jacobs, si evidenzia l’importanza di accentuare nei residenti il sentimento di territorialità, ovvero la consapevolezza di far parte di una comunità specifica insediata in un particolare spazio, alimentata attraverso la frequentazione e l’appropriazione percettivo-funzionale degli spazi pubblici. Si è deciso quindi di allargare il campo di intervento alla rigenerazione dell’interno comparto, attraverso la riorganizzazione degli spazi verdi e la dotazione di attrezzature sportive e ricreative, in modo da offrire spazi specifici per le diverse utenze (anziani, giovani, bambini) e la definizione di un programma funzionale di servizi ricreativi e spazi destinati a piccolo commercio per integrare le dotazioni carenti dell’area. Dall’analisi approfondita dell’edificio sono emerse le criticità maggiori su cui intervenire: - l’intersezione dei percorsi di accesso all’edificio - la struttura portante rigida, non modificabile - la scarsa varietà tipologica degli alloggi - l’elevato fabbisogno energetico. La riqualificazione dell’edificio ha toccato quindi differenti campi: tecnologico, funzionale, energetico e sociale; il progetto è stato strutturato come una serie di fasi successive di intervento, eventualmente realizzabili in tempi diversi, in modo da consentire il raggiungimento di diversi obiettivi di qualità, in funzione della priorità data alle diverse esigenze. Secondo quest’ottica, il primo grado di intervento, la fase 1 - riqualificazione energetica, si limita all’adeguamento dello stato attuale alle prestazioni energetiche richieste dalla normativa vigente, in assenza di adeguamenti tipologici e spaziali. La fase 2 propone la sostituzione degli impianti di riscaldamento a caldaie autonome presenti attualmente con un impianto centralizzato con pompa di calore, un intervento invasivo che rende necessaria la realizzazione di un “involucro polifunzionale” che avvolge completamente l’edificio. Questo intervento nasce da tre necessità fondamentali : - architettonica: poter ampliare verso l’esterno le superfici degli alloggi, così da intervenire sulle unità abitative rendendole più rispondenti alle necessità odierne; - statica: non dover gravare in ciò sull’edificio esistente apportando ulteriori carichi, difficilmente sopportabili dalla struttura esistente, assicurando il rispetto della normativa antisismica in vigore; - impiantistica/tecnologica: alloggiare i condotti del nuovo impianto centralizzato per il riscaldamento, raffrescamento e acs; La fase 3 è invece incentrata sull’ampliamento dell’offerta abitativa, in modo da rispondere anche a necessità legate ad utenze speciali, come utenti disabili o anziani. L’addizione di nuovi volumi si sviluppa in tre direzioni: - un volume parassita, che aderisce all’edificio nel fronte sud/est, indipendente dal punto di vista strutturale, ruotato per sfruttare al meglio l’orientamento ottimale. - un volume satellite, indipendente, connesso all’edificio esistente tramite un elemento di raccordo, e nel quale sono collocati alcuni alloggi speciali. - un’addizione in copertura, che non appoggia direttamente sul solaio di copertura esistente, ma grava sull’elemento di chiusura del’involucro realizzato nella fase 2 Completano il progetto le addizioni volumetriche a piano terra, destinate a servizi quali un centro diurno, un micronido e un bar, i quali costituiscono la traduzione alla scala dell’edificio delle strategie applicate nel progetto di comparto. Questi interventi hanno consentito di trasformare un edificio costruito negli anni ’80 in un complesso residenziale moderno, dotato spazi accessori di grande qualità, tecnologie moderne che ne garantiscono il comfort abitativo, servizi alla persona disponibili in prossimità dell’edificio.
APA, Harvard, Vancouver, ISO, and other styles
46

Ahmed, Hagui Salem Ilham. "Conjuguer technologie de l’information et de communication et management de l’administration publique : le défi d'une formation administrative publique efficiente en République de Djibouti." Thesis, Paris Est, 2011. http://www.theses.fr/2011PEST0006.

Full text
Abstract:
Le thème de cette thèse relève du domaine de la formation tout au long de la vie professionnelle des agents administratifs de l’Etat djiboutien et plus particulièrement de l’usage des TICE. En effet, la place des TICE dans la formation des adultes, est devenue un moyen important de modernisation pédagogique et de mode de transmission de connaissances à des publics plus vastes. On assiste à un phénomène très important de convergence des enseignements présentiel et à distance dans le monde. Beaucoup des Ecoles Nationales de l’Administration (ENA), notamment ceux des pays industrialisés, consacrent aujourd'hui des moyens humains et financiers très importants à l'enseignement numérique. Elles utilisent ce système pour enrichir leur enseignement présentiel et parfois aussi pour offrir des programmes à distance.Il s’agit donc d’étudier l’environnement de ce système dans sa complexité en prenant en compte ses spécifications (pédagogiques et fonctionnelles) mais aussi sa dynamique, sa mise en œuvre et son exploitation. Nous allons étudier en particulier les dimensions technologiques éducatives et la diversification des modes et méthodes pédagogiques en formation d’adultes afin d’en proposer et de l’adapter au contexte djiboutien.Ainsi, il s’agit de trouver des indices et des critères de prise de décision stratégique pour renforcer les compétences de la ressource humaine de l’administration publique djiboutienne
The theme of this thesis within the field of training throughout the working lives of administrative officers of the state of Djibouti and in particular the use of ICT.Indeed, the role of ICT in adult education, has become an important means to modernize teaching and mode of transmission of knowledge to wider audiences. There has been a very important phenomenon of convergence and distance learning worldwide. Many of the National School of Administration (ENA), including those of industrialized countries now devote human and financial resources very important to teach digital. They use this system to enrich their classroom teaching and sometimes also to provide programs remotely.It is therefore to study the environment of this system in its complexity, taking into account its specifications (educational and functional), but also its dynamics, its implementation and operation. We will consider in particular the educational and technological dimensions of alternative teaching methods and training of adults in order to propose and to adapt to the context of Djibouti.Thus, it is to find clues and criteria for strategic decision making to enhance the skills of human resources of the government of Djibouti
APA, Harvard, Vancouver, ISO, and other styles
47

Ridolfi, Fabiano. "Efficiente implementazione in CUDA di algoritmi iterativi algebrici per CBCT con integrazione di un nuovo metodo per la rimozione degli artefatti da oggetti densi." Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/15440/.

Full text
Abstract:
Grazia all'architettura CUDA si possono realizzare delle soluzioni efficienti di algoritmi di ricostruzione iterativi per CBCT. Questi algoritmi consentono la manipolazione dei dati di ricostruzione offrendo la possibilità di integrare direttamente nella fase di creazione del volume dei metodi per migliorare la qualità dell'immagine di output. Vengono proposte l'implementazioni di tre differenti algoritmi iterativi in CUDA e la progettazione di un sistema integrato di riduzione degli artefatti da oggetti densi che elabora e manipola i dati intermedi prodotti durante la ricostruzione.
APA, Harvard, Vancouver, ISO, and other styles
48

Poret, Marine. "Caractérisation de la machinerie protéolytique associée à une remobilisation efficiente de l’azote pendant la sénescence dans le but d’optimiser l’efficience d’usage de l’azote chez le colza (Brassica napus L. )." Caen, 2016. http://www.theses.fr/2016CAEN2040.

Full text
Abstract:
Le colza est une oléoprotéagineuse exigeante en azote (N), présentant une faible efficience d’usage du N (EUA). Le défi majeur vise à améliorer le bilan agro-environnemental du colza par le biais d’une optimisation de l’EUA qui permettra un maintien voire une augmentation du rendement en réponse à une réduction des intrants azotés. Lors des stades végétatifs ou reproducteurs, l’EUA est limitée par une faible efficience de remobilisation du N (ERA) lors de la sénescence des feuilles ou des siliques. Les protéines correspondant à la principale forme de réserve de composés N remobilisables, l’objectif était de caractériser la machinerie protéolytique (identification et régulation des protéases actives) qui est associée à une remobilisation efficace du N lors de ces deux types de sénescence en conditions de limitation en nitrate. Au stade rosette, le génotype présentant une meilleure ERA était caractérisé par un ratio (acide salicylique + acide abscissique / cytokinines) élevé qui est parallèle à une accélération de la sénescence et à une plus forte dégradation des protéines solubles. Ainsi, une augmentation des activités des protéases à sérine et à cystéine et l’induction de l’activité de nouvelles protéases à cystéine (RD21, SAG12, AALP, RD19, XBCP3 et cathepsine-B) sont observées lors de la sénescence en réponse à une limitation en N. Ces différences génotypiques d’activités protéasiques sont détectables très précocement lors de la sénescence des cotylédons qui semble également être un bon modèle pour étudier la régulation de la protéolyse lors de la sénescence. Ce modèle a permis de vérifier l’implication des phytohormones dans la régulation des activités protéasiques. En parallèle, des protéases actives SAG12, RD21 et AALPs ont également été identifiées comme essentielles lors de la sénescence des péricarpes et leur implication dans la variabilité génotypique de l’ERA lors du remplissage des graines est postulée
Oilseed rape is an oleoproteaginous crop with high nitrogen (N) demanding and characterized by a low N use efficiency (NUE). The main challenge to improve the agri-environmental balance of oilseed rape is to optimize NUE allowing a sustainable yield despite a reduction of N inputs. During vegetative or reproductive stages, EUA is limited by a low N remobilization efficiency (NRE) during leaf or pod senescence. As proteins correspond to the largest storage of N compounds that could be remobilized, the objective was to characterize the proteolytic machinery (identification and regulation of proteases) that is associated with efficient N remobilization in these two types of senescence in N limiting conditions. At rosette stage, the genotype with better NRE was characterized by an elevated (salicylic acid + abscisic acid / cytokinins) ratio that is parallel with the enhancement of senescence and higher protein degradation. Thus increased activity of serine and cysteine proteases and the induction of new cysteine protease activities (RD21, SAG12, AALP, RD19, XBCP3 and cathepsin-B) are observed during senescence in response to N limitation. These genotypic differences of protease activities are detectable during the senescence of cotyledons which also appeared to be a good model to study the senescence regulation. This model was used to validate the involvement of the hormones in the regulation of protease activities. In parallel, active proteases SAG12, RD21 and AALPs were also identified as essential during senescence of pericarps and their involvement in the genotypic variability of ERA during seed filling is postulated
APA, Harvard, Vancouver, ISO, and other styles
49

Rosset, Christian Rosset Christian. "Système de gestion sylvicole intégrée et d'aide à la décision : le WIS.2, un instrument informatique pour une gestion sylvicole efficiente et ciblée, durable, multifonctionnelle et proche de la nature /." [S.l.] : [s.n.], 2005. http://e-collection.ethbib.ethz.ch/show?type=diss&nr=16005.

Full text
APA, Harvard, Vancouver, ISO, and other styles
50

Saint-Leger, Guy Savall Henri. "Quel processus de changement peut permettre une mise en oeuvre et une utilisation efficace et efficiente d'un système d'information de type ERP dans les moyennes structures de production de biens et de services?" Grenoble : ANRT-Grenoble, 2005. http://thesesbrain.univ-lyon3.fr/sdx/theses/lyon3/2005/saintleger_g.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography