Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Algorithme de tri.

Thèses sur le sujet « Algorithme de tri »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Algorithme de tri ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Durand, Marie. « PaVo Un tri parallèle adaptatif ». Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00959995.

Texte intégral
Résumé :
Les joueurs exigeants acquièrent dès que possible une carte graphique capable de satisfaire leur soif d'immersion dans des jeux dont la précision, le réalisme et l'interactivité redoublent d'intensité au fil du temps. Depuis l'avènement des cartes graphiques dédiées au calcul généraliste, ils n'en sont plus les seuls clients. Dans un premier temps, nous analysons l'apport de ces architectures parallèles spécifiques pour des simulations physiques à grande échelle. Cette étude nous permet de mettre en avant un goulot d'étranglement en particulier limitant la performance des simulations. Partons d'un cas typique : les fissures d'une structure complexe de type barrage en béton armé peuvent être modélisées par un ensemble de particules. La cohésion de la matière ainsi simulée est assurée par les interactions entre elles. Chaque particule est représentée en mémoire par un ensemble de paramètres physiques à consulter systématiquement pour tout calcul de forces entre deux particules. Ainsi, pour que les calculs soient rapides, les données de particules proches dans l'espace doivent être proches en mémoire. Dans le cas contraire, le nombre de défauts de cache augmente et la limite de bande passante de la mémoire peut être atteinte, particulièrement en parallèle, bornant les performances. L'enjeu est de maintenir l'organisation des données en mémoire tout au long de la simulation malgré les mouvements des particules. Les algorithmes de tri standard ne sont pas adaptés car ils trient systématiquement tous les éléments. De plus, ils travaillent sur des structures denses ce qui implique de nombreux déplacements de données en mémoire. Nous proposons PaVo, un algorithme de tri dit adaptatif, c'est-à-dire qu'il sait tirer parti de l'ordre pré-existant dans une séquence. De plus, PaVo maintient des trous dans la structure, répartis de manière à réduire le nombre de déplacements mémoires nécessaires. Nous présentons une généreuse étude expérimentale et comparons les résultats obtenus à plusieurs tris renommés. La diminution des accès à la mémoire a encore plus d'importance pour des simulations à grande échelles sur des architectures parallèles. Nous détaillons une version parallèle de PaVo et évaluons son intérêt. Pour tenir compte de l'irrégularité des applications, la charge de travail est équilibrée dynamiquement par vol de travail. Nous proposons de distribuer automatiquement les données en mémoire de manière à profiter des architectures hiérarchiques. Les tâches sont pré-assignées aux cœurs pour utiliser cette distribution et nous adaptons le moteur de vol pour favoriser des vols de tâches concernant des données proches en mémoire.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Guedj, Mikaël. « Peut-on déléguer le tri des urgences ophtalmologiques à un algorithme informatisé auto-implémenté par le patient ? : le projet ICARE (Interactive Care Assessment of Risk factors and Emergency levels) ». Thesis, Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCB190.

Texte intégral
Résumé :
Chaque année en France, 4 millions de consultations en urgence ne sont pas justifiées d'un point de vue médical et presque la moitié des patients se présentant aux Urgences auraient vocation à être traités ailleurs, libérant ainsi les services d'Urgences destinés à traiter les réelles situations urgentes. L'engorgement des Urgences a conduit les services à mettre en place une priorisation de la prise en charge à l'accueil des patients ; cette priorisation n'est pas standardisée ni rationalisée. Nous avons conçu un outil informatisé permettant le tri des niveaux d'urgence en fonction des symptômes, antécédents et contexte médical du patient. Par cet outil, baptisé iCare, le patient seul ou aidé d'un tiers, doit être capable de détecter et de prioriser ses symptômes devant mener à une consultation urgente, par opposition aux symptômes moins urgents ou non-urgents. L'évaluation de l'algorithme iCare concernant les pathologies oculaires a pour ambition de disposer d'un outil de tri généralisable et reproductible au sein des différentes unités de soin, mais aussi à améliorer la responsabilisation et l'autonomie des patients dans la compréhension de leurs symptômes et leur recours au système de soins (concept d'empowerment en e-santé). L'objectif principal de notre recherche interventionnelle ne comportant que des risques et contraintes minimes consistait à valider l'algorithme de tri iCare, déterminant le niveau d'urgence approprié correspondant aux situations cliniques rencontrées. Cette validité était basée sur les calculs de sensibilité, spécificité, valeurs prédictives positives et négatives. Le niveau de référence retenu était le niveau d'urgence déterminé par le médecin à l'issue de sa consultation. Un effectif de 1000 patient se présentant pour une urgence ophtalmologique s'est vu proposer la participation à la recherche à son arrivée à l'accueil de deux centres de soins parisiens (Fondation Rothschild, Institut Vernes), à compter de la date d'acceptation du protocole par le Comité pour la Protection des Personnes dans la recherche biomédicale (CPP). Si le patient consentait à participer à la recherche, un technicien d'étude clinique (TEC) lui faisait remplir l'algorithme iCare, présenté sous forme de questionnaire interactif sur tablette tactile, dont l'implémentation prenait en routine moins de deux minutes. À l'issue de cette implémentation, un niveau d'urgence A, B, C ou D était fourni par le programme. Le niveau d'urgence attribué par l'algorithme n'était connu ni du patient, ni du médecin qui allait l'examiner. Le niveau d'urgence déterminé par le médecin à l'issue de son examen clinique (gold standard du critère de jugement principal) était recueilli, sous forme de niveau A,B,C,D ou de choix binaire Urgent / Non Urgent (U / NU). D'autres paramètres, comme temps nécessaire et le besoin d'aide au remplissage, le motif de consultation, les données démographiques et le temps d'attente sur place ont également été analysés. Cette thèse dresse un état de l'art de l'appellation "e-santé" en 2018, aborde les problématiques actuelles de santé publique liées à l'hyperfréquentation des services d'urgence en France, et présente l'outil iCare comme solution potentielle pour simplifier et rationaliser le tri des niveaux d'urgence en ophtalmologie (aspect santé publique), comme moyen d'éducation à la santé et d'autonomisation des patients dans la lecture de leurs symptômes (aspect empowerment), mais aussi comme outil généralisable de big data rapportant les motifs de consultation dans les services d'urgence, les cabinets ou même à domicile (aspect épidémiologique)
Every year in France, 4 million emergency consultations are not justified from a medical point of view and almost half of the patients presenting to the Emergency Department could be treated elsewhere, thus releasing the Emergency Departments to take care of the real urgent situations. The overcrowding of the ERs led the services to set up a prioritization of care for the reception of patients; this prioritization is not standardized nor rationalized. We designed a computerized tool to sort emergency levels based on a patient's symptoms, background, and medical context. By this tool, called iCare, the patient alone or assisted by a third party, must be able to detect and prioritize his symptoms leading to an urgent consultation, as opposed to less urgent or non-urgent symptoms. The evaluation of the iCare algorithm regarding ocular pathologies aims to run a generalizable and reproducible sorting tool within the different care units, but also to improve patient autonomy in the understanding of their symptoms and their use of the healthcare system (e-health concept of empowerment). The main objective of our "interventional research involving only minimal risks and constraints" was to validate the iCare sorting algorithm, determining the appropriate level of urgency corresponding to the clinical situations encountered. This validity was based on the calculations of sensitivity, specificity, positive and negative predictive values. The chosen gold-standard was the level of emergency determined by the doctor after his consultation. A number of 1000 patients presenting for an ophthalmological emergency were offered to participate in research upon arrival at the reception of two Parisian health centers (Rothschild Foundation, Vernes Institute), from the date of protocol acceptance by the Committee for the Protection of Persons in biomedical research (CPP). If the patient consented to participate in research, a Clinical Study Technician (CST) made him fill in the iCare algorithm, presented as an interactive questionnaire on touchscreen tablet, whose implementation took less than two minutes. At the end of this implementation, a level of emergency A, B, C or D was provided by the program. The level of emergency attributed by the algorithm was unknown to either the patient or the doctor who was going to examine him. The level of emergency determined by the physician at the end of his clinical examination (gold standard of the primary endpoint) was collected as a level A, B, C, D or as binary choice Urgent / No Urgent (U / NU). Other parameters, such as the time required and the need for filling assistance, the reason for consultation, demographics and on-site waiting time were also analyzed. This thesis outlines a state of the art of the word "e-health" in 2018, addresses the current public health issues related to high traffic in emergency services in France, and features the iCare tool as a potential solution to simplify and rationalize the sorting of emergency levels in ophthalmology (public health feature), as a means of health education and empowerment of patients in the reading of their symptoms (empowerment feature), but also as a generalizable tool for big data reporting of the reasons for consultation in the emergency wards, private practices or even at home health-related internet researches (epidemiological feature)
Styles APA, Harvard, Vancouver, ISO, etc.
3

Guewouo, Thomas. « Système Intégré et Multi-Fonctionnel de Stockage Electrique-Thermique avec l’Option de Tri-Génération ». Thesis, Nantes, 2018. http://www.theses.fr/2018NANT4009/document.

Texte intégral
Résumé :
Pour faire face aux changements climatiques, la transition énergétique s’impose aujourd’hui comme une évidence. Les sources d’énergie renouvelables devant aider à cette transition sont caractérisées par leurs intermittences qui requièrent des dispositifs de stockages afin de garantir la fiabilité des systèmes énergétique utilisant ces dernières. Le stockage d’électricité par air comprimé (CAES) est l’un de ces dispositifs de stockage d’énergie. Cependant, dans sa configuration actuellement commercialisée, le CAES brûle en phase de décharge du gaz naturel afin d’améliorer le rendement de conversion du système. Le présent travail contribue à la diminution de l’empreinte écologique de cette technique de stockage en proposant un système de taille réduite n’utilisant aucune source d’énergie fossile. Dans un premier temps, une modélisation thermodynamique fine d’un tel système est faite en fonction des types de composants choisis et de leurs comportements thermiques (adiabatique, polytropique). Une étude expérimentale visant à démontrer la faisabilité d’un tel système est par la suite réalisée sur un prototype de laboratoire. Le très faible rendement de conversion expérimental obtenu (4%), bien que confirmant la faisabilité technique nous a suggéré une optimisation du système de stockage proposé. L’algorithme génétique à codage réel, modifié afin de stabiliser et d’accélérer sa convergence est présenté de façon détaillée puis utilisé pour identifier un ensemble de 13 paramètres maximisant le rendement exergétique du système. Un rendement électrique de conversion d’environ 20% est obtenu sur le système optimisé pour un rendement énergétique global de plus de 75%
To address climate change, the transition to a decarbonized energy system is self-evident. The renewable energy sources to support this energy transition are intermittent. Therefore, they should be coupled at an electrical storage system to ensure the reliability of power system using same. Compressed air energy storage (CAES) happens to be one of these technologies of energy storage. Unfortunately, in its current configuration, CAES requires the combustion of natural gas during the discharging periods to improve the global energy efficiency of system. This work contributes to the reduction of the environmental footprint of compressed air energy storage by proposing a small-scale CAES using no fossil fuel energy source. Initially, a careful thermodynamic modeling of such a storage system is made according to the types of components chosen and to their thermal behavior (adiabatic or polytropic). Subsequently, for demonstrating its feasibility, a comprehensive experimental investigation was performed on experimental prototype existing in our lab. The very low experimental conversion efficiency obtained (4%) although confirming the technical feasibility, it has suggested that the proposed storage system should be optimized. A modified real coded genetic algorithm to stabilize and accelerate its convergence is documented here and used to identify a set of thirteen parameters who maximize the global exergy efficiency of proposed electric energy storage system. The result of the optimization indicates that in the optimum operating point, the electrical efficiency of storage system is about 20% for a round trip efficiency of 75%
Styles APA, Harvard, Vancouver, ISO, etc.
4

Chibirova, Olga. « Interactions fonctionnelles dans les ganglions de la base étudiées par l'enregistrement simultané des activités unitaires discriminées par un algorithme non supervisé de tri de potentiels d'action ». Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00115720.

Texte intégral
Résumé :
La thèse porte sur une nouvelle méthode de tri non supervisé de potentiels d'action et sur son application à l'analyse de l'activité neuronale des ganglions de la base. Le développement de nouvelles approches au tri de potentiels d'action est actuel en vue de nouveaux outils nécessaires à l'électrophysiologie effectuée pendent la neurochirurgie fonctionnelle, autant que pour l'efficacité des l'expériences électrophysiologiques en temps réel.
La méthode présentée dans la première partie de cette thèse est une nouvelle approche à ce problème qui décrit les potentiels d'action à l'aide des équations différentielles avec perturbation caractérisant la variation interne de leur forme. Le logiciel permettant le tri de potentiels d'action non supervisé développé à partir de cette méthode comprends un algorithme automatique d'évaluation d'étalons de classes et de leurs rayons.
La seconde partie présente l'application de la méthode à l'analyse de l'activité neuronale des ganglions de la base. Les donnés pour les analyses ont été recueillis au bloque chirurgical du département de neurochirurgie de l'Hôpital Universitaire de Grenoble pendent l'électrophysiologie intra chirurgicale et représentent le STN (950 enregistrements), le GPI (183) et le SNR (105) de 13 patients parkinsoniens et 2 patients souffrant de dystonie. Les analyses sont destinées à définir les formes typiques de potentiel d'action et à révéler un parallèle entre la nature de l'activité neuronale et la gravité des symptômes de la maladie de Parkinson.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Moine, Pascale. « Analyse tri-dimensionnelle de la structure de l'atmosphère à partir d'observations satellitaires : classification des masses d'air observées et extension à la haute stratosphère (30-50 km) ». Paris 6, 1986. http://www.theses.fr/1986PA066329.

Texte intégral
Résumé :
A partir des mesures de flux d'énergie radiante émis par l'atmosphère et effectuées des plateformes satellitaires, on peut, par un processus connu sous le nom "d'inversion de l'équation de transfert radiatif", remonter à la structure verticale de l'atmosphère, en température et en composition. Un tel procédé d'inversion, en vue du traitement des données des satellites de la série tiros-n, a été élaboré au L. M. D. Au cours des dernières années. C'est une méthode physico-statistique, qui consiste à résoudre l'équation de transfert radiatif de manière itérative et qui repose en grande partie sur la qualité de la solution initiale pour démarrer le processus itératif. La connaissance a priori des types de masse d'air observés est un élément essentiel de la reconnaissance de proximités utilisée pour l'initialisation. C'est pourquoi nous avons cherché à extraire cette information par application d'un algorithme de classification d'observations satellitaires (mesure de radiances). Parmi les méthodes de classification existant, nous avons retenu celle dite des "nuées dynamiques" basée sur la notion de "formes fortes" et l'optimisation d'un critère de variance. L'algorithme a ensuite été valide expérimentalement par application à des situations météorologiques relatives au satellite noaa-7. Les résultats obtenus sont en accord avec les analyses météorologiques conventionnelles. Par ailleurs, l'algorithme d'inversion du L. M. D. Permettait de restituer les paramètres atmosphériques jusqu'à environ 30 km d'altitude. La méthode développée dans cette étude a permis d'étendre cette restitution jusqu'à 50 km. Elle utilise les observations du "stratospheric sounding unit" (SSU) et est basée sur une technique de régression multilinéaire. Le modèle construit a été valide par application a des scènes NOAA-7, ainsi qu'a des phénomènes particuliers: « les échauffements stratosphériques brusques ».
Styles APA, Harvard, Vancouver, ISO, etc.
6

Abdayem, Anthony. « Stratégies de contrôle optimisées pour les convertisseurs multiniveaux modulaires (MMCs) connectés au réseau basse tension ». Electronic Thesis or Diss., CY Cergy Paris Université, 2024. http://www.theses.fr/2024CYUN1301.

Texte intégral
Résumé :
Le convertisseur modulaire multiniveaux (MMC) s'est imposé comme l'une des topologies les plus prometteuses pour les applications à moyenne et haute tension ainsi qu'à haute puissance. Récemment, il a également montré son potentiel pour des applications nécessitant de faibles tensions, appelées mini MMCs, qui contiennent un plus petit nombre de sous-modules par bras. Les caractéristiques clés des MMCs incluent la modularité, l'évolutivité en tension et en puissance, la tolérance aux pannes, le fonctionnement sans transformateur et des formes d'onde de sortie de haute qualité. Ces dernières années, de nombreuses études de recherche ont été menées pour aborder les défis techniques liés au fonctionnement, au contrôle et à la topologie des MMCs.L'une des applications les plus importantes des MMCs se trouve dans les systèmes connectés au réseau. Ces convertisseurs offrent l'avantage de réduire les harmoniques de courant et de tension sans avoir besoin de composants passifs encombrants. De plus, les MMCs se révèlent fiables grâce à leur structure, qui leur permet de continuer à fonctionner même en cas de défaillance d'un ou plusieurs interrupteurs de puissance. Cependant, leur contrôle est complexe en raison du grand nombre de configurations de commutation, nécessitant des algorithmes de contrôle sophistiqués. Cette thèse se concentre sur la mise en œuvre de techniques de contrôle avancées pour améliorer les performances des MMCs. Elle vise à explorer les MMCs, à améliorer les structures de puissance existantes pour de nouvelles applications, et à accroître l'efficacité et la fiabilité grâce à des techniques de conception de contrôle et de modulation. La recherche explore également le contrôle des MMCs à l'aide de méthodes de contrôle prédictif modélisées (MPC) innovantes.Plus précisément, cette thèse comprend une série d'études abordant les défis et améliorant les performances des MMCs dans diverses applications. Le premier ensemble d'études porte sur une nouvelle conception de contrôle pour les MMCs, permettant le contrôle séparé des tensions des condensateurs dans les bras supérieur et inférieur. La recherche cible également les MMCs monophasés, permettant le contrôle en conditions de déséquilibre de puissance entre les bras supérieur et inférieur. De plus, l'étude traite des techniques de modulation et d'équilibrage de tension. Une nouvelle technique de modulation, la technique de modulation intégrale (IM), une avancée par rapport à la technique de modulation au niveau le plus proche (NLM), est introduite. Un nouvel algorithme de tri est également proposé pour améliorer l'efficacité des MMCs en réduisant le nombre de commutations par seconde pour les techniques de modulation existantes telles que NLM, IM et PWM.La recherche s'étend également à l'exploitation en tolérance aux pannes dans les MMCs triphasés, proposant une méthode qui injecte des courants circulants harmoniques de fréquence et de courant continu pour maintenir le fonctionnement en cas de défaillance d'un bras. Une contribution importante consiste à développer un algorithme de contrôle prédictif modélisé à ensemble fini à horizon unique (FCS-MPC) pour les MMCs monophasés, qui surpasse les méthodes traditionnelles en termes de commutations, de qualité des formes d'onde de courant de réseau et de variation des tensions des condensateurs. Six algorithmes FCS-MPC pour les MMCs sont introduits, offrant des perspectives sur leurs performances par rapport à un schéma de contrôle en cascade classique. La thèse se termine par une configuration innovante pour un convertisseur à ponts en H en cascade (CHB), conçu pour l'intégration des énergies renouvelables, démontrant son efficacité à travers des simulations
The modular multilevel converter (MMC) has emerged as one of the most promising topologies for medium- to high-voltage, high-power applications. Recently, it has also shown potential for applications requiring low voltages, known as mini MMCs, which contain a smaller number of submodules per arm. Key features of MMCs include modularity, voltage and power scalability, fault tolerance, transformer-less operation, and high-quality output waveforms. In recent years, numerous research studies have been conducted to address the technical challenges associated with MMC operation, control, and topology.One of the most significant applications for MMCs is in grid-connected systems. These converters offer the advantage of reducing current and voltage harmonics without the need for bulky passive components. Moreover, MMCs demonstrate reliability due to their structure, which enables them to continue operating even if one or more power switches fail. However, their control is complex due to the numerous switching configurations, necessitating sophisticated control algorithms. This thesis focuses on implementing advanced control techniques to enhance MMC performance. It aims to explore MMCs, improve existing power structures for novel applications, and increase efficiency and reliability through control design and modulation techniques. The research also investigates controlling MMCs using novel Model Predictive Control methods.Specifically, this thesis comprises a series of investigations addressing challenges and enhancing MMC performance across various applications. The first set of studies focuses on a new control design for MMCs, allowing separate control of capacitor voltages in the upper and lower arms. The research also targets single-phase MMCs, enabling control under unbalanced power conditions between the upper and lower arms. Additionally, the study addresses modulation and voltage balancing techniques. A new modulation technique, the Integral Modulation Technique, an advancement of the Nearest Level Modulation Technique, is introduced. A novel sorting algorithm is also proposed to enhance MMC efficiency by reducing the number of commutations per second for existing modulation techniques such as NLM, IM, and PWM.The research extends to fault-tolerant operation in three-phase MMCs, proposing a method that injects DC and frequency harmonic circulating currents to sustain operation in the event of a faulty arm. A significant contribution involves developing a single-horizon finite control set model predictive control (FCS-MPC) algorithm for single-phase MMCs, which outperforms traditional methods in terms of commutations, grid current waveform quality, and capacitor voltage variance. Six FCS-MPC algorithms for MMCs are introduced, offering insights into their performance compared to a classic cascaded control scheme. The thesis concludes with a novel configuration for a Cascaded H-Bridge (CHB) converter designed for renewable energy integration, demonstrating effectiveness through simulations.In summary, this thesis presents a comprehensive exploration of MMCs, addressing control challenges, fault tolerance, modulation techniques, and innovative configurations for renewable energy integration. The findings contribute to advancing MMC technologies in various applications
Styles APA, Harvard, Vancouver, ISO, etc.
7

Le, Trung-Dung. « Gestion de masses de données dans une fédération de nuages informatiques ». Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S101.

Texte intégral
Résumé :
Les fédérations de nuages informatiques peuvent être considérées comme une avancée majeure dans l’informatique en nuage, en particulier dans le domaine médical. En effet, le partage de données médicales améliorerait la qualité des soins. La fédération de ressources permettrait d'accéder à toutes les informations, même sur une personne mobile, avec des données hospitalières distribuées sur plusieurs sites. En outre, cela permettrait d’envisager de plus grands volumes de données sur plus de patients et ainsi de fournir des statistiques plus fines. Les données médicales sont généralement conformes à la norme DICOM (Digital Imaging and Communications in Medicine). Les fichiers DICOM peuvent être stockés sur différentes plates-formes, telles qu’Amazon, Microsoft, Google Cloud, etc. La gestion des fichiers, y compris le partage et le traitement, sur ces plates-formes, suit un modèle de paiement à l’utilisation, selon des modèles de prix distincts et en s’appuyant sur divers systèmes de gestion de données (systèmes de gestion de données relationnelles ou SGBD ou systèmes NoSQL). En outre, les données DICOM peuvent être structurées en lignes ou colonnes ou selon une approche hybride (ligne-colonne). En conséquence, la gestion des données médicales dans des fédérations de nuages soulève des problèmes d’optimisation multi-objectifs (MOOP - Multi-Objective Optimization Problems) pour (1) le traitement des requêtes et (2) le stockage des données, selon les préférences des utilisateurs, telles que le temps de réponse, le coût monétaire, la qualités, etc. Ces problèmes sont complexes à traiter en raison de la variabilité de l’environnement (liée à la virtualisation, aux communications à grande échelle, etc.). Pour résoudre ces problèmes, nous proposons MIDAS (MedIcal system on clouD federAtionS), un système médical sur les fédérations de groupes. Premièrement, MIDAS étend IReS, une plate-forme open source pour la gestion de flux de travaux d’analyse sur des environnements avec différents systèmes de gestion de bases de données. Deuxièmement, nous proposons un algorithme d’estimation des valeurs de coût dans une fédération de nuages, appelé Algorithme de régression %multiple linéaire dynamique (DREAM). Cette approche permet de s’adapter à la variabilité de l'environnement en modifiant la taille des données à des fins de formation et de test, et d'éviter d'utiliser des informations expirées sur les systèmes. Troisièmement, l’algorithme génétique de tri non dominé à base de grilles (NSGA-G) est proposé pour résoudre des problèmes d’optimisation multi-crtières en présence d’espaces de candidats de grande taille. NSGA-G vise à trouver une solution optimale approximative, tout en améliorant la qualité du font de Pareto. En plus du traitement des requêtes, nous proposons d'utiliser NSGA-G pour trouver une solution optimale approximative à la configuration de données DICOM. Nous fournissons des évaluations expérimentales pour valider DREAM, NSGA-G avec divers problèmes de test et jeux de données. DREAM est comparé à d'autres algorithmes d'apprentissage automatique en fournissant des coûts estimés précis. La qualité de la NSGA-G est comparée à celle des autres algorithmes NSGA présentant de nombreux problèmes dans le cadre du MOEA. Un jeu de données DICOM est également expérimenté avec NSGA-G pour trouver des solutions optimales. Les résultats expérimentaux montrent les qualités de nos solutions en termes d'estimation et d'optimisation de problèmes multi-objectifs dans une fédération de nuages
Cloud federations can be seen as major progress in cloud computing, in particular in the medical domain. Indeed, sharing medical data would improve healthcare. Federating resources makes it possible to access any information even on a mobile person with distributed hospital data on several sites. Besides, it enables us to consider larger volumes of data on more patients and thus provide finer statistics. Medical data usually conform to the Digital Imaging and Communications in Medicine (DICOM) standard. DICOM files can be stored on different platforms, such as Amazon, Microsoft, Google Cloud, etc. The management of the files, including sharing and processing, on such platforms, follows the pay-as-you-go model, according to distinct pricing models and relying on various systems (Relational Data Management Systems or DBMSs or NoSQL systems). In addition, DICOM data can be structured following traditional (row or column) or hybrid (row-column) data storages. As a consequence, medical data management in cloud federations raises Multi-Objective Optimization Problems (MOOPs) for (1) query processing and (2) data storage, according to users preferences, related to various measures, such as response time, monetary cost, qualities, etc. These problems are complex to address because of heterogeneous database engines, the variability (due to virtualization, large-scale communications, etc.) and high computational complexity of a cloud federation. To solve these problems, we propose a MedIcal system on clouD federAtionS (MIDAS). First, MIDAS extends IReS, an open source platform for complex analytics workflows executed over multi-engine environments, to solve MOOP in the heterogeneous database engines. Second, we propose an algorithm for estimating of cost values in a cloud environment, called Dynamic REgression AlgorithM (DREAM). This approach adapts the variability of cloud environment by changing the size of data for training and testing process to avoid using the expire information of systems. Third, Non-dominated Sorting Genetic Algorithm based ob Grid partitioning (NSGA-G) is proposed to solve the problem of MOOP is that the candidate space is large. NSGA-G aims to find an approximate optimal solution, while improving the quality of the optimal Pareto set of MOOP. In addition to query processing, we propose to use NSGA-G to find an approximate optimal solution for DICOM data configuration. We provide experimental evaluations to validate DREAM, NSGA-G with various test problem and dataset. DREAM is compared with other machine learning algorithms in providing accurate estimated costs. The quality of NSGA-G is compared to other NSGAs with many problems in MOEA framework. The DICOM dataset is also experimented with NSGA-G to find optimal solutions. Experimental results show the good qualities of our solutions in estimating and optimizing Multi-Objective Problem in a cloud federation
Styles APA, Harvard, Vancouver, ISO, etc.
8

Auger, Nicolas. « Analyse réaliste d'algorithmes standards ». Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1110/document.

Texte intégral
Résumé :
À l'origine de cette thèse, nous nous sommes intéressés à l'algorithme de tri TimSort qui est apparu en 2002, alors que la littérature sur le problème du tri était déjà bien dense. Bien qu'il soit utilisé dans de nombreux langages de programmation, les performances de cet algorithme n'avaient jamais été formellement analysées avant nos travaux. L'étude fine de TimSort nous a conduits à enrichir nos modèles théoriques, en y incorporant des caractéristiques modernes de l'architecture des ordinateurs. Nous avons, en particulier, étudié le mécanisme de prédiction de branchement. Grâce à cette analyse théorique, nous avons pu proposer des modifications de certains algorithmes élémentaires (comme l'exponentiation rapide ou la dichotomie) qui utilisent ce principe à leur avantage, améliorant significativement leurs performances lorsqu'ils sont exécutés sur des machines récentes. Enfin, même s'il est courant dans le cadre de l'analyse en moyenne de considérer que les entrées sont uniformément distribuées, cela ne semble pas toujours refléter les distributions auxquelles nous sommes confrontés dans la réalité. Ainsi, une des raisons du choix d'implanter TimSort dans des bibliothèques standard de Java et Python est probablement sa capacité à s'adapter à des entrées partiellement triées. Nous proposons, pour conclure cette thèse, un modèle mathématique de distribution non-uniforme sur les permutations qui favorise l'apparition d'entrées partiellement triées, et nous en donnons une analyse probabiliste détaillée
At first, we were interested in TimSort, a sorting algorithm which was designed in 2002, at a time where it was hard to imagine new results on sorting. Although it is used in many programming languages, the efficiency of this algorithm has not been studied formally before our work. The fine-grain study of TimSort leads us to take into account, in our theoretical models, some modern features of computer architecture. In particular, we propose a study of the mechanisms of branch prediction. This theoretical analysis allows us to design variants of some elementary algorithms (like binary search or exponentiation by squaring) that rely on this feature to achieve better performance on recent computers. Even if uniform distributions are usually considered for the average case analysis of algorithms, it may not be the best framework for studying sorting algorithms. The choice of using TimSort in many programming languages as Java and Python is probably driven by its efficiency on almost-sorted input. To conclude this dissertation, we propose a mathematical model of non-uniform distribution on permutations, for which permutations that are almost sorted are more likely, and provide a detailed probabilistic analysis
Styles APA, Harvard, Vancouver, ISO, etc.
9

McNally, Jeffrey Mark. « Fast parallel algorithms for tri-diagonal symmetric Toeplitz systems ». Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape7/PQDD_0017/MQ54635.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
10

Dias, Vieira Braga Marilia. « L'espace de solutions du tri par inversions et son utilisation dans l'analyse de réarrangements de génomes ». Lyon 1, 2009. http://n2t.net/ark:/47881/m6rv0kvd.

Texte intégral
Résumé :
Le calcul de la distance d'inversion et la recherche des séquences optimales d'inversions pour transformer un génome dans un autre quand les duplications de gènes ne sont pas acceptées sont des outils algorithmiques très utiles pour l'analyse de scénarios d'évolution réels. Néanmoins, le nombre de séquences optimales différentes est très grand. Avec un modèle proposé antérieurement pour regrouper des sous-ensembles de séquences optimales dans des classes d'équivalence, on a developpé un algorithme qui génère une séquence optimale par classe d'équivalence, sans énumérer toutes les séquences, ce qui permet de réduire la taille de l'ensemble à traiter. On propose aussi l'utilisation de différentes contraintes biologiques, comme les intervalles communs détectés initialement et progressivement, pour réduire le nombre de classes, et on montre comment utiliser ces methodes pour analyser des cas réels d'évolution. En particulier, on analyse le scénario évolutif de la bactérie Rickettsia et des chromosomes sexuels X et Y chez l'être humain. Par rapport aux résultats des études précédentes, qui se sont basées sur une seule séquence optimale, on obtient une meilleure caractérisation de ces scénarios évolutifs. Tous les algorithmes qu'on a developpés sont implémentés en java, integrés à baobabLUNA, un logiciel qui contient des outils pour manipuler des génomes et des inversions. Le téléchargement et le tutoriel de baobabLUNA sont disponibles en ligne
Calculating the reversal distance and searching for optimal sequences of reversals to transform a genome into another when gene duplications are not allowed are useful algorithmic tools to analyse real evolutionary scenarios. However, the number of sorting sequences is usually huge. Using a model previously proposed to group the sorting sequences into classes of equivalence, we developed an algorithm to direct generate the classes without enumerating all sequences, reducing thus the size of the set to be handled. We then propose the use of different biological constraints, such as the common intervals initially and progressively detected, to reduce the universe of sequences and classes, and show how to apply these methods to analyze real cases in evolution. In particular, we analyzed the evolution of the Rickettsia bacterium, and of the sexual chromosomes X and Y in human. We obtain a better characterization of the evolutionary scenarios of these genomes, with respect to the results of previous studies, that were based on a single sorting sequence. All the algorithms developed in this work are implemented, integrated to baobabLUNA, a java framework to deal with genomes and reversals. Download and tutorial for baobabLUNA are available on-line
Styles APA, Harvard, Vancouver, ISO, etc.
11

Bouguila, Maissa. « Μοdélisatiοn numérique et οptimisatiοn des matériaux à changement de phase : applicatiοns aux systèmes cοmplexes ». Electronic Thesis or Diss., Normandie, 2024. http://www.theses.fr/2024NORMIR05.

Texte intégral
Résumé :
Les matériaux à changement de phase MCP révèlent des performances importantes dans le domaine de la gestion thermique. Ces matériaux ont une capacité importante de stockage thermique. L’excès de la chaleur dissipée par les composantes électroniques peut causer des graves défaillances. Un système de refroidissement développé basé sur les matériaux à changement de phase est l’une des solutions les plus recommandées afin d’assurer un fonctionnement sécurisé de ces composants microélectroniques. Bien que la faible conductivité de ces matériaux soit considérée comme la limitation majeure de leurs utilisations dans les applications de gestion thermique. L’objectif principal de cette thèse est l’amélioration de la conductivité thermique de ces matériaux et l’optimisation des dissipateurs thermiques. Dans les premiers chapitres, des modélisations numériques sont effectuées afin de déterminer la configuration optimale d’un dissipateur à partir de l’étude de plusieurs paramètres comme l’insertion des ailettes, la dispersion des nanoparticules et l’utilisation de multiples matériaux à changement de phase. L’innovation de cette étude est la modélisation du transfert thermique des matériaux à changement de phase avec une concentration des nanoparticules relativement importante par rapport à la littérature et plus précisément les travaux scientifiques expérimentaux. Des conclusions intéressantes sont extraites de cette étude paramétrique qui va nous permettre parla suite de proposer un nouveau modèle basé sur des multiples des matériaux à changement de phase améliorés avec les nanoparticules. Des études d’optimisation fiabiliste sont après réalisées.En premier lieu, une étude d’optimisation fiabiliste mono-objective a été réalisé dans le but est de proposer un modèle du dissipateur fiable à multiple NANOMCPS avec des dimensions optimales. Donc l’objectif est d'optimiser (minimiser) le volume total du dissipateur tout en considérant les différents contraintes géométriques et fonctionnels. La méthode hybride robuste (RHM) montre une efficacité à proposer un modèle fiable et optimal comparant à la méthode d’optimisation déterministe (DDO) et les différentes méthodes d’optimisation de la conception basée sur la fiabilité (RBDO) considérées. En plus de la nouveauté de modèle proposée basé sur des multiples NANOMCPs, l’intégration d’une méthode de RBDO développée (RHM) pour l’application de gestion thermique est considérée comme une innovation dans la littérature récente.En deuxième lieu, une étude d’optimisation fiabiliste multi objective est proposée. Deux objectives sont considérées : le volume total du dissipateur et le temps de décharge pour atteindre la température ambiante. De plus, l’utilisation d’une méthode d’optimisation RHM, et l’algorithme génétique de tri non dominée, sont adoptées afin de chercher le modèle optimal et fiable qui offre le meilleur compromis entre les deux objectifs. En outre, un modèle de substitution avancée est établi dans le but de réduire le temps de simulation vu que le nombre important des itérations jusqu'à aboutir à un modèle optimal
Phase-change materials exhibit considerable potential in the field of thermal management.These materials offer a significant thermal storage capacity. Excessive heat dissipated by miniature electronic components could lead to serious failures. A cooling system based on phase-change materials is among the most recommended solutions to guarantee the reliable performance of these microelectronic components. However, the low conductivity of these materials is considered a major limitation to their use in thermal management applications. The primary objective of this thesis is to address the challenge of improving the thermal conductivity of these materials. Numerical modeling is conducted, in the first chapters, to determine the optimal configuration of a heat sink, based on the study of several parameters such as fin insertion, nanoparticle dispersion, and the use of multiple phase-change materials. The innovation in this parametric study lies in the modeling of heat transfer from phase-change materials with relatively high nanoparticle concentration compared to the low concentration found in recent literature (experimental researchs). Significant conclusions are deducted from this parametric study, enabling us to propose a new model based on multiple phase-change materials improved with nanoparticles (NANOMCP). Reliable optimization studies are then conducted. Initially, a mono-objective reliability optimization study is carried out to propose a reliable and optimal model based on multiple NANOMCPs. The Robust Hybrid Method (RHM)proposes a reliable and optimal model, compared with the Deterministic Design Optimization method (DDO) and various Reliability Design Optimization methods (RBDO). Furthermore,the integration of a developed RBDO method (RHM) for the thermal management applicationis considered an innovation in recent literature. Additionally, a reliable multi-objective optimization study is proposed, considering two objectives: the total volume of the heat sink and the discharge time to reach ambient temperature. The RHM optimization method and the non-dominated sorting genetics algorithm (C-NSGA-II) were adopted to search for the optimal and reliable model that offers the best trade-off between the two objectives. Besides, An advanced metamodel is developed to reduce simulation time, considering the large number of iterations involved in finding the optimal model
Styles APA, Harvard, Vancouver, ISO, etc.
12

Kaufmann, Benoit. « Spécification et conception d'un système auto-stéréoscopique multi-vues pour l'affichage tri-dimensionnel ». Marne-la-Vallée, 2006. http://www.theses.fr/2006MARN0319.

Texte intégral
Résumé :
Les images 3D sont actuellement en plein essor dans de nombreux domaines aussi variés que la médecine, les simulations physiques, la réalité virtuelle ou les jeux vidéos, mais également dans des domaines où les images de synthèse n'ont, à priori, pas une grande place, comme l'architecture, l'aménagement urbain ou la biologie moléculaire. Dans ces domaines, le fait de pouvoir afficher des images en relief permet de mieux appréhender le résultat affiché et d'en avoir une vision plus complète. Il existe actuellement de nombreux systèmes permettant de percevoir des images en relief. Chacun a ses avantages et ses inconvénients. En particulier, beaucoup nécessitent de porter des dispositifs optiques (des lunettes, par exemple) pour percevoir l'image en relief. D'autres limitent la position de l'observateur à une certaine distance, ou nécessitent à l'observateur d'être détecté par le dispositif, ce qui limite le nombre d'observateurs possibles. Nous avons apporté, au cours de cette thèse, des améliorations à un type particulier de ces systèmes : les systèmes d'affichage auto-stéréoscopique, permettant de cumuler les avantages pour l'observateur de tous les systèmes existants, sans en avoir les inconvénients. Cette thèse présente donc le principe de ce système et en discute les avantages et inconvénients par rapport aux différents dispositifs d'affichage 3D existants. Elle propose également une solution aux différents problèmes posés par ce principe, liés au nombre important de vues différentes à calculer : le temps nécessaire à calculer toutes ces vues, la taille mémoire nécessaire à les mémoriser avant affichage et le débit nécessaire pour les envoyer au dispositif d'affichage en moins d'un trentième de seconde, vitesse nécessaire à un affichage temps-réel. Cette solution consiste en un algorithme permettant de générer toutes les vues nécessaires à l'affichage en projetant les objets à afficher une seule fois et pas une fois pour chacune des vues. Les données étant générées sous forme de données 3D, les redondances présentes dans des vues différentes sont évitées, ce qui diminue la taille des données à mémoriser et, par conséquent le débit nécessaire pour les envoyer au dispositif d'affichage. Ces données peuvent ensuite être décodées très rapidement, afin de permettre un affichage de toutes les différentes vues suffisamment rapidement pour être affichées. De plus, cet algorithme est un algorithme de compression des images 3D sans perte, permettant de générer les vues avec la même qualité que si elles avaient été générées individuellement. Enfin, cette thèse étudie la faisabilité technique d'un tel dispositif, en particulier en décrivant et en discutant l'implémentation de la partie codage de cet algorithme sur une architecture spécialisée à base de GPU. Cette architecture spécialisée se présente en deux parties : la première partie, formée par le GPU, traite les données 3D des objets à afficher (coordonnées, texture, éclairage. . . ) et génère les voxels à afficher, puis les rassemble en blocs de voxels contigus, placés horizontalement et à la même distance de l'écran. La deuxième partie récupère ces blocs, les trie et termine la mise en forme des données avant de les envoyer au dispositif d'affichage
There are actually many 3D display systems. Each of them has its advantages and disadvantages. For example, many of them need the observers to wear special glasses or limit the observation positions to a certain distance. We improved one of these display systems types: autostereoscopic displays, which holds concurrently all the existing systems' advantages for the observer, without having the disadvantages. This thesis presents the principle of this new system and discusses about its advantages and disadvantages compared to the existing 3D display systems. It also proposes a solution to different problems arising from this principle, related to the significant number of views to be computed: computing time to generate these views and memory size needed to store them before displaying. It consists in a lossless 3D compression algorithm and its real-time implementation on a GPU
Styles APA, Harvard, Vancouver, ISO, etc.
13

Hermant, Audrey. « Sur l'algorithme de tir pour les problèmes de commande optimale avec contraintes sur l'état ». Phd thesis, Ecole Polytechnique X, 2008. http://tel.archives-ouvertes.fr/tel-00348227.

Texte intégral
Résumé :
Cette thèse s'intéresse au problème de commande optimale (déterministe) d'une équation différentielle ordinaire soumise à une ou plusieurs contraintes sur l'état, d'ordres quelconques, dans le cas où la condition forte de Legendre-Clebsch est satisfaite. Le principe du minimum de Pontryaguine fournit une condition d'optimalité nécessaire bien connue. Dans cette thèse, on obtient premièrement une condition d'optimalité suffisante du second ordre la plus faible possible, c'est-à-dire qu'elle est aussi proche que possible de la condition nécessaire du second ordre et caractérise la croissance quadratique. Cette condition nous permet d'obtenir une caractérisation du caractère bien posé de l'algorithme de tir en présence de contraintes sur l'état. Ensuite on effectue une analyse de stabilité et de sensibilité des solutions lorsque l'on perturbe les données du problème. Pour des contraintes d'ordre supérieur ou égal à deux, on obtient pour la première fois un résultat de stabilité des solutions ne faisant aucune hypothèse sur la structure de la trajectoire. Par ailleurs, des résultats sur la stabilité structurelle des extrémales de Pontryaguine sont donnés. Enfin, ces résultats d'une part sur l'algorithme de tir et d'autre part sur l'analyse de stabilité nous permettent de proposer, pour des contraintes sur l'état d'ordre un et deux, un algorithme d'homotopie dont la nouveauté est de déterminer automatiquement la structure de la trajectoire et d'initialiser les paramètres de tir associés.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Catelli, Ezio. « Isomorfismo tra alberi : algoritmi e complessità computazionale ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2014. http://amslaurea.unibo.it/6940/.

Texte intégral
Résumé :
La trattazione è volta all'esposizione dell'algoritmo di Lindell per determinare in logspazio se due alberi sono isomorfi. Un'ampia parte introduttiva richiama i prerequisiti teorici necessari alla comprensione della parte di esposizione dell'algoritmo.
Styles APA, Harvard, Vancouver, ISO, etc.
15

Sandberg, Roland. « Generation of floating islands using height maps ». Thesis, Blekinge Tekniska Högskola, Sektionen för datavetenskap och kommunikation, 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:bth-3183.

Texte intégral
Résumé :
A floating island was generated using two height maps, one for the bottom of the island and one for the top. Vertices of the island was displaced in the Y axis using an algorithm called Simplex noise. To avoid texture stretching that appears when displacing the vertices an algorithm called “tri planar projection” was implemented. After the vertices had been displaced the normal was smoothed using “normal smoothing”. An algorithm here called “the AVG algorithm” is created to smooth jig sawed edges around the island that appears after the island has been generated. The results of the AVG algorithm is judged by a group of 26 participants to see if any jig sawed edges are perceived. They answered a survey containing seven pictures, with each picture having one more iteration of the AVG algorithm then the last, starting from 0 iterations. Five iterations proved to be the best.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Galvan, Javier. « Simulation of Tri-generation Systems with application of optimization ». Thesis, KTH, Tillämpad termodynamik och kylteknik, 2012. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-95191.

Texte intégral
Résumé :
Despite the fact that cogeneration (CHP) and tri-generation (CHCP) are among the most efficient ways to produce electricity and thermal energy, there is still some unexploited potential for these techniques. One could say that the circumstances for using these techniques are better now than ever. Some of the reasons for applying CHP and CHCP are: the techniques are well understood, their application could generate some profit, and the required technology is available. Moreover, there is increasing concern in regards to energy security, the need to increase the energy efficiency in power generation and distribution as well as to lower the emissions from fossil fuel combustion. CHP/CHCP promoters and developers face difficulties when analyzing the conditions and proposing a plan of application. On one hand, there are some external barriers which have to be torn down by means of energy regulation schemes. These may include economic incentives, easy and safe interconnection to the grid to export electricity and have backup if necessary, and access to the market to sell the surplus of electricity at a fair price. On the other hand, there are some internal barriers such as the difficulty evaluating potential energy savings, emission reduction, and economic performance of a project based on the circumstances of a specific site; lack of awareness; unwillingness to invest in CHP/CHCP projects; and difficulty in selecting and sizing the equipment which would give the maximum benefits in terms of life cycle cost, energy savings and emission reduction. Nowadays, it is possible to develop software tools which use simulations and optimization algorithms to evaluate several options, compare them and chose the ones that give the optimum performance with respect to an objective function defined by the user. In this project, the general context for the application of cogeneration and tri-generation projects was studied including factors which have an impact on its feasibility and performance. Moreover, a survey of the exiting feasibility analysis tools was done, and a case study was chosen and analyzed. Next, a model was developed using the software Trnsys for the simulation and Matlab for the optimization. The model was tested by evaluating the study case. The result of the simulation and optimization gives several possible equipment size combinations. The tradeoff between two different objective functions such as net present value and primary energy savings or emission reduction is presented in Pareto front diagrams. The main conclusion of this project is that by using Trnsys and Matlab, it is possible to develop more complex models which, when applying optimization algorisms, could become a very useful and helpful tool that CHP/CHCP developers could use to speed up the analysis of projects while contributing to the goal of deploying these techniques.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Barros, Fabien de. « Conception, Réalisation et Caractérisation de papiers fonctionnels pour des applications de filtrage électromagnétique ». Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENT118/document.

Texte intégral
Résumé :
Le brouillard électromagnétique dans lequel nous vivons en permanence estaujourd’hui montré du doigt car, outre les risques sanitaires qu’il pourrait engendrer, illimite l’usage de certaines technologies. L’importance des interférences entre réseauxsans fil, ou la peur du piratage sur ces mêmes réseaux, en sont deux exemples. Cetravail de thèse vise à développer un nouveau moyen de protection contre certaines deces ondes électromagnétiques. Plus spécifiquement, ce travail se focalise sur unetechnologie capable de filtrer uniquement les ondes WiFi et GSM à travers de grandessurfaces d’une habitation, comme un mur. Pour ce faire, la fonctionnalisation d’uncomposant standard des bâtiments, le papier-peint, a été étudié.L’utilisation de surfaces sélectives en fréquence a été retenue. Ces motifs sontdirectement imprimés sur du papier à l’aide d’encre conductrice et de la techniqued’impression flexographique. L’étude s’est également portée sur la réalisation de motifsde filtrage innovants. Les résultats de simulation montrent qu’ils sont capables de filtrerdeux ou trois bandes, qu’ils sont quasiment insensibles à la polarisation et à l’angled’incidence dans une plage allant de 0° à ± 80°. Le travail a ensuite permis dedémontrer la faisabilité pratique de ce concept aux stades laboratoire et industriel.Ensuite, nous avons démontré expérimentalement l’efficacité de ce concept dans lesbandes WiFi. La transmission atteint alors -30 dB. Enfin, une validation expérimentaledu produit en situation réelle a été menée, à savoir la pose du papier-peint sur du plâtre,du bois, l’influence de la colle ou encore la pose d’une couche de papier-peint décoratifpar-dessus le produit.En conclusion, les résultats pratiques obtenus confirment les résultats théoriquesestimés et, permettent à ce nouveau concept, appelé métapapier, d’être suffisammentefficace pour permettre la réduction des ondes WiFi ou GSM
The electromagnetic smog in which we live today is nowadays a real issue because it limits the use of certain technologies and also because there are some potential health risks associated with it, even if the latter is still a controversial subject. The importance of the interferences between wireless networks or the possibility of data hacking on the same networks are two examples. The aim of this thesis is to develop a new way to protect buildings against some of these electromagnetic waves. More specifically, this work focuses on a technology able to filter only the WiFi and the GSM waves through large areas of a home, like a wall for example. To do this, the functionalization of a standard component of buildings, the wallpaper, was studied. The use of frequency selective surface (FSS) was chosen. These patterns are printed directly on paper with a conductive ink printing technology: the flexography. The study also focuses on the realization of innovative filter designs. Simulation results show that these novel FSS are able to filter two or three bands. They are almost insensitive to the polarization and to the angle of incidence in the range of 0° to ±80°. The realization feasibility of this concept in a laboratory or in industrial conditions was demonstrated. Next, an experimental demonstration of this concept in the WiFi bands was carried out. In this context, the transmission coefficient was reached -30 dB. Finally, an experimental validation of the product in real conditions of use was conducted, namely the wallpaper was put over plasterboards or over wood panels. Also, the influence of the glue on the general performances and the placement of a decorative wallpaper over the FSS wallpaper were studied. In conclusion, the practical results obtained confirm and validate the theoretical predictions of this new concept, called metapaper, and show that the practical realizations are efficient enough to allow the reduction of WiFi or GSM signals
Styles APA, Harvard, Vancouver, ISO, etc.
18

Piselli, Riccardo. « Innovazione finanziaria e algoritmi : tra trasparenza e opacità ». Doctoral thesis, Luiss Guido Carli, 2020. http://hdl.handle.net/11385/204275.

Texte intégral
Résumé :
Innovazione finanziaria e algoritmi: lineamenti introduttivi. Algoritmi e nuovi operatori. Algoritmi e nuovi prodotti finanziari: dal bitcoin ai cripto-asset. I nuovi mercati. Opacità algoritmica e trasparenza dei mercati finanziari. Regolare la complessità.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Mu, Shin-Cheng. « A calculational approach to program inversion / ». Oxford : Oxford University Computing Laboratory, 2004. http://web.comlab.ox.ac.uk/oucl/publications/tr/rr-04-03.html.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
20

Maia, Júnior Antonio Geraldo Pinto. « Uso do tempo de resposta para melhorar a convergência do algoritmo de testes adaptativos informatizados ». reponame:Repositório Institucional da UnB, 2015. http://repositorio.unb.br/handle/10482/18834.

Texte intégral
Résumé :
Dissertação (mestrado)—Universidade de Brasília, Instituto de Ciências Exatas, Departamento de Estatística, 2015.
Submitted by Patrícia Nunes da Silva (patricia@bce.unb.br) on 2015-11-23T15:47:56Z No. of bitstreams: 1 2015_AntonioGeraldoPintoMaiaJunior_Parcial.pdf: 2852414 bytes, checksum: 1303cf1106fe5224e001f2e527d46d67 (MD5)
Approved for entry into archive by Guimaraes Jacqueline(jacqueline.guimaraes@bce.unb.br) on 2015-12-03T10:59:49Z (GMT) No. of bitstreams: 1 2015_AntonioGeraldoPintoMaiaJunior_Parcial.pdf: 2852414 bytes, checksum: 1303cf1106fe5224e001f2e527d46d67 (MD5)
Made available in DSpace on 2015-12-03T10:59:49Z (GMT). No. of bitstreams: 1 2015_AntonioGeraldoPintoMaiaJunior_Parcial.pdf: 2852414 bytes, checksum: 1303cf1106fe5224e001f2e527d46d67 (MD5)
O presente trabalho tem como objetivo central melhorar os Testes Adaptativos Informatizados (Computerized Adaptative Tests, CATs na sigla, em inglês) clássicos, que são aqueles administrados por computador e que ajustam os itens do teste à medida que ele é realizado. Isso é possível, pois, dada a resposta do respondente, estima-se a sua habilidade momentânea, obtendo-se o próximo item a ser administrado, com base em um critério estatístico (Máxima Informação, Máxima Informação Global ou Máxima Informação Esperada). Para isso, inseriu-se a covariável Tempo de Resposta ao modelo. Pois, acreditou-se que há informação nessa covariável e, portanto, ao se considerá-la, o teste pode ser encurtado, melhorando, assim, a convergência do algoritmo. Nessa perspectiva, fez-se uma revisão bibliográfica de TRI (sigla de Teoria de Resposta ao Item) e CAT, para se estruturar o novo modelo com a covariável Tempo de Resposta, calculando-se todas as equações que serão utilizadas na aplicação. Por fim, a aplicação com dados simulados concluiu nosso estudo, pois, ao comparar a convergência do algoritmo de um CAT tradicional em relação ao novo CAT, observou-se que os objetivos do presente trabalho foram cumpridos. ___________________________________________________________________________ ABSTRACT
Computerized adaptive tests (CATs) are tests administered by computer which adjust the test items as the test is carried out. This work proposes to improve CATs by taking into account the time that the respondents use to answer the different questions to obtain provisional estimates of their ability in order to choose the next item. This information is used to modify the classical criteria (maximal information, overall maximum information or maximum information expected). It is believed that the use of this covariate may improve the convergence of the CAT algorithm, thus allowing for shorter tests. The dissertation presents a review of TRI and CAT and the new model which takes into account the response time. An application using simulated data is used to compare the convergence of a traditional CAT algorithm and that of the model using the response time.
Styles APA, Harvard, Vancouver, ISO, etc.
21

Ben, Jmaa Chtourou Yomna. « Implémentation temps réel des algorithmes de tri dans les applications de transports intelligents en se basant sur l'outil de synthèse haut niveau HLS ». Thesis, Valenciennes, 2019. http://www.theses.fr/2019VALE0013.

Texte intégral
Résumé :
Les systèmes de transports intelligents jouent un rôle important dans la minimisation des accidents, embouteillage, et la pollution d’air. Parmi ces systèmes, nous citons le domaine avionique qui utilise dans plusieurs cas les algorithmes de tri qui sont l’une des opérations importante pour des applications embarquées temps réels. Cependant, l’évolution technologique tend vers des architectures de plus en plus complexes pour répondre aux exigences applicatives. À cet égard, les concepteurs trouvent leur solution idéale dans l’informatique reconfigurable, basée sur des architectures hétérogènes CPU/FPGA qui abritent des processeurs multi-core (CPU) et des FPGAs qui offrent de hautes performances et une adaptabilité aux contraintes temps-réel de l’application. L’objectif principal de mes travaux est de développer une implémentions matérielle des application de transports intelligents (algorithme de planification de plan de vol A*)et les algorithmes de tri sur l’architecture hétérogène CPU/FPGA en utilisant l’outil de synthèse haut niveau pour générer le design RTL à partir de la description comportementale. Cette étape nécessite des efforts supplémentaires de la part du concepteur afin d'obtenir une implémentation matérielle efficace en utilisant plusieurs optimisations avec différents cas d’utilisation : logiciel, matérielle optimisé et non optimisé et aussi pour plusieurs permutations/vecteurs générer à l’aide d’un générateur de permutation basé sur Lehmer. Pour améliorer les performances, nous avons calculés le temps d’exécution, l’écart type et le nombre de ressource utilisé pour les algorithmes de tri en considérant plusieurs tailles de données varient entre 8 et 4096 éléments. Finalement, nous avons comparé les performances de ces algorithmes. Cet algorithme sera intégrer les applications d’aide à la décision, planification du plan de vol
Intelligent transport systems play an important role in minimizing accidents, traffic congestion, and air pollution. Among these systems, we mention the avionics domain, which uses in several cases the sorting algorithms, which are one of the important operations for real-time embedded applications. However, technological evolution is moving towards more and more complex architectures to meet the application requirements. In this respect, designers find their ideal solution in reconfigurable computing, based on heterogeneous CPU / FPGA architectures that house multi-core processors (CPUs) and FPGAs that offer high performance and adaptability to real-time constraints. Of the application. The main objective of my work is to develop hardware implementations of sorting algorithms on the heterogeneous CPU / FPGA architecture by using the high-level synthesis tool to generate the RTL design from the behavioral description. This step requires additional efforts on the part of the designer in order to obtain an efficient hardware implementation by using several optimizations with different use cases: software, optimized and nonoptimized hardware and for several permutations / vectors generated using the generator pf permutation based on Lehmer method. To improve performance, we calculated the runtime, standard deviation and resource number used for sorting algorithms by considering several data sizes ranging from 8 to 4096 items. Finally, we compared the performance of these algorithms. This algorithm will integrate the applications of decision support, planning the flight plan
Styles APA, Harvard, Vancouver, ISO, etc.
22

Sedlář, František. « Algoritmy pro vyhledání nejdelšího shodného prefixu ». Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2013. http://www.nusl.cz/ntk/nusl-236363.

Texte intégral
Résumé :
This master's thesis explains basics of the longest prefix match (LPM) problem. It analyzes and describes chosen LPM algorithms considering their speed, memory requirements and an ability to implement them in hardware. On the basis of former findings it proposes a new algorithm Generic Hash Tree Bitmap. It is much faster than many other approaches, while its memory requirements are even lower. An implementation of the proposed algorithm has become a part of the Netbench library.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Polanský, Jan. « Návrh automatického obchodního systému pro měnový trh ». Master's thesis, Vysoké učení technické v Brně. Fakulta podnikatelská, 2016. http://www.nusl.cz/ntk/nusl-254259.

Texte intégral
Résumé :
The master’s thesis deals with trading the currency market. The aim of thesis is the creation of an automated trading system based on technical analysis. This thesis is divided into several parts. The theoretical aspects and analysis of current situation are followed by automated trading system proposal. The system is designed on basis of technical indicators and tested on historical data and then optimized.
Styles APA, Harvard, Vancouver, ISO, etc.
24

Manyatsi, Sanele Mduduzi Innocent. « Investigating some heuristic solutions for the two-dimensional cutting stock problem / S.M. Manyatsi ». Thesis, North-West University, 2010. http://hdl.handle.net/10394/4390.

Texte intégral
Résumé :
In this study, the two-dimensional cutting stock problem (2DCSP) is considered. This is a problem that occurs in the cutting of a number of smaller rectangular pieces or items from a set of large stock rectangles. It is assumed that the set of large objects is sufficient to accommodate all the small items. A heuristic procedure is developed to solve the two-dimensional single stock-size cutting stock problem (2DSSSCSP). This is the special case where the large rectangles are all of the same size. The major objective is to minimize waste and the number of stock sheets utilized. The heuristic procedures developed to solve the 2DSSSCSP are based on the generation of cutting pattern. The Wang algorithm and a specific commercial software package are made use of to generate these patterns. The commercial software was chosen from a set of commercial software packages available in the market. A combinatoric process is applied to generate sets of cutting patterns using the Wang algorithm and the commercial software. The generated cutting patterns are used to formulate an integer linear programming model which is solved using an optimization solver. Empirical experimentation is carried out to test the heuristic procedures using data obtained from both small and real world application problem instances. The results obtained shows that the heuristic procedures developed produce good quality results for both small and real life problem instances. It is quite clear that the heuristic procedure developed to solve the 2DSSSCSP produces cutting patterns which are acceptable in terms of waste generated and may offer useful alternatives to approaches currently available. Broadly stated, this study involves investigating available software (commercial) in order to assess, formulate and investigate methods to attempt to benchmark software systems and algorithms and to employ ways to enhance solutions obtained by using these software systems.
Thesis (M.Sc. (Computer Science))--North-West University, Potchefstroom Campus, 2011.
Styles APA, Harvard, Vancouver, ISO, etc.
25

Kuna, Martin. « Využití umělé inteligence na kapitálových trzích ». Master's thesis, Vysoké učení technické v Brně. Fakulta podnikatelská, 2010. http://www.nusl.cz/ntk/nusl-433196.

Texte intégral
Résumé :
Diplomová práce se zabývá aplikací vybraných metod umělé inteligence v prostředí kapitálových, potažmo akciových, trhů. Konkrétně se zaměřuje na využití umělých neuronových sítí pro predikci trendu a na možnost aplikace genetických algoritmů k řešení problému optimalizace investičního portfolia. Obsahuje návrh řešení uvedených problémů v praxi. Návrhy jsou koncipovány ve formě modelů zpracovaných ve vývojovém prostředí Matlab.
Styles APA, Harvard, Vancouver, ISO, etc.
26

Birgersson, Emil. « Applicering av en 2D dungeon algoritm i en 3D rymd : Hur bra presterar TinyKeeps dungeon algoritm i tre dimensioner ? » Thesis, Högskolan i Skövde, Institutionen för informationsteknologi, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:his:diva-19862.

Texte intégral
Résumé :
Procedural content generation inom spel refererar till algoritmiskt, procedurellt skapande av digitalt innehåll i syfte att automatisera och minska mängden arbete för designers och grafiker. Ett område procedural content generation används för inom spel är dungeon generering. Målet för detta arbete var att utforska en 2D algoritm som används i spelet TinyKeep för just generering av dungeons och se hur den algoritmen kunde prestera om den modifierades för generering i en 3D rymd. Den modifierade algoritmen utvärderades baserat på attributen variation, justerbarhet, pålitlighet samt tidseffektivitet. Resultatet visade visade att det är möjligt att använda algoritmen i spelet TinyKeep i en 3D-rymd med godtagbart prestationsresultat. Som värst visade den modifierade algoritmen på en viss svaghet angående genereringstid vid en större tom rymd med större antal rum hos en dungeon. För framtida arbete vore det intressant att dela upp av delar av den modifierade algoritmen på separata trådar.

Det finns övrigt digitalt material (t.ex. film-, bild- eller ljudfiler) eller modeller/artefakter tillhörande examensarbetet som ska skickas till arkivet.

Styles APA, Harvard, Vancouver, ISO, etc.
27

Ficiarà, Lorenzo. « Implementazione di un algoritmo per il calcolo della condizione di trim di elicotteri convenzionali ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/19855/.

Texte intégral
Résumé :
Nell’elaborato presentato, si è deciso di approfondire la meccanica del volo di un generico elicottero convenzionale, studiandone il moto tramite modellazione e simulazione computazionale. In particolare è stato affrontato il problema di trovare, in condizioni di volo variabili, la condizione di trim (ovvero di bilanciamento delle forze e dei momenti agenti) dell’elicottero Bo105 della Eurocopter, anche se il modello studiato può essere poi applicato ad un generico elicottero di tipologia convenzionale. Per la scrittura e l’implementazione degli algoritmi risolutivi è stato utilizzato l'ambiente MATLAB; per i risultati della simulazione è stato utilizzato un unico codice, diviso in più parti, riportato nell’Appendice. Il codice realizzato permette, dopo successiva introduzione di alcune variabili relative al velivolo e all’assetto iniziale, di ottenere i parametri di volo (in particolare angoli di Eulero e angoli di controllo del mezzo) che garantiscano la condizione di trim. In questo modo è possibile simulare teoricamente qualunque modello di elicottero, conoscendo i suoi parametri costruttivi, e qualunque tipologia di manovra. La tesi si compone di: studio del modello matematico di riferimento utilizzato, analisi dell’elicottero su cui è stato testato l’algoritmo, descrizione approfondita dell’algoritmo stesso, presentazione dei risultati della sua applicazione e validazione degli stessi mediante il confronto con le prove di volo reali. Infine vengono presentati brevemente delle osservazioni conclusive e possibili sviluppi futuri di questo lavoro di tesi.
Styles APA, Harvard, Vancouver, ISO, etc.
28

Jaramillo, Juan Carlos Burbano. « Otimização exergoeconômica de sistema tetra-combinado de trigeração ». Universidade de São Paulo, 2011. http://www.teses.usp.br/teses/disponiveis/3/3150/tde-11082011-134622/.

Texte intégral
Résumé :
A energia é o maior contribuinte para os custos de operação de uma indústria, portanto, estudos para melhoria da eficiência dos sistemas que utilizam alguma fonte de energia são indispensáveis. O presente trabalho tem por objetivo a obtenção de configurações ótimas para satisfazer demandas de eletricidade e cargas térmicas de aquecimento e refrigeração a partir de uma fonte primaria de energia, avaliando o impacto dessas nos custos de produção de eletricidade, vapor e água gelada. Estes tipos de sistemas são conhecidos como sistemas de trigeração. A avaliação de desempenho dos sistemas de trigeração é conduzida através da aplicação da análise exergética e exergoeconômica das alternativas propostas para a determinação do rendimento exergético e custos em base exergética de produção de utilidades desse tipo de sistema. Após apresentar uma breve discussão sobre o uso eficiente e racional de energias primárias e mostrar um panorama da situação para a aplicação de sistemas de trigeração para satisfazer demandas energéticas na indústria e o setor terciário, são descritas diferentes tecnologias envolvidas neste tipo de sistemas e algumas configurações propostas por vários pesquisadores nos anos recentes. O trabalho mostra o impacto das tecnologias de trigeração nos custos em base exergética dos produtos: eletricidade, vapor para processo e água gelada. Sistemas de refrigeração por absorção de efeito simples, duplo efeito e o sistema híbrido de absorção/ejeto compressão são analisados, como parte do estudo dos sistemas de trigeração. Diversos sistemas de trigeração, incluindo o sistema tetra-combinado, são comparados satisfazendo demandas energéticas para três aplicações diferentes: indústria de laticínios, hospital e indústria de bebidas. As configurações em estudo são otimizadas usando o método de algoritmo genético. Os resultados mostram que o sistema de refrigeração híbrido de absorção/ejeto compressão é uma boa alternativa para a produção da água gelada porque o coeficiente de desempenho (COP) e a eficiência exergética são maiores do que no sistema de refrigeração por absorção de efeito simples. Observando o impacto na formação dos custos de conversão de energia para os sistemas de trigeração propostos, os sistemas que utilizam unidade de refrigeração por absorção de duplo efeito são os que apresentam menor impacto. O sistema tetra-combinado apresenta um menor impacto quanto comparado com o ciclo combinado com unidade de refrigeração por absorção de simples efeito. O consumo de combustível e a destruição de exergia dos diferentes sistemas são refletidos nos custos em base exergética dos diferentes produtos. A otimização com algoritmos genéticos mostrou ganhos importantes nos custos em base exergética dos produtos, mediante a maximização da eficiência exergética dos diferentes sistemas de trigeração. O método dos algoritmos genéticos mostra-se como um método robusto para a otimização de sistemas de conversão de energia, mesmo que exija um grande esforço computacional.
Energy is the largest contributor to operating costs of any industry; therefore, studies for improving systems efficiency that use some energy source are essential. This work aims to obtain optimal configurations in order to satisfy required demands for electricity and thermal loads for heating and cooling from a primary source of energy, evaluating the impact of the electricity, steam and chilled water production costs. These types of systems are known as trigeneration systems. The performance evaluation of trigeneration systems is carried out by the application of exergy and exergoeconomic analysis of the proposed alternatives in order to determine exergy efficiency and exergy based costs on production of this type of system utilities. After presenting a brief discussion about efficient and rational use of primary energies and an overview of situation for trigeneration systems application, various technologies involved in this type of systems and some configurations proposed by several authors are described. This research shows the impact of trigeneration technologies in exergy-based costs of products: electricity, steam process and chilled water. Absorption refrigeration systems of simple effect, double effect and the hybrid absorption/ejecto compression are analyzed, as part of the trigeneration systems study. Several trigeneration systems, including the tetra-combined system, are compared with each other, satisfying energetic demands for three different applications: a dairy industry, a hospital and a drinks industry. The configurations in study are optimized using the Genetic Algorithm method. The results show that the hybrid absorption/ejecto compression refrigeration system is a good alternative for chilled water production due to that the coefficient of performance (COP) and the exergetic efficiency are higher than simple effect absorption refrigeration system. Observing the impact in the formation of the energy conversion costs for trigeneration systems proposed, the systems that use a double effect absorption refrigeration system presents the less impact. When tetra-combined system is compared with the system using a simple effect absorption refrigeration system, the results show a reduction in the impact of costs formation. The fuel consumption and exergy destruction of the different systems is reflected in the exergy based costs of the different products. The optimization with genetic algorithms shown important profits in the exergy based costs of products, by means of the exergetic efficiency maximization of the different trigeneration systems. The genetic algorithm method is a robust method for energy conversion systems optimization, even that it demands a great computational effort.
Styles APA, Harvard, Vancouver, ISO, etc.
29

Aronna, Maria Soledad. « Analyse du second ordre des problèmes de commande optimale avec des arcs singuliers. Conditions d'optimalité et un algorithme de tir ». Phd thesis, Ecole Polytechnique X, 2011. http://tel.archives-ouvertes.fr/tel-00682276.

Texte intégral
Résumé :
Dans cette thèse on s'intéresse aux problèmes de commande optimale pour des systèmes affines dans une partie de la commande. Premièrement, on donne une condition nécessaire du second ordre pour le cas ou le système est affine dans toutes les commandes. On a des bornes sur les contrôles et une solution bang-singulière. Une condition suffisante est donnée pour le cas d'une commande scalaire. On propose après un algorithme de tir et une condition suffisante pour sa convergence quadratique locale. Cette condition garantit la stabilité de la solution optimale et implique que l'algorithme converge quadratiquement localement pour le problème perturbé, dans certains cas. On présente des essais numériques qui valident notre méthode. Ensuite, on étudie un système affine dans une partie des commandes. On obtient des conditions nécessaire et suffisante du second ordre. Ensuite, on propose un algorithme de tir et on montre que la condition suffisante mentionnée garantit que cet algorithme converge quadratiquement localement. Enfin, on étudie un problème de planification d'une centrale hydro-thermique. On analyse au moyen des conditions nécessaires obtenues par Goh, la possible apparition d'arcs singuliers.
Styles APA, Harvard, Vancouver, ISO, etc.
30

Severini, Silvia. « Studio preliminare per l'individuazione di regioni genomiche più diffuse tra le popolazioni ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2017. http://amslaurea.unibo.it/14473/.

Texte intégral
Résumé :
La Bioinformatica è una disciplina scientifica che utilizza gli strumenti comuni al campo dell’informatica quali algoritmi, metodi matematici e stati- stici per analizzare dati di natura biologica. Lo scopo di questa Tesi è quello di fare un’analisi preliminare delle regioni genomiche ROH di individui appartenenti a diverse popolazioni per indivi- duare quelle più frequenti e comuni tra soggetti della stessa popolazione o appartenenti a popolazioni diverse. Le regioni ROH sono parti del DNA che contengono informazioni riguardanti la storia di matrimoni, isolazioni e consanguineità tra i nostri antenati e possono anche essere importanti dal punto di vista medico perché permettono l’individuazione di certe varianti chiamate “recessive”. Abbiamo scelto di analizzare regioni ROH perché sono interessanti per la loro variabilità del punto di vista genetico, ma sono anche comode per estendere lo studio a qualsiasi regione che abbia un’inizio e una fine. Le regioni individuate in questo progetto saranno un punto di partenza per successive analisi di natura genetica. In questa Tesi verranno mostrati contesto scientifico, stato dell'arte, modellazione del problema, implementazione e valutazioni sperimentali.
Styles APA, Harvard, Vancouver, ISO, etc.
31

Winck, Ana Trindade. « 3D-Tri : um algoritmo de indução de árvore de regressão para propriedades tridimensionais - um estudo sobre dados de docagem molecular considerando a flexibilidade do receptor ». Pontifícia Universidade Católica do Rio Grande do Sul, 2012. http://hdl.handle.net/10923/1662.

Texte intégral
Résumé :
Made available in DSpace on 2013-08-07T18:43:30Z (GMT). No. of bitstreams: 1 000436381-Texto+Completo-0.pdf: 5238803 bytes, checksum: ca22d61f2fb4075e277ed531aee231ce (MD5) Previous issue date: 2012
With the growth of biological experiments, solving and analyzing the massive amount of data being generated has been one of the challenges in bioinformatics, where one important research area is the rational drug design (RDD). The interaction between biological macromolecules called receptors, and small molecules called ligands, is the fundamental principle of RDD. In in-silico molecular docking experiments it is investigated the best bind and conformation of a ligand into a receptor. A docking result can be discriminated by a continue value called Free Energy of Binding (FEB). We are attempting on mining data from molecular docking results, aiming at selecting promising receptor conformations to the next docking experiments. In this sense, we have developed a comprehensive repository to store our molecular docking data. Having such repository, we were able to apply preprocessing strategies on the stored data and submit them to different data mining tasks. Among the techniques applied, the most promising results were obtained with regression model trees. Although we have already addressed important issues and achieved significant results, there are some properties in these experiments turning it difficult to properly select conformations. Hence, a strategy was proposed considering the three-dimensional (3D) properties of the receptor conformations, to predict FEB. This thesis presents the 3D-Tri, a novel algorithm able to handle and treat spatial coordinates in a x, y,z format, and induce a tree that predicts FEB value by representing such properties. The algorithm uses such coordinates to split a node in two parts, where the edges evaluate whether the atom being tested by the node is part of a given interval [(xi, xf );(yi, yf );(zi, zf )], where i indicates the initial position of the coordinate, and f its final position. The induced model can help a domain specialist to select promising conformations, based on the region of the atoms in the model, to perform new molecular docking experiments.
Com o avanço nos experimentos biológicos, a manipulação e análise do grande volume de dados sendo gerados por esses experimentos têm sido um dos desafios em bioinformática, onde uma importante área de pesquisa é o desenho racional de fármacos (RDD - Rational Drug Desing). A interação entre macromoléculas biológicas, chamadas de receptores, e pequenas moléculas, chamadas ligantes, é o princípio fundamental do RDD. É em experimentos in silico de docagem molecular que se investiga o melhor encaixe e conformação de um ligante em uma cavidade do receptor. O resultado de um experimento de docagem pode ser avaliado a partir de um valor contínuo de energia livre de ligação (FEB - Free Energy of Binding). Tem-se empregado esforços em minerar dados de resultados de docagem molecular, com o objetivo de selecionar conformações relevantes para reduzir o tempo de futuros experimentos de docagem. Nesse sentido, foi desenvolvido um repositório para armazenar todos os dados a respeito desses experimentos, em nível de detalhe. Com esse repositório, os dados foram devidamente pré-processados e submetidos a diferentes tarefas de mineração de dados. Dentre as técnicas aplicadas, a que apresentou-se mais promissora para o tipo de dados sendo utilizado foi árvore de decisão para regressão. Apesar dos resultados alcançados por esses experimentos serem promissores, existem algumas propriedades nos experimentos que dificultam a efetiva seleção de conformações. Dessa forma, propõe-se uma estratégia que considera as propriedades tridimensionais (3D) do receptor para predizer o valor de FEB. Assim, nesta Tese é apresentado o 3D-Tri, um algoritmo de indução de árvore de regressão que considera essas propriedades 3D, onde essas propriedades são definidas como atributos no formato x, y,z. O algoritmo proposto faz uso dessas coordenadas para dividir um nodo em duas partes, onde o átomo sendo testado para o nodo é avaliado em termos de sua posição em um bloco [(xi, xf );(yi, yf );(zi, zf )] que melhor represente sua posição no espaço, onde i indica a posição inicial de uma coordenada, e f indica a posição final. O modelo induzido pode ser útil para um especialista de domínio para selecionar conformações promissoras do receptor, tendo como base as regiões dos átomos que aparecem no modelo e que indicam melhores valores de FEB.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Thames, John Lane. « Advancing cyber security with a semantic path merger packet classification algorithm ». Diss., Georgia Institute of Technology, 2012. http://hdl.handle.net/1853/45872.

Texte intégral
Résumé :
This dissertation investigates and introduces novel algorithms, theories, and supporting frameworks to significantly improve the growing problem of Internet security. A distributed firewall and active response architecture is introduced that enables any device within a cyber environment to participate in the active discovery and response of cyber attacks. A theory of semantic association systems is developed for the general problem of knowledge discovery in data. The theory of semantic association systems forms the basis of a novel semantic path merger packet classification algorithm. The theoretical aspects of the semantic path merger packet classification algorithm are investigated, and the algorithm's hardware-based implementation is evaluated along with comparative analysis versus content addressable memory. Experimental results show that the hardware implementation of the semantic path merger algorithm significantly outperforms content addressable memory in terms of energy consumption and operational timing.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Ruiz, Echartea Maria Elisa. « Pairwise and Multi-Component Protein-Protein Docking Using Exhaustive Branch-and-Bound Tri-Dimensional Rotational Searches ». Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0306.

Texte intégral
Résumé :
La détermination des structures tri-dimensionnelles (3D) des complexes protéiques est cruciale pour l’avancement des recherches sur les processus biologiques qui permettent, par exemple, de comprendre le développement de certaines maladies et, si possible, de les prévenir ou de les traiter. Face à l’intérêt des complexes protéiques pour la recherche, les difficultés et le coût élevé des méthodes expérimentales de détermination des structures 3D des protéines ont encouragé l’utilisation de l’informatique pour développer des outils capables de combler le fossé, comme par exemple les algorithmes d’amarrage protéiques. Le problème de l’amarrage protéique a été étudié depuis plus de 40 ans. Cependant, le développement d’algorithmes d’amarrages précis et efficaces demeure un défi à cause de la taille de l’espace de recherche, de la nature approximée des fonctions de score utilisées, et souvent de la flexibilité inhérente aux structures de protéines à amarrer. Cette thèse présente un algorithme pour l’amarrage rigide des protéines, qui utilise une série de recherches exhaustives rotationnelles au cours desquelles seules les orientations sans clash sont quantifiées par ATTRACT. L’espace rotationnel est représenté par une hyper-sphère à quaternion, qui est systématiquement subdivisée par séparation et évaluation, ce qui permet un élagage efficace des rotations qui donneraient des clashs stériques entre les deux protéines. Les contributions de cette thèse peuvent être décrites en trois parties principales comme suit. 1) L’algorithme appelé EROS-DOCK, qui permet d’amarrer deux protéines. Il a été testé sur 173 complexes du jeu de données “Docking Benchmark”. Selon les critères de qualité CAPRI, EROS-DOCK renvoie typiquement plus de solutions de qualité acceptable ou moyenne que ATTRACT et ZDOCK. 2) L’extension de l’algorithme EROS-DOCK pour permettre d’utiliser les contraintes de distance entre atomes ou entre résidus. Les résultats montrent que le fait d’utiliser une seule contrainte inter-résidus dans chaque interface d’interaction est suffisant pour faire passer de 51 à 121 le nombre de cas présentant une solution dans le top-10, sur 173 cas d’amarrages protéine-protéine. 3) L’extension de EROSDOCK à l’amarrage de complexes trimériques. Ici, la méthode proposée s’appuie sur l’hypothèse selon laquelle chacune des trois interfaces de la solution finale doit être similaire à au moins l’une des interfaces trouvées dans les solutions des amarrages pris deux-à-deux. L’algorithme a été testé sur un benchmark de 11 complexes à 3 protéines. Sept complexes ont obtenu au moins une solution de qualité acceptable dans le top-50 des solutions. À l’avenir, l’algorithme EROS-DOCK pourra encore évoluer en intégrant des fonctions de score améliorées et d’autres types de contraintes. De plus il pourra être utilisé en tant que composant dans des workflows élaborés pour résoudre des problèmes complexes d’assemblage multi-protéiques
Determination of tri-dimensional (3D) structures of protein complexes is crucial to increase research advances on biological processes that help, for instance, to understand the development of diseases and their possible prevention or treatment. The difficulties and high costs of experimental methods to determine protein 3D structures and the importance of protein complexes for research have encouraged the use of computer science for developing tools to help filling this gap, such as protein docking algorithms. The protein docking problem has been studied for over 40 years. However, developing accurate and efficient protein docking algorithms remains a challenging problem due to the size of the search space, the approximate nature of the scoring functions used, and often the inherent flexibility of the protein structures to be docked. This thesis presents an algorithm to rigidly dock proteins using a series of exhaustive 3D branch-and-bound rotational searches in which non-clashing orientations are scored using ATTRACT. The rotational space is represented as a quaternion “π-ball”, which is systematically sub-divided in a “branch-and-bound” manner, allowing efficient pruning of rotations that will give steric clashes. The contribution of this thesis can be described in three main parts as follows. 1) The algorithm called EROS-DOCK to assemble two proteins. It was tested on 173 Docking Benchmark complexes. According to the CAPRI quality criteria, EROS-DOCK typically gives more acceptable or medium quality solutions than ATTRACT and ZDOCK. 2)The extension of the EROS-DOCK algorithm to allow the use of atom-atom or residue-residue distance restraints. The results show that using even just one residue-residue restraint in each interaction interface is sufficient to increase the number of cases with acceptable solutions within the top-10 from 51 to 121 out of 173 pairwise docking cases. Hence, EROS-DOCK offers a new improved search strategy to incorporate experimental data, of which a proof-of-principle using data-driven computational restraints is demonstrated in this thesis, and this might be especially important for multi-body complexes. 3)The extension of the algorithm to dock trimeric complexes. Here, the proposed method is based on the premise that all of the interfaces in a multi-body docking solution should be similar to at least one interface in each of the lists of pairwise docking solutions. The algorithm was tested on a home-made benchmark of 11 three-body cases. Seven complexes obtained at least one acceptable quality solution in the top-50. In future, the EROS-DOCK algorithm can evolve by integrating improved scoring functions and other types of restraints. Moreover, it can be used as a component in elaborate workflows to efficiently solve complex problems of multi-protein assemblies
Styles APA, Harvard, Vancouver, ISO, etc.
34

Nivollet, Pierre-Yves. « Un habitat capable de reconna??tre les activit??s planifi??es dans un calendrier ??lectronique ». Mémoire, Universit? ? de Sherbrooke, 2013. http://savoirs.usherbrooke.ca/handle/11143/46.

Texte intégral
Résumé :
Le vieillissement de la population est un probl??me qui touche de plus en plus le monde occidental et a pour cons??quence de rendre difficile le maintien ?? domicile des personnes ??g??es, ??tant donn?? les co??ts engendr??s et le manque de personnel soignant. D'un autre c??t??, la pr??sence des technologies dans les domiciles devient r??pandue et ce, ?? des prix abordables. On est d??sormais capable de r??cup??rer facilement des informations sur ce qui se passe ?? l'int??rieur de la maison et ainsi agir en cons??quence. Le maintien ?? domicile devient alors possible en offrant une assistance aux personnes ??g??es qui soit port??e par la technologie, afin de les aider ?? r??aliser leurs activit??s de la vie quotidienne. ?? l'aide d'un calendrier ??lectronique dans lequel seront not??es toutes les activit??s ?? r??aliser dans la journ??e, on est en mesure d'utiliser les donn??es fournies par l'appartement pour v??rifier qu'elles ont bien ??t?? r??alis??es, et ainsi offrir des rappels efficaces pour ces activit??s. C'est vers cette probl??matique que se tourne ce m??moire en offrant un outil pouvant utiliser et interpr??ter les informations provenant de l'int??rieur d'un habitat, combin??es ?? celles venant d'un calendrier ??lectronique, dans le but d'aider ?? la r??alisation des t??ches de la vie quotidienne. Cet outil est compos?? de deux programmes principaux: le calendrier ??lectronique et le programme de reconnaissance d'activit??, les deux fonctionnant en collaboration. Ce m??moire pr??sente en premier lieu l'informatique ubiquitaire, les moyens de rappel existants ainsi que les diff??rentes m??thodes pour faire de la reconnaissance d'activit?? dans un appartement intelligent. Suit une description du calendrier ??lectronique permettant aux personnes ??g??es d'entrer correctement leurs activit??s ?? rappeler. Ensuite est d??crit le programme de reconnaissance d'activit??, qui interpr??te les ??v??nements des capteurs pour reconna??tre les activit??s r??alis??es. Le chapitre suivant traite de la collaboration entre le calendrier et le programme de reconnaissance d'activit?? afin qu'ils soient utilisables dans l'appartement. Une exp??rimentation r??alis??e dans l'appartement intelligent du DOMUS cherche ?? fournir une preuve de concept du rappel d'activit?? en fonction de ce qui se passe dans l'appartement.
Styles APA, Harvard, Vancouver, ISO, etc.
35

Winck, Ana Trindade. « 3D-Tri : um algoritmo de indu??o de ?rvore de regress?o para propriedades tridimensionais - um estudo sobre dados de docagem molecular considerando a flexibilidade do receptor ». Pontif?cia Universidade Cat?lica do Rio Grande do Sul, 2012. http://tede2.pucrs.br/tede2/handle/tede/5156.

Texte intégral
Résumé :
Made available in DSpace on 2015-04-14T14:49:41Z (GMT). No. of bitstreams: 1 436381.pdf: 5238803 bytes, checksum: ca22d61f2fb4075e277ed531aee231ce (MD5) Previous issue date: 2012-01-17
With the growth of biological experiments, solving and analyzing the massive amount of data being generated has been one of the challenges in bioinformatics, where one important research area is the rational drug design (RDD). The interaction between biological macromolecules called receptors, and small molecules called ligands, is the fundamental principle of RDD. In in-silico molecular docking experiments it is investigated the best bind and conformation of a ligand into a receptor. A docking result can be discriminated by a continue value called Free Energy of Binding (FEB). We are attempting on mining data from molecular docking results, aiming at selecting promising receptor conformations to the next docking experiments. In this sense, we have developed a comprehensive repository to store our molecular docking data. Having such repository, we were able to apply preprocessing strategies on the stored data and submit them to different data mining tasks. Among the techniques applied, the most promising results were obtained with regression model trees. Although we have already addressed important issues and achieved significant results, there are some properties in these experiments turning it difficult to properly select conformations. Hence, a strategy was proposed considering the three-dimensional (3D) properties of the receptor conformations, to predict FEB. This thesis presents the 3D-Tri, a novel algorithm able to handle and treat spatial coordinates in a x,y,z format, and induce a tree that predicts FEB value by representing such properties. The algorithm uses such coordinates to split a node in two parts, where the edges evaluate whether the atom being tested by the node is part of a given interval [(xi,xf );(yi,yf );(zi,zf )], where i indicates the initial position of the coordinate, and f its final position. The induced model can help a domain specialist to select promising conformations, based on the region of the atoms in the model, to perform new molecular docking experiments
Com o avan?o nos experimentos biol?gicos, a manipula??o e an?lise do grande volume de dadossendo gerados por esses experimentos t?m sido um dos desafios em bioinform?tica, onde umaimportante ?rea de pesquisa ? o desenho racional de f?rmacos (RDD - Rational Drug Desing). Aintera??o entre macromol?culas biol?gicas, chamadas de receptores, e pequenas mol?culas, chamadasligantes, ? o princ?pio fundamental do RDD. ? em experimentos in silico de docagem molecularque se investiga o melhor encaixe e conforma??o de um ligante em uma cavidade do receptor. Oresultado de um experimento de docagem pode ser avaliado a partir de um valor cont?nuo de energialivre de liga??o (FEB - Free Energy of Binding). Tem-se empregado esfor?os em minerar dados deresultados de docagem molecular, com o objetivo de selecionar conforma??es relevantes para reduziro tempo de futuros experimentos de docagem. Nesse sentido, foi desenvolvido um reposit?rio paraarmazenar todos os dados a respeito desses experimentos, em n?vel de detalhe. Com esse reposit?rio,os dados foram devidamente pr?-processados e submetidos a diferentes tarefas de minera??ode dados. Dentre as t?cnicas aplicadas, a que apresentou-se mais promissora para o tipo de dadossendo utilizado foi ?rvore de decis?o para regress?o. Apesar dos resultados alcan?ados por essesexperimentos serem promissores, existem algumas propriedades nos experimentos que dificultam aefetiva sele??o de conforma??es. Dessa forma, prop?e-se uma estrat?gia que considera as propriedadestridimensionais (3D) do receptor para predizer o valor de FEB. Assim, nesta Tese ? apresentadoo 3D-Tri, um algoritmo de indu??o de ?rvore de regress?o que considera essas propriedades 3D,onde essas propriedades s?o definidas como atributos no formato x,y,z. O algoritmo proposto fazuso dessas coordenadas para dividir um nodo em duas partes, onde o ?tomo sendo testado parao nodo ? avaliado em termos de sua posi??o em um bloco [(xi,xf );(yi,yf );(zi,zf )] que melhorrepresente sua posi??o no espa?o, onde i indica a posi??o inicial de uma coordenada, e f indicaa posi??o final. O modelo induzido pode ser ?til para um especialista de dom?nio para selecionarconforma??es promissoras do receptor, tendo como base as regi?es dos ?tomos que aparecem nomodelo e que indicam melhores valores de FEB
Styles APA, Harvard, Vancouver, ISO, etc.
36

Sastre, Javier M. « Efficient finite-state algorithms for the application of local grammars ». Phd thesis, Université de Marne la Vallée, 2011. http://tel.archives-ouvertes.fr/tel-00621249.

Texte intégral
Résumé :
Notre travail porte sur le développement d'algorithmes performants d'application de grammaires locales, en prenant comme référence ceux des logiciels libres existants: l'analyseur syntaxique descendant d'Unitex et l'analyseur syntaxique à la Earley d'Outilex. Les grammaires locales sont un formalisme de représentation de la syntaxe des langues naturelles basé sur les automates finis. Les grammaires locales sont un modèle de construction de descriptions précises et à grande échelle de la syntaxe des langues naturelles par le biais de l'observation systématique et l'accumulation méthodique de données. L'adéquation des grammaires locales pour cette tâche a été testée à l'occasion de nombreux travaux. À cause de la nature ambiguë des langues naturelles et des propriétés des grammaires locales, les algorithmes classiques d'analyse syntaxique tels que LR, CYK et Tomita ne peuvent pas être utilisés dans le contexte de ce travail. Les analyseurs descendant et Earley sont des alternatives possibles, cependant, ils ont des coûts asymptotiques exponentiels pour le cas des grammaires locales. Nous avons d'abord conçu un algorithme d'application de grammaires locales avec un coût polynomial dans le pire des cas. Ensuite, nous avons conçu des structures de données performantes pour la représentation d'ensembles d'éléments et de séquences. Elles ont permis d'améliorer la vitesse de notre algorithme dans le cas général. Nous avons mis en oeuvre notre algorithme et ceux des systèmes Unitex et Outilex avec les mêmes outils afin de les tester dans les mêmes conditions. En outre, nous avons mis en oeuvre différentes versions de chaque algorithme en utilisant nos structures de données et algorithmes pour la représentation d'ensembles et ceux fournis par la Standard Template Library (STL) de GNU. Nous avons comparé les performances des différents algorithmes et de leurs variantes dans le cadre d'un projet industriel proposé par l'entreprise Telefónica I+D: augmenter la capacité de compréhension d'un agent conversationnel qui fournit des services en ligne, voire l'envoi de SMS à des téléphones portables ainsi que des jeux et d'autres contenus numériques. Les conversations avec l'agent sont en espagnol et passent par Windows Live Messenger. En dépit du domaine limité et de la simplicité des grammaires appliquées, les temps d'exécution de notre algorithme, couplé avec nos structures de données et algorithmes pour la représentation d'ensembles, ont été plus courts. Grâce au coût asymptotique amélioré, on peut s'attendre à des temps d'exécution significativement inférieurs par rapport aux algorithmes utilisés dans les systèmes Unitex et Outilex, pour le cas des grammaires complexes et à large couverture.
Styles APA, Harvard, Vancouver, ISO, etc.
37

Martucci, Marco. « Quantificazione delle Biomasse residuali agricole nel Sud Italia e successivo confronto tra algoritmi di mappatura nativi ed esterni in QGIS ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2020. http://amslaurea.unibo.it/20658/.

Texte intégral
Résumé :
La Strategia Energetica Nazionale (SEN), considera lo sviluppo delle fonti rinnovabili come funzionale non solo alla riduzione delle emissioni ma anche fondamentale per il contenimento della dipendenza energetica. Lo studio condotto ha avuto lo scopo di definire una metodologia operativa per valutare la disponibilità e la distribuzione delle biomasse lignocellulosiche di residui di coltivazioni tipiche delle regioni meridionali peninsulari nei principali bacini delle attività agro-industriali di Abruzzo, Basilicata, Calabria, Campania, Puglia e Molise, nella consapevolezza che la valorizzazione delle biomasse residue agricole (BRA) è in grado di sostenere un ampio ventaglio di opportunità socio-economiche. Per arrivare alla stima della disponibilità della biomassa sono stati considerati: le superfici coltivate (ha), le rese produttive delle diverse colture (t/ha), il rapporto di sottoprodotto su prodotto principale, il valore di umidità, le percentuali di riutilizzo, attingendo a banche-dati rese disponibili da diversi enti e istituzioni. Il totale stimato delle BRA di seminativi, oliveti e vigneti ammonta a circa 2,3 ± 0,5 Mt/anno, a fronte di una superficie agricola di circa 1,7 milioni di ha. La caratterizzazione su base territoriale, realizzata in ambiente GIS, ha portato alla creazione di mappe utili per una immediata identificazione della distribuzione delle aree maggiormente vocate allo sviluppo di filiere bioenergetiche. Le situazioni riscontrate nelle diverse regioni sia riguardo alla produzione delle BRA sia riguardo alla diffusione e all’ubicazione degli impianti alimentati a biomassa nel territorio sono molto eterogenee e, con riferimento a tale contesto, sono state considerate le molte variabili che influenzano l’installazione sul territorio di un numero razionalmente dimensionato di impianti termoelettrici, assumendo di avviare alla valorizzazione energetica solo il 50% dei sottoprodotti disponibili, nella logica della filiera corta.
Styles APA, Harvard, Vancouver, ISO, etc.
38

Spilla, Emma. « Caratterizzazione del cammino sulla sabbia per mezzo di sensori inerziali indossabili : confronto tra algoritmi per la stima degli eventi del passo ». Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2019.

Trouver le texte intégral
Résumé :
Il cammino sulla sabbia riveste un’importanza fondamentale nella salute dell’uomo. Diversi studi hanno dimostrato i benefici del cammino sulla sabbia, sia in soggetti sani che patologici. Tuttavia, manca una caratterizzazione biomeccanica. A tale proposito è importante l’analisi dei parametri temporali, e quindi la necessità di identificare correttamente gli eventi del cammino in questo ambiente. Mentre a secco sono stati implementati tanti algoritmi per la segmentazione del cammino, manca ad oggi una caratterizzazione di questi algoritmi in ambiente marino. Lo scopo di questo è quindi quello di valutare le performance di 17 algoritmi per l’identificazione degli eventi del passo e dei parametri temporali, già implementati per il cammino a secco, in ambiente marino. Tali algoritmi sono stati applicati ai dati inerziali del cammino di 7 soggetti sani che deambulano in tre condizioni diverse, ovvero passerella, sabbia bagnata e sabbia asciutta, acquisiti per mezzo di 5 sensori inerziali posizionati su tronco, caviglie e piedi. Le riprese degli eventi del passo sono state effettuate con una videocamera e utilizzate come Gold Standard per l’identificazione degli eventi del cammino. Per tutte e tre le condizioni, le performance degli algoritmi sono state valutate in termini di sensitività, accuratezza e ripetibilità. I risultati mostrano che tutti gli algoritmi proposti per il cammino a secco possono essere impiegati in ambiente marino. In particolare, gli algoritmi che sfruttano segnali da sensori posizionati sul tronco danno performance peggiori rispetto quelli su caviglia e piede, mentre sono da preferire gli algoritmi che sfruttano la velocità angolare come variabile analizzata rispetto all’accelerazione grezza. L’approccio computazionale ha dato informazioni sulle performance basandosi sul posizionamento e sul filtraggio utilizzato.
Styles APA, Harvard, Vancouver, ISO, etc.
39

Dupuy, Grégor. « Les collections volumineuses de documents audiovisuels : segmentation et regroupement en locuteurs ». Thesis, Le Mans, 2015. http://www.theses.fr/2015LEMA1006/document.

Texte intégral
Résumé :
La tâche de Segmentation et Regroupement en Locuteurs (SRL), telle que définie par le NIST, considère le traitement des enregistrements d’un corpus comme des problèmes indépendants. Les enregistrements sont traités séparément, et le tauxd’erreur global sur le corpus correspond finalement à une moyenne pondérée. Dans ce contexte, les locuteurs détectés par le système sont identifiés par des étiquettes anonymes propres à chaque enregistrement. Un même locuteur qui interviendrait dans plusieurs enregistrements sera donc identifié par des étiquettes différentes selon les enregistrements. Cette situation est pourtant très fréquente dans les émissions journalistiques d’information : les présentateurs, les journalistes et autres invités qui animent une émission interviennent généralement de manière récurrente. En conséquence, la tâche de SRL a depuis peu été considérée dans un contexte plus large, où les locuteurs récurrents doivent être identifiés de manière unique dans tous les enregistrements qui composent un corpus. Cette généralisation du problème de regroupement en locuteurs va de pair avec l’émergence du concept de collection, qui se réfère, dans le cadre de la SRL, à un ensemble d’enregistrements ayant une ou plusieurs caractéristiques communes. Le travail proposé dans cette thèse concerne le regroupement en locuteurs sur des collections de documents audiovisuels volumineuses (plusieurs dizaines d’heures d’enregistrements). L’objectif principal est de proposer (ou adapter) des approches de regroupement afin de traiter efficacement de gros volumes de données, tout en détectant les locuteurs récurrents. L’efficacité des approches proposées est étudiée sous deux aspects : d’une part, la qualité des segmentations produites (en termes de taux d’erreur), et d’autre part, la durée nécessaire pour effectuer les traitements. Nous proposons à cet effet deux architectures adaptées au regroupement en locuteurs sur des collections de documents. Nous proposons une approche de simplification où le problème de regroupement est représenté par une graphe non-orienté. La décompositionde ce graphe en composantes connexes permet de décomposer le problème de regroupement en un certain nombre de sous-problèmes indépendants. La résolution de ces sous-problèmes de regroupement est expérimentée avec deux approches de regroupements différentes (HAC et ILP) tirant parti des récentes avancées en modélisation du locuteur (i-vector et PLDA)
The task of speaker diarization, as defined by NIST, considers the recordings from a corpus as independent processes. The recordings are processed separately, and the overall error rate is a weighted average. In this context, detected speakers are identified by anonymous labels specific to each recording. Therefore, a speaker appearing in several recordings will be identified by a different label in each of the recordings. Yet, this situation is very common in broadcast news data: hosts, journalists and other guests may appear recurrently. Consequently, speaker diarization has been recently considered in a broader context, where recurring speakers must be uniquely identified in every recording that compose a corpus. This generalization of the speaker partitioning problem goes hand in hand with the emergence of the concept of collections, which refers, in the context of speaker diarization, to a set of recordings sharing one or more common characteristics.The work proposed in this thesis concerns speaker clustering of large audiovisual collections (several tens of hours of recordings). The main objective is to propose (or adapt) clustering approaches in order to efficiently process large volumes of data, while detecting recurrent speakers. The effectiveness of the proposed approaches is discussed from two point of view: first, the quality of the produced clustering (in terms of error rate), and secondly, the time required to perform the process. For this purpose, we propose two architectures designed to perform cross-show speaker diarization with collections of recordings. We propose a simplifying approach to decomposing a large clustering problem in several independent sub-problems. Solving these sub-problems is done with either of two clustering approaches which takeadvantage of the recent advances in speaker modeling
Styles APA, Harvard, Vancouver, ISO, etc.
40

Martin, Hugo. « Optimisation multi-objectifs et élicitation de préférences fondées sur des modèles décisionnels dépendants du rang et des points de référence ». Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS101.

Texte intégral
Résumé :
Cette thèse se situe dans le cadre de la théorie de la décision algorithmique, domaine de recherche à l'intersection de la théorie de la décision, de l'intelligence artificielle et de la recherche opérationnelle. Nous nous intéressons à la prise en compte de comportements sophistiqués dans des environnements complexes (décision multicritère, décision collective, décision dans le risque et l'incertain). Nous proposons d'abord des méthodes d'optimisation multi-objectifs sur domaine implicite lorsque les préférences sont représentées par des modèles dépendants du rang (intégrale de Choquet, bipolar OWA, Cumulative Prospect Theory et intégrale de Choquet bipolaire). Ces méthodes reposent sur des approches de programmation mathématique et d'algorithmique discrète. Ensuite, nous présentons des méthodes d'élicitation incrémentale des paramètres de modèles dépendants du rang permettant de prendre en compte la présence d'un point de référence dans les préférences d'un décideur (bipolar OWA, Cumulative Prospect Theory, intégrale de Choquet avec capacités et bicapacités). Finalement, nous abordons la modification structurelle de solutions sous contraintes (coût, qualité) dans des méthodes de tri à plusieurs points de référence. Les différentes approches proposées dans cette thèse ont été testées et nous présentons les résultats numériques obtenus afin d'illustrer leur efficacité pratique
This thesis work falls within the research field of algorithmic decision theory, which is defined at the junction of decision theory, artificial intelligence and operations research. This work focuses on the consideration of sophisticated behaviors in complex decision environments (multicriteria decision making, collective decision making and decision under risk and uncertainty). We first propose methods for multi-objective optimization on implicit sets when preferences are represented by rank-dependent models (Choquet integral, bipolar OWA, Cumulative Prospect Theory and bipolar Choquet integral). These methods are based on mathematical programming and discrete algorithmics approaches. Then, we present methods for the incremental parameter elicitation of rank-dependent model that take into account the presence of a reference point in the decision maker's preferences (bipolar OWA, Cumulative Prospect Theory, Choquet integral with capacities and bicapacities). Finally, we address the structural modification of solutions under constraints (cost, quality) in multiple reference point sorting methods. The different approaches proposed in this thesis have been tested and we present the obtained numerical results to illustrate their practical efficiency
Styles APA, Harvard, Vancouver, ISO, etc.
41

Quaglia, Roberto. « Calibrazione di modelli afflussi-deflussi su un set di bacini austriaci : confronto tra modelli spazialmente distribuiti e concentrati e scelta degli algoritmi di ottimizzazione ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018.

Trouver le texte intégral
Résumé :
Si sono confrontate le procedure di parametrizzazione (e le relative simulazioni) di due modelli concettuali afflussi-deflussi: il primo è una versione austriaca del modello HBV, il secondo è il modello francese GR6J, che utilizza il modulo Neve CemaNeige. Il primo dei due modelli è stato adoperato sia in modalità concentrata che semi-distribuita, per permettere un confronto fra le due. Per svolgere tale studio si è analizzato un vasto set di 213 bacini austriaci, considerati rappresentativi della variabilità idrologica della regione di studio. Si sono inoltre approfondite le prestazioni di tre diversi algoritmi di ottimizzazione, fondamentali per l’esecuzione delle calibrazioni automatiche, al fine di analizzarne i vari pregi e difetti. Nello specifico, gli algoritmi analizzati sono il Differential Evolution, lo Shuffled Complex Evolution e il Dynamically Dimensioned Search, dei quali il primo è stato poi utilizzato per svolgere le calibrazioni al fine della parametrizzazione dei modelli suddetti. Le prove svolte per la valutazione degli ottimizzatori hanno mostrato come gli algoritmi basati sull’impiego di popolazioni di set di parametri, ovvero il DE e lo SCE-UA, siano i più accurati nella ricerca dell’ottimo, nonostante l’elevata complessità di calcolo. I parametri stimati dalle calibrazioni con il DE, massimizzando come funzione obiettivo l’efficienza di Kling-Gupta, hanno permesso in seguito di applicare il modello su un periodo di validazione indipendente, per valutarne la prestazione su diverse condizioni idrologiche. I risultati ottenuti su entrambi i periodi hanno evidenziato come il modello GR6J riproduca meglio il comportamento della maggior parte dei bacini appartenenti alla regione di studio, ma il modello HBV semi-distribuito offre ottime prestazioni sui bacini con maggior escursione altimetrica. Le prestazioni della modalità concentrata dell'HBV sono invece quasi sempre inferiori, in ragione dell'aggregazione spaziale di input e variabili di stato.
Styles APA, Harvard, Vancouver, ISO, etc.
42

C?mara, Paulo C?sar de Souza. « Implementa??o de um algoritmo para a an?lise de curtos-circuitos de alta imped?ncia baseado no fluxo de carga soma de pot?ncias ». Universidade Federal do Rio Grande do Norte, 2002. http://repositorio.ufrn.br:8080/jspui/handle/123456789/15248.

Texte intégral
Résumé :
Made available in DSpace on 2014-12-17T14:55:19Z (GMT). No. of bitstreams: 1 PauloCSC_capa_ate_pag_14.pdf: 6010526 bytes, checksum: e2d3959764645f15a68a651383c52a92 (MD5) Previous issue date: 2002-05-10
This work has as main objective to show all the particularities regarding the Three-phase Power Summation Method, used for load flow calculation, in what it says respect to the influence of the magnetic coupling among the phases, as well as to the losses presented in all the existent transformers in the feeder to be analyzed. Besides, its application is detailed in the study of the short-circuits, that happen in the presence of high impedance values, which possess a problem, that is its difficult detection and consequent elimination on the part of common devices of protection. That happens due to the characteristic presented by the current of short? circuit, in being generally of the same order of greatness that the load currents. Results of simulations accomplished in several situations will be shown, objectifying a complete analysis of the behavior of the proposed method in several types of short-circuits. Confront of the results obtained by the method with results of another works will be presented to verify its effectiveness
Este trabalho tem como objetivo principal mostrar todas as particularidades a respeito do M?todo da Soma de Pot?ncias Trif?sico, utilizado em c?lculo de fluxo de carga trif?sico, no que diz respeito ? influ?ncia do acoplamento magn?tico entre as fases, bem como ?s perdas apresentadas em todos os transformadores existentes no alimentador a ser analisado. Al?m disso, detalha-se a sua aplica??o no estudo dos curtos-circuitos, que ocorrem na presen?a de altos valores de imped?ncia, os quais possuem um problema a mais, que ? sua dif?cil detec??o e conseq?ente elimina??o por parte de dispositivos comuns de prote??o. Isso ocorre devido ? caracter?stica apresentada pela corrente de curto, em ser geralmente da mesma ordem de grandeza que as correntes de carga. Ser?o mostrados resultados de simula??es realizadas em diversas situa??es, buscando uma an?lise completa do comportamento do m?todo proposto em v?rios tipos de curtos-circuitos. Confronto dos resultados obtidos pelo m?todo com os de outros trabalhos ser?o apresentados como forma de verifica??o de sua efic?cia
Styles APA, Harvard, Vancouver, ISO, etc.
43

Cénac, Peggy. « Récursivité au carrefour de la modélisation de séquences, des arbres aléatoires, des algorithmes stochastiques et des martingales ». Habilitation à diriger des recherches, Université de Bourgogne, 2013. http://tel.archives-ouvertes.fr/tel-00954528.

Texte intégral
Résumé :
Ce mémoire est une synthèse de plusieurs études à l'intersection des systèmes dynamiques dans l'analyse statistique de séquences, de l'analyse d'algorithmes dans des arbres aléatoires et des processus stochastiques discrets. Les résultats établis ont des applications dans des domaines variés allant des séquences biologiques aux modèles de régression linéaire, processus de branchement, en passant par la statistique fonctionnelle et les estimations d'indicateurs de risque appliqués à l'assurance. Tous les résultats établis utilisent d'une façon ou d'une autre le caractère récursif de la structure étudiée, en faisant apparaître des invariants comme des martingales. Elles sont au coeur de ce mémoire, utilisées comme outils dans les preuves ou comme objets d'étude.
Styles APA, Harvard, Vancouver, ISO, etc.
44

Robin, Cyril. « Modèles et algorithmes pour systèmes multi-robots hétérogènes : application à la patrouille et au suivi de cible ». Thesis, Toulouse, INSA, 2015. http://www.theses.fr/2015ISAT0037/document.

Texte intégral
Résumé :
La détection et le suivi de cibles sont des missions fréquentes pour la robotique mobile, que le contexte soit civil, industriel ou militaire. Ces applications constituent un domaine de choix pour la planification multirobot, et sont abordées par de multiples communautés selon différents points de vue. Nous proposons dans un premier temps une taxonomie commune qui permetde regrouper et de comparer les différentes approches de ces problèmes, afin de mieux les analyser et de mettre en évidence leurs lacunes respectives. En particulier, on note la faible représentativité des modèles exploités, peu expressifs : la plupart des algorithmes évoluent dans un monde en deux dimensions où les observations et le déplacement sont conditionnés par lesmêmes obstacles. Ces modèles éloignés de la réalité nous semblent trop restrictifs pour pleinement exploiter la synergie des équipes multirobot hétérogènes : nous proposons une organisation des différents modèles nécessaires, en explicitant une séparation claire entre modèles et algorithmes de planification. Cette organisation est concrétisée par une librairie qui structure lesmodèles disponibles et définit les requêtes nécessaires aux algorithmes de planification. Dans un second temps, nous proposons un ensemble d’algorithmes utilisant les modèles définis précédemment pour planifier des missions de patrouille de zones et de poursuite de cibles. Ces algorithmes s’appuient sur un formalisme mathématique rigoureux afin d’étudier l’impact des modèlessur les performances. Nous analysons notamment l’impact sur la complexité – c’est-à-dire en quoi des modèles plus élaborés impactent la complexité de résolution – et sur la qualité des solutions résultantes, indépendamment des modèles, selon des métriques usuelles. D’une manière plus générale, les modèles sont un lien essentiel entre l’Intelligence Artificielle et la Robotique : leur enrichissement et leur étude approfondie permettent d’exhiber des comportements plus efficaces pour la réussite des missions allouées aux robots. Cette thèse contribue à démontrer l’importance des modèles pour la planification et la conduite de mission multirobots
Detecting, localizing or following targets is at the core of numerous robotic applications in industrial, civilian and military application contexts. Much work has been devoted in various research communities to planning for such problems, each community with a different standpoint. Our thesis first provides a unifying taxonomy to go beyond the frontiers of specific communities and specific problems, and to enlarge the scope of prior surveys. We review various work related to each class of problems identified in the taxonomy, highlighting the different approaches, models and results. This analysis specifically points out the lack of representativityof the exploited models, which are in vast majority only 2D single-layer models where motion and sensing are mixed up. We consider those unrealistic models as too restrictive to handle the full synergistic potential of an heterogeneous team of cooperative robots. In response to this statement, we suggest a new organisation of the necessary models, stating clearly the links and separation between models and planning algorithms. This has lead to the development of a C++ library that structures the available models and defines the requests required by the planning process. We then exploit this library through a set of algorithms tackling area patrolling and target tracking. These algorithms are supported by a sound formalism and we study the impact of the models on the observed performances, with an emphasis on the complexity and the quality of the resultingsolutions. As a more general consideration, models are an essential link between Artificial Intelligence and applied Robotics : improving their expressiveness and studying them rigorously are the keys leading toward better robot behaviours and successful robotic missions. This thesis help to show how important the models are for planning and other decision processes formulti-robot missions
Styles APA, Harvard, Vancouver, ISO, etc.
45

Haushalterová, Gabriela. « Vysokofrekvenční obchodovaní a jeho dopad na stabilitu finančního trhu ». Master's thesis, Vysoká škola ekonomická v Praze, 2017. http://www.nusl.cz/ntk/nusl-359578.

Texte intégral
Résumé :
The thesis analyses high frequency trading, specifically its main characteristics, which make it different from algorithmic trading. Furthermore, the thesis looks closer into major risks, which are new to market, and their impact on market quality and other investors. The next chapter is dedicated to trading strategies, which are typical for high frequency trading. In conclusion, there is discussed the impact on the market quality caused by high frequency trading, namely in terms of liquidity, volatility and price discovery.
Styles APA, Harvard, Vancouver, ISO, etc.
46

Jabeur, Mohamed. « Méthodes géometriques en mécanique spatiale et aspects numériques ». Phd thesis, Université de Bourgogne, 2005. http://tel.archives-ouvertes.fr/tel-00012145.

Texte intégral
Résumé :
On présente dans cette thèse deux projets de
recherche sur le contrôle optimal de véhicules spatiaux.

Le premier est consacré au problème du transfert orbital. Le modèle étudié est celui du contrôle en temps minimal d'un satellite que l'on souhaite insérer sur une orbite géostationnaire. Ce type de problème classique a été réactualisé avec l'évolution de la technologie des moteurs à poussée faible et continue. Notre contribution est de deux ordres. Géométrique, tout d'abord, puisqu'on étudie la contrôlabilité du système ainsi que
la géométrie des transferts (structure de la commande) à l'aide d'outils de contrôle géométrique (principe du minimum). Sont ensuite présentés l'algorithme de tir et la méthode de continuation. Ces approches permettent de traiter numériquement le problème du transfert orbital dont la poussée est forte à faible.

Le second concerne le calcul des trajectoires de rentrée
atmosphérique pour la navette spatiale. Le problème
décrivant les trajectoires est de dimension $6,$ le contrôle est l'angle de gîte cinématique ou sa dérivée et le coût est l'intégrale du flux thermique. Par ailleurs, il y a des contraintes sur l'état (flux thermique, accélération normale et pression dynamique). Notre étude est fondée sur l'obtention des conditions nécessaires d'optimalité (principe du minimum avec contraintes sur l'état) applicables à notre cas, sur le calcul des
paramètres $(\eta,\nu,u_b)$ associées à la contrainte sur l'état et sur l'analyse des synthèses optimales au voisinage de la contrainte. Une fois la trajectoire optimale déterminée, on utilise l'algorithme de tir multiple et la méthode de continuation pour les évaluations numériques.
Styles APA, Harvard, Vancouver, ISO, etc.
47

Točevová, Radka. « Testování úspěšnosti trading a trending indikátorů technické analýzy ». Master's thesis, Vysoká škola ekonomická v Praze, 2017. http://www.nusl.cz/ntk/nusl-360518.

Texte intégral
Résumé :
The goal of this master's thesis is to evaluate the successfulness of the strategies' portfolio and of trading and trending indicators, which are parts of the portfolio, through this evaluation. The theoretical part concerns with the key principles of the foreign exchange market which the portfolio is created for. After that, the individual technical indicators, which are used in the analytical part of the thesis, are analyzed in detail. Then in the following part, the development process of automated trading systems in case of the genetic algorithms' application is defined. Individual generated trading systems are described in the next segment separately. Their descriptions are followed by evaluation of outcomes of testing on historical data and of robustness' tests. Afterwards, the correlations between individual strategies are mentioned. The thesis concludes by efficiency evaluation of strategies' portfolio via backtest results and paper testing.
Styles APA, Harvard, Vancouver, ISO, etc.
48

Vacher, Blandine. « Techniques d'optimisation appliquées au pilotage de la solution GTP X-PTS pour la préparation de commandes intégrant un ASRS ». Thesis, Compiègne, 2020. http://www.theses.fr/2020COMP2566.

Texte intégral
Résumé :
Les travaux présentés dans ce document portent sur des problèmes d'optimisation dans le domaine de la logistique interne des entrepôts. Le domaine est soumis à une forte concurrence et est en plein essor, poussé par les besoins croissants du marché et favorisé par l'automatisation. L'entreprise SAVOYE construit des équipements et propose sa propre solution GTP (Goods-To-Person) pour la préparation de commandes. La solution utilise un système de stockage automatisé appelé X-Picking Tray System (X-PTS) et achemine les charges automatiquement à des postes de travail via des carrousels pour effectuer des opérations séquencées. C'est un système de systèmes particulièrement complexe qui offre de nombreuses applications aux techniques de la recherche opérationnelle. Tout cela définit le périmètre applicatif et théorique des travaux menés dans cette thèse. Nous avons d'abord traité un problème d'ordonnancement de type Job Shop avec des contraintes de précédences. Le contexte particulier du problème a permis de le résoudre en un temps polynomial avec un algorithme exact. Celui-ci a permis de calculer les dates d'injection des charges provenant des différents flux de sortie du stockage pour s'agréger sur un carrousel, dans un ordre donné. Ainsi, la gestion inter-allées du stockage PTS a été améliorée et le débit du flux de charges maximisé, depuis le stockage jusqu'à un poste. Nous avons ensuite étudié des algorithmes de tri tels que le tri par base et développé un algorithme de tri en ligne, utilisé pour piloter des systèmes autonomes de tri appelés Buffers Séquenceurs (BS). Placés en amont de chaque poste de travail dans la solution GTP, les BS permettent de délocaliser la fonction de tri en aval du stockage, augmentant de facto le débit des flux de sortie. Enfin, nous avons considéré un problème de séquencement consistant à trouver une extension linéaire d'un ordre partiel minimisant une distance avec un ordre donné. Nous proposons de le résoudre par une approche de programmation linéaire en nombres entiers, par la construction de programmes dynamiques et par des heuristiques de type glouton. Une heuristique efficace a été développée en se basant sur des appels itératifs d'un des programmes dynamiques, permettant d'atteindre une solution proche ou égale à l'optimum en un temps très court. L'application de ce problème aux flux de sortie non ordonnés du stockage X-PTS permet de réaliser un pré-tri au niveau des carrousels. Les diverses solutions développées ont été validées par simulation et certaines ont été brevetées et/ou déjà été mises en application dans des entrepôts
The work presented in this PhD thesis deals with optimization problems in the context of internal warehouse logistics. The field is subject to strong competition and extensive growth, driven by the growing needs of the market and favored by automation. SAVOYE builds warehouse storage handling equipment and offers its own GTP (Goods-To-Person) solution for order picking. The solution uses an Automated Storage and Retrieval System (ASRS) called X-Picking Tray System (X-PTS) and automatically routes loads to workstations via carousels to perform sequenced operations. It is a highly complex system of systems with many applications for operational research techniques. All this defines the applicative and theoretical scope of the work carried out in this thesis. In this thesis, we have first dealt with a specific scheduling Job Shop problem with precedence constraints. The particular context of this problem allowed us to solve it in polynomial time with exact algorithms. These algorithms made it possible to calculate the injection schedule of the loads coming from the different storage output streams to aggregate on a carousel in a given order. Thus, the inter-aisle management of the X-PTS storage was improved and the throughput of the load flow was maximized, from the storage to a station. In the sequel of this work, the radix sort LSD (Least Significant Digit) algorithm was studied and a dedicated online sorting algorithm was developed. The second one is used to drive autonomous sorting systems called Buffers Sequencers (BS), which are placed upstream of each workstation in the GTP solution. Finally, a sequencing problem was considered, consisting of finding a linear extension of a partial order minimizing a distance with a given order. An integer linear programming approach, different variants of dynamic programming and greedy algorithms were proposed to solve it. An efficient heuristic was developed based on iterative calls of dynamic programming routines, allowing to reach a solution close or equal to the optimum in a very short time. The application of this problem to the unordered output streams of X-PTS storage allows pre-sorting at the carousel level. The various solutions developed have been validated by simulation and some have been patented and/or already implemented in warehouses
Styles APA, Harvard, Vancouver, ISO, etc.
49

Šalovský, Vojtěch. « Aplikace pro algoritmické obchodování ». Master's thesis, Vysoká škola ekonomická v Praze, 2017. http://www.nusl.cz/ntk/nusl-359188.

Texte intégral
Résumé :
The presented work deals with analysis and implementation of algorithmic trading applications based on client requirements. Applications developed in this work are supposed to be used to collect and manage data from the stock exchange, to view information about active trading orders, and to send trading orders to the exchange via the API from Interactive Brokers. The first chapter gives an overview of selected books focused on developing applications for C # and analysis. Then the concepts of UML, OOAD, and UP are introduced. In the next chapter, requirements of the customer are defined. In the following chapter, based on the results of literature research and defined client requirements, the initial architectural design is created and cases of use with subsequent specifications are presented. This section is followed by finding analytical classes, creating a domain model, implementation of some use cases using sequence diagrams. The last two chapters describe the implementation details - the language used, the libraries, database schema, and user manual.
Styles APA, Harvard, Vancouver, ISO, etc.
50

Brnka, Radim. « Využití umělé inteligence na kapitálových trzích ». Master's thesis, Vysoké učení technické v Brně. Fakulta podnikatelská, 2012. http://www.nusl.cz/ntk/nusl-223594.

Texte intégral
Résumé :
The thesis deals with the design and optimization of artificial neural networks (specifically nonlinear autoregressive networks) and their subsequent usage in predictive application of stock market time series.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie