Thèses sur le sujet « Basé sur la route »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Basé sur la route.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Basé sur la route ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Lahlou, Omar. « Routage multi-chemin basé sur la fiabilité des routes dans les réseaux mobiles Ad Hoc ». Mémoire, Université de Sherbrooke, 2005. http://savoirs.usherbrooke.ca/handle/11143/1286.

Texte intégral
Résumé :
La prolifération des unités mobiles de calcul et de communication (comme: les téléphones cellulaires et les assistants PDA) et l'accroissement de la popularité des applications multimédia rendent le support de la qualité de service (QoS) dans les réseaux sans fil en général et les MANET en particulier une tâche incontournable. C'est pourquoi, différents protocoles de QoS ont été développés dans la littérature pour les réseaux ad hoc, permettant de garantir les ressources réseaux comme la bande passante et le délai de transfert. Par ailleurs, assurer la QoS dans un environnement mobile comme celui des réseaux ad hoc est très délicat. Cependant, la mobilité aléatoire et imprévue peut nuire la continuité de service et la rendre extrêmement difficile voir même impossible. Il est légitime donc, de considérer la fiabilité des routes comme étant la contrainte de QoS principale à prendre en compte. C'est dans ce contexte qu'une nouvelle métrique de QoS a été développée qui est basée sur le concept de confiance (Trust). Cette métrique est nommée la stabilité bout en bout. Dans cet ouvrage, un nouveau protocole de routage multi-chemin basé essentiellement sur la fiabilité des routes sera présenté. Il s'agit du protocole MSBR (Multipath Stability Based Routing). Ce protocole de QoS a pour but de rechercher et maintenir les routes disjointes qui satisfont le degré de stabilité et la bande passante exigés par l'application. L'étude de simulation menée a démontré la fiabilité et la stabilité des routes découvertes par MSBR par rapport à d'autre protocole au mieux comme ABR. L'étude a prouvé également l'efficacité du protocole MSBR tant au niveau taux de réception de donnée que de délai de transfert bout en bout, spécialement dans les conditions de trafics denses et de débits élevés.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Nguyen, Duy Tuyen. « Approach for a Global Route-Based Energy Management System forElectric Vehicles with a Hybrid Energy Storage System ». Electronic Thesis or Diss., Bourgogne Franche-Comté, 2023. http://www.theses.fr/2023UBFCA014.

Texte intégral
Résumé :
La recherche et le développement dans le domaine des voitures électriques ont commencé à mettre l'accent sur l'utilisation de batteries et de supercondensateurs. Un système combinant batteries et supercondensateurs peut s'avérer avantageux en raison des avantages complémentaires offerts par les deux systèmes, notamment une densité d'énergie et une densité de puissance élevées. Un système intelligent de gestion de l'énergie, également appelé EMS, est nécessaire pour exploiter pleinement les capacités offertes par un système de stockage d'énergie hybride (HESS). Le système de gestion électrique (EMS) est chargé de diriger le flux d'énergie électrique entre la batterie et le supercondensateur afin de garantir que l'énergie nécessaire peut être correctement distribuée à tout moment (aujourd'hui et à l'avenir). Cette fonction garantit que la puissance nécessaire peut être distribuée de manière optimale. Pour atteindre cet objectif, le système de gestion de l'énergie utilise des informations sur l'itinéraire de conduite, puis, sur la base de ces informations, il doit calculer une stratégie globale pour la distribution continue de l'énergie. La distribution régulée de l'énergie doit se faire en temps réel et être résistante aux incohérences, de sorte que l'imprévisibilité ou le manque de fiabilité dans la prédiction des événements à venir n'ait pas d'incidence grave sur le fonctionnement. Pour mettre cette idée en pratique, un système de distribution d'énergie basé sur des règles et un système de gestion prédictive de l'énergie sont mis en œuvre. Dans ce cas, la gestion de l'énergie est couplée au calcul d'une approche fondée sur des règles basées sur des données relatives à l'itinéraire à suivre, ainsi qu'à une optimisation globale dans le but de produire une stratégie spécifique à l'itinéraire. La performance du contrôle de la puissance peut être optimisée de manière à maximiser, par exemple, l'augmentation de l'efficacité énergétique ou la durée de vie de la batterie. Grâce à la séparation des fonctions, le contrôle continu de la puissance peut fonctionner en temps réel, tandis que les calculs de la stratégie de gestion de la puissance peuvent prendre plus de temps de calcul et, par conséquent, ne doivent pas être effectués en temps réel. Cela permet au contrôle continu de la puissance de fonctionner comme prévu.Dans une étape suivante, l'approche présentée a été reprise et étendue par une discrétisation de l'itinéraire. L'objectif est de segmenter l'itinéraire à parcourir en sections correspondantes en tenant compte des conditions en termes de besoins en énergie et de générer une stratégie d'exploitation qui prend en compte les différents besoins des sections individuelles de l'itinéraire sous la forme de stratégies de section, de sorte qu'une amélioration de l'efficacité peut être obtenue par rapport au système de gestion de l'énergie précédent.Les résultats indiquent qu'il est possible d'obtenir un impact considérable sur l'efficacité énergétique et/ou la durée de vie de la batterie en utilisant le système de gestion de l'énergie proposé
Both research and development in the area of electric cars have started putting a greater focus on the use of batteries and supercapacitors. A combined battery and supercapacitor system has the potential to be advantageous as a result of the complimentary benefits that are offered by the two systems, which include high energy density and high power density. An intelligent energy management system, also referred to as an EMS, is required in order to make full use of the capabilities offered by a hybrid energy storage system (HESS). The Electrical Management System (EMS) is in charge of directing the flow of electrical power between the battery and the supercapacitor in order to ensure that the necessary power can be properly distributed at all times (both currently and in the future). This function ensures that the needed power can be optimally distributed. In order to achieve this goal, the energy management system makes use of information on the driving route, then, on the basis of this information, it ought to calculate a global strategy for the continuous distribution of power. The regulated distribution of energy should take place in real time and be resistant to inconsistencies, so that unpredictability or unreliability in the prediction of upcoming events does not severely impact the functioning. In order to put the idea into practice, a rule-based power distribution and a predictive energy management system are both put in work. In this case, energy management is coupled with the calculation of a rule-based approach based on data about the route that is to be driven alongside with a global optimization for the objective of producing a route-specific strategy. The performance of the power control may be optimized in such a way that it maximizes, for example, the increase in energy efficiency or the lifespan of the battery. Because of the separation of functions, the continuous power control is able to operate in real time, while the calculations of the power management strategy can take more computing time and, as a result, do not have to be carried out in real time. This frees up the continuous power control to work as intended.In a next step, the presented approach was taken and extended by a route discretization. The objective is to segment the route to be driven into corresponding sections considering the condition in terms of power requirements and to generate an operating strategy that takes into account the different requirements of the individual route sections in the form of section strategies, so that an improvement in efficiency can be achieved compared to the previous energy management system.The findings indicate that a considerable impact on the energy efficiency and/or battery lifespan can be obtained by using the proposed EMS
Styles APA, Harvard, Vancouver, ISO, etc.
3

Geraudie, Vincent. « Système d'aide à la conduite des procédés viticoles et oenologiques, basé sur l'utilisation d'un capteur piéton de suivi de maturité ». Montpellier SupAgro, 2009. http://www.theses.fr/2009NSAM0025.

Texte intégral
Résumé :
L’UMR – ITAP du Cemagref de Montpellier et la société PELLENC S. A. Développent conjointement un système de mesure par spectroscopie proche infrarouge permettant de suivre, de manière non destructive, certains critères de maturité du raisin (brevet en cours de dépôt). Ces critères sont : les teneurs en sucre, en anthocyanes et en eau ainsi que l’acidité totale. L’objectif de ces travaux est de prédire la courbe d’évolution « la plus probable » de ces critères de maturité, à partir des premières mesures recueillies grâce à ce capteur, tout en tenant compte des connaissances et hypothèses faites par le viticulteur. Grâce à ces prédictions, le système permet d’approcher la date des vendanges en fonction des hypothèses et des objectifs du viticulteur. Chaque courbe est modélisée par une fonction explicite pourvue de paramètres spécifiques. Les fonctions retenues ont un nombre de paramètres intentionnellement réduit pour des raisons d’interprétabilité. La méthode développée dans le cadre de cette thèse a donc pour but d’estimer les paramètres de ces fonctions, à partir des jeux de mesures et des connaissances et hypothèses du viticulteur, ces deux sources d’informations étant entachées d’incertitudes. Prises indépendamment, ces deux sources d’informations permettent d’obtenir la valeur la plus probable des paramètres ; les mesures en utilisant les techniques d’ajustement de modèle, les connaissances et hypothèses en utilisant celles des systèmes à base de règles. Néanmoins, la précision avec laquelle les paramètres sont estimés à partir des mesures est fonction de leur nombre et surtout de leur répartition sur la période de maturation. Les courbes de maturation ne sont que partiellement connues alors que les fonctions sont construites pour décrire toute cette période. L’imprécision des paramètres estimés peut donc être considérable. De la même manière, l’estimation des paramètres à partir des connaissances et hypothèses du viticulteur représente des conditions standards qu’il faut pouvoir ajuster aux conditions réelles. L’utilisation d’un système basé sur la fusion de ces deux techniques d’estimation des paramètres (ajustement à partir des mesures et ajustement à partir des connaissances et hypothèses) permet de combler les faiblesses de chacune : le manque de données de suivi est complété par des informations issues des connaissances et hypothèses du viticulteur. Les principaux verrous scientifiques levés au cours du développement de cette méthode sont : l’estimation de paramètres en utilisant simultanément différentes sources d’informations (les mesures et les connaissances et hypothèses du viticulteur), la prise en compte des incertitudes entachant ces informations et leur propagation sur la courbe résultat. Les applications directes de ces travaux se font sur le raisin mais les méthodes développées au cours de cette thèse sont facilement transposables à d’autres domaines.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Mykhailenko, Hlib. « Partitionnement réparti basé sur les sommets ». Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4042/document.

Texte intégral
Résumé :
Pour traiter un graphe de manière répartie, le partitionnement est une étape préliminaire importante car elle influence de manière significative le temps final d’exécutions. Dans cette thèse nous étudions le problème du partitionnement réparti de graphe. Des travaux récents ont montré qu’une approche basée sur le partitionnement des sommets plutôt que des arêtes offre de meilleures performances pour les graphes de type power-laws qui sont courant dans les données réelles. Dans un premier temps nous avons étudié les différentes métriques utilisées pour évaluer la qualité d’un partitionnement. Ensuite nous avons analysé et comparé plusieurs logiciels d’analyse de grands graphes (Hadoop, Giraph, Giraph++, Distributed GrahpLab et PowerGraph), les comparant `a une solution très populaire actuellement, Spark et son API de traitement de graphe appelée GraphX. Nous présentons les algorithmes de partitionnement les plus récents et introduisons une classification. En étudiant les différentes publications, nous arrivons à la conclusion qu’il n’est pas possible de comparer la performance relative de tous ces algorithmes. Nous avons donc décidé de les implémenter afin de les comparer expérimentalement. Les résultats obtenus montrent qu’un partitionneur de type Hybrid-Cut offre les meilleures performances. Dans un deuxième temps, nous étudions comment il est possible de prédire la qualité d’un partitionnement avant d’effectivement traiter le graphe. Pour cela, nous avons effectué de nombreuses expérimentations avec GraphX et effectué une analyse statistique précise des résultats en utilisation un modèle de régression linéaire. Nos expérimentations montrent que les métriques de communication sont de bons indicateurs de la performance. Enfin, nous proposons un environnement de partitionnement réparti basé sur du recuit simulé qui peut être utilisé pour optimiser une large partie des métriques de partitionnement. Nous fournissons des conditions suffisantes pour assurer la convergence vers l’optimum et discutons des métriques pouvant être effectivement optimisées de manière répartie. Nous avons implémenté cet algorithme dans GraphX et comparé ses performances avec JA-BE-JA-VC. Nous montrons que notre stratégie amène a` des améliorations significatives
In distributed graph computation, graph partitioning is an important preliminary step because the computation time can significantly depend on how the graph has been split among the different executors. In this thesis we explore the graph partitioning problem. Recently, edge partitioning approach has been advocated as a better approach to process graphs with a power-law degree distribution, which are very common in real-world datasets. That is why we focus on edge partition- ing approach. We start by an overview of existing metrics, to evaluate the quality of the graph partitioning. We briefly study existing graph processing systems: Hadoop, Giraph, Giraph++, Distributed GrahpLab, and PowerGraph with their key features. Next, we compare them to Spark, a popular big-data processing framework with its graph processing APIs — GraphX. We provide an overview of existing edge partitioning algorithms and introduce partitioner classification. We conclude that, based only on published work, it is not possible to draw a clear conclusion about the relative performances of these partitioners. For this reason, we have experimentally compared all the edge partitioners currently avail- able for GraphX. Results suggest that Hybrid-Cut partitioner provides the best performance. We then study how it is possible to evaluate the quality of a parti- tion before running a computation. To this purpose, we carry experiments with GraphX and we perform an accurate statistical analysis using a linear regression model. Our experimental results show that communication metrics like vertex-cut and communication cost are effective predictors in most of the cases. Finally, we propose a framework for distributed edge partitioning based on distributed simulated annealing which can be used to optimize a large family of partitioning metrics. We provide sufficient conditions for convergence to the optimum and discuss which metrics can be efficiently optimized in a distributed way. We implemented our framework with GraphX and performed a comparison with JA-BE-JA-VC, a state-of-the-art partitioner that inspired our approach. We show that our approach can provide significant improvements
Styles APA, Harvard, Vancouver, ISO, etc.
5

Knotek, Michal. « Diagnostic de fautes basé sur l'analyse temporelle ». Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00110429.

Texte intégral
Résumé :
Dans le domaine de la sûreté de fonctionnement, le diagnostic joue
un rôle primordial dans l'amélioration de la disponibilité opérationnel le
des équipements. Dans les systèmes industriels, une part importante
(jusqu'à 80%) est consacrée à la maintenance, test et diagnostic. Pour
des systèmes complexes, la résolution des problèmes liés au diagnostic
et d'une manière générale de la supervision nécessite la mise en oeu-
vre d'une approche générique. Le diagnostic concerne les deux phases
indissociables de détection et de localisation. Dans cette thèse nous
proposons une approche dynamique de diagnostic pour les systèmes à
événements discrets. L'approche proposée basée sur l'exploitation du
temps, est applicable à tout système dont l'évolution dynamique dépend
non seulement de l'ordre des événements discrets mais aussi de la durée
des tâches associées comme pour les processus de communication ou les
processus batch. Dans cette thèse, le diagnostic des fautes est réalisé
grâce à l'implémentation d'un modèle basé sur l'utilisation des auto-
mates temporisés. L'objectif est de concevoir un observateur pour un
système donné, qui permet de détecter et localiser les éventuel les dé-
fail lances du procédé. Cet observateur est appelé “diagnoser”. Une
défail lance est constatée lorsque le séquencement temporel en sortie est
incorrect. Nous présentons donc les différentes étapes de la démarche
de diagnostic : la construction du diagnoser, la vérification du modèle
ainsi qu'une l'application de la démarche sur un exemple réel avec son
extension aux systèmes hybrides.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Feliachi, Abderrahmane. « Test basé sur la sémantique pour Circus ». Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00821836.

Texte intégral
Résumé :
Le travail présenté dans cette thèse est une contribution aux méthodes formelles de spécification et de vérification. Les spécifications formelles sont utilisées pour décrire un logiciel, ou plus généralement un système, d'une manière mathématique sans ambiguïté. Des techniques de vérification formelle sont définies sur la base de ces spécifications afin d'assurer l'exactitude d'un système donné. Cependant, les méthodes formelles ne sont souvent pas pratiques et facile à utiliser dans des systèmes réels. L'une des raisons est que de nombreux formalismes de spécification ne sont pas assez riches pour couvrir à la fois les exigences orientées données et orientées comportement. Certains langages de spécification ont été proposés pour couvrir ce genre d'exigences. Le langage Circus se distingue parmi ces langues par une syntaxe et une sémantique riche et complètement intégrées.L'objectif de cette thèse est de fournir un cadre formel pour la spécification et la vérification de systèmes complexes. Les spécifications sont écrites en Circus et la vérification est effectuée soit par des tests ou par des preuves de théorèmes. Des environnements similaires de spécification et de vérification ont déjà été proposés dans la littérature. Une spécificité de notre approche est de combiner des preuves de théorème avec la génération de test. En outre, la plupart des méthodes de génération de tests sont basés sur une caractérisation syntaxique des langages étudiés. Notre environnement est différent car il est basé sur la sémantique dénotationnelle et opérationnelle de Circus. L'assistant de preuves Isabelle/HOL constitue la plateforme formelle au-dessus de laquelle nous avons construit notre environnement de spécification et de vérification.La première contribution principale de notre travail est l'environnement formel de spécification et de preuve Isabelle/Circus, basé sur la sémantique dénotationnelle de Circus. Sur la base d'Isabelle/HOL nous avons fourni une intégration vérifiée d'UTP, la base de la sémantique de Circus. Cette intégration est utilisée pour formaliser la sémantique dénotationnelle du langage Circus. L'environnement Isabelle/Circus associe à cette sémantique des outils de parsing qui aident à écrire des spécifications Circus. Le support de preuve d'Isabelle/HOL peut être utilisé directement pour raisonner sur ces spécifications grâce à la représentation superficielle de la sémantique (shallow embedding). Nous présentons une application de l'environnement à des preuves de raffinement sur des processus Circus (impliquant à la fois des données et des aspects comportementaux).La deuxième contribution est l'environnement de test CirTA construit au-dessus d'Isabelle/Circus. Cet environnement fournit deux tactiques de génération de tests symboliques qui permettent la vérification de deux notions de raffinement: l'inclusion des traces et la réduction de blocages. L'environnement est basé sur une formalisation symbolique de la sémantique opérationnelle de Circus avec Isabelle/Circus. Plusieurs définitions symboliques et tactiques de génération de test sont définies dans le cadre de CirTA. L'infrastructure formelle permet de représenter explicitement les théories de test ainsi que les hypothèses de sélection de test. Des techniques de preuve et de calculs symboliques sont la base des tactiques de génération de test. L'environnement de génération de test a été utilisé dans une étude de cas pour tester un système existant de contrôle de message. Une spécification du système est écrite en Circus, et est utilisé pour générer des tests pour les deux relations de conformité définies pour Circus. Les tests sont ensuite compilés sous forme de méthodes de test JUnit qui sont ensuite exécutées sur une implémentation Java du système étudié.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Garcia, Emmanuel. « Tatouage d'objets 3D basé sur la texture ». Nice, 2004. http://www.theses.fr/2004NICE4025.

Texte intégral
Résumé :
Tous les algorithmes de tatouage d'objets 3D développés à ce jour ont pour but de protéger soit les données informatiques décrivant la géométrie d'un objet 3D, soit la forme géométrique intrinsèque d'un objet 3D. Partant de l'observation que ces méthodes ne peuvent protéger l'utilisation des objets 3D en terme de représentation visuelle, nous proposons une approche radicalement différente, basée sur la texture. L'idée est de tatouer la texture d'un objet 3D et d'être capable d'extraire le tatouage de n'importe quelle représentation 2D de l'objet. Cette méthode procède par la reconstruction de l'image de texture de l'objet 3D à partir d'une vue 2D donnée. A cet effet les paramètres de rendu doivent être connus ou estimés. Après l'évaluation de notre algorithme en environnement contrôlé nous proposons donc un algorithme de recalage projectif permettant d'estimer avec précision la projection utilisée pour produire une vue 2D donnée. La dernière partie de la thèse présente un algorithme de dissimulation des données géométriques d'un objet 3D dans l'image de texture associée à cet objet. L'orginalité de cet algorithme par rapport aux autres algorithmes de stéganographie est que l'information à cacher est intimement liée à l'information support. Nous voulons conserver ce lien de cohérence spatiale, en même temps qu'assurer une dégradation progressive de l'information cachée lorsque l'information support se dégrade. Ceci est réalisé par l'intermédiaire d'une représentation spatio-fréquentielle de la géométrie et de la texture, lesquelles sont toutes deux représentées par une fonction des coordonnées cylindriques
The goal of all current 3D object watermarking algorithms is to protect either the computer data representing an object's geometry or the intrinsic shape of a 3D object. Observing that these methods cannot protect the use of 3D objects in terms of visual representation, we propose a completely different approach, based on the texture of 3D objects. The idea is to watermark the texture of a 3D object and then be able to retrieve the watermark from any 2D representation of the object. This method works by reconstructing the object's texture from a given 2D view of it. For this, the rendering parameters must be known or estimated. After evaluating our algorithm in a controlled environment we thus propose a projective registration algorithm allowing us to accurately estimate the perspective projection used to produce a given 2D view. The last part of this thesis presents an algorithm for hiding the geometry of a 3D object into its texture image. The originality of this data-hiding algorithm is that the hidden information is intimately linked to the host information. We want to preserve this link of spatial coherence as well as ensure that the retrieved data degrades progressively when the host information is degraded. This is achieved through a spatio-frequential representation of geometry and texture, which are both represented as a function of cylindrical coordinates
Styles APA, Harvard, Vancouver, ISO, etc.
8

Ma, Tai-Yu. « Modèle dynamique de transport basé sur les activités ». Phd thesis, Ecole des Ponts ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003309.

Texte intégral
Résumé :
Le travail de recherche porte sur deux thèmes: 1. développement d'un modèle dynamique multimodal basé sur les activités ; 2. développement de méthodes de résolution de l'équilibre du réseau multimodal dynamique. Nous proposons un modèle dynamique multimodal simulant l'enchaînement des déplacements basé sur les activités. Deux nouvelles méthodes de résolution du problème d'équilibre du réseau sont proposées : 1. l'algorithme de colonie de fourmis en discrétisation temporelle ; 2. la méthode de l'Entropie Relative. Cette dernière constitue une avancée méthodologique qui considère que l'équilibre du réseau est un événement rare parmi les états possibles du réseau. Pour réduire les besoins en moyens de calcul pour l'application dans un grand réseau, nous simulons les voyageurs par paquets en nous appuyant sur un nouveau modèle macroscopique de trafic en coordonnées Lagrangiennnes. Ce modèle permet de décrire la propagation des paquets conformément au modèle macroscopique du premier ordre.
Styles APA, Harvard, Vancouver, ISO, etc.
9

Silveira, Netto Nunes Maria Augusta. « Système de Recommendation basé sur Traits de Personnalité ». Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2008. http://tel.archives-ouvertes.fr/tel-00348370.

Texte intégral
Résumé :
Internet est une source énorme de produits et services disponibles pour les utilisateurs. Il existe un grand effort de la part des chercheurs pour créer des stratégies destinées à personnaliser ces produits/services pour chaque utilisateur. Cette personnalisation peut être fournie par les Systèmes de Recommandation capables de répertorier les préférences des utilisateurs avec des produits ou services spécifiques. Les chercheurs dans la cadre de la psychologie, de la neurologie et de l'informatique affective sont accord pour affirmer que le raisonnement humain et la prise de décision dans les systèmes informatiques sont difficilement affectées par les aspects psychologiques. Ainsi, pour maintenir le même niveau de personnalisation assuré par les humains, les ordinateurs devraient " raisonner " de la même façon, en prenant en compte les aspects psychologiques des utilisateurs. Néanmoins, ces aspects psychologiques ne sont malheureusement pas considérés dans la plupart des modèles de Profils d'Utilisateurs utilisés dans les Systèmes de Recommandation. Par conséquent, les Systèmes de Recommandation existants n'utilisent pas les caractéristiques psychologiques comme les traits de Personnalité au cours du procédé de prise de décisions caractéristiques. Dans cette thèse, nous proposons d'implanter des traits de Personnalité dans les Profils d'utilisateurs dans le but d'être capable d'obtenir quelques éléments sur l'utilisation de ces aspects psychologiques dans les Systèmes de Recommandation peuvent être cohérents et efficaces.
Styles APA, Harvard, Vancouver, ISO, etc.
10

Chihaoui, Takwa. « Système d'identification de personnes basé sur la rétine ». Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1145/document.

Texte intégral
Résumé :
Notre travail s’inscrit dans le cadre de la biométrie par la rétine. La rétine est la couche sensorielle de l’œil, elle présente une texture riche et unique même chez les jumeaux. Ses propriétés ont fait de la biométrie par la rétine un axe de recherche actif. En effet, de nombreuses méthodes ont été proposées pour les différentes étapes de la méthode biométrique allant du prétraitement de l’image rétinienne à son analyse, en passant par sa caractérisation, afin d’identifier et authentifier un individu. Nous nous intéressons dans ces travaux de thèse, à l’étude, la conception, le développement et l’évaluation d’une nouvelle méthode biométrique basée sur la rétine. Notre première contribution réside dans la conception d’une méthode d’analyse d’image rétinienne saine et pathologique, suivie d’une sélection d’une région d’intérêt autour du disque optique. Cette méthode améliore la qualité de l’image rétinienne et extrait une région d’intérêt la plus stable de la rétine afin de maintenir une densité d’information satisfaisante, pour assurer une meilleure qualité de reconnaissance. Notre deuxième contribution porte sur la proposition d’une nouvelle méthode d’extraction de caractéristiques locales basée sur le descripteur standard SIFT. Elle applique une nouvelle approche reposant sur la suppression des points d’intérêt non informatifs extraits par le descripteur standard SIFT. Cette nouvelle méthode d’extraction des caractéristiques locales réduit le nombre des points d’intérêt redondants tout en maintenant la qualité de la description. Nous avons validé, la méthode biométrique proposée sur différentes bases comprenant des images saines et pathologiques. Les résultats obtenus montrent des performances encourageantes. Ces résultats indiquent, que la méthode que nous avons proposée, localise correctement la région d’intérêt rétinienne. En mode identification, un taux d’identification correcte d’environ 99.8% est atteint. En mode vérification, nous avons obtenu un taux FRR de 0.12% quant aux taux FAR et EER (erreur), ils sont de 0%. L’étude comparative a montré que notre méthode est plus discriminative que d’autres méthodes de l’état de l’art, notamment celles basées sur la segmentation et l’extraction de l’arbre vasculaire
Our work is part of the retina biometrics. The retina is the sensory layer of the eye; it has a rich and unique texture even in twins. Its properties have made the retina biometrics an active research area. Indeed, numerous methods have been proposed for the various stages of the biometric method, from pretreatment of the retinal image to its analysis, through its characterization, in order to identify and authenticate an individual. We are interested in this work in these thesis works, the study, design, development and evaluation of a new biometric method based on the retina. This thesis presents our contributions for each stage of the proposed biometric method. Our first contribution lies in the proposition of a healthy and pathological retinal image analysis method, followed by a selection of a region of interest around the optical disc. This method improves the quality of the retinal image and extracts a more stable region of interest from the retina to maintain a satisfactory information density, to ensure a better quality of recognition. Our second contribution consists in proposing a new method for extracting local characteristics based on the standard SIFT descriptor. It applies a new method based on the removal of non-informative points of interest extracted by the standard SIFT descriptor. This new method of extracting local features reduces the number of redundant points of interest while maintaining the quality of the description. We validated, the proposed biometric method on different bases including healthy and pathological images. This biometric method has yielded encouraging results on healthy and pathological retinal images. The results obtained show encouraging performances. These results indicate that the method we have proposed, correctly locates the retinal region of interest. In identification mode, a correct identification rate of approximately 99.8% is reached. In verification mode, we obtained 0.12% as FRR error rate and 0% for the FAR and EER error rates. The comparative study showed that our method is more discriminative than other state-of-the-art methods, especially those based on segmentation and extraction of the vascular tree
Styles APA, Harvard, Vancouver, ISO, etc.
11

Ngo, Ba Hung. « Système de fichiers sémantique basé sur le contexte ». Evry, Institut national des télécommunications, 2009. http://www.theses.fr/2009TELE0008.

Texte intégral
Résumé :
Retrouver facilement et a posteriori des informations personnelles (fichiers, pages de Web, photos, courriels) est, de nos jours, indispensable pour l'ensemble des utilisateurs de bureaux informatiques. Malheureusement, les utilisateurs ne disposent pas de méthode unifié pour retrouver ces informations en provenance de multiples sources. Ils doivent jongler entre navigation dans une arborescence de fichiers traditionnelle et recherche à travers des moteurs d'indexation et de recherche sur le bureau informatique. En complément, les systèmes d'étiquetage sont de plus en plus utilisés pour faciliter la recherche de ressources sur Internet. Parmi les caractéristiques de fichiers personnels (propriétés, contenu, contexte) exploitées par les modèles de recherche de fichiers personnels, les contextes de travail des utilisateurs sont une caractéristique pertinente pour aider un utilisateur à retrouver ses fichiers personnels avec succès. Cette thèse propose un modèle de recherche de fichiers personnels, intitulé recherche de fichiers personnels par contexte, pour un système de fichiers sémantique. Un contexte est un ensemble d'étiquettes que l'utilisateur associe au fichier. Pour retrouver un fichier personnel, un utilisateur décrit le contexte de travail, qu'il pense lié au fichier. Le système calcule les contextes existants les plus proches de la requête et fournit une réponse qui peut être raffinée par navigation. Nous développons notre modèle en améliorant le modèle d'étiquetage traditionnel. À partir d'une relation entre étiquettes et de la popularité des étiquettes, nous proposons des algorithmes permettant d'organiser les étiquettes créées par un utilisateur dans un graphe orienté acyclique (DAGoT- Directed Acyclic Graph of Tags en anglais). Ce DAGoT est utilisé comme modèle de données de base pour mettre en œuvre le modèle de recherche de fichiers personnels par contexte. Ce graphe est utilisé par nos algorithmes pour reconnaître les contextes de travail associés aux fichiers personnels, guider l'utilisateur pour reconstruire un contexte de travail et raffiner les requêtes de recherche de fichiers personnels, retrouver de fichiers personnels par contexte
Organizing the information that we call personal files such as files in a home directory, web pages found on the Internet, images, emails for later revisiting is currently required by many computer users. Several information retrieval models are proposed to fullfil this requirement. Each model is characterized by the types of personal files, their organization and the searching method used. Traditional file systems let a user organize his files into a directory tree and retrieve them later by browsing the directory tree. Desktop seach tools such as Google Desktop or Beagle automatically index file properties and file content (keywords) to provide the user with file retrieval by querying on file properties or on file content. Semantic file systems propose a searching method that combines querying with browsing to give to the users the advantages of both searching methods. For informations on the Internet, tagging systems are more and more used to facilitate the re-finding of these Internet ressources. Among personal file characteristics (properties, content, context) exploited by the above retrieval models, the working context of the user has been proved to be relevant to help a user to successfully retrieve his personal files. This work proposes a model for personal file retrieval, called « context-based model for personal file retrieval ». Our model allows a user to associate his personal files with a working context using tags. To retrieve a personal file, the user must describe the working context corresponding to each file. The searching method in our model gives to the users the advantages of both searching methods: browsing and querying. We develop our model by improving traditional tagging models. Based on tag relationships and popularities, we organize tags created by a user into a directed acyclic graph (DAGoT). This DAGoT is used as the basic data model to realize our context-based model for personal file retrieval. We use this graph to recognize working contexts associated to personal files, guide a user to reconstruct his working contexts, refine the searching requests, and retrieve personal files by context
Styles APA, Harvard, Vancouver, ISO, etc.
12

Ma, Ta-Yu. « Modèle dynamique de transport basé sur les activités ». Marne-la-vallée, ENPC, 2007. https://pastel.archives-ouvertes.fr/pastel-00003309.

Texte intégral
Résumé :
Le travail de recherche porte sur deux thèmes: 1. Développement d’un modèle dynamique multimodal basé sur les activités ; 2. Développement de méthodes de résolution de l’équilibre du réseau multimodal dynamique. Nous proposons un modèle dynamique multimodal simulant l’enchaînement des déplacements basé sur les activités. Deux nouvelles méthodes de résolution du problème d’équilibre du réseau sont proposées : 1. L’algorithme de colonie de fourmis en discrétisation temporelle ; 2. La méthode de l’Entropie Relative. Cette dernière constitue une avancée méthodologique qui considère que l’équilibre du réseau est un événement rare parmi les états possibles du réseau. Pour réduire les besoins en moyens de calcul pour l’application dans un grand réseau, nous simulons les voyageurs par paquets en nous appuyant sur un nouveau modèle macroscopique de trafic en coordonnées Lagrangiennnes. Ce modèle permet de décrire la propagation des paquets conformément au modèle macroscopique du premier ordre.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Leborgne, Aurélie. « Appariement de formes basé sur une squelettisation hiérarchique ». Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEI075/document.

Texte intégral
Résumé :
Les travaux effectués durant cette thèse portent sur l’appariement de formes planes basé sur une squelettisation hiérarchique. Dans un premier temps, nous avons abordé la création d’un squelette de forme grâce à un algorithme associant des outils de la géométrie discrète et des filtres. Cette association permet d’acquérir un squelette regroupant les propriétés désirées dans le cadre de l’appariement. Néanmoins, le squelette obtenu reste une représentation de la forme ne différenciant pas les branches représentant l’allure générale de celles représentant un détail de la forme. Or, lors de l’appariement, il semble plus intéressant d’associer des branches ayant le même ordre d’importance, mais aussi de donner plus de poids aux associations décrivant un aspect global des formes. Notre deuxième contribution porte sur la résolution de ce problème. Elle concerne donc la hiérarchisation des branches du squelette, précédemment créé, en leur attribuant une pondération reflétant leur importance dans la forme. À cet effet, nous lissons progressivement une forme et étudions la persistance des branches pour leur attribuer un poids. L’ultime étape consiste donc à apparier les formes grâce à leur squelette hiérarchique modélisé par un hypergraphe. En d’autres termes, nous associons les branches deux à deux pour déterminer une mesure de dissimilarité entre deux formes. Pour ce faire, nous prenons en compte la géométrie des formes, la position relative des différentes parties des formes ainsi que de leur importance
The works performed during this thesis focuses on the matching of planar shapes based on a hierarchical skeletonisation. First, we approached the creation of a shape skeleton using an algorithm combining the tools of discrete geometry and filters. This combination allows to acquire a skeleton gathering the desired properties in the context of matching. Nevertheless, the resulting skeleton remains a representation of the shape, which does not differentiate branches representing the general shape of those coming from a detail of the shape. But when matching, it seems more interesting to pair branches of the same order of importance, but also to give more weight to associations describing an overall appearance of shapes. Our second contribution focuses on solving this problem. It concerns the prioritization of skeletal branches, previously created by assigning a weight reflecting their importance in shape. To this end, we gradually smooth a shape and study the persistence of branches to assign a weight. The final step is to match the shapes with their hierarchical skeleton modeled as a hypergraph. In other words, we associate the branches two by two to determine a dissimilarity measure between two shapes. To do this, we take into account the geometry of the shapes, the relative position of different parts of the shapes and their importance
Styles APA, Harvard, Vancouver, ISO, etc.
14

Zerioul, Lounis. « Modélisation comportementale d'un réseau sur puce basé sur des interconnexions RF ». Thesis, Cergy-Pontoise, 2015. http://www.theses.fr/2015CERG0776/document.

Texte intégral
Résumé :
Le développement des systèmes multiprocesseurs intégrés sur puce (MPSoC) répond au besoin grandissant des architectures de calcul intensif. En revanche, l'évolution de leurs performances est entravée par leurs réseaux de communication sur puce (NoC) à cause de leur consommation d'énergie ainsi que du retard. C'est dans ce contexte que les NoC à base d'interconnexions RF et filaires (RFNoC) ont émergé. Afin de gérer au mieux et d'optimiser la conception d'un RFNoC, il est indispensable de développer une plateforme de simulation intégrant à la fois des circuits analogiques et numériques.Dans un premier temps, la simulation temporelle d'un RFNoC avec des composants dont les modèles sont idéaux est utilisée pour optimiser l'allocation des ressources spectrales disponibles. Le cas échéant, nous proposons des solutions pour améliorer la qualité de signal transmis. Dans un deuxième temps, nous avons développé en VHDL-AMS des modèles comportementaux et précis de chacun des composants du RFNoC. Les modèles de l'amplificateur faible bruit (LNA) et du mélangeur, prennent en compte les paramètres concernant, l'amplification, les non-linéarités, le bruit et la bande passante. Le modèle de l'oscillateur local considère les paramètresconventionnels, notamment le bruit de phase. Quant à la ligne de transmission, un modèle fréquentiel précis, incluant l'effet de peau est adapté pour les simulations temporelles. Ensuite, l'impact des paramètres des composants sur les performances du RFNoC est évalué afin d'anticiper les contraintes qui s'imposeront lors de la conception du RFNoC
The development of multiprocessor systems integrated on chip (MPSoC) respondsto the growing need for intensive computation systems. However, the evolutionof their performances is hampered by their communication networks on chip(NoC) due to their energy consumption and delay. It is in this context that the wired RF network on chip (RFNoC) was emerged. In order to better manage and optimize the design of an RFNoC, it is necessary to develop a simulation platform adressing both analog and digital circuits.First, a time domaine simulation of an RFNoC with components whose modelsare ideal is used to optimize the allocation of the available spectrum resources. Where appropriate, we provide solutions to improve the quality of transmitted signal. Secondly, we have developed, in VHDL-AMS, behavioral and accurate models of all RFNoC components. The models of the low noise amplifier (LNA) and the mixer take into account the parameters for the amplification, nonlinearities, noise and bandwidth. The model of the local oscillator considers the conventional parameters, including its phase noise. Concerning the transmission line, an accurate frequency model, including the skin effect is adapted for time domaine simulations. Then, the impact of component parameters on RFNoC performances is evaluatedto anticipate constraints of the RFNoC design
Styles APA, Harvard, Vancouver, ISO, etc.
15

Berkani, Mohammed. « Le calcul fonctionnel basé sur la transformée de Fourier ». Doctoral thesis, Universite Libre de Bruxelles, 1989. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/213274.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
16

Ziani, Mehdi. « Descripteur de forme basé sur la théorie de Morse ». Mémoire, Université de Sherbrooke, 2011. http://savoirs.usherbrooke.ca/handle/11143/4933.

Texte intégral
Résumé :
Le principal objectif de ce mémoire de maîtrise est la conception et la validation d'un système de description et d'analyse de la forme, adapté pour tout ensemble de données multidimensionnel. Après avoir étudié les différentes techniques utilisées précédemment dans ce domaine, nous avons démontré que la combinaison de la théorie de Morse avec la topologie algébrique et plus spécifiquement de l'homologie, était fortement pertinente pour construire un descripteur performant de formes pouvant être modélisées par des variétés de Morse. Notre descripteur caractérise la forme pour toutes les paires ([M], [phi]), où [M] est une variété fermée et lisse et [phi] est la fonction de Morse définie sur [M]. Cette description fait, ainsi, le lien entre l'évolution des points critiques de [phi] et les changements d'homologie relative sur la forme étudiée. Ces changements sont exprimés en termes de paires de niveaux de [phi] sur [M]. Lors de la validation de ce descripteur par la conception d'un système de recherche d'images par le contenu, plusieurs expériences ont été faites. De nouvelles mesures de distances ont été appliquées et une stratégie de combinaison des fonctions de Morse a donné des résultats expérimentaux très concluants.
Styles APA, Harvard, Vancouver, ISO, etc.
17

Cardot, Anaïs. « Rejeu basé sur des règles de transformation de graphes ». Thesis, Poitiers, 2019. http://www.theses.fr/2019POIT2254.

Texte intégral
Résumé :
Réaliser des variations d'un même modèle est un besoin en expansion dans de nombreux domaines de modélisation (architecture, archéologie, CAO, etc.). Mais la production manuelle de ces variations est fastidieuse, il faut donc faire appel à des techniques permettant de rejouer automatiquement tout ou partie du processus de construction du modèle, après spécification des modifications. La majorité des approches dédiées à la réalisation du rejeu sont basées sur un système de modélisation paramétrique, composée d’un modèle géométrique et d’une spécification paramétrique permettant d’enregistrer la succession d’opérations l’ayant créé ainsi que leurs paramètres. On peut ensuite faire varier ces paramètres ou éditer cette liste d’opérations afin de modifier le modèle. On utilise pour cela un système de nommage persistant, introduit dans les années 90, et permettant d’identifier et d’apparier les entités d’une spécification initiale et celles d'une spécification rejouée. L’objectif de cette thèse est de proposer un système de nommage persistant général, homogène et permettant de gérer l’édition de spécification paramétriques (déplacer, ajouter et supprimer des opérations). Nous nous basons sur la bibliothèque Jerboa, qui repose sur des règles de transformation de graphes, tant pour utiliser ces règles dans la réalisation de la méthode de nommage que pour lier les notions de spécification paramétrique à ces règles de transformations de graphes. Nous décrivons ensuite comment exploiter notre méthode de nommage pour rejouer et éditer des spécifications paramétriques d’opérations, puis nous la comparons avec les approches de la littérature
In many modelling fields, such as architecture, archaeology or CAD, performing many variations of the same model is an expanding need. But building all those variations manually takes time. It is therefore needed to use automatic technics to revaluate some parts of a model, or even an entire model, after the user specifies the modifications. Most of the existing approaches dedicated to revaluating models are based on a system called parametric modelling. It is made of two parts, a geometric model and a parametric specification, which allows to record the series of operation that created the model, and the different parameters of those operations. This way, the user can change some parameters, or edit the list of operations to modify the model. To do so, we use a system called persistent naming, introduced during the 90ies, that allows us to identify and match the entities of an initial specification and the ones of a revaluated specification. In this thesis, our goal is to propose a persistent naming system that would be general, homogeneous and that would allow the user to edit a parametric specification (which means move, add, or delete some operations). We base our system on the Jerboa library, which uses graph transformation rules. This way, we will be able to use those rules to create our naming system, while also linking the notions of graph transformation rules and parametric specification. We will then describe how to use our naming method to revaluate or edit parametric specifications. Finally, we will compare our method with the other ones from the literature
Styles APA, Harvard, Vancouver, ISO, etc.
18

Nguyen, Dai Tho. « Routage basé sur des agents mobiles à déplacement aléatoire ». Compiègne, 2000. http://www.theses.fr/2000COMP1295.

Texte intégral
Résumé :
La présente thèse se situe dans le domaine de conception et analyse de performances d'algorithmes distribués. Plus précisément, nous nous intéressons à l'alliance entre le paradigme des agents mobiles et les méthodes de marches aléatoires pour résoudre un problème récurrent dans les réseaux : le routage de plus court chemin. Nous élaborons deux algorithmes aléatoires, l'un reposant sur des agents indépendants, et l'autre sur des agents coopératifs. Tous les deux sont particulièrement adaptés aux réseaux mobiles sans fil, mais à des degrés différents. La taille des agents coopératifs est plus grande que celle des agents indépendants. En échange, nous montrons que l'aspect coopératif des agents mobiles permet d'accélérer la convergence vers un état stable des tables de routages après des changements de topologie et de trafic du réseau
The present thesis is about the design and performance analysis of distributed algorithms. More precisely, we are interested in embedding the mobile agent paradigm and the random walk model in designing distributed shortest path routing algorithms. We work out two randomized algorithms, one relying on independent agents, and the other on cooperative agents. Both of them are particularly suited for wireless mobile networks, but at different degrees. The size of the cooperative agents is bigger than that of independent agents. Ln exchange, we show that the agent cooperation improves the system performance when dealing with topology and link cost changes
Styles APA, Harvard, Vancouver, ISO, etc.
19

Aussibal, Julien. « Rsids : un IDS distribué basé sur le framework CVSS ». Pau, 2009. http://www.theses.fr/2009PAUU3044.

Texte intégral
Résumé :
La détection d'intrusion est une méthode qui permet de garantir la notion de disponibilité dans les systèmes et réseaux informatiques. Cette disponibilité est généralement mise à mal par différentes anomalies. Ces anomalies peuvent être provoqués soit de manière légitime suite a des opérations involontaires intervenant sur ces systèmes (rupture de lien, embouteillages,. . . ), soit de manière illégitimes avec des opérations malveillantes ayant pour but de nuire à la disponibilité de ces systèmes. La mise en oeuvre d'outils recherchant ces différentes anomalies, que sont les IDS (Intrusion Dectetion System), contribuent à détecter au plus tôt ces anomalies et à les bloquer. Cette thèse nous a permis de mettre en place une nouvelle plateforme de génération d'anomalies légitimes et illégitimes. Ce travail a été réalisé dans le cadre du projet METROSEC. Cette plateforme nous a permis d'obtenir différentes captures de trafics contenant ces anomalies. Les différentes anomalies illégitimes ont été réalisées avec des outils classiques de Dénis de Service qui sont TFN2k ou encore Trinoo. Des anomalies légitimes ont aussi été réalisées sous la forme de phénomène de foules subites. L'ensemble de ces captures réelles de trafic ont été utilisées dans le cadre d'autres recherches sur la détection d'intrusion pour l'évaluation de nouvelles méthodes de détection. Dans un second temps, la mise en oeuvre d'un nouvel outil de détection nous a semblé nécessaire afin d'améliorer la qualité de détection de ces anomalies. Ce nouvel IDS distribué, appelé RSIDS (Risk Scored Intrusion Detection System), permettra de récupérer les résultats d'une multitude de sondes hétérogènes. L'utilisation de ses sondes va permettre de supprimer les risques de fausses alertes. En effet une sonde n'est pas capable de détecter l'ensemble des anomalies pouvant arriver sur un système ou un réseau. Chacune des remontées d'alertes fournies par ses sondes sera évaluée en fonction de son degré de dangerosité. Cette évaluation de la dangerosité s'appuie sur le framework CVSS (Common Vulnerability Scoring System)
Intrusion detection is a method that ensures the availability concept in systems and computer networks. This availability is generally undermined by various anomalies. These anomalies can be caused either legitimately unintended result has operations working on these systems (broken link, traffic, or. . . ), so illegitimate with malicious operations designed to undermine the availability of these systems. The implementation of these various anomalies detection tools, such as IDS (Intrusion Detection System), contribute to early identification of these anomalies and to block them. This thesis has enabled us to develop a new generation platform to generate legitimate and illegitimate anomalies. This work was carried out under the project METROSEC. This platform has enabled us to obtain various traffic captures containing these anomalies. The various illegimitate anomalies were performed with classic tools to make Denial of Service like TFN2k or Trinoo. Legitimate Anormalies were also conducted with flash crowd phenomenon. All these catch real traffic were used in further research on intrusion detection for the evaluation of new methods of detection. In a second part, the implementation of a new detection tool seems necessary to improve the quality of detection of these anomalies. This new distributed IDS, called RSIDS (Risk Scored Intrusion Detection System), will retrieve the results of a multitude of heterogeneous probes. The use of probes will remove the risk of false alarms. Indeed, a probe is not able to detect all anomalies that occur on a system or network. Each alert provided by its probes will be evaluated according to their degree of dangerousness. The assessment of dangerousness based on the framework CVSS (Common Vulnerability Scoring System)
Styles APA, Harvard, Vancouver, ISO, etc.
20

Yu, Shaohua. « Optimization models and methods for tour planning in smart urban logistics ». Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPAST045.

Texte intégral
Résumé :
La distribution urbaine désigne les activités de distribution de marchandises desservant les zones urbaines et les banlieues. Les progrès technologiques récents dans le domaine de la distribution sans personnel, ainsi que les nouvelles réglementations limitant l’utilisation des véhicules à moteur à combustion, vont modifier de manière significative la distribution urbaine de marchandises. En outre, le nouveau modèle commercial du commerce électronique apporte également de nouvelles opportunités et de nouveaux défis à la distribution urbaine de marchandises. Cette thèse se concentre sur un nouveau système de distribution visant à fournir de meilleurs services pour la distribution logistique urbaine. Nous allons tout d’abord étudier un système de livraison urbaine robotisé basé sur un fourgon qui peut transporter plusieurs robots, ce qui rend le système de distribution plus flexible et efficace. Ensuite, nous proposons d’intégrer la technologie de recharge en route et de recharge inverse dans le système de livraison urbaine robotisée par camionnette dans les opérations logistiques, afin d’économiser le temps pendant lequel les camionnettes électriques transportent les robots pour les recharger, ce qui augmente l’efficacité des systèmes de distribution. Enfin, nous incorporons les ramassages hybrides et les opérations de livraison dans le système de distribution urbaine robotisée basés sur des fourgons pour nous adapter au nouveau modèle commercial des entreprises de commerce électronique
Urban distribution refers to the distribution activities of goods serving urban areas and suburbs. Recent technological advances in unmanned distribution field, as well as new regulations limiting the use of combustion engine vehicles, will significantly change urban goods distribution. Besides, the new ecommerce business model also brings new opportunities and challenges to urban goods distribution. This thesis focuses on a novel distribution system to provide better services for urban logistics distribution. We first study a van-based robot urban delivery system and allow a van can carry multiple robot to make the distribution system more flexible. Then we incorporate en-route charging, and reverse charging technology into the van-based robot urban delivery system in logistics operations, to effectively use the time during which electric vans are carrying robots to recharge the robots, thereby increasing distribution systems’ efficiency. Finally, we incorporate hybrid pickup and delivery operations into the van-based robot urban distribution system to adapt to the new business model of e-commerce enterprises
Styles APA, Harvard, Vancouver, ISO, etc.
21

Lopez, Roxane. « D' un système de management de la qualité basé sur l'amélioration à un système de management de la qualité basé sur les connaissances ». Grenoble INPG, 2006. http://www.theses.fr/2006INPG0006.

Texte intégral
Résumé :
De nos jours les entreprises sont confrontées à une augmentation de la complexité et doiVent faire face à des changements constants dans leur environnement. Dans de telles circonstances, c'est un défi pour elles d'améliorer continuellement leurs performances. Le management de la qualité et le management des connaissances visent conjointement cet objectif. L'hypothèse de cette thèse est que l'efficacité du système de management de la qualité industrielle peut être améliorée par la création de nouvelles connaissances. Pour la vérifier, ce travail s'appuie sur une étude de cas déployée à l'usine St Jean de Maurienne du groupe Alcan, spécialisée dans la production d'aluminium; cette étude a duré quatre ans et a impliqué sept cents employés. Ce site, certifié ISO 9000 depuis 1995, a mobilisé les synergies du système de management de la qualité en place pour créer de nouvelles connaissances à l'aide d'un processus spécifique. Celui-ci a pour mission fondamentale de permettre aux employés de suggérer et d'expérimenter leurs idées d'amélioration pour résoudre les problèmes quotidiens qu'ils rencontrent; 600 nouvelles idées ont ainsi été collectées, dont 152 ont déjà été expérimentées avec une valeur ajoutée mesurable. Une étude critique de l'ensemble de la démarche et de ses résultats a conduit à des propositions d'amélioration du processus
Nowadays companies are facing an often-cited increase of their environmental complexity and dynamics that result in the necessity to cope with constant changes in their environment. Ln such circumstances it is a challenge for a company to continuously improve the efficiency of its activities. Knowledge and quality management aim this same goal. The hypothesis of this PhD is that the efficiency of the quality management system cou Id be improved by the creation of new knowledge. 50 this work focused on a case study which took piacE in an Alcan electro-metallurgy plant during four years and involved seven hundred employees. This plant has got the ISO 9001 standard since 1995 and we succeeded in using the quality synergies in order to create new knowledge thanks to a specific process. The aim of this process is to allow employees to suggest and experiment their own improvement ideas to solve daily problems. This new process allowed the suggestion of 600 new ideas, and 152 experimented ideas with a measurable added value. A critical study of the process entailed us to propose improvements
Styles APA, Harvard, Vancouver, ISO, etc.
22

Andriamasinoro, Fenintsoa. « Proposition d'un modèle d'agents hybrides basé sur la motivation naturelle ». Phd thesis, Université de la Réunion, 2003. http://tel.archives-ouvertes.fr/tel-00474542.

Texte intégral
Résumé :
La thématique principale des recherches présentées dans le présent travail concerne la modélisation de comportement d'agents informatiques hybrides au sein de Systèmes multi-agents (SMA). Un agent hybride est un agent qui dispose à la fois de comportements réactifs et de comportements cognitifs. S'inspirant à la base d'une réflexion principalement psychophysiologique du vivant, ce travail s'insère dans la problématique plus vaste de l'Intelligence artificielle distribuée et de la Vie artificielle. Partant du principe qu'un être humain, même s'il est cognitif, est aussi une espèce issue de la nature, le présent travail a pour objectif de mettre en place une architecture hybride générique d'agents artificiels dont la base du comportement est la motivation naturelle existant dans ces agents. La particularité de cette étude est que nous intégrons les concepts d'instinct, pulsion, faim, soif, etc. dans les agents cognitifs ou hybrides alors que dans la plupart des cas, ces notions ont toujours été l'apanage des modèles d'agents réactifs, particulièrement ceux basés sur les animâts. A terme, le raisonnement et les attitudes mentales ne seront donc plus les seuls facteurs à prendre en compte pour comprendre le comportement de ces agents cognitifs ou hybrides. Au niveau de l'architecture, nous obtenons ainsi à la base un modèle générique basé uniformément sur le concept de motivation naturelle et ce, quel que soit le type de l'agent étudié (réactif, cognitif, hybride). Au niveau du comportement, nous proposons de fournir un cadre hybride permettant de gérer, à un niveau générique, la sélection d'actions et plus précisément pour le présent contexte, la sélection de motivations. Le terme "générique" signifie que l'ensemble des critères fournis dans le mécanisme de sélection ne dépend pas de l'application mais permettra à l'utilisateur du système de se préoccuper au minimum des stratégies de sélection. Pour ce faire, il appartient au modèle de fournir les règles de positionnement pour chaque motivation. Sur le plan de la conception, nous adoptons un modèle issu d'un travail déjà existant dans le monde de la psychologie. Il s'agit de la pyramide du psychologue américain Abraham Maslow, portant sur les cinq besoins abstraits des humains. Le choix d'un modèle issu de l'étude du monde réel est important. Nous évitons en effet de devoir fournir des hypothèses théoriques de conception. Notre cadre d'application concerne en premier lieu une application cas d'école axée sur des agents fourrageurs qui se déplacent pour transporter des objets. Puis, dans un cadre plus réel, l'étude porte sur la simulation du comportement des paysans dans une région à Madagascar.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Brini, Asma Hedia. « Un modèle de recherche d'information basé sur les réseaux possibilistes ». Toulouse 3, 2005. http://www.theses.fr/2005TOU30224.

Texte intégral
Résumé :
Nous proposons une approche moins restrictive pour la modélisation de la pertinence dans le cadre de la Recherche d'Information (RI). Un réseau possibiliste décrit graphiquement le modèle : les documents, leurs termes d'indexation et la requête sont des variables binaires et les arcs sont quantifiés dans le cadre de la théorie des possibilités. Ce modèle répond à des propositions du type : il est plausible à un certain degré que le document constitue une bonne réponse à la requête; (ii) il est nécessaire, certain que le document répond à la requête. La première proposition vise à éliminer certains documents de la réponse ; la seconde se focalise sur les documents qui seraient pertinents. Nous avons aussi défini trois nouvelles mesures qui mesurent l'importance d'un terme dans la collection dans le but de pénaliser les documents ne contenant pas certains termes (importants) par exemple. Ces mesures sont adaptables à tous les modèles de RI. Les résultats obtenus sont encourageants
We propose an approach to Information Retrieval (IR) where relevance is flexible. The model is based on possibilistic networks where documents, index terms and query are binary variables and arcs are quantified in the theory of possibility framework. This model should provide proposition like : (i) it is plausible to a certain degree that the document is relevant ; (ii) it is necessary that the document is relevant given the query. The first kind of answer is meant to eliminate irrelevant documents (weak plausibility). The second answer focuses attention on what looks very relevant. Besides, we proposed three new discriminant factors that penalise documents not containing query important terms. These factors can be adaptable to any existing models. The results obtained show the effectiveness of our approach
Styles APA, Harvard, Vancouver, ISO, etc.
24

Raad, Hussein. « Modélisation d'un système hypermédia adaptatif basé sur la règle active ». Pau, 2002. http://www.theses.fr/2002PAUU1015.

Texte intégral
Résumé :
L'objectif de cette thèse est de contribuer à modéliser un système hypermédia adaptatif. La caractéristique essentielle de ce système est de faciliter la construction de son comportement adaptatif en se basant sur le concept de la règle active (Evénement-Condition-Action). L'avantage de ce concept, d'un côté, réside dans l'intégration de toutes les techniques d'adaptation existantes dans le système, et d'un autre côté, de permettre l'introduction facile des nouvelles stratégies d'adaptation. L'architecture de ce système est divisée en trois parties principales : la partie hypermédia classique contenant le modèle navigationnel, le modèle d'interface et les ressources multimédia; la partie adaptative contenant le modèle de l'utilisateur, le modèle du réseau sémantique, l'analyseur des événements et le spécificateur de comportement adaptatif; la partie comportementale contenant les bases des règles stratégiques associées au spécificateur de comportement adaptatif, les bases de règles navigationnelles associées au modèle navigationnel et les bases des règles d'interface associées au modèle d'interface. Ce système présente une solution excellente pour étendre un système hypermédia éducatif que nous avons conçu et implanté au sein du projet LINGUA.
Styles APA, Harvard, Vancouver, ISO, etc.
25

Saade, Mahmoud. « Etude du raisonnement temporel basé sur la résolution de contraintes ». Artois, 2008. http://www.theses.fr/2008ARTO0409.

Texte intégral
Résumé :
La représentation et le raisonnement sur les informations spatiales et temporelles est une importante tâche dans de nombreuses applications de l'Intelligence Artificielle. Ces vingt dernières années de nombreux formalismes ont été proposés pour la représentation et le raisonnement sur le temps et l'espace à base de contraintes qualitatives. Dans cette thèse, nous introduisons et étudions une définition générale de tels formalismes en considérant des relations de base d'arité quelconque. Nous réalisons également une étude générale des algorithmes et des heuristiques proposés dans ce domaine. Nous introduisons deux nouvelles notions : la notion de contraintes éligibles et celle de contraintes gelées. Nous proposons de nouveaux algorithmes afin de les traiter. Nous comparons empiriquement ces algorithmes avec les algorithmes existants. Nous décrivons également notre solveur appelé QAT (pour Qualitative Algebra Toolkit). Ce solveur est un solveur générique permettant de traiter des formalismes qualitatifs de n'importe quelle arité. Il intègre des modules spécifiques concernant les notions proposées dans cette thèse
Representing and reasoning about temporal and spatial information is a very important task in many applications of artificial intelligence. In the past two decades, several formalisms have been proposed for representing and reasoning about time and space by using qualitative constraint. In this thesis, we introduce and study a general definition of such formalisms considering qualitative formalisms based on basic relations of arbitrary arity. We also study the algorithms and heuristics proposed in the domain. We introduce two new notions the eligible constraints and the frozen constraints. We propose some new algorithms taking advantage of them. We compare in an empirical way our new algorithms to the previous ones. We describe our solver called QAT (for Qualitative Algebra Toolkit) which is a JAVA constraint programming library allowing to handle qualitative formalisms and constraint networks based on them. This solver is generic and it handles qualitative formalisms of any arity. We have implemented and integrated in QAT a number of specific modules about the notions proposed in this thesis
Styles APA, Harvard, Vancouver, ISO, etc.
26

Lestiennes, Grégory. « Contributions au test de logiciel basé sur des spécifications formelles ». Paris 11, 2005. http://www.theses.fr/2005PA112164.

Texte intégral
Résumé :
Dans cette thèse, nous nous intéressons au test de conformité qui vise à vérifier que l'implémentation d'un système satisfait à sa spécification selon une relation de conformité entre le modèle de la spécification et celui de l'implémentation. Nous avons défini le modèle RIOLTS signifiant Restrictive Input/Output Labeled Transition System et la relation de conformité rioco pour Restrictive Input/Output COnformance dont la spécificité est de permettre la description de systèmes dont certaines entrées sont interdites dans certains états. Dans la seconde partie de cette thèse nous nous intéressons à la génération de tests à partir de modèles infinis manipulant des types de données complexes, encore appelés modèles symboliques. La présence de types de données complexes rend plus difficile le problème de la sélection des tests: en effet, à la potentielle infinité des comportements d'un système s'ajoute celle des valeurs que peuvent prendre les symboles apparaissant dans les actions symboliques. De plus, des gardes peuvent conditionner les transitions ce qui nous confronte au fait que certaines traces symboliques ne sont pas faisables. Nous proposons ici une stratégie de sélection applicable sur tout modèle basé sur les systèmes de transitions symboliques. Nous utilisons un solveur de contraintes pour déterminer les chemins de l'automate de la spécification qui sont faisables. Les difficultés rencontrées pour obtenir de tels chemins de manière rapide nous ont conduit à optimiser l'utilisation du solveur. Ainsi plusieurs méthodes ont été proposées et expérimentées afin d'améliorer les temps de résolution et d'en assurer la terminaison
In this thesis, we get interested in conformance testing whose goal is to check that the implementation of a system conforms to its specification w. R. T. A conformance relation between the model of the specification and the one of the implementation. We have defined the RIOLTS model standing for Restrictive Input/Output Labeled Transition System and the conformance relation rioco standing for Restrictive Input/Output COnformance. The particularity of this model is that it makes it possible to describe systems in which some inputs are forbidden in some states. In the second part of this thesis, we have worked on test generation and selection from infinite models using complex data types. These models are called symbolic models. Complex data types makes it harder the test selection problem: we must not only deal with the possible unlimited number of behaviors of systems but also with the unlimited number of values possible for the symbols appearing in symbolic actions. Moreover as guards may condition transitions, some symbolic traces are unfeasible. We propose a selection strategy that can be applied on any model based on symbolic transition systems. We use a constraint solver to determine feasible paths of the specification automata. Such paths are difficult to calculate, and to get them faster, we have had to optimize the use of the solver. Though, we have proposed and carried out experiments on many methods to reduce solving time and ensure the termination of calculations
Styles APA, Harvard, Vancouver, ISO, etc.
27

Rabeau, Sophie. « Étude d'un procédé continu de microencapsulation basé sur un micromélangeur ». Thesis, Vandoeuvre-les-Nancy, INPL, 2009. http://www.theses.fr/2009INPL096N/document.

Texte intégral
Résumé :
Cette étude se concentre sur l'influence des conditions hydrodynamiques et de mélange sur les caractéristiques de microcapsules obtenues par inversion/précipitation. Ce processus est classiquement exécuté dans une cuve agitée alors qu'il a été montré que l'exécution de procédés de fabrication de produits chimiques peut être améliorée en utilisant des microtechnologies en raison du meilleur contrôle hydrodynamique et de l'intensification des échanges de chaleur et de matières. Donc, afin d'évaluer l'avantage potentiel de ces nouvelles technologies, des microcapsules de parfum enrobé dans du PMMA ont été fabriquées par inversion de phase/précipitation (système THF/Eau) dans une cuve semi-fermé agitée standard, dans un mélangeur structuré et dans un micromélangeur de type V (FZK). Les trois procédés sont évalués en terme de propriétés de capsules (la distribution de taille, l'épaisseur de membrane, l'efficacité d'encapsulation et la cinétique de libération). Il a été montré que le micromélangeur offre une vaste gamme de conditions de fonctionnement
This study focuses on the influence of the hydrodynamic and mixing conditions on the characteristics of microcapsules obtained by inversion/precipitation. This process is classically run in semi-batch stirred tank while it has been shown that the performance of chemical product manufacturing processes can be improved by using microtechnologies due to better hydrodynamic control and intensification of mass and heat exchanges. Therefore, in order to evaluate the potential benefit of these new technologies, microcapsules of perfume in PMMA have been manufactured by phase inversion/precipitation (system THF/Water) in a classical semi-batch stirred tank, in a structured mixer and in a V-Type micromixer (FZK). The three process is evaluated in term of capsules properties (size distribution, membrane thickness, encapsulation efficiency and release rate). It is shown that micromixer offers a wide range of operating conditions
Styles APA, Harvard, Vancouver, ISO, etc.
28

Samih, Hamza. « Test basé sur les modèles appliqué aux lignes de produits ». Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S109/document.

Texte intégral
Résumé :
L'ingénierie des lignes de produits est une approche utilisée pour développer une famille de produits. Ces produits partagent un ensemble de points communs et un ensemble de points de variation. Aujourd'hui, la validation est une activité disjointe du processus de développement des lignes de produits. L'effort et les moyens fournis dans les campagnes de tests de chaque produit peuvent être optimisés dans un contexte plus global au niveau de la ligne de produits. Le model-based testing est une technique de génération automatique des cas de test à partir d'un modèle d'états et de transitions construit à partir des exigences fonctionnelles. Dans cette thèse, nous présentons une approche pour tester une ligne de produits logiciels avec le model-based testing. La première contribution consiste à établir un lien entre le modèle de variabilité et le modèle de test, à l'aide des exigences fonctionnelles. La deuxième contribution est un algorithme qui extrait automatiquement un modèle de test spécifique à un produit membre de la famille de produits sous test. L'approche est illustrée par une famille de produits de tableaux de bord d'automobiles et expérimentée par un industriel du domaine aéronautique dans le cadre du projet Européen MBAT
Software product line engineering is an approach that supports developing products in family. These products are described by common and variable features. Currently, the validation activity is disjointed from the product lines development process. The effort and resources provided in the test campaigns for each product can be optimized in the context of product lines. Model-based testing is a technique for automatically generating a suite of test cases from requirements. In this thesis report, we present an approach to test a software product line with model-based testing. This technique is based on an algorithm that establishes the relationship between the variability model released with OVM and the test model, using traceability of functional requirements present in both formalisms. Our contribution is an algorithm that automatically extracts a product test model. It is illustrated with a real industrial case of automotive dashboards and experimented by an industrial of aeronautic domain in the MBAT European project context
Styles APA, Harvard, Vancouver, ISO, etc.
29

Duculty, Florent. « Suivi automatique d'objets 3D basé sur l'apparence dans des séquences d'images ». Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2003. http://tel.archives-ouvertes.fr/tel-00610720.

Texte intégral
Résumé :
Ce travail de thèse s'inscrit dans le domaine de la vision artificielle. Plus précisément, nous nous sommes intéressés au suivi temps réel vidéo d'objets 3D mobiles dans des séquences d'images. A l'orgine de ces travaux, se trouve un algorithme, développé au LASMEA, dédié au suivi de motifs planaires texturés. Nous nous sommes proposés d'adapter cette méthode de suivi 2D à l'estimation du mouvement apparent d'objets 3D. Pour cela, l'objet 3D est modélisé à l'aide d'une collection d'images de référence. Pour chacune de ces vues, la solution 2D citée précédemment permet de suivre les mouvements fronto parallèles (déplacements de l'objet parallèlement au plan image) qui ne modifient pas de façon majeure l'aspect apparent dans l'image. Le point délicat, solutionné dans le cadre de cette thèse, est la détection et la gestion du changement d'aspect du motif suivi dû à des rotations relatives (caméra/objet) en site et azimut. Sur le plan pratique, l'approche proposée a permis le développement d'un système expérimental de suivi d'un visage et la navigation automatique d'un bras robotique, muni d'une caméra embarquée, autour d'un objet 3D.
Styles APA, Harvard, Vancouver, ISO, etc.
30

Habbas, Zineb. « Une algèbre de processus : pour un calcul basé sur la déduction ». Phd thesis, Grenoble INPG, 1992. http://tel.archives-ouvertes.fr/tel-00342054.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
31

Truong, Hien Thi Thu. « Un modèle de collaboration basé sur les contrats et la confiance ». Phd thesis, Université de Lorraine, 2012. http://tel.archives-ouvertes.fr/tel-00769076.

Texte intégral
Résumé :
De nos jours, les technologies de l'information offrent aux utilisateurs la possibilité de travailler avec n'importe qui, à n'importe quel moment, de n'importe où et avec plusieurs dispositifs hétérogènes. Cette évolution favorise un nouveau modèle distribué de collaboration de confiance où les utilisateurs peuvent travailler sur des documents partagés avec qui ils ont confiance. La collaboration multi-synchrone est largement utilisée pour soutenir le travail collaboratif en maintenant des flux simultanés de l'activité des utilisateurs qui divergent et convergent continuellement. Cependant, ce modèle n'offre pas de support concernant l'expression et la vérification de restriction d'usage des données. Cette thèse présente C-PPC, un modèle de collaboration basé sur les contrats et sur la confiance. Dans ce modèle, des contrats sont utilisés comme des règles d'utilisation des données et les utilisateurs collaborent en fonction des niveaux de confiance qu'ils attribuent aux autres en accord avec le respect des contrats. Nous formalisons les contrats en utilisant des concepts déontiques: permission, obligation et prohibition. Les contrats sont inclus dans les historiques d'opérations des données partagées. Le modèle C-PPC fournit un mécanisme pour la fusion des modifications des données et des contrats. N'importe quel utilisateur peut auditer les historiques à n'importe quel moment et les résultats de l'audit sont utilisés pour actualiser les niveaux de confiance en se basant sur une métrique de confiance. Nous proposons une solution reposant sur des authentificateurs basés sur les chaînes de hachage pour garantir l'intégrité des historiques et la responsabilité des utilisateurs. Nous fournissons des algorithmes pour construire les authentificateurs et vérifier les historiques puis nous prouvons leur correction. Des résultats expérimentaux montrent la faisabilité du modèle C-PPC.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Génevé, Lionel. « Système de déploiement d'un robot mobile autonome basé sur des balises ». Thesis, Strasbourg, 2017. http://www.theses.fr/2017STRAD024/document.

Texte intégral
Résumé :
Cette thèse s’inscrit dans le cadre d’un projet visant à développer un robot mobile autonome capable de réaliser des tâches spécifiques dans une zone préalablement définie par l’utilisateur. Afin de faciliter la mise en œuvre du système, des balises radiofréquences fournissant des mesures de distance par rapport au robot sont disposées au préalable autour du terrain. Le déploiement du robot s’effectue en deux phases, une première d’apprentissage du terrain, puis une seconde, où le robot effectue ses tâches de façon autonome. Ces deux étapes nécessitent de résoudre les problèmes de localisation et de localisation et cartographie simultanées pour lesquels différentes solutions sont proposées et testées en simulation et sur des jeux de données réelles. De plus, afin de faciliter l’installation et d’améliorer les performances du système, un algorithme de placement des balises est présenté puis testé en simulation afin de valider notamment l’amélioration des performances de localisation
This thesis is part of a project which aims at developing an autonomous mobile robot able to perform specific tasks in a preset area. To ease the setup of the system, radio-frequency beacons providing range measurements with respect to the robot are set up beforehand on the borders of the robot’s workspace. The system deployment consists in two steps, one for learning the environment, then a second, where the robot executes its tasks autonomously. These two steps require to solve the localization and simultaneous localization and mapping problems for which several solutions are proposed and tested in simulation and on real datasets. Moreover, to ease the setup and improve the system performances, a beacon placement algorithm is presented and tested in simulation in order to validate in particular the improvement of the localization performances
Styles APA, Harvard, Vancouver, ISO, etc.
33

Lefebvre, Pierre-Luc. « Conception, simulation et réalisation d'un égaliseur fréquentiel basé sur l'algorithme FBLMS ». Mémoire, École de technologie supérieure, 2006. http://espace.etsmtl.ca/540/1/LEFEBVRE_Pierre%2DLuc.pdf.

Texte intégral
Résumé :
La transmission radio à haut débit par le biais de canaux à multiples trajets requière un égaliseur avec une longue réponse à l'impulsion. La complexité de calcul d'un algorithme d'égalisation basé sur la méthode LMS croît avec le carré du nombre de coefficients. L'application fréquentielle de cet algorithme constitue une alternative intéressante du point de vue complexité de calcul. En tirant profit des algorithmes performants de transformés de Fourier et du fait qu'une multiplication point à point dans le domaine fréquentiel correspond à une convolution dans le domaine temporel, la quantité de multiplications de l'algorithme FBLMS augmente en fonction du nombre de coefficients suivant une loi nlogn. Dans le cadre de ce projet de maîtrise, nous avons adapté l'algorithme FBLMS pour créer un égaliseur dans le domaine fréquentiel qui consomme une faible quantité de multiplicateurs relativement à son homonyme temporel. Implémenté sous forme de noyau VHDL, sa structure régulière et portable peut satisfaire diverses applications implémentées sur une plate forme FPGA ou ASIC sans modifications majeures. Le haut degré de configurabilité de cet égaliseur permet à l'usager d'employer de 4 à 256 coefficients, en plus de programmer la table de décision pour accommoder les constellations M-QAM. Trois modes de convergence peuvent être programmés pendant le traitement. Soit les modes aveugle, auto dirigé et entraîné. Les résultats de placements et de routage indiquent que le module FBMMA3M peut traiter jusqu'à 37,5 Msym/s, soit 225 Mbps avec une modulation 64-QAM. Nous avons abordé la conception de l'égaliseur FBMMA3M en créant un modèle de simulation en point flottant dans lequel nous avons inséré un canal SUI. Plusieurs contextes de communications ont été vérifiés pour caractériser le comportement de l'algorithme. Puis, avec une traduction en point fixe de ce model, nous avons établi la quantification de l'algorithme afin d'effectuer son implémentation matérielle.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Salameh, Nadeen. « Conception d'un système d'alerte embarqué basé sur les communications entre véhicules ». Phd thesis, INSA de Rouen, 2011. http://tel.archives-ouvertes.fr/tel-00722227.

Texte intégral
Résumé :
Récemment, dans la recherche automobile et dans le domaine des transports intelligents,plusieurs projets intéressants ont été menés afin de diminuer le nombre d'accidents. Lors du développement de ces projets, de nouveaux systèmes d'aide à la conduite ont été proposés,comme les systèmes de prévention de collision, d'aide à la vision de nuit et à la navigation.Ces études ont permis de proposer de nouvelles perspectives telles que les systèmes d'aide à la conduite coopératifs, en utilisant la communication entre les véhicules ou entre les véhicules et l'infrastructure basée sur les réseaux VANETs. Pour évaluer l'impact de systèmes ADAS sur l'amélioration de la sécurité routière et la réaction du conducteur, il est indispensable d'utiliser des outils flexibles et efficaces. Des métriques intéressantes sont ainsi proposées dans le but de tester la performance de ces systèmes. La plateforme LaRA qui est équipée de plusieurs capteurs et d'un système d'acquisition en temps réel nous a fourni une base de données réelles de position et de vitesse. Ces données sont traitées et analysées afin de calculer les métriques de performances tels que : la distance entre véhicules et le temps à collision. Nous avons proposé dans cette thèse une nouvelle méthodologie de développement pour le prototypage de systèmes ADAS. Cette méthodologie dédiée aux systèmes ADAS coopératifs, combine les données de plusieurs modules tels que : le module de vision, le module de communication V2V et le module de géo-localisation GPS. Un des problèmes majeurs des systèmes ADAS communicants concerne la qualité et la robustesse de la communication. Elle est fonction d'un grand nombre de paramètres qu'il faut modéliser pour pouvoir évaluer la fiabilité du système d'aide à la conduite.Nous proposons ainsi, un système de prototypage basé sur le principe de la réalité augmentée,dans lequel nous pouvons rejouer des données réelles et modifier des paramètres de l'environnement de communication. Nous avons mis en œuvre notre méthodologie avec la réalisation d'un système d'alerte coopératif entre les véhicules. Les données du système de géolocalisation GPS et les protocoles de routage ont été des éléments primordiaux pour la simulation du modèleV2V sous le simulateur ns-2. L'étape de la simulation du protocole avec les données réelles a été suivie par l'intégration des résultats de simulations dans le nouveau prototype développé sous RTMaps. La mise en œuvre du système d'alerte a permis d'estimer le nombre de pré-collisions détectées dans les deux situations réelle et simulée. L'écart entre ces deux dernières a été étudié et analysé pour plusieurs scénarios qui correspondent aux différentes situations routières.
Styles APA, Harvard, Vancouver, ISO, etc.
35

El, Ouakdi Jihene. « Le système d'incitation basé sur la valeur économique ajoutée : analyses empiriques ». Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24171/24171.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
36

Delgrange, Clément. « Apprentissage basé sur l’usage en interaction humaine avec un assistant adaptatif ». Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1290/document.

Texte intégral
Résumé :
Aujourd'hui, un utilisateur peut interagir avec des assistants virtuels, comme Alexa, Siri ou Cortana, pour accomplir des tâches dans un environnement numérique. Dans ces systèmes, les liens entre des ordres exprimés en langage naturel et leurs réalisations concrètes sont précisées lors de la phase de conception. Une approche plus adaptative consisterait à laisser l'utilisateur donner des instructions en langage naturel ou des démonstrations lorsqu'une tâche est inconnue de l'assistant. Une solution adaptative devrait ainsi permettre à l'assistant d'agir sur un environnement numérique plus vaste composé de multiples domaines d'application et de mieux répondre aux besoins des utilisateurs. Des systèmes robotiques, inspirés par des études portant sur le développement du langage chez l'humain, ont déjà été développés pour fournir de telles capacités d'adaptation. Ici, nous étendons cette approche à l'interaction humaine avec un assistant virtuel qui peut, premièrement, apprendre le lien entre des commandes verbales et la réalisation d'actions basiques d'un domaine applicatif spécifique. Ensuite, il peut apprendre des liens plus complexes en combinant ses connaissances procédurales précédemment acquises en interaction avec l'utilisateur. La flexibilité du système est démontrée par sa forte adaptabilité au langage naturel, sa capacité à apprendre des actions dans de nouveaux domaines (Email, Wikipedia,...), et à former des connaissances procédurales hybrides en utilisant plusieurs services numériques, par exemple, en combinant une recherche Wikipédia avec un service de courrier électronique
Today users can interact with popular virtual assistants such as Siri to accomplish their tasks on a digital environment. In these systems, links between natural language requests and their concrete realizations are specified at the conception phase. A more adaptive approach would be to allow the user to provide natural language instructions or demonstrations when a task is unknown by the assistant. An adaptive solution should allow the virtual assistant to operate a much larger digital environment composed of multiple application domains and providers and better match user needs. We have previously developed robotic systems, inspired by human language developmental studies, that provide such a usage-based adaptive capacity. Here we extend this approach to human interaction with a virtual assistant that can first learn the mapping between verbal commands and basic action semantics of a specific domain. Then, it can learn higher level mapping by combining previously learned procedural knowledge in interaction with the user. The flexibility of the system is demonstrated as the virtual assistant can learn actions in a new domains (Email, Wikipedia,...), and can then learn how email and Wikipedia basic procedures can be combined to form hybrid procedural knowledge
Styles APA, Harvard, Vancouver, ISO, etc.
37

Lavoie, Marc-André. « Développement et contrôle d'un bras robotique basé sur l'actionneur différentiel élastique ». Mémoire, Université de Sherbrooke, 2009. http://savoirs.usherbrooke.ca/handle/11143/1494.

Texte intégral
Résumé :
Les forces et faiblesses des robots différant grandement de celles des humains, les robots chirurgicaux ont plusieurs avantages qui expliquent leur utilisation croissante en salle d'opération. Cependant, la robotique chirurgicale demeure un domaine qui comporte de nombreux défis. Plutôt que de travailler directement au niveau de l'application sur un robot spécifique, il a été décidé de concentrer les efforts sur une des composantes mécaniques qui impose des limitations aux interactions humain-robot : l'actionneur. Dans cette optique, un prototype de bras interactif a été réalisé en utilisant la technologie de l'Actionneur Différentiel Élastique (ADE), un actionneur élastique haute-performance de faible impédance mécanique intrinsèque. Le bras à trois degrés de liberté, dont les actionneurs sont contrôlés en impédance, pourra servir à étudier la façon dont les interactions humain/robot permettent d'augmenter les capacités humaines de manipulation. Le contrôle d'impédance de l'ADE a été utilisé en tant que noyau central lors du développement du contrôle du bras interactif. L'analyse des performances dans la plage de fréquence d'intérêt suggère un bon comportement de l'actionneur lorsque l'impédance mécanique demandée est faible.Les premiers essais d'interaction humain-robot avec le bras interactif suggèrent que l'ADE est tout indiqué pour une telle application. Le contrôle d'impédance développé a pu être utilisé dans le cadre d'une autre application robotique : le contrôle des axes de direction du robot mobile omnidirectionnel AZIMUT[indice inférieur 3].
Styles APA, Harvard, Vancouver, ISO, etc.
38

Bergeron, Lucien Junior. « Développement d'un système d'inactivation de gènes basé sur le ribozyme delta ». Thèse, Université de Sherbrooke, 2005. http://savoirs.usherbrooke.ca/handle/11143/4201.

Texte intégral
Résumé :
L'information générée par le décodage du génome humain nous permet de contempler davantage toute la complexité de la cellule et de ses processus biochimiques. Plus de 25 000 gènes encodant des protéines y ont été répertoriés. De plus, du point de vue épissage alternatif, une modification post-transcriptionnelle, les possibilités de protéines résultantes de l'expression de ces gènes sont presque infinies. La plupart de ces gènes n'ont pas encore de fonction leur ayant été associée. Les composés organiques chimiques employés tous les jours par des millions de personnes pour un mal de tête ou bien des maux d'estomac, ne viendront pas à bout de l'identification fonctionnelle de ces gènes. Souvent, ces composés agissent au niveau protéique, soit sur une batterie de protéines et ainsi en découle un manque de spécificité. Il est alors impératif de développer de nouveaux outils thérapeutiques très spécifiques avec un champ d'action bien précis, soit le ciblage du produit des gènes. Mon projet de recherche s'inscrit exactement dans ce type de réalisation. Nous avons développé un système d'inactivation de gènes basé sur le ribozyme delta, un enzyme à ARN avec une activité catalytique. Premièrement, nous avons élaboré des stratégies pour sélectionner des sites actifs sur le substrat ARN permettant une activité forte du ribozyme, malgré un environnement souvent non propice à cette coupure. Ces méthodes ont été comparées et permettent aujourd'hui un choix et une sélection beaucoup plus rapide de cibles potentielles. Par la suite, nous avons appliqué ce ribozyme delta dans le but d'inactiver l'expression d'un gène, une convertase, exprimée de façon endogène et ce, dans une culture de cellules murines. Il en résulte l'inhibition presque complète de l'expression du gène, tant au niveau de l'ARN que de la protéine. Nous avons démontré que l'activité de cette convertase n'est pas compensée par d'autres protéines de la même famille. Ces résultats ont aussi permis d'amener l'hypothèse de la présence d'un nouveau substrat pour cette convertase. Par conséquent, cette étude démontre sans ambiguité l'efficacité et la spécificité du ribozyme delta en milieu cellulaire. Cependant, puisque la recherche nous pousse toujours à dépasser les barrières de l'inconnu, ce que nous connaissons de mieux n'est toujours pas assez. Dans le but d'augmenter la spécificité du ribozyme delta, nous avons, par design rationnel, créé un nouveau module nommé SOFA, pour"Specific On/ofF Adapter", permettant un gain accru d'activité et de spécificité.--Résumé abrégé par UMI.
Styles APA, Harvard, Vancouver, ISO, etc.
39

Padioleau, Yoann. « Logic file system : un système de fichier basé sur la logique ». Rennes 1, 2005. ftp://ftp.irisa.fr/techreports/theses/2005/padioleau.pdf.

Texte intégral
Résumé :
Pour rechercher des documents numériques (musiques, e-mails, sources de programmes) les systèmes traditionnels, comme les systèmes de fichiers ou le Web, fournissent chacun des outils de navigation et d'interrogation, mais ne permettent pas de les combiner. La navigation est intuitive et progressive mais elle implique une classification des données rigide et unique. L'interrogation apporte flexibilité et expressivité, mais ne possède pas les avantages de la navigation. Pour manipuler le contenu de ces documents, d'autres outils existent mais ils souffrent des mêmes limitations. Nous proposons un nouveau paradigme pour les systèmes d'information basé sur la logique : le Logic File System (LFS), qui offre une organisation expressive, une recherche combinant interrogation et navigation, et une facilité de manipulation, à la fois des fichiers et de leurs contenus ; le tout d'une façon intégrée et mis en oeuvre au niveau système de fichier.
Styles APA, Harvard, Vancouver, ISO, etc.
40

Bousbahi, Fatiha. « Sadrp : un Système d'Aide Didactique basé sur la Reconnaissance du Plan ». Paris 7, 1994. http://www.theses.fr/1994PA070037.

Texte intégral
Résumé :
Face a la complexite croissante des fonctionnalites offertes par les systemes informatiques, d'importants besoins se font sentir en matiere de formation, d'aide a la planification, de gestion, etc. Une reponse a ces besoins passe par la realisation de systemes offrant une aide didactique, personnalisee et active. Dans un systeme d'aide ou la presence d'un tuteur (ou conseiller pedagogique) est d'une importance cruciale, la seule prise en compte de la tache a realiser sur l'application cible n'est pas suffisante. Il s'avere donc necessaire de reconnaitre l'intention et le plan de l'utilisateur pour que le tuteur puisse fournir une aide pertinente. Pour atteindre cet objectif, une etude didactique prealable du domaine d'application est indispensable. De point de vue didactique, le plan de l'utilisateur est l'indice de sa representation du probleme et la preuve de ses performances ou de ses echecs. Dans cette perspective, nous avons procede a une analyse didactique du traitement de texte qui constitue notre domaine d'application. A partir d'observations reelles, nous avons situe les problemes specifiques du domaine et identifier les difficultes rencontrees par les utilisateurs. Cette etude nous a permis de recenser un certain nombre d'erreurs et leurs origines possibles. Ces donnees constituent des connaissances dont le systeme d'aide se servira pour reconnaitre le plan de l'utilisateur. La reconnaissance de plan consiste a inferer, a partir d'actions observees, le plan global de l'utilisateur. Dans le cadre d'un systeme d'aide didactique, la reconnaissance de plan peut s'appliquer comme methode de diagnostic pour determiner l'objectif vise et permettre ainsi des aides plus adaptees
In front of an important increasing complexity of functionalities offered by computer systems, several needs appeared in their using. User support is generally, provided by hard-copy manuals and on-line help systems. However, these traditional assistance are not sufficient, particularly to novice users, problems arise in accessing the information and in understanding it. One way to address this problem is through intelligent help systems which are supposed to provide users an adequate didactic active help and take into consideration their different skills (abilities, intentions, believes, errors, needs). In help system where the presence of tutor is very important, taking account only the task context is not sufficient. It is very important to recognise user's intention and plan to able the tutor to provide an adequate help. To achieve this goal, a previous didactic study of the application domain must be realised. The plan is a fundamental element in the interpretation of user's errors and intentions. It is the sign of his representation of problems and the proof of his performances or failure. In this way, we have analysed word processing which constitutes our application domain. We have situated specific problems of the domain and identified users' difficulties. This study ables us to class errors and their origins. This data constitute knowledge that system will use to recognise the user's plan. The plan
Styles APA, Harvard, Vancouver, ISO, etc.
41

Dion-Routhier, Justine. « L'apprentissage par problème basé sur des questions socialement vives au primaire ». Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/32269.

Texte intégral
Résumé :
Au 21e siècle, la société fait face à des transformations importantes, notamment liées aux exigences de l’ère numérique (Ministère de l’Éducation de l’Ontario, 2016) et à l’accessibilité à l’information (Bollington, 2015). Ceux-ci représentent un défi de taille pour les systèmes d’éducation partout à travers le monde (Hoechsmann et DeWaard, 2015) et imposent des changements prépondérants du point de vue de l’éducation (Mayes & al., 2014). L’école doit occuper un rôle central et s’ajuster aux changements qui s’opèrent dans le monde actuel afin que les élèves développent des compétences qui leur permettront d’être des citoyens actifs et impliqués (Albe, 2009). Dewey (1910/2004) insiste sur les bénéfices de l’apprentissage par problème où les élèves doivent être engagés (Veletsianos & Doering, 2010) et se familiariser avec les enjeux sociétaux auxquels ils seront confrontés. À cet égard, cette étude vise à documenter une démarche d’apprentissage par problème (APP) où une question socialement vive (QSV) est exploitée avec des élèves du primaire afin de comprendre leur processus d’enquête, la construction de leur compréhension d’un problème complexe et les apprentissages sous-jacents. Dans une approche d’étude de cas, les discussions de groupes d’une classe de 4e année du primaire impliquée dans une telle démarche ont été analysées afin de reconstruire la chronologie de leur expérience et d’identifier les phases de la pensée réflexive (Dewey, 1910/2004). À la lumière de leurs discours collectifs, il est possible de constater qu’à partir d’un questionnement initial, les élèves problématisent et, lors d’allers-retours entre les différentes phases de l’enquête, leur pensée réflexive se complexifie. Le questionnement lui-même tend à évoluer au fil de l’enquête et de nouveaux segments peuvent émerger. En somme, les itérations entre les phases et les enquêtes permettent une problématisation qui tend à l’affiliation de leur compréhension, à la construction de leurs connaissances, et donc, à l’apprentissage.
Styles APA, Harvard, Vancouver, ISO, etc.
42

Ganet, Leslie. « Construction et catégorisation d'explication : un modèle basé sur la catégorisation contextuelle ». Paris 8, 2006. http://www.theses.fr/2006PA082668.

Texte intégral
Résumé :
Alors que l’explication pédagogique remplit une fonction déterminante dans les processus de compréhension et d’apprentissage, la manière dont est produite cette dernière n’a pas jusqu’ici de solution satisfaisante contrairement à l’explication scientifique. Le point de vue défendu dans ce mémoire est que le contexte de la topique et de la situation d’explication sont des éléments qui participent à la construction de son contenu conceptuel pouvant être modélisée à partir des mécanismes de catégorisation contextuelle. Dans ce cadre, la construction de l’explication est vue comme un processus actif de construction de représentation sous la forme d’un réseau de catégories (treillis de Galois) et la génération de l’explication comme un parcours ordonné des catégories. L’exposition suit un parcours descendant du réseau de catégories en formulant chronologiquement les propriétés communes, propres et relationnelles. L’implication, basée sur l’exposition, créée un lien ascendant vers une catégorie cible. Les prédictions du modèle sont évaluées avec sept expérimentations et les résultats sont discutés au regard des types d’explication et du contexte
Whereas teaching explanation fulfils a determining function in the processes of comprehension and training, contrary to scientific explanation, the way in which the production of an explanation is carried out does not have a satisfactory solution up to now. The point of view defended in this research is that the context of the topics of the explanation and the context of the situation of explanation are elements which take part in the construction of the conceptual contents of the explanation which can be modelled with contextual categorization mechanisms. Within this framework, the construction of explanation is seen as an active process of construction of representa-tion in the form of a network of categories (lattice of Galois lattices) and verbalization as an ordered exhibition of categories and of implication. Exhibition follows a top-down formulation of the common, specific and relational properties. Implication is a bottom-up link towards the target category. Predictions of the model are evaluated with seven experiments and the results are discussed according to types of explana-tions and of contexts
Styles APA, Harvard, Vancouver, ISO, etc.
43

Kornas, Jakub. « Contributions au déploiement dans les architectures réflexives basé sur les composants ». Université Joseph Fourier (Grenoble), 2008. http://www.theses.fr/2008GRE10173.

Texte intégral
Résumé :
Les logiciels récents sont de plus en plus complexes en terme de leur développement et gestions associés. Pour adresser cette complexité, un approche basé sur les composant a vu le jour. Les composants modulent le développement pour une meilleure ingénierie des logiciels et permettent une vision des logiciels comme un assemblage dynamique des composants qui peuvent être déployés et gérés en continu. Une approche concluante pour la gestion avancée en continu est basée sur une architecture logicielle de composants explicites. Cette approche, appelée « gestion basée sur l'architecture », a évolué de premières solutions ad-hoc en des infrastructures génériques basées sur des modèles de composants réflexifs. Une de ces infrastructures est la plateforme JADE. JADE vise à gérer automatiquement les systèmes distribués complexes. Basé sur un modèle de composants réflexifs, JADE capture l'architecture logicielle complète des systèmes distribués, incluant les applications distribuées hébergées et les systèmes distribués « hébergeants ». En particulier, cette architecture réifie le comportement continu des systèmes distribués, tels que les défaillances de nœuds ou les caractéristiques de performance. Utilisant cette architecture complète, les gestionnaires autonomes observent et réagissent selon les changements de conditions. Cette réaction des gestionnaires automatiques a pour but de planifier la reconfiguration de l'architecture. Par exemple, un gestionnaire d'auto-réparation observant la défaillance d'un nœud aurait pour but de reconstruire la part perdue du système distribué sur un autre nœud. Un gestionnaire d'auto-protection observerait une intrusion et planifierait la reconfiguration du système distribué pour isoler les composants compromis. Un gestionnaire d'auto-optimisation pourrait observer un problème disponible dans un serveur répliqué et planifier d'augmenter cette réplication cardinale des composants serveurs. Par ce fait, au cœur de JADE, se trouve le déploiement des composants. En effet, la plupart des reconfigurations de l'architecture des systèmes distribués est basée sur l'aptitude à instancier des composants sur des nœuds distants du système distribué. Plus précisément, une fois que les gestionnaires autonomes ont générés un plan de reconfiguration du système distribué, l'exécution effective du plan est automatiquement distribuée, essentiellement par création et suppression de composants ainsi que leur union et désunion. La création et la suppression de composants requièrent une gestion locale des composants sur chaque nœud du système distribué. Cette gestion locale nécessite une infrastructure distribuée pour trouver, installer, charger et supprimer les composants. Le travail présenté dans cette thèse a contribué à JADE au travers des capacités de déploiement avancé dans un environnement distribué. En particulier, nous avons traité ce challenge via une conception récursive où l'implémentation de composants a été modélisée en utilisant des composants fournissant un son et un déploiement uniforme qui suit les principes basés sur l'architecture. En particulier, nous pouvons déployer des composants d'applications ainsi que des composants « middleware ». De plus, au-delà du déploiement de composants réguliers, nous pouvons également des logiciels « legacy » qui sont re-capitalisés avec des composants. En plus du déploiement de sous-système de JADE, ce travail a montré que le modèle de composant réflexif dérivé appelé FRACT AL a besoin d'être étendu pour capter les implémentations et leur spécificité. Bien que conçu pour FRACT AL et JADE, ces extensions s'appliquent pour la plupart des modèles de composant courant qui s'oriente sur l'assemblage fonctionnel de composants et non sur comment ces composants sont déployés. Ce travail a également montré que l'architecture autonome basée sur la gestion a des besoins dynamiques spécifiques en terme de déploiement qui rend difficile sa ré-utilisation pour des plateformes de composants dynamiques tels que OSGI. Des premières conceptions et prototypes ont été définis durant cette thèse avec des réussites sur bien des aspects mais également des limites démontrées sur la conception fondamentale et les tensions architecturales entre OSGI et JADE. Des secondes conceptions et prototypes ont montré la faisabilité de supporter notre FRACT AL étendu sur plateforme JA VA en tant que fondation de la gestion basée sur l'architecture autonome de svstèmes distribués complexes
Modern software systems are increasingly complex regarding their development and their runtime management. To address this complexity, a component-based paradigm has emerged. Components modularize development for better software engineering and promote a vision of software as a dynamic assembly of components that can be deployed and managed at runtime. One successful approach for advanced runtime management is based on the software architecture that components make explicit. This approach, called architecture-based management, has evolved from ad-hoc early solutions to generic frameworks based on reflexive component models. One such framework is the JADE framework. JADE targets autonomie management of complex distributed systems. Based on a reflexive component model, JADE captures the complete software architecture of distributed systems, including hosted distributed applications and their hosting distributed system. Ln particular, this architecture reifies the runtime behavior of the distributed system, such as node failures or performance characteristics. Using this complete architecture, autonomie managers observe and react accordingly to changing conditions. The reaction of autonomie managers is to plan an architecture reconfiguration. Forinstance, a self-repair manager observing anode failure would plan to reconstruct the lost part of the distributed system on another node. A self-protection manager would observe an intrusion and would plan reconfiguring the distributed system in order to isolate or sandbox compromised components. A self-optimizing manager could observe an availability problem in a replicated server and plan to augment the replication cardinality of the server components. Consequently, at the heart of JADE, one tinds the challenge ofcomponent deployment. Indeed, most reconfigurations of the architecture ofa distributed system rely on the ability to instantiate components on remote nodes of the distributed system. More precisely, once autonomic managers have generated a reconfiguration plan of the distributed system, the actual execution of the plan is itself distributed, essentially creating and removing components as weil as binding and unbinding them. Creating and removing components requires a local management of components on each node of the distributed system. This local management requires a distributed infrastructure to find, download, install, and remove components. The work presented in this thes. Is has provided JADE with advanced deployment capabilities in a distributed environment. Ln particular, we have approached this challenge through a recursive design where the implementation of components has been modelled using components, providing a sound and uniform deployment that follows the architecture-based principles. Ln particular, we can deploy application components as weil as middleware components. Moreover, we can not only deploy regular components but we can also deploy legacy software that are wrapped with components. Through wrapping, remotely deployed legacy software can be managed by JADE in a uniform manner. Besides providing the deployment subsystem of JADE, this work has shown that underlying reflexive component model called FRACTAL needed to be extended in order to capture implementations and their specifies. Although conceived for FRACT AL and JADE, these extensions apply to most curren: component models that focus on the functional assembly of components and not on how components are deployed. This work has also shown that autonomie architecture based management has specifie dynamic needs in terrns of deployment that makes it difficult to reuse existing dynamic component platforms such as OSGI. A first design and prototype built during this thesis, although successful in many ways, has demonstrated fundamental design and architectural tensions between OSGI and JADE. A second design and prototype has shown the feasibility ofusing the Java platforrn for supporting our extended FRACT AL as the foundation to autonomie architecture-based management of complex distributed systems
Styles APA, Harvard, Vancouver, ISO, etc.
44

Koubaa, Mohamed. « Tatouage robuste de vidéo basé sur la notion de régions d'intérêt ». Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14117/document.

Texte intégral
Résumé :
Le travail présenté dans ce mémoire a pour objectif le développement de nouvelles approches permettant d'introduire de manière robuste des marques dans une vidéo. Il s'agira tout d'abord de sélectionner les zones des images les plus appropriées à l'introduction du tatouage. Pour cela, plusieurs critères devront être pris en compte. Tout d'abord, lorsqu'une marque est introduite dans une zone de l'image, il est nécessaire d'introduire la même marque au même endroit sur toutes les images de la séquence. En effet, dans le cas contraire, un simple filtrage temporel dans le sens du mouvement permet de détruire la marque. Il sera également important de détecter les zones moins importantes visuellement dans lesquelles des modifications pourraient être introduites plus facilement sans qu'elles soient visibles. Il s'agit notamment des zones visibles dans peu d'images différentes, ou des zones ou l'œil humain est peu susceptible de détecter des différences, telles que les zones d'ombres en mouvement. Pour parvenir à une détection efficace de telles régions, une phase d'analyse permettant notamment la création d'images mosaïques (ou sprite dans le contexte MPEG-4) et la détection des ombres en mouvement devra être réalisée
The work presented in this thesis aims to develop new approaches to introduce, in a robust way, a marks in a video. The areas of the images which are most appropriate to the introduction of the tattoo should be selected. For that, several criteria must be taken into account. Firstly, when a mark is introduced into an area of the image, it is necessary to introduce the same mark at the same location on all images in the sequence. It is also important to detect an invisible areas where changes could be introduced easily without being seen. These are areas where the human eye is less sensitive to changes, such as shadows region of moving objects. To achieve the e#ective detection of such regions, a phase of analysis including the creation of mosaic images and the detection of shadows of moving objects will be realized
Styles APA, Harvard, Vancouver, ISO, etc.
45

Bourotte, Marc. « Générateur stochastique de temps multisite basé sur un champ gaussien multivarié ». Thesis, Avignon, 2016. http://www.theses.fr/2016AVIG0415/document.

Texte intégral
Résumé :
Les générateurs stochastiques de temps sont des modèles numériques capables de générer des séquences de données climatiques de longueur souhaitée avec des propriétés statistiques similaires aux données observées. Ces modèles sont de plus en plus utilisés en sciences du climat, hydrologie, agronomie. Cependant, peu de générateurs permettent de simuler plusieurs variables, dont les précipitations, en différents sites d’une région. Dans cette thèse, nous proposons un modèle original de générateur stochastique basé sur un champ gaussien multivarié spatio-temporel. Un premier travail méthodologique a été nécessaire pour développer un modèle de covariance croisée entièrement non séparable adapté à la nature spatio-temporelle multivariée des données étudiées. Cette covariance croisée est une généralisation au cas multivarié du modèle non séparable spatio-temporel de Gneiting dans le cas de la famille de Matérn. La démonstration de la validité du modèle et l’estimation de ses paramètres par maximum de vraisemblance par paires pondérées sont présentées. Une application sur des données climatiques démontre l’intérêt de ce nouveau modèle vis-à-vis des modèles existants. Le champ gaussien multivarié permet la modélisation des résidus des variables climatiques (hors précipitation). Les résidus sont obtenus après normalisation des variables par des moyennes et écarts-types saisonniers, eux-mêmes modélisés par des fonctions sinusoïdales. L’intégration des précipitations dans le générateur stochastique nécessite la transformation d’une composante du champ gaussien par une fonction d’anamorphose. Cette fonction d’anamorphose permet de gérer à la fois l’occurrence et l’intensité des précipitations. La composante correspondante du champ gaussien correspond ainsi à un potentiel de pluie, corrélé aux autres variables par la fonction de covariance croisée développée dans cette thèse. Notre générateur stochastique de temps a été testé sur un ensemble de 18 stations réparties en zone à climat méditerranéen (ou proche) en France. La simulation conditionnelle et non conditionnelle de variables climatiques journalières (températures minimales et maximales, vitesse moyenne du vent, rayonnement solaire et précipitation) pour ces 18 stations soulignent les bons résultats de notre modèle pour un certain nombre de statistiques
Stochastic weather generators are numerical models able to simulate sequences of weather data with similar statistical properties than observed data. However, few of them are able to simulate several variables (with precipitation) at different sites from one region. In this thesis, we propose an original model of stochastic generator based on a spatio-temporal multivariate Gaussian random field. A first methodological work was needed to develop a completely non separable cross-covariance function suitable for the spatio-temporal multivariate nature of studied data. This cross-covariance function is a generalization to the multivariate case of spatio-temporal non-separable Gneiting covariance in the case of the family of Matérn. The proof of the validity of the model and the estimation of its parameters by weighted pairwise maximum likelihood are presented. An application on weather data shows the interest of this new model compared with existing models. The multivariate Gaussian random field allows the modeling of weather variables residuals (excluding precipitation). Residuals are obtained after normalization of variables by seasonal means and standard deviations, themselves modeled by sinusoidal functions. The integration of precipitation in the stochastic generator requires the transformation of a component of the Gaussian random field by an anamorphosis function. This anamorphosis function can manage both the occurrence and intensity of precipitation. The corresponding component of the Gaussian random field corresponds to a rain potential, correlated with other variables by the cross-covariance function developed in this thesis. Our stochastic weather generator was tested on a set of 18 stations distributed over the Mediterranean area (or close) in France. The conditional and non-conditional simulation of daily weather variables (maximum and minimum temperature, average wind speed, solar radiation and precipitation) for these 18 stations show good result for a number of statistics
Styles APA, Harvard, Vancouver, ISO, etc.
46

Royer, Mickaël. « Routage basé sur le contenu dans les réseaux ad-hoc aéronautiques ». Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30047/document.

Texte intégral
Résumé :
Dans un contexte de besoins croissants de moyens de communication pour augmenter la sécurité des vols et répondre aux attentes des compagnies et des passagers, le monde de l'aviation civile cherche de nouveaux systémes de communication pouvant répondre à ces objectifs. Les réseaux ad-hoc aéronautiques, AANET (Aeronautical Ad hoc NETworks) représentent une approche innovante pour répondre à cette problématique. Il s'agit de réseaux auto-configurés, n'utilisant pas d'infrastructure fixe et dont la spécificité réside dans le fait que les nfiuds composant le réseau sont des avions commerciaux. Les AANET peuvent être vus comme un sous ensemble des VANET (Vehicular Ad-Hoc Networks) puisqu'ils partagent de nombreuses caractéristiques comme les contraintes imposées sur les trajectoires. Afin d'utiliser le plus eficacement ces réseaux mobiles tout en répondant aux besoins de nouvelles applications, telle que l'information météorologique temps réel sur des phénoménes dangereux, qui nécessitent des communications d'avion à avion, la proposition avancée dans cette thése est d'utiliser le paradigme du routage basé sur le contenu au dessus des AANET. Dans ce type de routage, ce n'est plus une adresse de destination qui est utilisée pour joindre le ou les correspondants, mais le contenu du message qui permet de décider des destinataires. Dans ce paradigme, un émetteur envoi un message possédant des attributs et le message est alors transmis par le réseau uniquement aux terminaux intéressés par le contenu du message. Appliqué à l'information météorologique, cette approche permet à un aéronef détectant un phénoméne dangereux tel qu'un orage de prévenir uniquement les avions intéressés par cet événement, c'est à dire ceux dont la trajectoire passe prés de l'orage dans le temps de vie du phénoméne. Dans cette thése, nous avons choisi de nous appuyer sur le paradigme populaire de publication/souscription (P/S) pour fournir un service de routage basé sur le contenu. Dans cette approche, des éditeurs publient des événements et des nfiuds envoient des abonnements pour déclarer les contenus qui les intéressent au systéme qui est alors en charge de leur faire suivre les événements répondant à leur demande. Aprés un état de l'art sur les systémes P/S existants, notamment ceux adaptés aux VANET, nous avons choisi de tester des solutions paraissant intéressantes dans un contexte AANET. Pour cela, nous avons développé sous Omnet++ un module de mobilité utilisant des reports de position réels afin de rejouer des journées complétes de trafic d'avions réels, ainsi que plusieurs applications aéronautiques s'appuyant sur un systéme P/S permettant de générer des données réalistes. Les résultats montrent que ces solutions ne sont pas complétement adaptées pour un contexte AANET. C'est pourquoi, dans un second temps, nous avons proposé un nouveau systéme P/S pour les AANET. Cette solution s'appuie sur une architecture recouvrante ("overlay network") construite à l'aide d'un algorithme original de regroupement à 1-saut (1-hop clusterisation) adapté aux AANET. Afin de favoriser la stabilité de l'architecture recouvrante, cet algorithme s'appuie sur le nombre de voisins et la mobilité relative entre les nfiuds voisins pour définir les groupes. Les tests réalisés montrent que le systéme P/S s'appuyant sur cette surcouche ofire de meilleurs résultats que les solutions testées précédemment, que ce soit en termes de charge réseau ou de pourcentage d'événements délivrés
In a context of growing needs of communication means to increase ight safety and meet the expectations of companies and passengers, the world of civil aviation seeks new communication systems that can meet these objectives. The Aeronautical Ad-Hoc Networks, AANETs represent an innovative approach to address this problem. It is self-configured networks, using no fixed infrastructure where the nodes are commercial aircraft. The AANETs can be seen as a subset of the VANET (Vehicular Ad-Hoc Networks) since they share many features as the constraints imposed on the trajectories. In order to use these mobile networks more eficiently while meeting the needs of new applications, such as the transmission of weather information in real time, requiring air to air communications. , we propose in this thesis to use the paradigm of content based routing above AANET. In this kind of routing, it is not a destination address that is used to identify the recipients, but the message content itself. In this paradigm, a transmitter sends a message having attributes and the message is then transmitted by the network to nodes interested by the content of the message. Applied to weather information update, this approach allows an aircraft detecting a dangerous phenomenon such as a thunderstorm to only prevent interested nodes, ie those whose the trajectorycome close to the storm during the lifetime of the event. In this thesis, we have chosen to rely on the popular Publish / Subscribe (P/S) paradigm to provide a content based routing service. In this approach, publishers publish events. On the other side, nodes send subscriptions to declare their interest and the system is then in charge of forward events to nodes that match their needs. After a state of the art about existing P / S systems, particularly those adapted to VANETs, we choose to test the solutions seemed interesting in a AANET context. To accomplish this, we have developed as a Omnet ++ mobility model using real position reports to replay a full day of trafic of aircraft and several aeronautical applications based on a P / S system to generate realistic data. The results show that these solutions are not completely suitable for AANET context. Therefore, in a second step, we proposed a new P / S system which is more eficient on a AANET. This solution is based on an overlay network built thanks to a new of 1-hopping clustering algorithm suitable for AANET. In order to increase the stability of the overlay architecture, this algorithm is based on the number of neighbors and the relative mobility between the nodes to define groups. The tests show that the P/S system based on this overlay provides better results than the previously tested solutions, whether in terms of network load or percentage of transmitted events
Styles APA, Harvard, Vancouver, ISO, etc.
47

Boudreau, Dany. « Développement et implantation d'un programme de maintenance basé sur la fiabilité ». Thèse, Université du Québec à Trois-Rivières, 2005. http://depot-e.uqtr.ca/1313/1/000128397.pdf.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
48

Salameh, Nadeen. « Conception d’un système d’alerte embarqué basé sur les communications entre véhicules ». Thesis, Rouen, INSA, 2011. http://www.theses.fr/2011ISAM0016/document.

Texte intégral
Résumé :
Récemment, dans la recherche automobile et dans le domaine des transports intelligents,plusieurs projets intéressants ont été menés afin de diminuer le nombre d’accidents. Lors du développement de ces projets, de nouveaux systèmes d’aide à la conduite ont été proposés,comme les systèmes de prévention de collision, d’aide à la vision de nuit et à la navigation.Ces études ont permis de proposer de nouvelles perspectives telles que les systèmes d’aide à la conduite coopératifs, en utilisant la communication entre les véhicules ou entre les véhicules et l’infrastructure basée sur les réseaux VANETs. Pour évaluer l’impact de systèmes ADAS sur l’amélioration de la sécurité routière et la réaction du conducteur, il est indispensable d’utiliser des outils flexibles et efficaces. Des métriques intéressantes sont ainsi proposées dans le but de tester la performance de ces systèmes. La plateforme LaRA qui est équipée de plusieurs capteurs et d’un système d’acquisition en temps réel nous a fourni une base de données réelles de position et de vitesse. Ces données sont traitées et analysées afin de calculer les métriques de performances tels que : la distance entre véhicules et le temps à collision. Nous avons proposé dans cette thèse une nouvelle méthodologie de développement pour le prototypage de systèmes ADAS. Cette méthodologie dédiée aux systèmes ADAS coopératifs, combine les données de plusieurs modules tels que : le module de vision, le module de communication V2V et le module de géo-localisation GPS. Un des problèmes majeurs des systèmes ADAS communicants concerne la qualité et la robustesse de la communication. Elle est fonction d’un grand nombre de paramètres qu’il faut modéliser pour pouvoir évaluer la fiabilité du système d’aide à la conduite.Nous proposons ainsi, un système de prototypage basé sur le principe de la réalité augmentée,dans lequel nous pouvons rejouer des données réelles et modifier des paramètres de l’environnement de communication. Nous avons mis en œuvre notre méthodologie avec la réalisation d’un système d’alerte coopératif entre les véhicules. Les données du système de géolocalisation GPS et les protocoles de routage ont été des éléments primordiaux pour la simulation du modèleV2V sous le simulateur ns-2. L’étape de la simulation du protocole avec les données réelles a été suivie par l’intégration des résultats de simulations dans le nouveau prototype développé sous RTMaps. La mise en œuvre du système d’alerte a permis d’estimer le nombre de pré-collisions détectées dans les deux situations réelle et simulée. L’écart entre ces deux dernières a été étudié et analysé pour plusieurs scénarios qui correspondent aux différentes situations routières
During the last recent years, ADAS systems such as collision warning, tracking, night vision and navigation systems have been developed. The development of these systems has witness eda growing importance, as they are expected to help improving both road safety and traffic efficiency. More over, they have an ability to enhance the communication between the road infrastructure and the vehicle or between vehicles for safer and efficient transportation services such as : embedded advance collision, collision avoidance and automatic control. In addition,given the rapidly increasing interest in wireless communications, cooperative ADAS define anew framework of autonomous inter vehicular communication which operates on the assumption that such vehicles consist of a multitude of coordinated advanced sensory technologies.Sensors acquire real-time data about road conditions to help the driver respond effectively by sending appropriate messages between vehicles. In addition, these data help to assess the performance of ADAS in the context of improving driver behavior. It is necessary to set some main metrics such as inter-vehicle distance, driver reaction time and time to collision. The messages are transmitted to drivers using vehicular Ad-hoc networks (VANETs) which are a specific type of Mobile Ad-hoc Networks hold the promise to contribute to safe and more efficient roadways.In this thesis we proposed a new methodology of development to prototype ADAS. This methodology dedicated to cooperative ADAS drove us to implement a new simulated frameworkof prototyping system. This framework combines the data from three models : Geo-localizationGPS, vision and V2V communication towards an application of anti-collision warning system. A major problem in communicating ADAS systems is the quality and robustness of the communication.It depends on a large number of parameters that must be modeled to assess there liability of these systems. We developed a new prototyping system based on the principle ofaugmenting the reality in which we can replay actual data and change settings of communication environment. The GPS data and routing protocols were crucial elements for V2V model simulation into ns-2 simulator. We have performed real tests on the experimental prototyping platform LaRA. Multiple results are presented to show up the constancy of the method and the performance efficiency of real-time multi sensors in an integrated framework for collision avoidance applications. Results of this research have shown that IVCs simulations system provides enhanced data for the verification of features of new ADAS. The results of routing protocols simulation with real-time location data are integrated in the new developed prototype. The implementation of the system warning was used to estimate the number of pre-collisions detected in both real and simulated situations. The difference between these two situations was studied and analyzed for several scenarios corresponding to different road situations
Styles APA, Harvard, Vancouver, ISO, etc.
49

Ould, Ouali Lydia. « Modèle de négociation collaborative basé sur la relation interpersonnelle de dominance ». Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS470/document.

Texte intégral
Résumé :
L'essor des travaux en informatique affective voit la naissance de diverses questions de recherches pour étudier les interactions agents /humains. Parmi elles, se pose la question de l'impact des relations interpersonnelles sur les stratégies de communications. Les interactions entre un agent conversation et un utilisateur humain prennent généralement place dans des environnements collaboratifs où les interlocuteurs partagent des buts communs. La relation interpersonnelle que les individus créent durant leurs interactions affecte leurs stratégies de communications. Par ailleurs, des individus qui collaborent pour atteindre un but commun sont généralement amenés à négocier. Ce type de négociation permet aux négociateurs d'échanger des informations afin de mieux collaborer. L'objectif cette thèse est d'étudier l'impact de la relation interpersonnelle de dominance sur les stratégies de négociation collaborative entre un agent et un humain. Ce travail se base sur des études en psychologie sociale qui ont défini les comportements liés à la manifestation de la dominance dans une négociation. Nous proposons un modèle de négociation collaborative dont le modèle décisionnel est régi par la relation de dominance. En effet, en fonction de sa position dans le spectre de dominance, l'agent est capable d'exprimer une stratégie de négociation spécifique. En parallèle, l'agent simule une relation interpersonnelle de dominance avec son interlocuteur. Pour ce faire, nous avons doté l'agent d'un modèle de théorie de l'esprit qui permet à l'agent de raisonner sur les comportements de son interlocuteur afin de prédire sa position dans le spectre de dominance. Ensuite, il adapte sa stratégie de négociation vers une stratégie complémentaire à celle détectée chez son interlocuteur. Nos résultats ont montré que les comportements de dominance exprimés par notre agent sont correctement perçus. Par ailleurs, le modèle de la théorie de l'esprit est capable de faire de bonnes prédictions avec seulement une représentation partielle de l'état mental de l'interlocuteur. Enfin, la simulation de la relation interpersonnelle de dominance a un impact positif sur la négociation: les négociateurs atteignent de bon taux de gains communs. De plus, la relation de dominance augmente le sentiment d'appréciation entre les négociateurs et la négociation est perçue comme confortable
The rise of work in affective computing sees the emergence of various research questions to study agent / human interactions. Among them raises the question of the impact of interpersonal relations on the strategies of communication. Human/agent interactions usually take place in collaborative environments in which the agent and the user share common goals. The interpersonal relations which individuals create during their interactions affects their communications strategies. Moreover, individuals who collaborate to achieve a common goal are usually brought to negotiate. This type of negotiation allows the negotiators to efficiently exchange information and their respective expertise in order to better collaborate. The objective of this thesis is to study the impact of the interpersonal relationship of dominance on collaborative negotiation strategies between an agent and a human. This work is based on studies from social psychology to define the behaviours related to the manifestation of dominance in a negotiation. We propose a collaborative negotiation model whose decision model is governed by the interpersonal relation of dominance. Depending on its position in the dominance spectrum, the agent is able to express a specific negotiation strategy. In parallel, the agent simulates an interpersonal relationship of dominance with his interlocutor. To this aim, we provided the agent with a model of theory of mind that allows him to reason about the behaviour of his interlocutor in order to predict his position in the dominance spectrum. Afterwards, the agent adapts his negotiation strategy to complement the negotiation strategy detected in the interlocutor. Our results showed that the dominance behaviours expressed by our agent are correctly perceived by human participants. Furthermore, our model of theory of mind is able de make accurate predictions of the interlocutor behaviours of dominance with only a partial representation of the other's mental state. Finally, the simulation of the interpersonal relation of dominance has a positive impact on the negotiation: the negotiators reach a good rate of common gains and the negotiation is perceived comfortable which increases the liking between the negotiators
Styles APA, Harvard, Vancouver, ISO, etc.
50

Carocci, Margot. « Sur la route d'un virus recombinant EMCV-FMDV ». Paris 7, 2011. http://www.theses.fr/2011PA077186.

Texte intégral
Résumé :
La Fièvre Aphteuse est une maladie animale très contagieuse à fortes répercussions économiques. L'agent responsable, FMDV, un picornavirus, se réplique et dissémine rapidement. Ce projet de thèse consiste à produire un virus recombinant chimère EMCV-FMDV utilisable comme vaccin vivant atténué marqueur contre FMD. Son génome sera constitué de régions codant les protéines non structurales du virus de l’encéphalomyocardite (EMCV), celles qui codent les protéines de capside seront issues du FMDV. Dans le but d'atténuer la virulence de l'EMCV, une délétion dans la protéine 2A a été introduite. L'étude du virus délété, EMCV1. 26Δ2A, a permis de montrer qu'il entraine la mort des cellules par apoptose contrairement au virus sauvage, suggérant que la protéine 2A de l'EMCV est nécessaire à l'inhibition de l'apoptose. De plus, nous avons pu montrer que le virus EMCV1. 26Δ2A était fortement atténué in vitro et in vivo, et qu'il protège efficacement des souris contre une dose létale du virus sauvage. Nos résultats indiquent que ce virus est un bon candidat comme vaccin vivant atténué contre l'EMCV et une base sûre pour la conception du virus chimère EMCV-FMDV. La production de ce virus recombinant chimère a nécessité plusieurs étapes de clonage qui ont permis d'obtenir un plasmide contenant un ADNc génomique EMC V1. 26 A2 A-PI FMDV (pMCl). Après transfection de pMCl, la production d'antigènes de capside FMDV a pu être détectée mais ces premiers essaies n'ont pas permis d'obtenir de virus infectieux. La formation de particules virales recombinantes ou les éventuelles étapes limitantes du cycle viral restent à déterminer mais les résultats obtenus jusque là sont encourageants et prometteurs
Foot and Mouth Disease is a highly contagious animal disease with important economic impacts. The causative agent, FMDV, a picornavirus, replicates and spreads extremely rapidly. The recent outbreaks in countries previously FMD-free demonstrated the need to develop control strategies to stop or at least slow the spread of the virus. The aim of this project is to develop a safe recombinant virus that would be made of FMDV capsid proteins, and the non structural proteins of the Encephalomyocarditis virus (EMCV). This recombinant virus will serve as a marker vaccine against FMD. In order to attenuate EMCV virulence, a deletion in the 2A protein was introduced. Study of EMCV1. 26 Δ 2A virus showed that it causes cell death by apoptosis in contrast to the wild type, suggesting that the EMCV 2A protein is necessary to inhibit apoptosis. Moreover, we have shown that EMCV1. 26 Δ 2A virus was strongly attenuated in vitro as in vivo, and efficiently protected mice after challenge with a lethal dose of wild type virus. Our results indicate that this virus is a good candidate for a live attenuated vaccine against EMCV and a safe base for the production of the EMCV-FMDV chimera virus. The production of this recombinant chimera virus required several cloning steps, leading to the construction of the EMC VA2 Δ -PI FMDV genomic cDNA (pMCl). The first attempts to produce recombinant virus EMC V Δ 2A-P1 FMDV allowed detection of FMDV capsid antigens, but did not succeed yet to produce infections recombinant virus. The formation of recombinant viral particles or the eventual limiting steps of the viral cycle remain to be determined. However, the results obtained up to now are heartening and promising
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie