To see the other types of publications on this topic, follow the link: Analyse basée sur les fixels.

Dissertations / Theses on the topic 'Analyse basée sur les fixels'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Analyse basée sur les fixels.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Lebrun, Aurélie. "Imagerie de la connectivité et de la microstructure cérébrales dans la maladie d'Alzheimer et les maladies apparentées." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASQ056.

Full text
Abstract:
La maladie d'Alzheimer (MA), qui est la première cause de démence dans le monde, se manifeste cliniquement dans sa forme typique par un syndrome amnésique et se caractérise physiopathologiquement par l'agrégation et l'accumulation de protéines amyloïde-β et tau anormales. Cependant, la MA n'est pas la seule cause d'amnésie progressive, qui peut aussi être causée par des pathologies apparentées telles que l'encéphalopathie à prédominance limbique TDP-43 liée à l'âge (LATE). Dans ce contexte, l'imagerie in vivo est un outil précieux pour étudier les altérations des structures cérébrales et leur évolution, et identifier des biomarqueurs permettant de caractériser et différencier chaque maladie. Cette thèse a pour objectif d'utiliser des nouveaux modèles d'IRM de diffusion pour étudier les altérations des tissus, en particulier de la substance blanche, dans la maladie d'Alzheimer débutante et les amnésies non Alzheimer.Afin de pouvoir mettre en place la chaîne de pré-traitements des données la plus performante, nous avons comparé plusieurs méthodes de correction des artefacts de susceptibilité magnétique survenant sur les IRM de diffusion. Nous avons ensuite mis en place plusieurs analyses basées sur les fixels pour étudier les altérations de la substance blanche dans la MA typique et dans la LATE présumée. Dans un premier temps, nous avons mené une analyse transversale pour comparer l'intégrité des faisceaux de substance blanche entre les deux groupes de patients et des sujets contrôles. Les sujets ont par ailleurs été suivis annuellement sur le plan clinique et ont bénéficié d'une seconde IRM à 2 ans, permettant d'étudier l'évolution des altérations de la substance blanche en utilisant une analyse basée sur les fixels adaptée au contexte longitudinal.Notre étude transversale met en évidence une altération commune des faisceaux du lobe temporal et des régions limbiques chez des patients atteints de MA et des patients présumés LATE par rapport aux sujets contrôles. Les patients présumés LATE présentaient de plus une altération du faisceau cérébello-thalamo-cortical. Enfin, les deux groupes de patients présentaient une atrophie corticale dans les régions connectées aux faisceaux identifiés comme altérés dans chaque groupe. Notre étude longitudinale met en évidence une aggravation sur 2 ans des altérations des faisceaux de substance blanche dans chaque groupe de patients par rapport aux sujets contrôles dans des faisceaux connectant le lobe temporal aux lobes pariétal et frontal, et montre que l'évolution de ces altérations garde des schémas en partie distincts entre les groupes de patients. Les résultats de ces études sont cohérents avec les stades de propagation décrits des protéinopathies tau et TDP-43.Ce travail de thèse montre que l'IRM de diffusion et en particulier la méthode fixel sont des méthodes d'imagerie performantes permettant de mettre en évidence de manière précise des atteintes différentes de la substance blanche chez des patients présentant des troubles cognitifs similaires. Les résultats obtenus montrent ainsi que ces maladies, considérées initialement comme des maladies du cortex, entraînent aussi des altérations de la substance blanche dont la topographie et la progression diffèrent entre ces deux groupes de patients. Cette conclusion est en faveur d'un éventuel rôle de la substance blanche dans l'évolution de ces maladies et met en lumière l'importance d'étudier ces processus dans l'espoir de mieux comprendre leurs mécanismes
Typical Alzheimer's disease (AD), the leading cause of dementia worldwide, is clinically described by an amnestic syndrome and is pathophysiologically characterized by the aggregation and accumulation of abnormal amyloid-β and tau proteins. However, AD is not the only cause of progressive amnesia, which can be caused by different related pathologies like limbic-predominant age-related TDP-43 encephalopathy (LATE). In this context, in vivo imaging is an invaluable tool to study alterations in brain structures and their evolution, and to identify biomarkers to characterize and differentiate each disease. The aim of this thesis is to use advanced diffusion MRI models to investigate tissue alterations, especially of white matter, in amnestic Alzheimer's disease and non-Alzheimer's amnesia.In order to implement the most efficient pre-processing pipeline, we first compared several methods for correcting magnetic susceptibility artifacts in diffusion MRI. We then implemented fixel-based analyses to study white matter alterations in typical AD and in presumed LATE. We performed two studies. First, we compared white matter fiber bundle integrity between the two groups of patients and controls in a cross-sectional study. Participants were also followed clinically on an annual basis and underwent a second MRI at 2 years, enabling us to investigate the evolution of white matter alterations using a fixel-based analysis that was adapted to the longitudinal design. Our cross-sectional study revealed a common alteration of white matter fiber bundles of the temporal lobe and limbic regions in AD patients and in presumed LATE patients compared to controls. Presumed LATE patients also showed alterations in the cerebello-thalamo-cortical tract. Additionally, both groups of patients showed cortical atrophy in regions connected to the bundles identified as altered in each group. Our longitudinal study showed a worsening over 2 years of white matter fiber bundle alterations in each group of patients compared to controls in tracts that connect the temporal lobe to the parietal and frontal lobes. It showed that the evolution of these alterations follows partly distinct patterns between the two groups of patients. The results of these studies are consistent with the staging system of propagation of tau and TDP-43 proteinopathies.This thesis shows that diffusion MRI, and fixel-based analysis in particular, are high-performance imaging methods that can accurately identify different white matter alterations in patients suffering from similar cognitive impairments. The results then show that these diseases, initially considered as cortical diseases, also result in white matter alterations with different topography and progression between groups of patients with similar initial clinical symptoms. This finding supports a possible role for white matter in the propagation of these diseases, and highlights the importance of studying these processes in the hope of a better understanding of their mechanisms
APA, Harvard, Vancouver, ISO, and other styles
2

Wu, Zeqin. "SSTA basée sur la propagation des moments." Montpellier 2, 2009. http://www.theses.fr/2009MON20133.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Wu, Zeqin. "SSTA Basée sur la Propagation des Moments." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2009. http://tel.archives-ouvertes.fr/tel-00471241.

Full text
Abstract:
L'analyse temporelle basée sur corners (CTA) devient de plus en plus pessimiste ainsi avec la diminution de la taille des transistors, ce qui explique la nécessité de se tourner vers l'analyse temporelle statique statistique (SSTA). Cependant, cette nouvelle génération d'analyse temporelle n'a pas été largement adoptée dans l'industrie en raison de diverses faiblesses. La méthode SSTA basée sur les chemins de données, proposée dans cette thèse, calcule les distributions des délais de chemins en propageant itérativement la moyenne et la variance des délais des cellules avec l'aide des moments conditionnels. Ces moments, conditionnés sur la pente d'entrée et la charge de sortie, sont stockés dans une librairie temporelle statistique. Cette procédure est aussi rapide que les méthodes paramétriques, tout en ne perdant pas trop de précision par rapport aux simulations de Monte Carlo, ce qui répond à l'objectif de notre recherche. L'autre contribution de cette thèse est l'amélioration des techniques de caractérisation temporelle. Pour cela, nous utilisons des signaux d'entrée basés sur des distributions log-logistique et des inverseurs comme charge de sortie pour capturer les variations de pente et de charge. De plus, le temps CPU pour la caractérisation temporelle pourrait être amélioré par la technique de réduction des dimensions, qui devrait être validée dans un avenir proche. En ce qui concerne les applications, notre procédure SSTA, donne des gains en délais important par rapport à la méthode CTA. La différence d'ordres sur les chemins critiques obtenus respectivement par les méthodes SSTA et CTA est aussi expliquée dans cette partie. Pour terminer, une étude sur les corrélations entre cellules est exposée.
APA, Harvard, Vancouver, ISO, and other styles
4

Clarot, Pierre. "Analyse de séquences vidéo de surveillance basée sur la détection d'activités." Mémoire, Université de Sherbrooke, 2010. http://savoirs.usherbrooke.ca/handle/11143/4882.

Full text
Abstract:
Le présent mémoire porte sur des applications de vidéosurveillance fondées sur des techniques d'analyse d'images et de vidéos. Plus particulièrement, deux volets de la vidéosurveillance y sont abordés.Le premier volet porte sur la mise en correspondance d'objets vus par plusieurs caméras en même temps. Fonctionnant en réseau, ces caméras peuvent être fixes ou articulées, avoir différents paramètres internes (distance focale, résolution, etc.) et différentes positions et orientations. Ce type de réseau est qualifié d'hétérogène. À ce jour, très peu de solutions ont été proposées pour effectuer la mise en correspondance d'objets à travers un réseau hétérogène. L'originalité de notre méthode réside dans sa fonction de coût. Elle utilise la co-occurrence statistique d'événements binaires détectés par plusieurs caméras filmant un même endroit. L'utilisation de tels événements plutôt que des caractéristiques de couleur et de texture confère à notre méthode un avantage considérable. En effet, nous démontrons que la présence et l'absence d'activité sont des caractéristiques indépendantes de la position, de l'orientation ainsi que des paramètres internes des caméras. Autrement dit, un objet en mouvement vu par plusieurs caméras laissera une trace statistique identique dans chacune des caméras et ce, peu importe leur configuration. Notre méthode peut donc fonctionner sans étalonnage préalable du réseau, ce qui constitue un avantage indéniable. Nous démontrons également que les résultats obtenus par notre méthode peuvent être utilisés pour estimer des cartes d'occultation, les matrices d'homographie et fondamentale, ainsi que les matrices de projection des caméras.Le deuxième volet de ce mémoire porte sur la segmentation temporelle de longues séquences de vidéosurveillance. L'objectif ici est de segmenter une séquence vidéo longue de plusieurs heures en clips vidéo longs de quelques secondes. Ces clips sont étiquetés en fonction de la nature des événements qu'ils contiennent. Pour ce faire, nous utilisons à nouveau des événements binaires fondés sur la présence et l'absence d'activité. Ces événements nous permettent de quantifier non seulement la densité d'activité, mais également la taille des objets en mouvement, leur direction ainsi que leur vitesse. Dans ce mémoire, nous démontrons différentes façons d'extraire ces caractéristiques dites"événementielles". Nous comparons également différentes techniques de segmentation telles que la propagation d'affinité (l'affinity propagation), et la segmentation spectrale (spectral clustering) sur plusieurs vidéos de surveillance. Nous démontrons également que le positionnement multidimensionnel (multidimentional scaling) est un outil utile pour analyser le contenu sémantique de longues séquences vidéo.
APA, Harvard, Vancouver, ISO, and other styles
5

Caron, Stéphane. "Détection d'anomalies basée sur les représentations latentes d'un autoencodeur variationnel." Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/69185.

Full text
Abstract:
Dans ce mémoire, nous proposons une méthodologie qui permet de détecter des anomalies parmi un ensemble de données complexes, plus particulièrement des images. Pour y arriver, nous utilisons un type spécifique de réseau de neurones, soit un autoencodeur variationnel (VAE). Cette approche non-supervisée d'apprentissage profond nous permet d'obtenir une représentation plus simple de nos données sur laquelle nous appliquerons une mesure de distance de Kullback-Leibler nous permettant de discriminer les anomalies des observations "normales". Pour déterminer si une image nous apparaît comme "anormale", notre approche se base sur une proportion d'observations à filtrer, ce qui est plus simple et intuitif à établir qu'un seuil sur la valeur même de la distance. En utilisant notre méthodologie sur des images réelles, nous avons démontré que nous pouvons obtenir des performances de détection d'anomalies supérieures en termes d'aire sous la courbe ROC, de précision et de rappel par rapport à d'autres approches non-supervisées. De plus, nous avons montré que la simplicité de l'approche par niveau de filtration permet d'adapter facilement la méthode à des jeux de données ayant différents niveaux de contamination d'anomalies.
In this master's thesis, we propose a methodology that aims to detect anomalies among complex data, such as images. In order to do that, we use a specific type of neural network called the varitionnal autoencoder (VAE). This non-supervised deep learning approach allows us to obtain a simple representation of our data on which we then use the Kullback-Leibler distance to discriminate between anomalies and "normal" observations. To determine if an image should be considered "abnormal", our approach is based on a proportion of observations to be filtered, which is easier and more intuitive to establish than applying a threshold based on the value of a distance metric. By using our methodology on real complex images, we can obtain superior anomaly detection performances in terms of area under the ROC curve (AUC),precision and recall compared to other non-supervised methods. Moreover, we demonstrate that the simplicity of our filtration level allows us to easily adapt the method to datasets having different levels of anomaly contamination.
APA, Harvard, Vancouver, ISO, and other styles
6

Mastandrea, Vicenzo. "Analyse de synchronisation dans les objets actifs basée sur les types comportementaux." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4113/document.

Full text
Abstract:
Le concept d'objet actif est un modèle de calcul puissant utilisé pour définir des systèmes distribués et concurrents. Dans ce travail, nous étudions un modèle d'objet actif sans type futur explicite et avec 'attente par nécessité', une technique qui déclenche une synchronisation sur la valeur retournée par une invocation lorsque celle-ci est strictement nécessaires. Bien que la concurrence élevée combinée à un haut niveau de transparence conduise à de bonnes performances, elles rendent le système plus propice à des problèmes comme les deadlocks. C'est la raison qui nous a conduit à étudier l'analyse de deadlocks dans ce modèle d'objets actifs. Le développement de notre analyse de les deadloks est divisé en deux travaux principaux. Dans le premier travail, nous nous concentrons sur la synchronisation implicite sur la disponibilité d'une certaine valeur. De cette façon, nous pouvons analyser la synchronisation des flux de données inhérente aux langues qui permettent une attente par nécessité. Dans le deuxième travail, nous présentons une technique d'analyse statique basée sur des effets et des types comportementaux pour dériver des modèles de synchronisation d'objets actifs et confirmant l'absence de deadlock dans ce contexte. Notre système d'effets trace l'accès aux champs d'objet, ce qui nous permet de calculer des types comportementaux qui expriment des modèles de synchronisation de manière précise. En conséquence, nous pouvons vérifier automatiquement l'absence de blocages dans des programmes basés sur des objets actifs avec des synchronisations d'attente par nécessité et des objets actifs dotés d’un état interne
The active object concept is a powerful computational model for defining distributed and concurrent systems. This model has recently gained prominence, largely thanks to its simplicity and its abstraction level. In this work we study an active object model with no explicit future type and wait-by-necessity synchronisations, a lightweight technique that synchronises invocations when the corresponding values are strictly needed. Although high concurrency combined with a high level of transparency leads to good performances, they also make the system more prone to problems such as deadlocks. This is the reason that led us to study deadlock analysis in this active objects model.The development of our deadlock analysis is divided in two main works. In the first work we focus on the implicit synchronisation on the availability of some value. This way we are able to analyse the data-flow synchronisation inherent to languages that feature wait-by-necessity. In the second work we present a static analysis technique based on effects and behavioural types for deriving synchronisation patterns of stateful active objects and verifying the absence of deadlocks in this context. Our effect system traces the access to object fields, thus allowing us to compute behavioural types that express synchronisation patterns in a precise way. As a consequence we can automatically verify the absence of deadlocks in active object based programs with wait-by-necessity synchronisations and stateful active objects
APA, Harvard, Vancouver, ISO, and other styles
7

Ould, Aboubecrine Mohamed Mahmoud. "Sur l'estimation basée sur les records et la caractérisation des populations." Le Havre, 2011. http://www.theses.fr/2011LEHA0004.

Full text
Abstract:
Dans la première partie de ce travail, nous considérons un nombre k-valeurs records d'une suite de variables aléatoires indépendantes et identiquement distribuées de fonction de répartition F, notre but est de prédire les futures k-valeurs sous des hypothèses adéquates sur la queue de F. Dans la deuxième partie, nous considérons deux populations de tailles finies et étudions leurs caractérisations en utilisant la régression des statistiques d'ordre sur un tirage sans remise. Nous donnons également quelques résultats asymptotiques lorsque la taille de la population tend vers l'infini
In the first part of this work, we consider a number of k-record values from independent and identically distributed random variables with a continuous distribution function F, ou aim is to predict future k-record values under suitable assumptions on the tail of F. In the second part, we consider finite populations and investigate their characterization by regressions of order statistics under sampling without replacement. We also give some asymptotic results when the size of the population goes to infinity
APA, Harvard, Vancouver, ISO, and other styles
8

Belkaroui, Rami. "Vers un contextualisation des tweets basée sur une analyse des graphes des conversation." Thesis, Nantes, 2018. http://www.theses.fr/2018NANT4013/document.

Full text
Abstract:
Même avec le récent passage à 280 caractères, les messages de Twitter considérés dans leur singularité, sans information additionnelle exogène, peuvent confronter leurs lecteurs à des difficultés d’interprétation. L’ajout d’une contextualisation à ces messages s’avère donc une voie de recherche prometteuse pour faciliter l’accès à leur contenu informationnel. Dans la dernière décennie, la majorité des travaux se sont concentrés sur la construction de résumés à partir de sources d’information complémentaires telles que Wikipédia. Nous avons choisi dans cette thèse une voie complémentaire différente qui s’appuie sur l’analyse des conversations sur Twitter afin d’extraire des informations utiles à la contextualisation d’un tweet. Ces informations ont été intégrées dans un prototype qui, pour un tweet donné, propose une visualisation d’un sous-graphe du graphe de conversation associé au tweet. Ce sous-graphe extrait automatiquement à partir de l’analyse des distributions des indicateurs structurels, permet de mettre en évidence notamment des individus qui jouent un rôle majeur dans la conversation et des tweets qui ont contribué à la dynamique des échanges. Ce prototype a été testé sur un panel d’utilisateurs, pour valider son apport et ouvrir des perspectives d’amélioration
Even with the recent switch to 280 characters, Twitter messages considered in their singularity, without any additional exogenous information, can confront their readers with difficulties of interpretation. The integration of contextualization on these messages is therefore a promising avenue of research to facilitate access to their information content. In the last decade, most works have focused on building summaries from complementary sources of information such as Wikipedia. In this thesis, we choose a different complementary path that relies on the analysis of conversations on Twitter in order to extract useful information for the contextualization of a tweet. These information were integrated in a prototype which, for a given tweet, offers a visualization of a subgraph of the conversation graph associated with the tweet. This subgraph, automatically extracted from the analysis of structural indicators distributions, allows to highlight particular individuals who play a major role in the conversation and tweets that have contributed to the dynamics of exchanges. This prototype was tested on a panel of users to validate its efficiency and open up prospects for improvement
APA, Harvard, Vancouver, ISO, and other styles
9

Arregle, Jean-Luc. "L'industrialisation des sociétés de conseil en management : une analyse basée sur les ressources." Aix-Marseille 3, 1992. http://www.theses.fr/1992AIX32030.

Full text
Abstract:
Cette recherche etudie le niveau d'industrialisation (taille, standardisation, nouvelles technologies) des services de conseil en management en france sous un angle strategique en utilisant, de maniere exploratoire, l'approche basee sur les "ressources" qui considere le management strategique comme "les actions d'une entreprise pour identifier, proteger, et exploiter ses ressources pour creer un avantage concurrentiel sur ses marches". Ainsi, grace a une analyse laterale sur 31 entreprises, sont mises en evidence les 3 ressources critiques de ces entreprises : le reseau, la taille, le savoir-faire. De meme, des comportements differents ont ete constates selon que leur plate-forme strategique laterale etait basee sur des aptitudes ou des actifs. Enfin, des liaisons entre les differents niveaux d'industrialisation et les ressources critiques sont constatees. Elles montrent le caractere strategique de cette evolution, permettent de valider l'approche "basee sur les ressources" et de deduire qu'un moyen pour industrialiser les services professionnels est de modifier les marches des facteurs strategiques associes et leur processus d'accumulation. Des voies de recherche sont precisees qui relevent d'analyses longitudinales pour identifier les processus de constitutions des stocks d'actifs et le niveau de soutenabilite des avantages concurrentiels developpes
This research deals with the industrialization (size, standardization, information technology) of management consulting firms in france. The strategic perspective is supported by the "resource based" approach which defines strategic management as "firms attempt to identify, protect, and exploit their unique skills and assets in order to gain competitive advantage in the market place". A cross sectional analysis of 31 enterprises gives the possibility to identify 3 "core resources" : network, size, know how. In addition, competitive behaviours are identified according to the type of resources (skills versus assets). Linkages between different industrialization levels and "core resources" are observed showing the strategic dimension of this evolution. By the means, the resource based approach is validated. Subjects for further research are defined using time section analysis to identify the building of asset stocks and the level of sustainability of competitive advantages
APA, Harvard, Vancouver, ISO, and other styles
10

Davoine, Franck. "Compression d'images par fractales basée sur la triangulation de Delaunay." Phd thesis, Grenoble INPG, 1995. http://tel.archives-ouvertes.fr/tel-00005042.

Full text
Abstract:
Ce mémoire traite de la compression des images fixes par fractales, fondée sur la théorie des systèmes de fonctions itérées (IFS). Après quelques rappels sur les principales méthodes de codage entropique et de compression réversible et irréversible des images nous introduisons les notions nécessaires à la compréhension de la théorie des IFS. Nous détaillons ensuite les principaux algorithmes de compression des images naturelles selon l'approche fractale. Ces derniers consistent à approximer chacun des éléments d'une partition à l'aide d'une transformation locale contractante appliquée sur une autre partie de l'image. Ceci nous conduit à présenter les modèles de partitionnement utilisés pour coder les similarités locales des images. La partie suivante constitue la contribution majeure du travail. Nous présentons un algorithme de codage par fractales fondé sur la triangulation de Delaunay. La souplesse de ce modèle nous permet d'utiliser diverses triangulations adaptées au contenu de l'image à compresser. Nous proposons ensuite différentes solutions ayant pour but d'améliorer le schéma de codage-decodage. La premiere vise à réduire la complexité de la phase de codage en diminuant le nombre de comparaisons inter-blocs, par un algorithme de quantification vectorielle de l'espace de recherche. La seconde vise à réduire le nombre de blocs traités tout en améliorant les résultats visuels, pour des taux de compression élevés. Ceci est fait en introduisant des quadrilatères dans la triangulation de l'image. Nous concluons le mémoire en commentant différents résultats de décompression obtenus à partir des partitionnements étudiés, puis comparons ces résultats à ceux obtenus à partir de méthodes hybrides liant le codage par fractales à une décomposition multirésolution de l'image ou à la transformée en cosinus discrète.
APA, Harvard, Vancouver, ISO, and other styles
11

Marteau, Hubert. "Une méthode d'analyse de données textuelles pour les sciences sociales basée sur l'évolution des textes." Tours, 2005. http://www.theses.fr/2005TOUR4028.

Full text
Abstract:
Le but est d'apporter aux sociologues un outil informatique permettant l'analyse d'entretiens ouverts semi-directifs. Le traitement est en deux étapes : une indexation des entretiens suivi d'une classification. Les méthodes d'indexation habituelles reposent sur une analyse statistiques plus adaptées à des textes de contenu et de structure (textes littéraires, scientifiques,. . . ) marqués qu'à des entretiens limités à l'usage de peu de mots (1000 mots pour des textes de discussion). Partant de l'hypothèse que l'appartenance sociologique induit fortement la forme du discours, nous évaluons la structure et l'évolution des textes en proposant de nouvelles représentations des textes (image, signal) qui conduisent à l'extraction de valeurs indexant le texte, mesures statiques ou liées à l'évolution du texte. La classification choisie est arborée (NJ). Elle repose sur ces caractéristiques par sa faible complexité et son respects des distances, elle fournit une aide à la classification
This PhD Thesis aims at bringing to sociologists a data-processing tool wich allows them to analyse of semi-directing open talks. The proposed tool performs in two steps : an indexation of the talks followed by a classification. Usually, indexing methods rely on a general stastistical analysis. Such methods are suited for texts having contents and structure ( literary texts, scientific texts,. . . ). These texts have more vocabulary and structure than talks (limitation to 1000 words for suche texts). On the basis of the assumption that the sociological membership strongly induces the form of the speech, we propose various methods to evaluate the structure and the evolution of the texts. The methods attempt to find new representations of texts (image, signal) and to extract values from these new representations. Selected classification is a classification by trees (NJ). It has a low complexity and it respects distances, then this method is a good solution to provide a help to classification
APA, Harvard, Vancouver, ISO, and other styles
12

Gagné, Alexandre. "Métrologie des actinides basée sur l’analyse des matières fécales pour des applications dosimétriques." Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30527/30527.pdf.

Full text
Abstract:
Les techniques dosimétriques externes, telles que les dosimètres portatifs et compteurs Geiger-Müller, sont largement utilisées dans la détection et l’interprétation de dose reçue par les employés du secteur nucléaire. Toutefois, ces techniques ne permettent pas de caractériser une contamination interne, telle que celle causée par des émetteurs alpha. Actuellement au Canada, les techniques de dosimétrie biologique sont orientées sur l’analyse d’urine, de frottis nasaux et, dans de rares cas, de sang, de tissus et exceptionnellement de matières fécales. Les matières fécales, quant à elles, procurent une voie différente et complémentaire aux autres types de prélèvement, en raison de l’interaction entre le système respiratoire et le système digestif. Il n’existe aucune procédure officielle au Canada sur ce genre d’échantillon. Une nouvelle méthodologie, basée sur la fusion boratée couplée à une méthode d’extraction, a été développée dans le cours de ce mémoire, ce qui devrait permettre de résoudre ce problème.
External dosimetric techniques, such as portable dosimeter and Geiger-Müller counter, are largely use in the detection and interpretation of received dose by employees of the nuclear sector. However, those techniques are inefficient for characterising internal contamination, such as alpha emitters. As for the moment, the techniques used in Canada for bioassay are oriented towards urine, nasal swabs sampling and on rare occasion; blood and tissue, exceptionally fecal samples. The fecal samples offer a different and complementary approach to other bioassays due to the interaction between the respiratory tract and the gastrointestinal tract. However, there is no official methodology for fecal analysis in Canada. For this thesis, a new methodology based on borated fusion coupled to column chromatography was developed to remedy this problem.
APA, Harvard, Vancouver, ISO, and other styles
13

Iksal, Sébastien. "Ingénierie de l'observation basée sur la prescription en EIAH." Habilitation à diriger des recherches, Université du Maine, 2012. http://tel.archives-ouvertes.fr/tel-00991970.

Full text
Abstract:
Les travaux présentés correspondent à ceux que nous avons menés au sein de l'équipe IEIAH (Ingénierie des Environnements Informatiques pour l'Apprentissage Humain) au sein du Laboratoire d'Informatique de l'Université du Maine. La question de recherche générale que nous avons choisie de traiter est la suivante : "Comment aider l'enseignant/concepteur à améliorer sa situation d'apprentissage grâce à l'observation de cette dernière?". Pour cela, nous nous sommes intéressés au processus d'observation et plus particulièrement, nous avons défini un cadre méthodologique de l'ingénierie de l'observation par la prescription. En effet, les travaux dans le domaine de l'observation traitent le plus souvent du processus d'analyse uniquement. Ce processus est certes important, car il définit la manière dont sont calculés les indicateurs, mais le plus souvent ces indicateurs sont "subis" par les usagers. Nous avons choisi de nous intéresser au processus d'ingénierie de l'observation qui va de l'agent humain exprimant son besoin d'observation jusqu'à l'agent humain (le plus souvent, il s'agit de la même personne) qui exploite le résultat de l'observation. Nous envisageons donc l'observation au sens large, au travers d'un cycle d'ingénierie/réingénierie qui s'étend de l'expression du besoin jusqu'à l'opérationnalisation et le retour d'expérience sur l'observation. Nous parlons alors d'ingénierie de l'observation basée sur la prescription car en intégrant l'enseignant-concepteur dans le processus, nous lui demandons de scénariser et donc de prescrire l'observation.
APA, Harvard, Vancouver, ISO, and other styles
14

El, Jabri Mohammed. "Etude de l'organisation spatiale du tissu conjonctif par analyse d'images basée sur une approche multiéchelles." Phd thesis, Clermont-Ferrand 2, 2008. http://www.theses.fr/2008CLF21831.

Full text
Abstract:
L'objectif de ce travail est de caractériser le tissu musculaire en évaluant sa qualité à partir de données d'imagerie. Plus précisement, on se propose de développer des outils de prédiction de la tendreté de la viande bovine, basés sur le processus de vision artificielle, en étudiant le tissu conjonctif intramusculaire qui contribue de manière significative à la dureté intrinsèque de la viande. Les images des coupes de muscles, ont été acquises avec deux types d'éclairage : lumière blanche polarisée et ultraviolet. Notre contribution pour analyser ces images est basée sur une approche multiéchelle. Deux méthodes de segmentation ont été proposées, elles sont basées sur la transformée en ondelettes discrète, notamment l'algorithme "à trous". La première repose sur le seuillage universel et la seconde sur l'algorithme de K-moyennes appliqué à l'image résultante d'une sommation sur les plans d'ondelettes. Un autre volet de ce travail concerne l'extraction des paramètres et la décision. L'information retenue est la distribution des tailles d'objets éléments de la trame conjonctive de viande. Les outils statistiques que sont la régression linéaire et les réseaux de neurones ont été appliqués aux données issues des étapes de traitement des images. Le modèle final qui a été retenu pour la prévision de la tendreté a été déterminé selon un critère de maximisation du R2. Le choix du nombre de paramètres a été basé sur un critère de validation croisée (Leave one out). Les résultats de prédiction, issus de la base de données d'étude, sont très encourageants, mettant en évidence une corrélation certaine entre les paramètres d'images et la qualité sensorielle de la viande en particulier la tendreté
APA, Harvard, Vancouver, ISO, and other styles
15

Bouzefrane, Samia. "Etude temporelle des applications temps réel distribuées à contraintes strictes basée sur une analyse d'ordonnançabilité." Poitiers, 1998. http://www.theses.fr/1998POIT2254.

Full text
Abstract:
Ce travail presente une methodologie de modelisation et de validation d'applications temps reel reparties. Ces applications composees de taches reparties sur differents sites communiquent par echange de messages a travers un reseau de communication a delai d'acces borne suppose fiable. La methodologie developpee est basee sur une analyse d'ordonnancabilite des taches et des messages. L'objectif est d'une part de verifier le respect des contraintes temporelles globales d'une application temps reel repartie c'est a dire le respect, a la fois, des contraintes temporelles des taches et de celles des messages echangees entre ces taches et d'autre part d'utiliser les sequences d'execution obtenues pour faire une analyse de performance. Cette methodologie comprend trois etapes : la modelisation de l'application basee sur un modele temporel des taches, la prise en compte de la communication par derivation des parametres temporels des taches et l'ordonnancement des taches sur les sites et des messages sur le medium de communication. Un outil, appele mosarts, qui integre un calcul des criteres de performance implemente cette methodologie d'analyse.
APA, Harvard, Vancouver, ISO, and other styles
16

Couchot, Alain. "Analyse statique de la terminaison des règles actives basée sur la notion de chemin maximal." Paris 12, 2001. http://www.theses.fr/2001PA120042.

Full text
Abstract:
Les règles actives sont destinées à doter les bases de données d'un comportement réactif. Une règle active se compose de trois éléments principaux: l'événement, la condition, l'action. Il est souhaitable de garantir a priori la terminaison d'un ensemble de règles actives. Le but de cette thèse est d'augmenter le nombre de situations de terminaison détectées par l'analyse statique. Nous cernons tout d'abord un certain nombre de limitations des méthodes d'analyse statique de la terminaison des règles actives proposées par le passé. Nous développons ensuite un algorithme d'analyse statique de la terminaison basé sur la notion de chemin maximal d'un noeud. La notion de chemin maximal est destinée à remplacer la notion de cycle, employée par les algorithmes de terminaison antérieurs. Nous présentons un certain nombre d'applications et d'extensions de notre algorithme de terminaison. Ces extensions et applications concernent les règles non incluses dans un cycle, les conditions composites, les événements composites, les priorités entre règles, ainsi que la conception modulaire de règles actives. Nous présentons également présenté une extension significative de la méthode RTG, permettant d'inclure dans une formule de déclenchement des atomes dépendants de la base de données
The active rules are intended to enrich the databases with a reactive behaviour. An active rule is composed of three main components: the event, the condition, the action. It is desired to guarantee a priori the termination of a set of active rules. The aim of this thesis is to increase the number of termination situations detected by the static analysis. We first determine some restrictions of the previous static analysis methods. We develop then an algorithm for static analysis of termination based on the notion of maximal path of a node. The notion of maximal path is intended to replace the notion of cycle, used by the previous termination algorithms. We present some applications and extensions of our termination algorithm. These extensions and applications concern the active rules flot included in a cycle, the composite conditions, the composite events, the priorities between ailes, and the modular design of rules. .
APA, Harvard, Vancouver, ISO, and other styles
17

Bentahar, Amine. "Identification des préoccupations transverses : une approche statique basée sur une analyse du flot de contrôle." Thèse, Université du Québec à Trois-Rivières, 2012. http://depot-e.uqtr.ca/5169/1/030328231.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Mejri, Issam. "Internationalisation des PME technologiques issues des économies émergentes : une analyse basée sur les opportunités d’affaires." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR0029/document.

Full text
Abstract:
Les deux dernières décennies ont été marquées par la montée en puissance des économies émergentes et l’émergence de startups et PME technologiques à forte croissance internationale. Cette tendance a donné naissance à un nouveau domaine de recherche, l’entrepreneuriat international dans les économies émergentes. L’objet de cette recherche qualitative est d’étudier les facteurs qui influencent le processus d’identification des opportunités internationales chez les PME technologiques issues d’une économie émergente, la Tunisie. A cet effet, nous étudions le processus d’internationalisation de sept PME technologiques tunisiennes du secteur des technologies de l’information et des communications. Les résultats de l’analyse intra et inter cas identifient les traits de personnalité de l’entrepreneur, les capacités entrepreneuriales internationales et les réseaux relationnels de l’entrepreneur comme les trois principales catégories de facteurs qui influencent l’identification des opportunités internationales. Notre recherche aboutit à la formulation et la discussion de huit propositions qui permettent de schématiser un modèle explicatif de l’internationalisation des PME technologiques issues des économies émergentes
The last two decades have been marked by the rise of emerging economies and the emergence of start-ups and Hi-Tech SMEs with high international growth. This trend has spawned a new area of research, international entrepreneurship in emerging economies. The purpose of this qualitative research is to study the factors that influence the process of identifying international opportunities in technological SMEs from an emerging economy, Tunisia. To this end, we are studying the process of internationalization of seven Tunisian technological SMEs in the information and communications technology sector. The results of the intra- and inter-case analysis identify entrepreneurial personality traits, international entrepreneurial capabilities and relational networks as the three main categories of factors that influence the identification of international opportunities. Our research results in the formulation and discussion of eight proposals that make it possible to schematize an explanatory model of the internationalization of technological SMEs emerging from emerging economies
APA, Harvard, Vancouver, ISO, and other styles
19

Tetley, Romain. "Analyse mixte de protéines basée sur la séquence et la structure - applications à l'annotation fonctionnelle." Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4111/document.

Full text
Abstract:
Dans cette thèse, l'emphase est mise sur la réconciliation de l'analyse de structure et de séquence pour les protéines. L'analyse de séquence brille lorsqu'il s'agit de comparer des protéines présentant une forte identité de séquence (≤ 30\%) mais laisse à désirer pour identifier des homologues lointains. L'analyse de structure est une alternative intéressante. Cependant, les méthodes de résolution de structures sont coûteuses et complexes - lorsque toutefois elles produisent des résultats. Ces observations rendent évident la nécessité de développer des méthodes hybrides, exploitant l'information extraite des structures disponibles pour l'injecter dans des modèles de séquence. Cette thèse produit quatre contributions principales dans ce domaine. Premièrement, nous présentons une nouvelle distance structurale, le RMSDcomb, basée sur des patterns de conservation structurale locale, les motifs structuraux. Deuxièmement, nous avons développé une méthode pour identifier des motifs structuraux entre deux structures exploitant un bootstrap dépendant de filtrations. Notre approche n'est pas un compétiteur direct des aligneurs flexibles mais permet plutôt de produire des analyses multi-échelles de similarités structurales. Troisièmement, nous exploitons les méthodes suscitées pour construire des modèles de Markov cachés hybrides biaisés vers des régions mieux conservées structurellement. Nous utilisons un tel modèle pour caractériser les protéines de fusion virales de classe II, une tâche particulièrement ardue du fait de leur faible identité de séquence et leur conservation structurale moyenne. Ce faisant, nous parvenons à trouver un certain nombre d'homologues distants connues des protéines virales, notamment chez la Drosophile. Enfin, en formalisant un sous-problème rencontré lors de la comparaison de filtrations, nous présentons un nouveau problème théorique - le D-family matching - sur lequel nous démontrons des résultats algorithmiques variés. Nous montrons - d'une façon analogue à la comparaison de régions de deux conformations d'une protéine - comment exploiter ce modèle théorique pour comparer deux clusterings d'un même jeu de données
In this thesis, the focus is set on reconciling the realms of structure and sequence for protein analysis. Sequence analysis tools shine when faced with proteins presenting high sequence identity (≤ 30\%), but are lack - luster when it comes to remote homolog detection. Structural analysis tools present an interesting alternative, but solving structures - when at all possible- is a tedious and expensive process. These observations make the need for hybrid methods - which inject information obtained from available structures in a sequence model - quite clear. This thesis makes four main contributions toward this goal. First we present a novel structural measure, the RMSDcomb, based on local structural conservation patterns - the so called structural motifs. Second, we developed a method to identify structural motifs between two structures using a bootstrap method which relies on filtrations. Our approach is not a direct competitor to flexible aligners but can provide useful to perform a multiscale analysis of structural similarities. Third, we build upon the previous methods to design hybrid Hidden Markov Models which are biased towards regions of increased structural conservation between sets of proteins. We test this tool on the class II fusion viral proteins - particularly challenging because of their low sequence identity and mild structural homology. We find that we are able to recover known remote homologs of the viral proteins in the Drosophila and other organisms. Finally, formalizing a sub - problem encountered when comparing filtrations, we present a new theoretical problem - the D-family matching - on which we present various algorithmic results. We show - in a manner that is analogous to comparing parts of two protein conformations - how it is possible to compare two clusterings of the same data set using such a theoretical model
APA, Harvard, Vancouver, ISO, and other styles
20

Dolques, Xavier. "Génération de Transformations de Modèles : une approche basée sur les treillis de Galois." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2010. http://tel.archives-ouvertes.fr/tel-00916856.

Full text
Abstract:
La transformation de modèles est une opération fondamentale dans l'ingénierie dirigée par les modèles. Elle peut être manuelle ou automatisée, mais dans ce dernier cas elle nécessite de la part du développeur qui la conçoit la maîtrise des méta-modèles impliqués dans la transformation. La génération de transformations de modèles à partir d'exemples permet la création d'une transformation de modèle en se basant sur des exemples de modèles sources et cibles. Le fait de travailler au niveau modèle permet d'utiliser les syntaxes concrètes définies pour les méta-modèles et ne nécessite plus une maîtrise parfaite de ces derniers.Nous proposons une méthode de génération de transformations de modèles à partir d'exemples basée sur l'Analyse Relationnelle de Concepts (ARC) permettant d'obtenir un ensemble de règles de transformations ordonnées sous forme de treillis. L'ARC est une méthode de classification qui se base sur des liens de correspondances entre les modèles pour faire émerger des règles. Ces liens étant un problème commun à toute les méthodes de génération de transformation de modèles à partir d'exemples, nous proposons une méthode basée sur des méthodes d'alignement d'ontologie permettant de les générer.
APA, Harvard, Vancouver, ISO, and other styles
21

Mykhalchuk, Vasyl. "Correspondance de maillages dynamiques basée sur les caractéristiques." Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAD010/document.

Full text
Abstract:
Correspondance de forme est un problème fondamental dans de nombreuses disciplines de recherche, tels que la géométrie algorithmique, vision par ordinateur et l'infographie. Communément définie comme un problème de trouver injective/ multivaluée correspondance entre une source et une cible, il constitue une tâche centrale dans de nombreuses applications y compris le transfert de attributes, récupération des formes etc. Dans récupération des formes, on peut d'abord calculer la correspondance entre la forme de requête et les formes dans une base de données, puis obtenir le meilleure correspondance en utilisant une mesure de qualité de correspondance prédéfini. Il est également particulièrement avantageuse dans les applications basées sur la modélisation statistique des formes. En encapsulant les propriétés statistiques de l'anatomie du sujet dans le model de forme, comme variations géométriques, des variations de densité, etc., il est utile non seulement pour l'analyse des structures anatomiques telles que des organes ou des os et leur variations valides, mais aussi pour apprendre les modèle de déformation de la classe d'objets. Dans cette thèse, nous nous intéressons à une enquête sur une nouvelle méthode d'appariement de forme qui exploite grande redondance de l'information à partir des ensembles de données dynamiques, variables dans le temps. Récemment, une grande quantité de recherches ont été effectuées en infographie sur l'établissement de correspondances entre les mailles statiques (Anguelov, Srinivasan et al. 2005, Aiger, Mitra et al. 2008, Castellani, Cristani et al. 2008). Ces méthodes reposent sur les caractéristiques géométriques ou les propriétés extrinsèques/intrinsèques des surfaces statiques (Lipman et Funkhouser 2009, Sun, Ovsjanikov et al. 2009, Ovsjanikov, Mérigot et al. 2010, Kim, Lipman et al., 2011) pour élaguer efficacement les paires. Bien que l'utilisation de la caractéristique géométrique est encore un standard d'or, les méthodes reposant uniquement sur l'information statique de formes peuvent générer dans les résultats de correspondance grossièrement trompeurs lorsque les formes sont radicalement différentes ou ne contiennent pas suffisamment de caractéristiques géométriques. [...]
3D geometry modelling tools and 3D scanners become more enhanced and to a greater degree affordable today. Thus, development of the new algorithms in geometry processing, shape analysis and shape correspondence gather momentum in computer graphics. Those algorithms steadily extend and increasingly replace prevailing methods based on images and videos. Non-rigid shape correspondence or deformable shape matching has been a long-studied subject in computer graphics and related research fields. Not to forget, shape correspondence is of wide use in many applications such as statistical shape analysis, motion cloning, texture transfer, medical applications and many more. However, robust and efficient non-rigid shape correspondence still remains a challenging task due to fundamental variations between individual subjects, acquisition noise and the number of degrees of freedom involved in correspondence search. Although dynamic 2D/3D intra-subject shape correspondence problem has been addressed in the rich set of previous methods, dynamic inter-subject shape correspondence received much less attention. The primary purpose of our research is to develop a novel, efficient, robust deforming shape analysis and correspondence framework for animated meshes based on their dynamic and motion properties. We elaborate our method by exploiting a profitable set of motion data exhibited by deforming meshes with time-varying embedding. Our approach is based on an observation that a dynamic, deforming shape of a given subject contains much more information rather than a single static posture of it. That is different from the existing methods that rely on static shape information for shape correspondence and analysis.Our framework of deforming shape analysis and correspondence of animated meshes is comprised of several major contributions: a new dynamic feature detection technique based on multi-scale animated mesh’s deformation characteristics, novel dynamic feature descriptor, and an adaptation of a robust graph-based feature correspondence approach followed by the fine matching of the animated meshes. [...]
APA, Harvard, Vancouver, ISO, and other styles
22

Tampango, Yendoubouam. "Développement d'une méthode sans maillage basée sur les approximations de Taylor." Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0322/document.

Full text
Abstract:
Ces dernières décennies, de nouvelles méthodes numériques connues sous le nom de « méthodes sans maillage » ont été développées. Contrairement à la MEF, ces méthodes n'utilisent qu'un ensemble de noeuds répartis dans le domaine sans demander un maillage de celui-ci. Jusqu'à présent, aucune de ces méthodes n'est parvenue à satisfaire les utilisateurs de la MEF. Dans cette thèse, nous proposons une méthode sans maillage, utilisant les approximations de Taylor. Cette méthode a l'avantage de n'utiliser que des points sur la frontière. En effet, l'EDP est résolue sous sa forme forte dans le domaine et les conditions aux limites sont appliquées par la méthode des moindres carrés. Cette méthode a été introduite, il y a 3 ans par S. Zeze dans sa thèse. Les tests académiques effectués en linéaire ont montré que cette méthode est très précise et que la convergence est améliorée en augmentant le degré, comme dans la p-version des EF. Nos travaux de thèse sont une suite des travaux de S. Zeze et ils visent à rendre plus robuste la méthode et aussi à élargir son champ d'application. Dans un premier temps, nous faisons une analyse mathématique de la méthode. Cette analyse passe par l'analyse des séries calculées. Le but de cette analyse est d'évaluer le domaine de convergence de la solution. Les résultats obtenus ont montré que pour certains problèmes, il faut subdiviser le domaine en quelques sous domaines et faire une résolution par sous domaine. La suite de nos travaux a donc été d'établir une technique de raccordement qui permettra d'assurer les conditions de transmission aux interfaces, dans le cas d'une résolution par sous domaine. En dernière partie, nous étendons l'application de la méthode aux problèmes non linéaires, en la couplant à une méthode de linéarisation
In these last decades, new numerical methods known as « meshless methods » have been developped. Contrary to the FEM, these methods uses only a set of nodes in the domain, without need of any mesh. Until now, any of these methods has convinced users of FEM. In this paper, we present a new meshless method using Taylor series expansion. In this method, the PDE is solved quasi exactly in the domain and the boundary conditions are applied by using a least square method. Then only the boundary discretisation is needed so the proposed method is a « true boundary meshless method ». This technique has been proposed for the first time by S. Zeze in his PhD thesis. The study of some linear problems has shown that this technique leads to a very good accuracy and that the convergence can be improved by increasing approximation degree. Our work is a continuation of S. Zeze work, and it consists to make the proposed method more robust and to extend its range of application. For that, we first make an analysis of the series computed by the method. The aim of this analysis was to evaluate the domain of validity of these series. This analysis showed that, for some problems, an accuracy cannot be obtained without splitting the domain in subdomains and making a resolution by subdomains. Therefore the second part of our work was to define a technique which will ensure the continuity at the interface between subdomains, in the case of a resolution by subdomains. The last part of our work was dedicated to non-linear problems. We establish an algorithm to show how the proposed method can deal with nonlinear-problems
APA, Harvard, Vancouver, ISO, and other styles
23

Selmane, Sid Ali. "Détection et analyse des communautés dans les réseaux sociaux : approche basée sur l'analyse formelle de concepts." Thesis, Lyon 2, 2015. http://www.theses.fr/2015LYO22004.

Full text
Abstract:
L’étude de structures de communautés dans les réseaux devient de plus en plus une question importante. La connaissance des modules de base (communautés) des réseaux nous aide à bien comprendre leurs fonctionnements et comportements, et à appréhender les performances de ces systèmes. Une communauté dans un graphe (réseau) est définie comme un ensemble de noeuds qui sont fortement liés entre eux, mais faiblement liés avec le reste du graphe. Les membres de la même communauté partagent les mêmes centres d’intérêt. L’originalité de nos travaux de recherche consiste à montrer qu’il est pertinent d’utiliser l’analyse formelle de concepts pour la détection de communautés, contrairement aux approches classiques qui utilisent des graphes. Nous avons notamment étudié plusieurs problèmes posés par la détection de communautés dans les réseaux sociaux : (1) l’évaluation des méthodes de détection de communautés proposées dans la littérature, (2) la détection de communautés disjointes et chevauchantes, et (3) la modélisation et l’analyse des réseaux sociaux de données tridimensionnelles. Pour évaluer les méthodes de détection de communautés proposées dans la littérature, nous avons abordé ce sujet en étudiant tout d’abord l’état de l’art qui nous a permis de présenter une classification des méthodes de détection de communautés en évaluant chacune des méthodes présentées dans la littérature (les méthodes les plus connues). Pour le deuxième volet, nous nous sommes ensuite intéressés à l’élaboration d’une approche de détection de communautés disjointes et chevauchantes dans des réseaux sociaux homogènes issus de matrices d’adjacence (données dites à un seul mode ou une seule dimension), en exploitant des techniques issues de l’analyse formelle de concepts. Nous avons également porté un intérêt particulier aux méthodes de modélisation de réseaux sociaux hétérogènes. Nous nous sommes intéressés en particulier aux données tridimensionnelles et proposé dans ce cadre une approche de modélisation et d’analyse des réseaux sociaux issus de données tridimensionnelles. Cette approche repose sur un cadre méthodologique permettant d’appréhender au mieux cet aspect tridimensionnel des données. De plus, l’analyse concerne la découverte de communautés et de relations dissimulées qui existent entre les différents types d’individus de ces réseaux. L’idée principale réside dans l’extraction de communautés et de règles d’association triadiques à partir de ces réseaux hétérogènes afin de simplifier et de réduire la complexité algorithmique de ce processus. Les résultats obtenus serviront par la suite à une application de recommandation de liens et de contenus aux individus d’un réseau social
The study of community structure in networks became an increasingly important issue. The knowledge of core modules (communities) of networks helps us to understand how they work and behaviour, and to understand the performance of these systems. A community in a graph (network) is defined as a set of nodes that are strongly linked, but weakly linked with the rest of the graph. Members of the same community share the same interests. The originality of our research is to show that it is relevant to use formal concept analysis for community detection unlike conventional approaches using graphs. We studied several problems related to community detection in social networks : (1) the evaluation of community detection methods in the literature, (2) the detection of disjointed and overlapping communities, and (3) modelling and analysing heterogeneous social network of three-dimensional data. To assess the community detection methods proposed in the literature, we discussed this subject by studying first the state of the art that allowed us to present a classification of community detection methods by evaluating each method presented in the literature (the best known methods). For the second part, we were interested in developing a disjointed and overlapping community detection approach in homogeneous social networks from adjacency matrices (one mode data or one dimension) by exploiting techniques from formal concept analysis. We paid also a special attention to methods of modeling heterogeneous social networks. We focused in particular to three-dimensional data and proposed in this framework a modeling approach and social network analysis from three-dimensional data. This is based on a methodological framework to better understand the threedimensional aspect of this data. In addition, the analysis concerns the discovery of communities and hidden relationships between different types of individuals of these networks. The main idea lies in mining communities and rules of triadic association from these heterogeneous networks to simplify and reduce the computational complexity of this process. The results will then be used for an application recommendation of links and content to individuals in a social network
APA, Harvard, Vancouver, ISO, and other styles
24

Pham, Quoc Hoan. "Analyse des réponses balistiques des fibres d'un matériau tissé à l'échelle microscopique basée sur l'homogénéisation numérique." Thesis, Lille, 2021. http://www.theses.fr/2021LILUI008.

Full text
Abstract:
Cette thèse est consacrée à l’étude du comportement balistique d’un matériau tissé en utilisant une approche microscopique basée sur la technique d'homogénéisation numérique. En effet, lors d’un chargement balistique, le projectile agit localement sur la zone affectée du tissu engendrant ainsi une compression transversale des fibres. Ce phénomène a été modélisé, à l’échelle des fibres, en prenant en compte les effets des interactions fibre-fibre et l’évolution de la fraction volumique d’un fil au cours du chargement. Cette modélisation a conduit à établir une loi de comportement mécanique non-linéaire décrivant l’évolution des contraintes et des déformations apparentes dans un fil soumis à une compression transversale. La technique d’homogénéisation numérique, basée sur un volume élémentaire représentatif (VER) périodique, a été utilisée en vue d’une modélisation prenant en compte le vide entre les fibres. Cette démarche a conduit à établir une loi puissance entre la déformation apparente et la fraction volumique pour un fil sollicité en compression transversale. Ces données ont été introduites pour évaluer le comportement microscopique des fibres soumis à un impact balistique en se basant sur une approche multi-échelle. Cette analyse a conduit à une meilleure compréhension des phénomènes physiques se produisant lors d’un impact balistique d’un fil à l’échelle des fibres. Ensuite, cette modélisation a été appliquée au cas d’un tissu soumis à un impact balistique à une échelle mésoscopique (échelle d’un fil) combinée à une échelle microscopique (échelle d’une fibre) dans la zone affectée par l’impact. Cette modélisation a été validée par confrontation avec des données expérimentales, en termes de l’évolution la vitesse du projectile. L’évolution de l’énergie, de la force d'impact, des interactions fibres-fibres et de la rupture locale des fibres ont été aussi analysées
This thesis is dedicated to the study of the ballistic behaviour of woven material using a microscopic approach based on the numerical homogenization technique. Indeed, during a ballistic loading, the projectile acts locally on the impact zone of the fabric, thus generating a transverse compression of the fibres. This phenomenon has been modelled, at the fibre scale, taking into account the effects of fibre-fibre interactions and the evolution of the volume fraction of yarn during loading. From this modelling, a non-linear mechanical behaviour law describing the evolution of apparent stress and strain in a yarn subjected to transverse compression was obtained. Then, based on a periodic Representative Volume Element (RVE), a numerical homogenization technique taking into account the void between fibres was used for modelling. A power law between the apparent deformation and the volume fraction for a yarn subjected to transverse compression was deduced based on this approach. These data were implemented into a model in order to analyse the microscopic behaviour of fibres subjected to ballistic impact based on a multi-scale approach. The analysis has provided a better prediction of the physical phenomena occurring during the ballistic impact of one single yarn at the fibre scale. Then, this model was applied to the case of one fabric subjected to ballistic impact at a mesoscopic scale (yarn scale) combined with a microscopic scale (fibre scale) in the impact zone. This model was validated by comparison with experimental data, in terms of the evolution of projectile velocity. The evolution of energy, impact force, fibre-fibre interactions and local fibre failure are also analysed
APA, Harvard, Vancouver, ISO, and other styles
25

Kerbiriou, Corinne. "Développement d'une méthode d'étalonnage d'un radar transhorizon basée sur une analyse fine du fouillis de mer." Rennes 1, 2002. http://www.theses.fr/2002REN1A003.

Full text
Abstract:
Le but de cette thèse était de développer une méthode d'étalonnage dans le cadre du radar transhorizon NOSTRADAMUS afin d'établir sa capacité de détection en s'affranchissant des limitations liées à la propagation dans l'ionosphère. Cette méthode est fondée sur une analyse spectrale du fouillis de mer et permet d'estimer un paramètre étalon : le coefficient de réflectivité de la mer. La connaissance de ce coefficient permet de déterminer la surface équivalente radar d'une cible susceptible d'être détectée par transposition du bilan énergétique de la mer à celui de cette cible. Ce processus permet alors de prédire les performances du radar en terme de détectabilité. Outre l'analyse spectrale de l'écho de mer, l'étude de l'ionosphère a été indissociable des travaux à mener. En effet, l'ionosphère est un milieu instable qui peut dégrader le spectre.
APA, Harvard, Vancouver, ISO, and other styles
26

Babau, Jean-Philippe. "Etude du comportement temporel des applications temps réel à contraintes strictes basée sur une analyse d'ordonnançabilité." Poitiers, 1996. http://www.theses.fr/1996POIT2305.

Full text
Abstract:
Les applications temps reel a contraintes strictes sont des applications multitaches ou les contraintes temporelles (delais d'execution) doivent etre strictement satisfaites. La methodologie developpee permet la validation de ce type d'applications. L'environnement de conception integre la prise en compte des requetes periodiques et aperiodiques et des schemas de programmes exprimant des cooperations fixes ou variables entre les taches. Apres transformation de ce modele comportemental de l'application en un ensemble de taches sous forme normale associees a un graphe de precedence, la validation est basee sur une analyse d'ordonnancabilite. Cette validation est effectuee sur les comportements realistes de l'application et permet d'evaluer les performances temporelles de l'application. Une optimisation des caracteristiques temporelles est alors possible afin d'ameliorer ses performances
APA, Harvard, Vancouver, ISO, and other styles
27

Thuriot, Fanny. "Analyse du séquençage de l’exome basée sur le phénotype pour le diagnostic moléculaire des syndromes polymalformatifs." Mémoire, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/11244.

Full text
Abstract:
Bien que l’hétérogénéité des désordres génétiques nous limite dans l’identification du gène causal avec les approches diagnostiques conventionnelles, le séquençage de l’exome a permis d’accroitre le nombre de diagnostics moléculaires posés récemment. Par contre, le grand nombre de variants identifiés par cette méthode pose un défi significatif dans l’interprétation clinique de ses variants. Nous avons donc élaboré PhenoVar, un logiciel qui intègre les données phénotypiques et génotypiques pour retourner une courte liste de diagnostics potentiels. Nous voulons valider cette approche par phénotype au niveau clinique et montrer qu’elle peut être efficace pour diagnostiquer des patients atteints de maladies génétiques rares. Pour ce faire, le séquençage de l’exome a été effectué sur une cohorte de 51 patients. Ceux-ci présentent des dysmorphismes avec ou sans désordres neurodéveloppementaux dont l’étiologie reste indéterminée après plusieurs analyses conventionnelles. Suite au séquençage de l’exome, un pipeline d’analyse bio-informatique nous a permis de filtrer les variations pour garder seulement les variations rares, codantes, ayant une bonne qualité et pour éliminer les artéfacts de séquençage. Ensuite, pour analyser ces variations filtrées, une analyse manuelle et une analyse avec PhenoVar ont été faites. L’analyse manuelle consiste à regarder manuellement chaque variation pour voir son impact et identifier le diagnostic, sans regarder le phénotype du patient. Puis, Exomiser, un autre logiciel utilisant le phénotype, a été utilisé pour comparer les performances de PhenoVar. En comparaison avec l’analyse manuelle, PhenoVar nous a permis de diminuer de six fois le temps d’analyse et de diminuer de moitié le nombre de diagnostics potentiels. Avec ces deux méthodes, nous avons pu trouver le diagnostic moléculaire de 18 patients, soit un rendement diagnostic de 35%. Il est à noter qu’un diagnostic a été manqué par PhenoVar. Cependant, ce diagnostic a été récupéré en enlevant un filtre au niveau du phénotype. De plus, parmi les diagnostics effectués, 16 (89%) se retrouvent dans les dix premiers rangs de PhenoVar, tandis que seulement 10 (56%) se retrouvent dans les dix premiers rangs d’Exomiser. En conclusion, PhenoVar est supérieur à Exomiser pour trouver un diagnostic dans les dix premiers rangs. De plus, il se compare à l’analyse manuelle tout en diminuant le temps d’analyse et le nombre de variants.
Abstract: Although the heterogeneity of genetic disorders limits our capacity to identify the causal gene with conventional approaches, exome sequencing has increased the diagnostic yield. However, the large number of variants identified by this method poses a significant challenge in their clinical interpretation. Thus, we developed PhenoVar: a software that integrates phenotypic and genotypic data and produces a short list of potential diagnoses. The objective of this study is to validate this phenotype-based approach on a clinical level and show that it can be efficient to diagnose patients with rare genetic disorders. Exome sequencing was performed on a cohort of 51 patients. These presented with dysmorphic features with or without neurodevelopmental disorders of undetermined etiology, following conventional analysis. Following exome sequencing, a bioinformatics pipeline allowed us to filter variations, keeping only rare coding variations harboring high quality. Then, we analysed these filtered variations with both manual analysis and PhenoVar. In the manual analysis each variant was manually examined to determine its impact and to identify the diagnosis without taking the patient’s phenotype into consideration. Then, Exomiser, another phenotype-based tool, was used to compare PhenoVar’s performances. In comparison to the manual analysis, PhenoVar has allowed us to reduce the analysis time by six-fold and to reduce by half the number of potential diagnoses. With both methods, we found the molecular diagnosis in 18 patients; a rate of 35%. Moreover, among these diagnoses, 16 (89%) are found in the top 10 ranks of PhenoVar, compared to only 10 (56%) for Exomiser. In conclusion, PhenoVar proved to Exomiser in prioritizing the correct diagnosis in the top 10 ranks. Finally, diagnostic yield of PhenoVar is comparable to the manual analysis while reducing the analysis time and the number of variants.
APA, Harvard, Vancouver, ISO, and other styles
28

Sidibe, Ibrahima dit Bouran. "Analyse non-paramétrique des politiques de maintenance basée sur des données des durées de vie hétérogènes." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0081/document.

Full text
Abstract:
Dans la littérature, plusieurs travaux ont été développés autour de la modélisation, l’analyse et la mise en place de politiques de maintenance pour les équipements sujets à des défaillances aléatoires. Ces travaux occultent souvent les réalités industrielles par des hypothèses telles que la connaissance a priori des distributions paramétriques des durées de vie et l’homogénéité des conditions d’exploitation des équipements. Ces hypothèses sont restrictives et constituent une source de biais parce qu’elles conditionnent l’analyse statistique des politiques de maintenance. Dans ce présent travail de thèse, de telles hypothèses sont relaxées pour permettre la prise en compte et la mise en valeurs des informations dérivant directement des données de durées vie issues de l’exploitation de l’équipement et ce sans passer par un modèle paramétrique intermédiaire. L’objectif de ce travail de thèse consiste alors en le développement de modèles statistiques et d’outils efficaces pour l’analyse des politiques de maintenance basées sur les données de durées de vie hétérogènes. Nous proposons en effet une démarche complète d’analyse de stratégies de maintenance en partant des données de durées de vie jusqu’à l’obtention des politiques optimales de maintenance en passant par une phase d’estimation des lois de probabilité. Les politiques de maintenance considérées sont appliques à des équipements usagés évoluant dans des environnements d’exploitation distingués par leur niveau de sévérité. Dans ce contexte, un modèle mathématique est proposé permettant d’évaluer et d’analyser théoriquement les coûts unitaires d’une stratégie de maintenance particulière dite de type âge. Cette analyse a permis d’établir les conditions nécessaires et suffisantes garantissant un âge optimal de remplacement préventif de l’équipement. Les coûts unitaires de maintenance sont complètement estimés par la méthode du Noyau de Parzen. Cette méthode d’estimation est non-paramétrique et définie par une fonction noyau et un paramètre de lissage. Il est également montré, dans nos travaux de recherche, que cet estimateur garantit une faible propagation des erreurs induites par le paramètre de lissage. Les résultats obtenus par la méthode du Noyau de Parzen sont proches des valeurs théoriques avec un faible coefficient de variation. Des extensions de la première politique de maintenance sont également proposées et étudiées. Ce travail de thèse s’achève par la proposition d’une approche permettant de mesurer et d’analyser le risque induit par le report d’une maintenance préventive. Ce risque est analysé à travers une fonction risque proposée
In the reliability literature, several researches works have been developed to deal with modeling, analysis and implementation of maintenance policies for equipments subject to random failures. The majority of these works are based on common assumptions among which the distribution function of the equipment lifetimes is assumed to be known. Furthermore, the equipment is assumed to experience only one operating environment. Such assumptions are indeed restrictive and may introduce a bias in the statistical analysis of the distribution function of the equipment lifetimes which in turn impacts optimization of maintenance policies. In the present research work, these two particular assumptions are relaxed. This relaxation allows to take into account of information related to conditions where the equipment is being operating and to focus on the statistical analysis of maintenance policies without using an intermediate parametric lifetimes distribution. The objective of this thesis consists then on the development of efficient statistical models and tools for managing the maintenance of equipments whose lifetimes distribution is unknown and defined through the heterogeneous lifetimes data. Indeed, this thesis proposes a framework for maintenance strategies determination, from lifetimes data acquisition toward the computation of optimal maintenance policies. The maintenance policies considered are assumed to be performed on used equipments. These later are conduct to experience their missions within different environments each of which is characterized by a degree of severity. In this context, a first mathematical model is proposed to evaluate costs induced by maintenance strategies. The analysis of these costs helps to establish the necessary and sufficient conditions to ensure the existence of an optimal age to perform the preventive maintenance. The maintenance costs are fully estimated by using the Kernel method. This estimation method is non-parametric and defined by two parameters, namely the kernel function and the smoothing parameter. The variability of maintenance costs estimator is deeply analyzed according to the smoothing parameter of Kernel method. From these analyses, it is shown that Kernel estimator method ensures a weak propagation of the errors due to the computation of smoothing parameter. In addition, several simulations are made to estimate the optimal replacement age. These simulations figure out that the numerical results from the Kernel method are close to the theoretical values with a weak coefficient of variation. Two probabilistic extensions of the first mathematical model are proposed and theoretically discussed. To deal with the problem of delayed preventive maintenance, an approach is proposed and discussed. The proposed approach allows evaluating the risk that could induce the delay taken to perform a preventive maintenance at the required optimal date. This approach is based on risk analysis conduct on the basis of a proposed risk function
APA, Harvard, Vancouver, ISO, and other styles
29

Sidibe, Ibrahima dit Bouran. "Analyse non-paramétrique des politiques de maintenance basée sur des données des durées de vie hétérogènes." Electronic Thesis or Diss., Université de Lorraine, 2014. http://www.theses.fr/2014LORR0081.

Full text
Abstract:
Dans la littérature, plusieurs travaux ont été développés autour de la modélisation, l’analyse et la mise en place de politiques de maintenance pour les équipements sujets à des défaillances aléatoires. Ces travaux occultent souvent les réalités industrielles par des hypothèses telles que la connaissance a priori des distributions paramétriques des durées de vie et l’homogénéité des conditions d’exploitation des équipements. Ces hypothèses sont restrictives et constituent une source de biais parce qu’elles conditionnent l’analyse statistique des politiques de maintenance. Dans ce présent travail de thèse, de telles hypothèses sont relaxées pour permettre la prise en compte et la mise en valeurs des informations dérivant directement des données de durées vie issues de l’exploitation de l’équipement et ce sans passer par un modèle paramétrique intermédiaire. L’objectif de ce travail de thèse consiste alors en le développement de modèles statistiques et d’outils efficaces pour l’analyse des politiques de maintenance basées sur les données de durées de vie hétérogènes. Nous proposons en effet une démarche complète d’analyse de stratégies de maintenance en partant des données de durées de vie jusqu’à l’obtention des politiques optimales de maintenance en passant par une phase d’estimation des lois de probabilité. Les politiques de maintenance considérées sont appliques à des équipements usagés évoluant dans des environnements d’exploitation distingués par leur niveau de sévérité. Dans ce contexte, un modèle mathématique est proposé permettant d’évaluer et d’analyser théoriquement les coûts unitaires d’une stratégie de maintenance particulière dite de type âge. Cette analyse a permis d’établir les conditions nécessaires et suffisantes garantissant un âge optimal de remplacement préventif de l’équipement. Les coûts unitaires de maintenance sont complètement estimés par la méthode du Noyau de Parzen. Cette méthode d’estimation est non-paramétrique et définie par une fonction noyau et un paramètre de lissage. Il est également montré, dans nos travaux de recherche, que cet estimateur garantit une faible propagation des erreurs induites par le paramètre de lissage. Les résultats obtenus par la méthode du Noyau de Parzen sont proches des valeurs théoriques avec un faible coefficient de variation. Des extensions de la première politique de maintenance sont également proposées et étudiées. Ce travail de thèse s’achève par la proposition d’une approche permettant de mesurer et d’analyser le risque induit par le report d’une maintenance préventive. Ce risque est analysé à travers une fonction risque proposée
In the reliability literature, several researches works have been developed to deal with modeling, analysis and implementation of maintenance policies for equipments subject to random failures. The majority of these works are based on common assumptions among which the distribution function of the equipment lifetimes is assumed to be known. Furthermore, the equipment is assumed to experience only one operating environment. Such assumptions are indeed restrictive and may introduce a bias in the statistical analysis of the distribution function of the equipment lifetimes which in turn impacts optimization of maintenance policies. In the present research work, these two particular assumptions are relaxed. This relaxation allows to take into account of information related to conditions where the equipment is being operating and to focus on the statistical analysis of maintenance policies without using an intermediate parametric lifetimes distribution. The objective of this thesis consists then on the development of efficient statistical models and tools for managing the maintenance of equipments whose lifetimes distribution is unknown and defined through the heterogeneous lifetimes data. Indeed, this thesis proposes a framework for maintenance strategies determination, from lifetimes data acquisition toward the computation of optimal maintenance policies. The maintenance policies considered are assumed to be performed on used equipments. These later are conduct to experience their missions within different environments each of which is characterized by a degree of severity. In this context, a first mathematical model is proposed to evaluate costs induced by maintenance strategies. The analysis of these costs helps to establish the necessary and sufficient conditions to ensure the existence of an optimal age to perform the preventive maintenance. The maintenance costs are fully estimated by using the Kernel method. This estimation method is non-parametric and defined by two parameters, namely the kernel function and the smoothing parameter. The variability of maintenance costs estimator is deeply analyzed according to the smoothing parameter of Kernel method. From these analyses, it is shown that Kernel estimator method ensures a weak propagation of the errors due to the computation of smoothing parameter. In addition, several simulations are made to estimate the optimal replacement age. These simulations figure out that the numerical results from the Kernel method are close to the theoretical values with a weak coefficient of variation. Two probabilistic extensions of the first mathematical model are proposed and theoretically discussed. To deal with the problem of delayed preventive maintenance, an approach is proposed and discussed. The proposed approach allows evaluating the risk that could induce the delay taken to perform a preventive maintenance at the required optimal date. This approach is based on risk analysis conduct on the basis of a proposed risk function
APA, Harvard, Vancouver, ISO, and other styles
30

Sellami, Akrem. "Interprétation sémantique d'images hyperspectrales basée sur la réduction adaptative de dimensionnalité." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0037/document.

Full text
Abstract:
L'imagerie hyperspectrale permet d'acquérir des informations spectrales riches d'une scène dans plusieurs centaines, voire milliers de bandes spectrales étroites et contiguës. Cependant, avec le nombre élevé de bandes spectrales, la forte corrélation inter-bandes spectrales et la redondance de l'information spectro-spatiale, l'interprétation de ces données hyperspectrales massives est l'un des défis majeurs pour la communauté scientifique de la télédétection. Dans ce contexte, le grand défi posé est la réduction du nombre de bandes spectrales inutiles, c'est-à-dire de réduire la redondance et la forte corrélation de bandes spectrales tout en préservant l'information pertinente. Par conséquent, des approches de projection visent à transformer les données hyperspectrales dans un sous-espace réduit en combinant toutes les bandes spectrales originales. En outre, des approches de sélection de bandes tentent à chercher un sous-ensemble de bandes spectrales pertinentes. Dans cette thèse, nous nous intéressons d'abord à la classification d'imagerie hyperspectrale en essayant d'intégrer l'information spectro-spatiale dans la réduction de dimensions pour améliorer la performance de la classification et s'affranchir de la perte de l'information spatiale dans les approches de projection. De ce fait, nous proposons un modèle hybride permettant de préserver l'information spectro-spatiale en exploitant les tenseurs dans l'approche de projection préservant la localité (TLPP) et d'utiliser l'approche de sélection non supervisée de bandes spectrales discriminantes à base de contraintes (CBS). Pour modéliser l'incertitude et l'imperfection entachant ces approches de réduction et les classifieurs, nous proposons une approche évidentielle basée sur la théorie de Dempster-Shafer (DST). Dans un second temps, nous essayons d'étendre le modèle hybride en exploitant des connaissances sémantiques extraites à travers les caractéristiques obtenues par l'approche proposée auparavant TLPP pour enrichir la sélection non supervisée CBS. En effet, l'approche proposée permet de sélectionner des bandes spectrales pertinentes qui sont à la fois informatives, discriminantes, distinctives et peu redondantes. En outre, cette approche sélectionne les bandes discriminantes et distinctives en utilisant la technique de CBS en injectant la sémantique extraite par les techniques d'extraction de connaissances afin de sélectionner d'une manière automatique et adaptative le sous-ensemble optimal de bandes spectrales pertinentes. La performance de notre approche est évaluée en utilisant plusieurs jeux des données hyperspectrales réelles
Hyperspectral imagery allows to acquire a rich spectral information of a scene in several hundred or even thousands of narrow and contiguous spectral bands. However, with the high number of spectral bands, the strong inter-bands spectral correlation and the redundancy of spectro-spatial information, the interpretation of these massive hyperspectral data is one of the major challenges for the remote sensing scientific community. In this context, the major challenge is to reduce the number of unnecessary spectral bands, that is, to reduce the redundancy and high correlation of spectral bands while preserving the relevant information. Therefore, projection approaches aim to transform the hyperspectral data into a reduced subspace by combining all original spectral bands. In addition, band selection approaches attempt to find a subset of relevant spectral bands. In this thesis, firstly we focus on hyperspectral images classification attempting to integrate the spectro-spatial information into dimension reduction in order to improve the classification performance and to overcome the loss of spatial information in projection approaches.Therefore, we propose a hybrid model to preserve the spectro-spatial information exploiting the tensor model in the locality preserving projection approach (TLPP) and to use the constraint band selection (CBS) as unsupervised approach to select the discriminant spectral bands. To model the uncertainty and imperfection of these reduction approaches and classifiers, we propose an evidential approach based on the Dempster-Shafer Theory (DST). In the second step, we try to extend the hybrid model by exploiting the semantic knowledge extracted through the features obtained by the previously proposed approach TLPP to enrich the CBS technique. Indeed, the proposed approach makes it possible to select a relevant spectral bands which are at the same time informative, discriminant, distinctive and not very redundant. In fact, this approach selects the discriminant and distinctive spectral bands using the CBS technique injecting the extracted rules obtained with knowledge extraction techniques to automatically and adaptively select the optimal subset of relevant spectral bands. The performance of our approach is evaluated using several real hyperspectral data
APA, Harvard, Vancouver, ISO, and other styles
31

Datcu, Octaviana. "Méthodes de chiffrement/déchiffrement utilisant des systèmes chaotiques : Analyse basée sur des méthodes statistiques et sur la théorie du contrôle des systèmes." Phd thesis, Université de Cergy Pontoise, 2012. http://tel.archives-ouvertes.fr/tel-00802659.

Full text
Abstract:
Cette thèse traite du domaine de la cryptographie basée sur des dynamiques chaotiques hybrides.Afin de robustifier la transmission sécurisée de données à l'égard de l'attaque à texte-claire connue, ce travail a été particulièrement axée sur deux directions, l'approche statistique, et l'approche automatique.Les principales contributions de ce travail sont organisées dans ces deux directions.Le choix de la variable mesurée et son influence sur l'émetteur d'un message secret et la possibilité de récupérer la dynamique à la réception.Ceci a été étudié dans le contexte des systèmes chaotiques discrets et continus.L'indépendance statistique des variables d'état des systèmes chaotiques est étudié en relation avec la non-corrélation spatiale de ces états.Ainsi une méthode pour cacher le message secret en fonction de l'évolution de l'émetteur chaotique, et ceci avant son inclusion dans cette dynamique, est proposée.La faisabilité d'un système retardée hybride qui est utilisée pour la transmission sécurisée des données est analysée dans une mise en œuvre analogique.Des simulations et les analyses des résultats obtenus sont faits, afin de prouver l'efficacité des études et des méthodes proposées.La thèse est organisée comme suit: le Chapitre I reprend les notions théoriques et les algorithmes utilisés pour atteindre l'objectif de ce travail.Le chapitre II est consacré à l'étude des exposants de Lyapunov.Les systèmes chaotiques utilisés dans le présent document sont ensuite décrits.Le chapitre III présente une étude de certaines propriétés structurales des systèmes du chapitre II.L'étude se concentre sur le calcul des indices d'observabilité et la détermination des hypersurfaces de la singularité d'observabilité.Le chapitre IV analyse l'indépendance statistique dans le contexte des systèmes chaotiques considérés:la taille de la distance d'échantillonnage (combien d'itérations ou de manière équivalente, combien de temps) pour assurer l'indépendance statistique entre les variables extraites des systèmes chaotiques.Un test original pour l'indépendance statistique (le test Badea-Vlad) a été utilisée; la procédure est applicable à tous les types de variables aléatoires continues, même reparties selon une loi de probabilité inconnue au besoin ici.Le chapitre V illustre le point de vue physique. Le temps transitoire correspond au temps passé par le système chaotique dans le bassin d'attraction avant de rejoindre l'attracteur étrange.De même il est important de savoir après combien de temps les points localisés dans une certaine région de l'attracteur étrange devient non-corrélés.Dans le chapitre VI, sachant l'identifiabilité des paramètres des systèmes chaotiques décrits par des équations polynomiales, une amélioration des inclusions du message dans ce type de cryptographie, est proposé.Le message clair est chiffré en utilisant une substitution classique avec boîtes de transposition, avant son inclusion dans l'émetteur chaotique.Les résultats de l'algorithme proposé sont évalués sur le texte et sur l'image.Le chapitre VII pose quelques questions, et essaie de trouver quelques-unes des réponses à ces questions, dans le cadre du schéma hybride.Comme par exemple, est-il possible de récupérer le message secret en utilisant un observateur, lorsque la dynamique qui lui inclut est retardée?La réponse est positive, et cela est montrée dans le cas d'une transmission intégrale de la sortie du système.Il est important de mentionner que ce travail est pluridisciplinaire, allant de la théorie du contrôle aux statistiques en passant par les domaines de l'électronique, de la mathématique et de l'informatique.
APA, Harvard, Vancouver, ISO, and other styles
32

Gacem, Amina. "Méthodologie d’évaluation de performances basée sur l’identification de modèles de comportements : applications à différentes situations de handicap." Versailles-St Quentin en Yvelines, 2013. http://www.theses.fr/2013VERS0053.

Full text
Abstract:
L'évaluation de performance est un processus important pour identifier les capacités d'une personne et ses limites. L'évaluation, à l'heure actuelle, repose sur l'intervention subjective d'une personne experte (médecin, ergothérapeute, etc. ) qui doit effectuer des analyses et des tests différents pour aboutir à une décision. Dans la littérature, plusieurs travaux proposent différentes méthodes d'évaluation plus objectives reposant sur des critères et des indicateurs de performance : il s'agit d'une évaluation quantitative. Ce type d'évaluation est basé généralement sur des analyses statistiques. Le travail effectué dans cette thèse consiste à proposer une nouvelle méthodologie d'évaluation de performance basée sur l'identification de modèles de comportement. La démarche, que nous adoptons, permet de déterminer, à partir d'indicateurs de performance, des comportements de référence généralement issus de l'évaluation fonctionnelle de personnes expérimentées dans le domaine. Ces comportements serviront ensuite de références pour l'évaluation d'autres personnes. L'identification de comportements de référence est donc un élément essentiel de notre travail. Il est basé sur des méthodes de classification. Dans le cadre de ce travail, nous avons testé deux méthodes différentes. La première est la méthode de "Fuzzy C-means" qui permet une recherche approfondie de comportements de référence mais ceux-ci sont représentés par des indicateurs représentatifs. La deuxième est la méthode de "Hidden Markov Models". Celle-ci permet de représenter un comportement par sa variation dans le temps mais elle nécessite une phase d'apprentissage coûteuse permettant de modéliser les comportements de référence. Cette méthodologie d'évaluation a été testée dans le cadre d'applications de différentes fonctions d'interface de commande : la conduite de fauteuil roulant électrique, la conduite d'automobile et l'utilisation des interfaces de pointage bureautiques. Dans chaque application, un protocole et une mise en situation écologique sont définis pour évaluer les participants sur des plateformes fonctionnelles faisant intervenir des interfaces de commande variées (joystick, souris, volant, etc. ). Ensuite, des outils statistiques sont utilisés afin d'analyser les données et de fournir ainsi une première interprétation des comportements. L'application de notre méthodologie dans chacune des situations étudiées permet d'identifier automatiquement différents comportements de référence. Ensuite, l'évaluation fonctionnelle des personnes, effectuée par comparaison aux comportements de références identifiés, a permis d'identifier différents niveaux d'expertise. Le processus d'évaluation permet d'illustrer l'évolution de l'apprentissage durant l'évaluation et de détecter la stabilité de la personne. La méthodologie d'évaluation proposée est un processus itératif permettant d'enrichir la population de personnes d'expérimentées par les personnes devenues stables à l'issue de l'évaluation. Ceci permet donc la recherche de nouveaux comportements de référence
The performance assessment is an important process to identify the abilities and the limits of a person. Currently, the assessment requires the mediation of a specialist (doctor, therapist, etc. ) which must performs analysis and tests to reach a subjective decision. In the literature, several works propose assessment methods based on performance criteria: it is a quantitative evaluation which is objective. This type of evaluation is usually based on statistical analysis. In this work, a new methodology of performance assessment is proposed. It is based on the identification of reference behaviours. Those behaviours are then used as references for the evaluation of other people. The identification of reference behaviours is an essential element of our work. It is based on classification methods. In our work, we have tested two different methods. The first one is the "Fuzzy C-means" which allows a thorough search of reference behaviours. However, behaviours are represented by proxy criteria. The second method is the "Hidden Markov Models". It offers a time series analysis based on the temporal behaviour variation. However, it is not easy to determine the training phase of this method. This assessment methodology has been applied in the context of different applications designed for disabled people: driving electric wheelchair, driving an automobile and the use of pointing devices (mouse, trackball, joystick, etc. ). In each application, a protocol and an ecological situation are defined in order to evaluate participants on different platforms involving functional control interfaces (joystick, mouse, steering wheel, etc. ). Then, statistical tools are used to analyze the data and provide a first interpretation of behaviours. The application of our methodology identifies different reference behaviours and the assessment by comparing behaviours let to identify different levels of expertise. In each of the studied applications, our methodology identifies automatically different reference behaviours. Then, the assessment of people, carried out by comparing to the reference behaviours, let identify different levels of expertise and illustrate the evolution of learning during the assessment. The proposed evaluation methodology is an iterative process. So that, the population of experienced people can be enriched by adding people who become stable after assessment. Therefore, this allows the search for new reference behaviours
APA, Harvard, Vancouver, ISO, and other styles
33

Ben, hamida Amal. "Vers une nouvelle architecture de videosurveillance basée sur la scalabilité orientée vers l'application." Thesis, Bordeaux, 2016. http://www.theses.fr/2016BORD0144/document.

Full text
Abstract:
Le travail présenté dans ce mémoire a pour objectif le développement d'une nouvelle architecture pour les systèmes de vidéosurveillance. Tout d'abord, une étude bibliographique nous a conduit à classer les systèmes existants selon le niveau de leurs applications qui dépend directement des fonctions analytiques exécutées. Nous avons également constaté que les systèmes habituels traitent toutes les données enregistrées alors que réellement une faible partie des scènes sont utiles pour l'analyse. Ainsi, nous avons étendu l'architecture ordinaire des systèmes de surveillance par une phase de pré-analyse qui extrait et simplifie les régions d'intérêt en conservant les caractéristiques importantes. Deux méthodes différentes pour la pré-analyse dans le contexte de la vidéosurveillance ont été proposées : une méthode de filtrage spatio-temporel et une technique de modélisation des objets en mouvement. Nous avons contribué, aussi, par l'introduction du concept de la scalabilité orientée vers l'application à travers une architecture multi-niveaux applicatifs pour les systèmes de surveillance. Les différents niveaux d'applications des systèmes de vidéosurveillance peuvent être atteints incrémentalement pour répondre aux besoins progressifs de l'utilisateur final. Un exemple de système de vidéosurveillance respectant cette architecture et utilisant nos méthodes de pré-analyse est proposé
The work presented in this thesis aims to develop a new architecture for video surveillance systems. Firstly, a literature review has led to classify the existing systems based on their applications level which dependents directly on the performed analytical functions. We, also, noticed that the usual systems treat all captured data while, actually, a small part of the scenes are useful for analysis. Hence, we extended the common architecture of surveillance systems with a pre-analysis phase that extracts and simplifies the regions of interest with keeping the important characteristics. Two different methods for preanalysis were proposed : a spatio-temporal filtering and a modeling technique for moving objects. We contributed, too, by introducing the concept of application-oriented scalability through a multi-level application architecture for surveillance systems. The different applications levels can be reached incrementally to meet the progressive needs of the enduser. An example of video surveillance system respecting this architecture and using the preanalysis methods was proposed
APA, Harvard, Vancouver, ISO, and other styles
34

Jouini, Mohamed Soufiane. "Caractérisation des réservoirs basée sur des textures des images scanners de carottes." Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13769/document.

Full text
Abstract:
Les carottes, extraites lors des forages de puits de pétrole, font partie des éléments les plus importants dans la chaîne de caractérisation de réservoir. L’acquisition de celles-ci à travers un scanner médical permet d’étudier de façon plus fine les variations des types de dépôts. Le but de cette thèse est d’établir les liens entre les imageries scanners 3D de carottes, et les différentes propriétés pétrophysiques et géologiques. Pour cela la phase de modélisation des images, et plus particulièrement des textures, est très importante et doit fournir des descripteurs extraits qui présentent un assez haut degrés de confiance. Une des solutions envisagée pour la recherche de descripteurs a été l’étude des méthodes paramétriques permettant de valider l’analyse faite sur les textures par un processus de synthèse. Bien que ceci ne représente pas une preuve pour un lien bijectif entre textures et paramètres, cela garantit cependant au moins une confiance en ces éléments. Dans cette thèse nous présentons des méthodes et algorithmes développés pour atteindre les objectifs suivants : 1. Mettre en évidence les zones d’homogénéités sur les zones carottées. Cela se fait de façon automatique à travers de la classification et de l’apprentissage basés sur les paramètres texturaux extraits. 2. Établir les liens existants entre images scanners et les propriétés pétrophysiques de la roche. Ceci se fait par prédiction de propriétés pétrophysiques basées sur l’apprentissage des textures et des calibrations grâce aux données réelles.
Cores extracted, during wells drilling, are essential data for reservoirs characterization. A medical scanner is used for their acquisition. This feature provide high resolution images improving the capacity of interpretation. The main goal of the thesis is to establish links between these images and petrophysical data. Then parametric texture modelling can be used to achieve this goal and should provide reliable set of descriptors. A possible solution is to focus on parametric methods allowing synthesis. Even though, this method is not a proven mathematically, it provides high confidence on set of descriptors and allows interpretation into synthetic textures. In this thesis methods and algorithms were developed to achieve the following goals : 1. Segment main representative texture zones on cores. This is achieved automatically through learning and classifying textures based on parametric model. 2. Find links between scanner images and petrophysical parameters. This is achieved though calibrating and predicting petrophysical data with images (Supervised Learning Process)
APA, Harvard, Vancouver, ISO, and other styles
35

Kaoud, Hebatalla. "Une analyse de la gouvernance et l'innovation des clusters basée sur le modèle de la Triple-Hélice." Thesis, Nantes, 2018. http://www.theses.fr/2018NANT2021/document.

Full text
Abstract:
Le développement des clusters d’innovation ouvre plusieurs perspectives de recherches en raison de son importance dans le monde académique ainsi que dans les pratiques managériales. L’objet de cette recherche vise à confronter le modèle de la Triple Hélice « Etat, Industrie, Académie » en vue d’identifier des formes de gouvernance favorisant l’innovation des clusters. Nous accordons une importance particulière au rôle joué par l’état et aux politiques qu’il mène quant au développement de ces structures. La méthodologie repose sur une approche qualitative par « études de cas ». Trois études de cas ont été conduites sur des clusters égyptiens de type Technologie de l’Information et de Communication : Smart Village du Caire, Parc Technologique de Maadi et Greek Campus. Les données ont été recueillies auprès de sources différentes (entretiens semi-directifs, observations non participantes, exploitation des données secondaires). Une étude complémentaire a été effectuée au Maroc sur deux clusters afin de renforcer la validité externe de la recherche. Enfin, l’étude du modèle de CAPACITÉS, société de valorisation de l’Université de Nantes en France offre une mise en perspective. Les résultats de la recherche confirment la diversité des formes de gouvernance des trois clusters égyptiens (publique, privée, partenariat public privé) a impacté les stratégies à l’œuvre de l’innovation et l’entrepreneuriat. Cette thèse propose le modèle O2 Innovation pour l’innovation des clusters. Le modèle met en lumière l’importance de la diffusion de la culture de l’entreprenariat et souligne le rôle primordial de l’académie dans un processus d’innovation ouverte
The development of innovation clusters has opened several research perspectives due to its importance in the academic world and in the managerial practices. The purpose of this research is to mobilize the Triple Helix model "State, Industry, Academy" in order to identify forms of governance favouring innovation of clusters. We have attached particular importance on the role played by the state and the policies it conducts in the development of these structures. The methodology is based on a qualitative approach based on "case studies". Three case studies were conducted on clusters mainly in the field of the Information Technology and Communication in Egypt: Smart Village of Cairo, Maadi Technology Park and Greek Campus. Data were collected from different sources (semi-structured interviews, non-participant observations, and secondary data). A complementary study was carried out on The Electronics, Mechanics and Mechatronics Cluster in Morocco and on the Morocco Microelectronics Cluster in order to reinforce the external validity of the research. Last but not least, we explored the case of CAPACITES; a knowledge valorization company created by the University of Nantes in France. The results of the research confirm that the diversity of governance forms of the three Egyptian clusters (public, private, public-private partnership) impacted the strategies of innovation and entrepreneurship. This thesis proposes the model O2 Innovation for the innovation of the clusters. The model highlights the importance of spreading the culture of entrepreneurship while emphasizing on the primary role of the academy in an open innovation process
APA, Harvard, Vancouver, ISO, and other styles
36

Turcotte, Nicolas. "Mise à jour numérique d'un modèle de pont par éléments finis basée sur une analyse modale expérimentale." Mémoire, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/8752.

Full text
Abstract:
L’étude présentée s’inscrit dans un programme de recherche mené par l’Université de Sherbrooke (UdeS) pour le ministère des Transports du Québec (MTQ) sur la détection de l’endommagement par des mesures de vibrations ambiantes sur un pont routier en service. La méthode s’appuie sur la mise à jour automatique des propriétés physiques d’un modèle numérique d’un pont de façon à reproduire les fréquences et modes propres de la structure mesurés expérimentalement. Pour cette étude, le logiciel commercial FEMtools a été utilisé. L’ouvrage ciblé est le pont Est de la Rivière-aux-Mulets situé à Sainte-Adèle (Qc) sur l’autoroute des Laurentides (autoroute 15) sur lequel des essais d’analyse modale ont été effectués sous vibrations ambiantes en novembre 2013. L’étude présentée porte essentiellement sur la phase d’ingénierie la plus délicate du processus de détection d’endommagement par mise à jour d’un modèle numérique, soit la définition et le recalage du modèle initial. Pour cela, un modèle du pont par éléments finis a été développé sous le logiciel Abaqus, puis a été exporté vers FEMtools selon une procédure qui a été établie. Avant d’utiliser le logiciel FEMtools pour le recalage automatique du modèle, une brève étude de vérification des capacités du logiciel à recaler un modèle et à détecter de l’endommagement est effectuée à partir d’un cas d’étude connu étudié antérieurement à l’UdeS (cadre de deux étages en béton armé endommagé sismiquement). Puisque les algorithmes de recalage automatique de modèles par éléments finis sont très sensibles à plusieurs variables et choix définis par l’utilisateur et que le problème de recalage est fortement sous-déterminé, le risque d’obtenir des résultats incohérents est grand si on ne suit pas une démarche rigoureuse. Une méthodologie en cinq étapes adaptée aux problématiques de pont est donc proposée et appliquée au cas du pont de la Rivière-aux-Mulets. Les résultats du recalage en termes de réductions de rigidité des sections de béton par rapport aux rigidités initiales supposées sont cohérents avec les comportements statique et dynamique attendus d’un pont routier en service. Pour en arriver à ce résultat, plusieurs tentatives de recalage ont été effectuées. Un échantillon de ces cas d’études est présenté, montrant notamment l’influence dans le processus de la définition et du nombre des paramètres de recalage, de leurs valeurs initiales, de la complexité des modes expérimentaux et du critère de convergence utilisé. Il est aussi montré que des résultats de recalage manifestement erronés permettent parfois d’identifier des erreurs majeures de modélisation, ce qui est un atout important de la méthode. Finalement, plusieurs scénarios d’endommagement fictifs imposés numériquement sont étudiés pour évaluer brièvement la capacité de FEMtools à détecter de l’endommagement sur le pont. Les résultats montrent notamment que la précision de la détection est grandement améliorée par l’utilisation d’un nombre croissant de modes expérimentaux.
APA, Harvard, Vancouver, ISO, and other styles
37

Favela, Contreras Antonio. "Modélisation et analyse du comportement dynamique des systèmes hybrides : une approche basée sur le modèle d'automate hybride." Grenoble INPG, 1999. http://www.theses.fr/1999INPG0121.

Full text
Abstract:
Les systemes dynamiques hybrides sont des systemes definis structurellement par la cooperation de deux sous-systemes, l'un de type continu et le second de type evenementiel. L'approche a laquelle nous nous sommes interesses dans le cadre de la these considere le modele du systeme hybride comme une extension de l'automate discret en associant une evolution continue a chaque etat discret. Le modele resultant de cette approche est connu comme etant le modele automate hybride. Dans un premier temps, nous presentons certaines proprietes dynamiques des automates hybrides concernant la validation des transitions. Nous proposons une methode d'analyse permettant de trouver la region atteignable pour une classe de systemes hybrides continus-lineaires. Nous introduisons l'automate hybride continu-lineaire ou le systeme de transitions continu est caracterise par l'equation d'etat lineaire et le systeme de transitions discret est caracterise par des conditions de franchissement definies par des surfaces de commutation convexes dans l'espace d'etat continu. Puis, dans un deuxieme temps, nous etablissons une formulation analytique du comportement en regime permanent des automates hybrides continus-lineaires pour le cas ou la structure discrete est un cycle. Pour le cas analyse, nous etablissons des conditions necessaires et suffisantes pour atteindre un cycle limite. Ainsi, deux resultats principaux ont ete obtenus : 1) caracterisation de l'espace atteignable a partir d'une region initiale, et 2) comportement en regime permanent et cycle limite.
APA, Harvard, Vancouver, ISO, and other styles
38

Nguyen, Minh Duc. "Méthodologie de test de systèmes mobiles : Une approche basée sur les sénarios." Phd thesis, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-00459848.

Full text
Abstract:
Les avancées technologiques du monde du " sans fil " ont conduit au développement d'applications dédiées à l'informatique mobile. Leurs caractéristiques propres posent de nouveaux défis pour leur vérification. Ce mémoire traite de la technologie de test pour les systèmes mobiles. Nous avons débuté notre travail par un état de l'art sur le test des applications mobiles conjointement avec une analyse d'une étude de cas, un protocole d'appartenance de groupe (GMP) dans le domaine des réseaux ad hoc, pour nous permettre de mieux comprendre les problèmes liés au test de ces applications. En conséquence, nous avons décidé d'avoir une approche de test qui se base sur les descriptions de scénarios. Nous avons constaté que les scénarios d'interactions doivent tenir compte des configurations spatiales des nœuds comme un concept majeur. Afin de couvrir les nouvelles spécificités des systèmes mobiles dans les langages de descriptions, nous avons introduit des extensions qui portent essentiellement sur les relations spatio-temporelles entre nœuds et sur la communication par diffusion. Le traitement de l'aspect spatial a conduit au développement de l'outil GraphSeq. GraphSeq a pour but d'analyser des traces de test afin d'y identifier des occurrences de configurations spatiales successives décrites à partir d'un scénario abstrait. L'application de GraphSeq (support à l'implémentation des cas de test, vérification de la couverture des traces) est présentée avec les analyses des sorties d'un simulateur de mobilité et des traces d'exécution de l'étude de cas GMP.
APA, Harvard, Vancouver, ISO, and other styles
39

Noel, David. "Une approche basée sur le web sémantique pour l'étude de trajectoires de vie." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM022/document.

Full text
Abstract:
La notion de trajectoire fait l'objet de nombreux travaux en informatique. La trajectoire de vie a plusieurs particularités qui la distinguent des trajectoires habituellement considérées dans ces travaux. C'est d'abord son emprise temporelle, qui est celle de la vie, de l'existence du sujet observé. C'est ensuite son emprise thématique, celle-ci pouvant potentiellement concerner de multiples aspects de la vie d'un objet ou d'un individu. C'est enfin, l'utilisation métaphorique du terme de trajectoire, qui renvoie davantage au sens de la trajectoire qu'à la description d'une simple évolution dans le temps et l'espace. La trajectoire de vie est utilisée par l'expert (sociologue, urbaniste...) qui souhaite mettre en perspective dans le temps les informations sur les individus pour mieux les comprendre. Les motivations d'étude de la trajectoire de vie sont différentes selon les cas d'application et les thématiques considérées : le rapport au travail, la vie familiale, la vie sociale, la santé, la trajectoire résidentielle...Nous proposons une approche d'étude des trajectoires de vie, basée sur le Web Sémantique, qui en permet la modélisation, la collecte et l'analyse. Cette approche est concrétisée par une architecture logicielle. Cette architecture repose sur un patron de conception d'ontologie de trajectoire de vie, ainsi que sur un modèle de facteurs explicatifs d'évènements de vie. Pour la modélisation,nous avons conçu des algorithmes qui permettent la création d'une ontologie de trajectoire de vie en exploitant le patron et le modèle précédents. Pour lacollecte de données, nous avons développé des APIs permettant de faciliter i)la construction d'une interface de collecte de données conforme aux modéles ;ii) l'insertion des données collectées dans un Triple Store. Notre approche permet la représentation, et, par suite, la collecte et l'exploitation d'informations multi-granulaires, qu'elles soient spatiales, temporelles ou thématiques.Enfin, pour permettre l'analyse des trajectoires, nous proposons des fonctions génériques, implémentées en étendant le langage SPARQL. L'approche méthodologique et les outils proposés sont validés sur un cas d'application visant à étudier les choix résidentiels d'individus en mettant en exergue les caractéristiques de leur trajectoire résidentielle et les éléments explicatifs de celle-ci
The notion of trajectory is the subject of many works in computer science. The life trajectory has several peculiarities which distinguish it from the trajectories usually considered in these works. It is first of all its temporal hold, which is the life, the existence of the observed subject. It is then its thematic hold, this one potentially concerning multiple aspects of the life of an object or an individual. Finally, it is the metaphorical use of the term trajectory, which refers more to the meaning of the trajectory than to the description of a simple evolution in time and space. The life trajectory is used by the expert (sociologist, urban planner ...) who wishes to put in perspective the information on individuals to better understand their choices. The motivations for studying the life trajectory are depending on the application and themes considered: the relation to work and employment, family life, social life, health, residential trajectory ...We propose a Semantic Web based approach to study life trajectories, which allows their modeling, collection and analysis. This approach is embodied by a software architecture whose components are configurable for each application case. This architecture is based on a life trajectory ontology design pattern, as well as a model of explanatory factors for life events. To operationalize the proposed modeling, we designed algorithms that allow the creation of a life trajectory ontology by exploiting the previous pattern and model. For data collection, we developed APIs to facilitate i) the construction of a model-compliant data collection interface; and ii) the insertion of the collected data into a Triple Store. Our approach allows the representation, and hence the collection and exploitation of multi-granular information, whether spatial, temporal or thematic. Finally, to allow the analysis of the trajectories, we propose generic functions, which are implemented by extending the SPARQL language.The methodological approach and the proposed tools are validated on a case study on residential choices of individuals in the Grenoble metropolitan area by highlighting the characteristics of their residential trajectory and the explanatory elements of it, including from their personal and professional trajectories
APA, Harvard, Vancouver, ISO, and other styles
40

Amestoy, Patrick. "Factorisation de grandes matrices creuses non symétriques basée sur une méthode multifrontale dans un environnement multiprocesseur." Toulouse, INPT, 1990. http://www.theses.fr/1990INPT050H.

Full text
Abstract:
Nous nous interessons aux methodes directes de resolution des grands systemes lineaires creux. Nous considerons la factorisation lu dans un environnement mimd a memoire partagee. Notre demarche est basee sur la methode multifrontale (duff et reid 1983), ou les taches sont distribuees parmi les processeurs selon un arbre d'elimination qui peut etre engendre automatiquement a partir de n'importe quelle strategie de pivotage. L'algorithme original de duff (1969) a ete modifie afin d'ameliorer ses performances du point de vue de la vectorisation et de la parallelisation. Nous montrons que, meme si une implementation optimale du code depend des caracteristiques de la machine utilisee, un ensemble limite de parametres peut etre mis en place pour controler l'efficacite du code dans un environnement multiprocesseur. La croissance des valeurs numeriques durant la factorisation est controlee a l'aide d'un pivotage partiel avec critere de seuil. Le pivotage partiel degrade les performances de la factorisation. Nous decrivons comment modifier la strategie de pivotage pour reduire le remplissage durant la factorisation. Nous etudions enfin l'influence de l'equilibrage de la matrice sur la precision numerique et sur l'efficacite du solveur. La comparaison avec d'autres methodes montre que nous avons combine la portabilite, l'efficacite, et la precision sur un grand nombre de calculateurs a memoire partagee. Nous montrons finalement que la methode multifrontale est un outil efficace pour la resolution de nombreux problemes numeriques poses par la mecanique des fluides
APA, Harvard, Vancouver, ISO, and other styles
41

Zhang, Yiqun. "Contribution à l'étude de la vision dynamique : une approche basée sur la géométrie projective." Compiègne, 1993. http://www.theses.fr/1993COMPD650.

Full text
Abstract:
Le travail de cette thèse s'inscrit dans le cadre de la vision 3D et se consacre plus spécialement à la reconstitution de scènes à partir d'une séquence d'images monoculaires saisie par une caméra en mouvement. Il s'agit de reconstruire les éléments 3D du type segments de droite d'une scène en utilisant la connaissance du mouvement de la caméra. L'étude a été faite dans le contexte de la géométrie projective, ce qui a permis, dans le cas d'une translation, le développement d'une approche basée sur le principe de dualité projective. L'idée consiste à résoudre le problème en trois phases séquentielles : - Diviser les droites de la scène en groupes de droites parallèles via un groupement correspondant de leurs images et déterminer la direction de chaque groupe. - Reconstruire les droites groupe par groupe. - Retrouver les segments portés par chacune des droites reconstruites. Dans l'optique de la dualité projective, chacune des deux premières phases revient à représenter les primitives 2D, droites support des segments extraits des images, par des points dans un plan projectif et a mettre en évidence de l'alignement des points qui correspond a un groupe de droites parallèles pour la première phase ou a une seule droite de la scène pour la seconde. Un ensemble d'algorithmes dont le principe se fond essentiellement sur la transformation de Hough a été développé pour réaliser les trois phases. Cette approche privilégie le traitement de longues et denses séquences d'images. Des résultats expérimentaux ont été présentés en vue de montrer sa performance.
APA, Harvard, Vancouver, ISO, and other styles
42

Ninin, Jordan. "Optimisation Globale basée sur l'Analyse d'Intervalles : Relaxation Affine et Limitation de la Mémoire." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2010. http://tel.archives-ouvertes.fr/tel-00580651.

Full text
Abstract:
Depuis une vingtaine d'années, la résolution de problèmes d'optimisation globale non convexes avec contraintes a connu un formidable essor. Les algorithmes de branch and bound basée sur l'analyse d'intervalles ont su trouver leur place, car ils ont l'avantage de prouver l'optimalité de la solution de façon déterministe, avec un niveau de certitude pouvant aller jusqu'à la précision machine. Cependant, la complexité exponentielle en temps et en mémoire de ces algorithmes induit une limite intrinsèque, c'est pourquoi il est toujours nécessaire d'améliorer les techniques actuelles. - Dans cette thèse, nous avons développé de nouvelles arithmétiques basées sur l'arithmétique d'intervalles et l'arithmétique affine, afin de calculer des minorants et des majorants de meilleure qualité de fonctions explicites sur un intervalle. - Nous avons ensuite développé une nouvelle méthode automatique de construction de relaxations linéaires. Cette construction est basée sur l'arithmétique affine et procède par surcharge des opérateurs. Les programmes linéaires ainsi générés ont exactement le même nombre de variables et de contraintes d'inégalité que les problèmes originaux, les contraintes d'égalité étant remplacées par deux inégalités. Cette nouvelle procédure permet de calculer des minorants fiables et des certificats d'infaisabilité pour chaque sous-domaine à chaque itération de notre algorithme de branch and bound par intervalles. De nombreux tests numériques issus du site COCONUT viennent confirmer l'efficacité de cette approche. - Un autre aspect de cette thèse a été l'étude d'une extension de ce type d'algorithmes en introduisant une limite sur mémoire disponible. L'idée principale de cette approche est de proposer un processus inverse de l'optimisation par le biais d'un principe métaheuristique: plutôt que d'améliorer des solutions locales à l'aide de métaheuristiques telles que les algorithmes Taboo ou VNS, nous partons d'une méthode exacte et nous la modifions en une heuristique. De cette façon, la qualité de la solution trouvée peut être évaluée. Une étude de la complexité de ce principe métaheuristique a également été effectuée. - Enfin, pour finir l'étude, nous avons appliqué notre algorithme à la résolution de problème en géométrie plane, ainsi qu'à la résolution d'un problème de dimensionnement de moteur électrique. Les résultats obtenus ont permis de confirmer l'intérêt de ce type d'algorithme, en résolvant des problèmes ouverts sur les polygones convexes et proposant des structures innovantes en génie électrique.
APA, Harvard, Vancouver, ISO, and other styles
43

Pirayesh, Neghab Amir. "Évaluation basée sur l’interopérabilité de la performance des collaborationsdans le processus de conception." Thesis, Paris, ENSAM, 2014. http://www.theses.fr/2014ENAM0033/document.

Full text
Abstract:
Un processus de conception que ce soit d'un produit ou d'un service est composé d'un grand nombre d'activités reliées par des échanges nombreux de données et d'informations. La qualité de ces échanges, appelés collaborations, nécessite d'être capable d'envoyer et de recevoir des informations et données utiles, compréhensibles et univoques pour les différents concepteurs impliqués. La problématique de ces travaux de thèse se focalise donc sur la définition et l'évaluation de la performance des collaborations, et par extension, du processus de conception dans sa totalité. Cette évaluation de la performance exige la définition de plusieurs éléments clefs tels que : les objets à évaluer, les indicateurs de performance et les variables d'actions. Afin de définir l'objet d'évaluation, ces travaux s'appuient sur une étude de la littérature afin de proposer un méta-modèle de la conception collaborative. La mesure de la performance de ces collaborations est quant à elle basée sur le concept d'interopérabilité. Cette mesure estime ainsi l'interopérabilité technique et sémantique des différentes collaborations élémentaires. Ces travaux se concluent par la proposition d'un cadre méthodologique outillé d'évaluation de la performance des collaborations. Par une approche en deux étapes (modélisation puis évaluation), ce cadre facilite l'identification des collaborations peu performantes et de leurs causes. Ce cadre est illustré et partiellement validé à l'aide d'un exemple académique et d'une étude de cas dans le cadre de la conception
A design process, whether for a product or for a service, is composed of a large number of activities connected by many data and information exchanges. The quality of these exchanges, called collaborations, requires being able to send and receive data and information which are useful, understandable and unambiguous to the different designers involved. The research question is thus focused on the definition and evaluation of the performance of collaborations, and by extension, of the design process in its entirety. This performance evaluation requires the definition of several key elements such as object(s) to be evaluated, the performance indicator(s) and action variable(s).In order to define the object of evaluation, this research relies on a study of the literature resulting in a meta-model of collaborative process. The measurement of the performance of these collaborations is for its part based on the concept of interoperability. The measurement of the performance of the collaborations is for its part based on the concept of interoperability. Furthermore, this measure estimates the technical and conceptual interoperability of the different elementary collaborations. This work is concluded by proposing a tooled methodological framework for collaborations' performance evaluation. Through a two-step approach (modeling and evaluation), this framework facilitates the identification of inefficient collaborations and their causes. This framework is illustrated and partially validated using an academic example and a case study in design domain
APA, Harvard, Vancouver, ISO, and other styles
44

Nguyen, Minh Duc. "Méthodologie de test de systèmes mobiles : une approche basée sur les scénarios." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/775/.

Full text
Abstract:
Les avancées technologiques du monde du " sans fil " ont conduit au développement d'applications dédiées à l'informatique mobile. Leurs caractéristiques propres posent de nouveaux défis pour leur vérification. Ce mémoire traite de la technologie de test pour les systèmes mobiles. Nous avons débuté notre travail par un état de l'art sur le test des applications mobiles conjointement avec une analyse d'une étude de cas, un protocole d'appartenance de groupe (GMP) dans le domaine des réseaux ad hoc, pour nous permettre de mieux comprendre les problèmes liés au test de ces applications. En conséquence, nous avons décidé d'avoir une approche de test qui se base sur les descriptions de scénarios. Nous avons constaté que les scénarios d'interactions doivent tenir compte des configurations spatiales des nœuds comme un concept majeur. Afin de couvrir les nouvelles spécificités des systèmes mobiles dans les langages de descriptions, nous avons introduit des extensions qui portent essentiellement sur les relations spatio-temporelles entre nœuds et sur la communication par diffusion. Le traitement de l'aspect spatial a conduit au développement de l'outil GraphSeq. GraphSeq a pour but d'analyser des traces de test afin d'y identifier des occurrences de configurations spatiales successives décrites à partir d'un scénario abstrait. L'application de GraphSeq (support à l'implémentation des cas de test, vérification de la couverture des traces) est présentée avec les analyses des sorties d'un simulateur de mobilité et des traces d'exécution de l'étude de cas GMP
Advances in wireless networking have yielded the development of mobile computing applications. Their unique characteristics provide new challenges for verification. This dissertation elaborates on the testing technology for mobile systems. As a first step, a review of the state-of-the-art is performed together with a case study - a group membership protocol (GMP) in mobile ad hoc settings - that allowed us to gain insights into testing problems. We present, then, a testing approach which bases on the descriptions of scenarios. We note that the scenario interactions must take into account the spatial configurations of nodes as first class concepts. To cover new specificities of mobile systems in description languages, we introduce some extensions that focus on spatio-temporal relations between nodes and on broadcast communication. The processing of spatial aspect leads to the development of the tool GraphSeq. GraphSeq aims to analyze test traces in order to identify occurrences of successive spatial patterns described in an abstract scenario. The application of GraphSeq (support to implementation of test cases, verification of trace coverage) is shown with the analysis of outputs of a simulator and execution traces of the case study GMP
APA, Harvard, Vancouver, ISO, and other styles
45

Touili, Tayssir. "Analyse symbolique de systèmes infinis basée sur les automates : application à la vérification de systèmes paramétrés et dynamiques." Phd thesis, Université Paris-Diderot - Paris VII, 2003. http://tel.archives-ouvertes.fr/tel-00161124.

Full text
Abstract:
Nous nous intéressons dans cette thèse au model-checking des systèmes infinis, notamment
les systèmes paramétrés et les programmes récursifs parallèles. Nous présen\-tons un cadre
uniforme pour la vérification algorithmique de ces systèmes. Ce cadre est basé sur la
représentation des ensembles de configurations par des automates de mots ou d'arbres, et la
représentation des relations de transition des systèmes par des règles de réécritures de mots
ou de termes. Le problème de la vérification est ensuite réduit au calcul des ensembles des
accessibles dans ce cadre. Les contributions de cette thèse sont les suivantes:

1- Définition d'une technique d'accélération générale. Nous proposons une méthode basée sur
des techniques d'extrapolation sur les automates, et nous étudions la puissance de cette approche.
2- Techniques de model-checking régulier pour la vérification des réseaux paramétrés avec des
topologies linéaires et arborescentes. En particulier, nous considérons les réseaux modélisés
par des systèmes de réécriture comprenant des semi-commutations, c-à-d. des règles de la forme ab -> ba,
et nous exhibons une classe de langages qui est effectivement fermée par ces systèmes.
3- Modélisation et vérification des programmes récursifs parallèles. Dans un premier temps,
nous étudions les modèles PRS qui sont plus généraux que les systèmes à pile, les réseaux de Petri,
et les systèmes PA; et nous proposons des algorithmes qui calculent les ensembles des accessibles
de (sous-classes de) PRS en considérant différentes sémantiques.

Dans une autre approche, nous considérons des modèles basés sur des automates à pile communicants
et des systèmes de réécritures à-la CCS, et nous proposons des méthodes de vérification de ces modèles
basées sur le calcul d'abstractions des langages des chemins d'exécutions. Nous proposons un cadre
algébrique générique permettant le calcul de ces abstractions.
APA, Harvard, Vancouver, ISO, and other styles
46

Le, Kim Hung. "Analyse cyclique de sécurité des grands réseaux de transport et d'interconnexion basée sur les concepts de la localisation." Grenoble INPG, 1995. http://www.theses.fr/1995INPG0125.

Full text
Abstract:
Dans la conception et l'exploitation des grands réseaux, l'analyse de la sécurité en temps ré el est difficile en raison du conflit entre la précision et la rapidité demandées. La procédure d'analyse de sécurité est réalisée périodiquement. Pour un cycle donné, d'un point de vue historique, elle n'utilise pas les informations relatives à l'analyse effectuée lors du cycle précédent. Le but de notre recherche et de trouver et de développer la relation existant entre l'évaluation de la sécurité à l'instant Ta et l'évaluation suivante (instant To+A t). Cela représente un intérê t certain, car l'évaluation à To+A t sera simplifiée par la connaissance de l'état du cycle précédent. Un algorithme général pour l'automatisation de l'analyse cyclique de sécurité est proposé. Le concept de localisation est également étudié et introduit dans cet algorithme. Ainsi, il permet d'accélérer le calcul des transits et des tensions qui résultent de la perte d'une branche du réseau en tenant compte de la courbe de charge journalière. Les essais effectués sur le réseau France 400 kV simplifié contenant 206 noeuds et 299 branches nous montrent les performances de la méthode
APA, Harvard, Vancouver, ISO, and other styles
47

Pettersson, Fredrik. "Le fantastique dans Le Spectre large de Gérard Prévot : Une analyse basée sur la théorie de Tzvetan Todorov." Thesis, Linnéuniversitetet, Institutionen för språk (SPR), 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-79278.

Full text
Abstract:
Ce mémoire est centré sur les caractéristiques fantastiques dans le Spectre large de Gérard Prévot (1975) et par la suite, sur une comparaison avec les caractéristiques d’un autre recueil de Prévot, la Nuit du Nord (1974), étudié par Ricci en 1993. Notre analyse est basée sur la théorie du fantastique de Tzvetan Todorov qui met en avant l’hésitation à savoir si le phénomène énigmatique provient de l’étrange ou du merveilleux.         L’étude de l’œuvre littéraire de Prévot est intéressante car, comparé aux autres fantastiqueurs belges comme Jean Ray ou Thomas Owen, Gérard Prévot reste relativement inconnu et peu étudié.         Pour ce qui est du résultat, nous trouvons que les contes du recueil ont des qualités variées relativement à la théorie fantastique. Les principales caractéristiques fantastiques du Spectre large naissent surtout grâce à une narration à point de vue limité et au narrateur obscur, parfois inconnu. Le fantastique naît aussi grâce à l’intrigue qui fait venir la force perturbatrice, souvent à la toute dernière page.         En comparant nos résultats avec l’étude de Ricci (1993), nous trouvons plusieurs points en commun mais aussi de divergence. Prévot a écrit les deux livres en utilisant un lexique similaire et les contes se déroulent souvent dans des lieux similaires, dans le Nord — un lieu ayant des connotations mystiques. Un fantastique dit « social » se trouve aussi dans les deux recueils. La principale différence entre les deux livres est la narration. Tandis que le narrateur de la Nuit du Nord possède un savoir absolu qui lui donne le statut omniscient, il est clairement limité dans son point de vue et parfois anonyme dans le Spectre large.
This thesis is centred on the fantastic features in Le Spectre Large by Gérard Prévot (1975) and subsequently on a comparison with the features from another collection by Prévot, La Nuit du Nord (1974), studied by Ricci in 1993. The analysis is based on Tzvetan Todorov’s theory of the fantastic, which puts its emphasis on the hesitation whether the enigmatic phenomena has its origins in the natural (uncanny) or the supernatural (marvellous) world.         The research of Prévot’s literary work is interesting given that, compared to other Belgian fantastic writers such as Jean Ray or Thomas Owen, Gérard Prévot is still rather unknown and not much studied.         With regard to the results, it is found that the stories have a mixed qualities in relation to fantastic theory. In the better tales, the fantastic is born out of a narration with a limited point of view and a vague and sometimes unknown narrator. It is also born out of the plot which introduces the disruptive elements at the very last page.         When comparing the corpus with Ricci’s study (1993), several common features are found, but also a few differences. Prévot has written the two books using a similar vocabulary and the stories often take place in related environments – the North, a place with mysterious connotations. A fantastic which Ricci calls “social” can also be found in both collections. The main point of difference between the books is the narration. While the narrator in La Nuit du Nord has an omniscient status, the one in Le Spectre Large is clearly limited and anonymous.
APA, Harvard, Vancouver, ISO, and other styles
48

Zhang, Xiaoqun. "Reconstruction et régularisation en tomographie par une méthode de Fourier basée sur la variation totale." Lorient, 2006. http://www.theses.fr/2006LORIS075.

Full text
Abstract:
La tomographie par rayons X consiste à inverser une transformée de Radon avec des données partielles dans l'espace de Fourier, ce qui classe cette technique d'imagerie dans la catégorie des problèmes inverses mal posés. La résolution du problème nécessite (explicitement ou implicitement) l'interpolation et l'extrapolation des données fréquentielles d'une grille polaire à une grille cartésienne. Notre approche introduit la semi-norme de la variation totale afin de minimiser les dégradations et de reconstruire une image régulière par morceaux, visuellement proche des jeux de données synthétiques utilisés par les radiologues. Nous proposons un schéma d'optimisation sous une contrainte formulée dans l'espace de Fourier, dont les avantages sont une modélisation précise des données et une faible complexité de calcul. La principale difficulté reste la définition de la contrainte fréquentielle, qui doit réaliser un compromis entre une bonne attache aux données et la possibilité de suffisamment diminuer la variation totale afin de débruiter l'image. Nous étudions trois contraintes, la première basée sur les extrema locaux des coefficients sur la grille polaire, la deuxième sur une estimation de la régularité Lipschitz locale et la troisième sur une régression locale avec seuillage non-linéaire. Le modèle proposé et les algorithmes associés sont validés par de nombreuses expériences sur des données réalistes, simulées à partir du fantôme de référence Shepp-Logan sous diverses conditions de bruit. Les résultats numériques montrent une amélioration qualitative considérable des images reconstruites par le modèle par rapport à l'algorithme de référence (rétro-projection filtrée) avec la disparition quasi-totale du bruit et des artefacts. Le rapport signal à bruit gagne entre 1 à 6 db suivant le type de données et de contrainte. Enfin, les algorithmes proposés sont plus rapides que ceux du standard actuel d'environ un facteur trois
X-ray tomography consists in inversing a Radon transform from partial data in the Fourier space, leading this imaging process to belong to the family of ill-posed inverse problems. Solving this problem needs (explicitly or implicitly) frequency data interpolation and extrapolation from a polar grid to a Cartesian one. Our approach introduces the total variation seminorm in order to minimize the artifacts and to reconstruct a piecewise smooth image, visually close to the synthetic data set used by radiologists. We propose an optimisation scheme under a constraint given in the Fourier space for which the advantages are a precise data modelling and a low computational cost. The main difficulty remains the formulation of the frequency constraint, which must balance between a good data fit and the liberty of reducing the total variation enough so that the image can be denoised. We study three constraints, the first one being based on local extrema over the polar grid, the second on an estimator of the local Lipschitz regularity and the third on local regression with nonlinear thresholding. The proposed model and the associated algorithms are valided by numerous experiments on realistic data, simulated from the Shepp-Logan phantom using different types of noise. Numerical results show a significant qualitative enhancement of reconstructed images using our model compared to the standard algorithm (filtered backprojection), with the suppression of almost all noise and artefacts. The signal to noise ratio increases by 1 up to 6 db depending on the type of data and the constraint. At last, the proposed algorithms are faster than the standard one by more or less a factor of three
APA, Harvard, Vancouver, ISO, and other styles
49

Noce, Aurélien. "Vision et reconstruction 3D basée sur la texture : application à la robotique médicale." Phd thesis, Montpellier 2, 2008. http://www.theses.fr/2008MON20244.

Full text
Abstract:
Ces travaux mettent en place les bases d'une architecture de vision 3D pour un projet de plate-forme robotique de compensation de mouvements cardiaques, pour la chirurgie coronarienne mini-invasive à cœur battant. Les objectifs recherchés sont le suivi et la reconstruction en temps réel des mouvements du cœur, à partir des images fournies par une ou deux caméras. Une première contribution est la sélection d'un ensemble de descripteurs optimaux pour l'analyse de la texture du cœur, réalisée par des méthodes d'analyse statistique multidimensionnelle. Ce jeu de descripteurs est alors mis en œuvre dans un algorithme original de suivi hybride, qui utilise à la fois des informations issues de l'analyse de texture et de la mise en correspondance de motifs. Cet algorithme est évalué sur des images de synthèse ainsi que sur des images acquises in vivo grâce à une plate-forme d'acquisition haute fréquence développée pour l'occasion. Cette évaluation montre l'avantage de coupler l'information de motif avec l'information de texture au niveau de la robustesse du suivi vis-à-vis des déformations de l'organe. Nous proposons ensuite une méthode de reconstruction 3D des mouvements du cœur par stéréo-vision. Cette méthode utilise l'analyse de texture, afin d'améliorer le recalage des données entre les vues. Des résultats sont présentés sur des images expérimentales afin d'illustrer la méthode.
APA, Harvard, Vancouver, ISO, and other styles
50

Chang, Jing. "Evaluation des risques de troubles musculo-squelettiques liés au travail basée sur OpenSim." Thesis, Ecole centrale de Nantes, 2018. http://www.theses.fr/2018ECDN0042/document.

Full text
Abstract:
Les troubles musculo-squelettiques liés au travail causent des maladies physiques et mentales chez les travailleurs, réduisent leur productivité et causent de grandes pertes aux industries et à la société. Cette thèse porte sur l'évaluation du risque physique de troubles musculo-squelettiques liés au travail, pour laquelle quatre points clés sont identifiés : la mesure de la charge de travail, l'évaluation de l'effet de l'accumulation de la charge de travail, la quantification des caractéristiques individuelles et l'intégration de l'évaluation des risques dans les outils de modélisation numérique humaine. Dans l'état de l'art, les études épidémiologiques des désordres musculo-squelettiques et les méthodes actuelles utilisées pour l'évaluation des risques physiques sont présentées, ainsi que les études concernant les quatre points clés. La deuxième partie présente une étude expérimentale portant sur 17 sujets afin d'explorer un nouvel indicateur de la fatigue musculaire avec EMG de surface. Dans la partie suivante, des développements sont faits pour intégrer un modèle de fatigue musculaire dans OpenSim, un logiciel de modélisation humaine numérique, avec lequel la diminution de capacité de chaque muscle est prévisible pour une tâche donnée. Les valeurs prévues peuvent s'appliquer à l'évaluation des risques physiques. La quatrième partie présente le travail de construction d'un modèle musculosquelettique à chaîne complète dans OpenSim, étant donné qu'aucun modèle actuel ne couvre les muscles du torse et tous les membres. Une attention particulière est portée à la méthode utilisée par OpenSim pour adapter les propriétés inertielles du modèle aux individus. Les erreurs de la méthode sont évaluées à l'aide des données de référence provenant du scanner 3D du corps entier. Dans la dernière partie, le nouveau modèle de la chaîne complète est appliqué à l'analyse de la posture d'une tâche de perçage en hauteur. L'activité musculaire varie en fonction des postures, ce qui est suggéré comme indicateur des charges posturales
Work-related musculoskeletal disorders cause physical and mental illnesses in workers, reduce their productivity and cause great losses to industries and society. This thesis focuses on the assessment of the physical risk of work-related musculoskeletal disorders in industry, for which four key points are identified: measuring workloads, assessing the effect of workload accumulation, quantifying individual characteristics and integrating the risk assessment into digital human modeling tools. In the state of the art, the epidemiologic studies of musculoskeletal disoders and the current methods used for its physical risk assessment are reviewed, as well as the studies concerning the four key points. The second part presents an experimental study involving 17 subjects to explore a new indicator to muscle fatigue with surface EMG. In the next part, efforts are made to integrate a muscle fatigue model into OpenSim, a digital human modeling software, with which the capacity decrease of each muscle is predictable for a given task. The predicted values could be applicable to the physical risk assessment. The fourth part introduce the work to build up a Fullchain musculoskeletal model in OpenSim in view that no current model covers muscles of the torso and all the limbs. Special attention is paid to the method used by OpenSim to adapt the model inertial properties to individuals. Errors of the method is evaluated with reference data coming from the whole-body 3D scan. In the last part, the newly built Full-chain model is applied on the posture analysis of an overhead drilling task. The muscle activition varies as a function of postures, which is suggested as the indicator of posture loads
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography