Dissertations / Theses on the topic 'L'analyse des processus'

To see the other types of publications on this topic, follow the link: L'analyse des processus.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'L'analyse des processus.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Kosbach, Laurent. "Contribution a l'analyse du processus innovateur." Versailles-St Quentin en Yvelines, 1997. http://www.theses.fr/1997VERS1001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La pratique entrepreneuriale n'enregistre pas de facon continue ces informations et le critere temps est donc encore souvent utilise dans les graphiques de la courbe en s. Les phases de cette diffusion; naissance, essor, maturite et desaffection sont fonction du nombre d'adoptants agreges par unite de temps. La diffusion de la photocomposition dans l'industrie des arts graphiques suisses a ete graduelle. Les elements de diffusion mettent en evidence une reelle dissociation de l'attitude des divers groupes d'entreprises envers l'innovation et des facteurs d'influence internes et externes. Ce cas demontre que le renouvellement des moyens de production est un facteur d'introduction et d'integration des innovations. L'etude de la commande numerique couvre principalement la periode d'introduction de la nouvelle technologie. Sa diffusion graduelle est caracteristique de divers facteurs et freins de diffusion lies a l'innovation et a son environnement. Les principaux facteurs d'adoption ont ete le cout et le plan d'investissement de l'entreprise adoptante, l'augmentation combinee de flexibilite et de capacite resultant de cet acquisition. Ces innovations ont des caracteristiques de diffusion qui valident la courbe sigmoide representative de la diffusion des innovations. Le parrainage financier des gouvernements americains et japonais ainsi que leur soutien organisationnel portes a la recherche appliquees, aux prototypes et a certaines des premieres applications commerciales ont grandement aide au demarrage de l'industrie des supraconducteurs haute temperature. Les gouvernements ont cree un bien "public" que celles-ci peuvent s'approprier. Parmi les conditions qui president a la naissance d'une nouvelle technologie, le role et le soutien de l'etat est critique au niveau financier, structurel et organisationnel. Les etats-unis et le japon n'ont pas echappe a cette necessite lors de l'emergence de la nouvelle technologie des supraconducteurs et des innovations utilisant les materiaux a haute temperature critique
2

Frécon, Jordan. "Méthodes d'optimisation pour l'analyse de processus invariants d'échelle." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEN031/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'invariance d'échelle repose sur l'intuition que les dynamiques temporelles ne sont pas gouvernées par une (ou quelques) échelle(s) caratéristique(s). Cette propriété est massivement utilisée dans la modélisation et l'analyse de données univariées issues d'applications réelles. Son utilisation pratique se heurte pourtant à deux difficultés dans les applications modernes : les propriétés d'invariance d'échelle ne sont plus nécessairement homogènes en temps ou espace ; le caractère multivarié des données rend fortement non linéaires et non convexes les fonctionnelles à minimiser pour l'estimation des paramètres d'invariance d'échelle. La première originalité de ce travail est d'envisager l'étude de l'invariance d'échelle inhomogène comme un problème conjoint de détection/segmentation et estimation et d'en proposer une formulation par minimisation de fonctionnelles vectorielles, construites autour de pénalisation par variation totale, afin d'estimer à la fois les frontières délimitant les changements et les propriétés d'invariance d'échelle de chaque région. La construction d'un algorithme de débruitage par variation totale vectorielle à la volée est proposée. La seconde originalité réside dans la conception d'une procédure de minimisation de fonctionnelle non convexe type « branch and bound » pour l'identification complète de l'extension bivariée, du mouvement brownien fractionnaire, considéré comme référence pour la modélisation de l'invariance d'échelle univariée. Cette procédure est mise en œuvre en pratique sur des données de trafic Internet dans le contexte de la détection d'anomalies. Dans un troisième temps, nous proposons des contributions spécifiques au débruitage par variation totale : modèle poissonnien d'attache aux données en relation avec un problème de détection d'états pour la fluorescence intermittente ; sélection automatique du paramètre de régularisation
Scale invariance relies on the intuition that temporal dynamics are not driven by one (or a few) characteristic scale(s). This property is massively used in the modeling and analysis of univariate data stemming from real-world applications. However, its use in practice encounters two difficulties when dealing with modern applications: scaling properties are not necessarily homogenous in time or space ; the multivariate nature of data leads to the minimization of highly non-linear and non-convex functionals in order to estimate the scaling parameters.The first originality of this work is to investigate the study of non-homogenous scale invariance as a joint problem of detection/segmentation and estimation, and to propose its formulation by the minimization of vectorial functionals constructed around a total variation penalization, in order to estimate both the boundaries delimiting the changes and the scaling properties within each region.The second originality lies in the design of a branch and bound minimization procedure of non-convex functional for the full identification of the bivariate extension of fractional Brownian motion, considered as the reference for modeling univariate scale invariance. Such procedure is applied in practice on Internet traffic data in the context of anomaly detection.Thirdly, we propose some contributions specific to total variation denoising: Poisson data-fidelity model related to a state detection problem in intermittent fluorescence ; automatic selection of the regularization parameter
3

Caya, René. "L'analyse du processus d'individuation chez Carl Gustav Jung." Thèse, Université du Québec à Trois-Rivières, 1989. http://depot-e.uqtr.ca/5666/1/000583748.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Zemmari, Akka. "Contribution à l'analyse d'algorithmes distribués." Bordeaux 1, 2000. http://www.theses.fr/2000BOR10609.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La premiere partie de cette these est consacree a l'etude du degre de parallelisme des monoides de commutation modelisant les executions distribuees des algorithmes. Apres une presentation du modele et des differents resultats deja etablis, nous donnons des methodes pour calculer ce degre, l'outil principal utilise etant les marches aleatoires et les chaines de markov. La deuxieme partie s'interesse au probleme des synchronisations dans les reseaux anonymes. Des travaux ulterieurs ont montre que sous quelques hypotheses, on ne peut resoudre ce probleme de maniere deterministe, nous proposons donc et analysons des algorithmes probabilistes resolvant ce probleme, nous etudions egalement leur efficacite. La troisieme partie est consacree a l'etude d'un algorithme d'election dans un reseau en arbre ou dans tout reseau ou un arbre couvrant est disponible. Nous montrons que sous quelques hypotheses, le(s) sommet(s) median(a) a (ont) la probabilite la plus elevee d'etre elu(s), et nous donnons quelques implementations possibles de cet algorithme. Dans la derniere partie, nous nous interessons a l'etude de la taille memoire necessaire pour coder les tables de routage adaptatives dans un reseau de processeurs. Les principaux resultats de cette partie concernent la compacite de ces tables. En effet, nous montrons que tout reseau supporte un routage par intervalle -adaptatif de compacite 1. Si on impose au moins un plus court chemin, nous donnons une borne inferieure pour la compacite et, enfin, nous montrons que la difference entre la compacite dans le cas deterministe et la compacite dans le cas adaptatif peut etre tres grande.
5

Pineau, Patrick. "Une psychothérapie parents-bébé : contribution à l'analyse du processus thérapeutique." Montpellier 1, 1994. http://www.theses.fr/1994MON11127.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

COHEN, GABRIEL. "Contribution a la prevision des processus aleatoires par l'analyse harmonique." Paris, CNAM, 1999. http://www.theses.fr/1999CNAM0336.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les premiers travaux sur la prevision de series chronologiques ont ete realises sur une seule serie de donnees. Le peu d'informations fournies par ce type de donnees a oriente la reflexion vers la recherche de modeles. Aujourd'hui, grace aux nouvelles technologies, il n'est plus rare de disposer d'une famille de series chronologiques dont on desire faire une prevision. Ce type de donnees peut moins facilement se traiter a l'aide de modeles. En 1945 karhunen et loeve proposent d'utiliser la famille des fonctions propres de l'operateur de covariance pour decomposer, d'une facon optimale, un processus en une serie de processus quasi deterministes. En 1973 jean claude deville utilise cette decomposition pour realiser une etude sur la constitution des familles en france. Notre travail se situe dans la continuite de ces precurseurs tout en etendant le champ de la reflexion aux problemes de prevision. On pourra retenir : _ la stabilite des composantes temporelles. _ la mise en place d'un indicateur permettant de retenir qu'un nombre limite de processus quasi deterministes. _ la prevision globale des donnees a partir du prolongement de ces memes composantes. A partir de ces resultats nous avons pu proposer une methode de prevision qui respecte la procedure suivante : 1. Decomposition du processus 2. Determination du nombre de processus elementaires a retenir 3. Prolongement des composantes temporelles a conserver 4. Reconstitution des donnees et prevision du processus pour pouvoir effectuer ce travail nous avons mis au point un logiciel qui propose actuellement une version professionnelle sous windows. Les deux exemples que nous avons traites (indices trimestriels de la production industrielle en france de 1980 a 1988 & la consommation d'electricite en france de 1972 a 1980) laissent esperer une amelioration de la precision des previsions par cette methode. E-mail : gabriel. Marchand@wanadoo. Fr.
7

Jorand, Claude. "Contribution à l'analyse des signaux non stationnaires et/ou non gaussiens." Paris 12, 1994. http://www.theses.fr/1994PA120048.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La transformation de wigner-ville (twv) est un outil a present bien connu dans l'analyse de signaux non stationnaires. Sa structure non lineaire est source d'interferences entre les composantes du signal analyse, ce qui pose un probleme lors de l'extraction des informations pertinentes dans l'image resultante. Consideree comme un processus aleatoire bidimensionnel, cette image est generalement non gaussienne. Ainsi, cette transformation est le siege de trois non-qualites: non linearite, due a l'operateur, non stationnarite et non gaussianite, qui affectent le signal analyse ou produit. Dans cette etude, nous nous interessons aux deux non-qualites liees aux signaux: la non gaussianite, ou l'on aborde certaines techniques utilisant les statistiques d'ordre superieur a deux, puis la non stationnarite, qui fait intervenir la transformation en ondelettes comme second role. Enfin, dans un cadre etendu de la twv, on rencontre simultanement ces deux attributs. Un autre aspect fondamental de ce travail est une contribution au transfert des techniques du traitement du signal vers le domaine industriel, par le developpement d'un logiciel d'analyse non stationnaire et par sa mise en uvre dans l'analyse vibratoire d'un moteur automobile
8

Gregoir, Stéphane. "Contributions à la représentation linéaire et l'analyse statistique des processus multivariés." Paris 9, 2009. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2009PA090026.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse réunit quatre articles. D'une part, des tests presque efficaces de présence d'une racine unitaire saisonnière en présence de termes déterministes oscillant à la même fréquence sont construits pour des processus univariés. L'inférence dans ce cadre est non-standard et peut être décrite à l'aide de processus d'Orstein-Uhlenbeck complexes. Une étude de Monte-Carlo révèle un gain de puissance de cette procédure vis-à-vis des procédures existantes. D'autre part, un théorème général de représentation sous forme autorégressive valide pour une grande famille de processus multivariés est établi. Des procédures statistiques d'estimation et de test sont développées pour aboutir à la représentation la mieux adaptée aux données étudiées. Elles permettent dans un cadre semi-paramétrique l'estimation et la détection à différentes fréquences de relations de cointégration polynomiales. Enfin, en présence de cointégration saisonnière, un cadre d'estimation de type "Fully-Modified" est proposé qui permet de retrouver une inférence asymptotiquement normale et de tester la présence de cointégration saisonnière
This thesis collects four. First, almost efficient tests for the presence of a couple of complex unit root in the presence of deterministic function oscillating at the same frequency are developed for univariate processes. Inference in this framework is non-standard and relies on the use of complex Orstein-Uhlenbeck processes. A Monte-Carlo study illustrates its finite sample properties and concludes that it outperforms already existing procedures. Second, a general representation theorem under an autoregressive form is proved for a large class of multivariate processes. Estimation and test procedures are developed to allow the practitioner to obtain the appropriate specification for the data at hand. They are developed in a semi-parametric framework and aim at various frequencies at testing for the existence of polynomial cointegration relationships. At last, in presence of seasonal cointegration, an estimation framework, extension to "Fully Modified" estimators approach, is introduced that allows for classical inference when testing for coefficient constraints and for testing for the presence of seasonal cointegration
9

Chantiri-Chaudemanche, Rouba. "Contribution à l'analyse des processus d'élaboration des normes comptables : une étude comparée des processus français et britannique." Paris 9, 2000. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2000PA090006.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse rend compte d'une recherche sur les processus français et britannique d'élaboration des normes comptables. La recherche présentée, de nature qualitative, a été réalisée au sein même des organismes de normalisation, le conseil national de la comptabilité (avant la réforme de 1996) pour la France et l'accounting standards board pour le Royaume-Uni. Elle débouche sur une comparaison fondée sur cinq critères : 1) l'existence ou la non-existence d'un processus-type, 2) la position (expert ou représentant) des participants au processus, 3) la nature du lien entre les normes, 4) la nature et les modalités de la décision, et 5) le type de relations entre l'organisme normalisateur et les parties prenantes. Les résultats obtenus conduisent à relativiser certaines oppositions mises en évidence par les travaux antérieurs et indiquent une tendance au rapprochement des systèmes français et britannique de normalisation.
10

Bonneu, Florent. "Processus ponctuels spatiaux pour l'analyse du positionnement optimal et de la concentration." Phd thesis, Toulouse 1, 2009. http://tel.archives-ouvertes.fr/tel-00465270.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les processus ponctuels spatiaux forment une branche de la statistique spatiale utilisée dans des domaines d'application variés (foresterie, géo-marketing, sismologie, épidémiologie...) et développée par de récents travaux théoriques. Nous nous intéressons principalement dans cette thèse à l'apport de la théorie des processus ponctuels spatiaux pour des problèmes de positionnement optimal, ainsi que pour la définition de nouveaux indices de concentration basés sur les distances en économétrie. Le problème de positionnement optimal s'écrit souvent comme un problème d'optimisation prenant en compte des données geo-référencées auxquelles peuvent être associées des caractéristiques. Pour prendre en compte l'aléa, nous considérons ces données issues d'un processus ponctuel spatial pour résoudre un problème de positionnement stochastique plus réaliste qu'un modèle déterministe. A travers l'étude du positionnement optimal d'une nouvelle caserne de pompiers dans la région toulousaine, nous développons une méthode de résolution stochastique permettant de juger de la variabilité de la solution optimale et de traiter des bases de données volumineuses. L'approche implémentée est validée par des premiers résultats théoriques sur le comportement asymptotique des solutions optimales empiriques. La convergence presque sure des solutions optimales empiriques de l'étude de cas précédente est obtenue dans un cadre i.i.d. en utilisant la théorie de Vapnik-Cervonenkis. Nous obtenons aussi la convergence presque sure des solutions optimales empiriques, dans un cadre plus général, pour un problème de positionnement dérivé du problème de transport de Monge-Kantorovich. Nous nous intéressons ensuite à des indices de concentration basés sur des distances en économétrie. Ces indices de concentration peuvent s'écrire comme des estimateurs de caractéristiques du second ordre de processus ponctuels marqués. Nous définissons ensuite un estimateur non-paramétrique d'une nouvelle caractéristique d'un processus ponctuel spatial marqué définissant ainsi un nouvel indice de concentration améliorant ceux déjà existants. Dans un cadre asymptotique avec fenêtre d'observation bornée, notre estimateur est asymptotiquement sans biais.
11

Louis-Dorr, Valérie. "Contribution au traitement et à l'analyse de signaux issus de processus physiologiques." Habilitation à diriger des recherches, Institut National Polytechnique de Lorraine - INPL, 2008. http://tel.archives-ouvertes.fr/tel-00345985.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux présentés dans ce mémoire concernent le traitement et l'analyse des signaux issus de processus physiologiques. La difficulté de traiter ces signaux réside dans la connaissance du processus lui même. En effet, ces systèmes sont souvent modélisés sous l'aspect fonctionnel. Or, il s'avère que les processus vivants requièrent une représentation organisationnelle, structurale, fonctionnelle, mais aussi géométrique et topologique. L'étape de modélisation est d'un enjeu majeur pour définir la méthodologie de traitement des signaux recueillis. Etant donné les nombreuses interactions que présentent ces systèmes, les étapes de prétraitement et de mises en relations multidimensionnelles des signaux disponibles sont généralement incontournables. Les principales contributions présentées visent la détection précoce du glaucome, la phonotentérographie dans le cadre de l'analyse fonctionnelle digestive et enfin l'épilepsie via la caractérisation des crises au travers des signaux EEG. Les perspectives de ce travail se situent dans la continuité des travaux menés en neurophysiologie. De ce contexte, deux axes principaux sont dégagés : l'étude des mécanismes physiopathologiques qui sous-tendent les crises d'épilepsie portant sur l'identification des réseaux épileptiques et leurs relations avec les réseaux cognitifs normaux et l'identification des réseaux neuronaux qui sont mis en jeu au cours des processus mnésiques physiologiques (encodage, stockage, restitution).
12

Cucala, Lionel. "ESPACEMENTS BIDIMENSIONNELS ET DONNÉES ENTACHÉES D'ERREURS DANS L'ANALYSE DES PROCESSUS PONCTUELS SPATIAUX." Phd thesis, Université des Sciences Sociales - Toulouse I, 2006. http://tel.archives-ouvertes.fr/tel-00135890.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
CETTE THÈSE S'INTÉRESSE À DEUX GRANDES QUESTIONS DES PROCESSUS PONCTUELS SPATIAUX: LES ASPECTS DISTRIBUTIONNELS DES ESPACEMENTS ET L'ESTIMATION DE L'INTENSITÉ D'UN PROCESSUS PONCTUEL BRUITÉ.LA PREMIÈRE PARTIE CONCERNE LA CONSTRUCTION DE TESTS D'HOMOGÉNÉITÉ SPATIALE BASÉS SUR LES ESPACEMENTS. ENSUITE NOUS NOUS INTÉRESSONS À LA RECHERCHE D'AGRÉGATS (ZONES DE FORTE INTENSITÉ) À L'AIDE DE CES MEMES ESPACEMENTS. LA DEUXIÈME QUESTION EST ELLE TRAITÉE PAR L'INTRODUCTION D'UN ESTIMATEUR À NOYAU PRENANT EN COMPTE À LA FOIS L'INCERTITUDE SUR LES LOCALISATIONS DES ÉVÉNEMENTS ET L'OBSERVATION SUR UN DOMAINE LIMITÉ.
13

Picard, Franck. "Segmentation/classification de processus. Application a l'analyse de donnees de microarrays CGH." Phd thesis, Université Paris Sud - Paris XI, 2005. http://tel.archives-ouvertes.fr/tel-00116025.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse nous proposons un nouveau modèle statistique pour l'analyse des problèmes de segmentation/classification dont l'objectif
est de partitionner des données en zones homogènes, et de regrouper ces zones en un nombre fini de classes. Les problèmes de segmentation/classification sont traditionnellement étudiés à l'aide
des modèles de chaînes de Markov cachées. Nous proposons un modèle alternatif qui combine un modèle de segmentation et un modèle de mélange.

Nous construisons notre modèle dans le cas gaussien et nous proposons une généralisation à des variables discrètes dépendantes. Les paramètres de ce modèle sont estimés par maximum de vraisemblance à l'aide d'un algorithme hybride fondé sur la programmation dynamique et sur l'algorithme EM. Nous abordons un nouveau problème de sélection de modèle qui est la sélection simultanée du nombre de groupes et du nombre de segments et proposons une heuristique pour ce choix.

Notre modèle est appliqué à l'analyse de données issues d'une nouvelle technologie, les microarrays CGH (Comparative Genomic Hybridization). Cette technique permet de compter le nombre de milliers de gènes le long du génome en une seule expérience. L'application de notre méthode à ces données permet de localiser des zones délétées ou amplifiées le long des chromosomes. Nous proposons également une application à l'analyse des séquences d'ADN pour l'identification de régions homogènes en terme de composition en nucléotides.
14

Picard, Franck. "Segmentation-classification de processus : application à l'analyse des données de microarrays CGH." Paris 11, 2005. http://www.theses.fr/2005PA112186.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse nous proposons un nouveau modèle statistique pour l'analyse des problèmes de segmentation/classification dont l'objectif est de partitionner des données en zones homogènes, et de regrouper ces zones en un nombre fini de classes. Les problèmes de segmentation/classification sont traditionnellement étudiés à l'aide des modèles de chaînes de Markov cachées. Nous proposons un modèle alternatif qui combine un modèle de segmentation et un modèle de mélange. Nous construisons notre modèle dans le cas gaussien et nous proposons une généralisation à des variables discrètes dépendantes. Les paramètres de ce modèle sont estimés par maximum de vraisemblance à l'aide d'un algorithme hybride fondé sur la programmation dynamique et sur l'algorithme EM. Nous abordons un nouveau problème de sélection de modèle qui est la sélection simultanée du nombre de groupes et du nombre de segments et proposons une heuristique pour ce choix. Notre modèle est appliqué à l'analyse de données issues d'une nouvelle technologie, les microarrays CGH (Comparative Genomic Hybridization). Cette technique permet de compter le nombre de milliers de gènes le long du génome en une seule expérience. L'application de notre méthode à ces données permet de localiser des zones délétées ou amplifiées le long des chromosomes. Nous proposons également une application à l'analyse des séquences d'ADN pour l'identification de régions homogènes en terme de composition en nucléotides
This thesis is devoted to the development of a new statistical model for segmentation/clustering problems. The objective is to partition the data into homogeneous regions and to cluster these regions into a finite number of groups. Segmentation/clustering problems are traditionally studied with hidden Markov models. We propose an alternative model which combines segmentation models and mixture models. We construct our model in the Gaussian case and we propose a generalization to discrete dependent variables. The parameters of the model are estimated by maximum likelihood with a hybrid algorithm based on dynamic programming and on the EM algorithm. We study a new model selection problem which is the simultaneous selection of the number of clusters and of the number of segments. We propose a heuristic for this choice. Our model is applied to the analysis of CGH microarray data (Comparative Genomic Hybridization). This technique is used to measure the number of thousands of genes on the genome in one experiment. Our method allows us to localize deleted or amplified regions along chromosomes. We also propose an application to the analysis of DNA sequences for the identification of homogeneous regions in terms of nucleotide composition
15

Cohen-Scali, Valérie. "Contribution psychosociologique à l'analyse des processus de transition de l'école au travail." Tours, 1999. http://www.theses.fr/1999TOUR2001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le constat de la multiplication des formations en alternance, et les nombreuses attentes sociales qu'elles suscitent, nous ont conduit à nous intéresser aux conséquences de ces dispositifs sur l'identité des jeunes en formation. Ainsi, cette recherche auprès d'étudiants d'IUT d'une filière commerce, basée sur une comparaison des effets d'une formation en alternance (c'est-à-dire à mi-temps en entreprise et à mi-temps en centre de formation) et d'une formation classique (c'est-à-dire en centre de formation avec 10 semaines de stage en entreprise au cours des deux ans de préparation du DUT) vise la mise au jour des effets spécifiques de l'alternance sur la construction de l'identité professionnelle pendant la transition de l'école au travail. La partie théorique est un exposé d'un ensemble d'approches psychosociologiques concernant essentiellement la transition de l'école au travail, la socialisation et l'identité des jeunes adultes ainsi que des travaux sur les représentations et attitudes à l'égard du travail et de l'avenir. Nous avons opté pour une démarche en deux temps. Dans un premier temps, 50 étudiants ont été interrogés par entretiens semi-directifs et dans un second temps, près de 350 étudiants ont répondu à un questionnaire. Les résultats mettent en évidence que l'alternance joue un rôle dans le développement de l'identité professionnelle des étudiants mais plusieurs facteurs doivent être pris en considération pour comprendre les changements identitaires durant cette période de transition de l'école au travail : les conceptions du travail, l'orientation, le soi idéal, autant que le niveau d'estime de soi et le self-monitoring. Nous concluons sur la construction de l'identité professionnelle selon deux modèles : le modèle de l'identification est associé à la formation en alternance et le modèle de l'identification à la formation classique
This research takes place in the French social context of the impressing growth of trainings, built on the pattern of apprenticeship, part time at school and part-time working. Its aim was to analyse the effects of such a training on identity and transition of young people from 18 to 25. More specially, we focused on a comparison of two populations of students of Iut (Institut Universitaire Technologique), in sale, following normal training (mainly at school with 10 weeks at work) or apprenticeship (part time at work and at school). The research has two parts. The first is a summary of several psychosociological theoretical approaches concerning transition from school to work, socialisation and identity of young people as well as representations and attitudes upon work and professional life we choose two ways of collecting data. In a first time, we had a qualitative approach: 50 young students were interviewed. After, nearly 350 students answered to a questionnary. The second part concerns the results of the research. We can see in analysing these results that apprenticeship plays an important role on construction of professional identity of the young people but a lot of other factors must be taken into account to understand the changes of identity during this period of transition from school to work: conceptions of work, vocational choices, ideal self, as well as self esteem and self monitoring. We underlined in conclusion two different ways of building professional identity. The experimentation pattern is linked to apprenticeship and the identification pattern is linked to traditional training
16

Ferjani, Wassim. "L'analyse du processus décisionnel d'investissement des sociétés de capital de risque québécoises /." Thèse, Trois-Rivières : Université du Québec à Trois-Rivières, 2000. http://www.uqtr.ca/biblio/notice/resume/03-2217025R.html.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Ferjani, Wassim. "L'analyse du processus décisionnel d'investissement des sociétés de capital de risque québécoises." Thèse, Université du Québec à Trois-Rivières, 2000. http://depot-e.uqtr.ca/3068/1/000671920.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Chenevière, Frédéric. "Contribution à l'analyse du mouvement dansé." La Rochelle, 2004. http://www.theses.fr/2004LAROS123.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Fil conducteur du projet "Corps Dansant", ce travail révèle une certaine contribution de l'informatique à la danse contemporaine incarnée par les artistes du B. A. R. C. Deux axes de recherche ont été privilégiés. Le premier vise la reconnaissance du contenu formel d'un mouvement de danse contemporaine via un système capable de différencier par exemple un "Saut", d'un "Tour" ou d'une "Marche". Le second ambitionne une caractérisation du contenu expressif, qualifiant un mouvement de symétrique ou d'asymétrique, de léger ou de lourd. Pour obtenir une description formelle et expressive d'un mouvement de danse, nous nous sommes penchés sur trois étapes clés. La première concerne la numérisation du mouvement, réalisée par le système de capture électromagnétique d'XD-Productions. Les données obtenues sont des trajectoires de mouvement suivies par les marqueurs installés sur les principales articulations du corps. La deuxième étape consiste à traiter ces courbes spatio-temporelles brutes pour rendre leur manipulation moins coûteuse. Des algorithmes classiques ont été adaptés à notre problématique de sous-échantillonnage non-uniforme de trajectoires, dont un algorithme performant d'approximation de courbes. En outre, un nouveau formalisme d'utilisation des contours actifs dans ce domaine a été envisagé avec des résultats prometteurs. Même à un fort taux de compression (95\%), les signaux d'entrée sont approchés avec une faible distorsion. A la dernière étape, une technique de reconnaissance automatique de mouvements de danse contemporaine est mise en place. Elle est certes basée sur les modèles de Markov cachés qui sont bien connus à présent, mais elle propose un agencement original visant à observer un mouvement de manière locale, en explicitant à travers une pondération automatique leur rôle dans l'identité d'un mouvement. Grâce à une base de données riche de 360 mouvements étiquetés et un prototype d'application, nous montrons que l'utilisation conjointe de nos méthodes de compression de trajectoires et de notre système de classification révèle un gain notable d'efficacité dans la reconnaissance des mouvements. A l'inverse, la reconnaissance du contenu expressif s'est avérée plus délicate et propose d'alléchantes perspectives
This work is included in the "Corps Dansant" project and deals with a contribution of computer science to contemporary dance represented by the artists of B. A. R. C. We focus on two main goals. First, we aim at recognizing the formal content of a danced movement thanks a system which is able to distinguish between a "Jump", a "Rotation" and a "Walk". Second, we would like to automatically recognize the expressive content of a movement : is it symmetric or asymmetric, light or heavy ? We describe three steps to obtain the formal and expressive description of a gesture. The first one, the motion capture, is realized by the XD-Productions electromagnetic system. The provided data are the trajectories followed by the markers placed on the main joints of the body. The second step treats these spatiotemporal curves to avoid high computational costs. Classical algorithms were adapted to this problematic of nonuniform subsampling of trajectories. An efficient algorithm of curve approximation and a new formalism of active contour for signal compression are proposed. Even at a high rate of compression (95\%) the distortion is weak. Finally, an automatic technic of contemporary dance movements recognition is described. Based on the well-known hidden Markov models, it combines a local approach of a movement with an automatic weighting of their trajectories. Experimental results, provided by a database of 360 labelled danced movements and a prototype of application, show a high gain of movement recognition efficiency when our technics of spatiotemporal data compression and our system of classification are both used. On the other hand the recognition of expressive content remains problematic and provides challenging perspectives
19

Gonindard, Melo de Mila Christelle. "Développement d'une approche markovienne pour l'analyse de l'organisation des génomes." Lyon 1, 2005. https://tel.archives-ouvertes.fr/tel-00011674.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le séquençage à grande échelle a permis d'accéder aux génomes complets de nombreux organismes. Les modèles de Markov cachés sont une des méthodes probabilistes les plus utilisées pour l'analyse des séquences. L'objectif de ces travaux est de participer à l'analyse de l'organisation et à la compréhension de l'évolution des génomes. Une méthode de prédiction des isochores adaptée au génome humain a été développée. L'originalité de cette approche consiste à identifier des ruptures d'homogénéité des séquences mais surtout leurs causes biologiques, comme l'influence des régions UTRs lors du classement des gènes dans un isochore. Cette méthode a ensuite été appliquée au génome du tetraodon, pour lequel l'existence d'une structure en mosaïque nouvelle le long de son génome a été mise en évidence
Large scale sequencing has given access to many complete genomes. Hidden Markov models are one of the most used statistical methods for the analysis of genomics sequences. The objective of this work is to contribute to the analysis and comprehension of the evolution of genomes. A method for predicting isochores adapted to the human genome was developed. The originality of this approach consists in identifying breaks of homogeneity in the sequences. It also consists in identifying their biological impact, such as the UTRs influence may have on the classification of genes in an isochore. This method was then applied to the genome of the tetraodon, when we discovered the existence of a new mosaic structure
20

GOBET, Emmanuel. "Contributions à la simulation et à l'analyse de discrétisation de processus, et applications." Habilitation à diriger des recherches, Université Paris-Diderot - Paris VII, 2003. http://tel.archives-ouvertes.fr/tel-00003841.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous présentons quelques contributions à la simulation et à l'analyse de discrétisation de processus, avec leurs applications notamment en finance. Nous avons regroupé nos travaux selon 4 thèmes: 1. statistique des processus avec observations discrètes; 2. couverture en temps discret en finance; 3. sensibilités d'espérances; 4. analyses d'erreurs de discrétisation. Le premier chapitre sur la statistique des processus est assez indépendant du reste. En revanche, les trois autres chapitres correspondent à une cohérence et une progression dans les questions soulevées. Néanmoins au fil de la lecture, on remarquera des liens entre les quatre parties: différentiation par rapport à des domaines et amélioration de simulation de temps de sortie, sensibilités d'espérances et statistique asymptotique avec le calcul de Malliavin, sensibilités d'espérances et analyse d'erreur etc... Les preuves des résultats s'appuient notamment sur les outils du calcul de Malliavin, des martingales, des Équations aux Dérivées Partielles et de leurs liens avec les Équations Différentielles Stochastiques.
21

Vérot, Paul. "L'analyse des processus dans les établissements pour personnes âgées : de l'évaluation à l'accréditation." Lyon 3, 1997. http://www.theses.fr/1997LYO3A002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Bousquet, Olivier Jean André. "Inégalités de concentration et théorie des processus empiriques appliqués à l'analyse d'algorithmes d'apprentissage." Palaiseau, Ecole polytechnique, 2002. http://www.theses.fr/2002EPXX0031.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

MAGRE, OLIVIER. "Processus browniens fractionnaires : contribution a la modelisation, a la synthese et a l'analyse." Nantes, 1995. http://www.theses.fr/1996NANT2010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un grand nombre de phenomenes physiques necessitent d'etre decrits par des modeles plus complexes que de simples modeles lineaires stationnaires. On s'interesse ici au mouvement brownien fractionnaire (fbm) defini par b. B. Mandelbrot. La synthese des signaux a partir de ce modele (qui possede des proprietes remarquables d'autosimilarite, de fractalite), ne peut etre obtenue directement. Nous avons choisi de presenter la synthese a partir du modele approche du (fbm) qu'est celui de barnes et allan. A partir de ce dernier, nous avons developpe un modele differentiel continu non stationnaire de dimension infinie. La discretisation non uniforme a conduit a un algorithme numerique de synthese. La deuxieme partie de la these est consacree a la validation de ce modele en comparant les signaux obtenus avec ceux generes par des syntheses deja connues (methode de deplacement du point milieu, synthese spectrale). La derniere partie est consacree a la conception et a la mise en uvre d'une methode d'estimation de la dimension fractale a l'aide d'un filtre de kalman etendu
24

Tavignot, Patricia. "L'analyse du processus de transposition didactique : exemple de la symétrie orthogonale au collège." Paris 5, 1991. http://www.theses.fr/1991PA05H073.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La transposition didactique caractérise le décalage entre les savoirs de référence (savoir savant et culture de la société), le savoir à enseigner puis le savoir enseigné. L'analyse du passage du savoir à enseigner au savoir, doit porter à la fois sur les programmes, les commentaires, les manuels, les préparations des cours et les pratiques effectives des enseignants en classe. La noosphère, lieu de recontre entre le système éducatif et son environnement sociétal, sélectionne des objets à enseigner. La psychologie des acteurs impliqués dans la transposition demande que soient prises en compte leurs représentations des savoirs, des élèves et des pratiques d'enseignement. Le processus de transposition didactique est à la fois sociologique et psychologique. Pour opérationnaliser la problématique de la transposition didactique d'une notion, il faut développer trois systèmes d'analyse (pour la noosphère, pour les manuels, pour le travail et les pratiques des enseignants). Les glissements entre savoirs de référence, programmes, manuels, et pratiques des enseignants forment la trace empirique de la transposition didactique de la notion. Cette méthode tridimensionnelle d'analyse est appliquée à la transposition didactique de la symétrie orthogonale. Les formes possibles d'enseignement de la symétrie orthogonale (pour un même niveau scolaire, la sixième) sont attestées par les manuels et les pratiques des enseignants en classe. Elles peuvent être schématisées par des graphes qui permettent de repérer des glissements entre les observables analyses
The concept of didactical transpositions points at the "decalage" between the reference knowledge (scientific and cultural), the knowledge to be taught, and the knowledge actually taught in the class-room. The understanding of the process requires a careful analysis of the syllabus, the official instructions and commentaries, the schoolbooks, the way lessons are prepared by teachers and the actual practice in the class room. The "noosphere" is the circle where the educational system and its societal environment interact to select the objets to be taught. The psychology of the actors requests that their representations be analysed : representation of science, of students, of teachers' practice. The process of didactical transposition is both sociological. And psychological to make this framework operational, one needs three systems of analysis (for the "noosphere", for the schoolbooks, for the work of teachers). The sliding process that goes from the reference knowledge to the teachers'practice is the empirical evidence of the transposition process. The above mentionned method is applied to the transposition of reflection. The possible ways of teaching reflection to sixth graders are exemplified by the schoolbooks and by the practice of teachers in the classroom. They can be summarized by diagrams and graphs which allow us to pick up the sliding meaning of reflection at different steps of the transposition process
25

Bonnefond, Céline. "L'analyse des inégalités sociales et spatiales dans le processus d'émergence de la Chine." Thesis, Bordeaux 4, 2013. http://www.theses.fr/2013BOR40039/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’émergence rapide de la Chine s’est accompagnée d’une hausse considérable des inégalités, qui a entrainé de profondes mutations touchant à la fois la structure de l’économie et celle de la société chinoise. L’objectif de cette thèse est de fournir une meilleure compréhension de la diversité de ces transformations, en combinant les analyses macro et microéconomique, et les approches économique et sociologique. Ce travail mobilise tout d’abord des données provinciales afin de dresser un état des lieux du niveau d’inégalités régionales et de la concentration spatiale de la richesse. La récente baisse des disparités régionales peut, entre autres, s’expliquer par l’existence d’effets de diffusion de la croissance entre les différentes provinces chinoises. Par la suite, l’étude est complétée par l’utilisation de données issues d’enquêtes-ménages. L’analyse de la polarisation des revenus en zones urbaines et rurales permet de faire ressortir des modifications dans leur distribution, notamment en mettant en évidence la constitution de groupes de revenus intermédiaires. Une étude approfondie de la classe moyenne urbaine chinoise est ensuite menée afin d’en identifier les membres sur la base du revenu, et de montrer l’hétérogénéité de cette catégorie en termes d’emploi et d’éducation. Enfin, à partir de l’exemple des comportements de consommation alimentaire et du rapport social au corps, le rôle précurseur de la classe moyenne dans la transition nutritionnelle est mis en avant. Au final, la classe moyenne chinoise apparaît comme une catégorie centrale pour la poursuite du développement du pays
The rapid emergence of China has been accompanied by a significant increase in inequalities, resulting in profound changes affecting both the economic and social structures of China. The purpose of this doctoral thesis is to provide a better understanding of the diversity of these transformations, by combining macro and microeconomic analyses, together with economic and sociological approaches. Firstly, this research mobilizes provincial data in order to give a general overview of the level of regional disparities and of the spatial concentration of wealth. The recent decline in regional disparities can, among other things, be explained by the existence of growth spillover effects between Chinese provinces. Subsequently, the study is supplemented by the use of household survey data. The analysis of income polarization in rural and urban areas allows to highlight some shifts in its distribution, emphasizing in particular the constitution of population clusters in intermediate income ranges. An intensive investigation on the Chinese urban middle class is thereafter conducted so as to identify its members on an income-based definition, and to underline the heterogeneity of this category regarding employment and education. Finally, based on the example of food consumption and social attitude towards body weight, the vanguard role of middle class in the nutrition transition is highlighted. To conclude, the Chinese middle class appears to be a central category to ensure the further development of China
26

Lavielle, Vincent. "Processus atomiques cohérents appliqués à l'analyse spectrale très large bande de signaux radio fréquence." Phd thesis, Université Paris Sud - Paris XI, 2004. http://tel.archives-ouvertes.fr/tel-00007886.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous appliquons le phénomène de "hole burning" spectral (SHB), dans des matrices cristallines dopées par des ions terres rares, au traitement optique de l'information. Nous présentons la première démonstration expérimentale d'un analyseur spectral de signaux radio fréquence (RF) à très large bande instantanée, exploitant la sélectivité spectrale de ces matériaux photosensibles. L'utilisation de la technologie SHB, à basse température, permet d'atteindre des performances remarquables en terme de largeur de bande et de produit temps×bande passante. Le principe du spectromètre repose sur la séparation angulaire des composantes spectrales du signal RF préalablement transposé sur une porteuse optique. On grave un ensemble de réseaux de diffraction monochromatiques, multiplexés en longueur d'onde, dans un cristal dopé par des ions terres rares. Le faisceau lumineux, porteur du signal RF, est dirigé vers le cristal. Les différentes composantes spectrales sont alors diffractées et simultanément séparées angulairement à la sortie du cristal. Nous avons ainsi pu démontrer expérimentalement l'analyse spectrale de signaux RF sur une bande passante instantanée de 3,3 GHz avec une capacité de 100 canaux spectraux et une résolution ultime de 500 kHz. Ce dispositif possède une dynamique de 35 dB optique, limitée par la détection. Nous montrons la capacité de zoom spectral dans une région spécifique du domaine total couvert, avec augmentation de la résolution spectrale.
27

Gallardo, Karine. "De l'analyse protéomique des graines d'arabidopsis thaliana vers une compréhension du processus de germination." Aix-Marseille 3, 2001. http://www.theses.fr/2001AIX30061.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour approfondir les connaissances sur les événements associés à la germination et identifîer des marqueurs de vigueur germinative, nous avons analysé le protéome des graines d'Arabidopsis. Le choix de cette approche est fondé sur l'importance, dans la germination. Des néosynthèses de protéines à partir des ARNm stockés dans les graines par rapport aux nouvelles transcriptions. Parmi 1272 protéines séparées par électrophorèse bi-dimensionnelle, le niveau d'accumulation de 74 protéines varie au cours de la germination sensu stricto ou de la phase de percée radiculaire. Plus de cent protéines ont été identifiées par MALDI-TOF. Il convient d'insister sur le fait que certaines protéines avaient été précédemment identifiées chezP d'autres espèces au cours de la germination. Ceci a validé notre choix d'utiliser Arabîdopsis comme modèle. .
To better understand the events associated with seed germination and to define markers for seed quality, the proteome of Arabidopsis seeds was analyzed. A proteomic approach was adopted because of thei importance of protein neosynthesis from stored mRNA in comparison to that from new transcriptions. In total 1272 proteins were resolved using the two-dimensional electrophoresis technique, of which 74 showed changes in abundance (up- or down-regulation) during germination sensu stricto or the radicle protrusion step. Of the total population of observed proteins more than 100 were subsequently identified by MALDI-TOF mass spectrometry. A number of these proteins had previously been identified in several plant species, a finding that underlines the useminess of using Arabidopsis as a model. Our approach also revealed previousiy unidentified proteins, associated either with the imbibed state or the dehydrated state of the seeds (e. G. Actin7, WD-40 protein, GAPDHc), whilst others were fondamental in cellular metabolism, such as AdoMet synthetase and methionine synthase.
28

Fine, Lionel. "Processus et méthodes d'adaptation et d'idéalisation de modèles dédiés à l'analyse de structures mécaniques." Grenoble INPG, 2001. http://www.theses.fr/2001INPG0056.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Laoufi, Nabil. "Processus guidé pour l'identification des exigences de sécurité à partir de l'analyse des risques." Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1103/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Toute organisation est activée par un flux physique continu et un flux décisionnel qui opèrent de symbiose pour atteindre des objectifs déterminés. Ce qui engendre l’implantation d’un système d’information fiable, opérant avec un contrôle continu et une sécurité maximale, prenant en compte le contexte interne et externe pour garder son rôle opérationnel et stratégique. Compte tenu du niveau d'exposition aux risques et de la dépendance vitale des entreprises vis-à-vis de leurs systèmes d'information, il est crucial de prêter attention aux exigences de sécurité. La réalisation d'un équilibre entre la sécurité et l'efficacité du système d’information est une tâche complexe qui exige au préalable une analyse approfondie du contexte organisationnel. Elle nécessite également l'identification, l'analyse, et la gestion des risques encourus par l’entreprise. Elle nécessite aussi la détermination des exigences de sécurité. Peu d'approches offrent un guidage permettant de dériver les exigences de sécurité à partir des risques encourus. Le but de cette thèse est de concevoir un mécanisme de guidage suggestif qui permet de dériver les exigences de sécurité à partir de l'analyse des risques. Nous proposons, pour cela, une approche fondée sur une ontologie modulaire et un ensemble de règles de correspondance. A cette fin, nous proposons le développement de quatre ontologies et un processus d'alignement entre celles-ci en utilisant des relations sémantiques cohérentes. Le processus de validation se fonde sur une étude de cas et un prototype
Any organization is enabled by continuous physical flow and decision flow from operating symbiosis to achieve specific objectives. Which generates the implementation of a reliable information system, operating with a continuous control and maximum security, taking in to account the internal and external environment to maintain its operational and strategic role. Given the level of risk exposure and the vital dependence of companies on their information systems, it is crucial to pay attention to security requirements. Achieving a balance between the security and effectiveness of the information system is a complex task requiring an in-depth analysis of the organizational context. It also requires the identification, analysis, and management of the risks incurred by the company. It also requires the determination of security requirements. Few approaches offer guidance to derive security requirements from the risks involved. The aim of this thesis is to design a suggestive guiding mechanism that allows to derive the security requirements from the risk analysis. We propose an approach based on a modular ontology and a set of correspondence rules. To achieve, we propose the development of four ontologies and an alignment process between then using consistent semantic relationships. The validation process is based on a case study and a prototype
30

Laoufi, Nabil. "Processus guidé pour l'identification des exigences de sécurité à partir de l'analyse des risques." Electronic Thesis or Diss., Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1103.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Toute organisation est activée par un flux physique continu et un flux décisionnel qui opèrent de symbiose pour atteindre des objectifs déterminés. Ce qui engendre l’implantation d’un système d’information fiable, opérant avec un contrôle continu et une sécurité maximale, prenant en compte le contexte interne et externe pour garder son rôle opérationnel et stratégique. Compte tenu du niveau d'exposition aux risques et de la dépendance vitale des entreprises vis-à-vis de leurs systèmes d'information, il est crucial de prêter attention aux exigences de sécurité. La réalisation d'un équilibre entre la sécurité et l'efficacité du système d’information est une tâche complexe qui exige au préalable une analyse approfondie du contexte organisationnel. Elle nécessite également l'identification, l'analyse, et la gestion des risques encourus par l’entreprise. Elle nécessite aussi la détermination des exigences de sécurité. Peu d'approches offrent un guidage permettant de dériver les exigences de sécurité à partir des risques encourus. Le but de cette thèse est de concevoir un mécanisme de guidage suggestif qui permet de dériver les exigences de sécurité à partir de l'analyse des risques. Nous proposons, pour cela, une approche fondée sur une ontologie modulaire et un ensemble de règles de correspondance. A cette fin, nous proposons le développement de quatre ontologies et un processus d'alignement entre celles-ci en utilisant des relations sémantiques cohérentes. Le processus de validation se fonde sur une étude de cas et un prototype
Any organization is enabled by continuous physical flow and decision flow from operating symbiosis to achieve specific objectives. Which generates the implementation of a reliable information system, operating with a continuous control and maximum security, taking in to account the internal and external environment to maintain its operational and strategic role. Given the level of risk exposure and the vital dependence of companies on their information systems, it is crucial to pay attention to security requirements. Achieving a balance between the security and effectiveness of the information system is a complex task requiring an in-depth analysis of the organizational context. It also requires the identification, analysis, and management of the risks incurred by the company. It also requires the determination of security requirements. Few approaches offer guidance to derive security requirements from the risks involved. The aim of this thesis is to design a suggestive guiding mechanism that allows to derive the security requirements from the risk analysis. We propose an approach based on a modular ontology and a set of correspondence rules. To achieve, we propose the development of four ontologies and an alignment process between then using consistent semantic relationships. The validation process is based on a case study and a prototype
31

Carré, Alice. "L'analyse des processus cognitifs comme aide à la formation initiale et au perfectionnement des traducteurs." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAL034/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les formations à la traduction pragmatique offrent un enseignement professionnalisant dense et multiforme. Or il n’est pas certain que les étudiants intègrent au mieux compétences déclaratives et opérationnelles, faute d’avoir suffisamment conscience de leurs méthodes de travail. Par ailleurs, les recherches sur l’expertise montrent qu’une formation initiale solide et des années d’expérience ne suffisent pas à garantir le développement optimal des compétences professionnelles. Outre un environnement de travail favorable au développement de ces compétences, la solution résiderait dans l’adoption d’une démarche d’apprentissage autorégulé.La présente contribution vise à évaluer la capacité des étudiants à adopter ponctuellement une telle démarche à la suite d’une séquence d’enseignement renforçant leurs compétences métacognitives. Une collecte de données de référence et deux expérimentations ont permis d’estimer l’effet de la régulation sur l’activité traduisante et d’évaluer l’intérêt du dispositif d’enseignement proposé.Il en ressort que les étudiants qui ont eu l’occasion d’analyser leurs propres processus cognitifs et de les comparer à ceux de leurs pairs et à ceux de professionnels présentant un degré élevé de régulation auraient les capacités d’agir consciemment sur leurs habitudes de travail. Ces résultats, qui demandent néanmoins à être vérifiés auprès de cohortes plus larges, indiquent que le dispositif d’enseignement proposé pourrait donner aux étudiants des clés pour intervenir sur leurs habitudes de travail et, plus largement, sur leur environnement de travail. Ce faisant, il s’inscrirait dans la dynamique actuelle qui sensibilise les étudiants en traduction à l’ergonomie cognitive, physique et organisationnelle au poste de travail
Translator training programmes comprise a wide range of contents and of instructional methods. But it would appear that students do not bridge the gap between declarative and procedural competences to the best of their abilities as a result of their lack of knowledge and understanding of their own working habits. Moreover, expertise research has shown that however robust the initial training, the mere accumulation of experience does not automatically lead to the optimal development of professional competence. The key to expertise would rest both in a suitable working environment and in deliberately self-regulated practice.The present contribution aims at assessing the ability of students to deliberately alter a given aspect of their translation habits after taking part in a workshop designed to strengthen their metacognitive skills. Reference data were collected and analysed to work out the effect of regulation on translating. Our proposed teaching sequence was then tested on two groups of students.It would seem that those students who were able to analyse their own habits and to compare them to those of their fellow students and of professional translators displaying a high level of regulation were able to consciously alter their working habits to a certain extent. Due to the limited number of participants, these results need confirmation through repetition on wider cohorts. But it seems that the proposed teaching sequence could provide students with a tool to proactively improve their working habits or their working environment. As such, it could be part of the wider movement of raising students’ awareness of the importance of cognitive, physical and organisational ergonomics at the workplace that is currently taking place in translator training
32

Ait, Rami Mustapha. "Approche LMI pour l'analyse et la commande des systèmes à sauts markoviens." Paris 9, 1997. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1997PA090026.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes soumis à des changements brusques de leurs paramètres ou de leur structure peuvent être modélisés par un ensemble de systèmes linéaires. Chaque système représente un mode de fonctionnement du système qui, suivant un processus markovien, peut sauter d'un mode a un autre. Ce processus markovien prend un nombre fini de valeurs (le nombre des modes). De tels modelés stochastiques portent le nom de système linéaires a sauts markoviens. Dans la littérature, on suppose une connaissance exacte des probabilités de transition du processus markovien. Toutefois, celles-ci sont difficiles à estimer et leurs valeurs sont souvent entachées d'incertitudes. Nous considérons les problèmes d'analyse et de synthèse des systèmes a sauts markoviens dont les probabilités de transition sont incertaines. Nous démontrons que de nombreux résultats s'obtiennent par la résolution de problèmes d'optimisation convexe sous forme d'inégalité matricielle linéaire (LMI). Nos conditions sont nécessaires et suffisantes dans le cas où les probabilités de transitions sont parfaitement connues. Mots clés : systèmes stochastiques, systèmes linéaires à sauts markoviens, stabilité en moyenne quadratique, inégalité matricielle linéaire.
33

Mokadem, Abdelkader. "Développement d'une méthode de génération et de simulation des trajectoires pour l'analyse des processus d'affaires." Mémoire, École de technologie supérieure, 2008. http://espace.etsmtl.ca/619/1/MOKADEM_Abdelkader.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'industrie de la santé cherche continuellement de nouvelles stratégies pour répondre aux besoins de sa clientèle en croissance. Pour pouvoir améliorer les systèmes de santé et répondre à ces besoins, les intervenants doivent bien comprendre le fonctionnement des processus d'affaires en cours. Ces processus inter-reliés impliquent souvent plusieurs ressources et départements. medBPM est une méthodologie de modélisation et d'analyse des processus d'affaires conçue spécifiquement pour les systèmes de santé. La méthodologie offre une notation riche pour la représentation des éléments des processus qu'on trouve dans ces systèmes. Dans cette recherche nous avons développé deux modules pour l'analyse des processus d'affaires. Le premier module est l'automatisation de la génération des trajectoires et le second module est la simulation déterministe. L'analyse des trajectoires est une partie importante de l'analyse des processus d'affaires. La génération automatique des trajectoires permet d'extraire les trajectoires entre deux noeuds quelconques du processus et de réaliser des analyses plus poussées sur ces trajectoires. En utilisant la simulation déterministe l'analyste peut changer les données du processus en cours et expérimenter plusieurs scénarios. La simulation permet d'extraire des statistiques importantes sur le processus comme les temps et les coûts des trajectoires, les charges de travail des ressources, etc. Les deux modules ont été testés sur des processus de santé réels. Dans ce travail nous présentons les résultats de l'expérimentation sur le processus « nouvelles commandes » du département de pharmacie.
34

Noël, Florent. "La décision de suppression d'emplois : de l'analyse des déterminants à l'étude des processus de décision." Paris 1, 2001. http://www.theses.fr/2001PA010079.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le sens commun souligne l'augmentation du recours aux suppressions d'emplois pour des motifs dont la légitimité est de plus en plus contestée. Le champ d'application de cet outil dépasserait le cadre de l'adaptation au déclin pour couvrir des objectifs financiers de plus en plus ambitieux. Or, la recherche empirique a montré le caractère aléatoire de telles stratégies qui échouent souvent sur les conséquences humaines et organisationnelles négatives des réductions d'effectifs. Ce double constat invite à une réflexion sur les rationalités sous-jacentes à la décision de suppression d'emplois. En se fondant sur les acquis de l'économie du travail et sur les apports de la nouvelle sociologie économique, cette thèse montre qu'au-delà du raisonnement économique, l'analyse des comportements peut être complétée par la prise en compte des pressions institutionnelles, des croyances et des normes déterminant la marge de liberté des décideurs en quête de légitimité. L'analyse empirique est conçue en deux temps. La première étape explore grâce aux outils économétriques usuels appliqués à des données sectorielles, puis d'entreprises industrielles la dimension économico-rationelle du phénomène. La deuxième étape est conçue autour de l'exploitation d'un questionnaire adressé aux DRH des mille premières entreprises industrielles françaises, et montre qu'au-delà de l'optimisation économique, les décisions de suppressions d'emplois peuvent être utilisées de façon routinière ou mimétique. Au final, les pressions de l'environnement économique et sociopolitique ainsi que les croyances des décideurs à propos de l'efficacité ou des fondements éthiques des suppressions d'emplois structurent aussi bien la décision que le choix des modalités de mise en oeuvre. Cette recherche constitue un double apport pour la connaissance en sciences de gestion en explorant un aspect mal connu de la GRH et en proposant une approche originale des comportements d'entreprises.
35

Joly, Marc. "Devenir Norbert Elias : contribution à l'analyse d'un processus transnational de reconnaissance scientifique : la réception française." Paris, EHESS, 2010. http://www.theses.fr/2010EHES0129.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de cette thèse est de contribuer à la compréhension du processus de reconnaissance internationale de l'œuvre de Norbert Elias. Le premier chapitre présente une synthèse des nombreux problèmes dits «théoriques» soulevés par l'objet de recherche. Li s'est agi principalement de compléter la théorie des champs de production culturelle par la prise en compte de la dimension «psychique » de la création scientifique et de l'espace transnational dans lequel toute œuvre de science humaine est inscrite. Le deuxième chapitre a pour objet d'éclairer la trajectoire de Norbert Elias entre son départ d'Allemagne en 1933 et le début des années 1970. On s'est efforcé pour l'essentiel de localiser le sociologue exilé dans le champ britannique des sciences humaines-sociales de l'après-Deuxième Guerre mondiale et de reconstituer la structure des réseaux dans lesquels il était inséré; parallèlement, on a cherché à mettre en valeur le fait qu'il bénéficia d'une reconnaissance souterraine aux Pays-Bas et en Allemagne dès les années 1950. Les troisième et quatrième chapitres ont enfin pour ambition d'éclairer les raisons pour lesquelles Ober den Prozess der Zivilisation a été pour la première fois traduit en France, avant d'y bénéficier, également pour la première fois, grâce aux historiens des Annales, d' une réelle reconnaissance publique. En ce sens, la réception française du début des années 197 a constitué un « tournant » dans le processus de reconnaissance transnationale de "œuvre éliasienne : on a essayé d'en cerner les soubassements et la dynamique évolutive
The purpose of Ibis research is to contribute to the understanding of the process of international recognition of the work of Norbert Elias. The first chapter presents a synthesis of the many "theoretical" problems raised by the research topic. The aim was to complete theory of the field of cultural production by taking into account the "psychological" dimension of scientific creation and the trans-national environment where a work in the field of humanities is embedded. The aim of the second chapter is to enlighten the path of Norbert Elias from his departure from Germany in 1933 to the beginning of the 1970s. This chapter mainly focuses on the situation of Elias -who had to face exile in the field of British social sciences and humanities in the period after the Second World War and to piece together the structure of his relationships at that time; in parallel, this chapter shows that Elias had an underground recognition in the Netherlands and in Germany as soon as the 1950s. Finally, the third and fourth chapters aim at explaining the reasons why Ober den Prozess der Zivilisation was first translated in French after what the book could also for the first time benefit from a real public recognition thanks to the historians orthe Annales. Ln this sense, the French reception from the beginning of the 1970s makes up a turning point in the process of recognition of the Eliasian work: Ibis doctoral research aims at defining the underlying questions and the dynamics of its evolution
36

Berthoumieu, Yannick. "Contribution à l'identification de processus harmoniques bidimensionnels : application à l'analyse haute résolution de signaux radar." Bordeaux 1, 1996. http://www.theses.fr/1996BOR10505.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'estimation spectrale bidimensionnelle (2d) recouvre de nombreuses applications en traitement d'images et d'antenne. En particulier, la localisation de sources a bande etroite est un domaine de recherche ouvert en radar, sonar, radio-astronomie et sismique. Le modele generique etudie (sec) est constitue d'une somme d'exponentielles 2d complexes. L'estimation des couples frequentiels associes est assimilee au probleme de l'analyse harmonique 2d. Le modele sec est developpe a travers les matrices de covariance et de donnees qui possedent respectivement des structures bloc-toeplitz et bloc-hankel. Dans la seconde partie, les differentes familles de methodes d'analyse spectrale classiques sont presentees. Malgre leur caractere haute resolution, ces methodes spectrales ont une complexite calculatoire elevee car elles necessitent un balayage de tout le plan frequentiel. Pour resoudre ce probleme, un nouvel algorithme base sur une approche de type sous-espace est propose dans le cadre des methodes analytiques. Cet algorithme utilise des faisceaux de matrices couples algebriquement (acmp) et permet d'estimer plusieurs paires frequentielles comportant des composantes identiques. De plus, aucune operation supplementaire de reformation des paires n'est necessaire. En effet, cette propriete est obtenue en resolvant simultanement deux problemes rattaches aux valeurs propres generalisees. En outre, dans le processus d'identification, il est necessaire d'estimer le nombre de sources. Aussi, un nouvel algorithme base sur l'approche minimum description length (mdl) est propose. Finalement, l'interet de ce contexte theorique est illustre par l'application des differents algorithmes mentionnes plus haut a l'analyse de la surface equivalente radar (ser) associee a une cible
37

KONT, SAIM. "Un systeme expert modulaire de seconde generation pour l'analyse de defaillances dans les processus complexes." Paris 11, 1993. http://www.theses.fr/1993PA112332.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous proposons dans cette these des outils de modelisation pour l'analyse de defaillance dans les processus complexes. Un prototype de systeme expert appele sema (systeme expert modulaire pour analyse de defaillance dans les processus complexes) est presente. Nous proposons une methodologie permettant le developpement d'un systeme expert dont les processus sont independants, transparents dans son raisonnement et capable de diagnostiquer un ensemble diversifie de pannes. La connaissance du domaine est basee sur les connexions physiques, les relations causales et les modes de defaillances entre les unites d'equipements de l'installation etudiee. La strategie d'inference utilise des modules pour analyser le comportement du systeme. L'utilisation de la technique de l'arbre de defaillance nous permet de tracer tous les evenements possibles qui contribuent au developpement de l'evenement indesirable initialement observe (top-event). La base de connaissance est un module independant. Ce moyen nous permet de mettre en valeur la generalite du systeme sema. En raisonnant a partir du premier principe avec l'aide du modele causal et du modele de defaillance, le systeme sema est capable de diagnostiquer des pannes nouvelles ou non anticipees. Le systeme n'etudie pas seulement l'origine simple de l'evenement initiateur, il est capable egalement de localiser les causes multiples de la panne initiale
38

Anghel, Daniel-Constantin. "Contribution à l'analyse des itérations dans le processus de conception : proposition d'indicateurs d'évaluation de performances." Besançon, 2007. http://www.theses.fr/2007BESA2001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les itérations sont l’une des caractéristiques importantes qui influencent les performances du processus de conception. Leur analyse est un facteur clé pour la compression des délais et des coûts. Il est donc essentiel de développer des méthodes d’observation, de modélisation et de traitement pour mettre en évidence ces itérations et leur impact, puis en réduire les conséquences. Le travail présenté dans cette thèse s’inscrit dans ce contexte. Dans un premier temps, la notion d’itération est définie puis une classification des itérations est proposée. Cette étape est basée sur une étude bibliographique portant sur la modélisation du processus de conception, notamment dans un contexte d’ingénierie simultanée, et sur la modélisation des flux d’informations en conception. Cette classification va permettre un meilleur choix des méthodes de traitement des itérations afin de les éliminer ou les réduire. La deuxième étape, basée sur des expériences de conception, a pour objectif de valider et d’enrichir la classification proposée. Cette étape permet également d’aborder l’analyse quantitative des itérations. Dans la troisième partie, nous proposons des indicateurs d’évaluation des performances du processus de conception basés sur l’étude des itérations. On y présente : (1) les indicateurs de processus, développés à partir de l’analyse des objets intermédiaires de conception et des interactions entre les concepteurs ; (2) les indicateurs de résultat, développés à partir de l’analyse quantitative des itérations. Dans les différentes étapes de ce travail, des stratégies de réduction des itérations et/ou de leurs impacts sur le processus de conception, sont proposées
The iterations are one of the important characteristics which influence the performances of the design process. Their analysis is a key factor for the deadlines compression and the costs reduction. Therefore, it is essential to develop adequate methods of observation, modeling and treatment to identify and highlight these iterations and their impact, and afterwards to reduce their consequences. The research work presented in this thesis falls under this context. First, the concept of iteration is defined and then a classification of the iterations is proposed. This stage is based on bibliographical study which concerns two aspects: the design process modeling, particularly in the context of concurrent engineering, and the information flow modeling in design. The classification of the iterations allows a better choice of the methods of iterations treatment, in order to eliminate or to reduce them. The second stage, based on design experiments, aims to validate and enrich classification suggested. This stage also makes possible to deal with the quantitative analysis of the iterations. In the third stage, we propose indicators to evaluate the performance of the design process based on the iteration studies. In this stage, we present: (1) the process indicators, developed from the analysis of the intermediary objects and the interaction between the designers; (2) the result indicators, developed from the quantitative analysis of the iterations. In different stages of this study, various strategies are proposed to reduce the iterations and/or their impact in the design process
39

Mourad, Mahmoud. "Comparaison entre méthodes vectorielles autorégressives et méthodes markoviennes dans l'analyse de séries chronologiques multidimensionnelles." Paris 5, 1990. http://www.theses.fr/1990PA05H033.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette these a eu pour but de mettre en pratique les modeles autoregressifs et l'application de la technique de la chaine de markov sur les residus des modeles de la decomposition saisonniere additive (hds). Notre analyse appliquee aux secteurs de la production industrielle francaise, nous a permis de detecter les ordres autoregressifs optimaux proposes par les criteres automatiques fpe, aic, bic, cat et hq, puis les parametres dynamiques "porteurs" sur lesquels se basent la memoire croisee (cas vectorial). Nous avons utilise le modele mds pour estimer ma tendance et les coefficients saisonniers, ensuite nous avons applique le modele markovien du premier ordre pour analyses la nature de la dependance des transitions entre les differents etats des residus. La comparaison de l'efficacite previsionnelle entre les differents modeles, a montre l'importance du modele autoregressif vectoriel a court terme, le modele mds a long terme et le role que peut jouer le modele markovien comme un"correcteur" des previsions pour le modele mds
This thesis aims at putting into practive the autoregressive models and the application of the markov chain on remainders of the additive seasonal decomposition models -mds-. Our analysis applied to the french industriel production sector has enable us to detect first the optimum autoregressive orders which were suggested by the automatic criterions fpe, aic, bic, cat an hq, then the dynamic "carrying" parameters on which are based the specific memory -univaried case- and the crossed memory -vectorial case-. We used the mds model to estimate the trend and the seasonal coefficients then we applied the markovian model of the first order to analyse the nature of the transitions dependencies between the different states of the remainders. The comparaison of the forcast efficiency between the different models showed the importance of the short-term vectorial autoregressive model, the long-term mds model ant the part that can play the markovian model as a forescast "corrector" for the mds model
40

Dutheil, Julien. "Approches phylogénétiques et bioinformatiques pour l'analyse de la coévolution à l'échelle moléculaire." Montpellier 2, 2006. http://www.theses.fr/2006MON20123.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous abordons dans cette thèse le problème de l'interdépendance entre les différentes positions au sein des bio-séquences, acides nucléiques et protéines. L'idée que les différentes positions d'une molécule (les sites) évoluent de manière non-indépendante (on dit qu'elles coévoluent) est couramment admise, du fait des mécanismes biochimiques qui sous-tendent la structure de ces molécules. Le mécanisme généralement invoqué pour expliquer la coévolution moléculaire est que les molécules subissent des mutations compensatoires: une mutation au niveau d'un site peut compenser la baisse de valeur sélective engendrée par une mutation désavantageuse au niveau d'un autre site. Plusieurs approches ont été proposées afin de mettre en évidence des sites coévoluant à partir d'un alignement de séquences, qui ont été appliquées à des jeux de données spécifiques. Leurs conclusions sont parfois contradictoires et sans degré de généralité. Ces approches souffrent de plus de lacunes méthodologiques et de défaut d'implémentation, ce qui prohibe leur usage, particulièrement à l'échelle génomique. Après avoir éclairci les différents problèmes méthodologiques à prendre en compte, nous présentons une nouvelle méthode de détection. Par l'étude détaillée de trois jeux de données, nous montrons qu'elle permet de mettre en évidence des groupes de sites ayant une histoire évolutive corrélée. Nous mettons également ces sites en relation avec la structure et la fonction des molécules. Nous utilisons finalement une approche génomique pour caractériser la coévolution à l'échelle des génomes, en appliquant la méthode sur 523 jeux de données bactériens. Nous montrons qu'il existe un fort signal de coévolution, dont la mise en relation avec la structure des protéines constitue une perspective à court terme
We address here the problem of non-independent evolution between distinct positions (sites) within bio-sequences, namely nucleic acids and proteins. The proposition that sites may not evolve independently -- they are said to be coevolving -- is not a new one and is supported by several biochemical properties of the structure of the molecules. The mechanism of compensatory mutations is usually invoked to explain molecular coevolution: a mutation at one site may compensate the drop in fitness of a (otherwise deleterious) mutation at another site. Several approaches have been already developed to detect coevolving sites from a sequence alignment and have been applied to single data sets. They lead to -- sometimes contradictory -- conclusions that cannot be generalized. These methods also suffer from methodological fuzziness and software deficiencies, which prohibits their use, particularly at the genomic scale. We detail the methodological issues involved in the detection of coevolving sites and present a new detection method. This method is applied to three data sets for which we provide extensive analysis. We show that this method is successful in detecting sites that share a correlated evolutionary history. These sites are also related to the molecules structures and functions. We finally use a genomic approach to characterize the coevolution signal at the genome scale. A 523 genes data set from bacterial complete genomes is built and analyzed. We show that there is a strong coevolution signal for most of these proteins. Crossing these results with structural information will presumably improve our understanding of the mechanisms of molecular (co)evolution
41

Vergne, Nicolas Prum Bernard. "Chaînes de Markov régulées et approximation de Poisson pour l'analyse de séquences biologiques." S. l. : Evry-Val d'Essonne, 2008. http://www.biblio.univ-evry.fr/theses/2008/2008EVRY0006.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Troubnikoff, Alexis. "Résolution numérique pour l'analyse quantitative de grands systèmes à événements discrets." Versailles-St Quentin en Yvelines, 2002. http://www.theses.fr/2002VERS016V.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse traite de la résolution de modèles markoviens pour l'évaluation des performances de systèmes complexes. L'approche adoptée est l'étude des propriétés structurelles de la chaîne de Markov. Dans une première partie, nous nous plaçons dans le cas général des chaînes de Markov qui n'ont pas, à priori, de structure particulière. En utilisant la méthode de réduction pour la résolution de la distribution stationnaire et des techniques de la théorie des graphes, nous recherchons une structure particulère dans la chîne permettant la diminution du temps de calcul. Cette structure particulière dans la chîne permettant la diminution du temps de calcul. Cette structure particulière revient à chercher un FVS (Feedback Vertex Set) de taille minimum (problème NP-dur) sur le graphe associé à la chaîne de Markov. Une généralisation de ces techniques est proposée. Elle utilise des permutations sur la matrice associée ou des échanges successifs de prédécesseurs ou des successeurs entre sommets du graphe. Dans une deuxième partie, nous abordons deux structures de chaînes de Markov particulières pour lesquelles nous proposons des méthodes de résolution directes adaptées à ces structures. Les chaînes de Markov étudiées sont des QBD (Quasi Birth and Death process). La première structure particulière est issue d'un modèle de réseau UMTS où le QBD a un espace d'états fini. Nous montrons qu'un algorithme simple, utilisant les techniques proposées dans la première partie, permet de calculer efficacement différents indices de performances (taux de perte,. . . ) La seconde structure particulière que nous étudions correspond aux QBD à un espace d'états infini ayant des propriétés particulières, notés LG (Level Geometric). Nous définissons et caractérisons cette propriété. Nous montrons qu'n utilisant cette propriété, il est possible de calculer la distribution stationnaire plus simplement.
43

Esslimani, Ilham. "Vers une approche comportementale de recommandation : apport de l'analyse des usages dans un processus de personnalisation." Phd thesis, Université Nancy II, 2010. http://tel.archives-ouvertes.fr/tel-00581436.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Internet met à la disposition des utilisateurs une large variété d'items dont le volume est sans cesse croissant. Devant cette surcharge d'items, l'utilisateur peine à repérer les items qui correspondent à ses besoins. C'est dans ce contexte que les systèmes de recommandation se sont développés, dans la mesure où ils permettent de faciliter l'accès aux items susceptibles d'intéresser l'utilisateur. Néanmoins, malgré le succès des systèmes de recommandation, certaines questions de recherche restent soulevées telles que : le manque de données, l'identification de voisins fiables, la précision des recommandations et la recommandation de la nouveauté. En vue de répondre à ces questions, nous avons proposé à travers cette thèse une nouvelle approche de recommandation inspirée du web usage mining et du filtrage collaboratif. Cette approche repose sur l'observation du comportement de l'utilisateur et sur l'analyse de ses usages en vue de générer des recommandations. En outre, nous nous sommes inspirés des techniques utilisées dans le domaine de l'analyse des réseaux sociaux afin de prédire les liens à travers un réseau d'utilisateurs construit sur la base des similarités de comportement. L'objectif est de pallier le manque de données et d'améliorer l'identification de voisins fiables. De plus, dans la perspective d'atténuer le problème de démarrage à froid (concernant les nouveaux items), nous avons proposé une approche de recommandation qui repose sur la détection de leaders pour la recommandation de la nouveauté.
44

Hassad, Hassane. "Contribution à l'analyse de la stabilité de la commande prédictive généralisée : application à un processus thermique." Nancy 1, 1993. http://www.theses.fr/1993NAN10053.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce mémoire traite le problème de la stabilité de la commande prédictive généralisée (GPC). L'élaboration de cette stratégie est donnée au premier chapitre. Le deuxième chapitre est consacré au rappel des résultats des auteurs qui ont traité ce problème ainsi qu'à la reformulation du système en boucle fermée obtenu par l'application de cette stratégie, sous plusieurs aspects. Dans le troisième chapitre, nous avons donné une condition suffisante, pour choisir le coefficient de pondération de la commande, qui permet de placer le polynôme caractéristique dans une hypersphère de stabilité. Ces résultats concernent un choix de l'horizon de commande unitaire et sont limites à des systèmes stables ou proches de la stabilité. Des algorithmes permettant le choix de tous les paramètres de synthèse, assurant la stabilité asymptotique du système en boucle fermée, ont été proposés dans le quatrième chapitre. Contrairement aux résultats du chapitre précédent, ces derniers concernent tous les systèmes. Ils sont basés uniquement sur la réponse impulsionnelle du système en boucle ouverte, ils peuvent être appliqués dans le cas adaptatif. Le dernier chapitre est consacré à la mise en application de ces résultats à un processus thermique
45

Blanc, Hélène. "Contribution theorique a l'analyse des processus concurrentiels globalises : le cas des accords de cooperation inter-firmes." Lyon 2, 1997. http://www.theses.fr/1998LYO22002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La cooperation inter-firmes est devenue une forme organisationnelle majeure depuis une quinzaine d'annees. Tant leur croissance que les formes nouvelles qu'elle revet en font un objet important d'analyse. Les accords impliquent frequemment des firmes multinationales concurrentes qui cooperent en vue de creer de nouvelles ressources technologiques. Ni nouvelles formes de collusion, ni resultats d'un simple calcul de minimisation des couts, les accords de cooperation inter-firmes doivent etre interpretes a l'aune de la dynamique institutionnelle a l'oeuvre dans nos economies concurrentielles contemporaines en cours de globalisation. Si les firmes mettent en oeuvre des strategies d'adaptation face aux nouvelles conditions de la concurrence - interpenetration croissante des marches et raccourcissement des cycles de vie des produits, essentiellement - en tendant a implanter des formes reticulaires d'organisation, elles cherchent egalement a maitriser les changements et l'evolution de leur environnement. En d'autres termes, on peut distinguer une logique des transformations institutionnelles de la firme multinationale tendant a devenir une firme-reseau multinationale, et une logique inter-institutionnelle correspondant a la mise en oeuvre par les fmn de strategies concurrentielles leur permettant d'acquerir des connaissances nouvelles creees par d'autres institutions, susceptibles de leur permettre de renforcer leurs competences et d'ameliorer leurs positions concurrentielles. La maitrise des connaissances se trouve au coeur des processus concurrentiels mondialises et les accords de cooperation transforment ainsi radicalement la maniere dont les firmes "jouent" la concurrence. Les cooperations inter-firmes representent donc des moyens de stabiliser les regles de l'echange dans une periode historique specifique de globalisation des economies capitalistes
The inter-firms agreements have become an important organisational form in the eighties. Their analysis is a great challenge for the economists because of their growth in numbers and the new forms they take. They usually concern multinational corporations, often rivals, which intend to cooperate in order to create new technological resources. Neither new collusive mechanisms, nor results of cost miminimisation calculus, the agreements should be interpreted in the broader institutional dynamics of the current globalising competitive economies. To face the new conditions of the global competition - interpenetration of markets and shortening of the product cycles, notably - firms tend to implement adaptative strategies and new network forms of organisation. They also seek to master changes in their environment. In other words, two logicals can be distinguished: the institutional transformations of the multinational corporation toward a network multinational firm, in the one hand, and an inter-institutional logical in the other, which refers to the implementation of competitive strategies purposing to the acquisition of new knowledge created outside the firm but necessary for it. Thesenew pieces of knowledge permit it to reinforce its competitive advantage and to improve its positions on the global markets. The mastering of knowledge is then crucial for the understanding of the global competitive processes and agreements between firms deeply change the rules of the game of the global competition. Then, these cooperation agreements stabilize the exchange rules in a historical period of globalisation
46

Charton, J. "Le processus informationnel dans l'équipe de soins hospitaliers : étude des représentations infirmières par l'analyse de cohésion." Aix-Marseille 1, 1989. http://www.theses.fr/1989AIX10033.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette these presente l'analyse de cohesion, une methode composite basee sur l'approche des cliques utilisee en combinatoire des graphes et a laquelle est integree une approche de statistique classique. Cette demarche nouvelle permet une analyse multivariee et comparative de la structure de donnees, meme si les tailles des echantillons et les marginales de ces donnees sont inegales. La methode est appliquee au materiau obtenu dans une enquete (1981) par questionnaire aupres de 380 infirmieres venant d'obtenir le diplome de cadre. L'analyse est centree sur le processus informationnel dans le soin hospitalier. La conception du soin infirmier qui emarge de l'ensemble des reponses deborde le "nursing" et l'execution fidele de soins delegues et met au premier plan le travail sur l'information. Les infirmieres recusent leur role traditionnel d'auxiliaires-executantes et pronent une conception collegiale de l'equipe de soins ou la participation du malade est souhaitee. La denonciation des carences en personnel et de l'utilisation d'aides-soignantes pour des taches ou des temps de presence assumant une competence infirmiere est generale. La comparaison de 7 sous-groupes indique toutefois des divergences au plan des liens faits entre la demarche informationnelle revendiquee, la division cognitive du travail, et les conditions materielles de la pratique soignante. Les resultats indiquent une mutation en profondeur dans la symbolique infirmiere : ces cadres mettent en question la definition meme de leur proces de travail et non pas seulement les contraintes dans lesquelles il s'exerce. Enquete faite dans les 30 ecoles de cadres francaises
This thesis introduces "cohesion analysis", a composite method involving both the graph analysis approach (cliques) and the classic statistical approach. This method allows multivariate and comparative approaches to data, even if the samples' sizes and data frequencies are unequal. Our data was collected through a questionnaire sent in 1981 to hospital nurses just finishing "ecole de cadres" (n=380). The analysis is centered on nurses' perceptions of the process of information underlying patient care. The general trend of the responses indicate a conception of nursing which goes beyond basic care and faithful execution of doctor's orders and emphazises the cognitive work on information. Nurses' traditionnal auxiliary status is contested, collegial relations within the care unit are deemed necessary, and the sick person's contribution to his diagnosis and choice of treatment is highly desired. Understaffing and the replacement of nurses by "aides-soignantes" for time or tasks requiring nursing skills are widely denounced. Seven sub-groups within the sample were compared. The main differences that were found between groups concerned nurses' perceptions of the cognitive division of labor and the material conditions of work that would make possible their participation in the information process. The overall results reflect a mutation on the symbolic level : beyond the constraints of their practice, nurses question the given definition of their work process - in public hospitals, in france
47

Kolmayer, Elisabeth. "Contribution à l'analyse des processus cognitifs mis en jeu dans l'interrogation d'une base de données documentaires." Paris 5, 1997. http://www.theses.fr/1997PA05H051.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une interrogation documentaire confronte la représentation du domaine interroge propre à l'opérateur à celle du système documentaire. C'est cette confrontation qu'aborde ce travail. Pour analyser la représentation du domaine interroge chez l'opérateur, on recense les divers modes d'organisation des connaissances mis en évidence par la psychologie cognitive. On s'appuie pour cela sur les recherches liées aux catégorisations et sur celles liées aux expertises. Une approche expérimentale menée auprès de professionnels en milieu hospitalier étudié le rôle de deux facteurs d'expertise (le niveau de formation et l'expérience professionnelle) sur ces modes d'organisation. La représentation du domaine dans des systèmes documentaires est analysée à travers l'indexation par vedettes matière et par descripteurs. On repère les points de convergence et les différences entre les structurations utilisées dans les thesauri et les répertoires d'autorité matières d'une part, les organisations de connaissances mises enjeu par les usagers d'autre part. Mais dans les interrogations menées sur des systèmes réels, les expertises liées au domaine interroge sont écrasées par les expertises documentaires. Ceci conduit à s'interroger sur la représentation à donner de la situation d'interrogation. La considérer comme la recherche du meilleur appariement entre termes de requête et termes d'indexation ne correspond pas à la conduite des usagers. Il s'agit plutôt, pour eux, d'élaborer une représentation du but de l'interrogation compatible avec les contraintes documentaires. On envisage alors une interrogation documentaire comme un problème de conception auquel s'appliquent les concepts de plans -déclaratifs et procéduraux- et de contraintes. Une approche expérimentale en teste la pertinence dans l'analyse d'interrogations menées par des professionnels et des novices de la documentation, pour un outil documentaire donne : un catalogue informatise de bibliothèque. Quelques conséquences ergonomiques sont abordées
During the information retrieval process, two topic representations have to interact; one comes from the end-user, the other from the information system. We focus on this interaction. Cognitive psychology gives some tools to analyse the user's domain representation, as research on categorizations and about expert and novice knowledge has shown. An experimental approach with nurses and nursing auxiliaries analyses the effects of two expertise factors: experience and training level. We examine the domain representation in information system through indexing (indexing with descriptors and subject headings). We point out agreement and differences between knowledge organization such as in thesauri, in subject headings indexes and in the user's mind. But by interacting with an actual retrieval device, topic expertise plays a very small role; the important factor is the expertise of the own device. We focus then on the modelling of the information retrieval situation; the problem to face, for the end-user, is not to find the + best match ; between query and index terms, but to develop a representation of his information need convenient with the information system constraints. An information retrieval task is then concieved as a design problem to which the concepts of plans declarative and procedural- can be applied. An experiment tests the efficiency of such a modelling, analysing the seeking process of end-users and librarians interacting with an online catalog. Some ergonomic consequences are considered
48

Peigney, Benjamin-Edouard. "Contribution à l'analyse de problèmes multi-échelles : application à des processus de diffusion et de combustion." Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCC096.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les résultats établis durant ce travail de thèse concernent la résolution de problèmes multi-échelles, pour lesquels nous mettons en place - en les justifiant aussi rigoureusement que possible - des techniques de résolution en vue de répondre à une problématique physique particulière. Le premier problème multi-échelle traité est celui de la diffusion de la chaleur dans un milieu fissuré, où coexistent deux échelles spatiales. Nous montrons en particulier que l'effet des fissures peut être modélisé par un terme source volumique dans l'équation de la chaleur homogénéisée. Le second problème multi-échelle abordé traite des plasmas de fusion étudiés dans le contexte de la Fusion par Confinement Inertiel (FCI). On établit une modélisation détaillée au niveau cinétique du processus de combustion de l'hydrogène réagissant suivant la réaction de fusion D + T→ α + n + 17. 56 MeV. L'aspect mufti-échelle du problème est ici lié à la co-existence de deux échelles d'énergie nécessaires pour décrire les populations ioniques à traiter. Une analyse mufti-échelle du processus de ralentissement des particules suprathermiques modélisé par l'opérateur de Fokker-Planck conduit à l'élaboration d'une stratégie originale de résolution des équations cinétiques et apporte des résultats nouveaux relatifs à la combustion des cibles FCI
The results established in this thesis deal with some multi-scale problems for which we design specially taylored techniques in order to tackle a specific physical problem, in which the multi-scale aspect plays a crucial role. We also try to justify, as rigorously as possible, the different methods we propose. The first considered multi-scale problem deals with the heat equation inside a cracked medium. In particular, following a homogeneization approach, we show that the crack effects can be modeled by a volume source term in the homogenized heat equation. The second multi-scale problem is related to the modeling of fusion plasma, in the Inertial Confinement Fusion (ICF) context. We derive an accurate kinetic modeling of the combustion process of hydrogen. The multi-scale aspect of the problem comes from the coexistence of two energy scales that are required to describe the different ion populations. A multiscale analysis of the Fokker-Planck operator leads to an original and efficient strategy to solve the kinetic modeling of ICF target combustion
49

Defrance, Matthieu Touzet Hélène. "Algorithmes pour l'analyse de régions régulatrices dans le génome d'eucaryotes supérieurs." Villeneuve d'Ascq : Université des sciences et technologies de Lille, 2007. https://iris.univ-lille1.fr/dspace/handle/1908/1020.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Reproduction de : Thèse de doctorat : Informatique : Lille 1 : 2006.
N° d'ordre (Lille 1) : 3906. Résumé en français et en anglais. Titre provenant de la page de titre du document numérisé. Bibliogr. p. 91-96.
50

Söderberg, Joakim. "Modèle de Markov caché multidimensionnelle [sic] appliqué aux images et à l'analyse vidéo." Paris, ENST, 2007. http://www.theses.fr/2007ENST0002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les progrès récents dans les domaines de la vision cognitive, des multimédia, de l interaction homme-machine, des communications et de l Internet sont un apport considérable pour la recherche qui profite à l imagerie et l analyse vidéo. Des systèmes adaptés et fiables sont nécessaires pour l analyse, l indexation et le résumé de grandes quantités de données audiovisuelles. Les méthodes traditionnelles de classification d images procèdent par analyse des blocs distincts d une image, ce qui aboutit à un formalisme non contextuel des caractéristiques visuelles. Les approches récentes tendent donc de plus en plus vers une vision globale de l image incluant sa structure et sa forme générale. Cette thèse est une approche statistique issue de l intelligence artificielle visant à une représentation séquentielle des données de l image. Cette représentation statistique permet l estimation, à la classification, et à la segmentation de l image. Nous utilisons un nouvel algorithme efficace représentant les images à l aide du modèle bidimensionnel de Markov caché (HMM). La principale difficulté à appliquer un 2-D HMM aux images est la complexité algorithmique qui s’accroît de façon exponentielle avec le nombre de segments d image. En conséquence, la contribution technique majeure de cette thèse est d estimer les paramètres d un 2­D HMM la complexité sera O(whN^2) au lieu de O(wN^2h) où N est le nombre d’états dans le modèle et (w,h) sont respectivement la largeur et la hauteur de l image. Nous démontrons que la formalisation DT HMM présente plusieurs possibilités d extensions, par une étude du segmentation d’image, classification et 3-D HMM
Recent progress and prospects in cognitive vision, multimedia, human-computer interaction, communications and the Web call for, and can profit from applications of advanced image and video analysis. Image classification is perhaps the most important part of digital image analysis. The objective is to identify and portray the visual features occurring in an image in terms of differentiated classes or themes. Traditional classification methods analyses independent blocks of an image, which results in a context-free formalism. However there is a fairly wide-spread agreement that observations should be presented as collections of features which appear in a given mutual position or shape. We therefore employ a new efficient algorithm that models context in images by a 2-D hidden Markov model (HMM). The difficulty with applying a 2-D HMM to images is the computational complexity which grows exponentially with the number of image blocks. The main technical contribution of this thesis is a way of estimating the parameters of a 2-D HMM in O(whN^2) complexity instead of O(wN^2h), where N is the number of states in the model and (w,h) is the width respectively height of the image. We investigate the performance of our proposed model (DT HMM) , and search for its point of operation. In an effort to introduce both global and local context in the model, the DT HMM was extended to multiple image resolutions. The results indicate that earlier recorded deficiency can be conquered and that its performance can be compared with other known algorithms. We finally demonstrate the versatility of the model by presenting applications such as; classification, segmentation and object tracking

To the bibliography