Gotowa bibliografia na temat „Comptage approximatif”

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Zobacz listy aktualnych artykułów, książek, rozpraw, streszczeń i innych źródeł naukowych na temat „Comptage approximatif”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Artykuły w czasopismach na temat "Comptage approximatif"

1

Parkkonen, Jouni, i Frédéric Paulin. "Équidistribution, comptage et approximation par irrationnels quadratiques". Journal of Modern Dynamics 6, nr 1 (2012): 1–40. http://dx.doi.org/10.3934/jmd.2012.6.1.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
2

Ogien, Albert. "La Volonté de quantifier. Conceptions de la mesure de l'activité médicale". Annales. Histoire, Sciences Sociales 55, nr 2 (kwiecień 2000): 283–312. http://dx.doi.org/10.3406/ahess.2000.279847.

Pełny tekst źródła
Streszczenie:
Mesurer est une activité qui consiste à produire une description numérique d'un fait ou d'un phénomène. Il existe, certes, différentes manières de nommer l'opération cognitive qui consiste à appréhender et à rendre compte des qualités d'une chose (apprécier, estimer, évaluer, rapprocher), et différentes manières d'en présenter les résultats (de façon approximative, métaphorique ou mathématique). Mais rapporter toutes ces manières d'établir une comparaison à l'activité d'un même « équipement métrologique » manquerait probablement à rendre raison de la singularité qu'introduit, dans cette opération, l'usage des chiffres. Par souci de clarté, il semble donc préférable de réserver le terme mesure à la description numérique.
Style APA, Harvard, Vancouver, ISO itp.
3

Bitat, Farid. "La Complicité Dans Les échanges Interpersonnels Et Leurs Compréhensions". مجلة المعيار 24, nr 1 (27.02.2023): 835–42. http://dx.doi.org/10.37138/mieyar.v24i49.4728.

Pełny tekst źródła
Streszczenie:
Nous exploitons selon une approche de la communication et de la linguistique interactionnelle, des échanges entre individus. Ce sont alors des séquences nous permettant de suivre des comportements langagiers puis de comprendre l’imbroglio des différents participants d’une rencontre. Les relations interpersonnelles dans ce contexte jouent également un rôle important, puisque l’influence des uns sur les autres, entraine des déséquilibres lors des échanges. Du point de vue « sens », tout énoncé est pris en considération pour rendre compte de sa cohérence ou de son incohérence. Nous signalons à cet effet, la complexité de tous discours d’où l’importance de son interprétation pour une compréhension approximative.
Style APA, Harvard, Vancouver, ISO itp.
4

Sergent, Philippe, Jean-Michel Tanguy i Hassan Smaoui. "Calcul analytique et numérique des seiches et des oscillations portuaires pour des bassins de forme rectangulaire et de profondeur constante avec des digues semi-infinies parfaitement réfléchissantes". La Houille Blanche, nr 3-4 (październik 2019): 117–29. http://dx.doi.org/10.1051/lhb/2019049.

Pełny tekst źródła
Streszczenie:
À l'aide de l'équation intégrale de Kirchhoff–Helmholtz appliquée aux ondes de gravité et en prenant en compte les modes évanescents à l'intérieur du résonateur, nous établissons une nouvelle approximation de la période fondamentale de seiche et d'oscillation portuaire des bassins de forme rectangulaire et de profondeur constante en présence d'ouvrages extérieurs semi-infinis parfaitement réfléchissants. Cette approximation généralise la formule analytique utilisée par Rabinovich. La formule présentée par Rabinovich corrige elle-même la période classiquement utilisée pour les résonateurs quart d'onde. Nous comparons ensuite cette approximation avec les résultats de l'équation de pente douce de Berkhoff résolue par la méthode des éléments finis. Il est observé que la formule analytique présentée par Rabinovich sous-estime la période de résonance. Pour le calcul par éléments finis, une densité du maillage d'environ 10 nœuds par longueur d'onde suffit pour atteindre une bonne précision mais il est nécessaire de respecter aussi un critère sur le nombre de nœuds par unité de largeur. En ce qui concerne le facteur d'amplification, nous retrouvons comme Rabinovich que ce dernier est proportionnel au rapport longueur sur largeur et qu'il ne dépend pas de la profondeur. Nous montrons également que la composition des ouvrages extérieurs peut être déterminante pour le facteur d'amplification. Un test expérimental dans une cuve à houle montre cependant que, dans certains cas, une dissipation importante se produit qui a pour conséquence d'une part de réduire la période de seiche et d'autre part de réduire sensiblement le facteur d'amplification.
Style APA, Harvard, Vancouver, ISO itp.
5

Margolin, Jean-Claude. "Clarence H. Miller, Un fin connaisseur d’Érasme et de son temps". Moreana 35 (Number 135-, nr 3-4 (grudzień 1998): 111–28. http://dx.doi.org/10.3366/more.1998.35.3-4.8.

Pełny tekst źródła
Streszczenie:
Éditeur, commentateur, traducteur d’Érasme et de More, C. Miller s’est particulièrement illustré dans ses travaux sur l’Encomium Moriae et dans sa traduction des poèmes de l’humaniste hollandais. Attentif aux “métamorphoses” de la Moria, il a étudié avec une rigueur extrême les diverses éditions de ce texte fameux, en tenant compte notamment du commentaire de Listrius, pour donner en 1979 une excellente traduction de The Praise of Folly (Yale U.P.) et une non moins excellente édition critique de ce texte (Amsterdam, North-Holland Publ. Comp.). Plus récemment (en 1993), s’attaquant avec Harry Vredeveld aux poèmes d’Érasme—Vredeveld est l’éditeur des Carmina dans l’édition critique d’Amsterdam—il en fournit la première traduction complète en langue anglaise, sans chercher à opposer aux différents mètres latins les équivalents approximatifs d’ une métrique anglaise: mais c’est une prose poétique, d’une parfaite rigueur, brillante—souvent plus brillante que le modèle latin—, attentive aux nuances subtiles de l’affectivité d’Érasme comme à ses variations d’humeur, passant du grave au mélancolique, ou du dévotieux à l’humoristique selon la couleur du temps, le thème choisi, le destinataire, l’étiage psychique du poeta orator.
Style APA, Harvard, Vancouver, ISO itp.
6

Williams Camus, Julia T. "An Approximation to the Ideological Basis of Metaphors Used for Cancer in the English and Spanish Press". FORUM / Revue internationale d’interprétation et de traduction / International Journal of Interpretation and Translation 7, nr 1 (1.04.2009): 171–201. http://dx.doi.org/10.1075/forum.7.1.08wil.

Pełny tekst źródła
Streszczenie:
La métaphore est un outil très employé dans les articles de divulgation du cancer dans la presse parce que les processus par rapport à l’origine et la dissémination de la maladie restent relativement inconnus. Comme la métaphore implique nécessairement un système de correspondances partielles entre domaines, aussi que l’adoption d’une perspective particulière, elle est étroitement liée à l’idéologie. Cette étude examine la dimension idéologique des métaphores du cancer dans la presse britannique et espagnole dans deux corpus comparables, chacun composé de 34 articles. Les métaphores utilisées ont été identifiées et analysées en tenant compte de l’emploi de relèvement et occultation avec chaque système figuratif. L’étude met en évidence 15 métaphores conceptuelles dans les corpus. La comparaison de ces métaphores permet d’établir des différences transculturelles. La moyenne est de 3 thèmes métaphoriques par texte dans le corpus anglais et de 3,6 dans le corpus espagnol. Les métaphores les plus fréquentes dans les deux corpus sont LE CANCER C’EST LA GUERRE, LES CELLULES CANCEREUSES SONT HUMAINES, LES CELLULES CANCEREUSES SONT DES MACHINES. Les tropes apparaissent combinés pour réaliser trois fonctions principales: attirer l’attention du lecteur, fonction explicative, et fonction structurelle. Certaines images sont aussi privilégiées selon l’aspect du cancer traité dans le texte.
Style APA, Harvard, Vancouver, ISO itp.
7

Delorme, François, i Gaston Nadeau. "Un aperçu des lois de retour au travail adoptées au Québec entre 1964 et 2001". Relations industrielles 57, nr 4 (9.09.2003): 743–88. http://dx.doi.org/10.7202/006908ar.

Pełny tekst źródła
Streszczenie:
Résumé À partir d’une liste exhaustive des lois spéciales de retour au travail adoptées au Québec entre 1964 et 2001 inclusivement, les auteurs en présentent, sous la forme d’un tableau détaillé, certaines caractéristiques : un sommaire de leur contenu, la durée approximative du conflit auquel chacune des lois entendait mettre fin, le caractère légal ou illégal de l’arrêt de travail, sa durée ainsi que des commentaires de nature factuelle. Cet exercice permet de dégager quelques observations sur la fréquence d’utilisation de ce moyen exceptionnel et il conduit à identifier les domaines d’activité les plus souvent touchés par de telles interventions. Il montre aussi que le législateur prend souvent en compte, pour justifier l’usage de cet outil extraordinaire de règlement d’un différend, non seulement les critères relatifs au maintien de la santé et de la sécurité publiques, mais parfois aussi les inconvénients majeurs pouvant résulter du conflit. C’est qu’en pareille matière, l’adoption d’une loi se situe toujours aux frontières du droit et de la politique.
Style APA, Harvard, Vancouver, ISO itp.
8

Cervero, Ronald, i Arthur Wilson. "Beyond Learner-Centered Practice: Adult Education, Power, and Society". Canadian Journal for the Study of Adult Education 13, nr 2 (1.11.1999): 27–38. http://dx.doi.org/10.56105/cjsae.v13i2.1998.

Pełny tekst źródła
Streszczenie:
At the heart of practice in most conceptions of adult education is the adult learner whose needs for learning, once uncovered, can be met through the effective design of educational programs. There has been increasing dissatisfaction with this view of practice, however, as adult education has moved to a central position in the constitution of social, cultural, and economic life. Learner-centeredness is a naive position that does not come close to approximating the political and ethical dilemmas nor the contradictions and the possibilities for action in this new situation for adult education. In place of learner-centeredness we suggest that adult education in the next millennium must be seen as a struggle for the distribution of knowledge and power in society. At the heart of practice, then, should be a vision linking adult education, power, and society. Résumé La plupart des conceptions andragogiques placent l'apprenant au centre de leur préoccupation pratique. Elles considèrent que les besoins d'apprentissage de celui-ci, une fois identifiés, peuvent être rencontrés grace au design de programmes éducatifs. Or, cette conception s'est butée à une insatisfaction croissante alors que la pratique andragogique s'établissait au cœur la vie sociale, culturelle et économique. La notion d'intervention centrée sur l'apprenant est naïve et ne rend pas compte des dilemmes politiques et éthiques, ni des contradictions et des possibilités d'action dans le nouveau contexte. À l'aube du nouveau millénaire, nous suggérons plutôt une représentation de l'andragogie qui étaye la lutte pour une distribution équitable du savoir et dupouvoir dans la société. La pratique devient alors tributaire d'une vision liant andragogie, pouvoir et société.
Style APA, Harvard, Vancouver, ISO itp.
9

Valeria, Osvaldo. "CARTOGRAPHIE PAR TELEDETECTION DE L’EVOLUTION DES PLANTATIONS RESINEUSES DANS L’EST DE LA FORÊT BOREALE CANADIENNE". Revue Française de Photogrammétrie et de Télédétection 1, nr 211-212 (6.12.2015): 33–42. http://dx.doi.org/10.52638/rfpt.2015.539.

Pełny tekst źródła
Streszczenie:
Au Québec, la remise en production par voie de plantation de résineux a débuté au début des années 1980 et atteint un sommet en 1990. Toutefois, on se demande si les efforts consacrés à la remise en production ont donné fruits compte tenu des problèmes liés à la compétition végétale affectant certaines plantations. Les objectifs du projet étaient de caractériser les changements de composition du couvert forestier de plantations résineuses établies depuis 1985 sur des sols argileux en milieu boréal. La caractérisation a été réalisée à l’aide d’indices de végétation extraits d’images satellitaires Landsat TM et ETM+ pour les périodes 2000, 2005 et 2010. Des orthophotographies numériques et des données terrain ont été utilisées afin de mesurer l’efficacité des indices. L’indice Tasseled Cap Greenness s’est avéré le plus performant à discriminer le type de couvert avec un indice de Kappa de 50 %. Les résultats montrent qu’en 200 plus de 50 % des plantations étaient classifiées comme mixtes et 25 % étaient classifiées comme feuillues, alors qu’en 2010, 51 % des plantations étaient mixtes (mélange feuillus – résineux) et 11 % feuillues. À l’aide d’un modèle généralisé linéaire mixte avec approximation de Laplace nous avons mis en relation les changements de couvert et l’âge de la plantation. La probabilité pour un couvert initial feuillu d’évoluer vers un couvert mixte ou résineux est près de 68 %. Les variables type, âge et couvert de la plantation ainsi que leurs interactions ont des effets significatifs sur la probabilité de changement de couvert avec le temps. Ce projet a permis de faire le bilan de plantations résineuses établies entre 1980 et 1995 sur un territoire de 18 797 ha et confirme que les outils de télédétection sont efficaces pour le suivi d’un grand territoire, en offrant des informations de qualité pour la planification des traitements sylvicoles.
Style APA, Harvard, Vancouver, ISO itp.
10

Caselli, Graziella, i Gérard Calot. "Détermination d'une table de mortalité : la conversion des taux en quotients". Population Vol. 46, nr 6 (1.06.1991): 1441–90. http://dx.doi.org/10.3917/popu.p1991.46n6.1490.

Pełny tekst źródła
Streszczenie:
Résumé Calot Gérard, Caselli Graziella. - Détermination d'une table de mortalité: la conversion des taux en quotients L'article est consacré à la détermination des formules permettant de déduire le quotient de mortalité à un âge i donné lorsqu'on connaît l'un ou l'autre des taux Tp ou Tc calculés respectivement dans le parallélogramme et dans le carré du schéma de Lexis. Si on néglige les migrations et si on suppose que les dates de ie anniversaire sont uniformément réparties, la formule simplifiée de conversion d'un taux en quotient : Q # l-e-r s'applique en première approximation. On peut cherchera améliorer cette formule pour tenir compte : — du fait qu'elle ne vaut qu'au premier ordre : il faut alors pousser les développements au deuxième ou au troisième ordre, ce qui fournit la formule de Reed et Merrel, applicable en l'absence de migrations et sous l'hypothèse d'uniformité des distributions des dates de ie anniversaire; — de la non-uniformité de la distribution des dates de ie anniversaire au sein de la génération concernée (taux Tp) ou du couple de deux générations consécutives concernées (taux Tc); — des migrations. En pratique, il s'avère que l'on peut s'en tenir à la formule simplifiée si on travaille dans un découpage annuel de l'âge et du temps, car les corrections à apporter sont généralement négligeables, sauf, dans le cas du taux Tc, lorsque l'une des deux générations concernées a une date moyenne d'anniversaire qui s'écarte notablement du milieu de l'année (générations nées au début ou à la fin d'une guerre). La formule de Reed et Merrel conduit à une correction négligeable lorsqu'on considère des taux par simple année d'âge, mais qui est 25 fois plus importante en valeur relative lorsqu'on considère des taux par groupes quinquennaux d'âge.
Style APA, Harvard, Vancouver, ISO itp.

Rozprawy doktorskie na temat "Comptage approximatif"

1

Ben, Mazziane Younes. "Analyse probabiliste pour le caching". Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4014.

Pełny tekst źródła
Streszczenie:
Les caches sont de petites mémoires qui accélèrent la récupération des données. L'un des objectifs des politiques de mise en cache est de sélectionner le contenu du cache afin de minimiser le temps de réponse aux requêtes d'objets. Un problème plus général permet de répondre approximativement à la requête d'un objet par un objet similaire mis en cache. Ce concept, appelé "mise en cache par similarité", s'avère utile pour les systèmes de recommandation. L'objectif est de minimiser le temps de latence tout en fournissant des réponses satisfaisantes. La compréhension théorique des algorithmes de gestion de la mémoire cache, sous des hypothèses spécifiques sur les requêtes, aide à choisir un algorithme approprié. Les politiques d'éviction du cache les plus répandues sont celles de l'utilisation la moins fréquente (LFU) et de l'utilisation la moins récente (LRU). LFU est efficace lorsque le processus requêtes est stationnaire, et LRU s'adapte aux changements dans les processus de requêtes. Les algorithmes d'apprentissage séquentiel, tels que l'algorithme aléatoire Follow-the-Perturbed Leader (FPL), appliqués à la mise en cache, bénéficient de garanties théoriques même dans le pire des cas.LFU et FPL s'appuient sur le nombre de requêtes d'objets. Cependant, le comptage est un défi dans les scénarios à mémoire limitée. Pour y remédier, les politiques de mise en cache utilisent des schémas de comptage approximatifs, tels que la structure de données Count-Min Sketch avec mises à jour conservatrices (CMS-CU), afin d'équilibrer la précision des comptages et l'utilisation de la mémoire. Dans le cadre de la mise en cache par similarité, RND-LRU est une stratégie LRU modifiée. Malheureusement, il reste difficile de quantifier théoriquement à la fois la performance d'un cache LFU utilisant CMS-CU, celle d'un cache FPL avec un algorithme de comptage approximatif, ainsi que celle de RND-LRU.Cette thèse explore trois algorithmes probabilistes : CMS-CU, FPL avec des estimations bruitées des nombres de requêtes d'objets (NFPL) et RND-LRU. Pour CMS-CU, nous proposons une approche novatrice pour trouver de nouvelles bornes supérieures sur l'espérance et le complémentaire de la fonction de répartition de l'erreur d'estimation sous un processus de requêtes i.i.d. De plus, nous démontrons que NFPL se comporte aussi bien que la politique de mise en cache statique, optimale et omnisciente, quelle que soit la séquence de requêtes (sous certaines conditions sur les comptages bruités). Enfin, nous introduisons une nouvelle politique de mise en cache qui est analytiquement résoluble. Nous montrons alors que cette politique approxime RND-LRU
Caches are small memories that speed up data retrieval. Caching policies may aim to choose cache content to minimize latency in responding to item requests. A more general problem permits an item's request to be approximately answered by a similar cached item. This concept, referred to as "similarity caching," proves valuable for content-based image retrieval and recommendation systems. The objective is to further minimize latency while delivering satisfactory answers.Theoretical understanding of cache memory management algorithms under specific assumptions on the requests provides guidelines for choosing a suitable algorithm. The Least-Frequently-Used (LFU) and the Least-Recently-Used (LRU) are popular caching eviction policies. LFU is efficient when the requests process is stationary, while LRU adapts to changes in the patterns of the requests. Online learning algorithms, such as the randomized Follow-the-Perturbed Leader (FPL) algorithm, applied for caching, enjoy worst-case guarantees. Both LFU and FPL rely on items' request count. However, counting is challenging in memory-constrained scenarios. To overcome this problem, caching policies operate with approximate counting schemes, such as the Count-Min Sketch with Conservative Updates (CMS-CU), to balance counts' accuracy and memory usage. In the similarity caching setting, RND-LRU is a modified LRU where a request is probabilistically answered by the most similar cached item. Unfortunately, a theoretical analysis of an LFU cache utilizing CMS-CU, an FPL cache with an approximate counting algorithm, and RND-LRU remains difficult.This thesis investigates three randomized algorithms: CMS-CU, FPL with noisy items' request counts estimations (NFPL), and RND-LRU. For CMS-CU, we propose a novel approach to derive new upper bounds on the expected value and the complementary cumulative distribution function of the estimation error under a renewal request process. Additionally, we prove that NFPL behaves as well as the optimal omniscient static caching policy for any request sequence under specific conditions on the noisy counts. Finally, we introduce a new analytically tractable similarity caching policy and show that it can approximate RND-LRU
Style APA, Harvard, Vancouver, ISO itp.
2

Zou, Tingxiang. "Structures pseudo-finies et dimensions de comptage". Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1083/document.

Pełny tekst źródła
Streszczenie:
Cette thèse porte sur la théorie des modèles des structures pseudo-finies en mettant l’accent sur les groupes et les corps. Le but est d'approfondir notre compréhension des interactions entre les dimensions de comptage pseudo-finies et les propriétés algébriques de leurs structures sous-jacentes, ainsi que de la classification de certaines classes de structures en fonction de leurs dimensions. Notre approche se fait par l'étude d'exemples. Nous avons examiné trois classes de structures. La première est la classe des H-structures, qui sont des expansions génériques. Nous avons donné une construction explicite de H-structures pseudo-finies comme ultraproduits de structures finies. Le deuxième exemple est la classe des corps aux différences finis. Nous avons étudié les propriétés de la dimension pseudo-finie grossière de cette classe. Nous avons montré qu'elle est définissable et prend des valeurs entières, et nous avons trouvé un lien partiel entre cette dimension et le degré de transcendance transformelle. Le troisième exemple est la classe des groupes de permutations primitifs pseudo-finis. Nous avons généralisé le théorème classique de classification de Hrushovski pour les groupes stables de permutations d'un ensemble fortement minimal au cas où une dimension abstraite existe, cas qui inclut à la fois les rangs classiques de la théorie des modèles et les dimensions de comptage pseudo-finies. Dans cette thèse, nous avons aussi généralisé le théorème de Schlichting aux sous-groupes approximatifs, en utilisant une notion de commensurabilité
This thesis is about the model theory of pseudofinite structures with the focus on groups and fields. The aim is to deepen our understanding of how pseudofinite counting dimensions can interact with the algebraic properties of underlying structures and how we could classify certain classes of structures according to their counting dimensions. Our approach is by studying examples. We treat three classes of structures: The first one is the class of H-structures, which are generic expansions of existing structures. We give an explicit construction of pseudofinite H-structures as ultraproducts of finite structures. The second one is the class of finite difference fields. We study properties of coarse pseudofinite dimension in this class, show that it is definable and integer-valued and build a partial connection between this dimension and transformal transcendence degree. The third example is the class of pseudofinite primitive permutation groups. We generalise Hrushovski's classical classification theorem for stable permutation groups acting on a strongly minimal set to the case where there exists an abstract notion of dimension, which includes both the classical model theoretic ranks and pseudofinite counting dimensions. In this thesis, we also generalise Schlichting's theorem for groups to the case of approximate subgroups with a notion of commensurability
Style APA, Harvard, Vancouver, ISO itp.
3

Kaoutar, Mustapha. "Approximation linéaire par morceaux : application au comptage de pas de barres d'un réacteur nucléaire et à la caractérisation des contours d'images". Paris 11, 1986. http://www.theses.fr/1986PA112125.

Pełny tekst źródła
Streszczenie:
Après l'analyse des principaux algorithmes d'approximation linéaire par morceaux, on propose une nouvelle méthode d'approximation. Elle comprend deux phases : - phase de qétection - phase d'optimisation. La phase de détection est séquentielle. La phase d'optimisation s'inspire du principe général des nuées dynamiques. La méthode est appliquée au comptage des pas de barres dans un réacteur nucléaire et à la caractérisation des contours d'images. Une autre version de la méthode est présentée. Son originalité réside dans la variabilité du nombre de segments au cours d'itérations. Une étude comparative de la méthode proposée avec d'autres existantes, a montré l'efficacité et la fiabilité de notre méthode
After a survey of main algorithms for piecewise linear approximation, a new method is suggested. Its consists of two stages: - a sequential detection stage, - an optimization stage, which derives from general dynamic clustering principle. It is applied to control rod step counting in a nuclear reactor core and images contours characterization. Another version of our method is presented. Its originality comes from the variability of the line segments number during iterations. A comparative study is made by comparing the results of the proposed method with of another methods already existing thereby it attests the efficiency and reliability of our methods
Style APA, Harvard, Vancouver, ISO itp.
4

Kaoutar, Mustapha. "Approximation linéaire par morceaux application au comptage de pas de barres d'un réacteur nucléaire et à la caractérisation des contours d'images". Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb375986370.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
5

Sabatier, Robert. "Méthodes factorielles en analyse des données : approximation et prise en compte de variables concomitantes". Montpellier 2, 1987. http://www.theses.fr/1987MON20256.

Pełny tekst źródła
Streszczenie:
On demontre un theoreme d'approximation general pour une application lineaire dans les espaces vectoriels euclidiens de dimension finie. Applique a l'analyse factorielle, on en deduit de nouvelles methodes permettant la prise en compte d'une structure sur les unites statistiques. Les structures envisagees sont de type factoriel, temporel ou de graphe
Style APA, Harvard, Vancouver, ISO itp.
6

Vermet, Mikaël. "Simulations par l'acoustique géométrique en présence de surfaces courbes avec prise en compte de la diffraction". Poitiers, 2010. http://theses.edel.univ-poitiers.fr/theses/2010/Vermet-Mikael/2010-Vermet-Mikael-These.pdf.

Pełny tekst źródła
Streszczenie:
L'objectif de cette thèse est d'améliorer la prédiction de la pression acoustique à l'aide des méthodes à rayons en présence d'obstacles courbes. Nous nous plaçons dans un cadre existant de lancer de faisceaux adaptatif. Dans une première partie, nous traitons du problème général de la diffraction par des obstacles. Nous nous intéressons tout d’abord au problème des diffractions successives par des arêtes de dièdre que nous étendons au calcul des ondes rampantes sur les surfaces courbes par l'intermédiaire de l'utilisation de maillages adaptés, indépendants de la fréquence. Dans une seconde partie, nous nous intéressons à la reconstruction de surfaces continues et dérivables à partir de maillages triangulaires lissés afin d’améliorer le calcul de la pression réfléchie. De plus, nous imposons que ces surfaces soient exploitables au sein du lancer de faisceaux. Pour cela nous partons des splines de Powell-Sabin que nous étendons à n'importe quel type de surfaces. Ceci implique d'effectuer des changements de projection des splines, ce qui a pour conséquence l'apparition d'ouvertures sur la surface ainsi reconstruite. Nous montrons que ces trous peuvent être comblés à l'aide d'équations implicites de degré 4 ; leur intersection avec des rayons peut ainsi être calculée analytiquement
We present in this thesis some improvements of acoustical pressure prediction by ray-based methods involving curved surfaces. The framework is an adaptative beam tracing algorithm. The first part deals with diffraction by obstacles. First we solve the problem of successive wedges diffractions. Then we extend this problem to creeping waves calculation on curved surfaces using an appropriate and frequency independant tesselation of these surfaces. The reconstruction of continuous and derivable surfaces from meshes to improve reections computation is treated in the second part. These surfaces have to be suitable for ray tracing technics. Starting from Powell-Sabin splines we extend its use to any kind of surfaces. This implies different projection planes that creates holes on the surfaces. We show that these gaps can be filled with polynomial implicit surfaces of degree four ; consequently their intersections with rays can calculated analytically
Style APA, Harvard, Vancouver, ISO itp.
7

Dehghan, Kaveh. "Prise en compte d'une anisotropie réaliste dans l'imagerie sismique des zones complexes". Paris, Institut de physique du globe, 2007. http://www.theses.fr/2007GLOB0015.

Pełny tekst źródła
Streszczenie:
In order to respond to world energy demand in the years to come and renew reserves, it is essential to support ongoing exploration efforts by developing new methods. In this way the zones with complex geological structures are one of the main explorationzones to study. To explore these zones and reduce the risk of dry wells we need to develop high performance methods through seismic imaging which could be also used for surveying the new exploration zones and re-evaluating the potential of oil fields already exploited. Anisotropy is an omnipresent property in the sedimentary layers which is mainly originated from fine stratification, effect of mineral particles and in-situ stress conditions. For the complex geological structures, the layers dip is largely variable which can lead the principal directions of sedimentary anisotropy to vary through the layers as a function of stratification. The main goal of this work is to provide a 3D modeling software which can be used for realistic layered anisotropic media in the complex tectonics area, to study the effects of such anisotropy on seismic imaging, and proposing some solutions for taking into account the anisotropy in the treatment procedure. For defining the anisotropic media, we consider here the special case of transverse isotropy (TI) with a spatially varying symmetry axis conformed with the structure (STI). The first chapter of this thesis is consecrated to a brief introduction to seismic anisotropy. Different types of seismic anisotropy and their geologic aspects are explained. Also the way we define the STI media is presented. In the second section we present the approximate ray tracing for qP waves in inhomogeneous layered STI media. All needed equations for calculating cinematic and dynamic parameters using first-order ray tracing are given in this chapter. All the quantities required for evaluation of the Green s function are calculated to first order, except the traveltime that is calculated to second order. In this chapter the accuracy of developed algorithm is verified on simple models with respect to exact ray-tracing results, then the method is applied to simple STI models and to a realistic overthrust model to study the cinematic and dynamic effects of STI media. The two next sections are consecrated to applications of developed algorithm to AVAZ study and tomography. The third chapter includes an application of our dynamic ray tracing algorithm to AVA analysis. The relative importance of several factors affecting the amplitude versus azimuth in a realistic 3D model is analyzed and the results obtained by using our dynamic ray tracing algorithm are compared with 1D analytical solutions which are current in the industry. Then we present the first attempts to STI inversion using our ray tracing algorithm. It is explained how we can calculate the partial derivatives of traveltimes with respect to the model parameters in TI media. Then the formulation used by the 3D reflection tomography software (called Jerry) developed by KIM research consortium (IFP) is presented, and the inversion method is applied to a synthetic STI example. Finally, the main points are summarized in the fifth chapter of thesis which is consecrated to conclusions and some perspectives to this study
Style APA, Harvard, Vancouver, ISO itp.
8

Lardin, Pauline. "Estimation de synchrones de consommation électrique par sondage et prise en compte d'information auxiliaire". Phd thesis, Université de Bourgogne, 2012. http://tel.archives-ouvertes.fr/tel-00842199.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous nous intéressons à l'estimation de la synchrone de consommation électrique (courbe moyenne). Etant donné que les variables étudiées sont fonctionnelles et que les capacités de stockage sont limitées et les coûts de transmission élevés, nous nous sommes intéressés à des méthodes d'estimation par sondage, alternatives intéressantes aux techniques de compression du signal. Nous étendons au cadre fonctionnel des méthodes d'estimation qui prennent en compte l'information auxiliaire disponible afin d'améliorer la précision de l'estimateur de Horvitz-Thompson de la courbe moyenne de consommation électrique. La première méthode fait intervenir l'information auxiliaire au niveau de l'estimation, la courbe moyenne est estimée à l'aide d'un estimateur basé sur un modèle de régression fonctionnelle. La deuxième l'utilise au niveau du plan de sondage, nous utilisons un plan à probabilités inégales à forte entropie puis l'estimateur de Horvitz-Thompson fonctionnel. Une estimation de la fonction de covariance est donnée par l'extension au cadre fonctionnel de l'approximation de la covariance donnée par Hájek. Nous justifions de manière rigoureuse leur utilisation par une étude asymptotique. Pour chacune de ces méthodes, nous donnons, sous de faibles hypothèses sur les probabilités d'inclusion et sur la régularité des trajectoires, les propriétés de convergence de l'estimateur de la courbe moyenne ainsi que de sa fonction de covariance. Nous établissons également un théorème central limite fonctionnel. Afin de contrôler la qualité de nos estimateurs, nous comparons deux méthodes de construction de bande de confiance sur un jeu de données de courbes de charge réelles. La première repose sur la simulation de processus gaussiens. Une justification asymptotique de cette méthode sera donnée pour chacun des estimateurs proposés. La deuxième utilise des techniques de bootstrap qui ont été adaptées afin de tenir compte du caractère fonctionnel des données
Style APA, Harvard, Vancouver, ISO itp.
9

Habibi, Muhammad Khoirul Khakim. "Optimisation d'une chaîne logistique inverse avec la prise en compte des processus de désassemblage". Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEM005.

Pełny tekst źródła
Streszczenie:
Il est connu que l'intégration des décisions dans les chaînes logistiques directes permet de proposer de meilleurs décisions. Dans cette thèse, une approche similaire est proposée pour une chaîne logistique inverse. Nous supposons que l'intégration de décisions concernant la collecte des produits en fin de vie avec celles de leur désassemblage permet d`optimiser la chaîne logistique inverse.D'abord, un problème déterministe, appelé le problème de collecte et désassemblage, intégrant les décisions de collecte de produits en fin de vie et la planification de leur désassemblage a été proposé et étudié. Etant donné qu'il n'y a pas d'instance de ce problème dans la littérature, les instances sont générées pour pouvoir effectuer les tests des modèles développés. Une comparaison de la formulation intégrée avec celle non-intégrée est effectuée. Selon les résultats obtenus, il s'avère que l'intégration permet d'optimiser les coûts totaux. Des méthodes approchées sont également proposées car le solveur CPLEX n'est pas capable de fournir les solutions optimales des instances de grand taille avec les temps de calcul acceptables. Ensuite, le problème est étendu en considérant l'incertitude sur les paramètres associés à la qualité et la quantité des produits en fin de vie et les demandes en composants. En considérant également la possibilité d'avoir plusieurs véhicules pour la collecte de produits en fin de vie, le problème stochastique de collecte et désassemblage dans sa version multi-véhicule est introduit. Sa formulation est développée sous forme d'une programmation stochastique en bi-niveau. Nous supposons qu'au moment de la planification, les paramètres incertains sont considérés comme des variables aléatoires avec des lois de distribution connues. Les réalisations de ces variables ne sont connues qu'au moment d'exécution du plan. Deux méthodes de résolution en utilisant une procédure d'approximation par échantillonnage sont implémentées afin de fournir les solutions.Finalement, un autre problème est également posé et étudié ou les décisions concernant la collecte de produits en fin de vie sont associées au problème de l'équilibrage de ligne de désassemblage
This dissertation supports and proposes better management in the implementation of the cir-cular economy by integrating activities of reverse supply chains. The hypothesis states thatintegrating decisions of at least two activities in reverse supply chain leads to better decisionsnotably the collection of End-of-Life products and their disassembly.A deterministic problem, called Collection-Disassembly Problem, integrating both collectionand disassembly processes as well as its formulation are introduced and developed. Due to lackof available instances in the literature, some instances are generated. Another non-integratedformulation is developed and solved using the commercial solver CPLEX. The obtained resultsshow that the integrated model proposes better decisions in terms of total cost. Some ap-proximate methods are developed because the commercial solver CPLEX is unable to provideoptimal solutions under acceptable CPU times notably for large size instances.An extended version of the problem is introduced due to the fact that reverse supply chainsfrequently deal with the uncertainty of certain parameters such as the quality and the quantityof End-of-Life products as well as the demands of components. Also, there is often more thanone vehicle available to collect the products. Thus, this second problem suggested which is calledStochastic Multi-Vehicle Collection-Disassembly Problem and its formulation is developed. Theproblem is formalised as two-stage stochastic programming by assuming that the parametersunder uncertainty follow some known probability distributions and their realisation comes afterthe planning stage. To provide the solutions, two methods combined with an algorithmicframework of Sample Average Approximation are developed.Another problem called Integrated Procurement-Disassembly Problem is also studied. Alongwith the decisions on collection process, this problem emphasises on the decisions of disassemblyline balancing problem
Style APA, Harvard, Vancouver, ISO itp.
10

Loubier, Eloïse. "Analyse et visualisation de données relationnelles par morphing de graphe prenant en compte la dimension temporelle". Phd thesis, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-00423655.

Pełny tekst źródła
Streszczenie:
Avec la mondialisation, l'entreprise doit faire face aux menaces de plus en plus fortes de la concurrence et à l'accélération des flux d'information. Pour cela, elle est amenée à rester continuellement informée des innovations, des stratégies de la concurrence et de l'état du marché tout en gardant la maîtrise de son environnement. Le développement d'Internet et la globalisation ont à la fois renforcé cette exigence, et fourni les moyens de collecter l'information qui, une fois synthétisée, prend souvent une forme relationnelle. Pour analyser le relationnel, le recours à la visualisation par des graphes apporte un réel confort aux utilisateurs, qui, de façon intuitive, peuvent s'approprier une forme de connaissance difficile à appréhender autrement.
Nos travaux conduisent à l'élaboration des techniques graphiques permettant la compréhension des activités humaines, de leurs interactions mais aussi de leur évolution, dans une perspective décisionnelle. Nous concevons un outil alliant simplicité d'utilisation et précision d'analyse se basant sur deux types de visualisations complémentaires : statique et dynamique.
L'aspect statique de notre modèle de visualisation repose sur un espace de représentation, dans lequel les préceptes de la théorie des graphes sont appliqués. Le recours à des sémiologies spécifiques telles que le choix de formes de représentation, de granularité, de couleurs significatives permet une visualisation plus juste et plus précise de l'ensemble des données. L'utilisateur étant au cœur de nos préoccupations, notre contribution repose sur l'apport de fonctionnalités spécifiques, qui favorisent l'identification et l'analyse détaillée de structures de graphes. Nous proposons des algorithmes qui permettent de cibler le rôle des données au sein de la structure, d'analyser leur voisinage, tels que le filtrage, le k-core, la transitivité, de retourner aux documents sources, de partitionner le graphe ou de se focaliser sur ses spécificités structurelles.
Une caractéristique majeure des données stratégiques est leur forte évolutivité. Or l'analyse statistique ne permet pas toujours d'étudier cette composante, d'anticiper les risques encourus, d'identifier l'origine d'une tendance, d'observer les acteurs ou termes ayant un rôle décisif au cœur de structures évolutives.
Le point majeur de notre contribution pour les graphes dynamiques représentant des données à la fois relationnelles et temporelles, est le morphing de graphe. L'objectif est de faire ressortir les tendances significatives en se basant sur la représentation, dans un premier temps, d'un graphe global toutes périodes confondues puis en réalisant une animation entre les visualisations successives des graphes attachés à chaque période. Ce procédé permet d'identifier des structures ou des événements, de les situer temporellement et d'en faire une lecture prédictive.
Ainsi notre contribution permet la représentation des informations, et plus particulièrement l'identification, l'analyse et la restitution des structures stratégiques sous jacentes qui relient entre eux et à des moments donnés les acteurs d'un domaine, les mots-clés et concepts qu'ils utilisent.
Style APA, Harvard, Vancouver, ISO itp.

Książki na temat "Comptage approximatif"

1

Kaoutar, Mustapha. Approximation linéaire par morceaux: Application au comptage de pas de barres d'un réacteur nucléaire et à la caracterisation des contours d'images. 1986.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii