Auswahl der wissenschaftlichen Literatur zum Thema „Données de taille variable“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Données de taille variable" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Données de taille variable"

1

El Bouhali, Mohamed, und Aicha El Alaoui. „Le lien entre la taille de la classe et la performance scolaire au Maroc : une étude économétrique“. International Journal of Financial Studies, Economics and Management 1, Nr. 3 (25.11.2022): 17–28. http://dx.doi.org/10.61549/ijfsem.v1i3.57.

Der volle Inhalt der Quelle
Annotation:
L’éducation est un secteur pivot pour un développement économique et social. Quoique l’école marocaine ait réalisé des acquis dans ce secteur, elle souffre encore des dysfonctionnements représentés par le faible rendement interne et externe. Parmi ces dysfonctionnements, on trouve la taille de la classe qui est plus grande en comparaison avec d’autres pays. Les études comparatives ne sont pas unanimes sur la nature du lien entre l’effectif des élèves dans une classe et la performance scolaire. Cette étude a pour objectif de montrer les limites de la modélisation par la régression linéaire standard et propose de modéliser cette relation en introduisant la variable instrumentale pour résoudre l’endogénéité de la variable « taille de classe ». Les données sont issues de la direction chargée de l’éducation au sein de la province EL KALAA des SRAGHNA de l’année scolaire 2018-2019. D’après les principaux résultats, la deuxième méthode montre des effets avantageux plus élevés que la première méthode. En effet, une baisse d’un élève par salle de cours conduit à une croissance de 0,4 % du taux de réussite au lieu 0,3 % d’augmentation si on utilise la régression linéaire standard.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Doggett, Amanda, Ashok Chaurasia, Jean-Philippe Chaput und Scott T. Leatherdale. „Utilisation des arbres de classification et de régression pour modéliser les données manquantes sur l’IMC, la taille et la masse corporelle chez les jeunes“. Promotion de la santé et prévention des maladies chroniques au Canada 43, Nr. 5 (Mai 2023): 257–69. http://dx.doi.org/10.24095/hpcdp.43.5.03f.

Der volle Inhalt der Quelle
Annotation:
Introduction Les données issues de mesures de l’indice de masse corporelle (IMC) autodéclarées par les jeunes comportent souvent de graves lacunes, ce qui peut avoir un effet important sur les résultats des recherches les utilisant. La première étape du traitementdes données manquantes consiste à étudier leur niveau et leur structuration. Or les études antérieures qui ont analysé les données manquantes sur l’IMC chez les jeunes ont utilisé une régression logistique, une approche limitée dans sa capacité à discerner des sous-groupes ou à obtenir une hiérarchie dans l’importance des variables, des dimensions pourtant susceptibles de contribuer grandement à la compréhension de la structuration des données manquantes. Methods Cette étude a utilisé des modèles d’arbre de classification et de régression (CART, pour classification and regression tree) stratifiés selon le sexe pour analyser les données manquantes sur la taille, la masse corporelle et l’IMC chez 74 501 jeunes participant à l’étude COMPASS 2018-2019 (une étude de cohorte prospective qui a porté sur les comportements de santé des jeunes canadiens), dans laquelle 31 % des données sur l’IMC étaient manquantes. Des variables telles que le régime alimentaire, le mouvement, les résultats scolaires, la santé mentale et l’utilisation de substances ont été étudiées afin de vérifier leurs associations avec les données manquantes sur la taille, la masse corporelle et l’IMC. Results D’après les modèles CART, le fait d’être à la fois plus jeune, de se sentir en surpoids, d’être moins actif physiquement et d’avoir une santé mentale moins bonne a produit des sous-groupes de filles et de garçons où il était très probable que des valeurs d’IMC soient manquantes. Les données manquantes sur l’IMC étaient moins probables chez les répondants de l’enquête plus âgés et ne se sentant pas en surpoids. Conclusion Si l’on se fie aux sous-groupes produits par les modèles CART, utiliser un échantillon au sein duquel les cas dont la valeur de l’IMC est manquante ont été supprimés conduirait à tenir davantage compte des jeunes en meilleure santé sur les plans physique, émotionnel et mental. Étant donné que les modèles CART sont aptes à discerner ces sous-groupes ainsi qu’à établir une hiérarchie dans l’importance des variables, ils constituent un outil précieux pour étudier la structuration des données manquantes et la manière appropriée de gérer ces dernières.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Djedidi, Amina. „Champs solides, méta-champs liquides : quels objets, méthodes et rapport au réel ?“ Communication & management Vol. 20, Nr. 1 (11.09.2023): 63–84. http://dx.doi.org/10.3917/comma.201.0063.

Der volle Inhalt der Quelle
Annotation:
Cet article montre la manière dont la recherche académique aborde le sujet des champs solides (terrains digitaux stables et ancrés) et les méta-champs liquides (terrains variables et contingents). En se basant sur l’analyse de 422 articles, cette recherche présente un panorama de méthodes de collecte et d’analyse de données ainsi que leur lien avec le réel. Cette richesse de méthodes rappelle à la fois : (a) l’omniprésence des méthodes conventionnelles des sciences sociales, (b) l’éclectisme grâce à l’adoption des méthodes computationnelles et digitales, (c) l’enrichissement de certaines méthodes conventionnelles par la nécessité de contenir l’importante taille des données de masse.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Dupuch, Sébastien, und Christelle Milan. „Les déterminants des investissements directs européens dans les pays d’Europe Centrale et Orientale“. Articles 81, Nr. 3 (05.06.2006): 521–34. http://dx.doi.org/10.7202/013040ar.

Der volle Inhalt der Quelle
Annotation:
Résumé Cet article s’intéresse aux déterminants des investissements directs étrangers européens dans les pays d’Europe centrale et orientale. L’estimation est effectuée en données de panel et porte sur la période 1993-1998. Nous montrons que les écarts de coûts salariaux entre les PECO ne constituent pas un facteur déterminant des investissements étrangers contrairement au différentiel de salaire entre les pays de l’Union européenne (UE) et les pays candidats. L’effet du capital humain apparaît sensible à la construction de la variable d’éducation et au choix de l’échantillon tandis que l’importance de la taille des marchés, de la proximité géographique et du choix de méthode de privatisation contribuent à expliquer les flux d’investissements directs européens à destination des PECO.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Engone Obiang, Nestor Laurier, Alfred Ngomanda, Lee White, Kathryn J. Jeffery, Eric Chézeaux und Nicolas Picard. „Un modèle de croissance pour l'azobé, Lophira alata, au Gabon“. BOIS & FORETS DES TROPIQUES 314, Nr. 314 (01.12.2012): 65. http://dx.doi.org/10.19182/bft2012.314.a20492.

Der volle Inhalt der Quelle
Annotation:
L'azobé, Lophira alata, est un important bois d'oeuvre d'Afrique centrale classé vulnérable dans la liste rouge de l'UICN. Bien que de nombreuses mesures de croissance aient été faites pour cette espèce, aucun modèle de croissance ne semble exister actuellement. L'objectif de ce travail était de faire la part, dans la croissance de l'azobé, entre l'effet de la taille de l'arbre et celui de la compétition locale. Un modèle de croissance a été ajusté pour l'azobé en utilisant les données de quatre sites de mesures au Gabon. Ce modèle de croissance a été conçu pour être utile à l'aménagement forestier, c'est-à-dire qu'il ne repose que sur des variables qui peuvent être calculées à partir des données d'inventaire forestier. Un modèle log-normal avec une réponse négative à la densité du peuplement et à sa surface terrière a été sélectionné. La relation entre la croissance et la taille de l'arbre était unimodale avec un maximum à 60 cm de diamètre à hauteur de poitrine. Un effet résiduel significatif du statut social de l'arbre a été trouvé (avec une croissance plus lente pour les arbres dominés) tandis qu'aucun effet résiduel du site n'a été trouvé.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Sousa Andrade, João, Maria Adélaïde Silva Duarte und Claude Berthomieu. „Le rôle de la dépense publique dans la croissance : le cas des pays de l’Union européenne“. Économie appliquée 59, Nr. 2 (2006): 29–63. http://dx.doi.org/10.3406/ecoap.2006.1798.

Der volle Inhalt der Quelle
Annotation:
Le ralentissement de la croissance économique ces dernières années a provoqué un renouveau d’intérêt en ce qui concerne le poids de la présence de l’État, la plupart du temps jugé excessif, surtout dans les économies européennes. Mais il faut prouver qu’il est excessif, et jusqu’à quel point. Ces questions doivent recevoir des réponses précises à partir de l’analyse économique. C’est ce que nous avons essayé de faire dans cette étude d’une façon tout à fait originale puisque nous posons empiriquement la question de l’endogéneité-exogéneité des dépenses publiques et la détermination de la «taille optimale» de l’État pour l’Union européenne (U.E.). Nous avons utilisé comme point de départ de notre analyse le modèle de Barro (1989) et nous avons appliqué les idées de cet auteur aux pays de l’U.E. pour la période allant de 1960 à 2002. L’étude empirique a été faite en panel et aussi en séries temporelles. On étudie un espace économique intégré et les différentes parties intégrantes. Les techniques économétriques utilisées sont adéquates aux données stationnaires et non-stationnaires. La taille de l’État se comporte comme une variable à mémoire longue ; en conséquence elle ne peut pas être considérée comme contrôlée en courte période. Nous avons aussi testé la Loi de Wagner pour l’U.E. L’application économétrique ne conduit pas, au niveau de l’ensemble des pays de l’U.E., à une «taille optimale» au sens du modèle de Barro. Au niveau individuel, ce modèle conduit, pour une partie de ces économies européennes, à des dimensions de la «taille optimale» de l’État bien supérieures aux dimensions effectives.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Aoudji, Augustin Kossi N., Anselme Adegbidi, Jean Cossi Ganglo und Philippe Lebailly. „Plantations de teck, Tectona grandis L.f., en sylviculture paysanne au Sud Bénin“. BOIS & FORETS DES TROPIQUES 319, Nr. 319 (01.01.2014): 7. http://dx.doi.org/10.19182/bft2014.319.a20554.

Der volle Inhalt der Quelle
Annotation:
Cette étude se place dans le cadre du système agricole pour caractériser les modes de culture du teck, Tectona grandis L.f., sur les petites exploitations au Sud Bénin, avec pour objectif de cerner des orientations politiques à même de valoriser le potentiel de la sylviculture paysanne. La question posée est la suivante : par quels moyens les petits agriculteurs intègrent-ils la sylviculture sur leurs exploitations ? Une évaluation empirique a été menée en se basant sur un échantillon de 221 petits exploitants sélectionnés par échantillonnage en grappes sur cinq communes du département de l'Atlantique. Les données ont été recueillies par le biais d'entretiens en tête-à-tête à l'aide d'un questionnaire standardisé. Une approche à variable multiples associant analyse typologique et analyse en composante principale (Acp) a permis d'établir une typologie des systèmes de plantation du teck. Cette typologie se base sur les critères suivants : objectifs de production, superficies plantées en teck, taille de l'exploitation et contribution de la main-d'oeuvre familiale à la production de bois. L'étude a permis d'identifier trois systèmes de plantation associés aux différentes stratégies d'intégration d'une activité de sylviculture paysanne. Ces trois systèmes ont été classés selon les critères suivants : " petite taille à main-d'oeuvre dominante " (33,48 % de l'échantillon), " taille moyenne à capital dominant " (37,56 %), et " grande taille à capital dominant " (28,96 %). Les exploitants se spécialisent dans la production de perches pour satisfaire la demande régionale de bois d'oeuvre à bas prix pour la construction urbaine. Les trois raisons principales motivant l'intégration des plantations de teck sont, dans l'ordre, la recherche de revenus, la satisfaction des besoins en bois de construction des ménages et la sécurisation des titres fonciers. Cependant, l'ordre des deux dernières est inversé dans le cas du système " grande taille à capital dominant ". La sécurité foncière et l'existence d'un marché domestique sont indispensables pour réussir le développement d'une sylviculture paysanne.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Adair, Philippe, und Mohamed Adaskou. „Théories financières et endettement des PME en France“. Revue internationale P.M.E. 24, Nr. 3-4 (24.01.2013): 137–71. http://dx.doi.org/10.7202/1013665ar.

Der volle Inhalt der Quelle
Annotation:
Nous présentons les hypothèses relatives aux deux principales théories financières de la structure d’endettement des PME — compromis et financement hiérarchique — en mettant l’accent sur les imperfections du financement : fiscalité, coûts d’agence et asymétrie d’information. Nous testons ces hypothèses, la variable expliquée étant le taux d’endettement total, grâce à un modèle linéaire de données de panel, sur un échantillon de 1 520 PME françaises observées durant la période 2000-2004. Selon nos résultats, à l’exception des garanties qui conditionnent l’accès au crédit, la théorie du compromis est infirmée au regard de la relation entre l’endettement et la taille ainsi que l’âge des PME ; la relation entre l’endettement et le taux d’investissement ainsi que le crédit interentreprises confirme la théorie du financement hiérarchique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Ziane, Ydriss. „La structure d’endettement des PME françaises: une étude sur données de panel“. Notes de recherche 17, Nr. 1 (16.02.2012): 123–38. http://dx.doi.org/10.7202/1008454ar.

Der volle Inhalt der Quelle
Annotation:
Cette contribution présente les résultats de tests d’hypothèses relatifs aux théories financières de la structure d’endettement des entreprises mettant l’accent sur la fiscalité et le risque de défaut ainsi que les coûts d’agence et l’asymétrie d’information. Nous testons, par le biais d’un modèle économétrique dynamique, une grille d’hypothèses basée sur la prise en compte de ces imperfections du marché du financement. L’échantillon considéré se compose de 2 880 PME françaises observées durant la période 1993-2000. Nos résultats révèlent que les niveaux d’endettement, liés positivement aux variables de tangibilité des actifs et de croissance et négativement à la rentabilité, varient sensiblement en fonction de la taille des firmes. Ainsi, le seuil de 20 salariés apparaît comme stratégique dans l’étude des comportements financiers des petites et moyennes entreprises françaises.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Sambou, Clément, Joseph Gniaka Kama, Souleymane Bousso und Fulgence Mansal. „La pérennité des PME au Sénégal : exploration des déterminants selon la taille de l’entreprise“. Revue Congolaise de Gestion Numéro 35, Nr. 1 (24.07.2023): 112–45. http://dx.doi.org/10.3917/rcg.035.0112.

Der volle Inhalt der Quelle
Annotation:
En Afrique comme ailleurs, les petites et moyennes entreprises (PME) occupent une place importante dans les économies. Toutefois, si certaines PME vivent plus longtemps, nombreuses sont celles sujettes à une mortalité précoce notamment en Afrique. Alors, dans quelle mesure le profil du dirigeant influence la pérennité des PME ? Aussi le déploiement de pratiques de gestion, l’accompagnement technique et financier favorisent-ils la pérennité des PME ? L’intensité concurrentielle de même que le secteur d’activité dans lequel exerce la PME sont-ils des variables à considérer ? La taille de l’entreprise joue-t-elle un rôle prépondérant ? Cette étude se propose de répondre à ces questions. Elle mobilise les données de 3582 PME issues de l’Enquête Nationale sur les PME (ENPME). Les résultats économétriques montrent que le capital investi, le profil du dirigeant, le secteur d’activités et le niveau de la concurrence ont des incidences plus importantes sur la pérennité des entreprises lorsqu’elles sont de petite taille. Le niveau d’éducation et le déploiement de pratiques de gestion déterminent davantage la pérennité des moyennes entreprises. L’accompagnement technique et financier n’y jouent pas un rôle prépondérant.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Données de taille variable"

1

Bijou, Mohammed. „Qualité de l'éducation, taille des classes et mixité sociale : Un réexamen à partir des méthodes à variables instrumentales et semi-paramétriques sur données multiniveaux - Cas du Maroc -“. Electronic Thesis or Diss., Toulon, 2021. http://www.theses.fr/2021TOUL2004.

Der volle Inhalt der Quelle
Annotation:
L’objectif de ce travail est d’évaluer la qualité du système éducatif marocain à partir des données du programme TIMSS et PIRLS 2011. Le travail s’articule autour de trois chapitres. Il s’agit d’étudier, dans le premier chapitre, l’influence des caractéristiques individuelles de l’élève et de l’école sur les performances scolaires, ainsi que le rôle important de l'environnement scolaire (effet taille et composition sociale). Dans le deuxième chapitre, nous cherchons à estimer la taille de classe optimale qui assure une réussite généralisée de tous les élèves des deux niveaux à savoir, la 4e année primaire et la 2e année collégiale. Le troisième chapitre propose d’étudier la relation existante entre la composition sociale et économique de l’établissement et la performance scolaire, tout en démontrant le rôle de la mixité sociale dans la réussite des élèves. Pour ce faire, nous avons utilisé différentes approches économétriques, à savoir une modélisation multiniveau avec correction du problème de l’endogénéité (chapitre 1), un modèle semi-paramétrique hiérarchique dans le (chapitre 2) et un modèle semi paramétrique hiérarchique contextuel (chapitre 3). Les résultats montrent que la performance scolaire est déterminée par plusieurs facteurs intrinsèques à l'élève et également contextuels. En effet, une taille de classe moins chargée et une école à composition sociale mixte sont les deux éléments essentiels pour un environnement favorable et un apprentissage assuré pour l’ensemble des élèves. Selon nos résultats, les pouvoirs publics devraient accorder la priorité à la réduction de la taille des classes en la limitant à 27 élèves au maximum. De plus, il est nécessaire d’envisager un assouplissement de la carte scolaire afin de favoriser la mixité sociale à l’école. Les résultats obtenus permettent une meilleure compréhension du système scolaire marocain, dans son aspect qualitatif et la justification des politiques éducatives pertinentes pour améliorer la qualité du système éducatif marocain
This thesis objective is to examine the quality of the Moroccan education system exploiting the data of the programs TIMSS and PIRLS 2011.The thesis is structured around three chapters. The first chapter examines the influence of individual student and school characteristics on school performance, as well as the important role of the school environment (effect of size and social composition). In the second chapter, we seek to estimate the optimal class size that ensures widespread success for all students at both levels, namely, the fourth year of primary school and the second year of college. The third chapter proposes to study the relationship between the social and economic composition of the school and academic performance, while demonstrating the role of social mix in student success. In order to study this relationship, we mobilize different econometric approaches, by applying a multilevel model with correction for the problem of endogeneity (chapter 1), a hierarchical semi-parametric model (chapter 2) and a contextual hierarchical semi-parametric model (chapter 3). The results show that academic performance is determined by several factors that are intrinsic to the student and also contextual. Indeed, a smaller class size and a school with a mixed social composition are the two essential elements for a favourable environment and assured learning for all students. According to our results, governments should give priority to reducing class size by limiting it to a maximum of 27 students. In addition, it is necessary to consider making the school map more flexible in order to promote social mixing at school. The results obtained allow a better understanding of the Moroccan school system, in its qualitative aspect and the justification of relevant educational policies to improve the quality of the Moroccan education system
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Sanchez, Théophile. „Reconstructing our past ˸ deep learning for population genetics“. Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG032.

Der volle Inhalt der Quelle
Annotation:
Avec l'explosion des technologies de séquençage, de plus en plus de données génomiques sont disponibles, ouvrant la voie à une connaissance approfondie des forces évolutives en œuvre et en particulier de l'histoire démographique des populations. Toutefois, extraire l'information intéressante de ces données massives de manière efficace reste un problème ouvert. Compte tenu de leurs récents succès en apprentissage statistique, les réseaux de neurones artificiels sont un candidat sérieux pour mener à bien une telle analyse. Ces méthodes ont l'avantage de pouvoir traiter des données ayant une grande dimension, de s'adapter à la plupart des problèmes et d'être facilement mis à l'échelle des moyens de calcul disponibles. Cependant, leur performance dépend fortement de leur architecture qui requiert d'être en adéquation avec les propriétés des données afin d'en tirer le maximum d'information. Dans ce cadre, cette thèse présente de nouvelles approches basées sur l'apprentissage statistique profond, ainsi que les principes permettant de concevoir des architectures adaptées aux caractéristiques des données génomiques. L'utilisation de couches de convolution et de mécanismes d'attention permet aux réseaux présentés d'être invariants aux permutations des haplotypes échantillonnés et de s'adapter à des données de dimensions différentes (nombre d'haplotypes et de sites polymorphes). Les expériences conduites sur des données simulées démontrent l'efficacité de ces approches en les comparant à des architectures de réseaux plus classiques, ainsi qu'à des méthodes issues de l'état de l'art. De plus, la possibilité d'assembler les réseaux de neurones à certaines méthodes déjà éprouvées en génétique des populations, comme l'approximate Bayesian computation, permet d'améliorer les résultats et de combiner leurs avantages. La praticabilité des réseaux de neurones pour l'inférence démographique est testée grâce à leur application à des séquences génomiques complètes provenant de populations réelles de Bos taurus et d'Homo sapiens. Enfin, les scénarios obtenus sont comparés aux connaissances actuelles de l'histoire démographique de ces populations
Constant improvement of DNA sequencing technology that produces large quantities of genetic data should greatly enhance our knowledge of evolution, particularly demographic history. However, the best way to extract information from this large-scale data is still an open problem. Neural networks are a strong candidate to attain this goal, considering their recent success in machine learning. These methods have the advantages of handling high-dimensional data, adapting to most applications and scaling efficiently to available computing resources. However, their performance dependents on their architecture, which should match the data properties to extract the maximum information. In this context, this thesis presents new approaches based on deep learning, as well as the principles for designing architectures adapted to the characteristics of genomic data. The use of convolution layers and attention mechanisms allows the presented networks to be invariant to the sampled haplotypes' permutations and to adapt to data of different dimensions (number of haplotypes and polymorphism sites). Experiments conducted on simulated data demonstrate the efficiency of these approaches by comparing them to more classical network architectures, as well as to state-of-the-art methods. Moreover, coupling neural networks with some methods already proven in population genetics, such as the approximate Bayesian computation, improves the results and combines their advantages. The practicality of neural networks for demographic inference is tested on whole genome sequence data from real populations of Bos taurus and Homo sapiens. Finally, the scenarios obtained are compared with current knowledge of the demographic history of these populations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Caron, Eddy. „Calcul numérique sur données de grande taille“. Amiens, 2000. https://tel.archives-ouvertes.fr/tel-01444591.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Manouvrier, Maude. „Objets similaires de grande taille dans les bases de données“. Paris 9, 2000. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2000PA090033.

Der volle Inhalt der Quelle
Annotation:
Le but de notre recherche est d'aborder les problèmes de versions d'objets de grande taille dans les bases de données. Les images sont des objets de grande taille, faiblement structurés, qu'il est possible d'organiser par des structures telles que l'arbre quaternaire. En traitement d'images, les utilisateurs ont besoin de conserver différents états d'une même image, chaque état correspondant au résultat d'une opération ou d'une série d'opérations particulières sur l'image. Ces états peuvent être considérés comme des versions d'images. Nous proposons une structure, l'arbre quaternaire générique, qui stocke des images similaires, la similarité étant définie par une distance entre les arbres quaternaires représentant les images. Deux images sont similaires si leurs arbres quaternaires diffèrent seulement sur un nombre relativement faible de nuds. L'arbre quaternaire générique minimise l'espace de stockage, par partage de parties communes entre images, et permet d'appliquer des opérations sur les images, comme la comparaison d'images, la comparaison d'une même région dans différentes images ou la mise à jour simultanée de différentes images. Les objets de grande taille, fortement structurés, se trouvent naturellement dans les SGBDOO, lors de la manipulation de racines de persistance (ensemble d'identificateurs d'objets), par exemple. Nos travaux permettent également de répondre aux problèmes de redondance lors du stockage des versions d'ensemble ou de collection d'objets. Ces objets de grande taille sont gérés le plus souvent a l'aide de structures d'index comme les arbres b+. Nous proposons des mécanismes de gestion de versions d'arbre b+ pour optimiser la gestion de versions de collection d'objets. Les mécanismes proposés dans cette thèse peuvent être généralisés aux structures d'index arborescentes en général, offrant par conséquent un large domaine d'applications couvrant en particulier les systèmes d'informations géographiques et les entrepôts de données.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Goddard, Jean-Philippe. „Synthèse de molécules de taille variable par polyhomologation de composés borés“. Paris 11, 2002. http://www.theses.fr/2002PA112064.

Der volle Inhalt der Quelle
Annotation:
Lors de ce travail, nous avons développé une méthode de synthèse originale permettant d'accéder à des mélanges de molécules de taille variable dans le but de découvrir de nouvelles molécules complexantes du césium. Cette méthode fait intervenir une réaction de polyhomologation de composés borés à l'aide de nucléophiles comportant un groupement partant en alpha de la charge négative. Nous avons testé différentes familles de nucléophiles comme les anions de sulfones, les ylures de sulfonium, les anions d'hydrazones, le triméthylsilyldiazométhane et les ylures d'arsonium. Les trois premières familles ne nous ont pas permis de réaliser des réactions de polyhomologation. Le triméthylsilyldiazométhane ne possède pas non plus la capacité à réaliser des réactions d'insertions successives mais cette propriété a été exploitée pour proposer une transformation chimique d'un alcène en alkylméthanol correspondant. Les ylures d'arsonium ont permis de réaliser des réactions de polyhomologation avec des boronates et des boranes. Les ylures d'alkylarsonium ont été utilisés pour former des polymères de taille contrôlée possédant une ramification sur chacun des atomes de carbones de la chaîne principale. Ce type de polymère n'est pas accessible par les méthodes de polymérisation actuelles. Les ylures d'allylarsonium possèdent une réactivité particulière puisque les boranes allyliques formés lors des réactions d'insertion subissent un réarrangement sigmatropique [1,3] avant de réagir de nouveau avec un ylure. Il est ainsi possible d'accéder à des polymères de grande taille dont la structure est proche de celle du caoutchouc naturel. Par cette méthode il est possible d'accéder à des polymères linéaires ou cycliques. Cette méthode est actuellement en cours de développement au laboratoire pour former des structures complexantes du césium
During this work, we developed a method of original synthesis allowing to lead mixtures of molecules of variable size with an aim of discovering new chelating molecules of cesium. This method utilizes a reaction of polyhomologation of borated compounds with the nucleophilic ones comprising a grouping leaving in alpha of the negative charge. We tested various families from nucleophilic like anions of sulfones, sulfonium ylides, anions of hydrazones, triméthylsilyldiazométhane and arsonium ylides. The first three families did not allow us to carry out reactions of polyhomologation. The triméthylsilyldiazométhane posséde not either the capacity to carry out reactions successive insertions but this property was exploited to propose a chemical conversion of olefinic hydrocarbon into alkylmethanol corresponding. The arsonium ylides made it possible to carry out reactions of polyhomologation with boronates and boranes. The alkylarsonium ylides were used to form polymers of controlled size having a ramification on each carbon atom of the principal chain. This type of polymer is not accessible by the current methods of polymerization. The allylarsonium ylides have a particular reactivity since the allyl boranes formed during the insertion reactions undergo a sigmatropic [1,3] rearrangement before reacting again with a ylide. It is thus possible to lead with polymers of big size to which the structure is close to that of the natural rubber. By this method it is possible to lead with linear or cyclic polymers. This method is currently under development at the laboratory to form chelating structures of cesium
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Uribe, Lobello Ricardo. „Génération de maillages adaptatifs à partir de données volumiques de grande taille“. Thesis, Lyon 2, 2013. http://www.theses.fr/2013LYO22024.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous nous sommes intéressés au problème de l'extraction d'une surface à partir de la représentation volumique d'un objet. Dans ce but, nous nous sommes concentrés sur les méthodes de division spatiale. Ces approches divisent le volume afin de construire une approximation par morceaux de la surface de l'objet. L'idée générale consiste à faire des approximations surfaciques locales qui seront ensuite combinées pour extraire une surface unique représentant l'objet. Les approches basées sur l'algorithme " Marching Cubes " (MC) présentent des défaut par rapport à la qualité et l'adaptativité de la surface produite. Même si une considérable quantité d'améliorations ont été apportées à la méthode originale, la plus grande partie des algorithmes fournissent la solution à un ou deux défauts mais n'arrivent pas à surmonter toutes ses limitations.Les méthodes duales sont plus adaptées pour utiliser un échantillonnage adaptatif sur le volume d'intérêt. Ces méthodes reposent sur la génération de surfaces duales à celles construites par MC ou se basent sur des grilles duales. Elles construisent des maillages moins denses et en même temps capables de mieux approcher les détails de l'objet. De plus, des améliorations récentes garantissent que les maillages extraits ont de bonnes propriétés topologiques et géométriques.Nous avons étudié les caractéristiques spécifiques des objets volumiques par rapport à leur géométrie et à leur topologie. Nous avons exploré l'état de l'art sur les approches de division spatiale afin d'identifier leurs avantages et leurs inconvénients ainsi que les implications de leur utilisation sur des objets volumiques. Nous avons conclu qu'une approche duale était la mieux adaptée pour obtenir un bon compromis entre qualité du maillage et qualité de l'approximation. Dans un second temps, nous avons proposé et développé un pipeline de génération de surfaces basé sur une combinaison d'une approche duale et de la recherche de composantes connexes n-dimensionnels pour mieux reproduire la topologie et la géométrie des objets originels. Dans un troisième temps, nous avons présenté une extension "out-of-core" de notre chaîne de traitements pour l'extraction des surfaces à partir de grands volumes. Le volume est divisé pour générer des morceaux de surface de manière indépendante et garde l'information nécessaire pour les connecter afin de produire une surface unique topologiquement correcte.L'approche utilisée permet de paralléliser le traitement pour accélérer l'obtention de la surface. Les tests réalisés ont permis de valider la méthode sur des données volumiques massives
In this document, we have been interested in the surface extraction from the volumetric representation of an object. With this objective in mind, we have studied the spatial subdivision surface extraction algorithms. This approaches divide the volume in order to build a piecewise approximation of the surface. The general idea is to combine local and simple approximations to extract a complete representation of the object's surface.The methods based on the Marching Cubes (MC) algorithm have problems to produce good quality and to handle adaptive surfaces. Even if a lot of improvements to MC have been proposed, these approaches solved one or two problems but they don't offer a complete solution to all the MC drawbacks. Dual methods are more adapted to use adaptive sampling over volumes. These methods generate surfaces that are dual to those generated by the Marching Cubes algorithm or dual grids in order to use MC methods. These solutions build adaptive meshes that represent well the features of the object. In addition, recent improvements guarantee that the produced meshes have good geometrical and topological properties.In this dissertation, we have studied the main topological and geometrical properties of volumetric objects. In a first stage, we have explored the state of the art on spatial subdivision surface extraction methods in order to identify theirs advantages, theirs drawbacks and the implications of theirs application on volumetric objects. We have concluded that a dual approach is the best option to obtain a good compromise between mesh quality and geometrical approximation. In a second stage, we have developed a general pipeline for surface extraction based on a combination of dual methods and connected components extraction to better capture the topology and geometry of the original object. In a third stage, we have presented an out-of-core extension of our surface extraction pipeline in order to extract adaptive meshes from huge volumes. Volumes are divided in smaller sub-volumes that are processed independently to produce surface patches that are later combined in an unique and topologically correct surface. This approach can be implemented in parallel to speed up its performance. Test realized in a vast set of volumes have confirmed our results and the features of our solution
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Lê, Thanh Vu. „Visualisation interactive 3D pour un ensemble de données géographiques de très grande taille“. Pau, 2011. http://www.theses.fr/2011PAUU3005.

Der volle Inhalt der Quelle
Annotation:
La visualisation temps réel du terrain reste depuis longtemps un domaine de recherche actif dans de nombreuses applications informatiques comme les systèmes d’information géographique (SIG), les jeux en 3D ou la réalité virtuelle. L’évolution des techniques d’acquisitions de données et l’amélioration des techniques de visualisation nous apportent une augmentation considérable dans la résolution des données pour les modèles numérique de terrain (MNT) et dans les nouvelles méthodes d’affichage pour représenter ces informations. Dans cette thèse, nous présentons notre framework de rendu de terrain que nous résumons ici en plusieurs contributions : notre première contribution consiste en une architecture simple et efficace qui permet de visualiser des terrains de très grande taille. La méthode utilisée permet de travailler hors mémoire centrale en utilisant une structure de données de type quadtree tout en étant capable de garder une précision de la géométrie et de la couleur au niveau pixel grâce aux différents critères de subdivision. Notre architecture sépare la gestion des données raster sur le CPU et l’affichage en 3D effectuée sur le GPU. Notre deuxième contribution est une méthode originale pour enlever les artéfacts qui apparaissent sur la jointure entre la frontière des blocs de quadtree, nous générons une surface continue sans avoir besoin d’utiliser de maillages supplémentaires. Notre dernière contribution est une méthode efficace adaptée avec notre structure de données pour le geomorphing, cette dernière peut être implémentée entièrement sur le GPU. Par rapport aux méthodes existantes, nos méthodes présentent de nombreux avantages : il n’y a pas de gestion de maillage dans la structure de données ; la complexité du terrain est contrôlable jusqu’au niveau du pixel et dépend de la projection d’erreur métrique, le terrain de basse précision géométrique obtient toujours une bonne précision en ce qui concerne la silhouette des objets grâce à la technique dite du normal ; une grande vitesse d’interaction et de rendu grâce au chargement de données à la demande ; et enfin une transformation similaire pour la géométrie et la texture qui facilite la gestion de données par le CPU
Real-time terrain rendering remains an active area of research for a lot of modern computer based applications such as geographic information systems (GIS), interactive 3D games, flights simulators or virtual reality. The technological breakthroughs in data aquisition, coupled with recent advances in display technology have simultaneously led to substantial increases in resolution of both the Digital Elevation Models (DEM) and the various displays used to present this information. In this phD, we have presented a new out-of-core terrain visualization algorithm that achieves per-pixel accurate shading of large textured elevation maps in real-time : our first contribution is the LOD scheme which is based on a small precomputed quadtree of geometric errors, whose nodes are selected for asynchronous loading and rendering depending on a projection in screenspace of those errors. The terrain data and its color texture are manipulated by the CPU in a unified manner as a collection of raster image patches, whose dimensions depends on their screen-space occupancy ; our second contribution is a novel method to remove artifacts that appear on the border between quadtree blocks, we generate a continuous surface without needing additional mesh ; our latest contribution is an effective method adapted to our data structure for the geomorphing, it can be implemented entirely on the GPU. The presented framework exhibits several interesting features over other existing techniques : there is no mesh manipulation or mesh data structures required ; terrain geometric complexity only depends on projected elevation error views from above result in very coarse meshes), lower geometric complexity degrades terrain silhouettes but not details brought in through normal map shading, real-time rendering with support for progressive data loading ; and geometric information and color textures are similarly and efficiently handled as raster data by the CPU. Due to simplified data structures, the system is compact, CPU and GPU efficient and is simple to implement
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Allart, Thibault. „Apprentissage statistique sur données longitudinales de grande taille et applications au design des jeux vidéo“. Thesis, Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1136/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'intéresse à l'analyse des données longitudinales, potentiellement grandes selon les trois axes suivants : nombre d'individus, fréquence d'observation et nombre de covariables. A partir de ces données, éventuellement censurées, nous considérons comme facteur d'étude le temps d'apparition d'un ou plusieurs évènements. Nous cherchons dans des classes de modèles à coefficients dépendant du temps à estimer l’intensité d’apparition des événements. Or les estimateurs actuels, ne permettent pas de traiter efficacement un grand nombre d’observations et/ou un grand nombre de covariables. Nous proposons un nouvel estimateur défini via la vraisemblance complète de Cox et une pénalisation permettant à la fois la sélection de variables et de forcer, quand c’est possible, les coefficients à être constants. Nous introduisons des algorithmes d'optimisation proximaux, permettant d'estimer les coefficients du modèle de manière efficace. L'implémentation de ces méthodes en C++ et dans le package R coxtv permet d'analyser des jeux de données de taille supérieure à la mémoire vive; via un streaming du flux de données et des méthodes d'apprentissage en ligne, telles que la descente de gradient stochastique proximale aux pas adaptatifs. Nous illustrons les performances du modèle sur des simulations en nous comparant aux méthodes existantes. Enfin, nous nous intéressons à la problématique du design des jeux vidéo. Nous montrons que l'application directe de ce modèle, sur les grands jeux de données dont dispose l'industrie du jeu vidéo, permet de mettre en évidence des leviers d'amélioration du design des jeux étudiés. Nous nous intéressons d'abord à l'analyse des composantes bas niveau, telles que les choix d'équipement fait par les joueurs au fils du temps et montrons que le modèle permet de quantifier l'effet de chacun de ces éléments de jeu, offrant ainsi aux designers des leviers d'amélioration direct du design. Enfin, nous montrons que le modèle permet de dégager des enseignements plus généraux sur le design tels que l'influence de la difficulté sur la motivation des joueurs
This thesis focuses on longitudinal time to event data possibly large along the following tree axes : number of individuals, observation frequency and number of covariates. We introduce a penalised estimator based on Cox complete likelihood with data driven weights. We introduce proximal optimization algorithms to efficiently fit models coefficients. We have implemented thoses methods in C++ and in the R package coxtv to allow everyone to analyse data sets bigger than RAM; using data streaming and online learning algorithms such that proximal stochastic gradient descent with adaptive learning rates. We illustrate performances on simulations and benchmark with existing models. Finally, we investigate the issue of video game design. We show that using our model on large datasets available in video game industry allows us to bring to light ways of improving the design of studied games. First we have a look at low level covariates, such as equipment choices through time and show that this model allows us to quantify the effect of each game elements, giving to designers ways to improve the game design. Finally, we show that the model can be used to extract more general design recommendations such as dificulty influence on player motivations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Allart, Thibault. „Apprentissage statistique sur données longitudinales de grande taille et applications au design des jeux vidéo“. Electronic Thesis or Diss., Paris, CNAM, 2017. http://www.theses.fr/2017CNAM1136.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'intéresse à l'analyse des données longitudinales, potentiellement grandes selon les trois axes suivants : nombre d'individus, fréquence d'observation et nombre de covariables. A partir de ces données, éventuellement censurées, nous considérons comme facteur d'étude le temps d'apparition d'un ou plusieurs évènements. Nous cherchons dans des classes de modèles à coefficients dépendant du temps à estimer l’intensité d’apparition des événements. Or les estimateurs actuels, ne permettent pas de traiter efficacement un grand nombre d’observations et/ou un grand nombre de covariables. Nous proposons un nouvel estimateur défini via la vraisemblance complète de Cox et une pénalisation permettant à la fois la sélection de variables et de forcer, quand c’est possible, les coefficients à être constants. Nous introduisons des algorithmes d'optimisation proximaux, permettant d'estimer les coefficients du modèle de manière efficace. L'implémentation de ces méthodes en C++ et dans le package R coxtv permet d'analyser des jeux de données de taille supérieure à la mémoire vive; via un streaming du flux de données et des méthodes d'apprentissage en ligne, telles que la descente de gradient stochastique proximale aux pas adaptatifs. Nous illustrons les performances du modèle sur des simulations en nous comparant aux méthodes existantes. Enfin, nous nous intéressons à la problématique du design des jeux vidéo. Nous montrons que l'application directe de ce modèle, sur les grands jeux de données dont dispose l'industrie du jeu vidéo, permet de mettre en évidence des leviers d'amélioration du design des jeux étudiés. Nous nous intéressons d'abord à l'analyse des composantes bas niveau, telles que les choix d'équipement fait par les joueurs au fils du temps et montrons que le modèle permet de quantifier l'effet de chacun de ces éléments de jeu, offrant ainsi aux designers des leviers d'amélioration direct du design. Enfin, nous montrons que le modèle permet de dégager des enseignements plus généraux sur le design tels que l'influence de la difficulté sur la motivation des joueurs
This thesis focuses on longitudinal time to event data possibly large along the following tree axes : number of individuals, observation frequency and number of covariates. We introduce a penalised estimator based on Cox complete likelihood with data driven weights. We introduce proximal optimization algorithms to efficiently fit models coefficients. We have implemented thoses methods in C++ and in the R package coxtv to allow everyone to analyse data sets bigger than RAM; using data streaming and online learning algorithms such that proximal stochastic gradient descent with adaptive learning rates. We illustrate performances on simulations and benchmark with existing models. Finally, we investigate the issue of video game design. We show that using our model on large datasets available in video game industry allows us to bring to light ways of improving the design of studied games. First we have a look at low level covariates, such as equipment choices through time and show that this model allows us to quantify the effect of each game elements, giving to designers ways to improve the game design. Finally, we show that the model can be used to extract more general design recommendations such as dificulty influence on player motivations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Pham, Thi Thuy Ngoc. „Estimation de mouvement avec bloc de taille variable et application dans un réducteur de bruit“. Mémoire, Université de Sherbrooke, 2005. http://savoirs.usherbrooke.ca/handle/11143/1320.

Der volle Inhalt der Quelle
Annotation:
Une séquence vidéo, une source riche d'information visuelle, possède une corrélation élevée dans la direction du mouvement entre les images consécutives. Cette corrélation peut être utilisée dans plusieurs applications comme le codage, la réduction du bruit, l'interpolation temporelle, etc. Pour l'exploiter, les méthodes d'estimation de mouvement qui sont à la fois efficaces et rapides sont vraiment nécessaires. Dans ce mémoire, une nouvelle méthode d'estimation de mouvement basée sur l'appariement de bloc et la recherche exhaustive de vecteur de mouvement sera proposée. Grâce à un nouveau critère d'évaluation, son coût de calcul est inférieur à celui de la méthode de recherche exhaustive existant. De plus, la taille de bloc, qui est variable, permet de bien estimer les zones des détails en mouvement. Sa performance peut être comparable à la méthode de recherche exhaustive. La compensation de mouvement avec bloc à recouvrement qui réduit l'artefact de bloc et l'erreur de prédiction, est aussi proposée. La combinaison des méthodes d'estimation et de compensation de mouvement sera appliquée à la réduction temporelle du bruit afin de préserver les fréquences élevées des images traitées. Le réducteur de bruit développé comprend deux composantes: un réducteur temporel avec compensation de mouvement et un réducteur spatial.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Bücher zum Thema "Données de taille variable"

1

Drolet, Marie. Données récentes canadiennes sur la qualité des emplois selon la taille des entreprises. Ottawa, Ont: Direction des études analytiques, Statistique Canada, 1998.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

analytiques, Statistique Canada Direction des études. Tendances dans la répartition de l'emploi selon la taille des employeurs: Données canadiennes récentes. Ottawa, Ont: Statistique Canada, 1991.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Faust, Lisa J., Claudine André, Raphaël Belais, Fanny Minesi, Zjef Pereboom, Kerri Rodriguez und Brian Hare. Bonobo population dynamics: Past patterns and future predictions for the Lola ya Bonobo population using demographic modelling. Oxford University Press, 2018. http://dx.doi.org/10.1093/oso/9780198728511.003.0018.

Der volle Inhalt der Quelle
Annotation:
Wildlife sanctuaries rescue, rehabilitate, reintroduce and provide life-long care for orphaned and injured animals. Understanding a sanctuary’s population dynamics—patterns in arrival, mortality and projected changes in population size—allows careful planning for future needs. Building on previous work on the population dynamics of chimpanzees (Pan troglodytes) in sanctuaries of the Pan African Sanctuary Alliance (PASA; Faust et al. 2011), this chapter extends analyses to the only PASA bonobo sanctuary. Its authors analysed historic demographic patterns and projected future population dynamics using an individual-based demographic model. The population has been growing at 6.7 per cent per year, driven by arrivals of new individuals (mean = 5.5 arrivals per year). Several model scenarios projecting varying arrival rates, releases and breeding scenarios clarify potential future growth trajectories for the sanctuary. This research illustrates how data on historic dynamics can be modelled to inform future sanctuary capacity and management needs. Les sanctuaires de faune secourent, réhabilitent, réintroduisent, et fournissent des soins pour toute la vie aux animaux orphelins et blessés. Comprendre les dynamiques de la population d’un sanctuaire—les motifs d’arrivée, mortalité, et de changements projetés de la taille de la population—permet une planification prudente pour les nécessités du futur. En se basant sur le travail déjà fait sur les dynamiques de la population chimpanzé (Pan troglodytes) dans les sanctuaires du Pan African Sanctuary Alliance (PASA; Faust et al. 2011), nous étendons notre analyse au seul sanctuaire bonobo par PASA. Nous avons analysé les motifs démographiques historiques et avons projeté les futures dynamiques de la population en utilisant un modèle démographique basé sur l’individu. La population augmente de 6.7 per cent par an, poussée par l’arrivée de nouveaux individus (moyenne = 5.5 arrivées par an). Plusieurs scénarios modèles montrent une trajectoire de potentielle croissance pour le sanctuaire. Cette recherche illustre comment modeler les données sur les dynamiques historiques pour informer la capacité future du sanctuaire et les besoins gestionnaires.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Données de taille variable"

1

„CHAPITRE 2 FONCTIONS D'UNE VARIABLE ALÉATOIRE“. In Analyse statistique de données expérimentales, 51–74. EDP Sciences, 2002. http://dx.doi.org/10.1051/978-2-7598-0113-8.c004.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Lafourcade, Mathieu, und Nathalie Lebrun. „Vers un réseau lexico-sémantique de grande taille obtenu par crowdsourcing“. In Le Crowdsourcing, 75–94. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.3913.

Der volle Inhalt der Quelle
Annotation:
Le projet JeuxDeMots vise à construire une grande base de connaissances de sens commun (et de spécialité), en français, à l’aide de jeux (GWAPs – Games With A Purpose), d’approches contributives, mais également de mécanismes d’inférences. Une dizaine de jeux ont été conçus dans le cadre du projet, chacun permettant de collecter des informations spécifiques, ou de vérifier la qualité de données acquises via un autre jeu. Cet article s’attachera à décrire la nature des données que nous avons collectées et construites, depuis le lancement du projet durant l’été 2007. Nous décrirons en particulier les aspects suivants : la structure du réseau lexical et sémantique JeuxDeMots, certains types de relations (sémantiques, ontologiques, subjectives, rôles sémantiques, associations d’idées, etc.), les questions d’activation et d’inhibition, l’annotation de relations (méta-informations), les raffinements sémantiques (gestion de la polysémie), la création de termes agglomérés permettant la représentation de connaissances plus riches (relations à n-arguments).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Mangeot, Mathieu, und Mutsuko Tomokiyo. „Contributions et corrections dans le dictionnaire japonais-français jibiki.fr“. In Lexique(s) et genre(s) textuel(s) : approches sur corpus, 259–70. Editions des archives contemporaines, 2020. http://dx.doi.org/10.17184/eac.2922.

Der volle Inhalt der Quelle
Annotation:
Concernant le couple de langues français-japonais, les ressources disponibles sur le Web sont peu nombreuses et de taille modeste. Il existe cependant de nombreux dictionnaire imprimés de qualité et à large couverture. C’est pourquoi nous avons lancé le projet jibiki.fr de construction d’un dictionnaire japonais-français de qualité et à large couverture à partir de récupération de données issues du dictionnaire de Jean-Baptiste Cesselin (1940) que nous avons numérisé et lu optiquement. Nous avons complété ces données par d’autres issues du dictionnaire JMdict de Jim Breen (2004) et de Wikipedia pour pallier le manque de vocabulaire récent. Nous avons ensuite installé ces données sur une plateforme de gestion de ressources lexicales en ligne. Les utilisateurs peuvent alors consulter le dictionnaire et corriger les erreurs qu’ils trouvent lors de la consultation. La plateforme possède également une interface de programmation (API) qui permet de programmer des scripts afin de corriger automatiquement certains phénomènes repérés lors de consultations. La ressource ainsi construite est disponible en téléchargement libre de droits. Cet article décrit certaines techniques de correction automatique et manuelle à l’issue des 3 ans et demi du projet.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Lemaire, Claire, und Jean-Philippe Guilbaud. „Corpus de registres différents pour le développement d’un aligneur d’unités polylexicales“. In Lexique(s) et genre(s) textuel(s) : approches sur corpus, 13–24. Editions des archives contemporaines, 2020. http://dx.doi.org/10.17184/eac.2906.

Der volle Inhalt der Quelle
Annotation:
Comment trouver des données exprimant les mêmes concepts dans des registres de langue différents ? Après un essai infructueux d’extraction terminologique à partir de corpus comparables spécialisés dans le domaine du médical dans trois langues différentes (anglais, allemand, français), l’idée est d’ajouter pour chaque langue des sous-corpus du registre vulgarisé afin d’y détecter des relations de synonymie. Or ce type de ressources n’existe pas pour l’allemand de spécialité dans le domaine du médical. Nous présentons la constitution d’un corpus de 400 000 mots en allemand dans le domaine de la cancérologie, subdivisé en deux sous-corpus de même taille. À partir d’équivalents en allemand du mot-clé «cancer du sein», nous avons recueilli pour un premier sous-corpus, des textes qui s’adressent à des patientes (et des patients) ou à leurs familles, et pour un second sous-corpus, des textes qui s’adressent à des médecins ou des chercheurs en médecine.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

ATTO, Abdourrahmane M., Héla HADHRI, Flavien VERNIER und Emmanuel TROUVÉ. „Apprentissage multiclasse multi-étiquette de changements d’état à partir de séries chronologiques d’images“. In Détection de changements et analyse des séries temporelles d’images 2, 247–71. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9057.ch6.

Der volle Inhalt der Quelle
Annotation:
Ce chapitre étudie les capacités de généralisation d’une bibliothèque de réseaux de neurones convolutifs pour la classification d’états de surface terrestre dans le temps, avec une granularité variable sur la nature des états. L’ensemble de données utilisé pour réaliser cette étude est constitué d'images à sémantique descriptible au sens de propriétés géophysiques et des impacts des conditions météorologiques en zone de glaciers.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Chassonnery-Zaïgouche, Cléo, Léontine Goldzahl und Charlotte Levionnois. „Quantifier les discriminations raciales entre données d’enquête et données expérimentales : l’évolution du rôle du chercheur dans la construction de la variable « race »“. In L’évident et l’invisible, 73–97. Éditions de la Sorbonne, 2020. http://dx.doi.org/10.4000/books.psorbonne.86239.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

BERTUCCI, Marie-Madeleine, und Mounia ILLOURMANNE. „Transcrire un corpus audio dans la perspective de la préservation du patrimoine culturel immatériel.“ In Corpus audiovisuels, 115–24. Editions des archives contemporaines, 2022. http://dx.doi.org/10.17184/eac.5704.

Der volle Inhalt der Quelle
Annotation:
Résumés Marie-Madeleine Bertucci L’article a pour objet « l’étude de la mise en mots de la mémoire des « Chibanis » du quartier de la Goutte d’or à Paris » à partir d’un corpus d’entretiens biographiques audio. Ces entretiens ont été réalisés par Jean-Marc Bombeau, dans les locaux de la galerie associative l’Échomusée, située rue Cavé dans le XVIIIe arrondissement de Paris, avec un groupe de Chibanis ou anciens du quartier de 2010 à 2012. Cette étude discursive mémorielle est le sujet de la thèse de Mounia Illourmane. Ces entretiens font émerger la mémoire de ces acteurs sociaux en les conduisant à jeter un regard rétrospectif et réflexif sur leur passé, de leur arrivée à Paris dans les années soixante, dans le cadre d’une immigration de travail jusqu’à leur retraite qui prend effet dans la période contemporaine. Ils autorisent l’émergence d’un processus de patrimonialisation de données mémorielles qui constituent le socle d’un patrimoine immatériel. Les entretiens ont visé à la fois le passé et le présent et ont cherché à mettre en lumière, à travers le travail sur la mémoire, le retour rétrospectif sur le passé, l’historicité du présent et les types de liens sociaux tissés à travers l’expérience de l’exil. Au plan théorique, la réflexion s’inscrit dans la perspective des cultural et des subaltern studies pour mettre en évidence le caractère fragmentaire et discontinu de ces récits mémoriels par le biais d’une étude du lexique privilégié par les énonciateurs. Le patrimoine culturel immatériel, porté par la convention de l’UNESCO du 17 octobre 2003, et sa conservation supposent deux types de questionnements. D’une part, il s’agit de concevoir différemment les politiques patrimoniales, en les envisageant du point de vue des détenteurs du patrimoine et non plus seulement du point de vue des experts, d’autre part d’élaborer des modalités de préservation des données autres que celles du patrimoine matériel, ce sur quoi va porter l’article. Mounia Illourmane Ce sujet m’a été proposé par ma directrice de thèse Marie-Madeleine Bertucci. Jean-Marc Bombeau a mis à notre disposition un ensemble de données brutes (séquences vidéo, bandes son et photos), sauvegardées sur un disque dur. Avec ma directrice de recherche, nous avons conçu un outil de classement, d’indexation et d’arborescence des données pour déterminer la nature et la quantité des matériaux à exploiter. À partir d’une démarche muséale et ethnographique, il s'agit de transcrire un corpus audio dans une perspective de conservation d'archives et de valorisation de données peu accessibles matériellement et s’inscrivant dans le cadre du patrimoine culturel immatériel. Néanmoins au cours de cette tâche, sont apparues certaines difficultés d'ordre technique, étant donné que le corpus n'est pas destiné à cet effet, la prise de son est artisanale ce qui a rendu la transcription plus complexe. Face à des locuteurs non natifs avec un accent prononcé, les logiciels de reconnaissance vocale et de transcription automatique sont inadaptés. Par conséquent, le choix des outils s'est porté sur deux logiciels informatiques, « Express Scribe » et « E-Speaking ». Le premier est un logiciel professionnel de lecture audio conçu pour faciliter la transcription des enregistrements audio. Grâce à cet outil on peut contrôler la vitesse de lecture audio ainsi avoir une lecture à vitesse variable. « E-Speaking » est un logiciel de contrôle et de reconnaissance vocale qui a pour fonction la dictée et l'exécution des tâches sur ordinateur avec la voix de l'utilisateur. On l’a utilisé notamment pour accélérer le travail de transcription des bandes son. L'emploi de ces deux outils a permis la transcription en restant le plus fidèlement possible à l'original tout en tenant compte des nombreuses contraintes d'ordre syntaxique, orthographique et phonologique résultant du caractère oral des données.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

MEDZOGO, Sylvain, und Laurent GAJO. „Tensions entre norme pédagogique et normes endogènes du français“. In L’expansion de la norme endogène du français en francophonie, 225–46. Editions des archives contemporaines, 2023. http://dx.doi.org/10.17184/eac.7572.

Der volle Inhalt der Quelle
Annotation:
Le français vit et se développe à travers une multitude de variétés qui définissent l’espace francophone. S’il parait dès lors raisonnable d’aborder la francophonie en tant qu’espace pluricentrique, les normes à l’œuvre, notamment dans le champ de l’éducation, restent souvent attachées à un seul centre et à un français de référence largement partagé. Cet article explore la façon dont les enseignant-es et les futur-es enseignant-es de l’Ecole Normale Supérieure de Yaoundé au Cameroun et de la Haute Ecole Pédagogique de Lucerne en Suisse germanophone se positionnent par rapport à la langue française et à la francophonie. Il s’agit, de manière plus concrète, de montrer comment la langue française est aujourd’hui enseignée, apprise et perçue dans les institutions de formation. Dans cette optique, nous avons adopté une méthode largement qualitative consistant, d’une part, en une analyse des représentations sociales des différents protagonistes engagés dans cette étude et, d’autre part, en l’examen de deux manuels de français au programme au Cameroun francophone et en Suisse germanophone. Les résultats montrent une orientation variable vers des normes locales, la proximité ne faisant pas toujours référence. Si une certaine tension entre la norme pédagogique et les normes sociales en vigueur localement semble prévisible, la constance de cette tension dans un espace aussi vaste et pluriel que la francophonie peut surprendre. Cet article, après avoir examiné les données de terrain, propose d’aborder de manière critique, notamment dans la formation des enseignant-es, des notions sociolinguistiques comme celles de « langue standard », « langue locale », « français régional » ou « français courant ».
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Konferenzberichte zum Thema "Données de taille variable"

1

Andersson, Fred. „Groupe µ and “the system of plastic form” -for an evaluation-“. In Le Groupe μ : quarante ans de rhétorique – trente-trois ans de sémiotique visuelle. Limoges: Université de Limoges, 2010. http://dx.doi.org/10.25965/as.3097.

Der volle Inhalt der Quelle
Annotation:
Le Groupe µ et "le système de formes plastiques” -à propos d’une évaluation- L’objectif de cet article est de fournir quelques exemples et de proposer certains éclaircissements qui peuvent contribuer à la compréhension de la théorie du signe plastique conçu par le Groupe μ. Plus précisément, l’article porte sur les éléments de la théorie en question qui constituent une analyse du système de la forme tant qu’elle est distincte du système de la couleur et du système de la texture. Dans l’espoir de faire connaître quelques-uns des fondations et des implications de ce système de forme plastique, principalement aux lecteurs anglo-saxons, l’article tente également de clarifier sa place au sein de la théorie générale du signe visuel articulé par Groupe μ dans son Traité du signe visuel (1992). La première section de l’article traite de la notion esthétique générale de forme et de sa relation avec d'une part la notion de forme/formation visuelle et de l'autre la notion de forme sémiotique telle qu’elle a été développée par Hjelsmlev. On prend note du risque que les visées d’une sémiotique plastique puissent être indûment confondues avec celles du formalisme dans l'esthétique. Selon l’avis de l’auteur, les études de sémiotique visuelle ne sauraient bénéficier de ce genre de confusion, mais devraient plutôt tenter de maintenir sa distance par rapport aux conjectures et luttes de pouvoir dans le(s) monde(s) de l'art. La deuxième section explique la distinction faite par le Groupe μ entre le signe iconique et le signe plastique, conçus comme des couches séparées du signe visuel. Selon le Groupe μ, le signe iconique forme une structure triadique contenant le signifiant, le type et le référent. Il y a des similarités entre cette conception et le triangle d’Ogden & Richards. Or, la notion du Type a des implications plus vastes que la conception d’Ogden & Richards, selon lesquels il existe une image très générale qui met en relation symbole/signifier et référent – le type est ici le résultat de modélisations et de catégorisations, et il est valable aussi bien pour le signe iconique que pour le signe plastique. Par définition, le signe plastique manque de référent : la relation entre un motif et ses variations dépend donc uniquement du rapport Signifier/Type. Sur la base de cette relation Signifier/Type, les signes plastiques apparaissent, selon le Groupe µ, aux trois niveaux de la sémiose, sur le niveau purement plastique, sur le niveau extravisuel (ou symbolique), et dans une interaction avec le signe iconique sur le niveau iconico-plastique. La troisième section de l’article explique le système de forme plastique telle qu’elle est conçue par le Groupe μ. Le système est constitué par trois « formemes » (ou catégories), à savoir position, dimension et l'orientation. Il est conçu en termes de figures apparaissant dans un plan restreint. Comme les relations fondamentales dans le plan sont celles entre le centre - la marge, le haut - le bas et la gauche - la droite, le système de positions alternatives (par exemple marginal, au-dessus et au centre) est isomorphe au système d'autres orientations (par exemple vers l'intérieur, d'en haut vers le centre). Le système d'autres dimensions/tailles, par contraste, est défini par le biais de la fonction de la taille de la figure en relation à la taille du plan de l’image et le point focal. Ces valeurs plastiques de position, de dimension et d’orientation sont les signifiants du système. Ils sont liés à leurs signifiés de la manière suivante : la position à l’attraction, la dimension à la domination, l'orientation à l'équilibre. Cette corrélation est validée par les auteurs au moyen d’une démonstration visuelle. Dans la quatrième et dernière section de l’article, des observations sont faites au sujet des répercussions plus vastes ainsi que des applications du système. Conformément à la visée du propre Groupe µ à surmonter les limitations qui résultent de la spécialisation de disciplines telles que la psychologie de la perception, l'auteur soutient que des systèmes théoriques comme celui du système plastique peut fournir un cadre interdisciplinaire qui facilite l’évaluation à la fois des données scientifiques et des discours philosophiques généraux concernant le monde visuel. En ce qui concerne des applications plus proches, l'auteur estime que les théories du sens visuel et de la rhétorique du Groupe μ, si elles étaient plus largement connues, contribueraient considérablement à la compréhension de l'importance du sens plastique dans la communication visuelle et au développement des méthodes pédagogiques pour la description et l’interprétation de l'image.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Berichte der Organisationen zum Thema "Données de taille variable"

1

Rousseau, Henri-Paul. Gutenberg, L’université et le défi numérique. CIRANO, Dezember 2022. http://dx.doi.org/10.54932/wodt6646.

Der volle Inhalt der Quelle
Annotation:
Introduction u cours des deux derniers millénaires, il y a eu plusieurs façons de conserver, transmettre et même créer la connaissance ; la tradition orale, l’écrit manuscrit, l’écrit imprimé et l’écrit numérisé. La tradition orale et le manuscrit ont dominé pendant plus de 1400 ans, et ce, jusqu’à l’apparition du livre imprimé en 1451, résultant de l’invention mécanique de Gutenberg. Il faudra attendre un peu plus de 550 ans, avant que l’invention du support électronique déloge à son tour le livre imprimé, prenant une ampleur sans précédent grâce à la révolution numérique contemporaine, résultat du maillage des technologies de l’informatique, de la robotique et de la science des données. Les premières universités qui sont nées en Occident, au Moyen Âge, ont développé cette tradition orale de la connaissance tout en multipliant l’usage du manuscrit créant ainsi de véritables communautés de maîtres et d’étudiants ; la venue de l’imprimerie permettra la multiplication des universités où l’oral et l’écrit continueront de jouer un rôle déterminant dans la création et la transmission des connaissances même si le « support » a évolué du manuscrit à l’imprimé puis vers le numérique. Au cours de toutes ces années, le modèle de l’université s’est raffiné et perfectionné sur une trajectoire somme toute assez linéaire en élargissant son rôle dans l’éducation à celui-ci de la recherche et de l’innovation, en multipliant les disciplines offertes et les clientèles desservies. L’université de chaque ville universitaire est devenue une institution florissante et indispensable à son rayonnement international, à un point tel que l’on mesure souvent sa contribution par la taille de sa clientèle étudiante, l’empreinte de ses campus, la grandeur de ses bibliothèques spécialisées ; c’est toutefois la renommée de ses chercheurs qui consacre la réputation de chaque université au cours de cette longue trajectoire pendant laquelle a pu s’établir la liberté universitaire. « Les libertés universitaires empruntèrent beaucoup aux libertés ecclésiastiques » : Étudiants et maîtres, qu'ils furent, ou non, hommes d'Église, furent assimilés à des clercs relevant de la seule justice ecclésiastique, réputée plus équitable. Mais ils échappèrent aussi largement à la justice ecclésiastique locale, n'étant justiciables que devant leur propre institution les professeurs et le recteur, chef élu de l’université - ou devant le pape ou ses délégués. Les libertés académiques marquèrent donc l’émergence d'un droit propre, qui ménageait aux maîtres et aux étudiants une place à part dans la société. Ce droit était le même, à travers l'Occident, pour tous ceux qui appartenaient à ces institutions supranationales que furent, par essence, les premières universités. À la fin du Moyen Âge, l'affirmation des États nationaux obligea les libertés académiques à s'inscrire dans ce nouveau cadre politique, comme de simples pratiques dérogatoires au droit commun et toujours sujettes à révision. Vestige vénérable de l’antique indépendance et privilège octroyé par le prince, elles eurent donc désormais un statut ambigu » . La révolution numérique viendra fragiliser ce statut. En effet, la révolution numérique vient bouleverser cette longue trajectoire linéaire de l’université en lui enlevant son quasi monopole dans la conservation et le partage du savoir parce qu’elle rend plus facile et somme toute, moins coûteux l’accès à l’information, au savoir et aux données. Le numérique est révolutionnaire comme l’était l’imprimé et son influence sur l’université, sera tout aussi considérable, car cette révolution impacte radicalement tous les secteurs de l’économie en accélérant la robotisation et la numérisation des processus de création, de fabrication et de distribution des biens et des services. Ces innovations utilisent la radio-identification (RFID) qui permet de mémoriser et de récupérer à distance des données sur les objets et l’Internet des objets qui permet aux objets d’être reliés automatiquement à des réseaux de communications .Ces innovations s’entrecroisent aux technologies de la réalité virtuelle, à celles des algorithmiques intelligentes et de l’intelligence artificielle et viennent littéralement inonder de données les institutions et les organisations qui doivent alors les analyser, les gérer et les protéger. Le monde numérique est né et avec lui, a surgi toute une série de compétences radicalement nouvelles que les étudiants, les enseignants et les chercheurs de nos universités doivent rapidement maîtriser pour évoluer dans ce Nouveau Monde, y travailler et contribuer à la rendre plus humain et plus équitable. En effet, tous les secteurs de l’activité commerciale, économique, culturelle ou sociale exigent déjà clairement des connaissances et des compétences numériques et technologiques de tous les participants au marché du travail. Dans cette nouvelle logique industrielle du monde numérique, les gagnants sont déjà bien identifiés. Ce sont les fameux GAFAM (Google, Apple, Facebook, Amazon et Microsoft) suivis de près par les NATU (Netflix, Airbnb, Tesla et Uber) et par les géants chinois du numérique, les BATX (Baidu, Alibaba, Tenant et Xiaomi). Ces géants sont alimentés par les recherches, les innovations et les applications mobiles (APPs) créées par les partenaires de leurs écosystèmes regroupant, sur différents campus d’entreprises, plusieurs des cerveaux qui sont au cœur de cette révolution numérique. L’université voit donc remise en question sa capacité traditionnelle d’attirer, de retenir et de promouvoir les artisans du monde de demain. Son aptitude à former des esprits critiques et à contribuer à la transmission des valeurs universelles est également ébranlée par ce tsunami de changements. Il faut cependant reconnaître que les facultés de médecine, d’ingénierie et de sciences naturelles aux États-Unis qui ont développé des contacts étroits, abondants et suivis avec les hôpitaux, les grandes entreprises et l’administration publique et cela dès la fin du 19e siècle ont été plus en mesure que bien d’autres, de recruter et retenir les gens de talent. Elle ont énormément contribué à faire avancer les connaissances scientifiques et la scolarisation en sciences appliquées ..La concentration inouïe des Prix Nobel scientifiques aux États-Unis est à cet égard très convaincante . La révolution numérique contemporaine survient également au moment même où de grands bouleversements frappent la planète : l’urgence climatique, le vieillissement des populations, la « déglobalisation », les déplacements des populations, les guerres, les pandémies, la crise des inégalités, de l’éthique et des démocraties. Ces bouleversements interpellent les universitaires et c’est pourquoi leur communauté doit adopter une raison d’être et ainsi renouveler leur mission afin des mieux répondre à ces enjeux de la civilisation. Cette communauté doit non seulement se doter d’une vision et des modes de fonctionnement adaptés aux nouvelles réalités liées aux technologies numériques, mais elle doit aussi tenir compte de ces grands bouleversements. Tout ceci l’oblige à s’intégrer à des écosystèmes où les connaissances sont partagées et où de nouvelles compétences doivent être rapidement acquises. Le but de ce texte est de mieux cerner l’ampleur du défi que pose le monde numérique au milieu universitaire et de proposer quelques idées pouvant alimenter la réflexion des universitaires dans cette démarche d’adaptation au monde numérique. Or, ma conviction la plus profonde c’est que la révolution numérique aura des impacts sur nos sociétés et notre civilisation aussi grands que ceux provoqués par la découverte de l’imprimerie et son industrialisation au 15e siècle. C’est pourquoi la première section de ce document est consacrée à un rappel historique de la révolution de l’imprimerie par Gutenberg alors que la deuxième section illustrera comment les caractéristiques de la révolution numérique viennent soutenir cette conviction si profonde. Une troisième section fournira plus de détails sur le défi d’adaptation que le monde numérique pose aux universités alors que la quatrième section évoquera les contours du changement de paradigme que cette adaptation va imposer. La cinquième section servira à illustrer un scénario de rêves qui permettra de mieux illustrer l’ampleur de la gestion du changement qui guette les universitaires. La conclusion permettra de revenir sur quelques concepts et principes clefs pour guider la démarche vers l’action. L’université ne peut plus « être en haut et seule », elle doit être « au centre et avec » des écosystèmes de partenariats multiples, dans un modèle hybride physique/virtuel. C’est ainsi qu’elle pourra conserver son leadership historique de vigie du savoir et des connaissances d’un monde complexe, continuer d’établir l’authenticité des faits et imposer la nécessaire rigueur de la science et de l’objectivité.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie