Добірка наукової літератури з теми "Petits jeux de données"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Petits jeux de données".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Petits jeux de données":

1

Lesnoff, Matthieu. "Evaluation d’une méthode d’enquête rétrospective sur une période de douze mois pour estimer les taux de mise bas et de mortalité du bétail dans un système d’élevage africain traditionnel." Revue d’élevage et de médecine vétérinaire des pays tropicaux 62, no. 1 (January 1, 2009): 49. http://dx.doi.org/10.19182/remvt.10093.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les taux annuels de mise bas et de mortalité sont des données de base nécessaires pour quantifier la productivité des cheptels domestiques tropicaux élevés en milieux extensifs. Les suivis de troupeaux avec bouclage des animaux sont une méthode de référence pour estimer ces paramètres sur le terrain. Les méthodes transversales rétrospectives, basées sur des entretiens avec les éleveurs et leur mémoire à court ou long terme de la démographie des troupeaux, sont des alternatives. La présente étude a évalué une méthode rétrospective (12MO) pour estimer les taux de mise bas et de mortalité pour la période des douze derniers mois précédents l’enquête. Le biais de différentes approximations utilisées dans les calculs a été évalué d’après plusieurs jeux de données disponibles et collectées sur les bovins et les petits ruminants au Sénégal. Le principal résultat de l’étude a été la variabilité potentiellement élevée du biais (en particulier pour le taux de mortalité des petits ruminants pour lequel le biais relatif a varié entre -60 et 96 p. 100 dans la classe d’âge « 0 à 1 an »), malgré un biais médian acceptable (la médiane de biais relatif a été ≤ 6 p. 100 en valeur absolue). Les méthodes rétrospectives telles que 12MO devraient être utilisées avec parcimonie (par exemple pour évaluer approximativement l’impact immédiat de chocs importants ou d’innovations) et leurs résultats interprétés avec précaution. Lorsque cela est possible, les suivis de troupeaux (avec ou sans identification des animaux) sur plusieurs années consécutives devraient être privilégiés.
2

Daniel, Sylvie. "Revue des descripteurs tridimensionnels (3D) pour la catégorisation des nuages de points acquis avec un système LiDAR de télémétrie mobile." Geomatica 72, no. 1 (March 1, 2018): 1–15. http://dx.doi.org/10.1139/geomat-2018-0001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La compréhension de nuage de points LiDAR consiste à reconnaitre les objets qui sont présents dans la scène et à associer des interprétations aux nuages d’objets qui le composent. Les données LiDAR acquises en milieu urbain dans des environnements à grande échelle avec des systèmes terrestres de télémétrie mobile présentent plusieurs difficultés propres à ce contexte : chevauchement entre les nuages de points, occlusions entre les objets qui ne sont vus que partiellement, variations de la densité des points. Compte tenu de ces difficultés, beaucoup de descripteurs tridimensionnels (3D) proposés dans la littérature pour la classification et la reconnaissance d’objets voient leurs performances se dégrader dans ce contexte applicatif, car ils ont souvent été introduits et évalués avec des jeux de données portant sur de petits objets. De plus, il y a un manque de comparaison approfondie entre les descripteurs 3D mis en œuvre dans des environnements à grande échelle ce qui a pour conséquence un manque de connaissance au moment de sélectionner le descripteur 3D le plus adapté à un nuage de points LiDAR acquis dans de tels environnements. Le présent article propose une revue approfondie des travaux portant sur l’application des descripteurs 3D à des données LiDAR acquises en milieu urbain dans des environnements à grande échelle avec des systèmes terrestres de télémétrie mobile. Les principaux descripteurs 3D appliqués dans de tels contextes sont ainsi recensés. Une synthèse de leurs performances et limites est ensuite effectuée de manière comparative sur la base des travaux disponibles dans la littérature. Enfin, une discussion abordant les éléments impactant le plus les performances des descripteurs et des pistes d’amélioration vient compléter cette revue.
3

Tabouret-Keller, Andrée. "Continuité et discontinuité de la transmission de l’emploi de l’alsacien dans deux familles alliées." Plurilinguismes 1, no. 1 (1988): 1–12. http://dx.doi.org/10.3406/pluri.1988.899.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Il s'agit de deux familles d'origine alsacienne alliées par un mariage, l'une étant plus urbanisée et d'un niveau socioculturel plus élevé que l'autre qui reste surtout rurale quoique non-agricole. L'enquête porte sur quatre générations, les indicateurs de l'emploi linguistique sont la ou les langues employées dans le foyer familial par les parents entre eux, quand ils s'adressent à leurs enfants, éventuellement à leurs petits enfants, et par ceux-ci quand ils s'adressent à leurs parents ou grands-parents. La résidence et la profession font également partie des données mises en oeuvre pour établir le parcours sociolinguistique de ces familles et pour analyser les facteurs en jeu dans l'évolution des usages linguistiques.
4

LEROUX, C., L. BERNARD, F. DESSAUGE, F. LE PROVOST, and P. MARTIN. "La fonction de lactation : régulation de la biosynthèse des constituants du lait." INRAE Productions Animales 26, no. 2 (May 17, 2013): 117–28. http://dx.doi.org/10.20870/productions-animales.2013.26.2.3141.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La glande mammaire est l’organe dans lequel est synthétisé et sécrété le lait. Ces processus mettent en jeu des mécanismes moléculaires dont la régulation reste incomplètement élucidée. Aussi, de nombreuses recherches ont pour objectif d’identifier les leviers permettant de moduler la composition du lait, afin de répondre à la demande de la filière et des consommateurs, et de préciser leurs mécanismes d’action pour en permettre une régulation aussi fine que possible. L’objectif de cet article est de présenter les derniers travaux relatifs à la caractérisation de facteurs génétiques et nutritionnels puis d’exposer quelques données mettant en lumière les conséquences de leurs interactions sur la lactation. Deux exemples d’études des effets de polymorphismes génétiques sur le fonctionnement mammaire chez les caprins (locus CSN1S1, spécifiant la caséine αs1) et les bovins (locus DGAT1 spécifiant la diacylglycérol acyltransferase 1) mettent en exergue les différences d’expression de gènes impliqués dans le métabolisme des lipides, mais aussi identifient des gènes impliqués dans le trafic vésiculaire et la réponse « Unfolded Protein Responses » (UPR) des caprins. Des exemples de régulation nutritionnelle du métabolisme lipidique révèlent la différence de réponse à la supplémentation lipidique entre la vache et la chèvre. De plus, des approches globales ont permis la découverte de gènes du métabolisme lipidique (tels que ACSBG1 et AZGP1 qui spécifient respectivement la lipidosine et la zinc-α2-glycoprotéine) dont l’expression mammaire était jusqu’alors inconnue, ou encore de révéler des modifications de la dynamique cellulaire mammaire. Enfin, les interactions entre les facteurs génétique et nutritionnel sont illustrées par des mécanismes de régulation fine de l’expression génique mettant en jeu de petits ARN non-codants : les microARN. L’ensemble de ces nouvelles données laissent entrevoir de nombreuses perspectives de recherche ciblant une connaissance de plus en plus exhaustive et fine du fonctionnement de la glande mammaire, mais aussi la nécessité de replacer ce fonctionnement au niveau de l’animal.
5

DENDONCKER, Morgane. "Cinquante ans de dynamique de la végétation ligneuse dans le Sahel sénégalais (Ferlo) : bases pour une approche de la diversité fonctionnelle." BOIS & FORETS DES TROPIQUES 354 (December 1, 2022): 79–80. http://dx.doi.org/10.19182/bft2022.354.a36986.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La persistance de la végétation ligneuse sahélienne est régulièrement questionnée depuis la grande sécheresse de 1970-1980, vu son influence sur le fonctionnement de l’écosystème et les services écosystémiques. Il reste crucial de pouvoir appréhender la capacité de réponse de cette végétation face à différentes pressions (pâturage, feu et sécheresse). Pour comprendre comment cette végétation résiste à ces pressions dans la zone sylvopastorale sahélienne du Sénégal, nous avons adopté une approche de diversité fonctionnelle. À partir de plusieurs jeux de données (inventaires de terrain, télédétection, traits fonctionnels), des indicateurs ont été construits à différentes échelles spatiales. Dans un premier temps, nous avons étudié l’évolution des communautés de 1965 à 2018. Nous avons ensuite classé les espèces en groupes fonctionnels selon leurs traits d’effets liés à la productivité primaire et aux cycles biogéochimiques. L’évolution de la diversité de réponse de ces groupes a été analysée depuis les années 1970. Les données de télédétection montrent une diminution dans la densité des ligneux jusqu’en 2008, suivie d’une stabilisation (2008-2018). Les inventaires historiques révèlent un changement dans la composition spécifique, une augmentation de la proportion de buissons et une diminution de la fréquence pour 25 % des espèces. La topographie locale influence fortement les communautés, qui sont dominées par une minorité d’espèces. En effet, la richesse taxonomique et fonctionnelle, la densité des adultes et régénérations ainsi que le recouvrement sont plus élevés dans les dépressions. Néanmoins, l’absence de régénérations de nombreuses espèces rend leur futur incertain. Les espèces présentant une abondance stable entre 1970 et 2015 montrent une réponse à la sécheresse différente de celles en diminution. La grande sécheresse a sélectionné des combinaisons de traits comprenant une plus longue période de feuillaison, des vaisseaux conducteurs de plus petite surface, et des espèces arbustives. En outre, la diversité de réponse de la majorité des groupes fonctionnels a diminué, indiquant une perte de résilience des communautés. En croisant les données d’abondance des espèces, leur régénération et leur appartenance à un groupe fonctionnel, nous avons déterminé quelques espèces clés à protéger pour assurer la persistance des fonctions écosystémiques rendues par la végétation ligneuse dans le système sylvopastoral.
6

Schubauer-Leoni, Maria Luisa, and Anne-Marie Munch. "Un jeu de société dans une institution de la petite enfance : analyse didactique des interactions entre une éducatrice et cinq enfants à propos d’un jeu." Bulletin de psychologie 56, no. 466 (2003): 457–72. http://dx.doi.org/10.3406/bupsy.2003.15237.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette étude, conduite à Genève dans le cadre d’une institution de la petite enfance, cherche à articuler des questions théoriques, épistémologiques et méthodologiques pour mettre en évidence l’évolution, au cours d’un jeu de société conçu par une éducatrice, des positions interpersonnelles et cognitives respectives de l’éducatrice et des cinq enfants impliqués dans l’activité. Celle-ci fait appel à la notion «(...) est plus grand que. . . ; (...) est plus petit que. . . ». Cette contribution se propose, pour l’essentiel, de donner à voir par quelle démarche méthodologique nous estimons devoir utiliser pour saisir les dynamiques éducatives à l’œuvre. Nous montrons la pertinence d’une analyse didactique – articulant l’analyse de la tâche prescrite avec des dimensions topo- et chronogénétiques – pour comprendre des interactions éducatives dans des institutions préscolaires.
7

Goldstein, Mauricio, and Philip Read. "Petits jeux de pouvoir en entreprise." Revue internationale de psychosociologie et de gestion des comportements organisationnels XVIII, no. 45 (2012): 293. http://dx.doi.org/10.3917/rips1.045.0293.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

RAYNAUT, William, Chantal SOULE-DUPUY, and Nathalie VALLES-PARLANGEAU. "Dissimilarités entre jeux de données." Ingénierie des systèmes d'information 22, no. 3 (March 28, 2017): 35–63. http://dx.doi.org/10.3166/isi.22.3.35-63.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Viquesnel, Benoît. "5. Jeux vocaux avec les tout-petits." Métiers de la Petite Enfance 21, no. 219 (March 2015): 33–34. http://dx.doi.org/10.1016/j.melaen.2014.12.014.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Feurer, Denis, Mohamed Amine El Maaoui, Mohamed Rached Boussema, and Olivier Planchon. "Méthode opérationnelle de production d'orthophotos et de MNT décimétriques à l'échelle du kilomètre carré par cerf-volant." Revue Française de Photogrammétrie et de Télédétection, no. 213 (April 26, 2017): 43–53. http://dx.doi.org/10.52638/rfpt.2017.190.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Tous vecteurs confondus, ce sont les drones, notamment les multirotor, qui ont connu le plus fort développement pour l'acquisition d'images aériennes durant les cinq dernières années. L'imagerie accessible par ce type de plate-forme répond à un besoin de cartographie à une échelle intermédiaire entre l'imagerie submétrique (satellite à très haute résolution spatiale ou vecteurs aériens comme les ULM et certains drones) et l'imagerie acquise à très basse altitude à des résolutions parfois inférieures au centimètre. Par son prix élevé, l'imagerie submétrique aérienne et satellitaire laisse un grand nombre de besoins sans réponse acceptable. Parmi eux, citons l'imagerie à petit budget demandée par les collectivités locales ou les suivis denses (en particulier temporels). Finalement, la réglementation récente a encadré les vols drones de manière très contraignante, mettant virtuellement hors-la-loi tous les acteurs occasionnels d'imagerie par drone.L'objectif de cette communication est de présenter une méthode simple, opérationnelle et à bas coût pour la prise de vue aérienne. Il s'agit d'utiliser le cerf-volant comme vecteur alternatif aux aéronefs sans pilote. Le cerf-volant (avec le ballon) fait partie des premières plates-formes utilisées historiquement pour la photographie aérienne. Il a connu un regain d'intérêt depuis les années 70-80 avec de nombreuses applications en archéologie et la disponibilité depuis les années 2000 de capteurs et logiciels abordables et performants le rend plus attractif encore. La méthode proposée ici permet la cartographie de superficies dépassant le kilomètre carré à une résolution décimétrique. Elle présente un certain nombre d'atouts, comme le coût modique de la plate-forme et la capacité de voler sur une très large plage de vents (de 5 à 40km/h), un cerf-volant de six à dix mètres carrés ayant la même charge utile qu'un drone pour une autonomie supérieure. Enrevanche, la principale difficulté de mise en oeuvre opérationnelle du cerf-volant pour la cartographie par image aérienneest le manque de contrôle du vecteur, ce qui pose quelques verrous au niveau de l'acquisition et du traitement des données.Nous présentons dans cette communication les avancées méthodologiques réalisées afin de dépasser ces limites.Nous détaillons tout d'abord la méthode d'acquisition développée et le mode opératoire mis en oeuvre pour obtenir des jeux de données image permettant la cartographie opérationnelle de zones d'intérêt. Ensuite, nous présentons les traitements effectués à l'aide de logiciels désormais abordables qui permettent le calcul de l'aérotriangulation et de la corrélation dense sur plusieurs centaines d'images. Nous présentons enfin les résultats obtenus sur des exemples d'applications en conditions réelles afin de discuter du potentiel et des limitations de cette méthode, proposée comme alternative aux solutions existantes.

Дисертації з теми "Petits jeux de données":

1

Gay, Antonin. "Pronostic de défaillance basé sur les données pour la prise de décision en maintenance : Exploitation du principe d'augmentation de données avec intégration de connaissances à priori pour faire face aux problématiques du small data set." Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0059.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse CIFRE est un projet commun entre ArcelorMittal et le laboratoire CRAN, dont l'objectif est d'optimiser la prise de décision en maintenance industrielle par l'exploitation des sources d'information disponibles, c'est-à-dire des données et des connaissances industrielles, dans le cadre des contraintes industrielles présentées par le contexte sidérurgique. La stratégie actuelle de maintenance des lignes sidérurgiques est basée sur une maintenance préventive régulière. L'évolution de la maintenance préventive vers une stratégie dynamique se fait par le biais de la maintenance prédictive. La maintenance prédictive a été formalisée au sein du paradigme Prognostics and Health Management (PHM) sous la forme d'un processus en sept étapes. Parmi ces étapes de la PHM, le travail de ce doctorat se concentre sur la prise de décision et le pronostic. En regard de cette maintenance prédictive, le contexte de l'Industrie 4.0 met l'accent sur les approches basées sur les données, qui nécessitent une grande quantité de données que les systèmes industriels ne peuvent pas fournir systématiquement. La première contribution de la thèse consiste donc à proposer une équation permettant de lier les performances du pronostic au nombre d'échantillons d'entraînement disponibles. Cette contribution permet de prédire quelles performances le pronostic pourraient atteindre avec des données supplémentaires dans le cas de petits jeux de données (small datasets). La deuxième contribution de la thèse porte sur l'évaluation et l'analyse des performances de l'augmentation de données appliquée au pronostic sur des petits jeux de données. L'augmentation de données conduit à une amélioration de la performance du pronostic jusqu'à 10%. La troisième contribution de la thèse est l'intégration de connaissances expertes au sein de l'augmentation de données. L'intégration de connaissances statistiques s'avère efficace pour éviter la dégradation des performances causée par l'augmentation de données sous certaines conditions défavorables. Enfin, la quatrième contribution consiste en l'intégration des résultats du pronostic dans la modélisation des coûts de la prise de décision en maintenance et en l'évaluation de l'impact du pronostic sur ce coût. Elle démontre que (i) la mise en œuvre de la maintenance prédictive réduit les coûts de maintenance jusqu'à 18-20% et (ii) l'amélioration de 10% du pronostic peut réduire les coûts de maintenance de 1% supplémentaire
This CIFRE PhD is a joint project between ArcelorMittal and the CRAN laboratory, with theaim to optimize industrial maintenance decision-making through the exploitation of the available sources of information, i.e. industrial data and knowledge, under the industrial constraints presented by the steel-making context. Current maintenance strategy on steel lines is based on regular preventive maintenance. Evolution of preventive maintenance towards a dynamic strategy is done through predictive maintenance. Predictive maintenance has been formalized within the Prognostics and Health Management (PHM) paradigm as a seven steps process. Among these PHM steps, this PhD's work focuses on decision-making and prognostics. The Industry 4.0 context put emphasis on data-driven approaches, which require large amount of data that industrial systems cannot ystematically supply. The first contribution of the PhD consists in proposing an equation to link prognostics performances to the number of available training samples. This contribution allows to predict prognostics performances that could be obtained with additional data when dealing with small datasets. The second contribution of the PhD focuses on evaluating and analyzing the performance of data augmentation when applied to rognostics on small datasets. Data augmentation leads to an improvement of prognostics performance up to 10%. The third contribution of the PhD consists in the integration of expert knowledge into data augmentation. Statistical knowledge integration proved efficient to avoid performance degradation caused by data augmentation under some unfavorable conditions. Finally, the fourth contribution consists in the integration of prognostics in maintenance decision-making cost modeling and the evaluation of prognostics impact on maintenance decision cost. It demonstrates that (i) the implementation of predictive maintenance reduces maintenance cost up to 18-20% and ii) the 10% prognostics improvement can reduce maintenance cost by an additional 1%
2

Coveliers, Alexandre. "Sensibilité aux jeux de données de la compilation itérative." Paris 11, 2007. http://www.theses.fr/2007PA112255.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le cadre de la conception d’architecture de processeurs, la recherche de performances a entraîné une augmentation continue de la complexité de ces architectures. Cette augmentation de la complexité des architectures a rendu de plus en plus difficile l’exploitation de leurs performances potentielles. Afin d’améliorer l’exploitation des performances des architectures, de nouvelles stratégies d’optimisation intégrant des informations sur le comportement dynamique –i. E. Lors de l’exécution – du code ont été proposées, comme le principe de la compilation itérative. Ces approches permettent de déterminer des transformations plus pertinentes que celles obtenues par une analyse statique. Le principal écueil de ces méthodes de transformation de code réside dans le fait que les transformations du code sont déterminées à partir d’informations issues de l’exécution de l’application avec un jeu de données particulier. L’optimisation obtenue est donc dépendante du jeu de données utilisé pendant le processus d’optimisation. Dans cette thèse, nous étudions, pour deux méthodes de transformation de code itératives différentes, la variation des performances des applications optimisées en fonction des jeux de données utilisés. Nous introduisons différentes métriques afin de quantifier cette sensibilité. Nous proposons également des méthodes de sélection des jeux de données à utiliser pendant le processus de transformation de code afin d’obtenir un code optimisé exhibant de bonnes performances avec l’ensemble des jeux de données
In the context of architecture processor conception, the performance research leads to a constant growth of architecture complexity. This growth of architecture complexity made more difficult the exploitation of their potential performance. To improve architecture performance exploitation, new optimization techniques based on dynamic behavior –i. E. Run time behavior- has been proposed Iterative compilation is a such an optimization approach. This approach allows to determine more relevant transformation than those obtained by static analysis. The main drawback of this optimization method is based on the fact that the information that lead to the code transformation are specific to a particular data set. Thus the determined optimizations are dependent on the data set used during the optimization process. In this thesis, we study the optimized application performance variations according to the data set used for two iterative code transformation techniques. We introduce different metrics to quantify this sensitivity. Also, we propose data set selection methods for choosing which data set to use during code transformation process. Selected data sets enable to obtain an optimized code with good performance with all other available data sets
3

Caron, Maxime. "Données confidentielles : génération de jeux de données synthétisés par forêts aléatoires pour des variables catégoriques." Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25935.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La confidentialité des données est devenue primordiale en statistique. Une méthode souvent utilisée pour diminuer le risque de réidentification est la génération de jeux de données partiellement synthétiques. On explique le concept de jeux de données synthétiques, et on décrit une méthode basée sur les forêts aléatoires pour traiter les variables catégoriques. On s’intéresse à la formule qui permet de faire de l’inférence avec plusieurs jeux synthétiques. On montre que l’ordre des variables à synthétiser a un impact sur l’estimation de la variance des estimateurs. On propose une variante de l’algorithme inspirée du concept de confidentialité différentielle. On montre que dans ce cas, on ne peut estimer adéquatement ni un coefficient de régression, ni sa variance. On montre l’impact de l’utilisation de jeux synthétiques sur des modèles d’équations structurelles. On conclut que les jeux synthétiques ne changent pratiquement pas les coefficients entre les variables latentes et les variables mesurées.
Confidential data are very common in statistics nowadays. One way to treat them is to create partially synthetic datasets for data sharing. We will present an algorithm based on random forest to generate such datasets for categorical variables. We are interested by the formula used to make inference from multiple synthetic dataset. We show that the order of the synthesis has an impact on the estimation of the variance with the formula. We propose a variant of the algorithm inspired by differential privacy, and show that we are then not able to estimate a regression coefficient nor its variance. We show the impact of synthetic datasets on structural equations modeling. One conclusion is that the synthetic dataset does not really affect the coefficients between latent variables and measured variables.
4

Ben, Ellefi Mohamed. "La recommandation des jeux de données basée sur le profilage pour le liage des données RDF." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT276/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Avec l’émergence du Web de données, notamment les données ouvertes liées, une abondance de données est devenue disponible sur le web. Cependant, les ensembles de données LOD et leurs sous-graphes inhérents varient fortement par rapport a leur taille, le thème et le domaine, les schémas et leur dynamicité dans le temps au niveau des données. Dans ce contexte, l'identification des jeux de données appropriés, qui répondent a des critères spécifiques, est devenue une tâche majeure, mais difficile a soutenir, surtout pour répondre a des besoins spécifiques tels que la recherche d'entités centriques et la recherche des liens sémantique des données liées. Notamment, en ce qui concerne le problème de liage des données, le besoin d'une méthode efficace pour la recommandation des jeux de données est devenu un défi majeur, surtout avec l'état actuel de la topologie du LOD, dont la concentration des liens est très forte au niveau des graphes populaires multi-domaines tels que DBpedia et YAGO, alors qu'une grande liste d'autre jeux de données considérés comme candidats potentiels pour le liage est encore ignorée. Ce problème est dû a la tradition du web sémantique dans le traitement du problème de "identification des jeux de données candidats pour le liage". Bien que la compréhension de la nature du contenu d'un jeu de données spécifique est une condition cruciale pour les cas d'usage mentionnées, nous adoptons dans cette thèse la notion de "profil de jeu de données"- un ensemble de caractéristiques représentatives pour un jeu de données spécifique, notamment dans le cadre de la comparaison avec d'autres jeux de données. Notre première direction de recherche était de mettre en œuvre une approche de recommandation basée sur le filtrage collaboratif, qui exploite à la fois les prols thématiques des jeux de données, ainsi que les mesures de connectivité traditionnelles, afin d'obtenir un graphe englobant les jeux de données du LOD et leurs thèmes. Cette approche a besoin d'apprendre le comportement de la connectivité des jeux de données dans le LOD graphe. Cependant, les expérimentations ont montré que la topologie actuelle de ce nuage LOD est loin d'être complète pour être considéré comme des données d'apprentissage.Face aux limites de la topologie actuelle du graphe LOD, notre recherche a conduit a rompre avec cette représentation de profil thématique et notamment du concept "apprendre pour classer" pour adopter une nouvelle approche pour l'identification des jeux de données candidats basée sur le chevauchement des profils intensionnels entre les différents jeux de données. Par profil intensionnel, nous entendons la représentation formelle d'un ensemble d'étiquettes extraites du schéma du jeu de données, et qui peut être potentiellement enrichi par les descriptions textuelles correspondantes. Cette représentation fournit l'information contextuelle qui permet de calculer la similarité entre les différents profils d'une manière efficace. Nous identifions le chevauchement de différentes profils à l'aide d'une mesure de similarité semantico-fréquentielle qui se base sur un classement calcule par le tf*idf et la mesure cosinus. Les expériences, menées sur tous les jeux de données lies disponibles sur le LOD, montrent que notre méthode permet d'obtenir une précision moyenne de 53% pour un rappel de 100%.Afin d'assurer des profils intensionnels de haute qualité, nous introduisons Datavore- un outil oriente vers les concepteurs de métadonnées qui recommande des termes de vocabulaire a réutiliser dans le processus de modélisation des données. Datavore fournit également les métadonnées correspondant aux termes recommandés ainsi que des propositions des triples utilisant ces termes. L'outil repose sur l’écosystème des Vocabulaires Ouverts Lies (LOV) pour l'acquisition des vocabulaires existants et leurs métadonnées
With the emergence of the Web of Data, most notably Linked Open Data (LOD), an abundance of data has become available on the web. However, LOD datasets and their inherent subgraphs vary heavily with respect to their size, topic and domain coverage, the schemas and their data dynamicity (respectively schemas and metadata) over the time. To this extent, identifying suitable datasets, which meet specific criteria, has become an increasingly important, yet challenging task to supportissues such as entity retrieval or semantic search and data linking. Particularlywith respect to the interlinking issue, the current topology of the LOD cloud underlines the need for practical and efficient means to recommend suitable datasets: currently, only well-known reference graphs such as DBpedia (the most obvious target), YAGO or Freebase show a high amount of in-links, while there exists a long tail of potentially suitable yet under-recognized datasets. This problem is due to the semantic web tradition in dealing with "finding candidate datasets to link to", where data publishers are used to identify target datasets for interlinking.While an understanding of the nature of the content of specific datasets is a crucial prerequisite for the mentioned issues, we adopt in this dissertation the notion of "dataset profile" - a set of features that describe a dataset and allow the comparison of different datasets with regard to their represented characteristics. Our first research direction was to implement a collaborative filtering-like dataset recommendation approach, which exploits both existing dataset topic proles, as well as traditional dataset connectivity measures, in order to link LOD datasets into a global dataset-topic-graph. This approach relies on the LOD graph in order to learn the connectivity behaviour between LOD datasets. However, experiments have shown that the current topology of the LOD cloud group is far from being complete to be considered as a ground truth and consequently as learning data.Facing the limits the current topology of LOD (as learning data), our research has led to break away from the topic proles representation of "learn to rank" approach and to adopt a new approach for candidate datasets identication where the recommendation is based on the intensional profiles overlap between differentdatasets. By intensional profile, we understand the formal representation of a set of schema concept labels that best describe a dataset and can be potentially enriched by retrieving the corresponding textual descriptions. This representation provides richer contextual and semantic information and allows to compute efficiently and inexpensively similarities between proles. We identify schema overlap by the help of a semantico-frequential concept similarity measure and a ranking criterion based on the tf*idf cosine similarity. The experiments, conducted over all available linked datasets on the LOD cloud, show that our method achieves an average precision of up to 53% for a recall of 100%. Furthermore, our method returns the mappings between the schema concepts across datasets, a particularly useful input for the data linking step.In order to ensure a high quality representative datasets schema profiles, we introduce Datavore| a tool oriented towards metadata designers that provides rankedlists of vocabulary terms to reuse in data modeling process, together with additional metadata and cross-terms relations. The tool relies on the Linked Open Vocabulary (LOV) ecosystem for acquiring vocabularies and metadata and is made available for the community
5

Bouillot, Flavien. "Classification de textes : de nouvelles pondérations adaptées aux petits volumes." Thesis, Montpellier, 2015. http://www.theses.fr/2015MONTS167.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Au quotidien, le réflexe de classifier est omniprésent et inconscient. Par exemple dans le processus de prise de décision où face à un élément (un objet, un événement, une personne) nous allons instinctivement chercher à rapprocher cet élément d'autres similaires afin d'adapter nos choix et nos comportements. Ce rangement dans telle ou telle catégorie repose sur les expériences passées et les caractéristiques de l'élément. Plus les expériences seront nombreuses et les caractéristiques détaillées, plus fine et pertinente sera la décision. Il en est de même lorsqu'il nous faut catégoriser un document en fonction de son contenu. Par exemple détecter s'il s'agit d'un conte pour enfants ou d'un traité de philosophie. Ce traitement est bien sûr d'autant plus efficace si nous possédons un grand nombre d'ouvrages de ces deux catégories et que l'ouvrage à classifier possède un nombre important de mots.Dans ce manuscrit nous nous intéressons à la problématique de la prise de décision lorsque justement nous disposons de peu de documents d'apprentissage et que le document possède un nombre de mots limité. Nous proposons pour cela une nouvelle approche qui repose sur de nouvelles pondérations. Elle nous permet de déterminer avec précision l'importance à accorder aux mots composant le document.Afin d'optimiser les traitements, nous proposons une approche paramétrable. Cinq paramètres rendent notre approche adaptable, quel que soit le problème de classification donné. De très nombreuses expérimentations ont été menées sur différents types de documents, dans différentes langues et dans différentes configurations. Selon les corpus, elles mettent en évidence que notre proposition nous permet d'obtenir des résultats supérieurs en comparaison avec les meilleures approches de la littérature pour traiter les problématiques de petits volumes.L'utilisation de paramètres introduit bien sur une complexité supplémentaire puisqu'il faut alors déterminer les valeurs optimales. Détecter les meilleurs paramètres et les meilleurs algorithmes est une tâche compliquée dont la difficulté est théorisée au travers du théorème du No-Free-Lunch. Nous traitons cette seconde problématique en proposant une nouvelle approche de méta-classification reposant sur les notions de distances et de similarités sémantiques. Plus précisément nous proposons de nouveaux méta-descripteurs adaptés dans un contexte de classification de documents. Cette approche originale nous permet d'obtenir des résultats similaires aux meilleures approches de la littérature tout en offrant des qualités supplémentaires.Pour conclure, les travaux présentés dans ce manuscrit ont fait l'objet de diverses implémentations techniques, une dans le logiciel Weka, une dans un prototype industriel et enfin une troisième dans le logiciel de la société ayant financé ces travaux
Every day, classification is omnipresent and unconscious. For example in the process of decision when faced with something (an object, an event, a person), we will instinctively think of similar elements in order to adapt our choices and behaviors. This storage in a particular category is based on past experiences and characteristics of the element. The largest and the most accurate will be experiments, the most relevant will be the decision. It is the same when we need to categorize a document based on its content. For example detect if there is a children's story or a philosophical treatise. This treatment is of course more effective if we have a large number of works of these two categories and if books had a large number of words. In this thesis we address the problem of decision making precisely when we have few learning documents and when the documents had a limited number of words. For this we propose a new approach based on new weights. It enables us to accurately determine the weight to be given to the words which compose the document.To optimize treatment, we propose a configurable approach. Five parameters make our adaptable approach, regardless of the classification given problem. Numerous experiments have been conducted on various types of documents in different languages and in different configurations. According to the corpus, they highlight that our proposal allows us to achieve superior results in comparison with the best approaches in the literature to address the problems of small dataset. The use of parameters adds complexity since it is then necessary to determine optimitales values. Detect the best settings and best algorithms is a complicated task whose difficulty is theorized through the theorem of No-Free-Lunch. We treat this second problem by proposing a new meta-classification approach based on the concepts of distance and semantic similarities. Specifically we propose new meta-features to deal in the context of classification of documents. This original approach allows us to achieve similar results with the best approaches to literature while providing additional features. In conclusion, the work presented in this manuscript has been integrated into various technical implementations, one in the Weka software, one in a industrial prototype and a third in the product of the company that funded this work
6

Coatélan, Stéphane. "Conception et évaluation d'un système de transmission sur canal acoustique sous-marin horizontal petits fonds." Brest, 1996. http://www.theses.fr/1996BRES2001.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Peu de modems pour la transmission horizontale (portee de plusieurs kilometres) de donnees sur canal acoustique sous-marin de type petits fonds (hauteur d'eau n'excedant pas quelques centaines de metres) existent. Or, il y a une demande dans le domaine scientifique pour l'acquisition et le controle en temps reel de donnees environnementales sous-marines d'une part, et la telecommande acoustique d'engins immerges d'autre part. Ce canal presente la particularite d'etre contraignant du point de vue des communications numeriques: la propagation des ondes acoustiques par trajets multiples le rend selectif en frequence et l'effet doppler le rend non stationnaire. Le modem de transmission presente dans cette these utilise un multiplex a division de frequences orthogonales (ofdm). Le signal emis sur chaque voie du multiplex est module a deux etats de frequence (fsk) et la reception est non coherente pour eviter les problemes de recuperation de porteuse. L'introduction d'un intervalle de garde temporel superieur a la dispersion temporelle du canal permet de s'affranchir de l'interference entre symboles. L'orthogonalite entre les signaux modules emis sur chaque voie est alors definie sur une duree inferieure a la duree d'un symbole et durant laquelle le canal est suppose stationnaire. Pour lutter contre les effets lies aux evanouissements introduits par le canal, il est necessaire d'associer a la technique de transmission retenue une fonction de codage correcteur d'erreurs. Enfin, une fonction d'entrelacement est ajoutee pour eclater les erreurs eventuellement groupees a l'entree du decodeur. Les performances du systeme de transmission avec et sans codage correcteur d'erreurs ont ete evaluees par simulations sur un canal de rayleigh en presence de trajets multiples et d'effet doppler. Le traitement de signaux reels obtenus lors de campagnes de mesures en mer ont, quant a eux permis de valider le systeme ofdm/fsk pour differentes configurations de transmission: distance emetteur-recepteur, hauteur d'eau, type de fond, debit numerique. En ce qui concerne la mise en uvre des equipements d'emission et de reception, elle est simplifiee par l'utilisation de la transformee de fourier discrete (tfd). Le demodulateur a base de tfd est optimal. Dans le but de reduire le rapport entre l'intervalle de garde temporel et la duree d'un symbole, nous avons modifie les formes d'ondes a l'emission. L'utilisation de formes d'ondes gaussiennes a permis d'obtenir des performances et une efficacite spectrale du systeme de transmission meilleures. Les spectres des signaux modules emis par voie du multiplex sont alors disjoints si bien que le systeme ofdm/fsk est moins sensible au doppler
7

Dumonceaux, Frédéric. "Approches algébriques pour la gestion et l’exploitation de partitions sur des jeux de données." Nantes, 2015. http://archive.bu.univ-nantes.fr/pollux/show.action?id=c655f585-5cf3-4554-bea2-8e488315a2b9.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’essor des méthodes d’analyse de données dans des contextes toujours plus variés nécessite la conception de nouveaux outils permettant la gestion et la manipulation des données extraites. La construction de résumés est alors couramment structurée sous la forme de partitions d’ensembles dont la manipulation dépend à la fois du contexte applicatif et de leurs propriétés algébriques. Dans un premier temps, nous proposons de modéliser la gestion des résultats de requêtes d’agrégation dans un cube OLAP à l’aide d’un calcul algébrique sur des partitions. Nous mettons en évidence l’intérêt d’une telle démarche par le gain de temps et d’espace observé pour produire ces résultats. Nous traitons par la suite le cas de la modélisation du consensus de partitions où nous soulignons les difficultés propres à sa construction en l’absence de propriétés qui régissent la combinaison des partitions. Nous proposons donc d’approfondir l’étude des propriétés algébriques de la structure du treillis des partitions, en vue d’en améliorer la compréhension et par conséquent de produire de nouvelles procédures pour l’élaboration du consensus. En guise de conclusion, nous proposons la modélisation et une mise en œuvre concrète d’opérateurs sur des partitions génériques et nous livrons diverses expériences, propres à souligner l’intérêt de leur usage conceptuel et opérationnel
The rise of data analysis methods in many growing contexts requires the design of new tools, enabling management and handling of extracted data. Summarization process is then often formalized through the use of set partitions whose handling depends on applicative context and inherent properties. Firstly, we suggest to model the management of aggregation query results over a data cube within the algebraic framework of the partition lattice. We highlight the value of such an approach with a view to minimize both required space and time to generate those results. We then deal with the consensus of partitions issue in which we emphasize challenges related to the lack of properties that rule partitions combination. The idea put forward is to deepen algebraic properties of the partition lattice for the purpose of strengthening its understanding and generating new consensus functions. As a conclusion, we propose the modelling and implementation of operators defined over generic partitions and we carry out some experiences allowing to assert the benefit of their conceptual and operational use
8

Fan, Qingfeng. "Stratégie de transfert de données dans les grilles de capteurs." Versailles-St Quentin en Yvelines, 2014. http://www.theses.fr/2014VERS0012.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse se concentre principalement sur la stratégie de transmission de masses de données et l'optimisation des requêtes dans les infrastructures de type grille. Dans un premier temps, elle se focalise sur la transmission au niveau fichier, avec une stratégie de réplication en anneau ou en thread, puis celle au niveau de parties de fichier permettant d'améliorer l'efficacité de la grille de données. Ensuite, la thèse adresse le transfert de paquets de données dans des grilles de capteurs, en utilisant un arbre multicast, largement utilisés dans les réseaux de capteurs. Cette partie explique comment générer une architecture multicast dans le contexte de grilles. Elle propose un modèle d'optimisation qui combine les facteurs de localisation et de données, en un vecteur pondéré. La troisième partie de cette thèse propose une extension du modèle afin de prendre en compte un troisième facteur correspondant à l'énergie pour la grille de capteurs sans fil, ce qui amène à un problème de corrélation entre 3 vecteurs (localisation, données et énergie). La dernière partie de la thèse considère le contexte mobile: les requête d'utilisateurs mobiles sur des sources mobiles. Dans ce contexte, l'optimisation de la requête dépend non seulement de la taille du cache et de sa fraicheur, mais aussi de la mobilité. Nous avons proposé une extension des techniques d'optimisation par cache sémantique pour des requêtes distribuées mobiles
Big data era is coming, and the amount of data increases dramatically in many application fields every day. This thesis mostly focuses on the big data transmission strategy for query optimization in Grid infrastructure. Firstly, we discuss over file degree: the ring and thread replication strategy, and under file degree: the file-parted replication strategy to improve the efficiency of Data Grid. We also tackle the data packets degree using multicast data transfer within a Sensor Grid, which is widely utilized in the in-network query operation. The system comprehensively considers the location factor and data factor, and combines them in a general weighted vector. In a third stage, we extended our model to account for the energy factor to deal with wireless sensor grids, which corresponds to a 3 vectors correlation problem. We show that our approach can be extended further to any finite-dimensional factors. The last part deals with the mobile context, i. E. When users and the queried resources are mobile. We proposed an extension of the semantic cache based optimization for such mobile distributed queries. In this context, the query optimization depends, not only on the cache size and its freshness, but also on the mobility of the user
9

Abdelmoula, Mariem. "Génération automatique de jeux de tests avec analyse symbolique des données pour les systèmes embarqués." Thesis, Nice, 2014. http://www.theses.fr/2014NICE4149/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un des plus grands défis dans la conception matérielle et logicielle est de s’assurer que le système soit exempt d’erreurs. La moindre erreur dans les systèmes embarqués réactifs peut avoir des conséquences désastreuses et coûteuses pour certains projets critiques, nécessitant parfois de gros investissements pour les corriger, ou même conduire à un échec spectaculaire et inattendu du système. Prévenir de tels phénomènes en identifiant tous les comportements critiques du système est une tâche assez délicate. Les tests en industrie sont globalement non exhaustifs, tandis que la vérification formelle souffre souvent du problème d’explosion combinatoire. Nous présentons dans ce contexte une nouvelle approche de génération exhaustive de jeux de test qui combine les principes du test industriel et de la vérification formelle académique. Notre approche construit un modèle générique du système étudié à partir de l’approche synchrone. Le principe est de se limiter à l’analyse locale des sous-espaces significatifs du modèle. L’objectif de notre approche est d’identifier et extraire les conditions préalables à l’exécution de chaque chemin du sous-espace étudie. Il s’agit ensuite de générer tout les cas de tests possibles à partir de ces pré-conditions. Notre approche présente un algorithme de quasi-aplatissement plus simple et efficace que les techniques existantes ainsi qu’une compilation avantageuse favorisant une réduction considérable du problème de l’explosion de l’espace d’états. Elle présente également une manipulation symbolique des données numériques permettant un test plus expressif et concret du système étudié
One of the biggest challenges in hardware and software design is to ensure that a system is error-free. Small errors in reactive embedded systems can have disastrous and costly consequences for a project. Preventing such errors by identifying the most probable cases of erratic system behavior is quite challenging. Indeed, tests in industry are overall non-exhaustive, while formal verification in scientific research often suffers from combinatorial explosion problem. We present in this context a new approach for generating exhaustive test sets that combines the underlying principles of the industrial test technique and the academic-based formal verification approach. Our approach builds a generic model of the system under test according to the synchronous approach. The goal is to identify the optimal preconditions for restricting the state space of the model such that test generation can take place on significant subspaces only. So, all the possible test sets are generated from the extracted subspace preconditions. Our approach exhibits a simpler and efficient quasi-flattening algorithm compared with existing techniques and a useful compiled internal description to check security properties and reduce the state space combinatorial explosion problem. It also provides a symbolic processing technique of numeric data that provides a more expressive and concrete test of the system. We have implemented our approach on a tool called GAJE. To illustrate our work, this tool was applied to verify an industrial project on contactless smart cards security
10

Modrzejewski, Richard. "Recalage déformable, jeux de données et protocoles d'évaluation pour la chirurgie mini-invasive abdominale augmentée." Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC044.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse concerne les techniques de recalage déformable de données pré-opératoires dans la scène peropératoire en tant qu’étape indispensable à la réalisation de réalité augmentée pour la chirurgie abdominale. De telles techniques sont ainsi discutées, de même que les méthodologies d’évaluation associées à ces dernières.Deux contextes sont considérés : le recalage pour la chirurgie coelioscopique assistée par ordinateur et le recalage postural de patient sur la table d’opération. Pour ces deux contextes, les besoins auxquels doivent répondre les algorithmes de recalage considérés sont discutés, ainsi que les principales limitations des solutions existantes.Des algorithmes réalisés au cours de cette thèse, permettant de répondre à ces besoins sont ainsi proposés et discutés. Une attention toute particulière est alors accordée à leur évaluation. Différents jeux de données permettant une évaluation quantitative de la précision des algorithmes de recalage, créés eux aussi durant cette thèse, et rendu publics, sont ainsi présentés. De telles données sont extrêmement importantes car elles répondent à un manque de données standardisées permettant d’évaluer l’erreur de recalage de façon quantitative, et ainsi de comparer les différents algorithmes. La modélisation de l’éclairage de la scène coelioscopique, permettant d’extraire des contraintes fortes sur les données à recaler et la surface de l’organe observé, et ainsi d’être utilisée pour contraindre ces problématiques de recalage, est aussi discutée. Ce manuscrit est séparé en sept parties. La première traite du contexte de la thèse. La chirurgie mini-invasive est présentée ainsi que différents problèmes de vision par ordinateur généraux qui, une fois appliqués au contexte médical permettent de définir la chirurgie assistée par ordinateur. La seconde partie traite des prérequis à la lecture de la thèse. Le prétraitement des données pré-opératoires et per-opératoires, avant utilisation par les algorithmes de recalage présentés,est ainsi discuté. La troisième partie correspond au recalage de données hépatiques en coelioscopie, et de l’évaluation associée à cette méthode. La quatrième partie correspond quant à elle à la problématique du recalage postural. La cinquième partie propose une modélisation de l’éclairage en coelioscopie pouvant être utilisée pour obtenir des contraintes fortes entre la surface observée et les images coelioscopiques. La sixièmepartie propose une utilisation des modèles de lumière discutés dans la partie précédente afin de raffiner et densifier des reconstructions de la scène coelioscopique. Enfin, la septième et dernière partie correspond à nos conclusions vis-à-vis des problématiques abordées au cours de la thèse, et aux travaux futurs
This thesis deals with deformable registration techniques of preoperative data to the intra-operative sceneas an indispensable step in the realisation of augmented reality for abdominal surgery. Such techniques arethus discussed as well as evaluation methodologies associated with them. Two contexts are considered : theregistration for computer-assisted laparoscopic surgery and the postural registration of the patient on theoperating table. For these two contexts, the needs to be met by the registration algorithms considered arediscussed, as well as the main limitations of the existing solutions. Algorithms developped during this thesis,allowing to meet these needs are thus proposed and discussed. Special attention is given to their evaluation.Different datasets allowing a quantitative evaluation of the accuracy of the registration algorithms, also realizedduring this thesis, and made public, are also discussed. Such data are extremely important because they respondto a lack of evaluation data needed in order to evaluate the registration error in a quantitative way, and thus tocompare the different algorithms. The modeling of the illumination of the laparoscopic scene, allowing one toextract strong constraints between the data to be registered and the surface of the observed organ, and thus tobe used to constrain these registration problems, is also discussed. This manuscript has seven parts. The firstdeals with the context surrounding this thesis. Minimally invasive surgery is presented as well as various generalcomputer vision problems which, when applied to the medical context, allow the definition of computer-assistedsurgery. The second part deals with the prerequisites for reading the thesis. The pre-processing of pre-operativeand per-operative data, before their use by the presented registration algorithms, is thus discussed. The thirdpart corresponds to the registration of hepatic data in laparoscopy, and the evaluation associated with thisproblems. The fourth part deals with the problem of postural registration. The fifth part proposes a modellingof the lighting in laparoscopy which can be used to obtain strong constraints between the observed surfaceand the laparoscopic images. The sixth part proposes a use of the light models discussed in the previous partin order to refine and densify reconstructions of the laparoscopic scene. Finally, the seventh and last partcorresponds to our conclusions regarding the issues addressed during this thesis, and to future work

Книги з теми "Petits jeux de données":

1

Prati, Elisa. Jeux pour petits sorciers. Paris: Gründ, 2004.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Larin, Robert. Petits problèmes amusants. Saint-Alphonse-de-Granby [Québec]: Éditions de la Paix, 1992.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Larin, Robert. Petits problèmes amusants. 3rd ed. Saint-Alphonse-de-Granby, Québec: Éditions de la Paix, 1995.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Desanti, Dominique. Petits jeux du grand hasard. Paris: Maren Sell, 2005.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Mina, Attilio. Activités manuelles et petits travaux. Paris: De Vecchi, 1997.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Tyberg, Son. 365 jeux et activités: Pour les tout-petits. Aartselaar, Belgique: Chantecler, 1997.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Rousseau, Fabienne. Les petits imagiers. Montréal: Presses Aventure, 2007.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Rousseau, Fabienne. Les petits imagiers. Montréal: Presses Aventure, 2007.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Nadja. Deux mains deux petits chiens. Paris: Loulou et Cie-l'École des loisirs, 2013.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Evelyne; illus. de Martine Bourre Resmond-Wenz. Les jeux chantš des tout-petits 0-3 ans. S.I: Didier Jeunesse, 2007.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Частини книг з теми "Petits jeux de données":

1

de Micheaux, Pierre Lafaye, Rémy Drouilhet, and Benoît Liquet. "Quelques jeux de données et problématiques." In Le logiciel R, 7–12. Paris: Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0115-5_2.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

de Micheaux, Pierre Lafaye, Rémy Drouilhet, and Benoît Liquet. "Quelques jeux de données et problématiques." In Le logiciel R, 31–36. Paris: Springer Paris, 2014. http://dx.doi.org/10.1007/978-2-8178-0535-1_2.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Thiolas, Pierre. "Formes architecturales et fonctions de l’aditus maximus dans les théâtres du Proche‑Orient romain." In Les théâtres antiques et leurs entrées, 95–116. Lyon: MOM Éditions, 2024. http://dx.doi.org/10.4000/11qro.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La grande majorité des théâtres antiques connus au Proche‑Orient sont de type romain et forment un corpus à part entière comptant à ce jour une soixantaine d’édifices en incluant les odéons et autres petits théâtrons mal identifiés, ainsi que les théâtres de rituels. Bien que l’étude d’un tel corpus reste à ce jour malaisée (absence de synthèse, diversité des édifices, publications disséminées et écrites dans différentes langues), il est possible de cerner, à partir des données accessibles, les principales caractéristiques architecturales et décoratives des aditus maximi de cette région, ainsi que d’en tracer les évolutions.
4

Graner, François, Robin Kaiser, Antonin Marchand, and Thomas Salez. "Données numériques et formulaire." In Petits problèmes de physique, 251–65. Dunod, 2011. http://dx.doi.org/10.3917/dunod.grane.2011.01.0251.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Chignard, Simon. "Jeux de données : comment s'y prendre." In Guide pratique Archimag, 30–33. Serda édition-IDP, 2012. http://dx.doi.org/10.3917/serda.archi.2012.03.0030.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Garet, Élise. "Panorama thématique des jeux de données." In Guide pratique Archimag, 10–11. Serda édition-IDP, 2012. http://dx.doi.org/10.3917/serda.archi.2012.03.0010.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Gauthier, Estelle, Olivier Weller, Pierre Pétrequin, Maréva Gabillot, Robin Brigand, Jehanne Affolter, Pierre Allard, et al. "Les jeux de données et leur exploitabilité." In ARCHAEDYN. Dynamique spatiale des territoires de la Préhistoire au Moyen Âge. Volume 1, 101–22. Presses universitaires de Franche-Comté, 2022. http://dx.doi.org/10.4000/books.pufc.46812.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

DÉJEAN, Sébastien, and Kim-Anh LÊ CAO. "Modèles multivariés pour l’intégration de données et la sélection de biomarqueurs dans les données omiques." In Intégration de données biologiques, 211–69. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9030.ch7.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les méthodes multivariées linéaires présentées permettent : l’exploration d’un seul jeu de données (ACP), la discrimination (PLS-DA), l’intégration de plusieurs jeux de données (PLS, multi-block PLS). Les aspects mathématiques de chaque méthode sont présentés, ensuite leur mise en œuvre sur des exemples fictifs et réels permet d’en illustrer l’intérêt pour répondre à des questions biologiques.
9

Lafourcade, Mathieu, and Nathalie Lebrun. "Vers un réseau lexico-sémantique de grande taille obtenu par crowdsourcing." In Le Crowdsourcing, 75–94. Editions des archives contemporaines, 2021. http://dx.doi.org/10.17184/eac.3913.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le projet JeuxDeMots vise à construire une grande base de connaissances de sens commun (et de spécialité), en français, à l’aide de jeux (GWAPs – Games With A Purpose), d’approches contributives, mais également de mécanismes d’inférences. Une dizaine de jeux ont été conçus dans le cadre du projet, chacun permettant de collecter des informations spécifiques, ou de vérifier la qualité de données acquises via un autre jeu. Cet article s’attachera à décrire la nature des données que nous avons collectées et construites, depuis le lancement du projet durant l’été 2007. Nous décrirons en particulier les aspects suivants : la structure du réseau lexical et sémantique JeuxDeMots, certains types de relations (sémantiques, ontologiques, subjectives, rôles sémantiques, associations d’idées, etc.), les questions d’activation et d’inhibition, l’annotation de relations (méta-informations), les raffinements sémantiques (gestion de la polysémie), la création de termes agglomérés permettant la représentation de connaissances plus riches (relations à n-arguments).
10

MARAGE, Damien, Catherine FRUCHART, Isabelle JOUFFROY-BAPICOT, Olivier GIRARDCLOS, and Vincent BALLAND. "Vers un cadre méthodologique afin d’examiner l’histoire cachée des couvertures boisées." In Écologie historique, 143–58. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9090.ch11.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’écologie historique requiert une approche multi-disciplinaire, pour laquelle quelques considérations méthodologiques sont ici abordées, notamment pour percer les secrets de l’histoire holocène des forêts. L’apport de la technologie lidar est plus particulièrement détaillé. Un nombre croissant d’outils, de jeux de données et de datations permet désormais de faire coïncider les échelles spatiales et temporelles des différentes disciplines.

Тези доповідей конференцій з теми "Petits jeux de données":

1

Zanoaga, Teodor-Florin. "Le français des Sports. Quels enjeux pour la recherche linguistique ? Étude d’un corpus d’articles sur les Jeux olympiques de Tokyo (2021)." In Language for International Communication. University of Latvia Press, 2023. http://dx.doi.org/10.22364/lincs.2023.19.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cet article, nous nous proposons d’analyser du point de vue linguistique un corpus de textes parus dans le journal le Monde qui présentent le déroulement des Jeux Olympiques de Tokyo (2021) dans le but de voir comment il peut nous aider pour étudier le français des sports, un objectif spécifique insuffisamment traités par les linguistes jusqu’à présent. Une attention particulière sera accordée aux particularités lexicales et aux sources de l’expressivité. Cet événement sportif peut être exploité de multiples façons du point de vue didactique. Il faudra intégrer dans une recherche future les données obtenues de la comparaison entre les glossaires de mots spécifiques à diverses branches sportives et les matériaux audio-visuels présents sur la plate-forme YouTube.

Звіти організацій з теми "Petits jeux de données":

1

Clark, Louise, Jo Carpenter, and Joe Taylor. Des idées pour le travail d’influence : comprendre les chemins d’impact dans la réponse aux crises. Institute of Development Studies, February 2024. http://dx.doi.org/10.19088/core.2023.019.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le programme Covid-19 Responses for Equity (CORE) est une initiative sur trois ans financée par le Centre de recherches pour le développement international (CRDI) du Canada, qui a rassemblé 20 projets issus des pays du Sud afin de comprendre les impacts socio-économiques de la pandémie de Covid-19, d’améliorer les réponses existantes et d’élaborer de meilleures options politiques pour favoriser la relance. Les recherches ont porté sur 42 pays d’Afrique, d’Asie, d’Amérique latine et du Moyen-Orient afin de comprendre comment la pandémie a affecté les régions et les personnes les plus vulnérables en aggravant les fragilités existantes. Les projets de recherche ont couvert un large éventail de thèmes, notamment les politiques macroéconomiques de soutien et de redressement, l’appui aux activités économiques essentielles et la protection des entreprises informelles, des petits producteurs et des femmes au travail, ainsi que la promotion d’une gouvernance démocratique pour renforcer la responsabilité, l’inclusion sociale et l’engagement civique. L’Institute of Development Studies (IDS) a apporté aux partenaires de recherche du programme CORE un appui à l’application des connaissances afin de maximiser l’apprentissage généré dans l’ensemble du portefeuille de recherche et d’approfondir l’engagement auprès des gouvernements, de la société civile et de la communauté scientifique. Dans le cadre de ce soutien, l’équipe d’application des connaissances de l’IDS a travaillé avec les équipes de projet du programme CORE pour reconstruire et réfléchir à leurs chemins d’impact afin de faciliter l’échange de connaissances Sud-Sud sur des stratégies efficaces pour l’impact de la recherche et de partager l’apprentissage sur la façon dont la cohorte du programme CORE a influencé les politiques et produit des changements. Ce rapport présente une vue d’ensemble de ces chemins d’impact et des enseignements tirés d’une sélection de projets choisis pour représenter la diversité des approches visant à mobiliser les décideurs politiques, la société civile et les médias afin de générer et de partager des données probantes des effets de la pandémie sur différents groupes vulnérables.

До бібліографії