Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Données de capteurs.

Zeitschriftenartikel zum Thema „Données de capteurs“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Données de capteurs" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Agili, Hachem, Sylvie Daniel und Karem Chokmani. „Revue des méthodes de prétraitement des données d'imagerie hyperspectrale acquises depuis un drone“. GEOMATICA 68, Nr. 4 (Dezember 2014): 331–43. http://dx.doi.org/10.5623/cig2014-407.

Der volle Inhalt der Quelle
Annotation:
Les systèmes aériens sans pilote, appelés encore drones, se présentent comme une nouvelle tendance dans le domaine de la télédétection et connaissent un essor sans précédent dans le domaine civil depuis le début de la dernière décennie. Ces systèmes permettent de combler plusieurs lacunes de la télédétection aéroportée. En effet, contrairement aux avions, les drones se caractérisent par une facilité et une rapidité de mise en oeuvre, et par l’acquisition d’images à très haute résolution spatiale. Ce mode d’acquisition à coûts d’opération très réduits offre également des vols à basses altitudes réduisant ainsi les nuisances atmosphériques et l’effet des nuages fréquemment présents dans les acquisitions aéroportées. Les drones sont utilisés en combinaison avec différents capteurs imageurs. Les capteurs hyperspectraux montés sur ce type de plateforme figurent parmi les solutions en émergence. Comme toute donnée de télédétection, les données d’imagerie hyperspectrale acquises depuis un drone doivent être corrigées des différentes distorsions et dégradations avant de pouvoir être exploitées. L’utilisation du drone est encore en phase d’exploration et n’a pas encore atteint sa maturité notamment lorsqu’il est combiné avec un capteur hyperspectral. En effet, peu de travaux ont été consacrés à l’étude de ce système et de ses capacités. Cet article propose de passer en revue les différents types de distorsion affectant les données hyperspectrales acquises depuis un drone ainsi que les prétraitements à mettre en oeuvre pour les corriger.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Gürgen, Levent, Claudia Roncancio, Cyril Labbé und Vincent Olive. „Gestion de données de capteurs“. Ingénierie des systèmes d'information 14, Nr. 1 (28.02.2009): 13–37. http://dx.doi.org/10.3166/isi.14.1.13-37.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Gademer, Antoine, Loïca Avanthey, Laurent Beaudouin, Michel Roux und Jean-Paul Rudant. „Micro-charges utiles dédiées à l'acquisition de données par drone pour l'étude des zones naturelles“. Revue Française de Photogrammétrie et de Télédétection, Nr. 213 (31.03.2017): 19–31. http://dx.doi.org/10.52638/rfpt.2017.192.

Der volle Inhalt der Quelle
Annotation:
Les dernières années ont montré l'intérêt croissant de la télédétection basse altitude (TBA) pour l'étude de zones na-turelles. Mais au-delà de la problématique d'accès au milieu, la cartographie de ces zones à grande échelle pose denombreuses contraintes sur la partie capteurs d'acquisition. En effet, ce sont des milieux difficiles pour les algorithmesclassiques de traitement d'images : intrinsèquement en mouvement (aux échelles d'observations des individus), com-posés d'objets difficilement discernables, ces milieux présentent des conditions météorologiques variables, voir hostiles(éclairage, humidité, température, etc.). Cette cartographie se place généralement dans une étude thématique qui ra-joute ses propres contraintes opérationnelles (besoin d'information 3D comme le relief ou la rugosité, signature spectralespécifique, prises de vues obliques pour simplifier l'identification visuelle par les experts, etc.). Par ailleurs, l'utilisationen télédétection basse altitude de porteurs légers, comme les micro-drones, limite fortement les ressources disponiblespour les capteurs : puissance de calcul embarquée, encombrement, poids, etc.. Nous présenterons dans cet article deuxcapteurs : le capteur tri-caméras et le banc stéréoscopique uEye. Le capteur tri-caméras a été développé en 2009 pour l'ac-quisition d'images stéréoscopiques ou obliques à basse altitude. En analysant l'expérience tirée des campagnes terrainseffectuées, nous soulignerons l'importance cruciale de la synchronisation précise des prises de vues. Nous présenteronsalors notre nouveau banc stéréoscopique amphibie en développement depuis 2013, et qui vise la possibilité d'acquisitionsstéréoscopiques parfaitement synchronisées, ce qui en fait un outil idéal pour l'étude des zones littorales (pour la télédé-tection basse altitude ou in situ à faible profondeur). Nous terminerons par une présentation des premiers résultats obtenusavec ce nouveau banc.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Dos Santos, Daniel Rodrigues, Antonio Maria Garcia Tommaselli, Quintino Dalmolin und Edson Aparecido Mitishita. „A semi-automatic method for indirect orientation of aerial images using ground control lines extracted from airborne laser scanner data“. Revue Française de Photogrammétrie et de Télédétection, Nr. 198-199 (21.04.2014): 53–61. http://dx.doi.org/10.52638/rfpt.2012.72.

Der volle Inhalt der Quelle
Annotation:
Cet article présente une méthode d’orientation indirecte d’images aériennes utilisant des lignes d’appui extraites des données d’un système laser aéroporté. Cette stratégie d’intégration de données a démontré son potentiel pour l’automatisation des travaux photogrammétriques, y compris pour l’orientation indirecte des images. La principale caractéristique de l’approche proposée est la possibilité de calculer automatiquement les paramètres d’orientation externe d’une ou plusieurs images au moyen d’une résection spatiale avec des données issues de différents capteurs. La méthode proposée procède comme suit. Les lignes droites sont d’abord extraites automatiquement dans l’image aérienne (s) et dans l’image d’intensités issues des données laser (S). La correspondance entre les lignes de s et S est ensuite établie de manière automatique. Un modèle de coplanarité permet d’estimer les paramètres d’orientation externe de la caméra grâce à un filtre de Kalman étendu itératif IEKF). La méthode a été développée et testée en utilisant desdonnées de différents capteurs. Des expériences ont été réalisées pour évaluer la méthode proposée. Les résultats obtenus montrent que l’estimation des paramètres d’orientation externe est fonction de la précision de localisation dusystème laser.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Lafrance, Bruno, Xavier Lenot, Caroline Ruffel, Patrick Cao und Thierry Rabaute. „Outils de prétraitements des images optiques Kalideos“. Revue Française de Photogrammétrie et de Télédétection, Nr. 197 (21.04.2014): 10–16. http://dx.doi.org/10.52638/rfpt.2012.78.

Der volle Inhalt der Quelle
Annotation:
La communauté scientifique a besoin de disposer de séries temporelles d'observations récurrentes, couvrant des sites d'intérêt pour le suivi de l'évolution des surfaces terrestres (études agronomiques par assimilation de données, suivi de traits de côte, glissements de terrain, surveillance des volcans, cartographie littorale, etc.). L'analyse de ces séries temporelles demande à avoir des images superposables entre elles qui renseignent sur la réflectance des sites (grandeur physique indépendante du capteur).Dans l'objectif de rendre accessibles de telles données physiques et de garantir une homogénéité des traitements de séries temporelles d'images, le CNES a mis en place le programme Kalideos. Dans ce cadre, CS SI a développé et opère les chaines de traitement des images.Cet article présente les traitements appliqués aux images optiques des bases Kalideos (capteurs Spot et Formosat). Ces traitements permettent de convertir les produits de niveau 1A en ortho-images, donnant la réflectance mesurée au sommet de l'atmosphère et celle estimée au niveau de la surface après correction des effets atmosphériques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Boelle, Pierre-Yves, Rodolphe Thiébaut und Dominique Costagliola. „Données massives, vous avez dit données massives ?“ Questions de santé publique, Nr. 30 (September 2015): 1–4. http://dx.doi.org/10.1051/qsp/2015030.

Der volle Inhalt der Quelle
Annotation:
Le terme de données massives décrit le recueil, la gestion et l’analyse de données de sources hétérogènes, d’un volume important, avec une grande vitesse de génération. À côté des données omiques, les données de capteurs, les smartphones et les réseaux sociaux créent une énorme quantité d’informations utilisables en épidémiologie. Les méthodes statistiques classiques ont des limites dans ce contexte qu’on soit dans la situation où l’on a un grand nombre de sujets et un grand nombre de variables ou dans celle où le nombre de variables est bien plus grand que le nombre de sujets. Les méthodes data-driven ou hypothesis-driven peuvent être utilisées pour réduire l’information et aider à l’interprétation des associations mises en évidence. Nous illustrons les aléas et les succès de quelques approches développées sur les données massives dans le champ des maladies transmissibles. Il faut garder à l’esprit que les données massives ne sont pas une solution magique pour l’interprétation causale des associations, au cœur de la démarche épidémiologique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Servigne, Sylvie, Cyril Ray, Alain Bouju, Thomas Devogele, Frédéric Bertrand, Claudia Gutiérrez und Noel Guillaume. „Gestion de masses de données au sein de bases de données capteurs“. Revue internationale de géomatique 19, Nr. 2 (30.06.2009): 133–50. http://dx.doi.org/10.3166/geo.19.133-150.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Cherrington, Emil A. „BRDF-CORRECTED VEGETATION INDICES CONFIRM SEASONAL PATTERN IN GREENING OF FRENCH GUIANA’S FORESTS“. Revue Française de Photogrammétrie et de Télédétection 1, Nr. 211-212 (30.12.2020): 3–9. http://dx.doi.org/10.52638/rfpt.2015.536.

Der volle Inhalt der Quelle
Annotation:
Parmi les outils de caractérisation de la dynamique forestière, la télédétection est particulièrement adaptée pourl’observation des vastes surfaces forestières de Guyane d’accès difficile. Dans le but de réévaluer les hypothèses énoncées dans des études antérieures sur la capacité des capteurs optiques embarqués sur les satellites à détecter la dynamique de la phénologie, nous avons compilé sur une période de 12 années divers indices de végétation corrigés des effets bi-directionnels de variation des angles d’acquisition (BRDF). Ces indices sont issus de 2 capteurs optiques: SPOT VEGETATION, et MODIS (MODerate resolution Imaging Spectroradiometer). Les données ont été analysées pour évaluer les tendances saisonnières à l'échelle de l’ensemble de la Guyane et également sur quatre sites répartis sur ce territoire. Les données révèlent que les forêts de Guyane présentent un patron de saisonnalité. Le pic annuel des divers indices au cours de la période de septembre à octobre est interprété comme le reflet d’un pic de production de feuilles pendant la saison sèche.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Vigneau, Nathalie, Corentin Chéron, Aleixandre Verger und Frédéric Baret. „Imagerie aérienne par drone : exploitation des données pour l'agriculture de précision“. Revue Française de Photogrammétrie et de Télédétection, Nr. 213 (26.04.2017): 125–31. http://dx.doi.org/10.52638/rfpt.2017.203.

Der volle Inhalt der Quelle
Annotation:
La technologie des drones devenant plus accessible et les réglementations nationales encadrant les vols des drones commençant à émerger, de nombreuses sociétés utilisent désormais des drones pour réaliser des acquisitions d'images.Parmi celles-ci AIRINOV a choisi de se spécialiser dans l'agriculture et offre ses services aux agriculteurs ainsi qu'aux expérimentateurs. AIRINOV exploite les drones eBee de senseFly. Le drone a une envergure d'1 m pour un poids de 700 g charge comprise et son vol est entièrment automatique. Le vol est programmé à l'avance puis contrôlé par unauto-pilote connecté à un capteur GPS et à une centrale inertielle embarqués. Ces capteurs enregistrent la position et l'attitude du drone pendant son vol, permettant de géolocaliser les images acquises. Une étude réalisée avec des cibles au sol a permis d'établir que le positionnement absolu des images est de 2,06 m. Toutefois, le recalage sur des points dont on connaît les coordonnées permet d'avoir un géoréférencement avec une précision centimétrique.En parallèle de l'utilisation des appareils photos classiques (RGB), AIRINOV utilise un capteur multispectral quadribande.Les longueurs d'onde de ce capteur sont modulables mais sont généralement vert, rouge, red edge et proche infra-rouge.Ces longueurs d'onde permettent non seulement le suivi d'indices de végétation tels que le NDVI mais également l'accès à des variables biochimiques et biophysiques par inversion d'un modèle de transfert radiatif. Une étude menée conjointement avec l'INRA d'Avignon et le CREAF permet d'accéder au Green Area Index (GAI) et au contenu en chlorophylle (Cab) sur colza, blé, maïs et orge. Cet article présente les résultats d'estimation du GAI avec une RMSE de 0,25 et de Cab avec une RMSE de 4,75 microgrammes/cm2.La qualité des estimations combinée à la forte capacité de revisite du drone ainsi qu'à la multiplicité des indicateurs disponibles démontre le grand intérêt du drone pour le phénotypage et le suivi de plateformes d'essais.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Le Maire, Pauline, und Marc Munschy. „La mesure magnétique en drone : un nouveau moyen pour cartographier à des résolutions jusque-là inaccessibles“. E3S Web of Conferences 342 (2022): 02007. http://dx.doi.org/10.1051/e3sconf/202234202007.

Der volle Inhalt der Quelle
Annotation:
La méthode magnétique permet d’imager les contrastes d’aimantation de dimension centimétrique à kilométrique dans le sous-sol. Pour la bonne caractérisation de ces contrastes, il est nécessaire d’avoir une résolution suffisante (espacement entre les profils et distance entre la source et le capteur). Jusqu’à peu, les méthodes de cartographie magnétique au sol ou aéroportée ne permettaient pas l’acquisition de données dans certaines zones (Terrains accidentés, champs en culture, …). Dans ce document, nous présentons des solutions pour réaliser la mesure magnétique en drone via l’utilisation de fluxgate. La compensation du moment magnétique du drone est faite par la méthode de la calibration scalaire. Deux exemples d’applications sont présentés, l’un portant sur une campagne d’acquisition multi-échelle pour la caractérisation géologique locale. Le second porte sur de la mesure magnétique à 4 capteurs en drone et au sol.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Paparoditis, Nicolas, Jean-Pierre Papelard, Bertrand Cannelle, Alexandre Devaux, Bahman Soheilian, Nicolas David und Erwan Houzay. „Stereopolis II: A multi-purpose and multi-sensor 3D mobile mapping system for street visualisation and 3D metrology“. Revue Française de Photogrammétrie et de Télédétection, Nr. 200 (19.04.2014): 69–79. http://dx.doi.org/10.52638/rfpt.2012.63.

Der volle Inhalt der Quelle
Annotation:
Nous présentons dans cet article un système de numérisation mobile 3D hybride laser-image qui permet d'acquérir des infrastructures de données spatiales répondant aux besoins d'applications diverses allant de navigations multimédia immersives jusqu'à de la métrologie 3D à travers le web. Nous détaillons la conception du système, ses capteurs, son architecture et sa calibration, ainsi qu'un service web offrant la possibilité de saisir en 3D via un outil de type SaaS (Software as a Service), permettant à tout un chacun d'enrichir ses propres bases de données à hauteur de ses besoins.Nous abordons également l'anonymisation des données, à savoir la détection et le floutage de plaques d'immatriculation, qui est est une étape inévitable pour la diffusion de ces données sur Internet via des applications grand public.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Frison, Pierre-Louis, Cédric Lardeux, Bénédicte Fruneau und Jean-Paul Rudant. „Polarimétrie radar complète et partielle pour le suivi des surfaces terrestres“. Revue Française de Photogrammétrie et de Télédétection, Nr. 219-220 (18.01.2020): 33–39. http://dx.doi.org/10.52638/rfpt.2019.464.

Der volle Inhalt der Quelle
Annotation:
Cet article présente quelques illustrations d.applications de données radar polarimétriques (complètes ou partielles) pour le suivi des surfaces terrestres. La première partie est dédiée aux données radar pleinement polarimétriques. Elle est introduite par un rappel théorique présentant leur spécificité. Puis quelques exemples sont présentés, principalement concernant la cartographie de la végétation et également les processus spatio-temporels de sédimentation dans une zone semi-aride en Tunisie. La deuxième partie est consacrée aux données partiellement polarimétriques du type de celles acquises par les capteurs Radar à Synthèse d´Ouverture (RSO) à bord des satellites Sentinel-1A/1B. Celles-ci seront largement utilisés dans les années futures en raison de leur apport significatif pour les études touchant aux observations des surfaces terrestres pour les sciences de l'environnement.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Boussafir, Yasmina, Dimitri Mercadier, Lucile Saussaye, Julien Bisson, Sébastien Patouillard, Anthony Matynia, Christian Brulé und Franck Guirado. „Instrumentation de la digue de La Riche : première étape vers un observatoire des interactions sols–climat“. Revue Française de Géotechnique, Nr. 178 (2024): 5. http://dx.doi.org/10.1051/geotech/2024008.

Der volle Inhalt der Quelle
Annotation:
Le changement climatique a des effets perceptibles sur notre environnement immédiat, que ce soit sur la modification de la météorologie, le niveau d’eau dans les rivières, l’intensité des aléas « inondations », la sévérité des étiages ou les niveaux de nappes phréatiques. Les effets indirects pouvant impacter les ouvrages hydrauliques sont malheureusement rarement quantifiés mais commencent à être documentés. Certains gestionnaires commencent également à se préoccuper de ces effets et souhaitent s’en prémunir. La recherche de nouveaux indicateurs de performance des ouvrages en lien avec les effets du changement climatique nécessite de disposer de données quantitatives. L’article présentera l’observatoire des interactions sols–climat mis en place sur la digue de La Riche grâce au partenariat entre la Dreal Centre–Val-de-Loire, Tours Métropole–Val-de-Loire, la Direction départementale des territoires d’Indre-et-Loire, le Cerema et l’université Gustave Eiffel. Les capteurs mis en place en mars 2023 à l’occasion des travaux d’épaississement de la digue de La Riche permettront d’acquérir des données couplées de sol et de météorologie. Le jeu de capteurs prévu pour le suivi comprend des sondes tensiométriques, des sondes de mesure de teneur en eau volumique et de température, une station météorologique, des piézomètres et une caméra. L’interprétation de ces données devrait enrichir notre compréhension des phénomènes et permettre de développer une doctrine concernant l’adaptation des ouvrages en terre de protection contre les inondations au changement climatique. L’article présente le détail de l’instrumentation mise en œuvre et les objectifs recherchés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Belfkih, Abderrahmen, Bruno Sadeg, Claude Duvallet und Laurent Amanton. „Les bases de données dans les réseaux de capteurs sans fil“. Techniques et sciences informatiques 33, Nr. 9-10 (30.12.2014): 739–76. http://dx.doi.org/10.3166/tsi.33.739-776.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Sandu Popa, Iulian, Ahmed Kharrat, Karine Zeitouni und Guillaume Saint Pierre. „Base de données de capteurs à localisation mobile Modèle et langage“. Ingénierie des systèmes d'information 14, Nr. 5 (28.10.2009): 35–58. http://dx.doi.org/10.3166/isi.14.5.35-58.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Méric, S., F. Nouvel, R. Agarini, T. Bunouf, Q. Guellaen, G. Le Bouhart, M. Meilhat et al. „Système de surveillance de la qualité de l’air basé sur des capteurs embarqués sur vélo : projet AIR’O X AIR BREIZH“. J3eA 21 (2022): 1026. http://dx.doi.org/10.1051/j3ea/20221026.

Der volle Inhalt der Quelle
Annotation:
Cette communication décrit la réalisation d’un projet étudiant (projet Air’o) destiné au suivi de la pollution de l’air en collaboration avec l’association Air Breizh. Ce projet a été initié pendant l’année universitaire 2019-2020 lors de la 2ème année ingénieur (niveau M1) au sein du département « électronique et télécommunications » de l’INSA de Rennes. Le but du projet est de proposer une mesure de la qualité de l’air par l’intermédiaire de capteurs embarqués sur des vélos. Une transmission de la position du capteur ainsi que la mesure de pollution en temps réel via le réseau LoRaWAN (Long Range Wide-area Network) permet de localiser les niveaux de pollution tout au long du parcours du vélo. Ce suivi de la qualité de l’air s’effectue par la récupération des données (pollution, position) sur un serveur dédié. Une application spécifique est développée afin de situer géographiquement les niveaux de pollution enregistrés. La réalisation d’un prototype est présentée ainsi que la transmission des informations. Des premiers résultats indiquent la pertinence du concept développé.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

BOCQUIER, F., N. DEBUS, A. LURETTE, C. MATON, G. VIUDES, C. H. MOULIN und M. JOUVEN. „Elevage de précision en systèmes d’élevage peu intensifiés“. INRAE Productions Animales 27, Nr. 2 (02.06.2014): 101–12. http://dx.doi.org/10.20870/productions-animales.2014.27.2.3058.

Der volle Inhalt der Quelle
Annotation:
Les fortes contraintes d’élevage dans les systèmes peu intensifiés (grands troupeaux, larges surfaces, alimentation au pâturage, voire faible productivité par animal) laissent tout de même entrevoir des formes originales d’élevage de précision. Cet élevage de précision peut notamment s’appuyer sur l’identification électronique des animaux qui permet de les reconnaitre et de les localiser. Selon que les lecteurs d’identifiants sont utilisés manuellement, à poste fixe, ou portés par un mâle, il est possible de réaliser, respectivement, des inventaires, des opérations automatisées de tri ou la détection des femelles en chaleurs. C’est au pâturage que la maîtrise du comportement des animaux est la plus délicate car un positionnement judicieux de points d’attraction des animaux (abreuvement, pierres à sel, complémentation) ne suffit pas toujours à maîtriser la répartition de la pression de pâturage pour répondre aux objectifs pastoraux et environnementaux. Dans les situations où la pose de clôtures fixes n’est pas possible ou pas souhaitable et que le gardiennage n’est pas envisageable, les clôtures virtuelles, basées sur un apprentissage comportemental spécifique des animaux, pourraient constituer une aide précieuse à l’utilisation durable des parcours. Dans ces systèmes d’élevage, la précision visée ne se situe pas à l’échelle des individus mais plutôt sur des conduites ajustées à des lots virtuels d’animaux homogènes, qui sont séparés et regroupés grâce à des dispositifs de tri efficaces. L’utilisation de systèmes automatisés de suivi du troupeau où chaque animal est identifié génère une grande quantité de données. Quels que soient les capteurs utilisés, les données recueillies doivent être stockées dans un système d’information et traitées avec des méthodes d’analyse adaptées (algorithmes, statistiques…) pour être ensuite transformées en indicateurs d’aide à la décision ou en action exécutée par des automates (porte de tri, pesées, distributions d’aliments). En alternative à des suivis individuels, une utilisation parcimonieuse des capteurs peut être envisagée pour délivrer des alertes (intrusion, attaque de prédateur, sortie d’une zone géographique définie) ; la quantité de données produites est alors minimisée. Un travail de recherche important reste à mener pour proposer des méthodes d’analyse des données et des règles de décisions pertinentes, basées sur une modélisation du comportement animal. Dans les systèmes d’élevage peu intensifiés, la place de l’éleveur est essentielle car au sein d’un grand troupeau et face à de larges surfaces de parcours les dispositifs électroniques sont à envisager comme des aides spécifiques, à intégrer dans une stratégie de conduite plus large. Notamment, il s’agit pour l’éleveur de choisir quels animaux équiper et où positionner des capteurs, relais ou clôtures virtuelles, et à choisir de le faire aux périodes critiques. Actuellement l’offre matérielle et logicielle est freinée par le manque de souplesse des solutions proposées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Puech, Christian, Sylvie Durrieu und Jean-Stéphane Bailly. „Airborne lidar for natural environments: research and applications in France“. Revue Française de Photogrammétrie et de Télédétection, Nr. 200 (19.04.2014): 54–68. http://dx.doi.org/10.52638/rfpt.2012.62.

Der volle Inhalt der Quelle
Annotation:
Cet article décrit les différentes recherches menées en France sur l'analyse de données LiDAR aéroportées pour le suivi des milieux naturels. Tout d'abord, il présente les applications fondées sur l'utilisation de modèles numériques de surface à très haute résolution, obtenus à partir des données LiDAR. L'utilisation de tels modèles s'est rapidement développé dans tous les domaines d'applications environnementaux. Cet article discute également plus spécifiquement des recherches menées sur le traitement des signaux lidar et des précisions qui en découlent. Il regroupe ainsi des articles publiées dans cette revue à la suite de deux colloques nationaux organisés à Montpellier (2006) et au Mans (2009) avec l'objectif de favoriser le regroupement et les échanges entre chercheurs de différents champs d'applications. Nous terminons par fournir un aperçu des recherches en cours et des développements de capteurs en France.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

ZIDAOUI, I., C. JOANNIS, J. WERTEL, S. ISEL, C. WEMMERT, J. VAZQUEZ und M. DUFRESNE. „Utilisation de l’intelligence artificielle pour la validation des mesures en continu de la pollution des eaux usées“. Techniques Sciences Méthodes 11 (21.11.2022): 39–51. http://dx.doi.org/10.36904/tsm/202211039.

Der volle Inhalt der Quelle
Annotation:
Pour lutter contre la pollution des masses d’eaux, la réglementation française impose la mesure et la régulation des rejets d’eaux usées dans l’environnement. Cependant, malgré les progrès dans le domaine des systèmes d’acquisition de données, les capteurs, tout particulièrement les sondes de turbidité, installés dans des milieux agressifs tels que les réseaux d’assainissement sont sujets à des dysfonctionnements fréquents (dérive, saturation, données manquantes…), qui peuvent fausser l’évaluation du flux de pollution. Il est donc essentiel d’identifier les potentielles anomalies avant toute utilisation des données. Aujourd’hui, cette validation se fait au niveau de la supervision et/ou via des opérateurs. L’objectif de ce travail est d’évaluer le potentiel des outils d’intelligence artificielle à automatiser la validation et d’estimer la plus-value de cette approche par rapport à une validation « métier » effectuée par un expert. Pour cela, quatre algorithmes de détection d’anomalies de l’état de l’art sont comparés en utilisant des données de turbidité issues du réseau de collecte de Saint-Malo Agglomération. La plupart de ces algorithmes ne sont pas adaptés à la nature des données étudiées qui sont hétérogènes et bruitées. Seul l’algorithme Matrix Profile permet d’obtenir des résultats prometteurs avec une majorité d’anomalies détectées et un nombre de faux positifs relativement limités.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Rudant, Jean-Paul, und Pierre-Louis Frison. „Télédétection radar : de l'image d'intensité initiale au choix du mode de calibration des coefficients de diffusion beta 0, sigma 0, gamma 0“. Revue Française de Photogrammétrie et de Télédétection, Nr. 219-220 (10.12.2019): 19–28. http://dx.doi.org/10.52638/rfpt.2019.454.

Der volle Inhalt der Quelle
Annotation:
La période actuelle est caractérisée par une abondance de données radar libres d'accès dont l'utilisation estencouragée et facilitée par les agences spatiales, ces dernières mettant gratuitement à disposition des utilisateurs des logiciels de traitement et d'analyse d'images. Parallèlement, plusieurs sites académiques ou institutionnels proposent des ressources explicatives (cours, tutoriaux, logiciels) sur des sujets généraux ou ciblés destinés à faciliter l'usage des images dans la plupart des domaines d'application.Dans cet article, nous souhaitons aborder et détailler un point particulier, celui de la correction des images, au travers des divers prétraitements logiciels proposés lors d'une séquence de géo-référencement-calibration des images. Cette séquence, qui couple des aspects géométriques et radiométriques, a pour objectif d'établir la correspondance entre les valeurs numériques pixellaires de l'image et les mesures physiques de coefficients de rétrodiffusion destinés à caractériser des états de surface. Cette calibration est, en particulier, indispensable pour pratiquer l'inversion de modèles physiques ainsi que la fusion d'informations issues de données multi-capteurs et/ou multi-temporelles. Après avoir présenté les aspects généraux touchant à la puissance mesurée au niveau du capteur et les divers facteurs influençant cette mesure, nous nous focaliserons sur la pratique utilisateur, en discutant d'une part des différents choix de coefficients beta 0, sigma 0, gamma 0 offerts lors d'une calibration, et d'autre part de la prise en compte, ou non des effets de pente dans les corrections géométriques et radiométriques affectant l'image. Une attention particulière sera portée sur le coefficient gamma 0 dont les variations en fonction de l'incidence locale sont réputées très faibles dans le cas des forêts denses.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Pavageau, Clémence, Pierre Fischer, Gilles Porel und Laurent Caner. „Suivi de l’infiltration sur le site expérimental hydrogéologique de Poitiers par tomographie de résistivité électrique“. E3S Web of Conferences 504 (2024): 05004. http://dx.doi.org/10.1051/e3sconf/202450405004.

Der volle Inhalt der Quelle
Annotation:
Le Site Expérimental Hydrogéologique de Poitiers (SEH) a été le lieu d’implantation de deux profils de résistivité électrique, l’un de 47m et l’autre de 23m. Six acquisitions de résistivités apparentes ont été réalisées entre le 18 juillet 2023 et le 17 novembre 2023 afin de calculer les différences de résistivités avec un profil sec et d’obtenir la variation de teneur en eau du sol. Parallèlement, l’installation de différents capteurs sur une station micro-météorologique à 2 mètres de hauteur a permis l’obtention de données hydrologiques (pluviométrie, teneur en eau du sol) et la réalisation de calculs d’évapotranspiration. Après 4 mois de suivi des mesures et le calcul des différences de résistivités, une cohérence entre les données météorologiques et la géophysique est établie et les premiers résultats sont encourageants. Ils permettent d’envisager leur utilisation dans un modèle hydro-géophysique dynamique en time-lapse pour étudier le bilan hydrologique sur le SEH.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Cheriguene, Rabia Sarah, und Habib Mahi. „Comparaison entre les méthodes J-SEG et MEANSHIFT : application sur des données THRS“. Revue Française de Photogrammétrie et de Télédétection, Nr. 203 (08.04.2014): 27–32. http://dx.doi.org/10.52638/rfpt.2013.27.

Der volle Inhalt der Quelle
Annotation:
L'avènement des données à Très Haute Résolution Spatiale (THRS) rend les méthodes de classification basées pixels inadéquates. En effet, la résolution spatiale fine offerte par ces capteurs engendre une forte variabilité intra-classes. Afin de pallier cette carence, les méthodes de classification actuelles visent à traiter non pas le pixel individuellement mais à opérer sur les objets (ensemble de pixels) qui composent l'image, on parle alors de classification orientée objets. Généralement, elles sont composées de trois étapes : (1) Segmentation; (2) Caractérisation des objets; et enfin (3) La classification. Dans ce travail, on s'intéresse seulement à la segmentation des données à THRS à travers deux algorithmes de segmentation d'images couleur à savoir: l'algorithme J-SEG et l'algorithme MeanShift. Une étude comparative entre les deux algorithmes a été conduite à la fois sur des données synthétiques et des données réelles acquises par le satellite QuickBird sur une région urbaine de la ville d'Alger (Algérie). L'analyse quantitative des résultats de segmentation en utilisant les critères d'évaluation non supervisés de Levin-Nazif et de Borsotti ainsi qu'une évaluation supervisée basée sur un ensemble de référence montre que la segmentation obtenue par l'algorithme MeanShift est meilleure que celle obtenue par l'algorithme J-Seg. Une seconde comparaison a été menée entre l'algorithme MeanShift et la méthode de segmentation multi-échelles implémentée dans le logiciel ENVI Zoom 4.5. Les résultats comparatifs laissent apparaitre l'efficacité de l'algorithme MeanShift.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Picaud, Myrtille. „Optimiser grâce aux algorithmes et aux données urbaines ? Promesses, caractéristiques et offre réelle des start-up pour la ville intelligente“. Flux N° 133, Nr. 3 (25.10.2023): 9–23. http://dx.doi.org/10.3917/flux1.133.0009.

Der volle Inhalt der Quelle
Annotation:
La ville dite intelligente a été étudiée à l’aune de ses discours, des grandes firmes qui la portaient et des politiques effectivement menées dans les collectivités. Si les start-up sont régulièrement citées comme des actrices centrales du développement économique de la ville numérique, elles ont pourtant peu été étudiées à cet égard. À distance des imaginaires, quelle est la contribution réelle des start-up à la ville intelligente ? Comment se saisissent-elles des opportunités économiques et techniques liées à la circulation des données urbaines ? Cet article étudie les caractéristiques de ces start-up , leurs discours sur la ville intelligente et l’offre réelle qu’elles proposent. Il s’appuie principalement sur la constitution d’une base de données de start-up en France et des entretiens. D’abord, le paysage diversifié de la ville numérique est présenté, révélant des start-up semblables à celles opérant dans les autres domaines. Ensuite, la logique modélisatrice qui sous-tend leur offre pour les collectivités territoriales, destinée à optimiser la gestion urbaine, voire à la prédire , est étudiée. Néanmoins, cette logique rencontre certaines limites car les données restent toujours insuffisantes. Leur offre porte alors plutôt sur la diffusion d’instruments (capteurs, données et modélisations) avec la promesse de rendre la ville modélisable, et donc intelligente – un horizon qui semble toujours reculer à mesure que se multiplient et se complexifient ces instruments.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Soudani, Azeddine, Saadi Bougoul und Jean-Luc Harion. „Réduction des étalonnages multiples en mesures simultanées dans une couche limite turbulente d'un mélange air - hélium“. Journal of Renewable Energies 6, Nr. 2 (31.12.2003): 77–94. http://dx.doi.org/10.54966/jreen.v6i2.963.

Der volle Inhalt der Quelle
Annotation:
Les mesures simultanées par thermo-anémométrie de plusieurs grandeurs physiques d'un fluide en écoulement turbulent, nécessite l'emploi d'autant de sondes qu'il y a de variables. Un étalonnage est préalable à toute utilisation de ces capteurs pour des mesures. Cet étalonnage est fondé sur des lois d'ajustement, réalisées généralement par des méthodes classiques d'interpolation linéaire, des régressions polynomiales, des fonctions splines ou encore par des réseaux de neurones artificiels. Il permet d'établir le lien univoque entre les sorties de ces capteurs, données sous forme de tensions, et les paramètres physiques de l'écoulement à mesurer. Suivant la forme du réseau d'étalonnage obtenue, la précision de ces méthodes peut être extrêmement sensible aux degrés des polynômes d'ajustement et peut présenter ainsi des erreurs importantes d'interpolation. Il est donc nécessaire de tester systématiquement les paramètres d'ajustement pour chaque application. On montre à travers cette étude que, les méthodes de génération de grilles cartésiennes et de dépouillement de mesures, utilisant des régressions polynomiales et des interpolations linéaires, sont beaucoup moins précises que celles utilisant les fonctions splines et les réseaux de neurones artificiels. Les résultats obtenus montrent aussi que l'utilisation d'une surchauffe plus forte pour l'élément amont que l'élément aval de la sonde apporte, en général, une meilleure précision lors de la génération des grilles.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Geoffroy, P. A. „Les objets connectés sont-ils le futur de la sémiologie psychiatrique ?“ European Psychiatry 30, S2 (November 2015): S78. http://dx.doi.org/10.1016/j.eurpsy.2015.09.353.

Der volle Inhalt der Quelle
Annotation:
Les objets connectés de santé se multiplient et sont utilisés très largement par le grand public. Ils font maintenant partie de notre quotidien et constitue un enjeu économique majeur. Ces outils peuvent être des applications mobiles ou des objets connectés, comme des bracelets de type actimètre, podomètre, des tensiomètres, des capteurs de fréquence cardiaque, etc. [1,2]. Le traitement des données issues de ces objets connectés est-il possible à visée médicale ? S’il ne fait aucun doute que ces objets facilitent l’accès au soin, leur intérêt sémiologique et leur efficacité thérapeutique n’est que trop rarement testé scientifiquement . Cette communication évaluera les bénéfices en santé que les médecins peuvent attendre de ces objets connectés [1,4]. L’utilisation de ces objets devra répondre à des impératifs d’efficacité en matière de santé individuelle et globale, mais aussi à des impératifs éthiques, de protection des données recueillies et de sûreté sanitaire. Cette nouvelle aire de l’e-santé se traduira par le développement nécessaire de nouveaux algorithmes de dépistage, de diagnostic et de décisions thérapeutiques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Chugoua Njamen, Adeline, Alexis Kemajou und Louis Monkam. „Etude expérimentale du comportement thermique d'un local avec enveloppe en bois 'Iroko' dans la ville de Douala au Cameroun“. Journal of Renewable Energies 21, Nr. 2 (30.06.2018): 217–30. http://dx.doi.org/10.54966/jreen.v21i2.684.

Der volle Inhalt der Quelle
Annotation:
La valorisation des matériaux locaux, les économies d’énergie et la construction des habitats sociaux sont au centre des préoccupations dans les pays en voie de développement à l'instar du Cameroun. L’objectif de ce travail est de déterminer les conditions climatiques qui règnent dans un local avec enveloppe en bois essence Iroko. L’étude est faite à travers un local expérimental construit à Douala. Une série de mesures sur une période de tris (03) mois a été effectuée en utilisant un thermo hygromètre Log 32TH d’une part et d’un système d’acquisition de données utilisant des capteurs DTH22 et une carte Arduino d’autre part. Les données recueillies sont traitées dans Matlab 8.1. Les résultats obtenus montrent un réel déphasage entre l'extérieur et l'intérieur de l'enveloppe en bois de l’ordre de 3 °C pour une chute du taux d’humidité relative de 15 à 20 %. Les valeurs obtenues à l’intérieur sont proches des conditions de confort optimal recommandées en ambiance non climatisée dans la ville de Douala. On conclut que le matériau de construction choisi convient en ambiance chaude.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Abergel, Violette, Renato Saleri und Hervé Lequay. „Vecteurs aériens téléopérés pour l'acquisition de données spatiales d'objets patrimoniaux, Retour d'expérience“. Revue Française de Photogrammétrie et de Télédétection, Nr. 213 (27.04.2017): 73–79. http://dx.doi.org/10.52638/rfpt.2017.363.

Der volle Inhalt der Quelle
Annotation:
Le relevé aérien constitue, dans le domaine de l'archéologie et de l'architecture, un vaste champ d'applications et d'intérêt. Au-delà des capacités croissantes des drones existants, le potentiel opérationnel de tels outils dépasse aujourd'hui l'imagination de leur propres créateurs : initialement conçus dans le secteur de la robotique civile et militaire, de récentes expérimentations ont pu tester le vol autonome, la prise de décision automatique, ainsi que l'intelligence distribuée.Avec près de dix ans d'expérience dans le domaine du relevé aérien, le laboratoire MAP a expérimenté un large panel de vecteurs aériens, pilotés ou semi-autonomes, équipés de capteurs de différentes natures, à des fns de télédétection et d'acquisition de données spatiales, ce travail étant principalement dévolu à la modélisation et à la simulation d'environnements 3D à haute valeur patrimoniale. Les compétences du MAP concernent donc la mobilisation de vecteurs aériens sans équipage, mais aussi le développement d'outils experts pour la modélisation et représentation 3D ou encore les protocoles d'analyse d'image dans le domaine de l'architecture, de l'urbanisme et du paysage.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Njutapvoui, Nourdi, RUDANT Jean Paul und ONGUENE RAPHAEL. „EVALUATION DU POTENTIEL DES SERIES D’IMAGES MULTI-TEMPORELLES OPTIQUE ET RADAR DES SATELLITES SENTINEL 1 & 2 POUR LE SUIVI D’UNE ZONE CÔTIÈRE EN CONTEXTE TROPICAL : CAS DE L’ESTUAIRE DU CAMEROUN POUR LA PÉRIODE 2015-2020“. Revue Française de Photogrammétrie et de Télédétection 223 (25.08.2021): 88–103. http://dx.doi.org/10.52638/rfpt.2021.586.

Der volle Inhalt der Quelle
Annotation:
Ce travail porte sur l’évaluation du potentiel des images multi-temporelles et multi-capteurs (optique et radar) des satellites Sentinel 1 et 2 pour la cartographie de l’occupation du sol et le suivi de l’évolution du trait de côte dans un écosystème tropical sur la période 2015 à 2020. La zone d’étude choisie est l’Estuaire du Cameroun. Cette zone représente un milieu de transition écologique majeur dans la sous-région avec la présence de réserves naturelles protégées (mangroves, forêt dense, zones humides) mais aussi une forte activité anthropique (constructions, agriculture, forêt dégradée). L’approche méthodologique a consisté en une chaine de prétraitements et d’analyses visuelles d’images, suivie d’une combinaison des bandes de chaque capteur, d’une classification supervisée Random Forest pour ébaucher une cartographie de l’occupation du sol et enfin une numérisation du trait de côte. Globalement, les résultats montrent que la classification, avec les images Sentinel 2 en utilisant 10 bandes et en ajoutant 4 indices de végétation, s’avère légèrement plus précise (95.75%) que celle issue des 13 bandes initiales (91.78%). La classification avec les seules images Sentinel 1A double polarisation (VV, VH) conduit à une précision de 78.44%. La combinaison des bandes Sentinel 2A (10 bandes et 4 indices) et Sentinel 1 améliore les résultats et conduit à une précision de 98.76%. Nos résultats montrent aussi que l’utilisation des séries chronologiques d’images multi-temporelles améliore considérablement la précision de classification par rapport à l’usage d’une seule image (mono-date), et cela pour les deux capteurs, soit un gain supplémentaire de 13% et 10% respectivement pour Sentinel-2 et Sentinel-1. Néanmoins ce gain reste faible pour les classes temporellement stables. Les résultats d’analyse de l’évolution du trait de côte montrent que l’estuaire du Cameroun est perturbé selon différents niveaux d’érosion (Cap Cameroun, Partie Nord île Manoka, embouchure de la Sanaga), et d’accrétion (Limbé, et Partie Sud île Manoka) et aussi par de faible variations internes. La fusion des données de télédétection optique et radar dans la discrimination des classes d’occupation du sol, a permis de montrer que les zones de constructions sont les plus vulnérables à l’érosion côtière. Par contre, la présence de la végétation (mangrove, forêt) stabilise et protège la côte d’éventuels risques de cette nature.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

CONSTANS, Yohann, und Sophie FABRE. „Fusion De Données Hyperspectrales Et Panchromatiques Par Demelange Spectral Dans Le Domaine Reflectif“. Revue Française de Photogrammétrie et de Télédétection 224, Nr. 1 (22.12.2022): 59–74. http://dx.doi.org/10.52638/rfpt.2022.508.

Der volle Inhalt der Quelle
Annotation:
L’observation de la Terre à l’échelle locale nécessite de disposer d’images hautement résolues spatialement et spectralement. Les capteurs ne pouvant offrir simultanément de telles résolutions, une solution consiste à exploiter des images acquises par deux instruments optiques différents. Les méthodes de pansharpening hyperspectral, notamment, permettentde combiner une image panchromatique, à haute résolution spatiale, avec une image hyperspectrale, à haute résolution spectrale, afin de générer une nouvelle image hautement résolue spatialement et spectralement. De telles méthodes présentent cependant certaines limitations, en particulier le traitement des pixels mixtes. Cet article présente une nouvelle méthode de pansharpening hyperspectral appelée Spatially Organized Spectral Unmixing (SOSU) et adaptée au traitement de tels pixels. Les performances de cette méthode sont mesurées sur des données synthétiques puis réelles (simulées à partir d’acquisitions aéroportées), à l’aide de critères spatiaux, spectraux et globaux, afin d’évaluer l’apport du traitement des pixels mixtes. En particulier, cet apport est confirmé dans le cas d’un paysage périurbain par une augmentation de près de dix pourcents du taux de pixels mixtes améliorés avec SOSU, par rapport à la méthode utilisée comme référence.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Herrgott, Catherine. „Cantu in paghjella : Patrimoine Culturel Immatériel et nouvelles technologies dans le projet I-Treasures“. Études, Nr. 30 (04.03.2019): 91–113. http://dx.doi.org/10.7202/1056922ar.

Der volle Inhalt der Quelle
Annotation:
Le Cantu in paghjella est une pratique traditionnelle corse de chants polyphoniques, qui a été reconnue par l’UNESCO comme Patrimoine Culturel Immatériel (PCI) et inscrit en 2009 sur la Liste de Sauvegarde d’urgence. Le Cantu in paghjella, combinant trois registres vocaux masculins, représente un pilier de la culture corse et se chante a cappella dans diverses occasions festives, sociales et religieuses. Le principal objectif du projet I-Treasures est de développer une plate-forme ouverte et extensible pour fournir un accès aux ressources du PCI, permettre l’échange de connaissances entre chercheurs et contribuer à la transmission des savoir-faire rares des trésors humains vivants, par l’apprentissage de chants traditionnels, comme le Cantu in paghjella. Nous présentons dans cet article, le travail effectué avec les chanteurs sur la capture et la transmission de ce type de chant à plusieurs voix. Nous aborderons les technologies permettant de sauvegarder et de transmettre le chant polyphonique corse et comprenant une étude préalable à la mission de collectage afin de recueillir des témoignages pertinents des chanteurs traditionnels sur les différents aspects de leurs pratiques et techniques vocales. Il y sera fait une présentation sur l’utilisation de notre nouveau système de capture de données à l’aide d’un casque multi-capteurs qui permet l’enregistrement simultané de voix multiples et la synchronisation de données acoustiques et articulatoires. Nous verrons comment ce travail peut contribuer aux initiatives locales visant l’amélioration de l’accès aux données sonores, mais aussi aux mesures de sauvegarde d’urgence de l’UNESCO.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Marais-Sicre, Claire, Rémy Fieuzal und Frédéric Baup. „Apport des images satellites multi-spectrales (optique et radar) pour la classification des surfaces en herbe.“ Revue Française de Photogrammétrie et de Télédétection, Nr. 215 (16.08.2017): 25–41. http://dx.doi.org/10.52638/rfpt.2017.311.

Der volle Inhalt der Quelle
Annotation:
Les surfaces en herbe jouent un rôle important tant en terme économique qu'environnemental. Elles regroupent une grande diversité de végétation herbacée (pérenne ou éphémère) et occupent une partie importante de l'espace agricole français (zones de pâtures, prairies, milieux agro-naturels présents entre deux cultures principales). Dans ce contexte, cette étude vise à quantifier l'apport de l'imagerie satellitaire multi-spectrale (optique et radar) pour la mise en évidence des surfaces en herbe.Pour ce faire, des classifications supervisées orientées objet, basées sur un algorithme Random Forest et un zonage majoritaire en post-traitement sont utilisées. Cette étude émane de l'expérience de surveillance des cultures multi-capteurs (MCM'10) menée en 2010 sur une zone de polyculture située dans le sud-ouest de la France, à proximité de Toulouse. L'étude s'appuie sur des images satellites acquises entre le 14 et le 18 avril 2010, avec, en radar, des images en bandes X, C et L (de polarisation HH), en optique, une image Formosat-2, et des données terrain concomitantes acquises le 14 avril 2010. Les résultats montrent que la combinaison des images acquises en bande L (Alos) et en optique (Formosat-2) améliore les performances de la classification (précision globale = 0,85 ; Kappa = 0,81) par rapport à l'utilisation des seuls capteurs radar ou optique. Par ailleurs, la performance F-score obtenue pour les surfaces en herbe varie entre 0,1 pour Formosat-2 ; 0,34 pour la combinaison Formosat-2/ Alos et 0,52 pour Alos. Ainsi, les résultats montrent que la qualité de la classification des surfaces en herbe augmente avec l'augmentation de la longueur d'onde des images utilisées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Youssefi, David, Dimitri Lallement, Christian Hümmer, Emmanuelle Sarrazin, Emmanuel Dubois und Jean-Marc Delvit. „Pléiades à Pléiades Neo : Une analyse de l'amélioration de la restitution 3D“. Revue Française de Photogrammétrie et de Télédétection 226, Nr. 1 (15.05.2024): 1–9. http://dx.doi.org/10.52638/rfpt.2024.672.

Der volle Inhalt der Quelle
Annotation:
Fort de son expertise en géométrie et en 3D, le Centre National d’Études Spatiales (CNES) développe de nouveaux outilsopen-source capitalisant une partie de son savoir-faire. Ils sont destinés à être au coeur du segment sol de la missionCO3D et à servir tout l’écosystème aval. Le traitement de ces données impose de concevoir des chaînes robustes, capablesde passer à l’échelle. De ce fait, les outils 3D du CNES sont massivement parallélisables, utilisant des technologiesmultiprocesseurs voire multi-noeuds tout en restant agnostique au matériel utilisé. Ces logiciels proposent des interfacessimples afin de permettre également leur utilisation en dehors des chaînes de traitement opérationnelles. Ces outils sontcapables de produire un Modèle Numérique de Surface (MNS) à partir de couples stéréoscopiques d’images (CARS) dontl’étape majeure repose sur la mise en correspondance (Pandora). Par la suite, ils permettent d’extraire un Modèle Numériquede Terrain (MNT) à partir du MNS produit (Bulldozer) et d’en dériver un Modèle Numérique de Hauteur (MNH). Suiteà cela, des comparaisons entre tous ces modèles numériques d’élévation peuvent également être effectuées (Demcompare).Dans l’attente de l’arrivée des données CO3D, le CNES éprouve d’ores et déjà ces outils sur d’autres capteurs,dont Pléiades et plus récemment Pléiades Neo. Cet article qualifie l’amélioration de cette restitution 3D apportée par cettenouvelle génération de satellite. Les outils 3D du CNES sont sous licence libre et non contaminante (Licence Apache v2)afin de notamment permettre l’exploitation et la valorisation des données Pléiades et maintenant Pléiades Neo. Ils offrentenfin la possibilité de reproduire les résultats présentés dans cet article.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Boussidi, Brahim, Ronan Fablet, Emmanuelle Autret und Bertrand Chapron. „Accroissement stochastique de la résolution spatiale des traceurs géophysiques de l'océan: application aux observations satellitaires de la température de surface de l'océan“. Revue Française de Photogrammétrie et de Télédétection, Nr. 202 (16.04.2014): 66–78. http://dx.doi.org/10.52638/rfpt.2013.52.

Der volle Inhalt der Quelle
Annotation:
Le développement des capteurs satellitaires d'observation des traceurs géophysiques à la surface de l'océan et les algorithmes de traitement associés ont connu un essor important au cours des vingt dernières années. Les différents capteurs satellitaires disponibles présentent des résolutions spatiales et temporelles différentes ainsi que différents niveaux de sensibilité à la couverture nuageuse. Dans le cas des images de température de surface de la mer, ceci se traduit notamment par de forts taux de données manquantes dans les observations de très haute-résolution (de l'ordre de 1kmx1km) contrairement aux observations de basse-résolution (de l'ordre de 25kmx25km). Il existe donc un enjeu fort pour exploiter conjointement les différentes sources d'information disponibles. Dans ce contexte, nous proposons un nouveau modèle stochastique de super-résolution basé sur une augmentation réaliste de l'information texturale des images. L'originalité de ce modèle réside dans la formulation d'a priori stochastiques sur la géométrie des images, qui sont caractéristiques des textures associées aux champs géophysiques à la surface de l'océan. Formellement, ce modèle consiste à modéliser les lignes de niveau de l'image comme des réalisations de marches aléatoires. Ce modèle stochastique s'étend naturellement à la simulation d'images haute-résolution à partir d'une observation basse-résolution. Cet article décrit la formulation mathématique du modèle proposé, ses caractéristiques théoriques ainsi que le schéma numérique mis en oeuvre pour la super-résolution d'images texturées. L'application à la simulation haute-résolution de champs de température de surface de la mer dans une région active de l'océan (courant des Aiguilles) démontre sa pertinence dans le contexte applicatif de la télédétection satellitaire de l'océan. Nous en discutons également les principales contributions ainsi que les différentes extensions possibles.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Guerci, B., H. Hanaire, E. Renard, A. Penfornis, P. Benhamou, Y. Reznik, D. Not, M. Doron, S. Franc und G. Charpentier. „PO28 Étude de concordance des capteurs de glucose livrant des données à un algorithme de Pancréas artificiel (projet DIABELOOP). Faut-il un ou deux capteurs simultanés pour la boucle fermée ?“ Diabetes & Metabolism 40 (März 2014): A27—A28. http://dx.doi.org/10.1016/s1262-3636(14)72286-4.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

MANDEL, P., A. FLEURY, K. DELABRE und V. HEIM. „La conductivité électrique, témoin opérationnel de la qualité de l’eau dans un réseau de distribution“. Techniques Sciences Méthodes 11 (21.11.2022): 27–37. http://dx.doi.org/10.36904/tsm/202211027.

Der volle Inhalt der Quelle
Annotation:
Cette étude montre comment les données de conductivité mesurées par des sondes déployées sur un réseau de distribution d’eau potable peuvent être exploitées de manière automatique pour résumer et expliquer les variations spatiales de qualité d’eau. Un algorithme de classification non supervisée est utilisé pour regrouper les sondes dont les profils de conductivité se ressemblent et proposer ainsi des groupes représentant des zones de qualité d’eau homogène. La méthodologie est évaluée sur le réseau du Syndicat des eaux d’Île-de-France (Sedif), à partir des données de 215 sondes mesurant la conductivité toutes les cinq minutes. Deux types de résultats sont présentés : d’une part, l’image d’ensemble de la qualité de l’eau dans le réseau ; d’autre part, une typologie des différents phénomènes mis au jour par la méthode. Les résultats présentés montrent que les différentes zones de qualité d’eau connues par l’expertise métier sont repérées automatiquement, et que de nombreuses sous-zones jusqu’alors inconnues sont identifiées. Ainsi les conséquences des restitutions de réservoir, des interconnexions avec des distributeurs voisins, de l’âge de l’eau, des mélanges d’eaux produites par différentes usines, sont mises en évidence par la méthodologie proposée. Pour le réseau du Sedif, les résultats ont montré que 96 % des sondes pouvaient être affectées à un groupe. Cette méthodologie peut être appliquée à tout réseau équipé de capteurs de conductivité, dès lors qu’il est susceptible d’être alimenté par des eaux de qualités différentes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Pla, Guillaume, Julien Crippa, Abdelatif Djerboua, Octavian Dobricean, Frédéric Dongar, Allan Eugene und Mireille Raymond. „ESPADA : un outil pour la gestion en temps réel des crues éclairs urbaines en pleine modernisation“. La Houille Blanche, Nr. 3-4 (Oktober 2019): 57–66. http://dx.doi.org/10.1051/lhb/2019027.

Der volle Inhalt der Quelle
Annotation:
La ville de Nîmes est un territoire particulièrement exposé au risque inondation, et notamment aux crues torrentielles. Si aucun cours d'eau majeur n'est présent dans sa zone urbaine dense, ce sont les cadereaux, fossés de garrigues, qui sont en charge de la collecte du ruissellement et traversent la ville. Les évènements méditerranéens, des bassins versants de taille réduite (au plus 30 km2) et de nature karstique ainsi qu'une configuration en piémont sont autant de facteurs à l'origine de ruissellement potentiellement conséquent avec débordements majeurs sur la ville, de type crues-éclairs. Suite aux inondations du 3 octobre 1988, la ville de Nîmes a lancé une politique ambitieuse de prévention du risque inondation, incluant un aménagement important des cadereaux. Dans cette démarche, elle se dote en 2004 d'un système d'alerte et d'aide à la gestion de crise permettant de prévoir le risque inondation : ESPADA (Evaluation et suivi des précipitations en agglomération pour devancer l'alerte). L'objectif est de prévoir les débits des cadereaux à échéance maximale 1 h 30, en exploitant un modèle hydrologique intégrant une représentation fine du fonctionnement karstique. Dans le cadre de son Programme d'actions de prévention des inondations (PAPI), la ville de Nîmes a débuté en 2014 la modernisation du système ESPADA avec pour objectif d'améliorer la qualité des données d'entrée du système temps réel (pas de temps 5 min). Un réseau radio de collecte fiabilisée des capteurs hydrométéorologiques de la Ville a été mis en place, assurant également la collecte de postes du SPC-GD (Service de prévision des crues du Grand Delta). Parallèlement, un outil radar d'observation et prévision de pluie au pixel 500 m, échelle adaptée aux contraintes hydrologiques locales, a été développé, incluant une calibration de la donnée par exploitation des données des postes pluviographiques disponibles. Dans le cadre de la seconde étape de cette modernisation, le modèle de prévision du système est retravaillé afin de fonctionner en continu au pas de temps 5 min. La propagation est gérée via un modèle hydraulique 1D. Par ailleurs, les données limnigraphiques sont utilisées en temps réel afin de réajuster les valeurs de débits et les niveaux des bassins de rétention. De même, une interface en ligne est en cours de développement, permettant une utilisation efficace des outils par l'ensemble des acteurs de la gestion de crise. À terme, il est prévu de mettre à disposition de la population une partie des informations associées au système ESPADA via une interface de type Vigicrues.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

DURAND, Maëva, Jean-Yves DOURMAD, Christine LARGOUËT, Céline TALLET und Charlotte GAILLARD. „Alimentation de précision des truies gestantes : prise en compte de la santé, du comportement et de l’environnement“. INRAE Productions Animales 34, Nr. 4 (03.03.2022): 293–304. http://dx.doi.org/10.20870/productions-animales.2021.34.4.5369.

Der volle Inhalt der Quelle
Annotation:
Une meilleure prise en compte de la variabilité des besoins nutritionnels entre les truies gestantes permet de réduire les coûts alimentaires sans détériorer leurs performances. Les modèles nutritionnels prédisent les besoins journaliers et peuvent être couplés à des automates pour délivrer un mélange individualisé d’aliments. La variabilité des besoins nutritionnels entre truies gestantes peut s’expliquer par certaines caractéristiques individuelles (ex. âge, poids vif, rang de portée, état corporel, stade de gestation), par leur comportement (ex. activité physique, interactions sociales), par leur santé et par les conditions d’élevage (ex. température ambiante, type de logement). Des capteurs sont désormais capables d’enregistrer ces différents facteurs de variation des besoins nutritionnels et d’aider à la détection de troubles occasionnels aux niveaux individuel ou collectif (ex. santé ou dysfonctionnement technique). Grâce aux techniques de l’intelligence artificielle, qui rendent possible l’analyse et l’exploration de données hétérogènes, et à l’intégration de nouveaux critères comportementaux et environnementaux dans les modèles nutritionnels, il est aujourd’hui envisageable de prédire les besoins journaliers nutritionnels d’une truie en gestation de manière encore plus précise, voire en temps réel.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Grosjean, Sylvie. „Susciter des récits d’usage de dispositifs d’autosoins « intelligents » par la méthode du récit à achever“. Réseaux N° 243, Nr. 1 (20.02.2024): 143–82. http://dx.doi.org/10.3917/res.243.0143.

Der volle Inhalt der Quelle
Annotation:
L’objectif de cet article est de montrer qu’il est possible de penser les usages de technologies d’intelligence artificielle – dans notre cas des dispositifs portables ou capteurs sensoriels intelligents pour des personnes vivant avec la maladie de Parkinson – avec les utilisateurs et d’intégrer les savoirs produits au processus de conception même de ces technologies. Pour ce faire, nous prendrons appui sur un projet international dans le cadre duquel plusieurs dispositifs d’autosoin impliquant des algorithmes d’apprentissage sont en développement. À partir de récits obtenus via une méthode d’enquête nommée « Story Completion Method » (ou méthode du récit à achever), nous examinerons les multiples pratiques révélées via les récits créés par les participants. Nous verrons que ces dispositifs, tout en équipant le travail du patient sur et avec des re-présentations numériques d’un corps « dysfonctionnel » et imprévisible, impliquent un « travail réflexif équipé » pour rendre intelligibles et signifiantes les données générées par ces technologies. Ces différentes modalités du travail mises en récit par les patients nous permettront d’ouvrir une réflexion sur la manière de penser le design des dispositifs d’autosoin dits « intelligents ».
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Javelot, H., S. Garcia, L. Weiner und G. Bertschy. „Le projet PSYCHE, un système de monitoring multiparamétrique : présentation du concept et évaluation de l’acceptabilité“. European Psychiatry 28, S2 (November 2013): 31. http://dx.doi.org/10.1016/j.eurpsy.2013.09.076.

Der volle Inhalt der Quelle
Annotation:
IntroductionLe projet PSYCHE (Personalised monitoring Systems for care in mental Health) vise à évaluer la capacité d’un système de monitoring à détecter et à prédire les changements d’humeur chez des patients cyclothymiques ou présentant un trouble bipolaire à cycles rapides. Ce système permet l’enregistrement de données physiologiques telles que le rythme cardiaque, respiratoire, l’actimétrie, la voix et de données issues d’autoévaluations de l’humeur et du sommeil. Nous présentons ici l’intégration dans la vie quotidienne du concept PSYCHE. MéthodeUne évaluation de la faisabilité et de l’acceptabilité de ce système a été menée sur 4 sujets cyclothymiques lors de la visite d’inclusion, après 7 jours d’utilisation du système et en fin d’étude. Celle-ci, d’une durée totale de 14 semaines, consiste en des enregistrements bi-hebdomadaires : (i) via un t-shirt porté la nuit muni de capteurs raccordés à un boîtier électronique (SEW), de l’actimétrie, des rythmes cardiaque et respiratoire, (ii) via un smartphone, de la voix et de l’humeur (questionnaire ISS de Bauer). Par ailleurs, un agenda de l’humeur est rempli quotidiennement sur smartphone. RésultatL’impression initiale, à 7 jours et à 14 semaines sur le concept PSYCHE, est hautement favorable. Les patients se montrent à la fois enthousiastes et rapportent d’un grand niveau d’aisance avec le matériel, malgré des problèmes de connexion entre le smartphone et le boîtier SEW rencontrés par 2 sujets au début de l’étude.ConclusionLe système PSYCHE réclame un bon niveau d’adaptation technologique et un investissement important pour la réalisation de l’ensemble des activités de suivis, mais bénéficie d’une bonne acceptabilité. Des optimisations techniques restent nécessaires pour que le système PSYCHE soit applicable dans un contexte clinique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

HOSTIOU, N., C. ALLAIN, S. CHAUVAT, A. TURLOT, C. PINEAU und J. FAGON. „L’élevage de précision : quelles conséquences pour le travail des éleveurs ?“ INRAE Productions Animales 27, Nr. 2 (02.06.2014): 113–22. http://dx.doi.org/10.20870/productions-animales.2014.27.2.3059.

Der volle Inhalt der Quelle
Annotation:
L’automatisation et l’« électronisation » des élevages explosent depuis quelques années dans de nombreux pays, donnant naissance à ce que l’on appelle l’élevage de précision. Ce déploiement important de capteurs et d’automates provenant de l’industrie désormais utilisables en élevage, répond aux contraintes économiques, structurelles et sociales actuelles des exploitations agricoles. L’élevage de précision se développe dans les différentes filières animales pour faciliter la surveillance de troupeaux dans un contexte d'accroissement de la taille des élevages et de diminution de la disponibilité en main-d’oeuvre. La réduction de la pénibilité de certaines tâches répétitives semble être, aussi, un facteur d’adoption de ces nouvelles technologies. Cette synthèse se concentre sur l’impact de l’élevage de précision sur le métier d’éleveur et l’organisation de son travail, sujets encore peu abordés. Des gains de temps sont en effet observés du fait de l’introduction des automates et capteurs dans les élevages car ils remplacent les tâches physiques récurrentes (traite, alimentation) tout en simplifiant la surveillance des animaux (chaleurs, problèmes sanitaires, surveillance des mises bas….). Outre les gains de temps qui restent encore à objectiver, d’autres dimensions du travail sont affectées par l’élevage de précision (souplesse dans l’organisation, nouveaux horaires). Les informations fournies peuvent aussi alléger la charge mentale en indiquant les interventionsnécessaires, par exemple, pour le moment d’insémination optimal, à l'occasion des mises bas ou en détectant précocement les troubles de santé pour anticiper l'action curative. Cependant, le recours à ces nouvelles technologies crée également de nouvelles tâches telles que l’entretien et la surveillance du matériel, l’apprentissage de son utilisation, la consultation et l’interprétation des données fournies par ces outils. Ainsi, la charge mentale peut parfois être accrue du fait de la complexité des informations à gérer, de la multiplicité des alarmes ou des alertes ou encore des risques de pannes plus fréquents. Les relations entre l’éleveur et ses animaux sont également modifiées. Les conséquences sur le travail, si elles comportent des aspects positifs susceptibles d'exercer un attrait pour le métier notamment de jeunes en quête de modernité, peuvent se révéler sources d'échecs si elles ne sont pas adaptées aux besoins et aux compétences des éleveurs. Il est donc essentiel de prendre en compte le travail, selon ses différentes dimensions, pour favoriser l’appropriation de ces nouvelles technologies par les éleveurs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Dejoux, Jean-François, Gérard Dedieu, Olivier Hagolle, Danièle Ducrot, Jean-Claude Menaut, Eric Ceschia, Frédéric Baup et al. „Kalideos OSR MiPy : un observatoire pour la recherche et la démonstration des applications de la télédétection à la gestion des territoires“. Revue Française de Photogrammétrie et de Télédétection, Nr. 197 (22.04.2014): 17–30. http://dx.doi.org/10.52638/rfpt.2012.79.

Der volle Inhalt der Quelle
Annotation:
Ces dernières années, le CESBIO a mis en place un Observatoire Spatial Régional (OSR), dispositif d'observation couplant mesures de terrain et télédétection dans le sud-ouest de la France. L'OSR se base sur des acquisitions mensuelles de données satellitaires à résolution décamétrique depuis 2002 et sur des sites expérimentaux lourdement instrumentés (mesures en continu de flux d'eau et de carbone) à partir de 2004. Ce dispositif a été reconnu service d'observation par l'INSU/CNRS en 2007 et site Kalideos par le CNES fin 2009 sous le nom de « OSR MiPy ». Le site atelier correspond à l'emprise d'une image Spot, soit environ 50 x 50 km, et couvre une grande diversité de milieux (pédologie, topographie), d'occupation et d'utilisation des sols, de pratiques et de modalités de gestion (agricole, forestière…) et de conditions climatiques (fort gradient de déficits hydriques estivaux).Pour la télédétection, ce site a servi la préparation de SMOS et soutient maintenant en priorité la préparation des missions VENµS et Sentinel-2. Les aspects radar, imagerie thermique et les approches multi-capteurs se développent depuis peu. Le traitement du signal, la physique de la mesure et l'amélioration de la qualité des données constituent le premier axe de recherche. Au niveau thématique, le CESBIO a pour priorité le suivi et la modélisation des agrosystèmes de grandes cultures. L'implication récente d'autres partenaires scientifiques ou de gestionnaires a permis d'initier des travaux sur d'autres aspects, comme la biodiversité, l'aménagement du territoire, le suivi de l'extension urbaine, les risques environnementaux, la santé des forêts, l'enfrichement, la diversité et la productivité des prairies. La valorisation des 10 années d'archives 2002-2011 débute et semble très pertinente pour la caractérisation en haute et en basse résolution des conséquences d'années climatiques atypiques (2003, 2011) sur les éco-agro-systèmes. L'extrapolationdes résultats obtenus sur ce site atelier à toute la région Midi-Pyrénées ou à la chaine des Pyrénées est aussi initiée.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Soto Molina, Victor Hugo, und Hugo Delgado Granados. „Comparación de distintos métodos de instalación de mini data loggers en suelo de alta montaña; una contribución al estudio del ambiente periglaciar / Comparison of different methods of installing mini data loggers in high mountain ground; a contribution to the study of the periglacial environment“. Ería 2, Nr. 2 (10.10.2019): 165–82. http://dx.doi.org/10.17811/er.2.2019.165-182.

Der volle Inhalt der Quelle
Annotation:
El empleo de mini data loggers para el estudio del régimen térmico del suelo en ambientes periglaciares representa una variante práctica y económica. Sin embargo, la colocación de estos sensores en contacto directo con el interior del suelo provoca un alto índice de pérdida de los mismos como resultado de diversos procesos geomorfológicos y por la acción cementante del suelo congelado; por ello, resulta común el empleo de alternativas de instalación para protegerlos del entorno. En este trabajo cuestionamos la igualdad cuantitativa de los registros de temperatura entre los métodos alternos de instalación más comunes, comparados contra el método del contacto directo con el suelo. El objetivo ha sido identificarel método que arroja datos más cercanos a los valores reales. L’utilisation de mini-enregistreurs de données pour l’étude du régime thermique du sol en milieu périglaciaire représente une variante pratique et économique. Cependant, la mise en contact direct de ces capteurs avec l’intérieur du sol entraîne un taux élevé de perte en conséquence de divers processus géomorphologiques et de l’action de cimentation du sol gelé; Par conséquent, il est courant d’utiliser des alternatives d’installation pour les protéger de l’environnement. Dans ce travail, nous questionnons l’égalité quantitative des enregistrements de température parmi les méthodes d’installation alternatives les plus courantes, par rapport à la méthode du contact direct avec le sol. L’objectif était d’identifier la méthode qui fournit les données les plus proches des valeurs réelles. The use of mini data loggers to study the thermal regime of the soil in periglacial environments represents a practical and economical variant. However, the placement of these sensors in direct contact with the interior of the soil causes a high rate of loss as a result of various geomorphological processes and the cementing action of the frozen soil; Therefore, it is common to use installation alternatives to protect them from the environment. In this paper we question the quantitative equality of temperature records among the most common alternate installation methods, compared against the method of direct contact with the ground. The objective has been to identify the method that offers data closest to the real values.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Palacio-Quintin, Cléo. „Composition interactive : du geste instrumental au contrôle de l’électronique dans Synesthesia 4 : Chlorophylle“. Circuit 22, Nr. 1 (30.04.2012): 25–40. http://dx.doi.org/10.7202/1008966ar.

Der volle Inhalt der Quelle
Annotation:
Depuis les premières compositions de musique mixte dans les années 1950, la synchronisation des parties instrumentales et électroacoustiques des oeuvres fait partie des préoccupations des compositeurs et interprètes. L’utilisation de systèmes interactifs informatisés permet maintenant de relier intimement ces deux univers musicaux. L’auteure démontre ici comment l’utilisation d’un instrument augmente de capteurs électroniques (l’hyper-flute) permet de capter les gestes de l’instrumentiste et ainsi lui donner la possibilité d’interagir avec l’ordinateur.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Serratrice, Jean François. „Suivi des déformations du massif rocheux sous la fondation de la pile VII du Pont du Gard“. Revue Française de Géotechnique, Nr. 164 (2020): 2. http://dx.doi.org/10.1051/geotech/2020023.

Der volle Inhalt der Quelle
Annotation:
Le Pont du Gard est un pont-aqueduc romain construit vers 50 après JC pour assurer le franchissement des gorges du Gardon par un aqueduc d’alimentation de la ville de Nîmes (France). Le pont-aqueduc et le pont routier attenant sont édifiés sur un entablement calcaire urgonien, karstifié et fracturé. Les ouvrages enjambent le lit mineur du Gardon par une voûte qui relie les piles VII et VIII. D’un point de vue géologique, ce chenal profond constitue une incision fracturée majeure dans ce paysage rocheux. Depuis près d’un siècle, les craintes d’une déstabilisation des flancs subverticaux de ce chenal ont motivé la mise en place de protections et de dispositifs de renforcement du massif rocheux. Un appareillage constitué par deux boulons instrumentés au moyen de capteurs extensométriques et une sonde de température a été mis en place dans l’appui rocheux de la pile VII et a fait l’objet d’un suivi pendant plusieurs années. Cette auscultation révèle des déformations de la roche qui évoluent avec le régime saisonnier des températures atmosphériques. Parmi les fluctuations journalières, des petits évènements semblent pouvoir être attribués à la variation de la température de l’eau pendant certaines crues du Gardon. Un calcul approximatif de ces variations saisonnières et momentanées a été effectué au moyen d’une formulation analytique. Un premier paragraphe présente une revue bibliographique des effets thermiques dans les massifs rocheux sous l’influence des conditions climatiques. Le paragraphe suivant est consacré à la présentation du site, de ses conditions environnementales et des travaux de renforcement. Les principales caractéristiques du dispositif d’auscultation sont présentées ensuite, puis les données recueillies. Une simulation des effets de la température est proposée enfin. Les résultats permettent d’expliquer effectivement l’ordre de grandeur des déformations observées dans la roche.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Moreira Braz, Adalto, Fernanda Vieira Xavier und Patricia Helena Mirandola Garcia. „Análise da diferença entre dados altimétricos em uma bacia hidrográfica através da comparaçao entre modelos digitais de elevação“. Ateliê Geográfico 12, Nr. 1 (03.08.2018): 71–96. http://dx.doi.org/10.5216/ag.v12i1.41467.

Der volle Inhalt der Quelle
Annotation:
Resumo A utilização de Modelos Digitais de Elevação (MDE) obtidos por sensores orbitais representa uma alternativa para suprir a carência de mapeamentos nos mais diversificados segmentos de estudos. Sobre a possibilidade de estudar o relevo, um fator importante que favoreceu a inclusão do mesmo na identificação e na análise de sistemas terrestres advém de recentes coletas de dados topográficos por técnicas de sensoriamento remoto. Os dados topográficos da bacia hidrográfica do córrego Ribeirãozinho (BHCR) foram espacializados objetivando identificar diferenças dos dados altimétricos e analisar a qualidade dos mesmos, provenientes de imagens SRTM (banda C e X), Topodata e ASTER GDEM. Através da aplicação do geoprocessamento e análise estatística, utilizou-se do teste de Tukey, que consistiu em comparar e definir a menor diferença significativa entre os valores, avaliando a diferença de topografia do terreno gerado a partir do uso de um dos MDEs distribuídos gratuitamente. Além disso, buscou-se apontar o melhor instrumento para aplicações correlatas à proposta aqui apresentada. Palavras-chave: SRTM; TOPODATA; ASTER GDEM; Teste de Tukey Abstract The utilization of Digital Elevation Models (DEM) got from orbitals sensors is an alternative to overcome the mapping deficiency in the most diverse segments of studies. On the possibility to relief study, an important factor that favored the inclusion of the same in the identification and terrestrial systems analysis comes from recent topographic data collected by remote sensing techniques. Topographic data of the Ribeirãozinho hydrographic basin stream (RHBS) were spatialized aiming at identifying differences in altimetry data and analyze their quality, from SRTM images (C and X band), TOPODATA and ASTER GDEM. Through the application of geoprocessing and statistic analysisit was used Tukey test, which consisted on comparing and define the smallest significant difference between values, evaluating the difference in topography of the terrain generated from the use of one of the DEM distributed free of charge. Besides that, sought to point out the best instrument for applications related to the proposal presented here. Keywords: SRTM; TOPODATA; ASTER GDEM; Tukey test Résumé L’utilisation de Modèles Numériques d’Élévation (MNE) obtenus grâce à des capteurs orbitaux représente une alternative pour répondre aux insuffisances cartographiques dans la diversité des éléments des études. Sur la possibilité d’étudier le relief, un facteur important qui favorise l’inclusion de celui-ci dans l’identification et l’analyse des systèmes terrestres provenant de la récente collecte de données topographiques par des techniques de géotraitement. Les données topographiques du bassin hydrographique du cours d’eau Ribeirãozinho (BHCR) ont été spatialisés dans l’objectif d’identifier des données altimétriques et d’analyser leur qualité, provenant des images SRTM (bande C et X), Topodata et ASTER GDEM. À travers l’application du géotraitement et de l’analyse statistique, a été utilisé le test de Tukey, qui consiste à comparer et définir la plus faible différence significative entre les valeurs, l'évaluation de la différence de la topographie générée à partir de l'utilisation de l'un des protocoles d'accord distribué gratuitement. De plus, on cherche à identifier le meilleur instrument pour les applications liées à la présente proposition. Mots-clés: SRTM; TOPODATA; ASTER GDEM; Test de Tukey
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Feurer, Denis, Mohamed Amine El Maaoui, Mohamed Rached Boussema und Olivier Planchon. „Méthode opérationnelle de production d'orthophotos et de MNT décimétriques à l'échelle du kilomètre carré par cerf-volant“. Revue Française de Photogrammétrie et de Télédétection, Nr. 213 (26.04.2017): 43–53. http://dx.doi.org/10.52638/rfpt.2017.190.

Der volle Inhalt der Quelle
Annotation:
Tous vecteurs confondus, ce sont les drones, notamment les multirotor, qui ont connu le plus fort développement pour l'acquisition d'images aériennes durant les cinq dernières années. L'imagerie accessible par ce type de plate-forme répond à un besoin de cartographie à une échelle intermédiaire entre l'imagerie submétrique (satellite à très haute résolution spatiale ou vecteurs aériens comme les ULM et certains drones) et l'imagerie acquise à très basse altitude à des résolutions parfois inférieures au centimètre. Par son prix élevé, l'imagerie submétrique aérienne et satellitaire laisse un grand nombre de besoins sans réponse acceptable. Parmi eux, citons l'imagerie à petit budget demandée par les collectivités locales ou les suivis denses (en particulier temporels). Finalement, la réglementation récente a encadré les vols drones de manière très contraignante, mettant virtuellement hors-la-loi tous les acteurs occasionnels d'imagerie par drone.L'objectif de cette communication est de présenter une méthode simple, opérationnelle et à bas coût pour la prise de vue aérienne. Il s'agit d'utiliser le cerf-volant comme vecteur alternatif aux aéronefs sans pilote. Le cerf-volant (avec le ballon) fait partie des premières plates-formes utilisées historiquement pour la photographie aérienne. Il a connu un regain d'intérêt depuis les années 70-80 avec de nombreuses applications en archéologie et la disponibilité depuis les années 2000 de capteurs et logiciels abordables et performants le rend plus attractif encore. La méthode proposée ici permet la cartographie de superficies dépassant le kilomètre carré à une résolution décimétrique. Elle présente un certain nombre d'atouts, comme le coût modique de la plate-forme et la capacité de voler sur une très large plage de vents (de 5 à 40km/h), un cerf-volant de six à dix mètres carrés ayant la même charge utile qu'un drone pour une autonomie supérieure. Enrevanche, la principale difficulté de mise en oeuvre opérationnelle du cerf-volant pour la cartographie par image aérienneest le manque de contrôle du vecteur, ce qui pose quelques verrous au niveau de l'acquisition et du traitement des données.Nous présentons dans cette communication les avancées méthodologiques réalisées afin de dépasser ces limites.Nous détaillons tout d'abord la méthode d'acquisition développée et le mode opératoire mis en oeuvre pour obtenir des jeux de données image permettant la cartographie opérationnelle de zones d'intérêt. Ensuite, nous présentons les traitements effectués à l'aide de logiciels désormais abordables qui permettent le calcul de l'aérotriangulation et de la corrélation dense sur plusieurs centaines d'images. Nous présentons enfin les résultats obtenus sur des exemples d'applications en conditions réelles afin de discuter du potentiel et des limitations de cette méthode, proposée comme alternative aux solutions existantes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Noël, Guillaume, und Sylvie Servigne. „Indexation multidimensionnelle de bases de données capteur temps-réel et spatio-temporelles“. Ingénierie des systèmes d'information 10, Nr. 4 (24.08.2005): 59–88. http://dx.doi.org/10.3166/isi.10.4.59-88.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

LAYELMAM, Mohammed. „Production des cartes de probabilité de présence des criquets pèlerins sur le territoire marocain à partir des données de télédétection“. Revue Française de Photogrammétrie et de Télédétection, Nr. 216 (19.04.2018): 49–59. http://dx.doi.org/10.52638/rfpt.2018.324.

Der volle Inhalt der Quelle
Annotation:
Le criquet pèlerin, Schistocerca gregaria, est l'une des espèces acridiennes les plus redoutées en raison de l'ampleur des dégâts qu'il occasionne sur les cultures. Les pays touchés par cet insecte mobilisent des équipes de prospecteurs pour surveiller les habitats favorables à leur développement. Pour faciliter les interventions de ces prospecteurs et prédire la présence ou l'absence de criquets pèlerins, nous proposons pour le cas du Maroc une méthode basée sur l'historique des prospections et les variables explicatives calculées à la base des données de télédétection. Les données de télédétection utilisées sont issues du capteur MODIS et la technique CMORPH (NOAA CPC MORPHING Technique), ces données sont l'indice de végétation par différence normalisée (NDVI), la température de surface (LST) et la pluviométrie (P). Durant cette étude, nous avons testé deux modèles statistiques (Régression logistique et Forêts aléatoires) dans le but de trouver la meilleure approche à utiliser pour la production des cartes de prédiction. La comparaison des indicateurs extraits à partir de la matrice de confusion de chaque modèle nous a permis de conclure que la prévision par l'approche de forêts aléatoires semble meilleure que la régression logistique. Avec la modélisation statistique nous avons montré qu'il est possible de produire des cartes de prédiction de la présence/absence des criquets pèlerins en se basant sur les données de télédétection. Cette étude est une étape supplémentaire dans l'élaboration de cartes qui vont aider les prospecteurs à mieux orienter les missions de terrain et faciliter la localisation des zones favorables au développement des criquets pèlerins.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Asaniyan, E. K., und V. O. Akinduro. „Impact of stocking density on the rearing environment and growth performance of broiler chicken“. Nigerian Journal of Animal Production 47, Nr. 6 (28.02.2021): 65–81. http://dx.doi.org/10.51791/njap.v47i6.2875.

Der volle Inhalt der Quelle
Annotation:
The consequence of high stocking density in commercial production of broiler chickens under the changing climate could predispose the chickens to adverse conditions. Therefore, this study was conducted to investigate the influence of stocking density on the rearing environment and performance of broiler chicken. Ninety (90) one day-old chicks of Arbor acre breed were used as experimental units in the trial that lasted eight (8) weeks. The bird were randomly assigned to three treatments of stocking densities 5, 10 and 15 birds/m2 with three replicates per treatment. The birds were raised in deep litter system bedded with woodshaving at 1 m2 per replicate. They were fed ad libitum with commercial broiler diets with drinking water supplied without restrictions. The meteorological data (Temperature and Relative Humidity) within the pen were obtained using the Maxims thermocron i-button Temperature and Humidity sensors and a stand-alone automated weather station was deployed outside the pen house which measured Temperature and Relative humidity parameters within the premises (Figure 1c), which were programmed to measure at 10 minutes sampling interval. Data collected were on daily ambient temperature and relative humidity, feed intake, water intake, weight gain and computed feed conversion ratio. The temperature of the broiler pens was found inversely related to its relative humidity across the treatments with relative fluctuations as the birds grow. Temperature within the pens (ambient temperature) increased with the stocking densities; stocking density 15 birds/m2 (25.94±0.125oC -31.79±0.360oC) being the hottest while 5 birds/m2 (25.47±0.136oC - 31.43±0.353oC ) was the least. Birds at stocking density of 5 birds/m2 (90.00g/bird/week – 2197.78g/bird/week) performed better in terms of growth and followed by those of 10 birds/m2 (95.00g/bird/week – 2018.52g/bird/week). Stocking densities of 15 birds/m2 (84.19g/bird/week – 1907.44g/bird/week) recorded the lowest weight gain. The combine influence of weather parameters (temperature and relative humidity) in bringing about growth of the birds diminishes as the stocking density increases. There was virtually no significant influence of the stocking densities on weekly mean temperature and relative humidity in the broiler chicken pens throughout the period of the study. Therefore, for eight weeks rearing period under any of the stocking density levels, fatality of weather modification could be prevented within the rearing environment through provision of adequate ventilation. La conséquence de la forte densité d'élevage dans la production commerciale de poulets de chair dans le climat changeant pourrait prédisposer les poulets à des conditions défavorables. Par conséquent, cette étude a été menée pour étudier l'influence de la densité d'élevage sur l'environnement d'élevage et les performances des poulets de chair. Quatrevingt-dix (90) poussins d'un jour de race 'Arbor acre' ont été utilisés comme unités expérimentales dans l'essai qui a duré huit (8) semaines. Les oiseaux ont été assignés auhasard à trois traitements de densités de peuplement de 5, 10 et 15 oiseaux / m2 avec trois répétitions par traitement. Les oiseaux ont été élevés dans un système de litière profonde recouvert d'un rasage de bois à 1 m2 par répétition. Ils ont été nourris ad libitum avec des régimes commerciaux pour poulets de chair avec de l'eau potable fournie sans restrictions. Les données météorologiques (température et humidité relative) à l'intérieur du stylo ont été obtenues à l'aide des capteurs de température et d'humidité 'Maximsthermocron i-button' et une station météorologique automatisée autonome a été déployée à l'extérieur de l'enclos qui mesurait les paramètres de température et d'humidité relative dans les locaux (Figure 1c), et ils ont été programmés pour mesurer à 10 minutes d'intervalle d'échantillonnage. Les données recueillies concernaient la température ambiante quotidienne et l'humidité relative, la consommation alimentaire, la consommation d'eau, le gain de poids et le taux de conversion alimentaire calculé. La température des enclos a été trouvée inversement proportionnelle à son humidité relative pendant les traitements avec des fluctuations relatives à mesure que les oiseaux grandissent. La température à l'intérieur des enclos (température ambiante) augmentait avec les densités de stockage ; densité de peuplement 15 oiseaux / m2 (25,94 ± 0,125 ° C -31,79 ± 0,360 ° C) étant le plus chaud tandis que 5 oiseaux / m2 (25,47 ± 0,136 ° C -31,43 ± 0,353 ° C) était le moins. Les oiseaux ayant une densité de peuplement de 5 oiseaux / m2 (90,00 g / oiseau / semaine - 2197,78 g / oiseau / semaine) ont obtenu de meilleurs résultats en termes de croissance et suivis par ceux de 10 oiseaux / m2 (95,00 g / oiseau / semaine - 2018,52 g / oiseau / semaine). Des densités de peuplement de 15 oiseaux / m2 (84,19 g / oiseau / semaine - 1907,44 g / oiseau / semaine) ont enregistré le gain de poids le plus faible. L'influence combinée des paramètres météorologiques (température et humidité relative) dans la croissance des oiseaux diminue au fur et à mesure que la densité d'élevage augmente. Il n'y avait pratiquement aucune influence significative des densités de peuplement sur la température moyenne hebdomadaire et l'humidité relative dans les enclos de poulets de chair pendant toute la période de l'étude. Par conséquent, pendant une période d'élevage de huit semaines, quel que soit le niveau de densité de peuplement, la mortalité due aux modifications climatiques pourrait être évitée dans l'environnement d'élevage grâce à une ventilation adéquate.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Djamba, Kalema Josue, und Baraka Ntawanga Irene. „INTEGRATION D'UNE APPLICATION MOBILE AU SYSTEME DE REGULATION DU NIVEAU D'EAU D'UN RESERVOIR“. British Journal of Multidisciplinary and Advanced Studies 5, Nr. 1 (08.01.2024): 8–22. http://dx.doi.org/10.37745/bjmas.2022.0388.

Der volle Inhalt der Quelle
Annotation:
La qualité et la quantité d'eau fournie par le réservoir d'eau affectent directement la vie quotidienne des gens. La plupart des réservoirs d'eau traditionnels utilisent une détection manuelle, ce qui entraîne une faible précision des informations qui aideront les utilisateurs à prendre des décisions éclairées sur la régulation du niveau d'eau. Afin d'assurer la sécurité et la continuité de l'approvisionnement en eau des réservoirs, cet article propose un système de surveillance du niveau d’un réservoir d'eau basés utilisant un microcontrôleur pour détecter automatiquement les niveaux d'eau. Les outils utilisés sont le capteur ultrasons pour surveiller respectivement le niveau d'eau du réservoir d'eau, un nodeMCU pour transmet les données au afin d’ afficher le niveau d’eau sur L’écran LCD et à distance via un smartphone. Le système peut contrôler automatiquement le niveau d'eau et déclencher une alarme lorsque le niveau d’eau est élevé.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie