Auswahl der wissenschaftlichen Literatur zum Thema „Systèmes de données échantillonnées“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Systèmes de données échantillonnées" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Systèmes de données échantillonnées"

1

Yari, A., A. Dabrin und M. Coquery. „Méthodologie d’évaluation des tendances temporelles de contamination dans les sédiments et les matières en suspension des systèmes aquatiques continentaux“. Techniques Sciences Méthodes, Nr. 6 (Juni 2019): 71–86. http://dx.doi.org/10.1051/tsm/201906071.

Der volle Inhalt der Quelle
Annotation:
Les directives européennes requièrent que les États membres surveillent la contamination des sédiments continentaux et vérifient que les concentrations en contaminants hydrophobes et métaux dans les sédiments n’augmentent pas de manière significative au cours du temps. En France métropolitaine, les agences de l’eau coordonnent la surveillance des milieux aquatiques continentaux, mais ne disposent pas d’une méthodologie harmonisée permettant d’exploiter les données de contamination des sédiments de surface. À cela s’ajoutent des freins opérationnels, en raison de la difficulté à prélever des sédiments fins et comparables dans le temps résultant de l’hétérogénéité naturelle des sédiments. Aussi, le prélèvement de matières en suspension (MES), qui cible préférentiellement les particules fines, constitue une alternative intéressante au suivi des sédiments de surface. Une réflexion prenant en compte ces difficultés a été menée par Aquaref (Laboratoire national de référence pour la surveillance des milieux aquatiques) afin de proposer une méthodologie pour l’évaluation des tendances de contamination des sédiments. Cette méthodologie a été testée partir des données de surveillance, notamment en normalisant les données pour s’affranchir de la variabilité naturelle des sédiments. Des recommandations sur la qualité nécessaire des chroniques pour une exploitation fiable ont été formulées. Ainsi, sous réserve de disposer de chroniques comportant suffisamment de données et de paramètres normalisateurs, cette méthodologie permet d’identifier des tendances significatives et d’étudier l’évolution temporelle des contaminations à l’échelle d’une station. L’application de cette méthodologie sur des données de MES a permis de démontrer l’intérêt d’effectuer un suivi des MES pour évaluer les tendances de contamination, en raison de l’homogénéité de la fraction échantillonnée au cours du temps. Les comparaisons entre résultats obtenus sur des données de sédiments et de MES montrent que ces dernières peuvent permettre une étude plus fine des tendances. Les approches proposées constituent une première étape pour répondre aux exigences réglementaires, et pour une meilleure exploitation des données de contamination des sédiments.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Dorléans, Philippe, Hervé Fleury und Éric Magarotto. „Utilisation d’une carte Raspberry PI 3 sous Matlab/Simulink dans un contexte d’Automatique temps réel“. J3eA 21 (2022): 2048. http://dx.doi.org/10.1051/j3ea/20222048.

Der volle Inhalt der Quelle
Annotation:
Dans le cadre de l'enseignement de l'Automatique continue et échantillonnée à l’école d’ingénieurs ESIX Normandie département MeSN (Mécatronique et Systèmes Nomades) et à l'UFR des Sciences à Caen en cycles Licence (L3) et Master EEEA (Electronique, Energie Electrique, Automatique), nous présentons une solution à faible coût permettant de faire de l’acquisition de données et de la commande de procédés en temps réel en utilisant l’environnement logiciel Matlab/Simulink. Cette solution est basée sur l’utilisation d’une carte de type Raspberry Pi associée à une carte de conversion AN/NA. Le spectre des fonctionnalités de la carte Raspberry Pi est assez large. Nous proposons ici de l’utiliser pour répondre à différents aspects d’un problème d’Automatique en temps réel (identification et commande).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Boyle, Colleen, Caitlin Madevu-Matson, Agus Rachmanto, Derek Kunaka, Lauren Gilliss, Leah McManus, Madina Kouyate et al. „Does investment in COVID-19 information systems strengthen national digital health architecture? Lessons learned from Burkina Faso, Indonesia, Mali and Suriname“. Oxford Open Digital Health 2, S1 (2024): i29—i39. http://dx.doi.org/10.1093/oodh/oqae001.

Der volle Inhalt der Quelle
Annotation:
Abstract There is limited research on how emergency investments can support national health information system strengthening both for a given health emergency response and for routine health program areas. This study examined the effect of COVID-19 vaccine digital investments on advancing national digital health system architectures in Burkina Faso, Indonesia, Mali and Suriname. Primary qualitative data were collected through purposively sampled key informant interviews and focus group discussions with 67 key stakeholders from government institutions, donors and implementing partners from February to May 2023. Primary data were triangulated with secondary data collected through desk review and were analyzed deductively and inductively using thematic coding. The study found that although USAID’s COVID-19 vaccine digital investments in Burkina Faso, Indonesia, Mali and Suriname did not contribute to the development of formal national digital health architecture documentation, progress was made in strengthening components of national digital health architectures, specifically around standards and interoperability and around governance. Progress was also made in motivating government stakeholders to invest in formal digital health transformation efforts. Lessons learned from this study suggest that connecting investments in system development and enhancement with investments in governance and infrastructure can improve country data management processes and data use for decision-making in routine health and emergency responses. Abrégé Peu de recherches ont été effectuées sur la façon dont les investissements fournis dans les situations d’urgence peuvent appuyer le renforcement du système national d’information sur la santé, tant pour une intervention d’urgence sanitaire donnée que pour les secteurs de programmes de santé courants. Cette étude examine l’effet des investissements numériques dans le vaccin contre la COVID-19 sur le développement des architectures nationales des systèmes de santé numériques au Burkina Faso, en Indonésie, au Mali et au Suriname. Les données qualitatives primaires ont été recueillies au moyen d’entretiens auprès d’informateurs clés échantillonnés de manière ciblée et de discussions de groupes avec 67 parties prenantes clés issues d’organismes gouvernementaux, de donateurs et de partenaires de mise en œuvre entre les mois de Février et Mai 2023. Les données primaires ont été triangulées avec les données secondaires recueillies par le biais d’une étude documentaire et ont été analysées de manière déductive et inductive à l’aide d’un codage thématique. L’étude a révélé que, bien que les investissements numériques de l’USAID en faveur du vaccin contre la COVID-19 réalisés au Burkina Faso, en Indonésie, au Mali et au Suriname n’aient pas contribué au développement d’une documentation officielle sur l’architecture numérique de la santé, des progrès ont été réalisés dans le renforcement de certains éléments des architectures numériques nationales de la santé, en particulier autour des normes et de l’interopérabilité et autour de la gouvernance. Des progrès ont également été réalisés s’agissant d’inciter les acteurs gouvernementaux à investir dans les efforts formels de transformation de la santé numérique. Les enseignements tirés de cette étude montrent que lier les investissements dans le développement et l’amélioration des systèmes aux investissements dans la gouvernance et les infrastructures permet d’améliorer les processus de gestion des données nationales et l’utilisation des données pour la prise de décisions dans les interventions sanitaires d’urgence et de routine. Resumen Son limitadas las investigaciones sobre la manera en que las inversiones de emergencia pueden apoyar el fortalecimiento de los sistemas nacionales de información de salud, tanto para la respuesta a una emergencia sanitaria determinada como para áreas de programas de salud de rutina. En este estudio se examinó el efecto de las inversiones digitales en vacunas contra la COVID-19 sobre el avance de las estructuras de los sistemas nacionales de salud digital en Burkina Faso, Indonesia, Malí y Surinam. Se recopilaron datos cualitativos primarios a través de entrevistas con informantes clave muestreadas intencionalmente y discusiones de grupos focales con 67 interesados clave de instituciones gubernamentales, donantes y socios implementadores de Febrero a Mayo de 2023. Los datos primarios se triangularon con datos secundarios recopilados mediante revisión documental y se analizaron de forma deductiva e inductiva mediante codificación temática. En el estudio se halló que, aunque las inversiones digitales de USAID en vacunas contra la COVID-19 en Burkina Faso, Indonesia, Malí y Surinam no contribuyeron al desarrollo de la documentación formal de las estructuras nacionales de salud digital, sí ayudaron a fortalecer ciertos componentes de esas estructuras, específicamente en relación con las normas y la interoperabilidad y con la gobernanza. También se avanzó en la motivación de las partes interesadas gubernamentales para que inviertan en esfuerzos formales de transformación de la salud digital. Las lecciones aprendidas a partir de este estudio sugieren que conectar las inversiones en el desarrollo y la mejora del sistema con las inversiones en gobernanza e infraestructura puede mejorar los procesos de gestión de datos nacionales y el uso de datos para la toma de decisiones en las respuestas de rutina de salud y emergencia.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Takpa, O’Neil G. M. M., G. Pierre Tovihoudji, Nouroudine Ollabodé, P. B. Irénikatché Akponikpè und Jacob A. Yabi. „Perception des producteurs des changements climatiques et stratégies d’adaptation dans les systèmes de culture à base de maïs (Zea mays) au Nord-Bénin“. Annales de l’Université de Parakou - Série Sciences Naturelles et Agronomie 12, Nr. 1 (30.06.2022): 1–14. http://dx.doi.org/10.56109/aup-sna.v12i1.7.

Der volle Inhalt der Quelle
Annotation:
En Afrique subsaharienne, le développement durable est menacé par le changement climatique par ces effets néfastes sur l'environnement, la sécurité alimentaire, la santé, etc. en effet, les producteurs du Nord-Bénin sont de plus en plus confrontés au besoin d’adapter leurs systèmes de cultures aux circonstances changeantes du climat. Cette étude analyse la décision d’adaptation des producteurs et leur perception du changement climatique. Les données sont collectées auprès de 262 producteurs de maïs échantillonnés de façon aléatoire dans trois zones agro écologiques du nord Bénin à travers une enquête socioéconomique. Le modèle Probit de Heckman est estimé pour identifier les facteurs déterminants la perception et l’adaptation des producteurs aux variabilités climatiques. Cette étude montre que les producteurs s’adaptent au changement climatique à condition qu’ils le perçoivent à travers des précipitations, de la température, du vent et de la disparition dans le paysage agroécologique. En réponse à ces changements, les stratégies adoptées sont entre autres : modification des dates de semis (91,4%) ; diversification des cultures (88%) ; autres adaptations comme les prières et rituels traditionnels (70%) ; stratégies de fertilisation dont la microdose (63,8%) ; adoption d’une nouvelle variété (43,5%) ; abandon ou diminution des spéculations (34,7%). Le modèle utilisé révèle que les producteurs s’adaptent au changement climatique à condition qu’ils le perçoivent. Le nombre d’actifs agricoles et l’association maïs-légumineuse influencent la perception du producteur tandis que le niveau d’éducation primaire, le droit de propriété sur la terre et l’appartenance du producteur à une organisation ont des incidences sur la décision d’adaptation du producteur au changement climatique. Par conséquent, les politiques gouvernementales qui visent à promouvoir des stratégies d'adaptation au changement climatique doivent tenir compte de ces facteurs pour améliorer les chances des mesures d’adoption des producteurs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

SGHAIER, Tahar, und Ammari YOUSSEF. „Ajustement d’un système d’équations de volumes marchands pour le chêne zéen (Quercus canariensis Willd.) en Tunisie“. BOIS & FORETS DES TROPIQUES 354 (01.12.2022): 19–39. http://dx.doi.org/10.19182/bft2022.354.a36817.

Der volle Inhalt der Quelle
Annotation:
Des tarifs de cubage globaux et des équations de volumes à diamètre et longueur variables ont été ajustés à l’aide d’un système d’équations simultanées pour le chêne zéen (Quercus canariensis Willd.), en Tunisie. Les données utilisées proviennent de 75 arbres échantillonnés dans la forêt de chêne zéen localisée dans la région d’Ain Sallem au Nord-Ouest du pays. La méthode d’ajustement adoptée est celle de régression non linéaire sans corrélation apparente (NSUR : Nonlinear Seemingly Unrelated Regression equations), basée sur les moindres carrés généralisés. Vu le caractère longitudinal des données utilisées qui engendre une autocorrélation entre les erreurs successives issues des observations en provenance d’une même tige, un processus autorégressif d’ordre 2 sur ces erreurs a été incorporé dans le modèle d’ajustement des paramètres des différentes équations étudiées. Le système d’équations obtenu permet d’estimer avec des degrés de précision qui varient de 97 à 99 % : le volume total du bois fort des arbres entiers et des grumes jusqu’à une découpe quelconque ; le volume entre deux niveaux de la grume ; le diamètre à une hauteur donnée ainsi que la hauteur à un diamètre de découpe donné de la grume. Grâce à ces équations, des tables de cubage d’estimation des volumes globaux et marchands des arbres et des grumes de chêne zéen ont été générées, ce qui représente un outil flexible, précis et pratique pour la gestion adéquate de la forêt de chêne zéen en Tunisie et dans les autres pays de la Méditerranée.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Innocent, Christophe, Jean-Pierre Girard und Robert Wyns. „Un âge crétacé inférieur probable pour les paléoaltérations latéritiques du graben de Saint-Maixent-l’École (seuil du Poitou) d’après l’étude isotopique (Rb-Sr, δ18O-δD, U-Th) de pisolites ferrugineux“. BSGF - Earth Sciences Bulletin 190 (2019): 2. http://dx.doi.org/10.1051/bsgf/2018018.

Der volle Inhalt der Quelle
Annotation:
Le début du Crétacé a été marqué en Europe occidentale par le développement de paléoaltérations de type latéritique. Les argiles rouges à cuirasse ferrugineuse pisolitique du graben de Saint-Maixent-l’École (seuil du Poitou) peuvent constituer un exemple-témoin de ce type d’altération. Toutefois, leur âge reste inconnu et leur position stratigraphique, au-dessus des calcaires oligocènes du fond du graben, ne permet pas d’exclure un âge de formation beaucoup plus récent. Des pisolites de goethite provenant de ces sols latéritiques ont été échantillonnés dans la forêt de Fouilloux et ont fait l’objet d’analyses isotopiques Rb-Sr, U-Th et δ18O-δD, afin de tenter de lever l’indétermination sur l’âge de leur formation. Pour Rb-Sr, outre les analyses sur pisolites totaux, des expériences de lessivages ménagés ont été effectuées afin d’essayer d’isoler un composant radiogénique. Les résultats obtenus n’ont pas permis de donner un âge fiable par la méthode des isochrones, même si les données tendraient plutôt à faire remonter l’épisode d’altération au début du Crétacé. Les analyses δ18O-δD ont été effectuées sur des pisolites de goethite totaux, ainsi que sur des fragments sous-échantillonnés. Les résultats plaident en faveur de conditions de formation en zone climatique chaude et/ou aride. Aucun argument en faveur d’un âge fini ou post-oligocène ne peut être tiré de l’étude des isotopes de l’oxygène et de l’hydrogène. Enfin, les analyses U-Th ont été effectuées sur des goethites totales ainsi que sur des fragments sous-échantillonnés. Les rapports d’activités 234U/238U sont tous légèrement supérieurs à l’équilibre séculaire, indiquant que les goethites évoluent actuellement et/ou ont évolué récemment en système ouvert. Ainsi, les sols latéritiques apparaissent toujours comme géochimiquement actifs. Si cette étude n’a pas permis d’apporter une réponse claire sur l’âge des sols latéritiques, l’hypothèse la plus probable au vu des données isotopiques est que ces sols latéritiques se sont développés au-dessus des calcaires kimméridgiens sur les bordures du graben de Saint-Maixent-l’École, puis remaniés et finalement resédimentés au fond du graben.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Blanke, Delphine. „Estimation adaptative de la densité avec données échantillonnées“. Comptes Rendus Mathematique 337, Nr. 10 (November 2003): 675–78. http://dx.doi.org/10.1016/j.crma.2003.09.027.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Vincent, Grégoire, F. Caron, Damien Sabatier und Lilian Blanc. „L'imagerie LiDAR montre que les forêts les plus hautes comportent des tiges plus élancées“. BOIS & FORETS DES TROPIQUES 314, Nr. 314 (01.12.2012): 51. http://dx.doi.org/10.19182/bft2012.314.a20490.

Der volle Inhalt der Quelle
Annotation:
Une opération de balayage laser aéroporté à haute densité a permis de modéliser la hauteur du couvert forestier d'un site expérimental en forêt néotropicale (à Paracou en Guyane française). La hauteur des arbres individuels a été calculée par segmentation manuelle des houppiers sur le modèle numérique de canopée et extraction de la hauteur maximale locale du couvert forestier. Trois cent quatrevingt- seize estimations de hauteur d'arbres dominants ou émergents ont été mises en relation avec les données de terrain correspondantes pour les diamètres des tiges échantillonnées sur deux placettes de hauteur moyenne différente (28,1 m et 31,3 m). Les résultats montrent une corrélation positive et très significative entre l'élancement des tiges et la hauteur moyenne du couvert à l'échelle des placettes. La même corrélation apparaît à l'échelle des peuplements des trois essences suffisamment échantillonnées. Il est possible de conclure qu'une stratification selon la hauteur du couvert est à recommander dans le calcul de relations allométriques afin d'éviter les biais dans les estimations de biomasse aérienne.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Gerard, François-Marie. „Indicateur synthétique de la qualité des systèmes éducatifs des pays de l’OCDE : comparaison des résultats 2015 et 2018“. Journal of Quality in Education 13, Nr. 22 (20.11.2023): 29–51. http://dx.doi.org/10.37870/joqie.v13i22.390.

Der volle Inhalt der Quelle
Annotation:
L’indicateur synthétique de qualité (ISQ) des systèmes éducatifs a été développé pour la première fois sur la base de données recueillies en 2012 (Gerard, Hugonnier et Varin, 2017). Il se fondait sur cinq critères : l’efficacité, l’efficience et l’équité des systèmes, l’engagement des élèves et celui des enseignant·e·s. Une deuxième évaluation de l’ISQ a été réalisée à partir de données relatives à 2015 (Gerard, Hugonnier et Varin, 2018). Grâce à une troisième évaluation de l’ISQ portant sur des données établies en 2018, la validité de trois importantes hypothèses peut être vérifiée : 1) les systèmes éducatifs n’évoluent pas tous au même rythme ni dans le même sens ; 2) l’ajout de l’engagement des parents en tant que sixième critère a un impact sur la qualité des systèmes éducatifs ; 3) l’ISQ est un indicateur valide et fiable. L’objet de cet article est de tester la validité de ces trois hypothèses.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Mosio, D., C. Betrancourt, F. Lefebvre, D. Boquet, P. Pronier und H. Verhaeghe. „Le traitement automatisé des données d’autosurveillance des systèmes d’assainissement“. Techniques Sciences Méthodes, Nr. 5 (Mai 2019): 101–10. http://dx.doi.org/10.1051/tsm/201905101.

Der volle Inhalt der Quelle
Annotation:
L’autosurveillance des systèmes d’assainissement est déployée sur le bassin Artois-Picardie, pour les stations de traitement des eaux usées et pour les réseaux d’assainissement. Les maîtres d’ouvrage et/ou leurs exploitants produisent des données de surveillance et les transmettent à l’agence via un site FTP. Des tests d’intégration des données ont été développés pour interdire l’intégration des fichiers de données incorrects ou incomplets et en informent le maître d’ouvrage par un message électronique. L’arrêté du 21 juillet 2015 précise le rôle exact des agences de l’eau dans les deux domaines de la qualification et de l’expertise de ces données. Pour faire face à ses obligations, l’agence de l’eau a développé une gamme d’applications informatiques qui automatisent en grande partie le traitement des données. L’analyse et l’expertise des données permettent de mettre rapidement en évidence les points forts et les points faibles du système global d’assainissement. Fiables, reproductibles, annuelles ou pluriannuelles et évolutives, les expertises produites permettent à l’agence d’orienter la discussion avec les maîtres d’ouvrage, et de planifier ses interventions en les priorisant dans son 11e programme. En présentant les résultats de ses expertises aux maîtres d’ouvrage, l’agence contribue à leur faire s’approprier les méthodes et pratiques qui concourent au traitement de leurs données.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Systèmes de données échantillonnées"

1

Postoyan, Romain. „Commande et construction d’observateurs pour des systèmes non linéaires incertains à données échantillonnées et en réseau“. Paris 11, 2009. http://www.theses.fr/2009PA112163.

Der volle Inhalt der Quelle
Annotation:
L’essor des technologies numériques a permis le développement de nouvelles méthodes d’implémentation de lois de commande qui présentent de nombreux avantages par rapport aux structures dites traditionnelles. En effet, les contrôleurs numériques ont remplacé dans de nombreux cas les analogiques, de par leur coût généralement moins élevé et leur plus grande flexibilité. La mise en place de structures de commande en réseau offre également un regard nouveau. Plus ergonomiques et plus simples à entretenir que les implémentations par câblage point-à-point, elles permettent de réduire considérablement les transferts de données et donc les dépenses énergétiques dédiées aux communications. Les limitations de communications induites peuvent toutefois avoir un impact important sur les performances du système, c’est pourquoi il est nécessaire de développer de nouvelles méthodes de commande et d’observation adaptées. Dans cette thèse nous présentons dans un premier temps des méthodes de commande adaptative et robuste pour des classes de systèmes non linéaires incertains à données échantillonnées ; l’objectif étant d’améliorer les performances par rapport au simple blocage d’une loi de commande continue. Lorsque les transferts de données des capteurs à la structure de commande sont échantillonnés et ordonnancés par l’intermédiaire d’un réseau, nous avons développé un cadre d’étude méthodologique pour la synthèse d’observateurs par émulation. Nos travaux permettent de considérer de nombreux types d’observateurs (linéaires, à grand gain, par critère du cercle) ainsi qu’une multitude de configurations de réseau
The rise of digital technologies has promoted the development of new controllers implementations that have many advantages compared to traditional control structures. Indeed, digital controllers have become very popular due to their low cost and great flexibility in comparison with analogical controllers. The implementation of control structures via a network also offers a new point of view. They are generally easier to use and to maintain than point-by-point wiring, they allow one to significantly reduce data exchanges and, as a consequence, the energy cost. However, induced communication constraints can have a significant impact on system dynamical behaviour. In this thesis, we first propose adaptive and robust stabilisation methods for classes of nonlinear sampled-data systems affected by uncertainties; the main objective is to improve closed-loop performance compared to the emulation of a continuous-time control law. When data exchanges are sampled and time-scheduled via a network, we have developed a framework for the observer design by emulation. It is shown that various observer designs (linear, high gain, circle criterion) and various network configurations fit our framework
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Mattioni, Mattia. „Stabilisation des systèmes échantillonnés en cascade et avec retards“. Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS118/document.

Der volle Inhalt der Quelle
Annotation:
Les méthodologies de l'automatique ont joué au cours des dernières décennies un ´r^ole essentiel au sein de nombreux secteurs technologiques avancées. Cependant, de nombreuse questions restent ouvertes. Parmi celles-ci, celles concernant la stabilité et la stabilisation de systèmes non linéaires sont d'intérêt primordial. Afin de stabilizer un système (physique ou non), il est nécessaire de capter et interpreter en temps réel les informations hétérogènes caractérisant son fonctionnement afin intervenir efficacement. Actuellement ces informations ne sont pas captées en temps continu, mais de façon synchrone ou asynchrone et ceci est valable aussi pour les actuateurs. De façon très naturelle, on définit donc un système hybride, caractérisé par des dynamiques à la fois discrètes et continues. Dans ce contexte, cette thèse est orientée au développement de nouvelles méthodologies pour la stabilisation de systèmes échantillonnés non linéaires en se focalisant sur la stabilisation de formes cascades qui se retrouvent dans de nombreuse situations concretes. Pour cela, on étudiera l'effet de l'échantillonnage sur les propriétés de la dynamique continue et l'on proposera des méthodologies pour la conception de lois de commande qui ne requièrent pas d'assumptions supplémentaires au cas continu.Enfin, on étudiera l'effet de l'échantillonnage sur des systèmes présentant de retards sur les entrées. On développera des lois de commande stabilisantes exploitant la structure en cascade induite par l'échantillonnage. Des exemples académiques illustreront les calcules des solutions et leur performances tout au long du manuscript
Over the last decades the methodologies of dynamical systems and control theory have been playing an increasingly relevant role in a lot of situations of practical interest. Though, a lot of theoretical problem still remain unsolved. Among all, the ones concerning stability and stabilization are of paramount importance. In order to stabilize a physical (or not) system, it is necessary to acquire and interpret heterogeneous information on its behavior in order to correctly intervene on it. In general, those information are not available through a continuous flow but are provided in a synchronous or asynchronous way. This issue has to be unavoidably taken into account for the design of the control action. In a very natural way, all those heterogeneities define an hybrid system characterized by both continuous and discrete dynamics. This thesis is contextualized in this framework and aimed at proposing new methodologies for the stabilization of sampled-data nonlinear systems with focus toward the stabilization of cascade dynamics. In doing so, we shall propose a small number of tools for constructing sampled-data feedback laws stabilizing the origin of sampled-data nonlinear systems admitting cascade interconnection representations. To this end, we shall investigate on the effect of sampling on the properties of the continuous-time system while enhancing design procedures requiring no extra assumptions over the sampled-data equivalent model.Finally, we shall show the way sampling positively affects nonlinear retarded dynamics affected by a fixed and known time-delay over the input signal by enforcing on the implicit cascade representation the sampling process induces onto the retarded system. Academic examples will illustrate the computational aspects together with their performances throughout the whole manuscript
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Chen, Fengwei. „Contributions à l'identification de modèles à temps continu à partir de données échantillonnées à pas variable“. Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0149/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse traite de l’identification de systèmes dynamiques à partir de données échantillonnées à pas variable. Ce type de données est souvent rencontré dans les domaines biomédical, environnemental, dans le cas des systèmes mécaniques où un échantillonnage angulaire est réalisé ou lorsque les données transitent sur un réseau. L’identification directe de modèles à temps continu est l’approche à privilégier lorsque les données disponibles sont échantillonnées à pas variable ; les paramètres des modèles à temps discret étant dépendants de la période d’échantillonnage. Dans une première partie, un estimateur optimal de type variable instrumentale est développé pour estimer les paramètres d’un modèle Box-Jenkins à temps continu. Ce dernier est itératif et présente l’avantage de fournir des estimées non biaisées lorsque le bruit de mesure est coloré et sa convergence est peu sensible au choix du vecteur de paramètres initial. Une difficulté majeure dans le cas où les données sont échantillonnées à pas variable concerne l’estimation de modèles de bruit de type AR et ARMA à temps continu (CAR et CARMA). Plusieurs estimateurs pour les modèles CAR et CARMA s’appuyant sur l’algorithme Espérance-Maximisation (EM) sont développés puis inclus dans l’estimateur complet de variable instrumentale optimale. Une version étendue au cas de l’identification en boucle fermée est également développée. Dans la deuxième partie de la thèse, un estimateur robuste pour l'identification de systèmes à retard est proposé. Cette classe de systèmes est très largement rencontrée en pratique et les méthodes disponibles ne peuvent pas traiter le cas de données échantillonnées à pas variable. Le retard n’est pas contraint à être un multiple de la période d’échantillonnage, contrairement à l’hypothèse traditionnelle dans le cas de modèles à temps discret. L’estimateur développé est de type bootstrap et combine la méthode de variable instrumentale itérative pour les paramètres de la fonction de transfert avec un algorithme numérique de type gradient pour estimer le retard. Un filtrage de type passe-bas est introduit pour élargir la région de convergence pour l’estimation du retard. Tous les estimateurs proposés sont inclus dans la boîte à outils logicielle CONTSID pour Matlab et sont évalués à l’aide de simulation de Monte-Carlo
The output of a system is always corrupted by additive noise, therefore it is more practical to develop estimation algorithms that are capable of handling noisy data. The effect of white additive noise has been widely studied, while a colored additive noise attracts less attention, especially for a continuous-time (CT) noise. Sampling issues of CT stochastic processes are reviewed in this thesis, several sampling schemes are presented. Estimation of a CT stochastic process is studied. An expectation-maximization-based (EM) method to CT autoregressive/autoregressive moving average model is developed, which gives accurate estimation over a large range of sampling interval. Estimation of CT Box-Jenkins models is also considered in this thesis, in which the noise part is modeled to improve the performance of plant model estimation. The proposed method for CT Box-Jenkins model identification is in a two-step and iterative framework. Two-step means the plant and noise models are estimated in a separate and alternate way, where in estimating each of them, the other is assumed to be fixed. More specifically, the plant is estimated by refined instrumental variable (RIV) method while the noise is estimated by EM algorithm. Iterative means that the proposed method repeats the estimation procedure several times until a optimal estimate is found. Many practical systems have inherent time-delay. The problem of identifying delayed systems are of great importance for analysis, prediction or control design. The presence of a unknown time-delay greatly complicates the parameter estimation problem, essentially because the model are not linear with respect to the time-delay. An approach to continuous-time model identification of time-delay systems, combining a numerical search algorithm for the delay with the RIV method for the dynamic has been developed in this thesis. In the proposed algorithm, the system parameters and time-delay are estimated reciprocally in a bootstrap manner. The time-delay is estimated by an adaptive gradient-based method, whereas the system parameters are estimated by the RIV method. Since numerical method is used in this algorithm, the bootstrap method is likely to converge to local optima, therefore a low-pass filter has been used to enlarge the convergence region for the time-delay. The performance of the proposed algorithms are evaluated by numerical examples
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Ricciardi, Celsi Lorenzo. „Commande non linéaire multi-agents : applications aux systèmes en réseau“. Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS017/document.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse de doctorat est (i) d'étudier et de développer des méthodes d’analyse et de commande de systèmes de contrôle en réseau linéaires et non linéaires et (ii) de montrer le potentiel de ces approches dans des applications complexes pertinentes. À cet égard, la théorie des systèmes à plusieurs agents, la théorie des graphes algébriques et le consensus sont des outils méthodologiques les plus intéressants. Une attention particulière est accordée à la caractérisation des relations entre, d'une part, la topologie du graphe de communication qui sous-tend l'évolution du système à plusieurs agents considéré et, d'autre part, les propriétés spectrales de la matrice Laplacienne associée au graphe lui-même. Le contrôle d'un groupe d'agents autonomes est étudié sous différents angles. Le principal objectif de contrôle est de s’assurer que les agents travaillent ensemble de manière coopérative, où la coopération représente la relation étroite entre tous les agents de l'équipe, le partage de l'information jouant un rôle important. En particulier, beaucoup de problèmes de consensus/accord/ synchronisation /rendez-vous sont étudiés afin de guider un groupe d’agents vers un état commun. Le consensus est étudié dans un contexte à temps discret parce que la dynamique du système est en général continue alors que les mesures et les entrées de contrôle sont des données échantillonnées. En outre, la théorie des jeux est utilisée pour faire face aux problèmes de coordination distribués à plusieurs agents, avec une application aux réseaux connus sous le nom de Software Defined Networks. À cet égard, on peut montrer que, sous des protocoles correctement conçus, les joueurs convergent vers un équilibre unique de Wardrop. On concentre l’attention sur le contrôle distribué, car cette approche présente des avantages évidents par rapport à la centralisation, comme l'évolutivité et la robustesse. Pourtant, le contrôle distribué a également ses propres inconvénients : avant tout, un inconvénient est que chaque agent ne peut pas prédire efficacement le comportement global du groupe en se basant uniquement sur des informations locales. Une certaine attention est également accordée à la nécessité de sécuriser les réseaux électriques contre le danger des attaques cyber-physiques grâce au développement de technologies d'intelligence distribuée. À cet égard, sur la base de topologies de réseaux d'énergie réalistes, nous présentons brièvement la conception d'un schéma de protection contre les attaques dynamiques à un point et à points multiples en boucle fermée. Nous formulons et résolvons un problème d'optimisation non convexe soumis à une contrainte de stabilité de Lyapunov pour la représentation à plusieurs agents autonome d'un réseau électrique obtenue après la linéarisation et l'application des lois d’attaque et de contrôle de fréquence. Finalement, nous présentons des résultats obtenus sur : le pilotage exact de la dynamique non linéaire finie à données échantillonnées avec des retards sur les entrées, au sujet de la stabilisation à données échantillonnées et de la poursuite de l'orbite quasi-halo autour du point de libration translunaire L₂, et au sujet des algorithmes heuristiques basés sur des méthodes d'apprentissage par renforcement à plusieurs agents capables d'effectuer un contrôle adaptatif optimal de qualité de service / qualité de l’expérience dans des scénarios sans modèle
The objective of this PhD thesis is (i) to investigate and develop methods for the analysis and design of linear and nonlinear networked control systems and (ii) to show the potential of such approaches in relevant complex applications. In this respect, multi-agent systems theory, algebraic graph theory and consensus are the most interesting methodological tools, and specific attention is paid to the characterization of the relationships between, on the one hand, the topology of the communication graph that underlies the evolution of the considered multiagent system and, on the other hand, the spectral properties of the Laplacian matrix associated with the graph itself. The control of a group of autonomous agents is investigated from different perspectives. The main control objective is to make sure that the agents work together in a cooperative fashion, where cooperation accounts for the close relationship among all agents in the team, with information sharing playing an important role. In particular, various problems regarding consensus/agreement/synchronization/rendezvous are investigated with the specific aim of driving a group of agents to some common state. Consensus is investigated in a discrete-time setting due to the fact that the system dynamics is normally continuous while the measurements and control inputs might only be made in a sampled-data setting. Moreover, game theory is relied upon in order to cope with distributed multi-agent coordination problems, with application to Software Defined Networks. In this respect, it can be shown that, under properly designed protocols, the players converge to a unique Wardrop equilibrium. We focus on distributed control, since this approach shows obvious benefits over centralization, such as scalability and robustness. Yet, it also has its own drawbacks: among all, one drawback is that each agent cannot effectively predict the overall group behaviour based on only local information. Some attention is also devoted to the need for securing power grids against the danger of cyber-physical attacks through the development of distributed intelligence technologies accompanied by appropriate security enforcements. In this respect, based on realistic power network topologies, we briefly present the design of a protection scheme against closed-loop single-point and multi-point dynamic load altering attacks. This is done by formulating and solving a non-convex optimization problem subject to a Lyapunov stability constraint for the autonomous multiagent representation of a power system obtained after linearization and application of the attack and frequency control laws. Eventually, we show some other results achieved in terms of the exact steeering of finite sampled nonlinear dynamics with input delays, of sampled-data stabilization and quasi-halo orbit following around the L₂ translunar libration point, and of heuristic algorithms based on multi-agent reinforcement learning methods capable of performing optimal adaptive Quality of Service/Quality of Experience control in model-free scenarios
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Louis, Julien. „Discrétisation des systèmes de Lur'e : stabilisation et consistance“. Thesis, Université de Lorraine, 2015. http://www.theses.fr/2015LORR0080/document.

Der volle Inhalt der Quelle
Annotation:
De récents résultats sur l’étude des systèmes de Lur’e (commutés) à temps discret mettent en avant une fonction de Lyapunov de type Lur’e avancée, dont les lignes de niveau peuvent être non convexes et non connexes. Celles-ci soulèvent de larges questions pour les systèmes de Lur’e à temps discret obtenus par la discrétisation d’un système continu. Les contributions de cette thèse sont d’apporter des éléments de réponse à ces questions. Tout d’abord, le verrou des lignes de niveau non-connexes est levé en construisant à partir de celles-ci une suite décroissante d’ensembles connexes et bornés qui converge vers l’origine et qui contient le futur de la trajectoire à temps continu. Dans un second temps, le problème de la stabilisation conjointe d’un système de Lur’e à données échantillonnées avec un échantillonnage non-uniforme est traité. Quand la période d’échantillonnage est à choisir parmi un nombre fini de valeurs, il est montré que ce problème se traduit comme la stabilisation conjointe d’un système commuté de Lur’e avec des incertitudes bornées en norme. En associant de plus à chaque mode un critère quadratique, une stratégie de type min-switching permet de résoudre cette question à l’aide d’un problème d’optimisation sous contraintes LMI. Enfin, les propriétés de la stratégie de min-switching pour les systèmes de Lur’e commutés à temps discret sont étudiées. Une extension de la notion de consistance permet de prouver que cette stratégie est consistante vis-à-vis de majorants quadratiques modaux du critère de performance et ainsi de garantir l’intérêt de la stratégie d’échantillonnage non-uniforme développée
Recent studies dealing with discrete-time (switched) Lur’e systems involve an adapted Lur’e type function exhibiting possibly non-convex and disconnected level sets. These properties raise fundamental issues in the case of discrete-time Lur’e system obtained by the sampling of a continuous time one. This PhD thesis aims at answering these questions. The first contribution is to avoid the discrete-time disconnected level sets by a decreasing sequence of bounded and connected sets that converges to the origin and that contain the future of the continuous-time trajectory. The second contribution deals with the joint stabilization of a sampled-data Lur’e system with non-uniform sampling. When the sampling period belongs to a finite set of values, this problem is reformulated as the joint stabilization of a discrete-time Lur’e switched system with norm-bounded uncertain parameters. Futhermore, if a quadratic criterion is associated with each mode, a min-switching strategy combined with LMI constraints allow to provide a solution to this problem. Finally the property of consistency for discrete-time switched Lur’e systems is investigated. It is shown that the min-switching strategy is consistent with respect to quadratic upper bounds of the performances. This result is applied on the stabilization of Lur’e systems with non-uniform sampling
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Mizere, Dominique. „Contributions à la modélisation et à l'analyse statistique des données de dénombrement“. Pau, 2006. http://www.theses.fr/2006PAUU3001.

Der volle Inhalt der Quelle
Annotation:
Le modèle de Poisson est un modèle repère pour l'analyse statistique des données de dénombrement. Quelquefois, les données de dénombrement présentent une surdispersion ou une sousdispersion résultant du manque d'adéquation du modèle de Poisson. L'objet principal de ce travail est de présenter une vue d'ensemble des modèles probabilistes qui peuvent fournir un cadre unifié pour l'analyse statistique des données de dénombrement, parmi lesquels, les modèles de Katz et de Poisson pondéré. Certains modèles de Poisson pondérés seront ajustés à des données collectées en République du Congo et relatives à un échantillon d'aleurodes Aleurodicus dispersus Russell (Homoptera : Aleyrodidae) décrit par les variables : durée de développement préimaginal (de l'oeuf à l'adulte) mesurée en nombre de jours, longévité (mesurée en nombre de jours) et nombre de jours de ponte. Le problème de la régression linéaire entre ces variables fera aussi l'objet d'une discussion. Nous allons par la suite évaluer les performances de quelques procédures de tests statistiques destinées à valider l'adéquation de la loi de Poisson avec les données de dénombrement contre des alternatives générales de surdispersion ou de sousdispersion. Ainsi, nous comparons le test du Chideux de Pearson à des tests construits à partir des statistiques obtenues par l'application d'une transformation de BoxCox à l'indice de dispersion de Fisher ou de son inverse
The Poisson model is a benchmark model for the statistical analysis of the count data. Sometimes count data exhibit overdispersion or underdispersion resulting in the lack of the Poisson model. The aim of this work is to present an overview of the probability models that can provide alternative framework for the statistical analysis of count data, among others, Katz's model and the weighted Poisson model. Some weighted Poisson models will be fitted on the data collected in Republic of Congo and related to a sample of spiraling whitefly Aleurodicus dispersus Russell (Homoptera : Aleyrodidae) described by the preimaginal span (from eggs to adult stage) measured on days, the total number of eggs and the laying span. The linear regression issue between these three variables will be discussed as well. We must afterwards evaluate the performances of some tests procedures devoted to valid the fitness of count data by Poisson distribution against general alternatives of overdispersion or underdispersion. Thus, we compare the Chisquare test of Pearson to tests constructed from statistics which are obtained by the BoxCox transformation of Fisher dispersion index and of its inverse
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Dhar, Gaurav. „Contributions en théorie du contrôle échantillonné optimal avec contraintes d’état et données non lisses“. Thesis, Limoges, 2020. http://www.theses.fr/2020LIMO0050.

Der volle Inhalt der Quelle
Annotation:
L’objectif de cette thèse est d’obtenir des conditions nécessaires d’optimalité du premier ordre sous la forme d’un principe du maximum de Pontryagin (en abrégé PMP) pour des problèmes de contrôle échantillonné optimal avec temps d’échantillonnage libres, contraintes d’état et coûts de Mayer non lisses. Le Chapitre 1 est consacré aux notations et espaces fonctionnels utiles pour décrire les problèmes de contrôle échantillonné optimal qui seront rencontrés dans le manuscrit. Dans le Chapitre 2, nous obtenons une condition nécessaire d’optimalité lorsque les temps d’échantillonnage peuvent être choisis librement qui est appelée condition de continuité de la fonction Hamiltonienne. Rappelons que la fonction Hamiltonienne qui décrit l’évolution du Hamiltonien avec les valeurs de la trajectoire optimale et du contrôle échantillonné optimal est, en général, discontinue quand les temps d’échantillonnage sont fixés. Notre résultat démontre que la continuité de la fonction Hamiltonienne est retrouvée pour les contrôles échantillonnés optimaux avec temps d’échantillonnage optimaux. Pour terminer, nous implémentons une méthode de tir basée sur la condition de continuité de la fonction Hamiltonienne pour déterminer numériquement les temps d’échantillonnage optimaux dans deux exemples linéaires-quadratiques. Dans le Chapitre 3, nous obtenons un PMP pour des problèmes de contrôle échantillonné optimal avec contraintes d’état. Nous obtenons que les vecteurs adjoints sont solutions de problèmes de Cauchy-Stieltjes définis par des mesures de Borel associées à des fonctions à variation bornée. De plus, nous trouvons que, sous quelques hypothèses assez générales, toute trajectoire admissible (associée à un contrôle échantillonné) rebondit nécessairement sur les contraintes d’état. Nous exploitons ce phénomène de trajectoires rebondissantes pour implémenter une méthode indirecte qu’on utilise pour résoudre numériquement quelques exemples simples de problèmes de contrôle échantillonné optimal avec contraintes d’état. Dans le Chapitre 4, nous obtenons un PMP pour des problèmes de contrôle échantillonné optimal avec coûts de Mayer non lisses. Notre preuve est uniquement basée sur les outils de l’analyse non lisse et n’utilise aucune technique de régularisation. Nous déterminons l’existence d’une sélection dans le sous-différentiel de la fonction de coût de Mayer non lisse en établissant un résultat plus général sur l’existence d’un vecteur séparant universel pour les ensembles convexes compacts. En appliquant ce résultat, appelé théorème de vecteur séparant universel, nous obtenons un PMP pour des problèmes de contrôle échantillonné optimal avec coûts de Mayer non lisses où la condition de transversalité sur le vecteur adjoint est donnée par une inclusion dans le sous-différentiel de la fonction de coût de Mayer non lisse. Pour obtenir les conditions d’optimalité sous la forme d’un PMP, nous utilisons différentes techniques de perturbation sur le contrôle optimal. Pour traiter les contraintes d’état, nous pénalisons la distance à ces contraintes dans une fonctionnelle et nous appliquons le principe variationnel d’Ekeland. En particulier, nous invoquons des résultats sur la renormalisation des espaces de Banach pour assurer la régularité de la fonction distance dans les contextes de dimension infinie. Enfin nous utilisons des notions standards de l’analyse non lisse, telles que les dérivées directionnelles généralisées de Clarke et le sous-différentiel de Clarke, pour étudier les problèmes de contrôle échantillonné optimal avec coûts de Mayer non lisses
This dissertation is concerned with first-order necessary optimality conditions in the form of a Pontryagin maximum principle (in short, PMP) for optimal sampled-data control problems with free sampling times, running inequality state constraints and nonsmooth Mayer cost functions.Chapter 1 is devoted to notations and basic framework needed to describe the optimal sampled-data control problems to be encountered in the manuscript. In Chapter 2, considering that the sampling times can be freely chosen, we obtain an additional necessary optimality condition in the PMP called the Hamiltonian continuity condition. Recall that the Hamiltonian function, which describes the evolution of the Hamiltonian taking values of the optimal trajectory and of theoptimal sampled-data control, is in general discontinuous when the sampling times are fixed. Our result proves that the continuity of the Hamiltonian function is recovered in the case of optimal sampled-data controls with optimal sampling times. Finally we implement a shooting method based on the Hamiltonian continuity condition in order to numerically determine the optimal sampling times in two linear-quadratic examples.In Chapter 3, we obtain a PMP for optimal sampled-data control problems with running inequality state constraints. In particular we obtain that the adjoint vectors are solutions to Cauchy-Stieltjes problems defined by Borel measures associated to functions of bounded variation. Moreover, we find that, under certain general hypotheses, any admissible trajectory (associated to a sampled-data control) necessarily bounces on the runningine quality state constraints. Taking advantage of this bouncing trajectory phenomen on, we are able to use thePMP to implement an indirect numerical method which we use to numerically solve some simple examples of optimal sampled-data control problems with running inequality state constraints. In Chapter 4, we obtain a PMP for optimal sampled-data control problems with nonsmooth Mayer cost functions. Our proof directly follows from the tools of nonsmooth analysis and does not involve any regularization technique. We determine the existence of a selection in the subdifferential of the nonsmooth Mayer cost function by establishing a more general result asserting the existence a universal separating vector for a given compact convex set. From the application of this result, which is called universal separating vector theorem, we obtain a PMP for optimal sampled-data control problems with nonsmooth Mayer cost functions where the transversality conditon on the adjoint vector is given by an inclusion in the subdifferential of the nonsmooth Mayer cost function.To obtain the optimality conditions in the form of a PMP, we use different techniques of perturbations of theoptimal control. In order to handle the state constraints, we penalize the distance to them in a corresponding cost functional and then apply the Ekeland variational principle. In particular, we invoke some results on renorming Banach spaces in order to ensure the regularity of distance functions in the infinite-dimensional context. Finally we use standard notions in nonsmooth analysis such as the Clarke generalized directional derivative and theClarke subdifferential to study optimal sampled-data control problems with nonsmooth Mayer cost functions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Sahuguède, Alexandre. „Un algorithme de découverte de chroniques pertinentes pour le diagnostic par identification et reconstitution“. Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30166.

Der volle Inhalt der Quelle
Annotation:
Les chroniques sont des schémas temporels particulièrement bien adaptés pour une représentation de modèles complexes et dynamiques. Des algorithmes de reconnaissance de chroniques permettent d'identifier des chroniques dans un flux de données en ligne et de prendre des actions adéquates de manière rapide et efficace. Les chroniques peuvent être utilisées dans des domaines d'applications divers, tels que le domaine médical, les réseaux internets, ou encore des applications industrielles. Néanmoins, la construction des chroniques n'est pas chose aisée en raison de la complexification et de l'augmentation des capacités de génération de données des systèmes modernes. Le processus de découverte de chroniques a pour objectif de répondre à cette problématique en construisant de manière automatique des chroniques à partir des données directement générées par le système étudié. Dans ce mémoire de thèse, une approche innovante à la problématique de la découverte de chroniques est abordée. Cette nouvelle approche repose sur une identification de chroniques élémentaires et une reconstitution de chroniques plus complexes à partir de celles-ci. L'algorithme proposé, appelé CDIRe (Chronicle Discovery by Identification and Reconstitution), permet de découvrir des chroniques avec peu de connaissance sur le système sous-jacent
Chronicles are temporal patterns well-suited for an abstract representation of complex dynamic systems. Chronicle recognition algorithms allow the identification of chronicles in an on-line stream of data to be done and take adequate action in an quick and efficient manner. Chronicles are used in a vast array of applications such as medical field, internet networks, or industrial applications. Nevertheless, designing chronicles is not an easy task due to the sophistication and the increase of data generation capacity of modern systems. The chronicle discovery process try and tackle this problem by an automatic design of chronicles from data directly generated by the studied system. In this thesis, an innovative approach to the problem of chronicle discovery is introduced. This new approach lies of the identification of elementary chronicles and a reconstitution of complex chronicles from them. The algorithm introduced, called CDIRe (Chronicle Discovery by Identification and Reconstitution), allows the discovery of chronicles with few knowledge from the underlying system to be done
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Dewalle, Anne-Sophie. „Nouvelles approches de traitement du signal et de l'image en IRM fonctionnelle d'activation cérébrale“. Lille 1, 2006. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/c3ff9e5f-e824-4cc2-a6ea-a22cb4383bc2.

Der volle Inhalt der Quelle
Annotation:
L'IRM fonctionnelle d'activation cérébrale a pour but d'étudier et d'identifier les régions du cerveau impliquées dans des activités stimulées, ceci à des fins cliniques ou de recherche fondamentale. Le sujet est soumis à un enchaînement de phases d'activation et de repos, tandis que l'on effectue simultanément l'acquisition rapide d'un très grand nombre d'images IRM. La problématique consiste à trouver un modèle explicatif des variations observées dans les images, à en estimer les paramètres et à déterminer les régions activées. Dans la théorie des systèmes, l'une des nombreuses méthodes proposées, le cerveau est représenté comme une "boîte noire" dont on cherche à estimer la réponse impulsionnelle. Comme le système est mal conditionné, les solutions sont instables et des connaissances a priori sont introduites afin de régulariser la solution. Nous avons reconsidéré le problème sans introduire d'a priori. Le modèle choisi est dynamique, à temps discret, non paramétrique, multi-variable, stochastique, linéaire et à coefficients invariants. Des méthodes de déconvolution et de réalisation ont été appliquées afin d'estimer la réponse impulsionnelle en chacun des voxels. Nous avons étudié l'influence de la nature du bruit et de sa modélisation. Nous avons considéré le bruit comme la somme d'un bruit blanc, de moyenne nulle et de variance inconnue, et d'un bruit physiologique, modélisé par une combinaison linéaire de fonctions sinusoïdales basses fréquences. Le problème, toujours mal conditionné, mène à une infinité de solutions et nous avons retenu la réponse impulsionnelle de plus petite norme correspondant à une hypothèse de consommation minimum d'énergie. D'autres développements ont également été effectués dans le prétraitement des images et dans l'amélioration de techniques standard d'analyse statistique
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Treangle, Clement. „Observateurs grand gain pour des systèmes non linéaires à sorties échantillonnées et retardées“. Thesis, Normandie, 2018. http://www.theses.fr/2018NORMC251/document.

Der volle Inhalt der Quelle
Annotation:
Ce manuscrit porte sur la synthèse d'observateurs grand gain pour des systèmes non linéaires à sorties échantillonnées et retardées. Trois contributions sont proposées à la lecture de ce manuscrit. La première contribution, pour une classe de systèmes Multi-entrées / Multi-sorties uniformément observables et dont les sorties sont regroupées en un seul bloc, met en jeu le problème du processus d'acquisition des mesures de sorties (continues, échantillonnées, retardées ou non) et propose un cadre commun pour l'ensemble des cas possibles. La deuxième contribution propose un observateur grand gain filtré sur cette même classe de systèmes dans l'optique de réduire la sensibilité au bruit de mesure, dans le cas où la sortie est continue puis dans le cas où cette dernière est échantillonnée. La dernière contribution vise à étendre la synthèse grand gain standard pour une large classe de systèmes Multi-entrées / Multi-sorties uniformément observables dont les mesures des sorties sont continues. Pour chacune de ces contributions, il a été montré que l'erreur d'observation de chacun des observateurs proposés converge exponentiellement vers zéro en l'absence d'incertitudes sur le système. Toutes ces contributions ont été illustrées par différents exemples issus de plusieurs domaines d'étude
This manuscript deals with the synthesis of high gain observers for nonlinear systems with sampled and delayed outputs. Three contributions are proposed for consideration in this manuscript. The first contribution, for a class of Multi-input / Multi-output systems whose outputs are grouped into a single block, involves the problem of the acquisition process of output measurements (continuous, sampled, delayed or not) and proposes a common framework for all possible cases. The second contribution proposes a filtered high gain observer on this same class of systems in order to reduce the sensitivity to measurement noise, in the case where the output is continuous and then in the case where the latter is sampled. The last contribution aims to extend the standard high gain synthesis for a large class of uniformly observable Multi-input / Multi-output systems with continuous output measurements. For each of these contributions, it has been shown that the observation error of each of the proposed observers converges exponentially towards zero in the absence of uncertainties in the system. All these contributions have been illustrated through several examples from different fields of study
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Bücher zum Thema "Systèmes de données échantillonnées"

1

Delobel, Claude. Bases de données: Des systèmes relationnels aux systèmes à objets. Paris: InterEditions, 1991.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Pichat, Étienne. Ingénierie des données: Systèmes d'information, modèles et bases de données. Paris: Masson, 1990.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Abraham, Silberschatz, Hrsg. Systèmes de gestion des bases de données. Paris: McGraw-Hill, 1991.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Korth, Henry F. Systèmes de gestion des bases de données. Auckland: McGraw-Hill, 1988.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Les données dans les systèmes d'information géographique. Paris: Hermès, 1991.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Gardarin, Georges. Bases de données: Les systèmes et leurs langages. 3. Aufl. Paris: Eyrolles, 1985.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Gardarin, Georges. Bases de données: Les systèmes et leurs langages. 5. Aufl. Paris: Eyrolles, 1988.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Gardarin, G. Bases de données: Les systèmes et leurs langages. 7. Aufl. Paris: Eyrolles, 1991.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Carrier, Pierre. Bases de données dans le développement de systèmes. Boucherville, Québec: G. Morin, 1991.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Gardarin, Georges. Bases de données relationnelles : analyse et comparaison des systèmes. 3. Aufl. Paris: Eyrolles, 1988.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Systèmes de données échantillonnées"

1

Goetz, Christophe, Aurélien Zang und Nicolas Jay. „Apports d’une méthode de fouille de données pour la détection des cancers du sein incidents dans les données du programme de médicalisation des systèmes d’information“. In Informatique et Santé, 189–99. Paris: Springer Paris, 2011. http://dx.doi.org/10.1007/978-2-8178-0285-5_17.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

RHEINDT, Sven, Akshay SRIVATSA, Oliver LENKE, Lars NOLTE, Thomas WILD und Andreas HERKERSDORF. „Relever le défi de la localité des données dans les MPSoC“. In Systèmes multiprocesseurs sur puce 1, 115–53. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9021.ch5.

Der volle Inhalt der Quelle
Annotation:
Les latences d’accès aux données et les goulots d’étranglement de la bande passante représentent des facteurs limitatifs majeurs pour l’efficacité de calcul des architectures multi-cœurs et pluri-cœurs. Ce chapitre porte sur deux approches visant à garantir que les données à traiter et les entités de calcul restent limitées dans l’espace : la cohérence de cache par région et l’accélération proche-mémoire.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

FALSAFI, Babak. „Architecture de serveur pour un centre de données post-Moore“. In Systèmes multiprocesseurs sur puce 2, 159–72. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9022.ch6.

Der volle Inhalt der Quelle
Annotation:
L’émergence des centres de données est une réponse au changement de paradigme informatique vers l’informatique en nuage. Ce chapitre présente les approches récentes et prometteuses de la nouvelle conception logicielle/matérielle des serveurs des centres de données du futur, permettant d’intégrer l’hétérogénéité dans le silicium et facilitant la mise à l’échelle de plate-formes avec les matrices de réseau émergentes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

PROVAN, Gregory. „Diagnostic des systèmes stochastiques“. In Diagnostic et commande à tolérance de fautes 1, 145–66. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9058.ch4.

Der volle Inhalt der Quelle
Annotation:
La prise en compte de l’incertitude est cruciale pour la détection précise des défauts. L'incertitude peut provenir de modèles imprécis ou de mesures bruitées. Une approche standard en deux étapes identifie les défauts par des résidus. Nous proposons un cadre de principes pour classifier les méthodes de diagnostic stochastique et guider leur application. Trois approches principales sont explorées : modèle, données et hybride.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

MARIETTE, Jérôme, und Nathalie VIALANEIX. „Des noyaux pour les omiques“. In Intégration de données biologiques, 165–210. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9030.ch6.

Der volle Inhalt der Quelle
Annotation:
En biologie des systèmes, de nombreuses méthodes ont été développées pour intégrer les données -omiques et, parmi elles, les noyaux sont une approche couramment utilisée. Dans ce chapitre, nous présentons le cadre général des approches à noyau et leur utilité pour l'analyse de divers types de données biologiques avec un focus particulier sur les approches exploratoires.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

COHEN-BOULAKIA, Sarah, und Frédéric LEMOINE. „Workflows d’intégration de données bioinformatiques“. In Intégration de données biologiques, 63–97. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9030.ch3.

Der volle Inhalt der Quelle
Annotation:
Les traitements de données sont au cœur de nombreux domaines de la Bioinformatique. Ils consistent en l’enchaînement d’un grand nombre d’outils bioinformatiques et manipulent des données massives et diverses. Ce chapitre décrit les difficultés d’implémentation et d’exécution de ces traitements, introduit les systèmes de gestion de workflows comme élément de solution et souligne les problèmes de recherche encore ouverts.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

COMMENGES, Hadrien, und Florent LE NÉCHET. „Écueils catégoriels pour l’analyse de la mobilité urbaine“. In Systèmes de mobilité urbaine dans le monde, 219–56. ISTE Group, 2024. http://dx.doi.org/10.51926/iste.9154.ch10.

Der volle Inhalt der Quelle
Annotation:
Ce chapitre, d’ordre méthodologique, aborde les questions de diversité des données liées à la mobilité quotidienne et de délimitation du périmètre urbain avant d’adresser les catégories d’analyse mobilisées dans tout travail de monographie ou de comparaison interurbaine des pratiques de mobilité. Il discute des écueils catégoriels, soulevant la difficulté de concilier diversité et comparabilité des données.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

WICAKSANA, Arief, Olivier MULLER, Frédéric ROUSSEAU und Arif SASONGKO. „Cohérence des communications lors de la migration de tâches matérielles“. In Systèmes multiprocesseurs sur puce 1, 309–43. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9021.ch11.

Der volle Inhalt der Quelle
Annotation:
La capacité à stopper, migrer et reprendre une application sur un ensemble de nœuds virtualisés dans le nuage devient un service essentiel où les accélérateurs FPGA offrent de très bonnes performances. Dans ce chapitre, un protocole de communication qui gère les données de communication lors de la migration de tâches entre FPGA est présenté.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

ELIAHU, Adi, Rotem BEN HUR, Ameer HAJ ALI und Shahar KVATINSKY. „mMPU, une architecture polyvalente de calcul dans la mémoire basée sur memristor“. In Systèmes multiprocesseurs sur puce 1, 155–69. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9021.ch6.

Der volle Inhalt der Quelle
Annotation:
Ce chapitre décrit l’architecture mMPU conçue pour utiliser des nouvelles technologies de mémoire non volatile, appelées memristors, pour exécuter différentes opérations logiques directement dans la mémoire, évitant ainsi le gaspillage d’énergie associé au mouvement des données. La méthode utilisée pour l’exécution de la logique en mémoire et la conception du contrôleur de mémoire sont présentées en détail.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

VAN BERKEL, Kees. „StaccatoLab, un modèle de calcul des flots de données à grande échelle“. In Systèmes multiprocesseurs sur puce 2, 199–233. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9022.ch8.

Der volle Inhalt der Quelle
Annotation:
Le calcul parallèle à grande échelle consiste à organiser des millions d’opérations arithmétiques en parallèle, à chaque cycle d’horloge. Dans ce chapitre, StaccatoLab est présenté comme un langage qu’intègre un modèle d’exécution de flot de données conçu pour un parallélisme efficace à grande échelle. Il supporte l’analyse quantitative des programmes et permet leur conception pour des objectifs de débit prédéfinis.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Konferenzberichte zum Thema "Systèmes de données échantillonnées"

1

Zouari, Mohamed, Françoise André und Maria-Teresa Segarra. „Support d'adaptation dynamique et distribuée dans la conception de systèmes de réplication de données“. In the 5th French-Speaking Conference. New York, New York, USA: ACM Press, 2009. http://dx.doi.org/10.1145/1739268.1739281.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Dubuc, A., P. Monsarrat, S. Laurencin-Dalicieux, F. Virard, J. P. Sarrette, N. Merbahi und S. Cousty. „Application du plasma atmosphérique froid en oncologie : une revue systématique“. In 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206603018.

Der volle Inhalt der Quelle
Annotation:
Introduction : Le plasma atmosphérique froid est un gaz ionisé produit à pression atmosphérique. Plusieurs applications médicales sont étudiées, notamment la cicatrisation des plaies chroniques et l’effet antimicrobien. En effet, le traitement par plasma permet de générer de nombreuses espèces réactives de l’oxygène et de l’azote. L’application d’un tel traitement in-vitro sur des cellules eucaryotes a montré de nombreux effets cellulaires tel que l’apoptose. Les applications dans le domaine de l’oncologie ont par conséquent été étudiées. Objectif : L’objectif de cette revue systématique est d’analyser l’utilisation du plasma atmosphérique froid en oncologie ainsi que les méthodologies (lignées cellulaires ciblées, paramètres physiques, thérapies directes ou indirectes) mises en oeuvre jusqu’à ce jour. Matériels et méthodes : Les bases de données Pubmed, ICTRP et Google Scholar ont été explorées jusqu’au 17/01/2017 afin de recenser les études traitant de l’utilisation du plasma en oncologie, que ce soit des études in-vitro, in-vivo ou des essais cliniques. Résultats : 150 articles originaux ont été inclus. Les Jets de plasma sont les systèmes de production de plasma les plus utilisés (73,3%). L’hélium est le gaz le plus utilisé (34%) suivi par l’air (28%) et l’argon (19,3%). Les études sont principalement in-vitro (94%). L’application directe du plasma est la plus représentée (84,2%). Les lignées cellulaires ciblées sont la plupart dérivées de lignées cancéreuses humaines (82%), en particulier des lignées issues de cancer du cerveau (16,6%). Conclusions : Cette étude met en évidence la multiplicité de moyens de production et d’applications clinques du plasma atmosphérique froid en oncologie. Alors que certains dispositifs peuvent être utilisés directement sur les patients, d’autres ouvrent la voie au développement de nouveaux produits pharmaceutiques qui pourraient être produits à échelle industrielle. L’utilisation clinique du plasma nécessite la mise au point de protocoles fiables et standardisés afin de déterminer le plasma le plus adapté à chaque type de cancers et d’envisager son association avec les traitements conventionnels.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Andersson, Fred. „Groupe µ and “the system of plastic form” -for an evaluation-“. In Le Groupe μ : quarante ans de rhétorique – trente-trois ans de sémiotique visuelle. Limoges: Université de Limoges, 2010. http://dx.doi.org/10.25965/as.3097.

Der volle Inhalt der Quelle
Annotation:
Le Groupe µ et "le système de formes plastiques” -à propos d’une évaluation- L’objectif de cet article est de fournir quelques exemples et de proposer certains éclaircissements qui peuvent contribuer à la compréhension de la théorie du signe plastique conçu par le Groupe μ. Plus précisément, l’article porte sur les éléments de la théorie en question qui constituent une analyse du système de la forme tant qu’elle est distincte du système de la couleur et du système de la texture. Dans l’espoir de faire connaître quelques-uns des fondations et des implications de ce système de forme plastique, principalement aux lecteurs anglo-saxons, l’article tente également de clarifier sa place au sein de la théorie générale du signe visuel articulé par Groupe μ dans son Traité du signe visuel (1992). La première section de l’article traite de la notion esthétique générale de forme et de sa relation avec d'une part la notion de forme/formation visuelle et de l'autre la notion de forme sémiotique telle qu’elle a été développée par Hjelsmlev. On prend note du risque que les visées d’une sémiotique plastique puissent être indûment confondues avec celles du formalisme dans l'esthétique. Selon l’avis de l’auteur, les études de sémiotique visuelle ne sauraient bénéficier de ce genre de confusion, mais devraient plutôt tenter de maintenir sa distance par rapport aux conjectures et luttes de pouvoir dans le(s) monde(s) de l'art. La deuxième section explique la distinction faite par le Groupe μ entre le signe iconique et le signe plastique, conçus comme des couches séparées du signe visuel. Selon le Groupe μ, le signe iconique forme une structure triadique contenant le signifiant, le type et le référent. Il y a des similarités entre cette conception et le triangle d’Ogden & Richards. Or, la notion du Type a des implications plus vastes que la conception d’Ogden & Richards, selon lesquels il existe une image très générale qui met en relation symbole/signifier et référent – le type est ici le résultat de modélisations et de catégorisations, et il est valable aussi bien pour le signe iconique que pour le signe plastique. Par définition, le signe plastique manque de référent : la relation entre un motif et ses variations dépend donc uniquement du rapport Signifier/Type. Sur la base de cette relation Signifier/Type, les signes plastiques apparaissent, selon le Groupe µ, aux trois niveaux de la sémiose, sur le niveau purement plastique, sur le niveau extravisuel (ou symbolique), et dans une interaction avec le signe iconique sur le niveau iconico-plastique. La troisième section de l’article explique le système de forme plastique telle qu’elle est conçue par le Groupe μ. Le système est constitué par trois « formemes » (ou catégories), à savoir position, dimension et l'orientation. Il est conçu en termes de figures apparaissant dans un plan restreint. Comme les relations fondamentales dans le plan sont celles entre le centre - la marge, le haut - le bas et la gauche - la droite, le système de positions alternatives (par exemple marginal, au-dessus et au centre) est isomorphe au système d'autres orientations (par exemple vers l'intérieur, d'en haut vers le centre). Le système d'autres dimensions/tailles, par contraste, est défini par le biais de la fonction de la taille de la figure en relation à la taille du plan de l’image et le point focal. Ces valeurs plastiques de position, de dimension et d’orientation sont les signifiants du système. Ils sont liés à leurs signifiés de la manière suivante : la position à l’attraction, la dimension à la domination, l'orientation à l'équilibre. Cette corrélation est validée par les auteurs au moyen d’une démonstration visuelle. Dans la quatrième et dernière section de l’article, des observations sont faites au sujet des répercussions plus vastes ainsi que des applications du système. Conformément à la visée du propre Groupe µ à surmonter les limitations qui résultent de la spécialisation de disciplines telles que la psychologie de la perception, l'auteur soutient que des systèmes théoriques comme celui du système plastique peut fournir un cadre interdisciplinaire qui facilite l’évaluation à la fois des données scientifiques et des discours philosophiques généraux concernant le monde visuel. En ce qui concerne des applications plus proches, l'auteur estime que les théories du sens visuel et de la rhétorique du Groupe μ, si elles étaient plus largement connues, contribueraient considérablement à la compréhension de l'importance du sens plastique dans la communication visuelle et au développement des méthodes pédagogiques pour la description et l’interprétation de l'image.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Berichte der Organisationen zum Thema "Systèmes de données échantillonnées"

1

Bourassa Forcier, Mélanie, Dary-Anne Tourangeau, Gaëlle Feruzi und Mathieu Kiriakos. Introduction d’un télérobot en résidences privées : Enjeux légaux et organisationnels. CIRANO, April 2022. http://dx.doi.org/10.54932/obpe9357.

Der volle Inhalt der Quelle
Annotation:
Ce rapport met en lumière les différentes considérations juridiques à prendre en compte dans le déploiement de télé-robots dans le système de santé du Québec. Il aborde notamment la question de l'interopérabilité des systèmes, de la vie privée et de la collecte de données.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Tea, Céline. REX et données subjectives: quel système d'information pour la gestion des risques? Fondation pour une culture de sécurité industrielle, April 2012. http://dx.doi.org/10.57071/170rex.

Der volle Inhalt der Quelle
Annotation:
Le retour d’expérience est conçu, dans une vision classique, comme une démarche de gestion mettant à disposition les informations nécessaires aux managers pour piloter les systèmes et gérer les risques. Malheureusement, la réalité est moins simple. Les systèmes à piloter sont des systèmes socio-techniques complexes. Le futur n’est pas déterminé par le passé. Il s’avère nécessaire de compléter le système d’information supportant la gestion des risques. Le travail présenté propose de passer d’un système fondé sur des informations extraites des expériences incidentelles du système à piloter, vers un système d’information qui intègre au mieux l’expérience des gens qui le font fonctionner. Les connaissances tacites de ces personnes expérimentées doivent alors être élicitées. Le présent travail a permis d’expérimenter au sein de la SNCF une technique d’aide à la décision issue du courant de l’analyse de la décision. Cette technique de MAUT a été appliquée à l’analyse d’un changement de réglementation concernant la conduite des trains en cas d’alerte radio. Les décisions sont traitées ici non sous un angle individuel, mais comme l’aboutissement d’un processus construit au sein d’une organisation, mettant en jeu plusieurs décideurs et plusieurs enjeux (pouvant être partiellement contradictoires). L’apport de cette technique par rapport aux méthodes classiques basées sur les arbres de défaillance est discuté. Un second niveau d’étude de l’impact de cet éventuel changement réglementaire a consisté à analyser en profondeur les raisonnements et les connaissances utilisés par les acteurs pour construire le sens de leur action en cas d’alerte radio. En modélisant les discussions entre les différents acteurs impliqués et en restituant leur point de vue en situation, il est possible d’identifier les divergences éventuelles entre les représentations de différents acteurs concernant une même situation, ainsi qu’un possible écart entre les croyances des concepteurs et les utilisateurs de la règle. Cette seconde analyse s’appuie sur une théorie de la conception dite C/K, qui met en relation les connaissances et les concepts utilisés en situation. L’auteur suggère que l’application de ces méthodes permet de voir l’analyse de risques comme un lieu d’élaboration de sens collectif sur la sécurité du système, plutôt que (dans une vision plus positiviste de la connaissance) comme une activité qui révèle et approche la vérité sur les risques, en s’appuyant sur des données factuelles et objectives. Elle propose de développer l’ingénierie du subjectif pour permettre la construction d’un système de management au sein duquel la vision d’ingénieur de la gestion des risques et la vision inspirée des courants des sciences humaines et sociales pourront cohabiter.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Martineau, Joé T., Frédérique Romy Godin, Janine Badr, Alexandre Castonguay, Martin Cousineau, Philippe Després, Aude Motulsky, Jean Noel Nikiema, Cécile Petitgand und Catherine Régis. Enjeux éthiques de l’IA en santé - Fiche 4. Observatoire international sur les impacts sociétaux de l'IA et du numérique, März 2022. http://dx.doi.org/10.61737/fspn5441.

Der volle Inhalt der Quelle
Annotation:
La présente fiche propose une revue des différents enjeux éthiques liés au développement et à l’utilisation des technologies d’intelligence artificielle dans le milieu de la santé, en trois parties. D’abord, nous aborderons les enjeux éthiques liés à l’exploitation de données massives nécessaires à l’entrainement des algorithmes de l’IA. Ensuite, nous présenterons les principaux enjeux éthiques liés au développement et à l’utilisation des SIA en santé, en abordant la façon dont ces systèmes impactent nos vies ainsi que l’environnement physique et social dans lequel nous vivons. Nous présenterons finalement les principales initiatives nationales et internationales en matière d’éthique de l’IA et de la gestion des données, fruits et reflets d’une réflexion globale sur ces sujets. Ces initiatives ont notamment proposé des lignes directrices et principes normatifs servant de guides pour le développement de technologies de l’IA éthiques et responsables Il s'agit de la quatrième fiche d'une série de 4 développée dans le cadre d'un mandat réalisé pour le Ministère de la Santé et des Services sociaux du Québec (MSSS).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Brinkerhoff, Derick W., Sarah Frazer und Lisa McGregor. S'adapter pour apprendre et apprendre pour s'adapter : conseils pratiques tirés de projets de développement internationaux. RTI Press, Januar 2018. http://dx.doi.org/10.3768/rtipress.2018.pb.0015.1801.fr.

Der volle Inhalt der Quelle
Annotation:
Les principes de programmation et de gestion adaptables centrés sur l’apprentissage, l’expérimentation et la prise de décisions basée sur des faits gagnent en popularité chez les bailleurs de fonds et les partenaires de mise en œuvre dans le monde du développement international. L'adaptation exige un apprentissage de manière à ce que les ajustements apportés au cours du projet soient éclairés. Cela exige des méthodes de collecte d’informations qui fassent la promotion de la réflexion, de l’apprentissage et de l’adaptation, au-delà de données préalablement précisées. Une concentration sur l’adaptation modifie la réflexion traditionnelle sur le cycle des programmes. D'une part, elle fait disparaître les séparations entre la conception, la mise en œuvre et l’évaluation et, d'autre part, elle recadre la réflexion pour prendre en compte la complexité des problèmes de développement et des voies de changements non linéaires. Le soutien de structures et de processus de gestion est essentiel pour encourager la gestion adaptable. Les organisations de mise en œuvre et les bailleurs defonds expérimentent avec la manière dont les passations de marchés, la sous-traitance, la planification du travail et les rapports peuvent être modifiés afin que la programmation adaptable soit encouragée. Des systèmes de suivi, d’évaluation et d’apprentissage bien conçus peuvent aller au-delà des exigences en matière de redevabilité et de rapports pour produire des données et des enseignements pour une prise de décisions et une gestion adaptable basées sur les faits. Il est important de continuer l’expérimentation et l’apprentissage de manière à intégrer la programmation et la gestion adaptable dans les politiques et pratiques opérationnelles des bailleurs de fonds, despartenaires pays et des entités de mise en œuvre. Nous devons consacrer des efforts continus à la constitution d'une base de faits qui pourra contribuer àla gestion adaptable de manière à ce que les résultats de développement international soient atteints.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie