Auswahl der wissenschaftlichen Literatur zum Thema „Test à données aléatoires“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Test à données aléatoires" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "Test à données aléatoires"

1

HARINAIVO, A., H. HAUDUC und I. TAKACS. „Anticiper l’impact de la météo sur l’influent des stations d’épuration grâce à l’intelligence artificielle“. Techniques Sciences Méthodes 3 (20.03.2023): 33–42. http://dx.doi.org/10.36904/202303033.

Der volle Inhalt der Quelle
Annotation:
Le changement climatique a pour conséquence l’apparition de forts événements pluvieux de plus en plus fréquents, occasionnant de fortes variations de débit et de concentrations à l’influent des stations d’épuration. La connaissance des risques d’orage et des débits potentiels plusieurs heures ou plusieurs jours en avance permettrait d’anticiper les adaptations opérationnelles pour préparer la station et protéger les différents ouvrages des risques de défaillance. Dans cette étude, les données météorologiques (pluies, température, vents, humidités, précipitations…) et l’historique des données d’influent de la station sont utilisés pour entraîner un algorithme d’intelligence artificielle, d’apprentissage automatique et d’apprentissage profond pour prédire les débits entrants sur la station jusqu’à une semaine en avance. Trois jeux de données journalières et horaires, de 1 à 3 ans, sont utilisés pour entraîner un modèle de Forêt aléatoire à 30 arbres, un modèle LSTM (long short-term memory) et un modèle GRU (gate recurrent unit) à trois couches de 100 neurones suivis chacun d’un dropout de 20 % et une couche de sortie entièrement connectée. Les données sont préalablement nettoyées pour supprimer les valeurs aberrantes et sont réparties à 80 % pour les données pour l’apprentissage et 20 % pour les données de test afin d’obtenir des modèles avec les meilleures prédictions. Les algorithmes utilisés dans cette étude sont simples et détectent bien les pics. La durée de l’entraînement sur les données de trois ans se fait en moins de deux minutes pour la Forêt aléatoire et en moins d’une demi-heure pour les réseaux de neurones LSTM et GRU. Les résultats montrent que les données horaires et la prise en compte de l’effet de l’historique par l’utilisation des réseaux de neurones récurrents LSTM et GRU permettent d’obtenir une meilleure prédiction des débits d’influent. Les séries de données plus longues permettent également un meilleur apprentissage des algorithmes et une meilleure prédiction du modèle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Siregar, Ahmad Faisal, Irwandy Irwandy und Elvi Syahrin. „EFFICACITÉ DE LA TECHNIQUE DE JEU DU HANGMAN POUR AMÉLIORER LE VOCABULAIRE FRANÇAIS DES ÉLÈVES DE MAS YASPI LABUHAN DELI T.A 2019/2020“. HEXAGONE Jurnal Pendidikan, Linguistik, Budaya dan Sastra Perancis 9, Nr. 1 (01.07.2020): 743. http://dx.doi.org/10.24114/hxg.v9i1.18913.

Der volle Inhalt der Quelle
Annotation:
But de cette recherche est pour savoir l’efficacité de la technique de jeu du Hangman pour améliorer le vocabulaire français des élèves de MAS YASPI Labuhan Deli T.A 2019/2020. Cette recherche utilise une approche quantitative avec la méthode expérimentale, pré-test et post-test. Il y a deux variables dans cette recherche, ce sont le variable indépendant comme la technique de jeu du Hangman et le variable dépendant comme améliorer le vocabulaire français. La population de cette recherche est constituée de tous les élèves de la classe XI de MAS YASPI Labuhan Deli T.A 2019/2020 composée de 4 classes. L’échantillon de cette recherche se compose de deux classes, c’est-à-dire, la classe XI IPA 1 et XI IPA 2. L’échantillon est déterminé par une technique d’échantillonnage aléatoire (Random Sampling). La technique de collecte des données utilisées dans cette recherche sont une méthode de test, qui est un test d'écriture du vocabulaire français dans le groupe expérimental. La technique d’analyse des données utilisant le t-test. Le résultat indique que la technique de jeu du Hangman est efficace pour améliorer le vocabulaire français dans le groupe expérimental. Le résultat indique par les calculs de t-test effectués sur la valeur post-test entre le groupe contrôle et le groupe expérimentale à l’aide de l’ordinateur de SPSS version 22. Le résultat du t-test de la valeur de groupe expérimental indique que T-hitung est plus grand que de T-tabel, qui est 8,765 ˃ 2, 0025. Ainsi, T-hitung plus grand que de T-tabel signifie que Ha est accepté. Basé sur de l'analyse des données, le score moyen des élèves du post-test dans la classe contrôle est 60,00, tandis que pour la classe expérimentale est 80,67. Basé sur de la moyenne, on peut voir qu'il y a une augmentation significative pour améliorer le vocabulaire français des élèves en utilisant de la technique de jeu du Hangman qui est 60,00 - 80,67. Alors, on peut conclure que de la technique de jeu du Hangman est efficace pour améliorer le vocabulaire français des élèves pour la classe XI IPA de MAS YASPI Labuhan Deli T.A 2019/2020. Mots clés: efficacité, la technique de jeu du Hangman, améliorer le vocabulaire français
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Umutoni, C., und I. Ngaruye. „Prediction of Tea Production in Rwanda Using Data Mining Techniques“. Agricultural and Food Science Journal of Ghana 15, Nr. 1 (22.03.2023): 1631–40. http://dx.doi.org/10.4314/afsjg.v15i1.10.

Der volle Inhalt der Quelle
Annotation:
Rwanda's main economic activity is agriculture, and tea is the country's most important cash crop. There has been extensive research on prediction of tea production in Rwanda but most of the methods applied were the traditional statistical analyzes with limited prediction capability. Data mining algorithm models, linear regression, K-Nearest Neighbor (KNN), Random Forest Regression, and Extremely Randomized Trees are discussed in this study to identify critical features in different domains to facilitate accurate prediction of tea production in Rwanda. In this study also, an identification of different factors which are strongly associated with tea production and developed data mining models for predicting tea production using training and test data from National Agricultural Export Development Board (NAEB) 2010-2019 is performed and PYTHON, R, and SPSS Version 25 softwares used in this study. The findings reveal that extra tree and random forest are the best model among the others to predict tea production in Rwanda. French title: Prévision de la production de thé au Rwanda à l'aide de techniques d'exploration de données La principale activité économique du Rwanda est l'agriculture, et le thé est la culture de rente la plus importante du pays. De nombreuses recherches ont été menées sur la prédiction de la production de thé au Rwanda, mais la plupart des méthodes appliquées étaient des analyses statistiques traditionnelles avec une capacité de prédiction limitée. Les modèles d'algorithmes d'exploration de données, la régression linéaire, le K-Nearest Neighbor (KNN), la régression Random Forest et les arbres extrêmement randomisés sont discutés dans cette étude pour identifier les caractéristiques critiques dans différents domaines afin de faciliter la prédiction précise de la production de thé au Rwanda. Dans cette étude également, une identification des différents facteurs qui sont fortement associés à la production de thé et des modèles d'exploration de données développés pour prédire la production de thé en utilisant des données d'entraînement et de test du National Agricultural Export Development Board (NAEB) 2010-2019 est effectuée et les logiciels PYTHON, R, et SPSS Version 25 sont utilisés dans cette étude. Les résultats révèlent que l'arbre supplémentaire et la forêt aléatoire sont les meilleurs modèles parmi les autres pour prédire la production de thé au Rwanda.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Thiébeau, Pascal. „Mesurer l’épaisseur des résidus à la surface d’un sol pour estimer leur biomasse“. Cahiers Agricultures 28 (2019): 11. http://dx.doi.org/10.1051/cagri/2019011.

Der volle Inhalt der Quelle
Annotation:
Aujourd’hui, les résidus de culture ne sont plus considérés comme des déchets : leur contribution aux équilibres agronomiques et environnementaux des systèmes de culture est reconnue. Dans ce contexte, connaître leur quantité à la surface d’un sol, après une récolte, devient un enjeu important de la gestion des matières organiques dans la rotation des cultures. Généralement, l’estimation quantitative se réalise par prélèvement d’échantillons, afin d’en déterminer la masse sèche (MS) au laboratoire. L’objectif de ce travail est de proposer une méthode rapide de quantification des résidus au sol, dont l’hypothèse est basée sur une méthode d’estimation de biomasse prairiale sur pied. Ce travail a été réalisé sur des exploitations pratiquant l’agriculture de conservation en région de grandes cultures. Les résidus ont été broyés lors de la récolte ou lors d’une opération spécifique suivante. Les données de biomasse ont été collectées à l’aide de cadres de 0,5 × 0,5 m, tandis que les mesures d’épaisseur ont été effectuées à l’aide d’un aspérimètre. Ce travail compare deux méthodes de mesure d’épaisseur : soit par répétitions aléatoires de positionnement de l’aspérimètre le long d’un transect perpendiculaire au sens de progression de la moissonneuse, soit par répétitions côte à côte. Un test du nombre de mesures d’épaisseur a été réalisé pour connaître l’espacement maximal à conserver pour réaliser une estimation précise. Les résultats montrent qu’il est préférable de réaliser les mesures d’épaisseur des résidus sur l’intégralité d’un transect de moissonneuse pour estimer avec précision cette information, et qu’il faut maintenir 100 mesures d’épaisseur pour conserver une estimation proche de la mesure d’épaisseur de référence, l’espacement entre deux mesures ne devant pas excéder 6 cm. Par ailleurs, ce travail montre qu’il est possible d’obtenir une approximation de la biomasse présente au champ avec une bonne qualité d’estimation, en retenant qu’un millimètre d’épaisseur de résidu représente 50 g MS.m−2.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

El Bitar, N., und D. Le Bars. „Douleur et thermorégulation Les effets ambivalents de la morphine“. Douleur et Analgésie 31, Nr. 1 (März 2018): 35–61. http://dx.doi.org/10.3166/dea-2018-0002.

Der volle Inhalt der Quelle
Annotation:
La queue et les pattes postérieures des rongeurs sont à la fois des organes cibles très utilisées pour effectuer des tests dans les modèles de douleur aiguë ou chronique et essentiels à leur thermorégulation. C’est ainsi que la queue et les pattes d’un rat placé dans des conditions de neutralité thermique sont l’objet de variations cycliques de vasomotricité. Administrée par voie intraveineuse, la morphine provoque, de façon dose-dépendante et naloxone-réversible, une vasoconstriction dont il résulte une hyperthermie. Les courbes dose-réponse sont abruptes dans la plage 0,5– 1 mg/kg. Le blocage fonctionnel de la région bulbaire rostroventrale par une micro-injection de muscimol bloque les vasoconstrictions, y compris celles évoquées par la morphine. Les neurones on et off enregistrés dans la région bulbaire rostroventrale sont activés et inhibés par des stimulus nociceptifs thermiques, respectivement. Ils sont aussi impliqués dans la régulation des variations de vasomotricité de la queue et des pattes. La morphine inhibe et active brutalement l’activité des neurones on et off, respectivement, tout en augmentant la latence du tail-flick (TFL), le test de nociception le plus communément utilisé en tant que modèle animal de douleur aiguë. En utilisant un modèle qui prend en compte la puissance de la source de chaleur radiante, la température de la peau initiale, la température corporelle et la distance de conduction du nerf périphérique, on peut conclure que l’augmentation du temps de réaction provoqué par la morphine est principalement liée à la vasoconstriction qu’elle déclenche. Cette conclusion a été vérifiée directement : lorsque la température de la queue est maintenue constante, on peut démontrer, avec un paradigme particulier qui permet d’analyser en termes psychophysiques le tailflick en réponse à des variations aléatoires de chaleur radiante nociceptive, que le seuil de la réaction et sa latence psychophysique sont faiblement augmentés (1,5 °C ; 40 ms) par 4 mg/kg de morphine. Lorsque la TFL est mesurée de façon conventionnelle, de tels effets sont marginaux par rapport aux effets indirects générés par la vasoconstriction. Bien que l’augmentation d’un temps de réaction à la chaleur (e.g. tail-flick, withdrawal ou hot-plate tests) soit généralement interprétée en termes d’analgésie, les données présentes mettent en doute la validité d’utiliser ces approches pour construire un index de douleur.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Sangho, O., N. Telly, A. Sogodogo, MM Diarra, AY Touré, F. Sangho und Et Al. „Connaissances, attitudes et pratiques des jeunes lycéens de Niono sur les IST, le VIH et le SIDA“. Revue Malienne d'Infectiologie et de Microbiologie 16, Nr. 2 (02.06.2021): 13–19. http://dx.doi.org/10.53597/remim.v16i2.1864.

Der volle Inhalt der Quelle
Annotation:
Objectif : L’objectif était d’étudier les connaissances, attitudes et pratiques des jeunes lycéens de Niono en matière d’IST, de VIH et du SIDA. Matériel et méthodes : Il s’agissait d’une étude transversale ayant concerné 369 élèves du lycée MICHEL ALLAIRE et du lycée Public L’étude s’est déroulée d’avril 2016 à mars 2017. L’échantillon a été aléatoire et l’interview en mode face à face. Les données ont été analysées sur SPSS 20.0. Résultats : L’âge moyen était de 17,62 ans ±1,8 ans. Le sexe masculin prédominait avec 56%. La majorité avait entendu parler des IST, du VIH et du Sida (95,90%), beaucoup plus lors des causeries (43,9%). Environ 42% et 46% ne connaissaient pas de signes d’IST et ne savaient qu’est-ce que c’est qu’une séropositivité. Les rapports sexuels étaient cités par 32% élèves comme voies de transmission. La majorité (74%) savait que le multiple partenariat augmentait le risque de ces maladies. Le préservatif était le moyen de prévention le plus cité soit 44,2%. Près de 63% ont accepté volontairementle test de dépistage. Un quart avait affirmé avoir réalisé le test et 35,2% avait déjà eu un contact sexuel dont 18,5% était âgé de 12 à 14 ans. La curiosité fut la raison évoquée par 68,5%. Parmi ceux en activité sexuelle, 45,4% n’ont pas utilisé le préservatif au cours du premier rapport sexuel. Conclusion :Cette étude nous montre une bonne connaissance des élèves sur l’existence des IST, VIH et sida, malgré quelques disparités avec leursattitudes et pratiques sexuelles.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Paradis, Catherine, Jinhui Zhao und Tim Stockwell. „Publications non conformes des bars populaires sur les plateformes de médias sociaux : une invitation à améliorer la réglementation de la publicité sur l’alcool“. Promotion de la santé et prévention des maladies chroniques au Canada 40, Nr. 5/6 (Juni 2020): 160–70. http://dx.doi.org/10.24095/hpcdp.40.5/6.03f.

Der volle Inhalt der Quelle
Annotation:
Introduction Cette étude a pour but de documenter la portée des infractions au Code de la publicité radio diffusée en faveur de boissons alcoolisées du Conseil de la radiodiffusion et des télécommunications canadiennes (CRTC) (Code du CRTC) commises par certains établissements servant de l’alcool qui publient du contenu lié à l’alcool sur des plateformes de médias sociaux et d’évaluer si ces infractions au Code du CRTC sont en lien avec la popularité de ces établissements auprès des étudiants universitaires et avec les comportements de ces derniers en matière de consommation d’alcool. Méthodologie Au cours de la phase 1 de l’étude, un échantillon aléatoire de 477 étudiants provenant de quatre universités canadiennes ont répondu à un questionnaire portant sur leurs habitudes de consommation d’alcool et sur les établissements servant de l’alcool qu’ils préféraient. Au cours de la phase 2, nous avons évalué, auprès d’un échantillon aléatoire de 78 étudiants, si les publications de ces établissements dans les médias sociaux étaient conformes aux 17 lignes directrices du Code du CRTC. Nous avons regroupé les deux ensembles de données et nous les avons jumelés au moyen de la liste des établissements servant de l’alcool. Résultats Les établissements populaires servant de l’alcool ont publié massivement des contenus liés à l’alcool contrevenant au Code du CRTC. Les estimations d’effet ajusté indiquent qu’une réduction du niveau moyen de conformité au Code du CRTC est associée de manière significative à une augmentation de 1 % du taux de popularité des établissements servant de l’alcool (test t, p < 0,001). En ce qui a trait aux comportements de consommation d’alcool, une augmentation de 1 % du niveau moyen global de conformité au Code du CRTC est significativement associée à une diminution de 0,458 jour de consommation par semaine pendant un semestre (test t, p = 0,01), une diminution de 0,294 consommation par occasion (test t, p = 0,048) et une probabilité plus faible que les étudiants consomment de l’alcool lorsqu’ils se trouvent dans un établissement servant de l’alcool (test t, p = 0,001). Conclusion Les résultats de notre étude sont une invitation à ce que les agences de réglementation territoriales et provinciales réévaluent leurs pratiques, afin que les lignes directrices en matière de publicité sur l’alcool soient appliquées et respectées de manière uniforme. Au­delà, ces résultats justifient l’adoption d’une loi fédérale avec un mandat en santé publique applicable à tous les médias : médias imprimés, numériques et sociaux, télévision et radio.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Codjo Jacques, HOUNDETE, ASSONGBA Yédjanlognon Faustin, YOKA Joseph und DJEGO Julien Gaudence. „Importance de l’association de cultures face aux variabilités climatiques dans les collines au Benin“. Journal of Applied Biosciences 150 (30.06.2020): 15403–18. http://dx.doi.org/10.35759/jabs.150.3.

Der volle Inhalt der Quelle
Annotation:
Objectif : Cette étude vise à estimer les performances agronomiques de la production du mais par association à une espèce de la famille des cucurbitacaea «goussi» en vue de l’exploitation des processus écologiques. Méthodologie et résultats : les essais ont été installés en champs paysans sur un sol ferrugineux tropical dans deux (2) villages de la commune de Glazoué. Le dispositif expérimental est en blocs aléatoires complets (BAC) avec deux répétitions ou blocs. Chaque bloc est subdivisé en deux parcelles élémentaires abritant chacune un traitement. Les traitements sont du maïs en culture pure (Témoin absolu T0) et maïs en association avec goussi (Test T1). Les données climatiques, agronomiques et de rentabilité financière ont été collectées sur cette expérimentation. En matière de résultat, il ressort que l’humidité au niveau des parcelles du système de l’association de maïs et goussi est supérieure à celle des parcelles du système de culture pure de maïs et ceci durant tous les temps de collectes. Le poids des épis était le plus élevé pour l’association maïs et goussi de même que pour tous les autres paramètres (le nombre de rangées par épis, le nombre de grains par épis et le poids de 100 graines). Conclusion et application des résultats : la pratique agricole qui constitue à associer deux espèces végétales domestiquées Zea mays L. de la famille des Poaceaes et Citrullus lanatus (Thunb.) de la famille des Cucurbitaceae est une des meilleures stratégies mises en place par les producteurs pour les impacts des changements climatiques. Mots clés : Mélange de culture ; variabilité climatique ; maïs-goussi ; rentabilité et Citrullus lanatus Importance of the association of crops facing climate variability in the hills in Benin ABSTRACT Objective: This study aims to estimate the agronomic performance of corn production by association with a species of the cucurbitacaea family "goussi" for the exploitation of ecological processes. Methodology and results: the trials were set up in peasant fields on tropical ferruginous soil in two (2) villages in the commune of Glazoué. The experimental setup is in complete random blocks (BAC) with two repetitions or blocks. Each block is subdivided into two elementary plots, each housing a treatment. The treatments are corn in pure culture (absolute control T0) and corn in association with goussi (Test T1). Climatic, agronomic and financial profitability data were collected on this experiment. In terms of results, it appears that the humidity in the plots of the system of the association of maize and goussi is higher than that of the plots of the system of pure cultivation of corn and this during all the times of collections. The weight of the cobs was highest for the corn and goussi combination as well as for all the other parameters (the number of rows per cob, the number of grains per cob and the weight of 100 seeds). Conclusion and application of the results: the agricultural practice, which consists in associating two domesticated plant species Zea mays L. of the family Poaceae and Citrullus lanatus (Thunb.) of the family Cucurbitaceae is one of the best strategies implemented by producers to the impacts of climate change. Keywords: Mixed cropping; climate variability; Maize-goussi; profitability and Citrullus lanatus
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Laplante, Benoît, und Benoît-Paul Hébert. „L’analyse des données biographiques au moyen des modèles linéaires à effets aléatoires. Le cas des carrières des acteurs professionnels“. Articles 30, Nr. 1 (25.03.2004): 115–45. http://dx.doi.org/10.7202/010301ar.

Der volle Inhalt der Quelle
Annotation:
RÉSUMÉ Les démographes font aujourd'hui un usage abondant des microdonnées longitudinales. Pour les analyser, ils utilisent généralement un ensemble de techniques et de modèles regroupés sous le nom d'analyse des biographies. Les modèles linéaires utilisés dans ce contexte appartiennent à la famille des modèles à risques proportionnels dont le plus courant est le modèle semi-paramétrique à risques proportionnels. Malgré leurs qualités, ces modèles ne permettent que l'étude des processus qui peuvent être décrits et mesurés facilement comme des suites d'états ou de changements d'état. Les auteurs montrent comment on peut utiliser deux modèles linéaires à effets aléatoires — le modèle logit à effets aléatoires et le modèle tobit à effets aléatoires — pour étudier des phénomènes longitudinaux comme l'évolution, au fil du temps, de l'appartenance à l'une ou l'autre des deux catégories d'une variable dépendante binaire, et l'évolution, au fil du temps, d'une variable continue dont une partie de la distribution n'est pas observée. L'approche est appliquée à l'étude de la dynamique des carrières des acteurs professionnels français.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

LAYELMAM, Mohammed. „Production des cartes de probabilité de présence des criquets pèlerins sur le territoire marocain à partir des données de télédétection“. Revue Française de Photogrammétrie et de Télédétection, Nr. 216 (19.04.2018): 49–59. http://dx.doi.org/10.52638/rfpt.2018.324.

Der volle Inhalt der Quelle
Annotation:
Le criquet pèlerin, Schistocerca gregaria, est l'une des espèces acridiennes les plus redoutées en raison de l'ampleur des dégâts qu'il occasionne sur les cultures. Les pays touchés par cet insecte mobilisent des équipes de prospecteurs pour surveiller les habitats favorables à leur développement. Pour faciliter les interventions de ces prospecteurs et prédire la présence ou l'absence de criquets pèlerins, nous proposons pour le cas du Maroc une méthode basée sur l'historique des prospections et les variables explicatives calculées à la base des données de télédétection. Les données de télédétection utilisées sont issues du capteur MODIS et la technique CMORPH (NOAA CPC MORPHING Technique), ces données sont l'indice de végétation par différence normalisée (NDVI), la température de surface (LST) et la pluviométrie (P). Durant cette étude, nous avons testé deux modèles statistiques (Régression logistique et Forêts aléatoires) dans le but de trouver la meilleure approche à utiliser pour la production des cartes de prédiction. La comparaison des indicateurs extraits à partir de la matrice de confusion de chaque modèle nous a permis de conclure que la prévision par l'approche de forêts aléatoires semble meilleure que la régression logistique. Avec la modélisation statistique nous avons montré qu'il est possible de produire des cartes de prédiction de la présence/absence des criquets pèlerins en se basant sur les données de télédétection. Cette étude est une étape supplémentaire dans l'élaboration de cartes qui vont aider les prospecteurs à mieux orienter les missions de terrain et faciliter la localisation des zones favorables au développement des criquets pèlerins.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "Test à données aléatoires"

1

Korneva, Alexandrina. „The Cubicle Fuzzy Loop : A Testing Framework for Cubicle“. Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG095.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse est d'intégrer une technique de test dans le model checker Cubicle. Pour cela, nous avons étendu Cubicle avec une boucle de Fuzzing (appelée Cubicle Fuzzy Loop - CFL). Cette nouvelle fonctionnalité remplit deux fonctions principales.Tout d'abord, elle sert d'oracle pour l'algorithme de génération d'invariants de Cubicle. Ce dernier, basé sur une exploration en avant de l'ensemble des états atteignables, était fortement limité par ses heuristiques lorsqu'elles sont appliquées à des modèles fortementconcurrents. CFL apporte une nouvelle manière plus efficace d'explorer ces modèles, en particulier il permet de visiter beaucoup plus d'états pertinents.Son deuxième objectif est de détecter rapidement et efficacement les problèmes et les vulnérabilités dans les modèles de toutes tailles, ainsi que de capturer les deadlocks.L'intégration de CFL nous a également permis d'augmenter l'expressivité du langage d'entrée de Cubicle, avec l'inclusion de nouvelles primitives pour manipuler des threads (verrous, sémaphores, etc.).Enfin, nous avons construit un cadre de test autour de Cubicle et de CFL avec un interpréteur interactif, utile pour le débogage, le prototypage et l'exécution pas à pas des modèles. Ce nouveau système a été appliqué avec succès sur une étude de cas d'un algorithme deconsensus distribué pour blockchains
The goal of this thesis is to integrate a testing technique into the Cubicle model checker. To do this, we extended Cubicle with a Fuzzing loop (called the Cubicle Fuzzy Loop - CFL). This new feature serves two primary purposes.Firstly, it acts as an oracle for Cubicle's invariant generation algorithm. The existing algorithm, which is based on a forward exploration of reachable states, was significantly limited by its heuristics when applied to highly concurrent models. CFL introduces amore efficient way to explore these models, visiting a larger number of relevant states.Its second objective is to quickly and efficiently detect issues and vulnerabilities in models of all sizes, as well as detect deadlocks.The integration of CFL has also enabled us to enhance the expressiveness of Cubicle's input language, including new primitives for manipulating threads (locks, semaphores, etc.).Lastly, we built a testing framework around Cubicle and CFL with an interactive interpreter, which is useful for debugging, prototyping, and step-by-step execution of models. This new system has been successfully applied in a case study of a distributed consensus algorithm for blockchains
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Segalas, Corentin. „Inférence dans les modèles à changement de pente aléatoire : application au déclin cognitif pré-démence“. Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0298/document.

Der volle Inhalt der Quelle
Annotation:
Le but de ce travail a été de proposer des méthodes d'inférence pour décrire l'histoire naturelle de la phase pré-diagnostic de la démence. Durant celle-ci, qui dure une quinzaine d'années, les trajectoires de déclin cognitif sont non linéaires et hétérogènes entre les sujets. Pour ces raisons, nous avons choisi un modèle à changement de pente aléatoire pour les décrire. Une première partie de ce travail a consisté à proposer une procédure de test pour l'existence d'un changement de pente aléatoire. En effet, dans certaines sous-populations, le déclin cognitif semble lisse et la question de l'existence même d'un changement de pente se pose. Cette question présente un défi méthodologique en raison de la non-identifiabilité de certains paramètres sous l'hypothèse nulle rendant les tests standards inutiles. Nous avons proposé un supremum score test pour répondre à cette question. Une seconde partie du travail concernait l'ordre temporel du temps de changement entre plusieurs marqueurs. La démence est une maladie multidimensionnelle et plusieurs dimensions de la cognition sont affectées. Des schémas hypothétiques existent pour décrire l'histoire naturelle de la démence mais n'ont pas été éprouvés sur données réelles. Comparer le temps de changement de différents marqueurs mesurant différentes fonctions cognitives permet d'éclairer ces hypothèses. Dans cet esprit, nous proposons un modèle bivarié à changement de pente aléatoire permettant de comparer les temps de changement de deux marqueurs, potentiellement non gaussiens. Les méthodes proposées ont été évaluées sur simulations et appliquées sur des données issues de deux cohortes françaises. Enfin, nous discutons les limites de ces deux modèles qui se concentrent sur une accélération tardive du déclin cognitif précédant le diagnostic de démence et nous proposons un modèle alternatif qui estime plutôt une date de décrochage entre cas et non-cas
The aim of this work was to propose inferential methods to describe natural history of the pre-diagnosis phase of dementia. During this phase, which can last around fifteen years, the cognitive decline trajectories are nonlinear and heterogeneous between subjects. Because heterogeneity and nonlinearity, we chose a random changepoint mixed model to describe these trajectories. A first part of this work was to propose a testing procedure to assess the existence of a random changepoint. Indeed, in some subpopulations, the cognitive decline seems smooth and the question of the existence of a changepoint itself araises. This question is methodologically challenging because of identifiability issues on some parameters under the null hypothesis that makes standard tests useless. We proposed a supremum score test to answer this question. A second part of this work was the comparison of the temporal order of different markers changepoint. Dementia is a multidimensional disease where different dimensions of the cognition are affected. Hypothetic cascade models exist for describing this natural history but have not been evaluated on real data. Comparing change over time of different markers measuring different cognitive functions gives precious insight on this hypothesis. In this spirit, we propose a bivariate random changepoint model allowing proper comparison of the time of change of two cognitive markers, potentially non Gaussian. The proposed methodologies were evaluated on simulation studies and applied on real data from two French cohorts. Finally, we discussed the limitations of the two models we used that focused on the late acceleration of the cognitive decline before dementia diagnosis and we proposed an alternative model that estimates the time of differentiation between cases and non-cases
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Bonakdar, Sakhi Omid. „Segmentation of heterogeneous document images : an approach based on machine learning, connected components analysis, and texture analysis“. Phd thesis, Université Paris-Est, 2012. http://tel.archives-ouvertes.fr/tel-00912566.

Der volle Inhalt der Quelle
Annotation:
Document page segmentation is one of the most crucial steps in document image analysis. It ideally aims to explain the full structure of any document page, distinguishing text zones, graphics, photographs, halftones, figures, tables, etc. Although to date, there have been made several attempts of achieving correct page segmentation results, there are still many difficulties. The leader of the project in the framework of which this PhD work has been funded (*) uses a complete processing chain in which page segmentation mistakes are manually corrected by human operators. Aside of the costs it represents, this demands tuning of a large number of parameters; moreover, some segmentation mistakes sometimes escape the vigilance of the operators. Current automated page segmentation methods are well accepted for clean printed documents; but, they often fail to separate regions in handwritten documents when the document layout structure is loosely defined or when side notes are present inside the page. Moreover, tables and advertisements bring additional challenges for region segmentation algorithms. Our method addresses these problems. The method is divided into four parts:1. Unlike most of popular page segmentation methods, we first separate text and graphics components of the page using a boosted decision tree classifier.2. The separated text and graphics components are used among other features to separate columns of text in a two-dimensional conditional random fields framework.3. A text line detection method, based on piecewise projection profiles is then applied to detect text lines with respect to text region boundaries.4. Finally, a new paragraph detection method, which is trained on the common models of paragraphs, is applied on text lines to find paragraphs based on geometric appearance of text lines and their indentations. Our contribution over existing work lies in essence in the use, or adaptation, of algorithms borrowed from machine learning literature, to solve difficult cases. Indeed, we demonstrate a number of improvements : on separating text columns when one is situated very close to the other; on preventing the contents of a cell in a table to be merged with the contents of other adjacent cells; on preventing regions inside a frame to be merged with other text regions around, especially side notes, even when the latter are written using a font similar to that the text body. Quantitative assessment, and comparison of the performances of our method with competitive algorithms using widely acknowledged metrics and evaluation methodologies, is also provided to a large extend.(*) This PhD thesis has been funded by Conseil Général de Seine-Saint-Denis, through the FUI6 project Demat-Factory, lead by Safig SA
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Ebeido, Kebieh Amira. „Test d'hypothèses et modèles aléatoires autorégressifs“. Paris 2, 1987. http://www.theses.fr/1987PA020091.

Der volle Inhalt der Quelle
Annotation:
Le travail presente ici concerne l'estimateurs et les tests utilises sur des modeles autoregressifs construits a partir de l'observation d'une serie temporelle. La serie traitee en elle-meme, independamment d'autres series avec lesquelles elle pourrait etre en relation. On a distingue trois parties essentielles : la premiere s'attache aux modeles autoregressifs du premier ordre. Les methodes d'estimation et les proprietes des estimateurs obtenues sont discutees. Deux hypotheses essentielles sont testees :. La premiere hypothese concerne le parametre autoregressif : processus stable avec b <1; processus explosif avec b >1; processus a cheminement aleatoire avec b = 1. . La seconde hypothese concerne le terme aleatoire et : les et independants ou non. La deuxieme partie s'attache aux modeles autoregressifs - moyennes mobiles (arma); les methodes d'estimation et les tests concernant l'adequation du modele identifie et estime sont analyses. La troisieme se compose enfin de deux applications pratiques : l'une porte sur le cours des actions industrielles aux etats-unis pendant ces douze dernieres annees, (de 1974 a 1985), ce processus qui est identifie comme un processus autoregressif du premier ordre suit un cheminement aleatoire. L'autre application concerne la production d'automobiles "voitures de tourisme" au japon pour la periode allant de janvier 1974 a juin 1986. Apres identification et tests le pro- cessus apparait comme un arma (2,16).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Aboa, Yapo Jean-Pascal. „Méthodes de segmentation sur un tableau de variables aléatoires“. Paris 9, 2002. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2002PA090042.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Gardy, Danièle. „Bases de données, allocations aléatoires : quelques analyses de performances“. Paris 11, 1989. http://www.theses.fr/1989PA112221.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est consacrée à l'étude de divers paramètres des tiques, entre autres des bases de données, qui ont pour point commun de se prêter naturellement à une modélisation en termes de phénomènes d'allocation aléatoire. Leur étude utilise les techniques classiques de l'analyse en moyenne des algorithmes, à savoir les séries génératrices et l'approximation asymptotique de leurs cœfficients. Le problème initialement posé concerne l'étude des tailles de relations dérivées dans l’algèbre relationnelle. Il admet une modélisation en termes de problèmes probabilistes d’allocation aléatoire, du type "modèles d'urnes". Nous donnons des résultats sur les lois de probabilité conditionnelles des tailles de relations obtenues par application des opérateurs de projection et jointure à une ou plusieurs relations de taille connue. En particulier, nous obtenons divers théorèmes sur les distributions limites de ces tailles, et montrons que, sous des hypothèses assez peu contraignantes, ces distributions limites sont fréquemment normales. Une extension naturelle est ensuite de regarder comment implémenter les relations "logiques", définies à un niveau abstrait ; nous étudions ici les arbres multi-attributs ou doublement chaînés. Les mêmes méthodes permettent enfin de traiter certains phénomènes d'allocation aléatoire de caractère plus dynamique, par exemple le classique "paradoxe des anniversaires" (qui modélise la fréquence d'apparition des collisions dans une table de hachage) ou l'algorithme de gestion mémoire "Least Recently Used"
This thesis is devoted to the analysis of some parameters of interest for estimating the performance of computer systems, most notably database systems. The unifying features are the description of the phenomena to be studied in terms of random allocations and the systematic use of methods from the average-case analysis of algorithms. We associate a generating function with each parameter of interest, which we use to derive an asymptotic expression of this parameter. The main problem studied in this work is the estimation of the sizes of derived relations in a relational database framework. We show that this is closely related to the so-called "occupancy problem" in urn models, a classical tool of discrete probability theory. We characterize the conditional distribution of the size of a relation derived from relations whose sizes are known, and give conditions which ensure the a. Symptotic normality of the limiting distribution. We next study the implementation of "logical" relations by multi-attribute or doubly chained trees, for which we give results on the complexity of a random orthogonal range query. Finally, we study some "dynamic" random allocation phenomena, such as the birthday problem, which models the occurrence of collisions in hashing, and a model of the Least Recently Used cache memory algorithm
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Caron, Maxime. „Données confidentielles : génération de jeux de données synthétisés par forêts aléatoires pour des variables catégoriques“. Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25935.

Der volle Inhalt der Quelle
Annotation:
La confidentialité des données est devenue primordiale en statistique. Une méthode souvent utilisée pour diminuer le risque de réidentification est la génération de jeux de données partiellement synthétiques. On explique le concept de jeux de données synthétiques, et on décrit une méthode basée sur les forêts aléatoires pour traiter les variables catégoriques. On s’intéresse à la formule qui permet de faire de l’inférence avec plusieurs jeux synthétiques. On montre que l’ordre des variables à synthétiser a un impact sur l’estimation de la variance des estimateurs. On propose une variante de l’algorithme inspirée du concept de confidentialité différentielle. On montre que dans ce cas, on ne peut estimer adéquatement ni un coefficient de régression, ni sa variance. On montre l’impact de l’utilisation de jeux synthétiques sur des modèles d’équations structurelles. On conclut que les jeux synthétiques ne changent pratiquement pas les coefficients entre les variables latentes et les variables mesurées.
Confidential data are very common in statistics nowadays. One way to treat them is to create partially synthetic datasets for data sharing. We will present an algorithm based on random forest to generate such datasets for categorical variables. We are interested by the formula used to make inference from multiple synthetic dataset. We show that the order of the synthesis has an impact on the estimation of the variance with the formula. We propose a variant of the algorithm inspired by differential privacy, and show that we are then not able to estimate a regression coefficient nor its variance. We show the impact of synthetic datasets on structural equations modeling. One conclusion is that the synthetic dataset does not really affect the coefficients between latent variables and measured variables.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Chevalier, Cyril. „Contribution au test intégré : générateurs de vecteurs de test mixtes déterministes et pseudo-aléatoires“. Montpellier 2, 1994. http://www.theses.fr/1994MON20141.

Der volle Inhalt der Quelle
Annotation:
Le test integre est une technique de conception en vue du test qui est developpee afin de faciliter le test des circuits a tres haute echelle d'integration. L'idee principale du test integre est d'inclure dans le circuit a tester des circuits additionnels qui lui permettront de generer ses popres vecteurs de test et d'analyser ses reponses. L'objet de cette these est l'etude theorique et la realisation de structures de generation de vecteurs de test predetermines. Une architecture de generateur de vecteurs deterministes et pseudo-aleatoires resultant de transformations lineaires simples a ete proposee. Les diverses realisations experimentales demontrent la possibilite de traitement de sequences de test deterministes qui etaient jusqu'alors pratiquement irrealisables en test integre. En outre, la conjonction des deux modes de test permet d'effectuer du test integre avec une sequence de test courte et une couverture de fautes elevee. Le cout de la surface additionnelle reste modere grace a l'utilisation de vecteurs pseudo-aleatoires pour le test de la majeure partie des fautes. L'absence de restriction sur l'ordre des vecteurs permet d'envisager l'utilisation de cette architecture de generateurs sur des circuits sequentiels, ainsi que pour de nouvelles technologies ou le modele de fautes de collage ne convient pas
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Hillali, Younès. „Analyse et modélisation des données probabilistes : capacités et lois multidimensionnelles“. Paris 9, 1998. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1998PA090015.

Der volle Inhalt der Quelle
Annotation:
Ce travail traite de la réduction d’un tableau de données probabilistes. Nous présentons un modèle statistique qui permet de résumer les descriptions aléatoires d’une classe d’individus par rapport à toutes les variables descriptives, tout en conservant le caractère aléatoire de la description de chaque individu avec un minimum de perte d’information. Nous proposons plusieurs mesures de généralisation et de spécialisation stochastiques basées sur des opérateurs d’union ou d’intersection entre distributions de probabilité et sur des méthodes de construction de lois multi dimensionnelles à marges unidimensionnelles fixées. Nous montrons que ces mesures possèdent les mêmes propriétés que les mesures de capacité au sens de Choquet. Nous présentons également une nouvelle famille de lois multidimensionnelles paramétriques qui permet d’étendre le procédé de généralisation et de spécialisation à un tableau de données probabilistes de grande taille, dans lequel chaque individu est décrit par plusieurs variables aléatoires de dépendances quelconques. Nous proposons trois algorithmes d’estimation de ses paramètres et nous étudions leur comportement dans la pratique. A partir des mesures de généralisation et de spécialisation d’un tableau de données probabilistes, nous proposons une méthode de classification d’individus décrits par des lois de probabilité. Des éléments de recherche qui devraient permettre d’étendre ce travail à des données probabilistes plus complexes, par exemple à des tableaux de données où chaque case contient une loi multidimensionnelle, sont également présentés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Elhadji, Ille Gado Nassara. „Méthodes aléatoires pour l’apprentissage de données en grande dimension : application à l'apprentissage partagé“. Thesis, Troyes, 2017. http://www.theses.fr/2017TROY0032.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur l’étude de méthodes aléatoires pour l’apprentissage de données en grande dimension. Nous proposons d'abord une approche non supervisée consistant en l'estimation des composantes principales, lorsque la taille de l'échantillon et la dimension de l'observation tendent vers l'infini. Cette approche est basée sur les matrices aléatoires et utilise des estimateurs consistants de valeurs propres et vecteurs propres de la matrice de covariance. Ensuite, dans le cadre de l’apprentissage supervisé, nous proposons une approche qui consiste à, d'abord réduire la dimension grâce à une approximation de la matrice de données originale, et ensuite réaliser une LDA dans l’espace réduit. La réduction de dimension est basée sur l’approximation de matrices de rang faible par l’utilisation de matrices aléatoires. Un algorithme d'approximation rapide de la SVD, puis une version modifiée permettant l’approximation rapide par saut spectral sont développés. Les approches sont appliquées à des données réelles images et textes. Elles permettent, par rapport à d’autres méthodes, d’obtenir un taux d’erreur assez souvent optimal, avec un temps de calcul réduit. Enfin, dans le cadre de l’apprentissage par transfert, notre contribution consiste en l’utilisation de l'alignement des sous-espaces caractéristiques et l’approximation de matrices de rang faible par projections aléatoires. La méthode proposée est appliquée à des données de référence ; elle présente l’avantage d’être performante et adaptée à des données de grande dimension
This thesis deals with the study of random methods for learning large-scale data. Firstly, we propose an unsupervised approach consisting in the estimation of the principal components, when the sample size and the observation dimension tend towards infinity. This approach is based on random matrices and uses consistent estimators of eigenvalues and eigenvectors of the covariance matrix. Then, in the case of supervised learning, we propose an approach which consists in reducing the dimension by an approximation of the original data matrix and then realizing LDA in the reduced space. Dimension reduction is based on low–rank approximation matrices by the use of random matrices. A fast approximation algorithm of the SVD and a modified version as fast approximation by spectral gap are developed. Experiments are done with real images and text data. Compared to other methods, the proposed approaches provide an error rate that is often optimal, with a small computation time. Finally, our contribution in transfer learning consists in the use of the subspace alignment and the low-rank approximation of matrices by random projections. The proposed method is applied to data derived from benchmark database; it has the advantage of being efficient and adapted to large-scale data
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Bücher zum Thema "Test à données aléatoires"

1

Soullière, Nicole. Jeunes et gangs: Perceptions diverses, données aléatoires, et stratégies d'intervention. Ottawa: Centre de recherche, Collège canadien de police, 1998.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Mathematical statistics and data analysis. 3. Aufl. Belmont, CA: Thomson/Brooks/Cole, 2007.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Mathematical statistics and data analysis. 2. Aufl. Belmont, CA: Duxbury Press, 1995.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Mathematical statistics and data analysis. Monterey, Calif: Brooks/Cole Pub. Co., 1988.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Test à données aléatoires"

1

Touboul, Pierre, Gilles Métris, Manuel Rodrigues, Alain Robert und Pierre-Yves Guidotti. „La mission MICROSCOPE pour le test du principe d’équivalence“. In Guide de données astronomiques 2019, 393–402. EDP Sciences, 2018. http://dx.doi.org/10.1051/978-2-7598-2282-9.c014.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

CONRADSEN, Knut, Henning SKRIVER, Morton J. CANTY und Allan A. NIELSEN. „Détection de séries de changements dans des séries d’images SAR polarimétriques“. In Détection de changements et analyse des séries temporelles d’images 1, 41–81. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9056.ch2.

Der volle Inhalt der Quelle
Annotation:
Dans ce chapitre, nous considèrerons le problème de la détection de changements dans une série chronologique d'images SAR (radar à synthèse d'ouverture) polarimétriques à l'aide de la représentation en covariance de données SAR polarimétriques multivisées. Les pixels seront alors représentés par des matrices hermitiennes complexes suivant une distribution de Wishart. La chaîne de détection de changements consiste en un test omnibus destiné à tester l'égalité sur la totalité du laps de temps, puis en une factorisation permettant d'évaluer individuellement les dates où un changement a eu lieu. La méthode est aisément étendue à la détection de changements de zones "homogènes", et nous introduisons enfin un concept pour le changement directionnel utilisant la relation d'ordre de Lowner.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

DEJEAN DE LA BÂTIE, Alice. „A l’aube de l’ère pénale sanitaire“. In Les épidémies au prisme des SHS, 251–55. Editions des archives contemporaines, 2022. http://dx.doi.org/10.17184/eac.6011.

Der volle Inhalt der Quelle
Annotation:
Face à la menace puis aux ravages de l’épidémie de Covid-19, les autorités publiques ont fait le choix de la coercition pour tenter de juguler la contagion. Si de nombreuses mesures relevaient d’abord de la police administrative, le bras armé du droit pénal n’a pas tardé à être brandi par l’Etat pour contraindre les individus réfractaires à jouer le jeu collectif du confinement, du couvre-feu, des gestes barrières et de la traçabilité. Le contexte épidémique s’est ainsi accompagné d’un arsenal pénal spécial dont il y a à craindre qu’il laissera des séquelles durables. I. L’arsenal pénal spécial contre l’épidémie Piochant dans les différentes branches du droit pénal spécial - matière juridique qui s’intéresse à l’étude des infractions - , les autorités ont adopté une approche double : d’une part le recours à des délits classiques et d’autre part la création de nouvelles infractions sur mesure. Pour certains, le nouveau coronavirus est mortel, pour d’autres, il n’engendre aucun symptôme. Face à cette variabilité des effets, ce sont les plus dangereux pour la vie et l’intégrité physique qui guident la qualification pénale. Cela conduit à invoquer la mise en danger d’autrui - en l’absence de victimes -, l’homicide par imprudence, ou encore les violences involontaires à l’encontre des organisateurs de fêtes clandestines, mais aussi, par exemple, des employeurs qui obligent à venir travailler dans des conditions sanitaires douteuses. A l’inverse, le délit d’atteinte au secret professionnel est balayé d’un revers de main pour laisser place à l’injonction de transmission des données personnelles et médicales. En parallèle, ce n’est qu’une question de temps avant que le faux et l’usage de faux soient reprochés aux personnes qui se dotent d’attestations falsifiées. On songe non seulement à l’attestation-employeur permettant de s’exonérer des contraintes du confinement ou du couvre-feu, mais également aux attestations de test-PCR négatif permettant d’accéder à certains lieux ou de passer les frontières. Le gouvernement a en outre multiplié les sanctions pénales pour contraindre la population au port du masque ainsi qu’au respect des mesures successives de confinement ou de couvre-feu. Si l’on reste en principe dans le domaine contraventionnel, un instrument juridique spécifique est mis à l’honneur par ce nouvel arsenal pénal : la récidive. Elle permet d’abord d’augmenter le montant de l’amende puis de faire entrer le comportement dans le domaine délictuel et d’y attacher la menace d’une peine d’emprisonnement et de peines complémentaires comme le travail d’intérêt général et la suspension du permis de conduire. II. Les séquelles de l’épidémie sur le droit pénal spécial Les avancées du droit pénal décrites ci-dessus sont autant d’offenses à la liberté. Si le contexte épidémique les a rendues temporairement nécessaires, il y a fort à craindre que certaines d’entre elles s’installent durablement dans le paysage pénal français. Les spécialistes de droit public et de théorie politique s’inquiètent déjà de la propension des citoyens à s’habituer à l’état d’urgence sanitaire, au détriment de leurs libertés fondamentales. Nous devons à notre tour dénoncer l’empreinte profonde que l’épidémie risque de laisser sur le droit pénal spécial. Un secret professionnel affaibli par des procédures de traçage - pourquoi ne pas y recourir lors de la prochaine épidémie de grippe ou de gastro-entérite ? -, un recours récurrent à la mesure martiale du couvre-feu, une logique d’escalade rapide des sanctions par le biais de la récidive, le spectre d’un trafic de documents de type “passeport sanitaire”… sont autant de risques qui pèsent sur nos libertés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Berichte der Organisationen zum Thema "Test à données aléatoires"

1

Belzil, Christian, Jorgen Hansen und Julie Pernaudet. Les déterminants cognitifs et non-cognitifs du choix de filière et leur impact sur la phase initiale du cycle professionnel. CIRANO, Mai 2024. http://dx.doi.org/10.54932/zmct9599.

Der volle Inhalt der Quelle
Annotation:
Grâce à la collecte de données nous permettant de relier les trajectoires éducatives des individus à différentes mesures de compétences, nous étudions les déterminants des choix de filières au Québec et dans le reste du Canada et en particulier, le rôle des compétences cognitives et non-cognitives. Nous évaluons l’impact des études en Sciences, Technologie, Ingénierie, et Mathématiques (STIM) ainsi que l’effet des facteurs cognitifs et non-cognitifs sur un grand nombre de mesures de performance sur le marché du travail. Nos résultats indiquent que les performances individuelles dans le test EIACA (semblable au test PISA) n’ont pratiquement aucun pouvoir prédictif sur la probabilité de compléter un programme scientifique mais jouent un rôle déterminant sur les salaires à 30 ans. La fréquentation d’un programme STIM est principalement expliquée par la compétence académique en mathématiques mesurée par les notes obtenues à l'âge de 18 ans. Le second déterminant le plus important est de loin le facteur non-cognitif mesurant le degré de motivation pendant les études. Toutes choses égales par ailleurs (à compétences égales), les Ontariens ont une probabilité d’obtenir un diplôme STIM plus élevée que les Québécois.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Introduction aux modèles multi-niveaux avec SPSS. Instats Inc., 2023. http://dx.doi.org/10.61700/zso05tsbfzey1469.

Der volle Inhalt der Quelle
Annotation:
Cette formation de 4 jours vous permettra d'acquérir les compétences nécessaires pour analyser des données non indépendantes en SPSS via des modèles multi-niveaux. Des données peuvent être non indépendantes si elles proviennent par exemple d'individus regroupés dans des entreprises, des écoles ou d'autres groupes, ou bien de mesures répétées effectuées sur des individus. Vous découvrirez les bases théoriques des modèles mixtes, qui combinent des effets fixes et aléatoires afin de prendre en compte la corrélation entre les observations. La formation couvrira les modèles pour réponse continue pour des données ayant une structure à 2 niveaux. Ces modèles incluent une ordonnée à l’origine aléatoire et éventuellement des pentes aléatoires. Pour les doctorants européens, le séminaire offre 1 point d'équivalence ECTS.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Introduction aux modèles multi-niveaux avec SPSS. Instats Inc., 2023. http://dx.doi.org/10.61700/nf9h0jhj185vz469.

Der volle Inhalt der Quelle
Annotation:
Cette formation de 4 jours vous permettra d'acquérir les compétences nécessaires pour analyser des données non indépendantes en SPSS via des modèles multi-niveaux. Des données peuvent être non indépendantes si elles proviennent par exemple d'individus regroupés dans des entreprises, des écoles ou d'autres groupes, ou bien de mesures répétées effectuées sur des individus. Vous découvrirez les bases théoriques des modèles mixtes, qui combinent des effets fixes et aléatoires afin de prendre en compte la corrélation entre les observations. La formation couvrira les modèles pour réponse continue pour des données ayant une structure à 2 niveaux. Ces modèles incluent une ordonnée à l’origine aléatoire et éventuellement des pentes aléatoires. Pour les doctorants européens, le séminaire offre 1 point d'équivalence ECTS.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie