Статті в журналах з теми "Algorithmes de complexité paramétrés"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Algorithmes de complexité paramétrés.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-17 статей у журналах для дослідження на тему "Algorithmes de complexité paramétrés".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте статті в журналах для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Atlan, Henri. "Complexité des systèmes naturels et sous-détermination des théories : une possible limite de la modélisation." Nouvelles perspectives en sciences sociales 4, no. 2 (May 11, 2009): 35–45. http://dx.doi.org/10.7202/029890ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Résumé Dans la théorie de l’information probabiliste comme dans la théorie des algorithmes de programmation, l’on n’a pas à s’occuper de la question de savoir comment nous comprenons ni comment les significations sont créées. Dans ces deux cas de complexité, nous rencontrons le même paradoxe : une identité formelle entre complexité maximale et aléatoire (c’est-à-dire désordre avec homogé-néité statistique maximale). Et, dans les deux cas, la solution du paradoxe consiste à l’ignorer en supposant qu’un sens et une signification existent a priori, ce qui élimine de ce fait l’hypothèse de l’aléatoire. Ce n’est que très récemment qu’on a tenté de résoudre vraiment ce paradoxe par des travaux sur la complexité algorithmique tenant compte d’une définition de la complexité porteuse de signification. Une première approche concerne le principe de complexité par le bruit. Une seconde, plus récente, utilise des simulations de réseaux d’automates pour tenter de surprendre l’émergence de significations fonctionnelles dans les réseaux d’automates à propriétés auto-organisatrices. Parmi les résultats obtenus, on trouve une large sous-détermination des théories par les faits, et la petite taille de ces réseaux permet d’en analyser clairement l’origine et même de la quantifier. Cette sous-détermination des théories apparaît comme l’expression probablement la plus spectaculaire de ce qu’est la com-plexité naturelle.
2

Hancart, Christophe. "Des bornes exactes de la complexité des algorithmes séquentiels de recherche d'un motif." Bulletin of the Belgian Mathematical Society - Simon Stevin 1, no. 2 (1994): 239–52. http://dx.doi.org/10.36045/bbms/1103408548.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Wilss, Wolfram. "Basic Concepts of MT." Meta 38, no. 3 (September 30, 2002): 403–13. http://dx.doi.org/10.7202/004608ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Résumé Malgré les progrès réalisés dans l'élaboration des algorithmes de parsage, les systèmes de traduction automatiques, même les plus sophistiqués, se heurtent encore à de nombreux problèmes dont ceux de la complexité syntaxique, de l'ambiguïté lexicale et de l'analyse interphrastique. La compréhension de la corrélation entre les diverses unités syntagmatiques dépend des connaissances linguistiques, extralinguistiques et contextuelles dont la combinaison permet justement au traducteur humain de résoudre de manière quasi automatique les problèmes d'ambiguïté. La mise sur pied d'un système totalement indépendant de l'action humaine relevant aujourd'hui de l'utopie, la recherche en traduction automatique devrait davantage s'orienter vers la conception de micro-systèmes utilisables dans des domaines précis.
4

Michaël Thomazo. "Réponse à des requêtes conjonctives en présence de règles existentielles – décidabilité, complexité et algorithmes." Bulletin 1024, no. 6 (July 2015): 117–19. http://dx.doi.org/10.48556/sif.1024.6.117.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Benmostefa, Soumia, and Hadria Fizazi. "Classification automatique des images satellitaires optimisée par l'algorithme des chauves-souris." Revue Française de Photogrammétrie et de Télédétection, no. 203 (April 8, 2014): 11–17. http://dx.doi.org/10.52638/rfpt.2013.25.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cet article propose une nouvelle approche de classification automatique non supervisée des images. La classification est l'une des opérations les plus importantes dans plusieurs domaines d'analyse d'images telles que la médecine et la télédétection. Elle consiste à rechercher les différents thèmes constituant une scène représentée. Cependant, en raison de sa complexité plusieurs méthodes ont été proposées, spécifiquement des méthodes d'optimisation. Nous nous intéressons à la technique des chauves-souris, une métaheuristique d'optimisation biologique très récente, visant à modéliser le comportement d'écholocation des chauves-souris que nous allons adapter au problème de classification. Elle combine les avantages de plusieurs métaheuristiques telles que l'optimisation par essaims particulaires, les algorithmes génétiques et le recuit simulé.\\Une nouvelle approche de classification automatique basée sur l'algorithme des chauves-souris est implémentée et appliquée sur deux images, la première est synthétique contenant des objets polyédriques, la seconde est satellitaire représentant la région d'Oran ouest en Algérie. Les différentes expérimentations effectuées conduisent à des résultats satisfaisants et montrent l'efficacité de l'approche.
6

Kouki, Rahim, and Soumaya Derragi. "Interdisciplinarité et difficulté d’apprentissage des méthodes numériques en programmation." TANGRAM - Revista de Educação Matemática 6, no. 3 (September 30, 2023): 2–22. http://dx.doi.org/10.30612/tangram.v6i3.16950.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les algorithmes numériques font l’objet d’un enseignement explicite dans les classes préparatoires à l’entrée aux écoles d’ingénieurs. Le caractère interdisciplinaire de ces derniers, permet de construire un pont entre le langage et l’action et met l’accent sur l’utilité d’une certaine rigueur scientifique expérimentée. Notre recherche s’inscrit dans le cadre d’une démarche réflexive avec une prise de conscience centrée sur les difficultés liées à l’implémentation de la méthode d’Euler comme algorithme numérique pour la résolution des équations différentielles. L’exploration d’un milieu théorique fondé sur les méthodes numériques d’approximation, que nous avons menée, nous a permis de dégager différents types d’obstacles didactique rencontrés lors de l'implémentation de la solution numérique d’ordre sémiotique, organisationnel ou encore psychologique. Elle a aussi dénoté d’une certaine complexité syntaxique des relations de récurrences à analyser dans un aspect sémantique. Nous nous plaçons alors dans le cadre de la théorie des champs conceptuels développée dans les travaux de (Vergnaud, 1990) croisée à la notion de registres développé par (Duval, 1993) afin d’analyser ces difficultés dans une dimension syntaxique/sémantique (Kouki, 2018).
7

Bouchafa, Samia. "Décision cumulative pour la vision dynamique des systèmes." Revue Française de Photogrammétrie et de Télédétection, no. 202 (April 16, 2014): 2–26. http://dx.doi.org/10.52638/rfpt.2013.48.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux présentés dans cette synthèse portent essentiellement sur l'analyse de scènes à partir de caméras mobiles avec pour application immédiate l'apport d'une vision par ordinateur efficace dans les systèmes autonomes. Ils sont le fruit d'une décennie de recherches menées d'abord à l'INRETS (actuellement IFSTTAR : Institut français des sciences et technologies des transports, de l'aménagement et des réseaux ) puis à l'Université Paris Sud XI (Institut d'Électronique Fondamentale). L'idée initiale est que l'autonomie d'un système implique, ne serait-ce que pour raisons énergétiques, une faible variété d'opérateurs de perception, dont les algorithmes de vision. Les "primitives" extraites des images seront intrinsèquement robustes et stables vis-à-vis de perturbations variées. Elles doivent de plus anticiper, voire faciliter, un processus de décision à divers niveaux voulu systématique. Les lignes de niveaux répondent parfaitement à ces contraintes : on vérifie sans peine leur robustesse et leur abondance dans une image suggère et alimente un processus de décision cumulatif (manipulant un objet de décision unique : l'histogramme généralisé en espace de vote). Nos efforts se sont alors concentrés sur deux aspects : 1) le premier concerne la définition d'une méthodologie cohérente dans laquelle un processus primaire d'extraction de lignes de niveaux est enrichi afin de permettre la construction de primitives plus complexes guidée par un modèle de déformation de l'image. Le nombre de composants donc la forme des primitives est fonction directe du nombre de variables caractérisant le mouvement (déformation) à déterminer. 2) Le second intéresse une méthode de décision cumulative unifiée permettant de traiter des thèmes applicatifs de complexité croissante. Nos travaux se déclinent alors en trois niveaux de cumul, chacun associé de manière à un stade particulier de l'analyse d'images. Les thèmes applicatifs traités pour illustrer notre démarche sont de complexité croissante : détection et estimation du mouvement en caméra fixe, recalage d'images en caméra mobile (type de mouvement connu et profondeur des objets contrainte) puis estimation générale du mouvement propre et de la structure de la scène en caméras embarquées sur un véhicule mobile. Les résultats obtenus montrent comment un choix de primitives robustes associé à un processus de décision cumulatif permet la réutilisation des opérateurs dans plusieurs secteurs. Les systèmes proposés ont la particularité d'être compacts et cohérents, propriété recherchée dans les applications considérées.
8

Jaquet, J. M. "Limnologie et télédétection : situation actuelle et développements futurs." Revue des sciences de l'eau 2, no. 4 (April 12, 2005): 457–81. http://dx.doi.org/10.7202/705039ar.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La télédétection satellitaire est un outil employé couramment et avec succès en océanographie. Il n'en va pas de même en limnologie, où les applications sont encore rares. Par le moyen d'une revue bibliographique, nous tentons d'en analyser les raisons. Après une brève description de l'outil et des satellites en service, l'on met en évidence la spécificité des cibles aquatiques, caractérisées par une réflectance basse et une profondeur d'investigation variable. Ces particularités, jointes à la composition complexe des eaux intérieures, rendent impossible l'extension pure et simple, à la limnologie, des algorithmes développés en océanographie. Néanmoins, nous montrons que la télédétection a été utilisée dans l'étude du bassin versant des lacs, ainsi que pour la cartographie de leurs limites, de la végétation aquatique, des courants, de la thermique et de la couleur de l'eau. Des modèles empiriques, exprimant la matière en suspension ou les paramètres de qualité de l'eau, ont été calculés et appliqués avec succès dans certains lacs. On établit ensuite une typologie des difficultés rencontrées dans l'application de la télédétection à la limnologie : intrinsèques (complexité de la composition), technologiques (capteurs actuels non adaptés aux cibles aquatiques) et institutionnels (coûts élevés et manque de professionnels de ta télédétection dans les cercles limnologiques). Finalement, l'on présente quelques propositions pratiques dans la perspective des nouveaux véhicules spatiaux et capteurs des années 90, qui devraient permettre une exploitation de l'énorme potentiel de la télédétection en limnologie.
9

Poreba, Martyna, and François Goulette. "Recalage rigide de relevé laser par mise en correspondance robuste basée sur des segments." Revue Française de Photogrammétrie et de Télédétection, no. 207 (September 24, 2014): 3–17. http://dx.doi.org/10.52638/rfpt.2014.208.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le recalage se révèle indispensable pour assembler des relevés laser devant servir à l'analyse, à la documentation et à la reconstruction tridimensionnelle d'environnements. Ce problème apparaît lorsqu'une zone d'intérêt est numérisée, au fil du temps, deux ou plusieurs fois, ou quand sa complexité nécessite un accroissement du nombre de stations de scanner laser fixes. Aussi, en raison de la variété des techniques disponibles d'acquisition, l'intégration multi-données devient une question importante puisqu'elle permet de mettre en cohérence des données contenant souvent une information complémentaire. La vaste majorité des algorithmes existants s'appuient sur les éléments ponctuels. C'est pourquoi les méthodes ICP basées-point demeurent actuellement les plus répandues. Cet article propose l'utilisation des segments sous forme d'intersections entre les plans principaux, pour un recalage rigide des nuages de points mobiles avec d'autres données, qu'elles soient 2D ou 3D. Ces primitives peuvent être aisément extraites, même dans les données laser hétérogènes de faible densité. Quelques méthodes de recalage basées-lignes ont été examinées afin de vérifier leur précision et robustesse au bruit. Les erreurs des paramètres estimés ainsi qu'un nouveau critère — distance modifiée de Hausdorff ont été employés pour les besoins d'une analyse quantitative. Au vu de ces éléments, une chaîne complète nommée RLMR-FMII 2 comprenant un recalage grossier suivi par un recalage fin est proposée pour calculer les paramètres de pose à partir de segments appariés.Étant donné que la mise en correspondance automatique d'entités linéaires est ardue et influence l'estimation des paramètres optimaux de transformation, une méthode d'appariement étudiant la similitude relative est avancée. Enfin, l'efficacité de cette méthode de recalage par mise en correspondance préalable des segments est évaluée et discutée.
10

Pauletto, Christian. "Gestion publique, agilité et innovation : l’expérience suisse du dispositif de crédits COVID-19." Revue Internationale des Sciences Administratives Vol. 90, no. 1 (April 2, 2024): 109–25. http://dx.doi.org/10.3917/risa.901.0109.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Au mois de mars 2020, l’administration suisse a conçu et mis en place en seulement dix jours un programme de crédits cautionnés destiné aux entreprises. La phase de mise en œuvre a également été de courte durée : moins de cinq mois. Cet article étudie comment cela a été possible compte tenu de la complexité du cadre institutionnel et de la nature novatrice du dispositif, notamment en matière de technologies de l’information, avec, en particulier, des avancées majeures dans la pratique suisse de l’administration électronique : le dispositif a utilisé des algorithmes pour vérifier les demandes des entreprises, un numéro d’identification unique des entreprises (IDE) a été créé à grande échelle, les banques suisses ont été associées à l’élaboration du projet et à sa mise en œuvre, et certaines opérations de leurs clients ont été centralisées sur une plateforme gouvernementale en ligne. Nous présentons les caractéristiques essentielles du processus au moyen d’une analyse du déroulement des opérations sur cette période de dix jours. Nous décrivons également les circonstances et le contexte qui ont conduit à des formes radicalement nouvelles de gouvernance publique. Enfin, nous analysons le résultat pour mettre en évidence les caractéristiques novatrices du livrable. L’exemple étudié a été de courte durée et était imprévu, de sorte qu’aucune donnée ni observation n’a pu être recueillie avant ou pendant son déroulement. Cette étude se fonde donc principalement sur des investigations a posteriori . Les participants au projet ont élaboré un système organisationnel informel sans disposer de mandats, de structures ou de rôles clairement définis. Le fait que le livrable était bien défini a joué un rôle moteur dans le processus. Plusieurs caractéristiques du projet, telles que l’efficacité des réseaux, un flux d’informations en temps réel, la flexibilité des fonctions, un management horizontal, et des sous-processus itératifs rapides, se rapprochent de celles des « organisations agiles ». Les tâches ont été exécutées parallèlement et non séquentiellement. Remarques à l’intention des praticiens Il est frappant que peu d’études académiques aient été publiées jusqu’ici sur les leçons tirées de l’expérience unique des paquets de mesures de soutien d’urgence mis en place pendant la pandémie, y compris au niveau intra-organisationnel. Des recherches pourraient être menées sur la reproductibilité de ces mesures, aussi bien dans la perspective de crises futures que d’un ajustement des pratiques usuelles de gestion publique. Notre proposition vise à contribuer à cette discussion et à inspirer les praticiens des administrations publiques et des entités gouvernementales. Elle met l’accent sur les relations entre la gestion gouvernementale des crises et la transformation numérique des procédures administratives à l’aide d’outils informatiques.
11

Veronese, Alexandre, and Marcelo Barros da Cunha. "A utilização das marcas alheias nos algoritmos de geração de palavras-chaves: uma análise sobre a jurisprudência do tribunal de justiça da união europeia para pensar sobre o caso brasileiro / l’utilisation de la marque d’autrui dans les générateurs de mots clés: une analyse des décisions de la cour de justice de l´union européenne pour reflechir sur le cas brésilien / The use of other parties trademarks in algorithms to generate keywords: an analysis of the Court of Justice of the European Union to shed light over the Brazilian case." Revista Brasileira de Direito 13, no. 2 (August 18, 2017): 232. http://dx.doi.org/10.18256/2238-0604/revistadedireito.v13n2p232-255.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
O objetivo do trabalho é expor considerações sobre a potencial violação do direito de marcas por motores de busca a partir de sistema de geração de palavras-chave por algoritmos. A introdução descreve o problema de pesquisa em termos gerais e expõe o acerto teórico utilizado para concluir que somente será possível pensar em soluções para estes conflitos jurídicos se houver a apreciação de um conceito de regulação em rede. Em síntese, é descrito o modelo de “comunitarismo de rede”, aperfeiçoado por Andrew D. Murray, a partir do qual se concluirá, com análise das disputas jurídicas no Brasil e na Europa, pela importância de estudar a novos modos de regulação cooperativa. A primeira seção do artigo descreve como a evolução tecnológica dos sistemas de navegação na Internet colocou os motores de busca em um papel central, em razão da necessidade de ordenar o grande volume de informação disponível. A segunda parte descreve as prescrições genéricas do direito internacional sobre propriedade intelectual e propriedade industrial, demonstrando a dificuldade de adaptação das normas tradicionais para o paradigma da Internet. Ainda, é indicado um dilema potencial relacionado aos algoritmos e base de dados – protegidos pelos direitos autorais – serem meios de perpetração de violações de direitos protegidos por normas de propriedade industrial. É detalhado o caso Louis Vuitton versus Google France SLC no qual o Tribunal de Justiça da União Europeia houve por considerar não haver responsabilidade do motor de busca por violação de marca. A terceira seção analisa casos brasileiros, julgados por tribunais de apelação, para concluir que o resultado dos julgados é parecido com o paradigma da União Europeia, contudo com uma inovação: a exclusão de responsabilização com base na premissa técnica de que os algoritmos utilizados inviabilizariam o exame prévio das palavras-chave. A conclusão do artigo reside na importância de buscar soluções cooperativas de regulação, em razão da complexidade técnica envolvida, sendo possível intuir a fruição dos benefícios de ação conjunto dos agentes de comércio em prol de um ambiente de negócios saudável, que deriva das tradições do direito mercantil.AbstractThe paper exposes considerations over potential trademarks infringements by the keyword generation algorithms. The introduction describes the research problem in broad terms in order to show that an effective analysis should use a networked regulation theoretical framework. It is described the model named “network communitarism”, created by Andrew D. Murray from which it will be, after assessing the judicial disputes both in Brazil and in the European Union, of the importance of study of new cooperative regulation models. The first part of the article describes how the technological evolution of Internet browsing has granted the search engines a central role to deal with the necessity to organize the enormous volume of available information. The second section describes the general norms of the international intellectual property law to indicate the complex operation to adapt them to the Internet new paradigm. Therefore it is indicated a potential legal dilemma due to the fact that algorithms and databases are protected by copyright laws and are also means to violate industrial property rights. The final ruling of the European Court of Justice in the Louis Vuitton against Google France SLC case is detailed, and it is shown that it determined the absence of trademark infringement in the conduct of the search engine. The third section assesses some Brazilian appellate rulings and concludes that the panorama there is similar to the European case. Notwithstanding, the Brazilian courts utilize an additional argument: the technical premise that the algorithm system is unable to make a previous exam of the keywords contents – and potential violation. The conclusion of the article focuses on the importance to debate and find new cooperative regulatory solutions, as something possible to infer from both the technological complexity of the problem and the own enterprises need of a good business environment.KeywordsInternet – Industrial Property – Trademark Law – Rulings – European Court of Justice – Comparison.ResuméeL'objectif de l´article est de présenter des considérations au sujet de la violation potentielle du droit des marques par les moteurs de recherche à partir de mots-clés générés par des systèmes techniques et des algorithmes. L'introduction décrit le problème de la recherche en general, et, ensuite, elle décrit le cadre théorique utilisé pour conclure qu´il n´est pas possible de trouver une solution à ces conflits juridiques sans l'examen du concept de régulation en réseau. En bref, elle décrit le modèle de «communautarisme en réseau», mis au point par Andrew D. Murray, à partir duquel se fera l'analyse des litiges en Europe et au Brésil. Au fin, se concluira par l'importance d'étudier des nouveaux moyens de régulation coopérative. La première partie de l'article décrit comment l'évolution technologique des systèmes de navigation de la Toile a mis les moteurs de recherche dans un rôle central, en raison de la nécessité d´organiser un grand volume d'informations disponibles. La deuxième partie décrit les dispositions générales du droit international sur la propriété intellectuelle et la propriété industrielle, ce qui démontre la difficulté d'adapter les normes traditionnelles au paradigme de l'Internet. Pourtant, un dilemme potentiel lié à des algorithmes et à la base de données est qu´ils sont protégés par le droit d'auteur mais également ils sont um moyen de commettre des violations d´autres droits protégés par les règles de la propriété industrielle, comme le droit de marque. La section détaille de cas Louis Vuitton vs Google France dans la Cour de Justice de l'Union européenne qui n´engagait pas la responsabilité du moteur de recherche em ce qui concerne la violation de marque. La troisième section analyse les cas brésiliens de certaines cours d'appel dont l'issue des procès est similaire au paradigme de l'UE, mais avec une innovation: l'imputabilité de l'exclusion fondée sur l'hypothèse technique que les algorithmes utilisés rendraint impossible l´examen préalable des mots clés. La conclusion de l'article traite de l'importance de l´étude de solutions juridiques dans le paradigme de la régulation coopérative, en raison de la complexité technique en cause, et elle indique la possibilite de profiter de l´interêt de tous les agents commerciaux d´avoir un environnement d'affaires sain issu des traditions de droit commerciaux.Mots-cléInternet – Proprieté Industrielle – Droit de Marque – Arrêts – Cour de Justice de l´Union Européenne – Comparasion.
12

Saule, Cédric, Mireille Regnier, Jean-Marc Steyaert, and Alain Denise. "Counting RNA pseudoknotted structures (extended abstract)." Discrete Mathematics & Theoretical Computer Science DMTCS Proceedings vol. AN,..., Proceedings (January 1, 2010). http://dx.doi.org/10.46298/dmtcs.2834.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
International audience In 2004, Condon and coauthors gave a hierarchical classification of exact RNA structure prediction algorithms according to the generality of structure classes that they handle. We complete this classification by adding two recent prediction algorithms. More importantly, we precisely quantify the hierarchy by giving closed or asymptotic formulas for the theoretical number of structures of given size n in all the classes but one. This allows to assess the tradeoff between the expressiveness and the computational complexity of RNA structure prediction algorithms. \par En 2004, Condon et ses coauteurs ont défini une classification des algorithmes exacts de prédiction de structure d'ARN, selon le degré de généralité des classes de structures qu'ils sont capables de prédire. Nous complétons cette classification en y ajoutant deux algorithmes récents. Chose plus importante, nous quantifions la hiérarchie des algorithmes, en donnant des formules closes ou asymptotiques pour le nombre théorique de structures de taille donnée n dans chacune des classes, sauf une. Ceci fournit un moyen d'évaluer, pour chaque algorithme, le compromis entre son degré de généralité et sa complexité.
13

Lutu, Patricia E. N., and Andries P. Engelbrecht. "A Comparative study of sample selection methods for classification." Revue Africaine de la Recherche en Informatique et Mathématiques Appliquées Volume 6, april 2007, joint... (September 2, 2007). http://dx.doi.org/10.46298/arima.1880.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
International audience Sampling of large datasets for data mining is important for at least two reasons. The processing of large amounts of data results in increased computational complexity. The cost of this additional complexity may not be justifiable. On the other hand, the use of small samples results in fast and efficient computation for data mining algorithms. Statistical methods for obtaining sufficient samples from datasets for classification problems are discussed in this paper. Results are presented for an empirical study based on the use of sequential random sampling and sample evaluation using univariate hypothesis testing and an information theoretic measure. Comparisons are made between theoretical and empirical estimates. L’échantillonnage pour le minage de large ensemble de données est important pour au moins deux raisons. Le traitement de grande quantité de données a pour résultat une augmentation de la complexité informatique. Le coût de cette complexité additionnelle pourrait être non justifiable. D’autre part, l’utilisation de petits échantillons a pour résultat des calculs rapides et efficaces pour les algorithmes de minage de données. Les méthodes de statistique pour obtenir des échantillons d’ensemble de donnés satisfaisants pour les problèmes de classification sont discutées dans ce papier. Des résultats sont présentés pour une étude empirique basée sur l’utilisation d’échantillonnage aléatoire séquentiel et l’évaluation d’échantillon utilisant le test d’hypothèse univariée et une mesure théorétique de l’information. Des comparaisons sont faites entre des estimations théoriques et empiriques
14

Mitchell, Scott S. D., and Merlyna Lim. "Too Crowded for Crowdsourced Journalism: Reddit, Portability, and Citizen Participation in the Syrian Crisis." Canadian Journal of Communication 43, no. 3 (August 13, 2018). http://dx.doi.org/10.22230/cjc.2019v44n3a3377.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Background This article explores the complexity of citizen participation in social media and crowdsourced journalism by utilizing the case of r/SyrianCivilWar, the sub-community of Reddit where users discuss the Syrian crisis.Analysis In examining the limitations and affordances of the platform, the article identifies features that characterize the r/SyrianCivilWar community, namely: algorithmic driven public discourse, deliberative communication, reflexivity and transparency, and database journalism. These features shape the functioning of the community and have broader implications for citizen crowdsourced journalism projects.Conclusion and implications The article demonstrates that alternative media practices, such as crowdsourced journalism, are limited in their capacity to reach mainstream consciousness. In the commodified landscape of media, portability—a capacity for complex issues to be distilled into a simple or simplified concept—is made important.Contexte Cet article explore la complexité de la participation citoyenne dans les médias sociaux et dans le journalisme financé collectivement en recourant au cas de r/SyrianCivilWar, communauté sur Reddit où l’on discute de la crise syrienne.Analyse En examinant les limites et avantages de la plateforme, cet article identifie certaines caractéristiques de la communauté r/SyrianCivilWar, à savoir : un discours public basé sur des algorithmes, une communication délibérative, la réflexivité et la transparence, et un journalisme de données. Ces caractéristiques influencent le fonctionnement de la communauté et ont des implications plus larges pour les projets journalistiques financés collectivement par les citoyens.Conclusion et implications Cet article démontre que les pratiques médiatiques alternatives, telles que le journalisme financé collectivement, sont limitées dans leur capacité à rejoindre le grand public. Le caractère commercialisé des médias traditionnels rend importante la portabilité, c’est-à-dire la possibilité de transformer des questions complexes en concepts simples ou simplifiés.
15

Samet, Naïm, Antoine Valentin, Quentin Julien, Fan Zhang, and Hélène Petitpré. "L’intelligence artificielle au service de la caractérisation des matériaux (traitements thermiques et contraintes résiduelles)." e-journal of nondestructive testing 28, no. 9 (September 2023). http://dx.doi.org/10.58286/28462.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La caractérisation des matériaux par méthode non destructive est largement répandue dans l’industrie. La méthode s’appuie souvent sur l’analyse d’un signal provenant d’un capteur (ultrason, courants de Foucault, bruit Barkhausen ou autres), afin d’évaluer une caractéristique du matériau telle que la dureté superficielle, la profondeur des traitements thermiques et thermochimiques, etc. Tout d’abord, il est nécessaire d’avoir une corrélation physique entre la propriété physique et la réponse du moyen de contrôle mise en oeuvre. Ensuite, le signal acquis doit être enregistré dans des conditions optimales qui permettent de transcrire l’information nécessaire à la caractérisation. Mais malgré ces précautions, il arrive dans certains cas que la corrélation entre ces propriétés physiques et le signal soit difficile à établir. Cela est dû principalement à la complexité de la propriété physique recherchée et aux multiples interactions avec d’autres facteurs influents qui donne lieu à une faible corrélation entre le paramètre suivi et celle-ci. En effet, les méthodes classiques sont souvent basées sur l’analyse d’un seul paramètre, comme le Root Mean Square (RMS), le maximum ou le kurtosis par exemple, afin de corréler la propriété du matériau à ce dernier. Mais cette corrélation reste incomplète puisqu’elle ne décrit pas toute la déformation du signal en fonction de la propriété recherchée. Dans cet article, nous proposons d’utiliser une méthode multi paramètres qui permet, à partir d’un signal, d’extraire des paramètres pertinents qui décrivent correctement le signal, et de les utiliser afin de remonter à des propriétés mécaniques telles que la profondeur de cémentation ou les contraintes résiduelles. Des algorithmes de Machine Learning et/ou de Deep Learning sont utilisés, et les résultats sont comparés entre eux.
16

Bousquet-Mélou, Mireille. "Families of prudent self-avoiding walks." Discrete Mathematics & Theoretical Computer Science DMTCS Proceedings vol. AJ,..., Proceedings (January 1, 2008). http://dx.doi.org/10.46298/dmtcs.3627.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
International audience A self-avoiding walk on the square lattice is $\textit{prudent}$, if it never takes a step towards a vertex it has already visited. Préa was the first to address the enumeration of these walks, in 1997. For 4 natural classes of prudent walks, he wrote a system of recurrence relations, involving the length of the walks and some additional "catalytic'' parameters. The generating function of the first class is easily seen to be rational. The second class was proved to have an algebraic (quadratic) generating function by Duchi (FPSAC'05). Here, we solve exactly the third class, which turns out to be much more complex: its generating function is not algebraic, nor even $D$-finite. The fourth class ―- general prudent walks ―- still defeats us. However, we design an isotropic family of prudent walks on the triangular lattice, which we count exactly. Again, the generating function is proved to be non-$D$-finite. We also study the end-to-end distance of these walks and provide random generation procedures. Un chemin auto-évitant sur le réseau carré est $\textit{prudent}$, s'il ne fait jamais un pas en direction d'un point qu'il a déjà visité. Préa est le premier à avoir cherché à énumérer ces chemins, en 1997. Pour 4 classes naturelles de chemins prudents, il donne un système de relations de récurrence, impliquant la longueur des chemins et plusieurs paramètres "catalytiques'' supplémentaires. La première classe a une série génératrice simple, rationnelle. La deuxième a une série algébrique (quadratique) (Duchi, FPSAC'05). Nous comptons ici les chemins de la troisième classe, et observons un saut de complexité: la série obtenue n'est ni algébrique, ni même différentiellement finie. La quatrième classe, celle des chemins prudents généraux, résiste encore. Cependant, nous définissons un modèle isotrope de chemins prudents sur réseau triangulaire, que nous résolvons de nouveau, la série obtenue n'est pas différentiellement finie. Nous étudions aussi la vitesse d'éloignement de ces chemins, et proposons des algorithmes de génération aléatoire.
17

Blais, Louise. "Biopolitique." Anthropen, 2019. http://dx.doi.org/10.17184/eac.anthropen.105.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
On doit à Michel Foucault la notion de biopolitique, proposée dès 1974, et dont il en attribuera l’héritage à son maitre, Georges Canguilhem. Depuis, la notion de biopolitique occupe une place non négligeable dans des domaines et disciplines aussi variés que le « management » privé ou public, la santé et les services sociaux, le commerce ou les sciences humaines et sociales (littérature, philosophie, sociologie, anthropologie….). La biopolitique est au cœur des processus de normalisation et de contrôle social. Citons d’emblée Foucault : « Le contrôle de la société sur les individus ne s’effectue pas seulement par la conscience ou par l’idéologie, mais aussi dans le corps et avec le corps. Le corps est une réalité biopolitique ; la médecine est une stratégie biopolitique » (Foucault, 1994 : 210). La biopolitique, soutient Foucault, est une stratégie politique de la gouvernance qu’il faut situer dans le cadre qui l’a vu naitre : l’émergence du libéralisme (Foucault, 2004). La biopolitique désigne le nouvel objet de gouvernance des sociétés libérales depuis deux siècles: la population comme ensemble des gouvernés dans leur existence biologique (Gros et al, 2013). La biopolitique est tout à la fois stratégie politique, outil de savoir/pouvoir et pratique gouvernementale/institutionnelle. Sa tâche, sa responsabilité, son mandat est de s’occuper de la « santé » des populations: natalité, mortalité, morbidité, hygiène, alimentation, sexualité, pollution, pauvreté, comportements… l’air, l’eau, les constructions, les égouts …. Le champ de la santé s’étend alors à l’infini, à travers un panoptique, c’est à dire, ce dispositif qui rend possible l’idée d’un regard englobant portant sur chacun des individus (Foucault, 1994 : 261). C’est en ce sens que, pour Foucault, la médecine ne se réduit pas à la seule figure du médecin; elle est une « stratégie biopolitique » qui se déploie et s’incarne dans un dispositif institutionnel et professionnel indispensable à la gouvernance des sociétés (néo)libérales (Foucault, 1994 : 210). C’est aussi en ce sens que Guillaume le Blanc (2006 :154) soutiendra que : « La médicalisation de la vie humaine est l’évènement majeur de la biopolitique ». De ce point de vue, les études populationnelles et épidémiologiques, dont les premières remontent au 19e siècle (Blais, 2006) prennent toute leur importance comme outils de la gouvernance. D’une part, elles nourrissent les choix et décisions des gouvernants concernant les populations à gouverner, choix et décisions qui sont à la fois d’ordre politique, économique, social et culturel, et qui s’inscrivent dans des rapports de pouvoir. D’autre part, elles modélisent les représentations des populations (des gouvernés) dans leur existence biologique et sociale. La biopolitique est en ce sens un mode de connaissance, à la fois des populations en tant qu’agrégats d’individus, et de soi en tant qu’individu dans la collectivité. La biopolitique est, chez Foucault, un outil qui forge les normes, outil essentiel à la gouvernance et ses instances de pratiques : la justice, bien sûr, mais aussi, et notamment, les institutions de la santé, des services sociaux, de l’éducation, du travail… Elle établit des normes visuelles (les apparences, les comportements, les performances, les existences biologiques…) et discursives (les manières de nommer les choses, de les dire, le dicible, ce qui est recevable, la parole, l’expression, l’argumentation…). Elle modélise les représentations faites de la norme, des représentations autant de l’autre, du différent, de la non-norme, que de soi en tant qu’individu(s) par rapport et en rapport(s) à autrui et sa place dans la collectivité. Comme le souligne le Blanc (2006 :9), chez Foucault la vie est qualifiée par des normes qui sont tout à la fois des normes de savoir et des normes de pouvoir. Toutefois, le contrôle social n’est pas que processus unidirectionnel, hiérarchique ou « top-down », ce qui serait inadéquat pour rendre compte de la complexité de son mode opératoire. Judith Revel (2008 : 28) résume ainsi le fonctionnement de la biopolitique néolibérale et ce qui en fait l’efficacité dans la pensée de Foucault, efficacité dans le sens de « comment ça marche ». Le contrôle social, dit-elle, est « une économie du pouvoir qui gère la société en fonction de modèles normatifs » de l’appareil d’État et ses institutions. En même temps, pour qu’il ne soit pas que répression autoritaire, le contrôle social opère par l’intériorisation de la norme chez les individus, une « pénétration fine du pouvoir dans les mailles de la vie », que Foucault appelait le « pouvoir capillaire ». En tant que mode de connaissance, la biopolitique produit du savoir et donc, selon la formule consacrée, du pouvoir. D’une part, il y a le(s) savoir(s) qui alimente(nt) les gouvernants dans l’exercice du pouvoir. Les classifications et catégories toujours plus différenciées de la biopolitique produisent des individus objectivés d’une population à gérer, l’individu-objet sur lequel agissent les institutions de la gouvernance (Blais 2006). Sur ce point, Foucault rejoint des auteurs comme Illich (1975), Goffman (1968) et Castel (1981, 1979, 1977) qui ont analysé et exposé les effets contreproductifs, stigmatisants, assujettissants ou normalisants de la pensée et des pratiques classificatrices dès lors qu’elles enferment les individus dans des catégories. D’autre part, il y a le(s) savoir(s) qui alimente(nt) aussi les gouvernés dans leur rapport à la norme, dans les manières de l’intérioriser à travers les choix, décisions et pratiques qui tissent toute vie au quotidien. Un savoir qui produit ainsi un individu-sujet, un sujet pensant et agissant. En d’autres termes, le sujet émerge à travers les catégories qui le définissent. La biopolitique renvoie inévitablement à la question de la manière (ou l’art, dirait Foucault) de gouverner (Gros et al, 2013 : 6). À l’ère du numérique, du Big Data, des algorithmes, qui connaissent un essor global depuis la mort de Foucault en 1984, la notion de biopolitique est-t-elle encore un outil d’analyse efficace des modalités de contrôle et de gouvernement des populations? Pour certains, dont Pierre Dardot et Christian Laval (2016), ce passage du gouvernement des corps, c’est à dire à une forme de pouvoir qui s’exerce sur les corps par une surveillance individualisée, au gouvernement de soi-même implique un nouveau mode de gouvernance. Celui qui se met en place s’appuierait moins, argüent-ils, sur les normes et contrôles de la biopolitique, que sur l’idée de la liberté des sujets qu’il s’agit de gouverner par des incitations et mesures les laissant en apparence libres d’agir, en canalisant, voire en manipulant les intérêts des individus et des populations. C’est ce que Foucault appelait la « conduite des conduites ». Dardot et Laval donnent comme exemple de telles mesures celui du code de la route où la liberté est celle du « choix » du chemin et de la destination, mais selon les règles de la route (vitesse, permis, etc). D’autres diront que le pouvoir d’accumulation de masses de données par les Facebook, Google et autres grands joueurs de l’internet dessine un nouvel art de la gouvernance où la surveillance a cédé au profilage. D’un régime de normalisation on passe à un régime de neutralisation, soutient Antoinette Rouvroy (2018 : 63). Et pour Mondher Kilani, la biopolitique détient désormais un « … pouvoir démultiplié de surveillance et d’engloutissement des individus et des conscience,… » (Kilani, 2018 : 292). Il s’agit alors d’étudier les biopolitiques contemporaines là où elles se redéfinissent en permanence (Fassin, 2006 : 40). Si les catégories de la biopolitique ont tendance à objectiver les individus, elles contiennent aussi une source de re-subjectivation. Chez Foucault, le processus de re-subjectivation ne se réduit pas à l’individu : se défaire des marques objectivantes de la pensée et de la pratique classificatrice ne se fait pas seul. La création de nouvelles pratiques arrivent aussi par le bas, comme en témoigne l’impact des mouvements féministes, écologistes, homosexuels, transgenres, de personnes psychiatrisées….. C’est pourquoi Foucault s’intéressait aux micro-pratiques (dans les prisons, les milieux psychiatriques, etc) comme pratiques de liberté et lieux de dé-assujettissement. D’où l’importance pour les sciences humaines et sociales d’étudier et d’exposer les nouveaux modes opératoires de la biopolitique, mais aussi les micro-pratiques de résistance, de liberté, les contre-pouvoirs qui se créent dans les interstices de la société. Car la «vie politique» est constituée d’un débat permanent entre gouvernés et gouvernants (Gros et al, 2013 : 7).

До бібліографії