Thèses sur le sujet « Algorithmes – Droit »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Algorithmes – Droit.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 15 meilleures thèses pour votre recherche sur le sujet « Algorithmes – Droit ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Papineau, Christelle. « Droit et intelligence artificielle : essai pour la reconnaissance du droit computationnel ». Thesis, Paris 1, 2019. http://www.theses.fr/2019PA01D049.

Texte intégral
Résumé :
La porosité entre le droit et l’intelligence artificielle a aujourd’hui soixante ans. Cette porosité qui devait, à l’origine, permettre aux informaticiens d’améliorer les performances cognitives de leurs algorithmes, ce, grâce au syllogisme juridique, a très vite suscité, en retour, l’intérêt des juristes pour l’informatique. Ces derniers ont compris qu’ils pouvaient tirer avantage des opportunités offertes par l’automatisation du droit, grâce aux nouvelles technologies. Ainsi, à l’aube de la décennie 2020, le machine learning, l’un des sous champ disciplinaires les plus récents de l’intelligence artificielle, permet autant d’améliorer les modalités d’application des lois et sanctions que de calculer les citoyens (police prédictive, justice prédictive, mais aussi accès au droit et à la justice en ligne). Ce déploiement du machine learning, qui s’opère autant dans les pays common lawyer que dans les pays de tradition civiliste, s’opère surtout dans un contexte d’a-légalité, au préjudice des droits des citoyens calculés. Les juristes nord-américains ont résolu ce défaut d’encadrement législatif en usant de la technique du judge made law. Cette technique, qui présente l’avantage de son adaptabilité, à la fois à chaque situation de vide législatif, mais aussi aux tendances de la société et des époques, sera à nouveau mobilisée, à l’avenir, lorsque les prochains sous champs disciplinaires de l’intelligence artificielle, dont le deep learning, seront déployés. La souplesse du système common lawyer nord américain peut servir de modèle au système français, pour mettre en place un cadre juridique régulant, aujourd’hui, le machine learning et, demain, les prochains sous champs disciplinaires de l’intelligence artificielle. Il convient toutefois d’adapter la dimension casuistique du modèle nord-américain au système français, en proposant d’user des normativités alternatives, et de l’éthique, comme instruments équivalant à la souplesse du judge made law. Cette approche permettrait d’observer les questions de droit qui se posent à chaque progrès technologique et d’envisager des réponses juridiques, dans un contexte enclin à légiférer une fois que l’ensemble des achoppements techniques et des problèmes de droit, que ceux-ci posent, a été saisi. Cette méthode, qui impose d’observer les nouveaux phénomènes technologiques au prisme des normativités alternatives avant de légiférer, devrait permettre d’orienter et d’influencer le travail de légistique du législateur français pour améliorer l’effectivité du droit du numérique quant à la protection des personnes calculées par des algorithmes, déployés autant par les administrations que par les sociétés de type legaltech
The porosity between law and artificial intelligence is now sixty years old. This porosity, which was originally intended to enable computer scientists to improve the cognitive performances of their algorithms, thanks to the legal syllogism, quickly aroused, in return, the interest of jurists in computer science. They understood that they could take advantage of the opportunities offered by the automation of the law, thanks to new technologies. Thus, at the dawn of the 2020s, machine learning, one of the most recent disciplinary subfields of artificial intelligence, allows as much to improve the methods of application of the laws and sanctions than to calculate the citizens (predictive policing, predictive justice, but also access to legal information and justice, online). This deployment of machine learning, which operates as much in the common law countries as in the countries of civil law tradition, takes place mainly in a context of a legality, to the detriment of the rights of the scored citizens. North American lawyers have resolved this lack of legislative framework by using the technique of judge-made law. This technique, which has the advantage of its adaptability, at the same time to each situation of legislative gap, but also to the tendencies of the society and the times, will be mobilized again, in the future, when the next disciplinary subfields of artificial intelligence, including deep learning, will be deployed. The flexibility of the North American common lawyer system can serve as a model for the French system, to set up a legal framework regulating, today, machine learning and, tomorrow, the next disciplinary subfields of artificial intelligence. However, the casuistic dimension of the North American model should be adapted to the French system, proposing the use of alternative normativities and ethics as instruments equivalent to the flexibility of the judge-made law. This approach would make it possible to observe the legal issues that arise with each technological advance and to consider legal responses, in a context inclined to legislate once the whole set of technical and legal issues, such as these pose, has been seized. This method, which requires observing new technological phenomena through the prism of alternative normativities before legislating, should make it possible to guide and influence the legislative work of the French legislator to improve the effectiveness of the digital law in terms of protecting people scored by algorithms, deployed as much by administrations as by legaltech type companies
Styles APA, Harvard, Vancouver, ISO, etc.
2

Huttner, Liane. « La décision de l'algorithme : étude de droit privé sur les relations entre l'humain et la machine ». Electronic Thesis or Diss., Paris 1, 2022. https://ecm.univ-paris1.fr/nuxeo/site/esupversions/1519e5dc-267a-46bf-8e75-4699db7e89fe.

Texte intégral
Résumé :
Depuis 1978, le droit encadre les algorithmes décisionnels, c’est-à-dire les algorithmes aidant ou remplaçant la décision humaine. Pourtant, le développement effréné de ces outils et leur diffusion dans tous les domaines questionnent la pertinence de ces règles ; En particulier, il apparaît que l’encadrement des algorithmes décisionnels s’oriente aujourd’hui vers la protection du destinataire de la décision, soit la personne soumise à la décision prise sur le fondement de l'algorithme. Ce faisant, une part essentielle des enjeux sont oubliés : la protection de l’auteur de la décision et du caractère humain de la décision. La réintégration à sa juste valeur de la protection de l’auteur de la décision, sans oublier celle du destinataire, permet alors de donner toute sa force au droit des algorithmes. Ainsi, les deux catégories classiques d’algorithmes de prise de décision et d’algorithmes d’aide à la décision peuvent être réinterprétées. De la même manière, les règles de conception et d’utilisation des algorithmes décisionnels peuvent également être lues sous la double fonction de la protection de l’auteur et du destinataire de la décision. Dans le premier cas, c’est la faculté même de décider qui est protégée. L’interdiction des algorithmes de prise de décision dans certains domaines ou l’encadrement strict de la légalité de ces outils en sont deux illustrations. Dans le second cas, c’est le droit de ne pas être soumis à une décision prise par une machine qui doit être mis en avant. On retrouve alors de nombreux mécanismes issus du droit du pouvoir tels que la faculté de demander le réexamen de la décision ou l'obligation de motivation
In France, decision-making algorithms have been regulated for almost 50 years. However, given the constant development of these tools and their ever-broadening use, the effeetivity of this control has come into question. In particular, the law seems to focus on the protection of the person subjected to an automated decision. In doing so, it neglects one of the most important issues at stake : the protection of the authors of the decision themselves. This thesis argues that it is only through a subtle balance between the protection of the authors and the subjects of a given decision that the law might be able to properly regulate decision-making algorithms. Using this approach, the two classic categories of decision-making algorithms namely algorithms serving as the only basis for a decision versus algorithms serving as a simple help for the decision - can be reinterpreted. At the same time, rules regulating the conception and the use of such algorithms can be reinforced. The interdiction of all decision-making algorithms in certain domains can be seen as a proper protection of the human decision. Other mechanisms, such as the right to obtain human intervention, or to contest the decision, arc specifically designed to protect the person subjected to a decision based on an algorithm
Styles APA, Harvard, Vancouver, ISO, etc.
3

Lemaire, Vincent. « Le droit public numérique à travers ses concepts : émergence et transformation d'une terminologie juridique ». Thesis, Paris 1, 2019. http://www.theses.fr/2019PA01D027.

Texte intégral
Résumé :
Ces travaux portent sur la recomposition du droit public du fait du numérique. Il s’agit donc d’étudier la transformation des principaux concepts du droit public afin d’identifier ce qui résiste, ce qui se transforme et ce qui disparaît après que le numérique infléchisse les comportements et les activités. Ce sera l’occasion d’évoquer les objets nouveaux du numérique et voir leur compatibilité avec le droit public et le droit de manière globale. Également, l’opportunité sera donnée de réfléchir sur l’appropriation juridique des comportements et des formations réticulaires en vigueur dans les usages qui font appel aux technologiques numériques. Partant, il s’agira de réinsérer le droit public dans le paradigme du réseau numérique afin d’y dégager les moyens de repenser les moyens d’intervention de l’État sur les activités numériques et notamment les activités économiques numériques. De cette manière, il s’agit globalement de réfléchir sur la transformation conceptuelle du droit public face à la transition numérique de l’État face aux nouveaux impératifs que le numérique présente à lui
This work is about the reconstruction of the public law because of digital new uses, reviewing the transformation of the main public law concepts. This in order to identify which concepts can withstand, change or disappear because digital new uses. This will be the moment to mention the new digital items, to confront their compatibility by the public law. Moreover, we will consider how the public law is able to comprehend news uses and digital reticulated communication structures. Then, the purpose of this work is to reintegrate public law into the network paradigm in order to find out the ability for the public government to take part efficiently in most digital activities and digital business activities. In this way, we will be able to design how to guide the conceptual transformation of the public law in the digital transition of the government facing new digital challenges
Styles APA, Harvard, Vancouver, ISO, etc.
4

Poinsot, Lisa. « Contribution à l'étude de la contrainte du temps dans le contrat de travail ». Thesis, Université de Lille (2018-2021), 2021. https://pepite-depot.univ-lille.fr/ToutIDP/EDSJPG/2021/2021LILUD014.pdf.

Texte intégral
Résumé :
La « Contribution à l’étude de la contrainte du temps dans le contrat de travail » propose de vérifier les effets de la représentation du temps par le Droit face aux difficultés qu’engendrent les évolutions impactant le travail salarié. Le Droit et le temps sont intrinsèquement liés : le Droit matérialise et objectivise le temps alors que ce dernier justifie notamment les innovations juridiques. Cette forte influence mutuelle du temps et du Droit amène à se questionner sur la pertinence de la représentation juridique du contrat de travail face à l’usage massif des algorithmes au sein du travail salarié. Pour répondre à cette problématique, cette étude entend démontrer la création d’une représentation juridique du contrat de travail du fait de la perception du temps par le Droit, ainsi que la transformation de la perception du travail salarié, en prenant appui sur l’intelligence artificielle et les plateformes numériques. Une réponse se profile dès lors : la représentation juridique du contrat de travail, résultat de l’action du Droit sur le temps, peut servir de socle de protection du travailleur face à l’importante utilisation de l’intelligence artificielle et des plateformes numériques. L’adaptation de la représentation juridique du contrat de travail permettrait de bénéficier des avantages de ces progrès technologiques tout en encadrant leur usage
The « Contribution to the study of the time constraint in the employment contract » proposes to verify the effects of the representation of time by the Law in the face of the difficulties generated by the evolutions impacting employed labour. Law and time are intrinsically linked: law materialises and objectifies time, while the latter justifies legal innovations. This strong mutual influence of time and law leads us to question the relevance of the legal representation of the employment contract in the face of the massive use of algorithms in salaried work. To answer this question, this study intends to demonstrate the creation of a legal representation of the employment contract due to the perception of time by the Law, as well as the transformation of the perception of salaried work, based on artificial intelligence and digital platforms. An answer is therefore emerging: the legal representation of the employment contract, the result of the action of the Law on time, can serve as a basis for the protection of the worker in the face of the important use of artificial intelligence and digital platforms. The adaptation of the legal representation of the employment contract would make it possible to benefit from the advantages of these technological advances while supervising their use
Styles APA, Harvard, Vancouver, ISO, etc.
5

Merabet, Samir. « Vers un droit de l'intelligence artificielle ». Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0528.

Texte intégral
Résumé :
Récente dans l’histoire des inventions technologiques, l’intelligence artificielle s’est néanmoins rapidement imposée dans la société, bouleversant à cette occasion l’économie comme le marché de l’emploi. Toutes les professions semblent exposées à la concurrence des agents artificiels ; rares sont les domaines d’activités épargnés. Pourtant, il apparaît que ces deux formes d’intelligences ne peuvent pas être tenues pour équivalentes. Si l’intelligence artificielle emprunte certains aspects de l’intelligence humaine, de nombreux autres lui font défaut. La conscience, la raison comme les émotions sont étrangères aux machines, même intelligentes. Dans ces circonstances, l’application à un système informatique intelligent de règles pensées en considération des personnes humaines peut s’avérer inadaptée. En effet, la confrontation entre le droit et l’intelligence artificielle révèle l’existence d’un paradigme sur lequel se fonde le droit positif. Le droit français s’appuie pour une large part sur la subjectivité inhérente à la personne humaine. Toutes les branches du droit semblent concernées, le droit civil comme le droit pénal ou encore le droit de la propriété intellectuelle. L’objet de cette étude est donc de dissiper les doutes qui entourent la nature de l’intelligence artificielle en vue de la distinguer clairement de l’intelligence humaine. Le constat de l’absence d’identité de ces deux formes d’intelligences induit la reconnaissance d’un ordre public de l’Humanité qui permet la préservation d’un domaine exclusif de l’intelligence humaine. Il est alors utile de formuler des principes généraux du droit de l’intelligence artificielle applicables en toutes circonstances
Even if its appearance is recent among technological inventions history, artificial intelligence has nevertheless quickly established itself, disrupting economy and the job market. Yet, upon assessment, it seems that these two forms of intelligence cannot be regarded as equivalent. Even if artificial intelligence borrows some aspects of human intelligence, many others are missing. Conscience, reason and emotions are unknown to machines, even intelligent ones. Yet, law rests upon such qualities. Hence, applying rules created for human to intelligent computer systems may be inappropriate. Indeed, the confrontation between law and artificial intelligence reveals the existence of a paradigm on which positive law is based. To a large extent, French law relies on the subjectivity proper to humans. All branches of law appear to be concerned, civil law as well as criminal law or intellectual property law. Therefore, the legal regime of artificial intelligence seems very uncertain. Consequently, the purpose of this study is to clear up the doubts surrounding the nature of artificial intelligence in order to neatly distinguish it from human intelligence. Eventually, the acknowledgment of the fundamental difference opposing these two forms of intelligence should lead to the recognition of a new public order of humanity and the preservation of an exclusive field for human intelligence
Styles APA, Harvard, Vancouver, ISO, etc.
6

Roque, Anne-Céline. « La notion d'invention à l'épreuve de l'autonomisation des branches de la technique ». Thesis, Paris 11, 2014. http://www.theses.fr/2014PA111008.

Texte intégral
Résumé :
Le point de départ de cette thèse tient à une interrogation sur la raison ayant poussé les législateurs américain et français ainsi que les rédacteurs de la Convention de Munich à ne pas définir de manière claire ce qui est le cœur même du droit des brevets : l’invention. Ce manque de précision ne saurait être appréhendé comme une simple lacune, mais comme la marque d’une attitude prudente à l’égard d’une entité qui est intimement liée au développement imprévisible des sciences et techniques. Bien qu’aucune définition n’ait été donnée, des indices graves et concordants laissent entrevoir une certaine idée de ce que pourrait être cette entité : une démonstration concrète d’emprise sur les forces de la nature. Cette ligne directrice imaginée lorsque l’ingénieur pouvait imposer sa volonté à la matière et la façonner à son gré se trouve mise en cause par l’apparition de nouvelles formes de créations. En effet, l’invention peut toujours être vue comme une preuve tangible de puissance technicienne quand il est question d’un appareil ménager ou d’un système de fixation, mais l’ingéniosité humaine est aussi utilisée pour concevoir des programmes informatiques ou des méthodes commerciales qui, à l’instar des machines-outils, simplifient le travail de l’être humain. Dans une telle perspective, il ne paraît plus possible de retenir une seule approche de l’invention et ainsi nier la réalité. Le maintien d’une conception unique de cette dernière entité serait d’autant plus difficile que la maîtrise que l’homme était censé exercer sur la matière s’avère en fait moins assurée. Il suffirait d’examiner les créations faites dans les secteurs de la chimie et des biotechnologies pour s’en convaincre. Là encore, l’idée d’une démonstration concrète d’emprise sur les forces de la nature tend encore à s’imposer puisque les chimistes et les généticiens peuvent provoquer des réactions chimiques et élaborer des molécules, mais les difficultés qu’ils rencontrent pour domestiquer la matière amènent à penser qu’une approche univoque de l’invention ne peut plus être envisagée. Afin de rendre compte des inflexions que la notion d’invention connaît, les travaux ont été structurés autour du concept d’autonomisation qui peut être vu, au regard des travaux de Simondon, comme un affranchissement progressif des créations de la tutelle de leur concepteur. Cette émancipation est rendue possible grâce à une meilleure connaissance des lois qui régissent la matière et permettent à l’ingénieur de mettre au point des créations qui rompent avec l’image « traditionnelle » de l’invention (Partie I). Ce savoir étant néanmoins insuffisant pour domestiquer complètement la nature, il est aussi nécessaire d’étudier le versant le plus dérangeant du phénomène d’autonomisation pour envisager toutes les conceptions possibles de l’invention au XXIe siècle (Partie II)
The starting point of this thesis is the questioning on the reason why the American and French legislators, as well as the draftsmen of the Munich Convention, have not clearly defined the crux of the patent law: the invention. This lack of precision should not be considered as a simple flaw, but as the sign of cautiousness towards a concept that is intrinsically related to the unpredictable development of sciences and technology.Whereas no definition has been given, concordant factors give a sight of what this concept could be: a concrete demonstration of grip on the forces of nature. This guideline which had been designed when the engineer could impose his will on the material and design it at will is questioned by the occurrence of new forms of creation. The invention can always be seen as a tangible proof of technological power when dealing with a household appliance or a joining system; however, human ingenuity has also been used for conceiving software programs or commercial methods which, just like the tool machine, simplify the human work. Hence, it does not seem possible to adopt a single approach of the invention and thus deny reality. Moreover, maintaining a unique conception of the invention would be difficult since the management that human being was supposed to practice on material is, in fact, less ensured, as it is shown for instance by the difficulties that chemists or geneticists face in controlling material. Hence, a one-sided approach of the invention can not be considered. In order to take into account the inflexions of the concept of innovation, scientific works have been based on the idea of empowerment, which can be seen, according to Simondon’s work, as a progressive emancipation of the creations from their creators’ tutorship. This emancipation has been made possible through a better knowledge of the laws which regulate the material and allow the engineer to design creations which break the “traditional” image of the invention (Part I). However, as this knowledge was not sufficient to completely domesticate nature, it also necessary to study the most disturbing aspect of the empowerment phenomenon, in order to foresee all the possible conceptions of invention in the 21st century (Part 2)
Styles APA, Harvard, Vancouver, ISO, etc.
7

Pinotti, Giulia. « Procedimento amministrativo e automazione : problemi e prospettive, anche a la luce di un'analisi comparata Italia-Francia ». Thesis, Paris 1, 2020. http://www.theses.fr/2020PA01D015.

Texte intégral
Résumé :
Ce travail a deux objectifs principaux, et pour cette raison il est divisé en deux parties : leur objet est l'utilisation des systèmes d'automatisation pour la prise de décision par l'administration publique. La première partie est consacrée à la conceptualisation et à l'identification du cadre normatif et systématique de la matière. Il est nécessaire, avant de dédier à la numérisation de la procédure administrative, de cerner tout d'abord et de définir les caractéristiques essentielles de la numérisation de l'administration publique. Ensuite on analyse l'automatisation de la prise de décision, qui est le principal objet de l'investigation. Il est essentiel de considérer les sources normatives qui gouvernant l'automatisation des décisions publiques, et aussi de comprendre la nature juridique des instruments permettant l'automatisation. La deuxième partie, en revanche, met l'accent sur les principaux problèmes juridiques posés par l'introduction de décisions administratives publiques automatisées : une première hypothèse est que l'automatisation n'est pas compatible avec les principes et les normes européennes sur l'administration publique, ainsi qu'avec les sources nationales (italiennes) de la procédure administrative. Après avoir abandonné cette première hypothèse, l'accent est mis sur la manière de concilier les principes et les instituts procéduraux traditionnels (obligation de motivation, participation) avec les décisions automatisées. La dernière partie du travail examine la relation complexe entre la transparence de l'activité administrative et l'intelligibilité de la décision automatisée. Les instituts classiques (tels que le droit d'accès) et les nouveaux instruments de protection fournis ad hoc par le législateur sont analysés
This work has two main goals, and for this reason it is divided into two parts: their object is the use of automation systems for decision-making by public administration. The first part is devoted to the conceptualization and identification of the normative and systematic framework of the subject Before turning to the digitalization of the administrative procedure, it is first necessary to identify an define the essential characteristics of the digitalization of public administration. Then, the automation of decision making is analyzed, which is the main object of the investigation. It is essential to consider the normative sources that govern the automation of public decisions, and also to understand the legal nature of the instruments that allow automation. The second part, on the other hand highlights the main legal problems posed by the introduction of automated public administrative decisions: a first hypothesis is that automation is not compatible with European principles an standards on public administration, as well as with national (Italian) sources of administrative procedure. After having abandoned this first hypothesis, the work focuses on the way of reconciling the principles and the traditional procedural institutes ( obligation of motivation, participation) wit automated decisions
Styles APA, Harvard, Vancouver, ISO, etc.
8

Ghribi, Dhafer. « Optimisation des corrections de forme dans les engrenages droits et hélicoïdaux : Approches déterministes et probabilistes ». Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00873973.

Texte intégral
Résumé :
Cette thèse a pour objectif de mener une optimisation des corrections de forme des engrenages cylindriques, droits et hélicoïdaux. Le travail se décompose en quatre parties principales. Dans la première partie, on présente un état de l'art sur les différents types de corrections de forme proposées dans la littérature. Une analyse des travaux d'optimisation, menés jusqu'à présent, est conduite. La deuxième partie est focalisée sur une approche déterministe visant à cerner l'influence des corrections de dentures sur les principaux critères de performance. Dans ce contexte, on propose un développement analytique qui caractérise les fluctuations d'erreur de transmission quasi-statique permettant d'obtenir des relations approchées originales. En présence de plusieurs paramètres de corrections, un algorithme génétique est utilisé afin d'identifier, en un temps réduit, les solutions optimales. Nous proposons, en troisième partie, une étude probabiliste pour caractériser les corrections robustes. Ainsi, on définit une fonction objectif de robustesse faisant intervenir des paramètres statistiques. Après une étape de validation, l'estimation de ces paramètres est effectuée en utilisant les formules de quadrature de Gauss. Plusieurs études paramétriques sont ensuite menées et qui reflètent entre autre l'influence des classes de qualité, la forme de la correction, etc. Enfin, on a conduit une optimisation multicritère en utilisant un algorithme d'optimisation spécifique : " NSGA-II ".
Styles APA, Harvard, Vancouver, ISO, etc.
9

Boutet, Antoine. « Decentralizing news personalization systems ». Thesis, Rennes 1, 2013. http://www.theses.fr/2013REN1S023/document.

Texte intégral
Résumé :
L'évolution rapide du web a changé la façon dont l'information est créée, distribuée, évaluée et consommée. L'utilisateur est dorénavant mis au centre du web en devenant le générateur de contenu le plus prolifique. Pour évoluer dans le flot d'informations, les utilisateurs ont besoin de filtrer le contenu en fonction de leurs centres d'intérêts. Pour bénéficier de contenus personnalisés, les utilisateurs font appel aux réseaux sociaux ou aux systèmes de recommandations exploitant leurs informations privées. Cependant, ces systèmes posent des problèmes de passage à l'échelle, ne prennent pas en compte la nature dynamique de l'information et soulèvent de multiples questions d'un point de vue de la vie privée. Dans cette thèse, nous exploitons les architectures pair-à-pair pour implémenter des systèmes de recommandations pour la dissémination personnalisée des news. Une approche pair-à-pair permet un passage à l'échelle naturel et évite qu'une entité centrale contrôle tous les profils des utilisateurs. Cependant, l'absence de connaissance globale fait appel à des schémas de filtrage collaboratif qui doivent palier les informations partielles et dynamiques des utilisateurs. De plus, ce schéma de filtrage doit pouvoir respecter la vie privée des utilisateurs. La première contribution de cette thèse démontre la faisabilité d'un système de recommandation de news totalement distribué. Le système proposé maintient dynamiquement un réseau social implicit pour chaque utilisateur basé sur les opinions qu'il exprime à propos des news reçues. Les news sont disséminées au travers d'un protocole épidémique hétérogène qui (1) biaise l'orientation des cibles et (2) amplifie la dissémination de chaque news en fonction du niveau d'intérêt qu'elle suscite. Ensuite, pour améliorer la vie privée des utilisateurs, nous proposons des mécanismes d'offuscation permettant de cacher le profil exact des utilisateurs sans trop dégrader la qualité de la recommandation fournie. Enfin, nous explorons un nouveau modèle tirant parti des avantages des systèmes distribués tout en conservant une architecture centralisée. Cette solution hybride et générique permet de démocratiser les systèmes de recommandations en offrant aux fournisseurs de contenu un système de personnalisation à faible coût
The rapid evolution of the web has changed the way information is created, distributed, evaluated and consumed. Users are now at the center of the web and becoming the most prolific content generators. To effectively navigate through the stream of available news, users require tools to efficiently filter the content according to their interests. To receive personalized content, users exploit social networks and recommendation systems using their private data. However, these systems face scalability issues, have difficulties in coping with interest dynamics, and raise a multitude of privacy challenges. In this thesis, we exploit peer-to-peer networks to propose a recommendation system to disseminate news in a personalized manner. Peer-to-peer approaches provide highly-scalable systems and are an interesting alternative to Big brother type companies. However, the absence of any global knowledge calls for collaborative filtering schemes that can cope with partial and dynamic interest profiles. Furthermore, the collaborative filtering schemes must not hurt the privacy of users. The first contribution of this thesis conveys the feasibility of a fully decentralized news recommender. The proposed system constructs an implicit social network based on user profiles that express the opinions of users about the news items they receive. News items are disseminated through a heterogeneous gossip protocol that (1) biases the orientation of the dissemination, and (2) amplifies dissemination based on the level of interest in each news item. Then, we propose obfuscation mechanisms to preserve privacy without sacrificing the quality of the recommendation. Finally, we explore a novel scheme leveraging the power of the distribution in a centralized architecture. This hybrid and generic scheme democratizes personalized systems by providing an online, cost-effective and scalable architecture for content providers at a minimal investment cost
Styles APA, Harvard, Vancouver, ISO, etc.
10

Nordmann, Raphaëlle. « Justice, éthique et intelligence artificielle : la délégation de la prise de décision judiciaire à un algorithme et l'égalité d'accès au juge ». Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/38195.

Texte intégral
Résumé :
Ce projet de recherche porte sur la justice, l’éthique et l’intelligence artificielle (IA), et plus précisément sur les enjeux éthiques soulevés par la délégation de la prise de décision judiciaire à une IA. Parmi ces enjeux, celui sur lequel nous avons choisi de nous concentrer est celui de l’égalité d’accès au juge, un droit fondamental à l’échelle européenne comme internationale. Le respect de cet enjeu lors de la mise en oeuvre d’algorithmes de règlement des litiges au sein des juridictions sera examiné ici au regard des textes qui sont actuellement les plus avancés pour encadrer éthiquement l’IA : il s’agit d’une part de la déclaration de Montréal, parue en décembre 2018, et d’autre part des lignes directrices de la Commission européenne, parues en avril 2019.
This research deals with justice, ethics and artificial intelligence (AI). More precisely, the aim is to discuss what ethical issues are raised when delegating judicial decision-making to an AI. The issue we are focusing on is equal access to the judge, a fundamental right in both European and international texts. In regard to the most advanced ones that set an ethical frame for the development of AI – which are the Declaration of Montreal, published in December 2018, and the Ethical Guidelines for Trustworthy AI published by the European Commission in April 2019 – we will investigate whether this right is enforced when dispute resolution algorithms are implemented in jurisdictions.
Styles APA, Harvard, Vancouver, ISO, etc.
11

Mariano-Goulart, Denis. « Mise au point d'un algorithme de segmentation des cavités cardiaques à partir de reconstructions tomographiques de ventriculographies isotopiques synchronisées à l'électrocardiogramme : application à une meilleure estimation de la fonction cardiaque ». Montpellier 1, 1997. http://www.theses.fr/1997MON11072.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
12

Bruyère, Jérôme. « Contribution à l'optimisation de la conception des engrenages coniques à denture droite : analyse et synthèse de la géométrie et des tolérances ». Phd thesis, Paris, ENSAM, 2006. http://pastel.archives-ouvertes.fr/pastel-00002262.

Texte intégral
Résumé :
La maîtrise accrue des matériaux et des procédés de forgeage permet aujourd'hui d'obtenir des engrenages coniques d'une qualité suffisante pour pouvoir les utiliser sans autre procédé de finition. Ce sont les pièces dites «net shape». Grâce à cette évolution technologique, il est nécessaire de d'optimiser la définition géométrique de ces engrenages en tenant compte des possibilités des procédés de forgeage, en particulier. Tout d'abord, la définition de la géométrie nominale des engrenages coniques à denture droite basée sur les propriétés géométriques et cinématiques du profil en développante de cercle sphérique est réétudiée et a abouti à une modélisation paramétrique des surfaces actives en intégrant un bombé longitudinal. Afin de garantir un certain niveau de qualité de l'engrènement, il est nécessaire de limiter les variations inhérentes au procédé de forgeage et aux ressources de fabrication, il s'agit de l'analyse et de la synthèse des tolérances. Cette analyse a nécessité une modélisation géométrique des engrenages incluant les écarts intrinsèques et les écarts de situation. L'analyse de l'impact de ces écarts sur l'erreur cinématique (Tooth Contact Analysis) repose sur la résolution d'un système d'équations non linéaires pour chaque position du pignon et d'un traitement de ces résultats; la difficulté de cette analyse est la grande sensibilité des résultats aux écarts. Cet outil «TCA» est le module principal de l'analyse des tolérances qui est réalisée de façon statistique par simulation de Monte Carlo. L'analyse des tolérances permet de valider une solution d'allocation de celles-ci mais ne permet pas son allocation automatique. Ainsi une approche de synthèse des tolérances a été validée, il s'agit de l'optimisation par algorithme génétique où la fonction objectif est de minimiser le ratio coût des tolérances sur la probabilité de respect des exigences. Cette analyse et cette synthèse ont été menées dans un premier temps sans charge, en considérant l'engrenage comme indéformable. Puis, la prise en compte des déformations est réalisée par la méthode des coefficients d'influences. Le problème de contact et de déformation globale de la denture sont découplés. Les coefficients d'influences de contact sont estimés par la méthode de Boussinesq et Cerruti. Les coefficients d'influence de flexion sont estimés par interpolation et méthode des éléments finis. Ce modèle permet l'analyse de l'engrènement sous charge mais les temps de calculs restent un handicap pour l'analyse des tolérances. Ces modèles de comportement pourront être affinés dans de futurs travaux et être le support de nouveaux modèles de spécification des engrenages, de suivi du processus de fabrication, d'une meilleure connaissance des interactions géométrie-mécanique-matériau, etc.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Machara, Marquez Samer. « Models and algorithms for managing quality of context and respect for privacy in the Internet of Things ». Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLL005/document.

Texte intégral
Résumé :
L’Internet des Objets (IdO) est un nouveau paradigme, dont l’idée de base est d’avoir un grand nombre d’objets de façon ubiquitaire. Ces objets sont capables d’interagir les uns avec les autres et de coopérer avec leurs voisins en partageant des données acquises directement en mesurant certains faits. Tout cela, afin d’atteindre des objectifs communs. Cette information ne représente pas seulement l’état des utilisateurs, mais aussi les processus dans lesquels ils sont impliqués, on appelle cela le Contexte. Le Contexte informe à la fois la reconnaissance et le mappage des opérations en fournissant une vue structurée et unifiée du monde dans lequel un système fonctionne.Avec l’IdO, de nombreuses applications récupèrent des informations de contexte concernant les utilisateurs (propriétaires de contexte) tels que, leurs habitudes, leurs comportements et leur «sentiment» (état de santé). Ceci, offre alors beaucoup d’avantages pour les utilisateurs, mais au dépend de leur intimité. La problématique de recherche de cette thèse se situe dans la vision orientée sémantique de l’IdO. Dans ce cadre, les technologies sémantiques jouent un rôle clé dans l’exploitation des solutions de modélisation parfaitement appropriée pour intégrer la notion de sécurité de la vie privée dans l’IdO. Les applications et services (consommateurs de contexte), qui sont sensibles au contexte, attendent des données de contexte correctes et fiables afin d’adapter leurs fonctionnalités. Dans cette thèse, la qualité de Contexte (QoC) est une métadonnée qui est associée aux informations de contexte. Elle décrit une série de critères exprimant la qualité de l’information de contexte. Ces métadonnées peuvent être utilisées pour déterminer la valeur de l’information pour une application particulière dans une situation particulière. Nous explorons des solutions intergicielles et des structures logiciels pour intégrer la gestion de la vie privée et QoC dans l’IdO.Cette thèse se distingue des autres recherches du domaine de la gestion de contexte et tient compte du découplage des participants IdO; à savoir, les propriétaires des informations de contexte et les consommateurs de ces informations de contexte. De plus, nous considérons la QoC comme un facteur affectant la vie privée des individus. Cette thèse fournit les contributions suivantes selon deux axes: Axe 1: Concevoir un contexte contrat méta-modèle pour définir la vie privée et QoC pour exprimer les préoccupations des propriétaires et consommateurs de contexte; basé sur la confiance réciproque, puisque les deux sont découplés. Cette conception est basée sur deux points : Premièrement, nous considérons que la vie privée est la capacité des propriétaires de contexte à contrôler quoi, comment, quand, où et avec qui partager des informations. Par conséquent, nous identifions quatre dimensions de la vie privée (le but, la visibilité, la rétention, la QoC), pour les utiliser au moment de la définition des politiques et des obligations d’accès. Deuxièmement, les consommateurs de contexte attendent un certain niveau de QoC afin d’accomplir leurs tâches. Nous proposons alors de définir deux types de contrat de contexte : le premier, pour la partie producteur et un second pour le côté du consommateur.Axe 2 : Proposer un algorithme pour créer des accords entre les producteurs et les consommateurs de contexte en évaluant et en comparant les exigences par rapport aux garanties indiquées sur leurs contrats de contexte respectives.Comme les deux participants de l’IdO ont des contrats symétriques, quand un participant définit ses besoins, l’autre définit ses garanties. Le processus de correspondance de ces contrats de contexte vérifie si les exigences de l’une des parties sont incluses dans les garanties offertes par l’autre partie.A partir de cette définition, nous avons conçu des algorithmes pour déterminer si l’accès et la consommation sont autorisés ou non, selon la correspondance des contrats de contexte
The Internet of Things (IoT) is a novel paradigm, which basic idea is the pervasive presence around us of a variety of things or objects that are able to interact with each other and cooperate with their neighbors by sharing data, directly acquired by measuring some facts, in order to reach common goals. This information not only represents the state of users but also the processes in which they are involved, this is called the Context. The context informs both recognition and mapping operations by providing a structured, unified view of the world in which a system operates. With the IoT, many applications consume context information concerning users (context owners) such as, daily routines, behaviors and health, offering lots of benefits to users, but compromising their privacy. The re-search problematic of this thesis lies within the “semantic-oriented” IoT vision. In this context, semantic technologies play a key role in exploiting appropriate modelling solutions for integrating privacy security into the IoT. Context-aware applications and services (context consumers) expect correct and reliable context data to adapt their functionalities. In this thesis the Quality of Context (QoC) is meta-data attached to context information describing a range of criteria that express context information quality. These meta-data can be used to determine the worth of the information for a particular application in a particular situation. We explore middleware and framework solutions to integrate the management of privacy and QoC in the IoT. This thesis is distinguished from other context management domain researches by bearing in mind the decoupling of the IoT participants, i.e., the owners of context information and the consumers of this context information. Moreover, we consider the QoC as a factor affecting the privacy of individuals. This thesis provides the following contributions along two axis: 1. Designing a Context Contract Meta-model to define privacy and QoC concerns of decoupled context owners and context consumers based on reciprocal trust. This design is based on two points. Firstly, we consider that privacy is the capacity of context owners to control what, how, when, where and with whom to share information. Therefore, we identify four privacy dimensions (purpose, visibility, retention, QoC), and use them in the definition of access policies and obligations. Secondly, context consumers expect a certain QoC level in order to perform their tasks. We then propose to define two kinds of context contract for the producer and the consumer sides as follows: Context producer contract: A context contract whose clauses are expressions of the production of context data, of privacy requirements, and of QoC guarantees; Context consumer contract: A context contract whose clauses are expressions of the consumption of context data, of QoC requirements, and of privacy guarantees. Each context contract is created without the knowledge of is counter party.2. Proposing an algorithm to create agreements among context producers and context consumers by evaluating and compare requirements against guarantees, stated on their respective context contracts. As both IoT participants have symmetric contracts, when one participant defines its requirements, the other one defines its guarantees. The matching process of these context contracts verifies if the requirements of one party are included within the guarantees offered by the other party. Therefore, taking a decision based on this compatibility match from the producer point of view is to permit or deny the access to context data. Complementarily, from a consumer point of view, the consumption of context data is permitted or denied. From this definition, we designed algorithms to determine whether access and consumption are authorized or not, according to the context contracts matching
Styles APA, Harvard, Vancouver, ISO, etc.
14

Malekian, Hajar. « La libre circulation et la protection des données à caractère personnel sur Internet ». Thesis, Paris 2, 2017. http://www.theses.fr/2017PA020050.

Texte intégral
Résumé :
La protection des données à caractère personnel (DCP) constitue un droit fondamental autonome au sein de l’Union européenne (article 8 de la Charte des droits fondamentaux de l’Union européenne). En outre, la libre circulation de ces données et des services de la société de l’information, notamment des plateformes en ligne, est primordiale pour le développement de l’économie numérique dans le cadre du marché unique numérique européen. C’est dans ce contexte qu’un point d’équilibre entre la libre circulation et la protection des DCP fait l’objet du cadre juridique européen et français en matière de protection des DCP. Ainsi, dans cette étude, nous nous sommes intéressés en particulier aux enjeux liés à la mise en balance de ces deux intérêts. Ces enjeux suscitent une attention particulière notamment à l’ère des plateformes en ligne, du Big Data et de l’exploitation en masse des données à travers des algorithmes sophistiqués dotés de plus en plus d’autonomie et d’intelligence
Free flow of data and personal data protection on the Internet Protection of personal data is an autonomous fundamental right within the European Union (Article 8 of the Charter of Fundamental Rights of European Union). Moreover, free flow of personal data and free movement of information society services in particular online platforms is essential for the development of digital single market in European Union. The balance between free movement of data and personal data protection is subject of the European legal framework. However, the main challenge still remains to strike the right balance between effective personal data protection and free flow of this data and information society services. This balance is not an easy task especially in the age of online platforms, Big Data and processing algorithms like Machine Learning and Deep Learning
Styles APA, Harvard, Vancouver, ISO, etc.
15

Rouhana, Jad. « La protection des renseignements personnels dans l'exploitation des assistants vocaux ». Thesis, 2020. http://hdl.handle.net/1866/25169.

Texte intégral
Résumé :
Les assistants vocaux ont mis au jour une nouvelle manière pour l’humain d’interagir avec les technologies en n’utilisant que la voix. Une technologie qui est également évolutive et interactive grâce à l’intelligence artificielle. Nous verrons que les caractéristiques techniques et logicielles les composant concourent à une collecte massive de renseignements personnels par les entreprises. L’imprécision des politiques de confidentialité, l’absence d’information sur le mode de fonctionnement, l’imperfection du traitement automatique du langage naturel (ci-après le « TALN ») caractérisée par les faux positifs et les difficultés inhérentes à l’exercice par l’individu de certains de ses droits tendent à limiter l’effectivité des différentes lois existantes à l’assistant vocal. En outre, la possibilité pour plusieurs personnes d’interagir avec l’objet ainsi que son absence d’autonomie tendent à compliquer l’application des régimes de responsabilité civile, dont celui résultant du fait des biens. Cette apparition récente de l’assistant vocal n’a pour l’heure pas permis au juge de se prononcer pour faire évoluer les jurisprudences relatives au droit à la vie privée, à la protection des renseignements personnels et à la responsabilité civile. Celles déjà existantes ne semblent plus être adaptées à ce contexte technologique autour de l’assistant vocal, et plus généralement autour de la voix. C’est ainsi que le test de Oakes, permettant de déterminer le caractère raisonnable d’une violation des droits et libertés énoncés dans la Charte canadienne, repris pour être appliqué à la LPRPDE, apparaît comme étant inadapté à ce nouveau contexte technologique. Enfin, le manque de pouvoirs conférés aux autorités compétentes représente un obstacle majeur dans le suivi de l’application des règles de droit.
Voice assistants bring a new way for humans to interact with technology by only using their voice. Scalable and interactive technology thanks to artificial intelligence. We will see that the technical and software characteristics of voice assistants contribute to a massive collection of personal information by companies. The imprecision of confidentiality policies, the absence of information on the mode of operation, the imperfection of the Natural Language Processing characterized by false positives and the difficulties inherent in the exercise by individuals of some of their rights contribute to the mismatch between voice assistants and various existing laws. In addition, the possibility for people to interact with the object as well as its lack of autonomy tend to complicate the application of civil liability regimes, including that resulting from the act of thing. This recent appearance of voice assistants has so far not giving judges the possibility to rule on the right to privacy, protection of personal information and civil liability. Current case law doesn’t seem to be well adapted to the technological context around the voice assistant, and more generally the voice. The Oakes test, which was design to determining the reasonableness of a violation of the rights and freedoms set out in the Canadian Charter, appears to be unsuited to this new context. We will see that the lack of powers conferred on the competent authorities represents a major obstacle in monitoring the application of the rule of law.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie