Academic literature on the topic 'Plate-formes numériques'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Plate-formes numériques.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Plate-formes numériques"

1

Wauthy, Xavier. "Numéro 59 - mai 2008." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco.v1i0.15653.

Full text
Abstract:
"Yahoo refuse l'offre de rachat de Microsoft !" L'encre des gros titres commentant cette décision est à peine sèche que le géant de Redmond pourrait, selon la rumeur, jeter son dévolu sur Facebook, deuxième réseau social numérique sur base du nombre d'utilisateurs actifs. En octobre 2007, Microsoft avait d'ailleurs déjà pris une participation dans Facebook à hauteur d'un quart de milliard de dollars. Mais comment le géant du logiciel, à qui l'on doit des produits aussi peu festifs que Windows, ou la suite logicielle Office, en est-il arrivé à considérer sérieusement le rachat de ce qui ressemble à un innocent gadget d'étudiant, une déclinaison Internet du rituel "Yearbook" cher aux étudiants américains ? Comment ces produits de loisirs purs, proposant gratuitement à leurs utilisateurs des services parfaitement inutiles tels que l'envoi d'un baiser virtuel à un "ami" ou la participation à un concours de "vampires" (?), peuvent-ils atteindre de telles valorisations boursières ? Tout simplement parce qu'ils sont les stars du Web 2.0, ce terme désormais consacré par lequel on caractérise les sites où les utilisateurs peuvent interagir à la fois avec les contenus qui y sont déposés et entre eux. Le dernier numéro de Regards Economiques s'efforce de démonter la mécanique économique qui se cache derrière l'apparente gratuité qui est généralement concédée aux usagers. Car, si la gratuité d'usage se transforme en une valorisation financière significative, c'est forcément que cette gratuité a une contrepartie payante. Le déploiement du Web 2.0 démarre là où l'industrie culturelle traditionnelle marque le pas. La numérisation des produits de contenus tels que musique, son, vidéo et information écrite met en effet à mal le modèle d'affaire dans lequel les Majors vendaient CD, DVD et autres supports dont le contrôle est aujourd’hui rendu plus difficile par leur caractère immatériel. Les sites commerciaux du Web 2.0 tirent parti de cette évolution en exploitant la possibilité de diffuser une très large gamme de contenus, directement "uploadés" par les utilisateurs. Ils se positionnent en plate-forme d'échanges où les contenus sont partagés entre utilisateurs. Les exemples les plus frappants étant à coup sûr YouTube ou MySpace. La présence de contenus très nombreux et très diversifiés constituent un puissant attrait pour les utilisateurs potentiels, qui s'affilient en nombre et apportent à leur tour de nouveaux contenus. Cette spirale vertueuse génère une audience colossale qui constitue le premier pilier du modèle d'affaire du Web 2.0. Le second pilier est le fait que ces contenus très diversifiés auxquels je peux accéder, ces utilisateurs très hétérogènes avec lesquels je peux interagir ne sont vraiment intéressants que s'ils sont proposés en fonction des mes propres goûts, de mes centres d'intérêt. Il faut donc organiser, trier, l'information brute. Ce à quoi s'emploient les plates-formes web, Google et ses moteurs de recherche en tête. Chaque utilisateur a donc un intérêt direct à révéler ses caractéristiques propres pour réaliser des interactions fructueuses. Ce faisant, il "offre" à la plate-forme la possibilité de construire une gigantesque base de données d'utilisateurs. Il reste alors à la plate-forme à vendre l'accès à cette audience à des annonceurs publicitaires pour lesquels la capacité à toucher un large public, finement ciblé sur des goûts, des centres d'intérêt est particulièrement attrayante. La gratuité promise aux utilisateurs vise donc à assurer une forte participation et une révélation d'information maximale. Ce qui revient à assurer pour la base de données la plus grande valeur ajoutée possible, tant par la taille que par le ciblage des utilisateurs, et donc à s'assurer une disponibilité à payer maximale de la part des annonceurs. Google excelle évidemment dans ce domaine. Ce modèle d'affaire où le brassage de contenus organisé par des plates-formes web est instrumentalisé pour attirer des ressources publicitaires pose de nombreuses questions à l'autorité publique. D'une part parce que nombre de ces contenus, protégés par le droit d'auteur, circulent de manière illicite. Comment permettre le développement du Web 2.0 tout en assurant la rémunération légitime des titulaires de droit ? D'autre part, parce que les mécanismes qui président au développement de ces plates-formes génèrent une tendance naturelle à la concentration. Les récentes offres de rachat émanant de Microsoft, Google et autres le confirment. Comment garantir un degré suffisant de concurrence dans cette industrie ? Faut-il contenir l'expansion tentaculaire de Google dont l'ubiquité a de quoi inquiéter ? Autant de questions ouvertes.
APA, Harvard, Vancouver, ISO, and other styles
2

Wauthy, Xavier. "Numéro 59 - mai 2008." Regards économiques, October 12, 2018. http://dx.doi.org/10.14428/regardseco2008.05.01.

Full text
Abstract:
"Yahoo refuse l'offre de rachat de Microsoft !" L'encre des gros titres commentant cette décision est à peine sèche que le géant de Redmond pourrait, selon la rumeur, jeter son dévolu sur Facebook, deuxième réseau social numérique sur base du nombre d'utilisateurs actifs. En octobre 2007, Microsoft avait d'ailleurs déjà pris une participation dans Facebook à hauteur d'un quart de milliard de dollars. Mais comment le géant du logiciel, à qui l'on doit des produits aussi peu festifs que Windows, ou la suite logicielle Office, en est-il arrivé à considérer sérieusement le rachat de ce qui ressemble à un innocent gadget d'étudiant, une déclinaison Internet du rituel "Yearbook" cher aux étudiants américains ? Comment ces produits de loisirs purs, proposant gratuitement à leurs utilisateurs des services parfaitement inutiles tels que l'envoi d'un baiser virtuel à un "ami" ou la participation à un concours de "vampires" (?), peuvent-ils atteindre de telles valorisations boursières ? Tout simplement parce qu'ils sont les stars du Web 2.0, ce terme désormais consacré par lequel on caractérise les sites où les utilisateurs peuvent interagir à la fois avec les contenus qui y sont déposés et entre eux. Le dernier numéro de Regards Economiques s'efforce de démonter la mécanique économique qui se cache derrière l'apparente gratuité qui est généralement concédée aux usagers. Car, si la gratuité d'usage se transforme en une valorisation financière significative, c'est forcément que cette gratuité a une contrepartie payante. Le déploiement du Web 2.0 démarre là où l'industrie culturelle traditionnelle marque le pas. La numérisation des produits de contenus tels que musique, son, vidéo et information écrite met en effet à mal le modèle d'affaire dans lequel les Majors vendaient CD, DVD et autres supports dont le contrôle est aujourd’hui rendu plus difficile par leur caractère immatériel. Les sites commerciaux du Web 2.0 tirent parti de cette évolution en exploitant la possibilité de diffuser une très large gamme de contenus, directement "uploadés" par les utilisateurs. Ils se positionnent en plate-forme d'échanges où les contenus sont partagés entre utilisateurs. Les exemples les plus frappants étant à coup sûr YouTube ou MySpace. La présence de contenus très nombreux et très diversifiés constituent un puissant attrait pour les utilisateurs potentiels, qui s'affilient en nombre et apportent à leur tour de nouveaux contenus. Cette spirale vertueuse génère une audience colossale qui constitue le premier pilier du modèle d'affaire du Web 2.0. Le second pilier est le fait que ces contenus très diversifiés auxquels je peux accéder, ces utilisateurs très hétérogènes avec lesquels je peux interagir ne sont vraiment intéressants que s'ils sont proposés en fonction des mes propres goûts, de mes centres d'intérêt. Il faut donc organiser, trier, l'information brute. Ce à quoi s'emploient les plates-formes web, Google et ses moteurs de recherche en tête. Chaque utilisateur a donc un intérêt direct à révéler ses caractéristiques propres pour réaliser des interactions fructueuses. Ce faisant, il "offre" à la plate-forme la possibilité de construire une gigantesque base de données d'utilisateurs. Il reste alors à la plate-forme à vendre l'accès à cette audience à des annonceurs publicitaires pour lesquels la capacité à toucher un large public, finement ciblé sur des goûts, des centres d'intérêt est particulièrement attrayante. La gratuité promise aux utilisateurs vise donc à assurer une forte participation et une révélation d'information maximale. Ce qui revient à assurer pour la base de données la plus grande valeur ajoutée possible, tant par la taille que par le ciblage des utilisateurs, et donc à s'assurer une disponibilité à payer maximale de la part des annonceurs. Google excelle évidemment dans ce domaine. Ce modèle d'affaire où le brassage de contenus organisé par des plates-formes web est instrumentalisé pour attirer des ressources publicitaires pose de nombreuses questions à l'autorité publique. D'une part parce que nombre de ces contenus, protégés par le droit d'auteur, circulent de manière illicite. Comment permettre le développement du Web 2.0 tout en assurant la rémunération légitime des titulaires de droit ? D'autre part, parce que les mécanismes qui président au développement de ces plates-formes génèrent une tendance naturelle à la concentration. Les récentes offres de rachat émanant de Microsoft, Google et autres le confirment. Comment garantir un degré suffisant de concurrence dans cette industrie ? Faut-il contenir l'expansion tentaculaire de Google dont l'ubiquité a de quoi inquiéter ? Autant de questions ouvertes.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Plate-formes numériques"

1

Michalon, Barthélémy. "Framing, shaping, and maneuvering : exercising power in building online content regulation." Electronic Thesis or Diss., Paris, Institut d'études politiques, 2024. http://www.theses.fr/2024IEPP0019.

Full text
Abstract:
J’utilise la méthode d’analyse qualitative des données et l’étude de cas multiples pour comprendre comment les autorités publiques, plates-formes de réseaux sociaux et organisations de la société civile exercent un pouvoir dans la construction de cadres réglementaires, et par là-même d’un système de gouvernance, en matière de modération des contenus en ligne. J’analyse l’exercice du pouvoir à travers trois études de cas, chacune sur une forme différente de régulation : le Code de conduite pour lutter contre les discours de haine illégaux en ligne (co-régulation), le Conseil de Surveillance (Oversight Board) de Meta (autorégulation) et la Loi sur les Services Numériques (Digital Services Act) (régulation législative). Ces cas m’ont d’abord permis de développer puis de démontrer la réplicabilité du modèle FSM, selon lequel les acteurs exercent le pouvoir de trois manières à différentes étapes du cycle de politique publique d’une régulation. Le cadrage (framing) influe sur les perceptions de la régulation et des acteurs impliqués. La formulation (shaping) porte sur le contenu de la régulation. Enfin, la manœuvre (maneuvering) joue sur sa pratique, principalement lors de sa mise en œuvre. L’analyse des dynamiques de pouvoir à travers ces trois types de régulation montre que la délégation sous contrôle est une caractéristique centrale de la gouvernance des contenus en ligne. L’acteur à l’origine de chaque initiative réglementaire – que ce soit une autorité publique ou une plate-forme – façonne la régulation de façon à impliquer activement d’autres acteurs dans la modération des contenus, tout en veillant à ce que cette délégation se maintienne dans les limites qu’il a définies
I used qualitative data analysis and the multiple case study method to understand how political, platform, and civil actors exercise power in building regulatory frameworks, and thus a governance system, for online content moderation. I analyzed the exercise of power through three case studies, each on a different form of regulation: the Code of conduct on countering illegal hate speech online (co-regulation), Meta’s Oversight Board (self-regulation) and the Digital Services Act (statutory regulation).These cases served to develop an analytical framework (the FSM model) and to successfully test its replicability. It is based on the idea that actors exercise power at different stages of a regulation’s policy process in at least one of three ways. Framing involves influencing perceptions about the regulation and the actors involved. Shaping consists of impacting the regulation’s content. Finally, maneuvering refers to affecting its practice, mostly during the implementation phase. The comprehensive analysis of power dynamics across three regulatory settings allowed me to highlight controlled delegation as a central feature in the governance of online content. Empirical evidence points to a pattern: the actor behind each regulatory initiative – be it a public authority or platform company – shaped the regulatory framework to actively engage other actors in content moderation, while ensuring that this delegation operated within the boundaries it had defined. My approach, grounded in the exercise of power, yielded insights into how delegating actors balanced empowering other agents with establishing boundaries and oversight mechanisms to retain control over their operations
APA, Harvard, Vancouver, ISO, and other styles
2

Tendil, Anthony. "Contrôles tectoniques, climatiques et paléogéographiques sur l'architecture stratigraphique de la plateforme carbonatée urgonienne provençale (France) : approches sédimentologiques, géochimiques et numériques intégrées." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0230.

Full text
Abstract:
Les systèmes carbonatés, anciens et actuels, se retrouvent au coeur d’enjeux économiques et sociétaux majeurs, notamment dans le domaine énergétique où ils représentent une part considérable des réserves prouvées de gaz et de pétrole. La présente thèse se focalise sur la plate-forme urgonienne Provençale (Barrémien supérieur–Aptien inférieur), analogue d’affleurement prouvé de réservoirs carbonatés du Moyen-Orient. Près d’une trentaine de coupes stratigraphiques, incluant notamment deux forages réalisés dans le cadre de ce travail, ont été considérées sur l’ensemble du domaine Provençal. La reconnaissance de surfaces d’émersion et d’ennoiement contraintes biostratigraphiquement permet d’appréhender régionalement l’évolution paléogéographique et l’architecture stratigraphique. Plusieurs phases de progradation en direction des bassins adjacents, entrecoupées d’épisodes de perturbation de la production carbonatée, sont identifiées en Provence. Un scénario stratigraphique comparable est proposé pour les plates-formes urgoniennes du Pourtour Vocontien. En Provence, la compartimentation réservoir de la plate-forme urgonienne est principalement contrôlée par le contexte séquentiel des dépôts qui induit une dualité entre des carbonates cimentés précocement et ceux préservant un certain espace poreux. Les règles géologiques définies dans cette étude 1) servent à la réalisation d’un modèle numérique 3-D destiné aux simulations des écoulements à l’échelle de l’aquifère karstique de Fontaine-de-Vaucluse, dont le débit à l’exutoire est classé au cinquième rang mondial, et 2) aident à la prédiction des hétérogénéités sédimentaires et pétrophysiques des systèmes carbonatés
The analysis of carbonate systems is at the heart of major economic and societal challenges, especially in the energy field since they represent significant oil and gas reserves. The present thesis focuses on the Urgonian Provence platform (upper Barremian–lower Aptian interval) which is considered as a valid outcrop analogue of middle East carbonate reservoirs. About thirty stratigraphic sections, including newly acquired cores, are considered throughout the Provence domain. The recognition of biostratigraphically constrained exposure and drowning surfaces enables us to restore the regional palaeogeographic evolution along with the stratigraphic architecture. Several phases of platform progradation toward the adjacent basins, interrupted by episodes of changes in carbonate production, are identified in Provence. A comparable stratigraphic scenario is proposed for the peri-Vocontian Urgonian platforms. In Provence, the reservoir compartmentalisation of the Urgonian platform is mainly controlled by the sequence stratigraphic context that induced a distinction between early cemented carbonates and those preserving part of their original porosity. The geological rules provided in this study 1) are implemented into a 3-D numerical model intended for fluid-flow simulations at the scale of the Fontaine-de-Vaucluse karstic aquifer, whose karst spring is the fifth largest in the world, and 2) help in predicting the sedimentary and petrophysical heterogeneities of carbonate systems
APA, Harvard, Vancouver, ISO, and other styles
3

Marchand, Estelle. "Analyse de sensibilité déterministe pour la simulation numérique du transfert de contaminants." Phd thesis, Université Paris Dauphine - Paris IX, 2007. http://tel.archives-ouvertes.fr/tel-00271632.

Full text
Abstract:
Les questions de sûreté et d'incertitudes sont au centre des études de faisabilité pour un site de stockage souterrain de déchets nucléaires, en particulier l'évaluation des incertitudes sur les indicateurs de sûreté qui sont dues aux incertitudes sur les propriétés du sous-sol et des contaminants. L'approche globale par les méthodes probabilistes de type Monte Carlo fournit de bons résultats, mais elle demande un grand nombre de simulations. La méthode déterministe étudiée ici est complémentaire. Reposant sur la décomposition en valeurs singulières de la dérivée du modèle, elle ne donne qu'une information locale, mais elle est beaucoup moins coûteuse en temps de calcul. Le modèle d'écoulement suit la loi de Darcy et le transport des radionucléides autour du site de stockage est modélisé par une équation de diffusion-convection linéaire. Différentiation à la main et différentiation automatique sont comparées sur ces modèles en mode direct et en mode adjoint. Une étude comparée des deux approches probabiliste et déterministe pour l'analyse de la sensibilité des flux de contaminants aux exutoires par rapport aux variations des paramètres d'entrée est menée sur des données réalistes fournies par l'ANDRA. Des outils génériques d'analyse de sensibilité et de couplage de code sont développés en langage Caml. Ils permettent à l'utilisateur de ces plates-formes génériques de ne fournir que la partie spécifique de l'application dans le langage de son choix. Une étude sur les écoulements diphasiques eau/air partiellement saturés en hydrogéologie porte sur les limitations des approximations de Richards et de la formulation en pression globale issue du domaine pétrolier.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography