Littérature scientifique sur le sujet « Crowdsourcing, classification, task design, crowdsourcing experiments »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Sommaire
Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Crowdsourcing, classification, task design, crowdsourcing experiments ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Articles de revues sur le sujet "Crowdsourcing, classification, task design, crowdsourcing experiments"
Yang, Keyu, Yunjun Gao, Lei Liang, Song Bian, Lu Chen et Baihua Zheng. « CrowdTC : Crowd-powered Learning for Text Classification ». ACM Transactions on Knowledge Discovery from Data 16, no 1 (3 juillet 2021) : 1–23. http://dx.doi.org/10.1145/3457216.
Texte intégralRamírez, Jorge, Marcos Baez, Fabio Casati et Boualem Benatallah. « Understanding the Impact of Text Highlighting in Crowdsourcing Tasks ». Proceedings of the AAAI Conference on Human Computation and Crowdsourcing 7 (28 octobre 2019) : 144–52. http://dx.doi.org/10.1609/hcomp.v7i1.5268.
Texte intégralGuo, Shikai, Rong Chen, Hui Li, Tianlun Zhang et Yaqing Liu. « Identify Severity Bug Report with Distribution Imbalance by CR-SMOTE and ELM ». International Journal of Software Engineering and Knowledge Engineering 29, no 02 (février 2019) : 139–75. http://dx.doi.org/10.1142/s0218194019500074.
Texte intégralBaba, Yukino, Hisashi Kashima, Kei Kinoshita, Goushi Yamaguchi et Yosuke Akiyoshi. « Leveraging Crowdsourcing to Detect Improper Tasks in Crowdsourcing Marketplaces ». Proceedings of the AAAI Conference on Artificial Intelligence 27, no 2 (6 octobre 2021) : 1487–92. http://dx.doi.org/10.1609/aaai.v27i2.18987.
Texte intégralCeschia, Sara, Kevin Roitero, Gianluca Demartini, Stefano Mizzaro, Luca Di Gaspero et Andrea Schaerf. « Task design in complex crowdsourcing experiments : Item assignment optimization ». Computers & ; Operations Research 148 (décembre 2022) : 105995. http://dx.doi.org/10.1016/j.cor.2022.105995.
Texte intégralSun, Yuyin, Adish Singla, Tori Yan, Andreas Krause et Dieter Fox. « Evaluating Task-Dependent Taxonomies for Navigation ». Proceedings of the AAAI Conference on Human Computation and Crowdsourcing 4 (21 septembre 2016) : 229–38. http://dx.doi.org/10.1609/hcomp.v4i1.13286.
Texte intégralLin, Christopher, Mausam Mausam et Daniel Weld. « Dynamically Switching between Synergistic Workflows for Crowdsourcing ». Proceedings of the AAAI Conference on Artificial Intelligence 26, no 1 (20 septembre 2021) : 87–93. http://dx.doi.org/10.1609/aaai.v26i1.8121.
Texte intégralRothwell, Spencer, Steele Carter, Ahmad Elshenawy et Daniela Braga. « Job Complexity and User Attention in Crowdsourcing Microtasks ». Proceedings of the AAAI Conference on Human Computation and Crowdsourcing 3 (28 mars 2016) : 20–25. http://dx.doi.org/10.1609/hcomp.v3i1.13265.
Texte intégralQarout, Rehab, Alessandro Checco, Gianluca Demartini et Kalina Bontcheva. « Platform-Related Factors in Repeatability and Reproducibility of Crowdsourcing Tasks ». Proceedings of the AAAI Conference on Human Computation and Crowdsourcing 7 (28 octobre 2019) : 135–43. http://dx.doi.org/10.1609/hcomp.v7i1.5264.
Texte intégralFu, Donglai, et Yanhua Liu. « Fairness of Task Allocation in Crowdsourcing Workflows ». Mathematical Problems in Engineering 2021 (23 avril 2021) : 1–11. http://dx.doi.org/10.1155/2021/5570192.
Texte intégralActes de conférences sur le sujet "Crowdsourcing, classification, task design, crowdsourcing experiments"
Kawase, Yasushi, Yuko Kuroki et Atsushi Miyauchi. « Graph Mining Meets Crowdsourcing : Extracting Experts for Answer Aggregation ». Dans Twenty-Eighth International Joint Conference on Artificial Intelligence {IJCAI-19}. California : International Joint Conferences on Artificial Intelligence Organization, 2019. http://dx.doi.org/10.24963/ijcai.2019/177.
Texte intégralGómez Barrón Sierra, José Pablo, Miguel-Ángel Manso-Callejo et Ramón Alcarria. « DISEÑO DE ESTRATEGIAS DE CROWDSOURCING EN SISTEMAS DE INFORMACIÓN GEOGRÁFICA VOLUNTARIA ». Dans 1st Congress in Geomatics Engineering. Valencia : Universitat Politècnica València, 2017. http://dx.doi.org/10.4995/cigeo2017.2017.6629.
Texte intégral