Amazon Mechanical Turk — Wikipédia

Amazon Mechanical Turk
Logo de Amazon Mechanical Turk

Adresse www.mturk.com
Description Faire effectuer par des humains, contre rémunération, des tâches plus ou moins complexes.
Commercial  Oui
Publicité  Non
Type de site Platforme web de crowdsourcing ou microworking crowdsourcing
Langue Anglais
Inscription Obligatoire
Créé par Amazon
Lancement [1]Voir et modifier les données sur Wikidata
État actuel  En activité

Amazon Mechanical Turk (AMT ou Mturc, litt. « Turc mécanique d'Amazon ») est un service de micro-travail lancé par Amazon.com fin 2005. C'est une plateforme web de production participative (crowdsourcing) qui vise à faire effectuer par des humains, contre rémunération, des tâches plus ou moins complexes. Les tâches en question doivent être dématérialisées ; il s'agit souvent d'analyser ou de produire de l'information dans des domaines où l'intelligence artificielle est encore trop peu performante, par exemple l'analyse du contenu d'images[2].

Origine du nom

[modifier | modifier le code]

Le nom est directement inspiré d'un canular historique, le Turc mécanique, un automate du XVIIIe siècle imaginé par J. W. von Kempelen supposé jouer aux échecs mais dans le socle duquel se cachait un humain. Ce nom renvoie au fait que les tâches réalisées sur la plateforme résultent du travail d'un humain et non d'un automate.

Fonctionnement d'Amazon Mechanical Turk

[modifier | modifier le code]

Amazon Mechanical Turk est une plateforme web qui regroupe des caractéristiques bien spécifiques et qui a son propre fonctionnement. C'est une plateforme de crowdsourcing[3] (ou « myriadisation »[4]), autrement dit, c'est un dispositif permettant d'externaliser via le web et par des internautes du travail. Ce travail est par ailleurs parcellisé, les tâches qui en résultent sont découpées en sous-tâches, ou micro-tâches. Ces tâches sont par ailleurs nommées HITs sur la plateforme.

Même si les basses rémunérations dont bénéficient les travailleurs permettent aux requesters de faire effectuer les tâches à un coût faible, d'autres coûts viennent s'y ajouter, comme la création de protections contre les spammers ou le coût de validation et de post-traitement des tâches[4]. Par ailleurs, certaines tâches génèrent des coûts similaires aux coûts habituels (hors AMT et micro-travail) du fait du manque de travailleurs qualifiés sur AMT[5].

AMT permet donc de produire du travail de qualité dans des cas précis. Mais lorsque les tâches sont trop complexes[6], lorsque le spamming face auquel le service est confronté entre en compte ou lorsque le modèle de rémunération à la tâche pose un problème[7], la qualité du travail effectuée peut être affectée.

En , la plateforme n’accepte plus l'inscription de nouveaux travailleurs depuis la France. Un grand nombre de tâches comme, identifier des objets sur des images, retranscrire des documents ou nettoyer des bases de données, sont destinées à l’apprentissage pour des algorithmes, qui vont utiliser ces données [8].

Les parties prenantes sur AMT

[modifier | modifier le code]

Sur Amazon Mechanical Turk, il existe trois parties prenantes[9] :

  • les travailleurs (turkers)[10] qui travaillent à la tâche. Ils seraient entre 15 000 et 43 000[11]. Ils décident, en fonction des conditions posées par des commanditaires, quelles tâches effectuer pour être rémunérés. Parmi eux, 20 % considèrent AMT comme leur source de revenu primaire, 50 % comme leur source de revenu secondaire. 20 % des travailleurs passent plus de 15 heures par semaine sur AMT, et contribuent à 80 % des tâches. Le salaire horaire moyen observé ne dépasse pas les 2 $[12]. Par ailleurs, en l’absence de possibilité de formation visant à les familiariser avec le service, un important « travail caché », d'apprentissage et supplémentaire aux HITs, est réalisé par les travailleurs[13]. Ils sont considérés comme des travailleurs indépendants ;
  • les requesters[14] (« demandeurs de tâches ») qui sont les commanditaires et qui proposent les tâches. Ils fixent le montant de la rémunération. Ils peuvent rejeter les tâches effectuées par les travailleurs. Ils peuvent évaluer les prestations des travailleurs et ils posent des conditions sur le profil des travailleurs qu'ils veulent sélectionner. Ces requesters ne sont pas des employeurs ;
  • Amazon ; il n'intervient logiquement pas dans les rapports entre requesters et travailleurs sauf lorsqu'il s'agit d'intervenir sur des litiges entre requester et turker. Pour chaque tâche, Amazon opère une retenue proportionnelle à la rétribution versée au travailleur. Les frais de commission qu'il pratique oscillent entre 20 et 40 %.

Les modalités de sélection des travailleurs

[modifier | modifier le code]

En plus de créer leurs propres listes de qualifications pour gérer les travailleurs qui ont déjà travaillé pour eux, les requesters peuvent sélectionner de nouveaux travailleurs en s'appuyant sur les « qualification types » fournis par Amazon renvoyant à des critères de réputation des travailleurs. Ces qualification types incluent :

  • Le pourcentage de feedbacks positifs du travailleur ;
  • Le pourcentage de HITs rejetées par le travailleur ;
  • Le pourcentage de HITs abandonnées par le travailleur ;
  • Le nombre de HITs réalisées par le travailleur.

Les tâches (HITs) courantes sur AMT

[modifier | modifier le code]

La plupart des tâches proposées sur Amazon Mechanical Turk exigent peu voire pas de qualification[15]. Les exemples de tâches les plus courantes sont :

  • la traduction de textes ou de fragments de textes ;
  • la transcription, l’identification ou le classement de fichiers audio ou de vidéos ;
  • la modération de contenus (images, textes, vidéos) pour des forums par exemple, ou des sites web ;
  • la réalisation de sondages, de questionnaires ou d'enquêtes en ligne ;
  • le renommage de fichiers en grandes quantités ;
  • la réalisation de requêtes sur les moteurs de recherche ;
  • l'écriture de textes ou la rédaction de commentaires : avis, critiques, évaluations, etc.

Exemples de réalisations avec AMT

[modifier | modifier le code]
  • Emoji Dick, traduction de Moby Dick en emoji, émoticônes japonaises, réalisées par huit cents personnes via le Turc d'Amazon, compilée par Fred Benenson, puis imprimée par financement communautaire[16] ;
  • influence sur les suggestions de recherche de Google[17] ;
  • des créations artistiques, comme The Sheep Market[18] ;
  • Le traitement automatique du langage naturel (TAL).

Utilisation pour la recherche

[modifier | modifier le code]

AMT est origniellement une place de marché en ligne destinée à fournir un service d'externalisation participative de tâches à d’autres personne, contre rémunération. Mais elle s'est rapidement aussi révélée très pratique pour collecter à relativement peu de frais des quantités importantes de données utiles à la recherche en sciences sociales, devenant, parmi d'autres tels que ProlificAcademic, SocialSci, CrowdFlower, ClickWorker, CrowdSource, « le site Web de crowdsourcing le plus populaire pour la recherche »[19].

Au début des années 2010, Buhrmester et ses collègues confirment la facilité d'ainsi acquérir de la donnée pour la psychologie et d'autres sciences sociales, grâce à « un système intégré de rémunération des participants ; un grand bassin de participants ; et une simplification du processus de conception de l'étude, de recrutement des participants et de collecte de données ». Ils concluent aussi que les participants recrutés via MTurk sont « légèrement plus diversifiés sur le plan démographique que les échantillons Internet standard et sont nettement plus diversifiés que les échantillons typiques des universités américaines » ; et si la participation est influencée par le taux de rémunération et la durée des tâches, les participants peuvent néanmoins être recrutés rapidement et à moindre coût. Selon eux, « les taux d'indemnisation réalistes n'affectent pas la qualité des données ; et les données obtenues sont au moins aussi fiables que celles obtenues par des méthodes traditionnelles »[20], et en 2012, Brerinsky et ses collègues en évaluent l'intérêt pour la recherche[21] , Au milieu des années 2010, un nombre croissant de chercheurs en sciences sociales utilisent ainsi AMT pour la collecte de données en ligne[22], ce qui, de l'avis de nombreux chercheurs, a révolutionné le travail des chercheurs en sciences comportementales[23].

Bien que la recherche basée sur MTurk ait connu une croissance exponentielle au cours des dernières années (Chandler et Shapiro 2016), des préoccupations raisonnables ont été soulevées quant à la capacité des participants à la recherche en ligne à se substituer aux participants à la recherche traditionnelle (Chandler, Mueller et Paolacci 2014). Cet article passe en revue les recherches récentes de MTurk et fournit des conseils supplémentaires pour le recrutement d'échantillons de participants à MTurk parmi les populations d'intérêt pour les chercheurs en comptabilité comportementale.

Organisation des travailleurs de AMT

[modifier | modifier le code]

Parallèlement à leur activité de travailleurs à la tâche, une partie des travailleurs de AMT s'organisent en dehors de la plateforme d'Amazon.

TurkOpticon, créé en 2010 par Lilly Irani et M. Six Silberman[24], est un outil collectif pour exprimer la voix des travailleurs de AMT, notamment en leur permettant d'évaluer les requesters. Les travailleurs investissent également certains forums pour échanger à propos de leurs expériences, s'organiser, se conseiller : Mturk Forum, Mturkgrind ou Turker Nation.

Anonymat ?

[modifier | modifier le code]

La main-d’œuvre en ligne d'Amazon Mechanical Turk (AMT) a été, dans un premier temps, jugée totalement anonyme par la plupart des observateurs, mais des chercheurs ont montré, en 2013, que le système d’AMT pouvait être utilisé pour mettre au jour de nombreuses informations sur une partie au moins des travailleurs d’AM, dont des identifications personnelles (PII), ce qui pourrait interroger certains travailleurs actuels ou potentiels, les commanditaires et d'autres entités, comme le comité d’examen institutionnel (IRB) de la recherche sur des sujets humains impliquant des travailleurs de l’AMT, à propos de la protection de la vie privée[25].

Controverses

[modifier | modifier le code]

Ces tâches (dont la plupart contiennent elles-mêmes plusieurs tâches, mais payées comme une seule) étant payées entre un et cinq centimes de dollars par HIT, certains observateurs (CNET, universitaires, etc.) affirment qu'il s'agit d'une forme de néo-colonialisme[26], voire d'esclavage moderne[27].

Notes et références

[modifier | modifier le code]
  1. « http://www.historyofinformation.com/detail.php?entryid=1458 »
  2. (en) « Amazon Mechanical Turk, FAQs », MTurk.com (consulté le )
  3. (en-US) Jeff Howe, « The Rise of Crowdsourcing », sur Wired, (consulté le ).
  4. a et b [PDF] Ce qu’Amazon Mechanical Turk fait à la recherche : l’exemple du Traitement Automatique des Langues - Karën Fort, Schplaf.org, .
  5. (en) Novotney, S. and Callison-Burch, C. (2010) « Cheap, fast and good enough : automatic speech recognition with non-expert transcription » In Proceedings of the Annual Conference of the North American Chapter of the Association for Computational Linguistics (NAACL), HLT’10", pages 207–215, Stroudsburg, PA, USA. Association for Computational Linguistics.
  6. (en) Gillick, D. and Liu, Y. (2010) « Non-expert evaluation of summarization systems is risky » In Proceedings of the NAACL HLT 2010 Workshop on Creating Speech and Language Data with Amazon’s Mechanical Turk, CSLDAMT ’10, pages 148–151, Stroudsburg, PA, USA. Association for Computational Linguistics.
  7. (en) Kochhar, S., Mazzocchi, S., and Paritosh, P. (2010) « The anatomy of a large-scale human computation engine » In Proceedings of Human Computation Workshop at the 16th ACM SIKDD Conference on Knowledge Discovery and Data Mining, KDD 2010, Washington D.C..
  8. « Sarah, « travailleuse du clic » : « La nuit, je remplis des demandes de devis qui me rapportent plusieurs euros d’un coup » », Le Monde,‎ (lire en ligne, consulté le ).
  9. Amazon Mechanical Turk : Structure et fonctionnement de la plateforme - Elinor Wahal, Slideshare.net, .
  10. (en) « Amazon Mechanical Turk, Worker Web Site FAQs », sur www.mturk.com (consulté le ).
  11. (en) Fort, K., Adda, G., and Cohen, K. B. (2011) « Amazon Mechanical Turk : Gold mine or coal mine? » Computational Linguistics (editorial), 37(2), pp. 413-420. .
  12. (en) J. Ross, L. Irani, M. S. Silberman, A. Zaldivar, et B. Tomlinson, « Who are the crowdworkers? : shifting demographics in mechanical turk », in Proceedings of the 28th of the international conference extended abstracts on Human factors in computing systems, CHI EA ’10, 2010, pp. 2863-2872, New York, NY, USA. ACM.
  13. (en) Gupta, N., Martin, D., Hanrahan, B. V., and O’Neill, J. (2014) « Turk-life in India » In Proceedings of the 18th International Conference on Supporting Group Work, GROUP ’14, pages 1–11, New York, NY, USA. ACM..
  14. (en) « FAQs | Help | Requester | Amazon Mechanical Turk », sur requester.mturk.com (consulté le ).
  15. Xavier de La Porte, « Ce que cache le Turc mécanique d'Amazon », Rue89, .
  16. (en) Emoji Dick
  17. Sophie Gourion, « « Sophie Gourion malhonnête » : quand une agence a décidé de pourrir mon e-réputation », Slate,
  18. (en) The Sheep Market
  19. (en) Daniel B. Shank, « Using Crowdsourcing Websites for Sociological Research: The Case of Amazon Mechanical Turk », The American Sociologist, vol. 47, no 1,‎ , p. 47–55 (ISSN 0003-1232 et 1936-4784, DOI 10.1007/s12108-015-9266-9, lire en ligne, consulté le ).
  20. (en) Michael Buhrmester, Tracy Kwang et Samuel D. Gosling, « Amazon's Mechanical Turk: A New Source of Inexpensive, Yet High-Quality, Data? », Perspectives on Psychological Science, vol. 6, no 1,‎ , p. 3–5 (ISSN 1745-6916 et 1745-6924, DOI 10.1177/1745691610393980, lire en ligne, consulté le ).
  21. (en) Adam J. Berinsky, Gregory A. Huber et Gabriel S. Lenz, « Evaluating Online Labor Markets for Experimental Research: Amazon.com's Mechanical Turk », Political Analysis, vol. 20, no 3,‎ , p. 351–368 (ISSN 1047-1987 et 1476-4989, DOI 10.1093/pan/mpr057, lire en ligne, consulté le ).
  22. (en) Daniel B. Shank, « Using Crowdsourcing Websites for Sociological Research: The Case of Amazon Mechanical Turk », The American Sociologist, vol. 47, no 1,‎ , p. 47–55 (ISSN 0003-1232 et 1936-4784, DOI 10.1007/s12108-015-9266-9, lire en ligne, consulté le ).
  23. (en) John Bohannon, « Mechanical Turk upends social sciences », Science, vol. 352, no 6291,‎ , p. 1263–1264 (ISSN 0036-8075 et 1095-9203, DOI 10.1126/science.352.6291.1263, lire en ligne, consulté le ).
  24. (en) L.C. Irani et M. Silberman, « Turkopticon: Interrupting worker invisibility in amazon mechanical turk », in Proceedings of the SIGCHI Conference on Human Factors in Computing systems, 2013 (pp. 611-620, ACM.
  25. (en) Matthew Lease, Jessica Hullman, Jeffrey P. Bigham et Michael S. Bernstein, « Mechanical Turk is Not Anonymous », SSRN Electronic Journal,‎ (ISSN 1556-5068, DOI 10.2139/ssrn.2228728, lire en ligne, consulté le ).
  26. Antonio Casilli et Thomas Baumgartner, « En attendant les robots », sur April, (consulté le ).
  27. Fabien Soyez, « Turc mécanique d’Amazon, comment les travailleurs du clic sont devenus esclaves de la machine », sur CNET France, (consulté le ).

Bibliographie

[modifier | modifier le code]
  • (en) Amazon Mechanical Turk : Requester UI Guide [lire en ligne] [PDF].

Liens externes

[modifier | modifier le code]