Outils pour utilisateurs

Outils du site


1005-h2019:algorithme

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentesRévision précédente
1005-h2019:algorithme [2019/03/11 18:51] – [La médiation en ligne du livre] SALAC551005-h2019:algorithme [2019/03/11 18:58] (Version actuelle) – [Volet 3 : Enjeux] SALAC55
Ligne 28: Ligne 28:
 ==== Volet 3 : Enjeux ==== ==== Volet 3 : Enjeux ====
  
-L'utilisation de l'algorithme par le numérique soulève plusieurs enjeux éthiques dont une perte de la diversité culturelle et un emprisonnement de l'usager dans une communauté de pensée unique((Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans //Documentation et bibliothèques//, 2015, vol. 61, no 1, p. 19.)). Certains voient l’algorithme, spécifiquement l’algorithme de recommandation, comme une atteinte à la diversité culturelle, c’est-à-dire à « l’accès et […] la possibilité de découvrir une pluralité de titres, par opposition à une production hégémonique »((Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans //Documentation et bibliothèques//, 2015, vol. 61, no 1, p. 19.)). Il faut se rappeler que l’objectif premier de l’algorithme est de proposer un contenu qui est le plus pertinent possible face aux requêtes de l’usager. Cette conception suggère du coup une généralisation de réponses systématiques, qui peuvent confondre la pertinence avec la popularité. +L'utilisation de l'algorithme par le numérique soulève plusieurs enjeux éthiques dont une perte de la diversité culturelleun emprisonnement de l'usager dans une communauté de pensée unique((Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans //Documentation et bibliothèques//, 2015, vol. 61, no 1, p. 19.)) et une discrimination du contenu sélectionné. Certains voient l’algorithme, spécifiquement l’algorithme de recommandation, comme une atteinte à la diversité culturelle, c’est-à-dire à « l’accès et […] la possibilité de découvrir une pluralité de titres, par opposition à une production hégémonique »((Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans //Documentation et bibliothèques//, 2015, vol. 61, no 1, p. 19.)). Il faut se rappeler que l’objectif premier de l’algorithme est de proposer un contenu qui est le plus pertinent possible face aux requêtes de l’usager. Cette conception suggère du coup une généralisation de réponses systématiques, qui peuvent confondre la pertinence avec la popularité. 
  
 D’autres voient l’algorithme comme un cloisonnement de l’individu dans ses propres idées. Lorsqu'il survole le Web, l’usager n’a pas tendance à rechercher du contenu qui le confronte mais, au contraire, qui le rassure dans ses idées et ses valeurs. L’algorithme a recours à ses données pour personnaliser le contenu qui lui est suggéré, ce qui « participe à la formation d’une identité algorithmique »((Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans //Documentation et bibliothèques//, 2015, vol. 61, no 1, p. 19.)) partagée à l’intérieur d’une même communauté. Ce processus emprisonne l’usager dans un cercle numérique d'individus qui partagent sa vision. L'algorithme porte ainsi atteinte à l'évolution individuelle, car l'usager ne peut rien découvrir de nouveau dans ce qui lui est proposé. D’autres voient l’algorithme comme un cloisonnement de l’individu dans ses propres idées. Lorsqu'il survole le Web, l’usager n’a pas tendance à rechercher du contenu qui le confronte mais, au contraire, qui le rassure dans ses idées et ses valeurs. L’algorithme a recours à ses données pour personnaliser le contenu qui lui est suggéré, ce qui « participe à la formation d’une identité algorithmique »((Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans //Documentation et bibliothèques//, 2015, vol. 61, no 1, p. 19.)) partagée à l’intérieur d’une même communauté. Ce processus emprisonne l’usager dans un cercle numérique d'individus qui partagent sa vision. L'algorithme porte ainsi atteinte à l'évolution individuelle, car l'usager ne peut rien découvrir de nouveau dans ce qui lui est proposé.
  
-Dans les dernières années, Youtube, un site populaire de partage de vidéos, a fait face à une controverse en lien avec l'algorithme. La plateforme a beaucoup de succès et plusieurs de ses utilisateurs sont désormais capables de vivre des revenus générés par les publicités placées dans les vidéos. Or, il est arrivé que les algorithmes « discriminent » certains contenus. Durant le printemps 2017, une pléthore de compagnies retirèrent leurs annonces publicitaires du site suite au constat que certaines vidéos aux idéologies extrémistes étaient sponsorisées. Youtube est la source principale de revenus pour plusieurs de ces créateurs qui virent leurs chiffres de visionnement baisser considérablement à partir de ce moment. Seules les vidéos « familiales » pouvaient espérer être monétarisées ou même être suggérées par l'algorithme de recommandation. Ce phénomène reçut le nom d'« adpocalypse ». En février 2019, Youtube a fait face à un deuxième « adpocalypse » ((Rachel Dunphy, « Can Youtube Survive The Adpocalypse ? » dans The New York Times, The New York Times, [en ligne]. http://nymag.com/intelligencer/2017/12/can-youtube-survive-the-adpocalypse.html [Texte consulté le 5 mars 2019].)) suite à des conditions similaires. L'une des conséquences de ces évènements a été l'homogénéisation du contenu principal sur Youtube, car de nombreux plus petits créateurs n'ont pas réussi à s'en remettre et ceux qui réussirent à le faire s'en sont sortis grâce à des moyens trompeurs (les //clickbaits//, le faux contenu destiné à des enfants, etc.)  +Dans les dernières années, Youtube, un site populaire de partage de vidéos, a fait face à une controverse de discrimination en lien avec son contenu. La plateforme a beaucoup de succès et plusieurs de ses utilisateurs sont désormais capables de vivre des revenus générés par les publicités placées dans les vidéos. Or, il est arrivé que les algorithmes « discriminent » certains contenus. Durant le printemps 2017, une pléthore de compagnies retirèrent leurs annonces publicitaires du site suite au constat que certaines vidéos aux idéologies extrémistes étaient sponsorisées. Youtube est la source principale de revenus pour plusieurs de ces créateurs qui virent leurs chiffres de visionnement baisser considérablement à partir de ce moment. Seules les vidéos « familiales » pouvaient espérer être monétarisées ou même être suggérées par l'algorithme de recommandation. Ce phénomène reçut le nom d'« adpocalypse ». En février 2019, Youtube a fait face à un deuxième « adpocalypse » ((Rachel Dunphy, « Can Youtube Survive The Adpocalypse ? » dans The New York Times, The New York Times, [en ligne]. http://nymag.com/intelligencer/2017/12/can-youtube-survive-the-adpocalypse.html [Texte consulté le 5 mars 2019].)) suite à des conditions similaires. L'une des conséquences de ces évènements a été l'homogénéisation du contenu principal sur Youtube, car de nombreux plus petits créateurs n'ont pas réussi à s'en remettre et ceux qui réussirent à le faire s'en sont sortis grâce à des moyens trompeurs (les //clickbaits//, le faux contenu destiné à des enfants, etc.) Amazon a également fait face à une controverse de discrimination, mais cette fois-ci en lien avec un algorithme qui aidait à la sélection de futurs employés. En analysant les individus déjà embauchés, certains ont réalisé que l'algorithme ne considérait pas les femmes comme des candidates potentielles à cause de leur sous-représentation dans la compagnie, soit parce qu'elles ne rentraient pas dans le moule de l'employé moyen((Jeffrey Dastin, « Amazon scraps secret AI recruiting tool that showed bias against women », dans Business News, Reuters, [en ligne]. https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G [Texte consulté le 5 mars 2019].)). 
- +
-On peut aussi noter le caractère discriminatoire dont certains algorithmes font preuve. Amazon, par exemple, conçu un algorithme participant à sélectionner de futurs employés. Or, en analysant les individus déjà embauchés, certains ont réalisé que l'algorithme ne considérait pas les femmes comme des candidates potentielles à cause de leur sous-représentation dans la compagnie, soit parce qu'elles ne rentraient pas dans le moule de l'employé moyen((Jeffrey Dastin, « Amazon scraps secret AI recruiting tool that showed bias against women », dans Business News, Reuters, [en ligne]. https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G [Texte consulté le 5 mars 2019].)). +
  
 ---- ----
1005-h2019/algorithme.1552344676.txt.gz · Dernière modification : 2019/03/11 18:51 de SALAC55

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki