Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente |
1005-h2019:algorithme [2019/03/11 18:44] – [L'algorithme de recommandation sur Netflix] SALAC55 | 1005-h2019:algorithme [2019/03/11 18:58] (Version actuelle) – [Volet 3 : Enjeux] SALAC55 |
---|
==== Volet 3 : Enjeux ==== | ==== Volet 3 : Enjeux ==== |
| |
L'utilisation de l'algorithme par le numérique soulève plusieurs enjeux éthiques dont une perte de la diversité culturelle et un emprisonnement de l'usager dans une communauté de pensée unique((Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans //Documentation et bibliothèques//, 2015, vol. 61, no 1, p. 19.)). Certains voient l’algorithme, spécifiquement l’algorithme de recommandation, comme une atteinte à la diversité culturelle, c’est-à-dire à « l’accès et […] la possibilité de découvrir une pluralité de titres, par opposition à une production hégémonique »((Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans //Documentation et bibliothèques//, 2015, vol. 61, no 1, p. 19.)). Il faut se rappeler que l’objectif premier de l’algorithme est de proposer un contenu qui est le plus pertinent possible face aux requêtes de l’usager. Cette conception suggère du coup une généralisation de réponses systématiques, qui peuvent confondre la pertinence avec la popularité. | L'utilisation de l'algorithme par le numérique soulève plusieurs enjeux éthiques dont une perte de la diversité culturelle, un emprisonnement de l'usager dans une communauté de pensée unique((Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans //Documentation et bibliothèques//, 2015, vol. 61, no 1, p. 19.)) et une discrimination du contenu sélectionné. Certains voient l’algorithme, spécifiquement l’algorithme de recommandation, comme une atteinte à la diversité culturelle, c’est-à-dire à « l’accès et […] la possibilité de découvrir une pluralité de titres, par opposition à une production hégémonique »((Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans //Documentation et bibliothèques//, 2015, vol. 61, no 1, p. 19.)). Il faut se rappeler que l’objectif premier de l’algorithme est de proposer un contenu qui est le plus pertinent possible face aux requêtes de l’usager. Cette conception suggère du coup une généralisation de réponses systématiques, qui peuvent confondre la pertinence avec la popularité. |
| |
D’autres voient l’algorithme comme un cloisonnement de l’individu dans ses propres idées. Lorsqu'il survole le Web, l’usager n’a pas tendance à rechercher du contenu qui le confronte mais, au contraire, qui le rassure dans ses idées et ses valeurs. L’algorithme a recours à ses données pour personnaliser le contenu qui lui est suggéré, ce qui « participe à la formation d’une identité algorithmique »((Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans //Documentation et bibliothèques//, 2015, vol. 61, no 1, p. 19.)) partagée à l’intérieur d’une même communauté. Ce processus emprisonne l’usager dans un cercle numérique d'individus qui partagent sa vision. L'algorithme porte ainsi atteinte à l'évolution individuelle, car l'usager ne peut rien découvrir de nouveau dans ce qui lui est proposé. | D’autres voient l’algorithme comme un cloisonnement de l’individu dans ses propres idées. Lorsqu'il survole le Web, l’usager n’a pas tendance à rechercher du contenu qui le confronte mais, au contraire, qui le rassure dans ses idées et ses valeurs. L’algorithme a recours à ses données pour personnaliser le contenu qui lui est suggéré, ce qui « participe à la formation d’une identité algorithmique »((Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans //Documentation et bibliothèques//, 2015, vol. 61, no 1, p. 19.)) partagée à l’intérieur d’une même communauté. Ce processus emprisonne l’usager dans un cercle numérique d'individus qui partagent sa vision. L'algorithme porte ainsi atteinte à l'évolution individuelle, car l'usager ne peut rien découvrir de nouveau dans ce qui lui est proposé. |
| |
Dans les dernières années, Youtube, un site populaire de partage de vidéos, a fait face à une controverse en lien avec l'algorithme. La plateforme a beaucoup de succès et plusieurs de ses utilisateurs sont désormais capables de vivre des revenus générés par les publicités placées dans les vidéos. Or, il est arrivé que les algorithmes « discriminent » certains contenus. Durant le printemps 2017, une pléthore de compagnies retirèrent leurs annonces publicitaires du site suite au constat que certaines vidéos aux idéologies extrémistes étaient sponsorisées. Youtube est la source principale de revenus pour plusieurs de ces créateurs qui virent leurs chiffres de visionnement baisser considérablement à partir de ce moment. Seules les vidéos « familiales » pouvaient espérer être monétarisées ou même être suggérées par l'algorithme de recommandation. Ce phénomène reçut le nom d'« adpocalypse ». En février 2019, Youtube a fait face à un deuxième « adpocalypse » ((Rachel Dunphy, « Can Youtube Survive The Adpocalypse ? » dans The New York Times, The New York Times, [en ligne]. http://nymag.com/intelligencer/2017/12/can-youtube-survive-the-adpocalypse.html [Texte consulté le 5 mars 2019].)) suite à des conditions similaires. L'une des conséquences de ces évènements a été l'homogénéisation du contenu principal sur Youtube, car de nombreux plus petits créateurs n'ont pas réussi à s'en remettre et ceux qui réussirent à le faire s'en sont sortis grâce à des moyens trompeurs (les //clickbaits//, le faux contenu destiné à des enfants, etc.) | Dans les dernières années, Youtube, un site populaire de partage de vidéos, a fait face à une controverse de discrimination en lien avec son contenu. La plateforme a beaucoup de succès et plusieurs de ses utilisateurs sont désormais capables de vivre des revenus générés par les publicités placées dans les vidéos. Or, il est arrivé que les algorithmes « discriminent » certains contenus. Durant le printemps 2017, une pléthore de compagnies retirèrent leurs annonces publicitaires du site suite au constat que certaines vidéos aux idéologies extrémistes étaient sponsorisées. Youtube est la source principale de revenus pour plusieurs de ces créateurs qui virent leurs chiffres de visionnement baisser considérablement à partir de ce moment. Seules les vidéos « familiales » pouvaient espérer être monétarisées ou même être suggérées par l'algorithme de recommandation. Ce phénomène reçut le nom d'« adpocalypse ». En février 2019, Youtube a fait face à un deuxième « adpocalypse » ((Rachel Dunphy, « Can Youtube Survive The Adpocalypse ? » dans The New York Times, The New York Times, [en ligne]. http://nymag.com/intelligencer/2017/12/can-youtube-survive-the-adpocalypse.html [Texte consulté le 5 mars 2019].)) suite à des conditions similaires. L'une des conséquences de ces évènements a été l'homogénéisation du contenu principal sur Youtube, car de nombreux plus petits créateurs n'ont pas réussi à s'en remettre et ceux qui réussirent à le faire s'en sont sortis grâce à des moyens trompeurs (les //clickbaits//, le faux contenu destiné à des enfants, etc.) Amazon a également fait face à une controverse de discrimination, mais cette fois-ci en lien avec un algorithme qui aidait à la sélection de futurs employés. En analysant les individus déjà embauchés, certains ont réalisé que l'algorithme ne considérait pas les femmes comme des candidates potentielles à cause de leur sous-représentation dans la compagnie, soit parce qu'elles ne rentraient pas dans le moule de l'employé moyen((Jeffrey Dastin, « Amazon scraps secret AI recruiting tool that showed bias against women », dans Business News, Reuters, [en ligne]. https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G [Texte consulté le 5 mars 2019].)). |
| |
On peut aussi noter le caractère discriminatoire dont certains algorithmes font preuve. Amazon, par exemple, a conçu un algorithme participant à sélectionner de futurs employés. Or, en analysant les individus déjà embauchés, certains ont réalisé que l'algorithme ne considérait pas les femmes comme des candidates potentielles à cause de leur sous-représentation dans la compagnie, soit parce qu'elles ne rentraient pas dans le moule de l'employé moyen((Jeffrey Dastin, « Amazon scraps secret AI recruiting tool that showed bias against women », dans Business News, Reuters, [en ligne]. https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G [Texte consulté le 5 mars 2019].)). | |
| |
---- | ---- |
==== Le projet OMCS ==== | ==== Le projet OMCS ==== |
| |
Open Mind Common Sense (OMCS) est un projet d'intelligence artificielle qui utilise l'algorithme pour créer une base de connaissances qui serait considérée commune à tout humain. Dans ce cas-ci, l'algorithme permet d'identifier les suppositions naturelles, le « sens commun », du langage humain pour ensuite les apprendre aux ordinateurs. L'objectif est d'atteindre une intelligence artificielle qui comprend mieux et interagit de plus en plus naturellement avec l'humain. | Open Mind Common Sense (OMCS) est un projet d'intelligence artificielle qui utilise un algorithme pour créer une base de connaissances qui serait considérée commune à tout humain. Dans ce cas-ci, cet algorithme permet d'identifier les suppositions naturelles, le « sens commun » du langage humain, pour ensuite les apprendre aux ordinateurs. L'objectif est d'atteindre une intelligence artificielle qui comprend mieux et interagit de plus en plus naturellement avec l'humain. |
| |
==== La médiation en ligne du livre ==== | ==== La médiation en ligne du livre ==== |
| |
En littérature, à l'ère du numérique, l'algorithme permet à l'usager de trouver un titre à l'aide de deux ou trois mots-clés tapés dans l'outil de recherche et/ou par « la sélection ou déselection d'une catégorie dans un index de furetage »(() Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans Documentation et bibliothèques, 2015, vol. 61, no 1, p. 18.)). La recommandation d'un titre dépend de sa popularité et de la quantité de contenus qui y est relié suivant l'exemple de PageRank de Google. Il fait preuve d'une hiérarchisation du contenu en se basant sur la pertinence alors que d'autres sites du Web utilisent plutôt un algorithme en se basant sur les similarités entre les lectures. | En littérature, à l'ère du numérique, un algorithme permet à l'usager de trouver un titre à l'aide de deux ou trois mots-clés tapés dans l'outil de recherche et/ou par « la sélection ou déselection d'une catégorie dans un index de furetage »((Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans Documentation et bibliothèques, 2015, vol. 61, no 1, p. 18.)). La recommandation d'un titre dépend de sa popularité et de la quantité de contenus qui y est reliée, et ce suivant le modèle de PageRank de Google. Certains sites du Web littéraire utilisent un algorithme qui fonctionne selon une hiérarchisation du contenu en se basant sur la pertinence alors que d'autres se servent plutôt d'un algorithme qui travaille selon les similarités entre les lectures. |
| |
---- | ---- |