Les deux révisions précédentesRévision précédenteProchaine révision | Révision précédente |
1005-h2019:algorithme [2019/03/11 18:16] – [Volet 2 : Théorique] SALAC55 | 1005-h2019:algorithme [2019/03/11 18:58] (Version actuelle) – [Volet 3 : Enjeux] SALAC55 |
---|
Si n = 5 ou n > 5 | Si n = 5 ou n > 5 |
Ajouter 2 </code> | Ajouter 2 </code> |
Avec ces instructions simples, le programmeur serait en mesure d'implanter cette petite partie de code dans le langage approprié à la tâche. En d'autres mots, cela veut dire que tant qu'une variable //n// vaut moins que 5, on ajoute 1 au résultat, mais dès que sa valeur atteint 5, on ajoute 2 à la place. | Avec ces instructions simples, le programmeur serait en mesure d'implanter cette petite partie de code dans le langage approprié à la tâche. En d'autres mots, cela veut dire que tant qu'une variable //n// vaut moins que 5, on ajoute 1 au résultat, mais dès que sa valeur atteint 5, on ajoute 2 à la place. Il y a également l’**intelligence artificielle** qui a été créée afin de reproduire et d’améliorer la capacité de raisonnement de l’être humain à l’aide d’algorithmes. Une des avancées de cette branche algorithmique est la capacité des programmes à se modifier eux-mêmes selon des essais-erreurs. Un phénomène représentant bien ce concept est le programme qui permet de générer des visages humains qui n’existent pas ((Tristin HOPPER « This creepy AI website automatically generates human faces – that look real », dans National Post, NATIONAL POST [en ligne]. https://nationalpost.com/news/world/ai-website-this-person-does-not-exist-automatically-generates-fake-human-faces [Texte consulté le 9 mars 2019].)). |
| |
Il y a également l’**intelligence artificielle** qui a été créée afin de reproduire et d’améliorer la capacité de raisonnement de l’être humain à l’aide d’algorithmes. Une des avancées de cette branche algorithmique est la capacité des programmes à se modifier eux-mêmes selon des essais-erreurs. Un phénomène représentant bien ce concept est le programme qui permet de générer des visages humains qui n’existent pas ((Tristin HOPPER « This creepy AI website automatically generates human faces – that look real », dans National Post, NATIONAL POST [en ligne]. https://nationalpost.com/news/world/ai-website-this-person-does-not-exist-automatically-generates-fake-human-faces [Texte consulté le 9 mars 2019].)). | |
| |
==== Volet 3 : Enjeux ==== | ==== Volet 3 : Enjeux ==== |
| |
L'utilisation de l'algorithme par le numérique soulève plusieurs enjeux éthiques. Dans ce volet, il semble plus intéressant de se concentrer sur deux de ces problématiques : une perte de la diversité culturelle et un emprisonnement de l'usager dans une communauté de pensée unique((Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans //Documentation et bibliothèques//, 2015, vol. 61, no 1, p. 19.)). Certains voient l’algorithme, spécifiquement l’algorithme de recommandation, comme une atteinte à la diversité culturelle, c’est-à-dire « l’accès et […] la possibilité de découvrir une pluralité de titres, par opposition à une production hégémonique »((Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans //Documentation et bibliothèques//, 2015, vol. 61, no 1, p. 19.)). Il faut se rappeler que l’objectif premier de l’algorithme est de proposer un contenu le plus pertinent possible pour satisfaire les requêtes de l’usager. Cette conception suggère du même coup une généralisation de réponses systématiques, qui peuvent confondre la pertinence avec la popularité. D’autres voient l’algorithme comme un cloisonnement de l’individu dans ses propres idées. L’usager n’a pas tendance à rechercher du contenu qui le confronte mais, au contraire, qui le rassure dans ses opinions. L’algorithme a recours aux données de l’usager pour personnaliser le contenu qui lui est suggéré, ce qui « participe à la formation d’une identité algorithmique »((Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans //Documentation et bibliothèques//, 2015, vol. 61, no 1, p. 19.)) partagée à l’intérieur d’une même communauté. Ce processus emprisonne l’usager dans un cercle numérique d'individus qui partagent sa vision. L'algorithme porte ainsi atteinte à l'évolution individuelle, car l'usager ne peut rien découvrir de nouveau dans ce qui lui est proposé. | L'utilisation de l'algorithme par le numérique soulève plusieurs enjeux éthiques dont une perte de la diversité culturelle, un emprisonnement de l'usager dans une communauté de pensée unique((Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans //Documentation et bibliothèques//, 2015, vol. 61, no 1, p. 19.)) et une discrimination du contenu sélectionné. Certains voient l’algorithme, spécifiquement l’algorithme de recommandation, comme une atteinte à la diversité culturelle, c’est-à-dire à « l’accès et […] la possibilité de découvrir une pluralité de titres, par opposition à une production hégémonique »((Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans //Documentation et bibliothèques//, 2015, vol. 61, no 1, p. 19.)). Il faut se rappeler que l’objectif premier de l’algorithme est de proposer un contenu qui est le plus pertinent possible face aux requêtes de l’usager. Cette conception suggère du coup une généralisation de réponses systématiques, qui peuvent confondre la pertinence avec la popularité. |
| |
| D’autres voient l’algorithme comme un cloisonnement de l’individu dans ses propres idées. Lorsqu'il survole le Web, l’usager n’a pas tendance à rechercher du contenu qui le confronte mais, au contraire, qui le rassure dans ses idées et ses valeurs. L’algorithme a recours à ses données pour personnaliser le contenu qui lui est suggéré, ce qui « participe à la formation d’une identité algorithmique »((Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans //Documentation et bibliothèques//, 2015, vol. 61, no 1, p. 19.)) partagée à l’intérieur d’une même communauté. Ce processus emprisonne l’usager dans un cercle numérique d'individus qui partagent sa vision. L'algorithme porte ainsi atteinte à l'évolution individuelle, car l'usager ne peut rien découvrir de nouveau dans ce qui lui est proposé. |
| |
| Dans les dernières années, Youtube, un site populaire de partage de vidéos, a fait face à une controverse de discrimination en lien avec son contenu. La plateforme a beaucoup de succès et plusieurs de ses utilisateurs sont désormais capables de vivre des revenus générés par les publicités placées dans les vidéos. Or, il est arrivé que les algorithmes « discriminent » certains contenus. Durant le printemps 2017, une pléthore de compagnies retirèrent leurs annonces publicitaires du site suite au constat que certaines vidéos aux idéologies extrémistes étaient sponsorisées. Youtube est la source principale de revenus pour plusieurs de ces créateurs qui virent leurs chiffres de visionnement baisser considérablement à partir de ce moment. Seules les vidéos « familiales » pouvaient espérer être monétarisées ou même être suggérées par l'algorithme de recommandation. Ce phénomène reçut le nom d'« adpocalypse ». En février 2019, Youtube a fait face à un deuxième « adpocalypse » ((Rachel Dunphy, « Can Youtube Survive The Adpocalypse ? » dans The New York Times, The New York Times, [en ligne]. http://nymag.com/intelligencer/2017/12/can-youtube-survive-the-adpocalypse.html [Texte consulté le 5 mars 2019].)) suite à des conditions similaires. L'une des conséquences de ces évènements a été l'homogénéisation du contenu principal sur Youtube, car de nombreux plus petits créateurs n'ont pas réussi à s'en remettre et ceux qui réussirent à le faire s'en sont sortis grâce à des moyens trompeurs (les //clickbaits//, le faux contenu destiné à des enfants, etc.) Amazon a également fait face à une controverse de discrimination, mais cette fois-ci en lien avec un algorithme qui aidait à la sélection de futurs employés. En analysant les individus déjà embauchés, certains ont réalisé que l'algorithme ne considérait pas les femmes comme des candidates potentielles à cause de leur sous-représentation dans la compagnie, soit parce qu'elles ne rentraient pas dans le moule de l'employé moyen((Jeffrey Dastin, « Amazon scraps secret AI recruiting tool that showed bias against women », dans Business News, Reuters, [en ligne]. https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G [Texte consulté le 5 mars 2019].)). |
| |
Youtube est un site de partage de vidéos. La plateforme a eu beaucoup de succès et beaucoup de ses utilisateurs sont capables de vivre des revenus générés par les publicités que le site place dans les vidéos. Or, il arrive que les algorithmes « discriminent » certains contenus. Durant le printemps 2017, une pléthore de compagnies retirèrent leurs annonces publicitaires du site suite au constat que certaines vidéos aux idéologies extrémistes étaient sponsorisées. Youtube est la source principal de revenus pour plusieurs de ces créateurs qui virent leurs chiffres de visionnement baisser considérablement à partir de ce moment-là. Seuls les vidéos « familials » pouvaient espérer être monétarisés ou même être recommandés par l'algorithme de suggestion.Ce phénomène reçut le nom d'**adpocalypse**. En février 2019 débuta un deuxième adpocalypse ((Rachel Dunphy, « Can Youtube Survive The Adpocalypse ? » dans The New York Times, The New York Times, [en ligne]. http://nymag.com/intelligencer/2017/12/can-youtube-survive-the-adpocalypse.html [Texte consulté le 5 mars 2019].)) suite à des conditions similaires. Des milliers de personnes ont perdu de l'argent et l'une des conséquences est l'homogénéisation du contenu principal de Youtube, puisque beaucoup de petits créateurs n'ont jamais réussi à se relever de ce désastre et ceux qui réussirent à le faire réussir grâce à des moyens trompeurs (//clickbaits//, faux contenu destiné à des enfants, etc.). On peut aussi y voir le caractère discriminatoire que certains algorithmes conçus font preuve. Nombreuses furent les critiques décriant ce problème. Amazon a déjà conçu un algorithme censé aider à sélectionner leurs futurs employés. Or, cet outil, analysant les personnes employées à ce moment-là, ne jugeait pas les femmes comme étant des bons candidats puisqu'elles étaient sous-représentées dans la compagnie, c'est-à-dire qu'elles ne rentraient pas dans le moule de leur employé moyen((Jeffrey Dastin, « Amazon scraps secret AI recruiting tool that showed bias against women », dans Business News, Reuters, [en ligne]. https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G [Texte consulté le 5 mars 2019].)). | |
---- | ---- |
===== Notions corrélées ===== | ===== Notions corrélées ===== |
| |
{{https://cdn-images-1.medium.com/max/800/1*isog1aFHzuNk-i21Mc99NA.png?325 |}} | {{https://cdn-images-1.medium.com/max/800/1*isog1aFHzuNk-i21Mc99NA.png?325 |}} |
À l'ère du numérique, certaines compagnies utilisent l'algorithme comme système de recommandation pour leurs produits. Netflix, le fameux site de visionnement de films et de téléséries en ligne, offre une section intitulée « Meilleurs choix pour vous » ou encore « Si vous avez visionné ce film » qui présente à l'usager une sélection de titres qui lui sont suggérés en fonction des titres qu'il a précédemment regardés. L'algorithme fonctionne comme une machine d'apprentissage. Si le petit frère écoute plusieurs épisodes de la Pat Patrouille sur son compte, à sa prochaine visite, les sections de recommandation vont s'être ajustées en conséquence. Plus l'usager utilise le site, plus les recommandations sont précises. Les propositions d'un usager s'ajuste aussi en fonction des préférences de d'autres usagers qui ont des goûts semblables. Netflix utilise l'algorithme pour choisir les « couvertures artistiques » des titres présentés à l'usager. Le site crée différentes affiches d'un même film ou d'une même télésérie en présentant le titre à l'usager avec celle qui risque d'attirer son attention davantage((Josefina Blattman, « Netflix : Binging on the Algorithm » dans UX Planet, UX Planet, One-stop resource for everything related to user experience, [en ligne]. https://uxplanet.org/netflix-binging-on-the-algorithm-a3a74a6c1f59 [Texte consulté le 5 mars 2019])). Plusieurs variantes sont ainsi prises en compte dans le calcul d'un algorithme de recommandation, comme c'est le cas sur Netflix. | À l'ère du numérique, certaines compagnies utilisent l'algorithme comme système de recommandation pour leurs produits. Netflix, le fameux site de visionnement de films et de téléséries en ligne, offre quelques sections intitulées « Meilleurs choix pour vous », ou encore « Si vous avez visionné ce film », qui présentent à l'usager une sélection de titres qui lui sont suggérés en fonction des titres qu'il a précédemment regardés. L'algorithme fonctionne comme une machine d'apprentissage. Si le petit frère écoute plusieurs épisodes de la Pat Patrouille sur son compte, à sa prochaine visite, les sections de recommandation vont s'être ajustées en conséquence. Plus l'usager utilise le site, plus les recommandations sont précises. Les propositions d'un usager s'ajuste aussi en fonction des préférences de d'autres usagers qui ont des goûts semblables. Netflix utilise également un algorithme pour choisir les « couvertures artistiques » des titres qui sont présentés à l'usager. Le site crée différentes affiches d'un même film ou d'une même télésérie en le présentant à l'usager avec celle qui risque d'attirer son attention le plus((Josefina Blattman, « Netflix : Binging on the Algorithm » dans UX Planet, UX Planet, One-stop resource for everything related to user experience, [en ligne]. https://uxplanet.org/netflix-binging-on-the-algorithm-a3a74a6c1f59 [Texte consulté le 5 mars 2019])). |
| |
==== Le projet OMCS ==== | ==== Le projet OMCS ==== |
| |
Open Mind Common Sense (OMCS) est un projet d'intelligence artificielle qui utilise l'algorithme pour créer une base de connaissances qui serait considérée commune à tout humain. Dans ce cas-ci, l'algorithme permet d'identifier les suppositions naturelles, le « sens commun », du langage humain pour ensuite les apprendre aux ordinateurs. L'objectif est d'atteindre une intelligence artificielle qui comprend mieux et interagit de plus en plus naturellement avec l'humain. | Open Mind Common Sense (OMCS) est un projet d'intelligence artificielle qui utilise un algorithme pour créer une base de connaissances qui serait considérée commune à tout humain. Dans ce cas-ci, cet algorithme permet d'identifier les suppositions naturelles, le « sens commun » du langage humain, pour ensuite les apprendre aux ordinateurs. L'objectif est d'atteindre une intelligence artificielle qui comprend mieux et interagit de plus en plus naturellement avec l'humain. |
| |
==== La médiation en ligne du livre ==== | ==== La médiation en ligne du livre ==== |
| |
En littérature, à l'ère du numérique, l'algorithme permet à l'usager de trouver un titre à l'aide de deux ou trois mots-clés tapés dans l'outil de recherche et/ou par « la sélection ou déselection d'une catégorie dans un index de furetage »(() Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans Documentation et bibliothèques, 2015, vol. 61, no 1, p. 18.)). La recommandation d'un titre dépend de sa popularité et de la quantité de contenus qui y est relié suivant l'exemple de PageRank de Google. Il fait preuve d'une hiérarchisation du contenu en se basant sur la pertinence alors que d'autres sites du Web utilisent plutôt un algorithme en se basant sur les similarités entre les lectures. | En littérature, à l'ère du numérique, un algorithme permet à l'usager de trouver un titre à l'aide de deux ou trois mots-clés tapés dans l'outil de recherche et/ou par « la sélection ou déselection d'une catégorie dans un index de furetage »((Stéphane Labbé, « La médiation du livre à l'ère du numérique: l'enjeu des algorithmes de recommandation », dans Documentation et bibliothèques, 2015, vol. 61, no 1, p. 18.)). La recommandation d'un titre dépend de sa popularité et de la quantité de contenus qui y est reliée, et ce suivant le modèle de PageRank de Google. Certains sites du Web littéraire utilisent un algorithme qui fonctionne selon une hiérarchisation du contenu en se basant sur la pertinence alors que d'autres se servent plutôt d'un algorithme qui travaille selon les similarités entre les lectures. |
| |
---- | ---- |