Instagram accusé d’encourager la nudité

Instagram privilégierait-il un certain canon de beauté et la peau nue? Une étude a soulevé la question en se basant sur l’analyse des photos apparaissant dans le fil d’utilisateurs volontaires, tandis que des influenceuses censurées se plaignent des «erreurs» de l’algorithme. Pour avoir du succès sur Instagram, rien ne vaudrait une pose lascive en maillot de bain, si l’on en croit la banalité de ces images dès l’ouverture de l’application.

La star de télé-réalité américaine Kylie Jenner semble avoir appliqué récemment ce précepte en postant une photo en bikini pour appeler ses 197 millions d’abonnés à s’enregistrer sur les listes électorales avant la prochaine élection présidentielle aux États-Unis.

Cette démarche est-elle encouragée par l’algorithme du réseau social, la formule secrète qui régit les contenus sur la plateforme? Selon une enquête de l’organisation AlgorithmWatch parue en juin, la réponse est oui. «Nos résultats permettent d’affirmer qu’une photo de femme en sous-vêtements ou maillot de bain est montrée 1,6 fois plus qu’une photo d’elle habillée. Pour un homme, ce taux est de 1,3», ont affirmé sur Mediapart deux auteurs de l’étude, Nicolas Kayser-Bril et Judith Duportail.

 

Pour obtenir ce résultat, ils ont analysé les 1737 «posts» issus de 37 comptes Instagram, suivis par 26 volontaires qui avaient installé une extension de navigateur pour compter le nombre d’apparition de chaque image.

Instagram, qui s’apprête à fêter ses dix ans, a cessé en 2016 de présenter les photos par ordre chronologique. C’est un algorithme qui les sélectionne pour correspondre aux préférences de chaque utilisateur, selon des paramètres qui restent flous.

D’après les auteurs de l’étude, il pourrait notamment s’appuyer sur un «niveau de nudité» calculé lorsque l’image est publiée sur le réseau. Ils citent un brevet déposé en 2011 par Facebook (qui a racheté Instagram l’année suivante), protégeant un système pour identifier la peau via des bandes de couleurs spécifiques.

 

Cette étude est «complètement biaisée», a rétorqué une porte-parole d’Instagram interrogée par l’AFP. «L’algorithme regarde le temps passé sur certains types de contenus, les interactions, et affiche en priorité» les contenus qui plaisent à chaque abonné, mais «il n’y a pas de brevet qui mette en avant la nudité, ça n’a pas de sens».

La sensation d’être confronté à des images similaires, en l’espèce des photos dénudées, viendrait donc des habitudes de l’utilisateur, qui pourrait s’en extraire en faisant «un petit pas (de côté), pour aller rechercher d’autres types d’images», fait valoir la porte-parole.

Plus d'articles
Algérie : descente aux enfers de Bouteflika