• Spirale dépressive et contenus suicidaires : enquête sur la face obscure de TikTok

Spirale dépressive et contenus suicidaires : enquête sur la face obscure de TikTok


Image de couverture Spirale dépressive et contenus suicidaires : enquête sur la face obscure de TikTok

Multi-supports

Uniquement via abonnement

S'abonner !

Partager sur

DATE :

15 avril 2024

DURÉE :

11 minutes
CONTENU ABONNÉS

Spirale dépressive et contenus suicidaires : enquête sur la face obscure de TikTok

Résumé :

En quelques années, TikTok s'est imposé comme LE réseau social le plus populaire chez les jeunes. Mais derrière cette ascension fulgurante, de plus en plus de personnes alertent sur ses dangers potentiels pour les jeunes utilisateurs.

Récemment, en France, des parents réunis sous le collectif fondé par l’avocate Maître Boutron-Marmion "Algos Victima" ont annoncé vouloir porter plainte contre TikTok après le suicide de leur enfant. Ils accusent le géant chinois d'être en partie responsable de leur mort en promouvant, via ses algorithmes, des contenus nocifs, faisant par exemple la promotion de l'automutilation ou du suicide. 

Pour Vakita, l'une des mères de ce collectif, Stéphanie Mistre, lance l'alerte et appelle les pouvoirs publics à agir pour protéger les plus jeunes. Elle dénonce une modération défaillainte qui enfermerait de jeunes utilisateurs, à la santé mentale fragile, dans une spirale dépressive pouvant conduire au pire.

Un phénomène décrit par des scientifiques spécialistes de la haine en ligne. Dans son étude "Deadly by design" (Center for Countering Digital Hate, décembre 2022), le directeur de recherche Callum Hood a analysé en combien de temps un utilisateur de TikTok, âgé de seulement 13 ans, pouvait être exposé à des contenus liés aux troubles de la santé mentale. Résultat : en moins de 2 minutes, TikTok leur proposait des contenus suicidaires.

Après la sortie de ce rapport, TikTok a annoncé la mise en place de mesures censées mieux protéger ses utilisateurs. Nous avons refait l'expérience en suivant la méthodologie de recherche de Callum Hood. En seulement 30 minutes, le réseau social nous a proposé 31 vidéos sur le thème de la dépression, de l'abandon, ou encore sur la mort. 

Pour comprendre comment TikTok impacte la santé mentale des plus jeunes, nous avons interrogé Laurent Pinel, psychiatre à la Fondation Santé des Étudiants de France. Ce dernier dénonce le risque de "boucle infernale" et de "glamourisation de la souffrance et de la dépression" sur le réseau social.

*Si vous connaissez des personnes mineures qui souffrent de dépression et qui font face à des problèmes sur les réseaux sociaux, ne restez pas seul. Des associations peuvent vous aider. Contactez le 3218 ou le 3220 ou vous rapprochez de Fondation santé des étudiants de France. 

Si vous souhaitez vous rapprocher du collectif de parents "Algos Victima", vous pouvez leur écrire à cette adresse mail : contact@algosvictima.com

Réaction de TikTok :

Nous avons contacté TikTok pour leur demander de réagir à notre enquête. L'entreprise nous a répondue, voici l'intégralité de leur réaction :

Concernant le système de recommandation et l'algorithme :

  • Les recommandations reposent sur un certain nombre de facteurs, parmi lesquels : les interactions de l’utilisateur, telles que les vidéos qu’il aime ou partage, les comptes qu’il suit, les commentaires qu’il publie et le contenu qu’il crée.
  • TikTok accueille des créateurs d’horizons et d’intérêts très divers. Il peut donc vous arriver de visionner des vidéos qui ne vous plaisent pas. De même que vous pouvez appuyer longuement sur une vidéo pour l’ajouter à vos favoris, vous pouvez également appuyer longuement et taper sur « Pas intéressé ». Vous avez également la possibilité de masquer les vidéos d’un auteur donné ou réalisées avec une bande son particulière, ou de signaler une vidéo qui ne semble pas respecter nos consignes.
  • Pour que votre flux "Pour Toi" reste intéressant et varié, notre système de recommandation intercale divers types de contenus parmi ceux que vous savez déjà que vous aimez. Aussi, il arrive que vous découvriez des vidéos qui ne semblent pas correspondre à vos intérêts exprimés ou qui ont accumulé un grand nombre de "J'aime".
  • En complément, dans la continuité de notre engagement à proposer une expérience sûre et positive, nous avons commencé à tester l'année dernière de nouvelles façons d'éviter les recommandations en série de contenus similaires sur des thèmes qui, s'ils peuvent convenir sur une vidéo isolée, peuvent potentiellement être problématiques s'ils sont visionnés de façon répétée (ex. exercices physiques intenses ; régimes; contenus tristes).
  • Nous limitons certains contenus qui ne vont pas à l'encontre de nos règles communautaires mais qui pourraient poser problème s'ils sont vus de manière répétée (par exemple - les contenus évoquant la tristesse profonde, l'exercice physique extrême ou encore les régimes par exemple).
  • Nous limitons la recherche de contenu associé à des termes tels que le suicide, l'automutilation et les troubles alimentaires.
  • A tous les niveaux, les comptes des utilisateurs de moins de 18 ans sur TikTok sont empêchés de voir du contenu jugé trop mature ou inadapté.

Concernant la prévention du suicide et de l'auto-mutilation :

La santé et le bien-être de chacun des membres de la communauté TikTok est notre priorité.

Nos Règles Communautaires indiquent très clairement les contenus et comportements qui sont et ne sont pas acceptés sur TikTok pour en faire un espace sûr pour tous. "Nous supprimons tout contenu évoquant un acte, ou tentative, de suicide, des idées suicidaires ou tout autre contenu qui pourrait inciter à commettre des actes de suicide ou d'automutilation".

  • Nous utilisons une combinaison de technologies et d'équipes de modération pour identifier, examiner et prendre des mesures à l'encontre des contenus ou des comptes qui enfreignent nos lignes directrices communautaires.
  • Nos modérateurs travaillent en parallèle avec nos systèmes de modération automatisés et prennent en compte le contexte et les nuances supplémentaires qui ne sont pas toujours détectés par la technologie. L'examen humain permet également d'améliorer nos systèmes de modération automatisés en fournissant un retour d'information aux modèles d'apprentissage automatique sous-jacents afin de renforcer les capacités de détection futures.
    • Entre avril et juin 2023, parmi les vidéos que nous avons supprimées pour violation de nos règles communautaires SSH, 94,2 % ont été supprimées de manière proactive, 81,8 % de ces vidéos n'ayant pas été visionnées. En outre, 90,8% d'entre elles ont été supprimées dans les 24 heures.
  • TikTok collabore avec des psychologues pour sans cesse améliorer ses politiques et son approche.
  • Quand une personne effectue une recherche incluant des mots tels que #suicide, elle est immédiatement redirigée vers une page avec des ressources dédiées, ainsi qu'un numéro vers une ligne d'assistance ou de prévention locale (Suicide Ecoute en France par exemple).

Concernant la sécurité en ligne

  • Le harcèlement et les contenus haineux n'ont pas leur place sur notre plateforme. La protection de notre communauté est notre priorité absolue.
  • Il est essentiel que TikTok soit un espace sûr et bienveillant pour que chacun de nos utilisateurs se sentent en confiance pour exprimer leur créativité et se divertir.
  • Nos Règles Communautaires précisent très clairement que nous ne tolérons pas que les membres de notre communauté soient humiliés, intimidés ou harcelés. Ces règles s'appliquent à tous les utilisateurs, sans exception aucune.
  • Nous supprimons les contenus qui enfreignent nos politiques et nous invitons notre communauté à signaler tout comportement qu'elle estime inadapté pour que notre équipe de modération étudie la situation et prenne les mesures qui s’imposent s’il s’avère que les Règles Communautaires ont été enfreintes.
  • Nous nous attachons à faire appliquer ces règles de façon proactive, c'est-à-dire avant même qu'un contenu ne nous soit signalé, en utilisant tant la technologie qu'une modération humaine.
  • Ainsi, entre juillet et septembre 2023, plus de 88 millions de vidéos ont été supprimées sur TikTok, ce qui représente environ 0,8% de toutes les vidéos publiées. Parmi ces vidéos, 96,1 % ont été supprimées avant de faire l'objet d'un signalement et 76,8 % avant qu'elles ne soient vues. Ces informations sont rendues publiques dans le cadre de la publication de nos Rapports trimestriels sur l'Application de nos Règles Communautaires.
  • Nous avons également développé plusieurs fonctionnalités pour aider notre communauté à se prémunir de comportements inappropriés tels que :
    • Filtrer les commentaires en fonction de mots-clés prédéfinis pour contrôler les commentaires sur les vidéos ;
    • Supprimer et signaler en masse, sur TikTok il est possible de supprimer ou de signaler jusqu’à 100 commentaires ou comptes à la fois ;
    • Pour encourager des comportements positifs, nous sommes même allés un cran plus loin. Pour tout commentaire dont les termes pourraient être considérés comme offensants ou inappropriés, une notification apparaît sur l’écran de l’utilisateur avant sa publication. Nous l’invitons à reconsidérer son message, lui donnons la possibilité de le modifier (ou de le supprimer tout simplement) tout en lui rappelant nos Règles Communautaires.

L'équipe :

  • Journaliste : Jules Hernandez, Ambrine Bdida
  • Images : Martin Lavielle, Théodore Ollier, Jules Hernandez
  • Montage : Sasha Fontana, Robin Narèce, Laetitia Lopez
  • Graphisme : Anouk Dronval, Charline Volfart
  • Spirale dépressive et contenus suicidaires : enquête sur la face obscure de TikTok

    Spirale dépressive et contenus suicidaires : ...


    Langue : Multilingue

DATE :

15 avril 2024

DURÉE :

11 minutes
CONTENU ABONNÉS

Spirale dépressive et contenus suicidaires : enquête sur la face obscure de TikTok

Résumé :

En quelques années, TikTok s'est imposé comme LE réseau social le plus populaire chez les jeunes. Mais derrière cette ascension fulgurante, de plus en plus de personnes alertent sur ses dangers potentiels pour les jeunes utilisateurs.

Récemment, en France, des parents réunis sous le collectif fondé par l’avocate Maître Boutron-Marmion "Algos Victima" ont annoncé vouloir porter plainte contre TikTok après le suicide de leur enfant. Ils accusent le géant chinois d'être en partie responsable de leur mort en promouvant, via ses algorithmes, des contenus nocifs, faisant par exemple la promotion de l'automutilation ou du suicide. 

Pour Vakita, l'une des mères de ce collectif, Stéphanie Mistre, lance l'alerte et appelle les pouvoirs publics à agir pour protéger les plus jeunes. Elle dénonce une modération défaillainte qui enfermerait de jeunes utilisateurs, à la santé mentale fragile, dans une spirale dépressive pouvant conduire au pire.

Un phénomène décrit par des scientifiques spécialistes de la haine en ligne. Dans son étude "Deadly by design" (Center for Countering Digital Hate, décembre 2022), le directeur de recherche Callum Hood a analysé en combien de temps un utilisateur de TikTok, âgé de seulement 13 ans, pouvait être exposé à des contenus liés aux troubles de la santé mentale. Résultat : en moins de 2 minutes, TikTok leur proposait des contenus suicidaires.

Après la sortie de ce rapport, TikTok a annoncé la mise en place de mesures censées mieux protéger ses utilisateurs. Nous avons refait l'expérience en suivant la méthodologie de recherche de Callum Hood. En seulement 30 minutes, le réseau social nous a proposé 31 vidéos sur le thème de la dépression, de l'abandon, ou encore sur la mort. 

Pour comprendre comment TikTok impacte la santé mentale des plus jeunes, nous avons interrogé Laurent Pinel, psychiatre à la Fondation Santé des Étudiants de France. Ce dernier dénonce le risque de "boucle infernale" et de "glamourisation de la souffrance et de la dépression" sur le réseau social.

*Si vous connaissez des personnes mineures qui souffrent de dépression et qui font face à des problèmes sur les réseaux sociaux, ne restez pas seul. Des associations peuvent vous aider. Contactez le 3218 ou le 3220 ou vous rapprochez de Fondation santé des étudiants de France. 

Si vous souhaitez vous rapprocher du collectif de parents "Algos Victima", vous pouvez leur écrire à cette adresse mail : contact@algosvictima.com

Réaction de TikTok :

Nous avons contacté TikTok pour leur demander de réagir à notre enquête. L'entreprise nous a répondue, voici l'intégralité de leur réaction :

Concernant le système de recommandation et l'algorithme :

  • Les recommandations reposent sur un certain nombre de facteurs, parmi lesquels : les interactions de l’utilisateur, telles que les vidéos qu’il aime ou partage, les comptes qu’il suit, les commentaires qu’il publie et le contenu qu’il crée.
  • TikTok accueille des créateurs d’horizons et d’intérêts très divers. Il peut donc vous arriver de visionner des vidéos qui ne vous plaisent pas. De même que vous pouvez appuyer longuement sur une vidéo pour l’ajouter à vos favoris, vous pouvez également appuyer longuement et taper sur « Pas intéressé ». Vous avez également la possibilité de masquer les vidéos d’un auteur donné ou réalisées avec une bande son particulière, ou de signaler une vidéo qui ne semble pas respecter nos consignes.
  • Pour que votre flux "Pour Toi" reste intéressant et varié, notre système de recommandation intercale divers types de contenus parmi ceux que vous savez déjà que vous aimez. Aussi, il arrive que vous découvriez des vidéos qui ne semblent pas correspondre à vos intérêts exprimés ou qui ont accumulé un grand nombre de "J'aime".
  • En complément, dans la continuité de notre engagement à proposer une expérience sûre et positive, nous avons commencé à tester l'année dernière de nouvelles façons d'éviter les recommandations en série de contenus similaires sur des thèmes qui, s'ils peuvent convenir sur une vidéo isolée, peuvent potentiellement être problématiques s'ils sont visionnés de façon répétée (ex. exercices physiques intenses ; régimes; contenus tristes).
  • Nous limitons certains contenus qui ne vont pas à l'encontre de nos règles communautaires mais qui pourraient poser problème s'ils sont vus de manière répétée (par exemple - les contenus évoquant la tristesse profonde, l'exercice physique extrême ou encore les régimes par exemple).
  • Nous limitons la recherche de contenu associé à des termes tels que le suicide, l'automutilation et les troubles alimentaires.
  • A tous les niveaux, les comptes des utilisateurs de moins de 18 ans sur TikTok sont empêchés de voir du contenu jugé trop mature ou inadapté.

Concernant la prévention du suicide et de l'auto-mutilation :

La santé et le bien-être de chacun des membres de la communauté TikTok est notre priorité.

Nos Règles Communautaires indiquent très clairement les contenus et comportements qui sont et ne sont pas acceptés sur TikTok pour en faire un espace sûr pour tous. "Nous supprimons tout contenu évoquant un acte, ou tentative, de suicide, des idées suicidaires ou tout autre contenu qui pourrait inciter à commettre des actes de suicide ou d'automutilation".

  • Nous utilisons une combinaison de technologies et d'équipes de modération pour identifier, examiner et prendre des mesures à l'encontre des contenus ou des comptes qui enfreignent nos lignes directrices communautaires.
  • Nos modérateurs travaillent en parallèle avec nos systèmes de modération automatisés et prennent en compte le contexte et les nuances supplémentaires qui ne sont pas toujours détectés par la technologie. L'examen humain permet également d'améliorer nos systèmes de modération automatisés en fournissant un retour d'information aux modèles d'apprentissage automatique sous-jacents afin de renforcer les capacités de détection futures.
    • Entre avril et juin 2023, parmi les vidéos que nous avons supprimées pour violation de nos règles communautaires SSH, 94,2 % ont été supprimées de manière proactive, 81,8 % de ces vidéos n'ayant pas été visionnées. En outre, 90,8% d'entre elles ont été supprimées dans les 24 heures.
  • TikTok collabore avec des psychologues pour sans cesse améliorer ses politiques et son approche.
  • Quand une personne effectue une recherche incluant des mots tels que #suicide, elle est immédiatement redirigée vers une page avec des ressources dédiées, ainsi qu'un numéro vers une ligne d'assistance ou de prévention locale (Suicide Ecoute en France par exemple).

Concernant la sécurité en ligne

  • Le harcèlement et les contenus haineux n'ont pas leur place sur notre plateforme. La protection de notre communauté est notre priorité absolue.
  • Il est essentiel que TikTok soit un espace sûr et bienveillant pour que chacun de nos utilisateurs se sentent en confiance pour exprimer leur créativité et se divertir.
  • Nos Règles Communautaires précisent très clairement que nous ne tolérons pas que les membres de notre communauté soient humiliés, intimidés ou harcelés. Ces règles s'appliquent à tous les utilisateurs, sans exception aucune.
  • Nous supprimons les contenus qui enfreignent nos politiques et nous invitons notre communauté à signaler tout comportement qu'elle estime inadapté pour que notre équipe de modération étudie la situation et prenne les mesures qui s’imposent s’il s’avère que les Règles Communautaires ont été enfreintes.
  • Nous nous attachons à faire appliquer ces règles de façon proactive, c'est-à-dire avant même qu'un contenu ne nous soit signalé, en utilisant tant la technologie qu'une modération humaine.
  • Ainsi, entre juillet et septembre 2023, plus de 88 millions de vidéos ont été supprimées sur TikTok, ce qui représente environ 0,8% de toutes les vidéos publiées. Parmi ces vidéos, 96,1 % ont été supprimées avant de faire l'objet d'un signalement et 76,8 % avant qu'elles ne soient vues. Ces informations sont rendues publiques dans le cadre de la publication de nos Rapports trimestriels sur l'Application de nos Règles Communautaires.
  • Nous avons également développé plusieurs fonctionnalités pour aider notre communauté à se prémunir de comportements inappropriés tels que :
    • Filtrer les commentaires en fonction de mots-clés prédéfinis pour contrôler les commentaires sur les vidéos ;
    • Supprimer et signaler en masse, sur TikTok il est possible de supprimer ou de signaler jusqu’à 100 commentaires ou comptes à la fois ;
    • Pour encourager des comportements positifs, nous sommes même allés un cran plus loin. Pour tout commentaire dont les termes pourraient être considérés comme offensants ou inappropriés, une notification apparaît sur l’écran de l’utilisateur avant sa publication. Nous l’invitons à reconsidérer son message, lui donnons la possibilité de le modifier (ou de le supprimer tout simplement) tout en lui rappelant nos Règles Communautaires.

L'équipe :

  • Journaliste : Jules Hernandez, Ambrine Bdida
  • Images : Martin Lavielle, Théodore Ollier, Jules Hernandez
  • Montage : Sasha Fontana, Robin Narèce, Laetitia Lopez
  • Graphisme : Anouk Dronval, Charline Volfart
  • Spirale dépressive et contenus suicidaires : enquête sur la face obscure de TikTok

    Spirale dépressive et contenus suicidaires : ...


    Langue : Multilingue
Paiement 100% sécurisé
Visionnage en streaming
Téléchargement des vidéos
Formules d'abonnement
Compatible tout support