Newsletter

Accueil > Accueil > Articles hors menu > L’efficacité du testing est-elle démontrée ? Résumé de l’article critique de Scott et Scott et réponses à leurs arguments

L’efficacité du testing est-elle démontrée ? Résumé de l’article critique de Scott et Scott et réponses à leurs arguments


Dans une revue narrative de la littérature sur l’analyse de produits psychotropes, aussi appelée testing, Scott et Scott concluent que l’efficacité du testing en festival n’est pas démontrée et suggèrent de couper les financements publics jusqu’à ce que l’efficacité de ce service soit démontrée.

Plusieurs membres du réseau TEDI ont répondu à cet article. Ici, je vous propose de résumer les arguments principaux de Scott et Scott et de répondre à chacun d’entre eux.

Premièrement, selon Scott et Scott, le testing ne prend pas en compte, dans les résultats fournis, le contexte et l’environnement des festivals et ne peut pas prédire la variabilité interindividuelle en matière de métabolisme ou de toxicité des drogues. C’est un fait mais il est malhonnête d’évaluer un service sur base d’objectifs qui ne lui ont jamais été assignés. Ces premiers arguments témoignent d’un total manque de compréhension du testing. Le testing ne peut et ne doit à aucun moment être assimilé à du contrôle qualité. Il est toujours accompagné d’une consultation fondée sur le modèle du Drug, Set et Setting qui prend en compte les risques associés au produit, à l’individu et au contexte de consommation. La consommation de drogues n’est ni banalisée, ni diabolisée mais les risques sont minutieusement discutés avec l’usager·ère.

Deuxièmement, selon Scott et Scott, le testing ne serait pas fiable et, en tant qu’analyse qualitative, ne serait pas en mesure de déterminer la concentration des produits ou les ratios des différents composés racémiques. Barratt et al.ont contesté cet argument : le testing peut fournir une analyse quantitative et il offre souvent une large gamme de tests permettant d’augmenter la fiabilité des résultats.

Troisièmement, Scott et Scott font remarquer que le nombre d’usager·ères décidant de se débarrasser de leurs échantillons au terme de l’analyse est généralement faible. Je vois deux problèmes avec cet argument. Tout d’abord, de petits effets peuvent avoir de profonds impacts. Ensuite, de nouveau, le but du testing n’est pas l’abstinence. Nous pouvons nous attendre à ce qu’un·e usager·ère se débarrasse de son produit uniquement quand les résultats de l’analyse ne correspondent pas à ses attentes, ce qui n’arrive habituellement pas très souvent.

Quatrièmement, Scott et Scott estiment que seule une petite partie des usager·ères de drogues utiliseront le testing en festival. Cet argument, qui n’est pas fondé sur des données et est donc de l’ordre de l’opinion personnelle, me semble plaider en faveur du testing en festival plutôt que contre. En effet, nous pourrions légitimement nous attendre à ce que le testing soit plus utilisé et plus efficace s’il était plus répandu et si l’usage de drogues était légalisé ou décriminalisé. Par ailleurs, cet argument sous-estime la portée du testing en festival. Quand un échantillon particulièrement dangereux est identifié, une alerte est lancée dans le festival et, parfois, en dehors (au niveau national) qui va toucher de nombreux·euses autres usager·ères.

Cinquièmement, selon Scott et Scott, si le testing peut remplir une mission de monitoring du marché de la drogue, des informations plus complètes sont disponibles grâce aux saisies des forces de l’ordre (police et douanes). Ici aussi, Barratt et al. contestent en avançant l’argument que le testing peut monitorer le marché de la drogue plus vite et qu’il fournit des informations clés qui ne sont pas disponibles via les saisies policières, par exemple des informations sur la nature de l’écart entre les attentes de l’usager·ère et contenu réel du produit. A ceci, je rajouterais que, dans le cas particulier de la Belgique qui est aussi et surtout un pays de transit pour les drogues, le testing fournit des informations sur ce que les usager·ères consomment vraiment, alors que les saisies policières fournissent des informations sur les drogues qui transitent par la Belgique. Bien que ces informations soient complémentaires, elles ne sont pas équivalentes.

Sixièmement, Scott et Scott soulignent qu’aucune étude contrôlée randomisée n’a été menée qui établirait l’efficacité du testing. Contrairement aux autres arguments, celui-ci est incontestable mais ce type d’étude est très difficile, voire impossible à mener dans un contexte général caractérisé par des politiques drogues répressives et un manque de financements publics. Ensuite, les études observationnelles existantes tendent à démontrer l’efficacité du testing. Les opposants au testing devraient dès lors d’abord démontrer l’inefficacité ou la nocivité du testing avant de demander un arrêt des financements publics.

Scott et Scott terminent leur article en mentionnant deux études qui suggèrent que le testing encourage la consommation. Je n’ai pas retrouvé les résultats d’une des deux études citées (celle du State Coroner’s Court of New South Wales, 2019). Ensuite, je trouve malhonnête d’écarter les résultats démontrant l’efficacité du testing quand ils sont obtenus à partir de mesures d’intentions comportementales (vs des mesures de comportements) mais d’utiliser ce type de résultats quand ils suggèrent la nocivité du testing. Enfin, et étayant l’accusation d’utilisation sélective de la littérature lancée par Barratt et al., je trouve malhonnête de ne pas avoir mentionné les études (dont celle de Benshop et al., 2002) qui montrent que le testing n’encourage pas la consommation de drogues. Je recommande la lecture des deux autres réponses rédigées par Smit-Ritger et Van der Gouwe, d’un côté, et Measham et al., de l’autre. En bref, l’article de Scott et Scott est partiel, partial et de peu d’utilité dans le débat sur l’efficacité du testing.

Nicolas Van der Linden.
Référent Suivi-Evaluation