Ah bah les ondes !

Totoleheros83

Petit chat
Je crois qu'on va tous devenir zinzins ou tetraplégiques à force d'avoir des ondes qui nous traversent

Non je déconne :D

Il paraît que la 5G est vraiment (vraiment) et absolument sans aucun danger

Quelqu'un avec un background scientifique pourrait dire si cette étude est fiable et peer reviewée ?
@Squall89 @Durango @Anewone
 

Durango

Six-Roses Jack
Quelqu'un avec un background scientifique pourrait dire si cette étude est fiable et peer reviewée ?
Pour les curieux, l'étude est disponible en lecture libre ici

En préambule, d'un point de vue "scientific integrity", ça semble une étude peer-review tout ce qui a de plus carré:

  • PNAS nexus, journal dans lequel l'étude est publiée, est un journal en lui-même est assez récent et à un impact factor relativement modeste (~= 2-3) mais qui est en fait une "spin-off" de PNAS, revue scientifique généraliste bien connue (et généralement très citée et appréciée par les étudiants car les articles sont rapidement mis en consultation gratuite et libre lol :D)

  • Au premier coup d'oeil, je vois pas de relation douteuses ou de conflit d'intérêts. C'est une publication de recherche fondamentale, venant d'unités universitaires sans sponsor apparent. Aucun des auteur ne semble avoir travaillé par le passé pour des acteurs qui auraient intérêts personnels (e.g. t'as pas un clude qu'a fait 20 ans comme CTO chez Proximus, quoi)
 
Dernière édition:

Durango

Six-Roses Jack
En ce qui concerne l'article en lui-même et la science derrière, maintenant: je ne suis bien sur pas expert sur ce sujet en particulier, ni même sur les radiations. Cela dit, d'une manière générale, ça me semble assez carré aussi d'un point de vue design et analyse:

  • Le protocole semble bien ficelé, avec les contrôles appropriés, et respecte le gold standard du double-aveugle, ce qui est toujours appréciable car par forcément évident dans la recherche universitaire.

  • J'aime l'analyse des méthylation, car c'est un pan qui a longtemps été un peu ignoré. Les études regardaient souvent les mutations, mais moins souvent les "à coté" comme par exemple la méthylation ou l'impact sur les histones, l'enroulement de l'ADN, etc. Or, on sait maintenant que ce sont des éléments essentiels dans les profils d'expression géniques. En gros, tu peux avoir deux fois la même séquence d'ADN ou d'ARN (e.g. sans mutations), mais si ces "à coté" ont été impactés, ça ne donneras pas forcément les même résultats. Donc props à eux ici, c'est une analyse intéressante et essentielle.

  • Je me prononcerai pas sur l'analyse statistique car c'est pas vraiment mon domaine de prédilection (@Squall89 sera mieux positionné que moi là dessus) mais j'apprécie leur transparence sur les méthodes utilisée et les discussions dessus. C'est souvent un peu obscur dans les études (les tests sont pas toujours clairement précisés, et ça donne des résultats parfois ambigu)

Bref, même si tu peux argumenter que tu pourrais pousser les choses plus loin (autres types de cellules, analyser d'autres "omics" (protéomiques en plus de la transcriptomiques, etc.), les choix sont justifiables et justifiés dans l'article.

L'études apporte un élément supplémentaire sur le côté de la balance qui penchait déjà fort. Je pense pas que ces résultats étonnent grand même vu qu'ils suivent la logique biologique et physique auquel on aurait pu s'attendre à première vue, mais c'est toujours bon à prendre.
 
Dernière édition:

Vorsarius

Yeah well..
Bah le pire émetteur d'onde c'est ton téléphone, carré de la distance tout ça.. Collé à ton oreille, c'est plusieurs ordres de magnitude plus dangereux que les antennes.

Et au final c'est juste des ondes EM, comme pour ton WiFi, ton micro-onde ou ton Bluetooth. C'est juste une question de fréquence et surtout, de puissance.
 

gregsting

Chat!
Bah le pire émetteur d'onde c'est ton téléphone, carré de la distance tout ça.. Collé à ton oreille, c'est plusieurs ordres de magnitude plus dangereux que les antennes.

Et au final c'est juste des ondes EM, comme pour ton WiFi, ton micro-onde ou ton Bluetooth. C'est juste une question de fréquence et surtout, de puissance.
Juste des ondes EM ca ne veut pas dire grand chose, comme le dit l'étude, on voit que les UV ont bien un impact. Le pire émetteur d'ondes, c'est sans doute le soleil ;)
Autre truc qui pourrait être attaqué, c'est que c'est au niveau cellulaire, ca ne prouve pas qu'il n'y ait pas d'impact sur ton activité cérébrale ou autre. Cela dit je n'y crois pas hein, je fais juste l'avocat du diable.
 
Dernière édition:

Squall89

Fait ses tartines en 4 tranches
Je crois qu'on va tous devenir zinzins ou tetraplégiques à force d'avoir des ondes qui nous traversent

Non je déconne :D

Il paraît que la 5G est vraiment (vraiment) et absolument sans aucun danger

Quelqu'un avec un background scientifique pourrait dire si cette étude est fiable et peer reviewée ?
@Squall89 @Durango @Anewone
Je vais pas répéter ce que @Durango a dit, je suis aligné sur son analyse également. Le protocole est cohérent d'un point de vue méthodologie, l'approche est logique (étude transcriptomique et épigénétique), les outils utilisés sont bons, etc.

Si je dois compléter:

- Les figures sont affreuses et dégueulasse, en tant que choix des couleurs, représentations et surtout qualité finale :D. C'est pas scientifiquement "fort" comme point mais par expérience c'est parfois ce genre de détails de "perfectionnisme" qui différencie une équipe va vraiment au bout des choses et qui est pointilleux d'une équipe qui fait une étude "vite fait" pour publier. Dans le sens où si tu mets énormément d'effort à bien pondre tes figures et ton manuscrit, c'est que tu as probablement appliquer la même rigueur scientifique derrière. Surtout que ça rend la moitié de leur figure illisible.

- La question posée dans l'introduction (contexte) et la manière de la résoudre sont pas forcément méga alignée. On parle certe de dose ultra-élevée (~4 et ~8 fois la dose max recommandée) mais sur des délais in fine assez court (2h et 48h). Je pense que les "craintes" des détracteurs de la 5G portent plutôt sur une exposition long-terme. Maintenant je blâme pas les auteurs car en pratique ce serait chaud à mettre en place. Peut être qu'il disent que 48hx40GHz = 1 mois x 1GHz, et my bad alors...

- Ca reste une "petite" expérience en terme d'échantillonage (96 conditions, incluant un triplicat technique). L'approche est intéressante (varier types cellulaires, temps d'exposition) mais au final ça reste limité je trouve que pour vraiment driver des conclusions "fortes".

Je me prononcerai pas sur l'analyse statistique car c'est pas vraiment mon domaine de prédilection (@Squall89 sera mieux positionné que moi là dessus)
J'ai pas tout regardé mais les outils d'analyse RNAseq sont "bons" (en tout cas, c'est ceux que j'utilisais :D). Mais échantillonnageun peu juste imo. Biologiquement je sais pas si 3 cultures de X millions de keratinocytes ou fibroblastes offrent la résolution nécessaire pour identifier beaucoup de DEGs. A voir, je suis pas statisticiens.


TL;DR: rien a reprocher d'intrinsèque à l'étude. On est pas sur une absurditié à la Andrew Wakefield et son "vaccin = autisme". Rien de frauduleux, la méthodologie est bonne.
Je suis + sceptique sur la portée qu'on peut avoir de l'étude: j'ai l'impression qu'elle cherche à résoudre un thématique qui nécessite pas mal de travail pour trouver une conclusion forte en utilisant une approche qui reste malgré tout superficielle (2 temps d'exposition seulement et limité à 48h).

Toujours bon a prendre pour alimenter l'hypothèse "les gars, cool, la 5G va pas vous faire fondre hein"
 

Anewone

Elite
Quelqu'un avec un background scientifique pourrait dire si cette étude est fiable et peer reviewée ?
Aucune idée pour la substance.

Pour la méthodo, comme beaucoup de papiers dans ce milieu, ils utilisent toujours la P-value (alors qu'il existe une alternative efficace et valide), donc malgré la correction pour comparaison multiple, tu saurais rien en retirer sans faire l'expérience par toi-même.

Aucune info sur la puissance du test, comme beaucoup de papiers dans ce milieu. Un bon point c'est qu'ils ont mis un code à disposition, si j'avais le temps je ferais mes propres tests et j'obtiendrais probablement une réponse différente.
 
1er
OP
Totoleheros83

Totoleheros83

Petit chat
Entendons nous bien:
Aucune idée pour la substance.

Pour la méthodo, comme beaucoup de papiers dans ce milieu, ils utilisent toujours la P-value (alors qu'il existe une alternative efficace et valide), donc malgré la correction pour comparaison multiple, tu saurais rien en retirer sans faire l'expérience par toi-même.

Aucune info sur la puissance du test, comme beaucoup de papiers dans ce milieu. Un bon point c'est qu'ils ont mis un code à disposition, si j'avais le temps je ferais mes propres tests et j'obtiendrais probablement une réponse différente.
Tu aurais plus d'info sur la méthodologie statistique utilisée par rapport à l'alternative, pour un noob comme moi ?
 

Durango

Six-Roses Jack
- La question posée dans l'introduction (contexte) et la manière de la résoudre sont pas forcément méga alignée. On parle certe de dose ultra-élevée (~4 et ~8 fois la dose max recommandée) mais sur des délais in fine assez court (2h et 48h). Je pense que les "craintes" des détracteurs de la 5G portent plutôt sur une exposition long-terme. Maintenant je blâme pas les auteurs car en pratique ce serait chaud à mettre en place.
Tout à fait d'accord, mais c'est une toute autre question, qui demande une tout autre études.

Les études d'exposition aiguës ou d'exposition chroniques sont rarement combinées, car ce sont des protocoles souvent différents (de par la méthodologie, mais souvent aussi parce que tu ne cherches pas forcément les même effets aux mêmes endroits)

Donc 100% d'accord avec toi pour dire que cette étude ne répond pas forcément à la question "quid des effets long terme", mais je pense tout simplement que ce n'est juste pas l'objectif ici.

Idem pour la remarque du Chat: ca ne répond pas à la question sur un éventuel impact sur l'activité cérébrale (de fait) mais ce n'est pas le but de l'étude. Ce qui ne veut pas dire que ce ne sont pas des questions intéressante également.
 

Durango

Six-Roses Jack
Pour la méthodo, comme beaucoup de papiers dans ce milieu, ils utilisent toujours la P-value (alors qu'il existe une alternative efficace et valide), donc malgré la correction pour comparaison multiple, tu saurais rien en retirer sans faire l'expérience par toi-même.
Plz faut pas trop en demander, on est biologistes, les chiffres ça nous fait peur :pfrt:

:D:D

Nan en vrai, je suis d'accord avec la remarque générale. Comme je le disais plus haut, les stats sont souvent la partie qui pèche dans ce genre d'étude.

Parfois pour des raisons pratiques (j'ai déjà eu des statisticiens qui me demandaient un DoE de 72 runs alors que les runs prennent 1 semaine et qui coute 5000 balles/run, ce qui n'est pas toujours compatible avec la réalité du terrain ni financièrement supportable pour un département de recherche, surtout si universitaire), et parfois pour des raisons de connaissances, pure et simple.

L'emphase sur les statistiques est de plus en plus forte (et à raison, c'est tant mieux) et c'est de plus en plus poussé dans le cursus. Mais pour beaucoup de chercheurs qui n'ont pas eu ce bagage, on est déjà content si ils savent faire un PCA sur leur données :D d'ou la nécessité de vrais statisticiens qui repassent derrière.
 

Squall89

Fait ses tartines en 4 tranches
Les études d'exposition aiguës ou d'exposition chroniques sont rarement combinées, car ce sont des protocoles souvent différents (de par la méthodologie, mais souvent aussi parce que tu ne cherches pas forcément les même effets aux mêmes endroits)
Yep, c'était pas tant la critique que j'adressais (comme tu dis, la combinaisons des approches est pas simple à mettre en place) mais simplement que la valeur ajoutée de l'étude est assez mineure dans le contexte et le problème qu'on associe à l'utilisation de la 5G.


Parfois pour des raisons pratiques (j'ai déjà eu des statisticiens qui me demandaient un DoE de 72 runs alors que les runs prennent 1 semaine et qui coute 5000 balles/run, ce qui n'est pas toujours compatible avec la réalité du terrain ni financièrement supportable pour un département de recherche, surtout si universitaire), et parfois pour des raisons de connaissances, pure et simple.

Je pense que la remarque de @Anewone repose plutôt sur la "philosophie" de stats (la bonne vieille p-value VS les intervals de confiance, les analyses Bayésienne, etc).

La p-value donne juste une "probabilité" de rejet de l'hypothèse nulle (pas d'effet), ce qui est vite compris comme "il y a un effet/différence". Sans compter sur le côté "arbitraire" de la significativité (p-value < 0.05) et du fait qu'il reste facile de toucher à la valeur en fonction du test choisi.

Les intervales de confiance (qu'on utilise dans mon boulot) te donne un range supposé de réponse attendue. La Bayésienne (que je connais bcp moins) va philosophiquement dans l'autre sens et te donne un %age de probabilité que ton effet soit vrai sur base de tes données (et non d'une distribution théorique) et sur base de priors.

Mais mes connaissances s'arrête là :D

Je pense que la p-value reste encore fort utilisée car elle n'est pas assez challengée en peer-reviewing. Et justement, des alternatives risquent de perturber les peer-reviewers...Faut que le changement se fasse progressivement je suppose
 

Anewone

Elite
Entendons nous bien:

Tu aurais plus d'info sur la méthodologie statistique utilisée par rapport à l'alternative, pour un noob comme moi ?
La p-value est une variable aléatoire qui a sa distribution en probabilité induit par la distribution de "y" (ce que tu observes) sous l'hypothèse nulle (que tu poses en sachant que c'est ce que tu cherches à réfuter, via negativa comme disait Karl Popper).

Le mot aléatoire et "a sa distribution" sont extrêmement importants ici, car ça conduit les chercheurs, même non-intentionnellement, a commettre du "p-value hacking" (puisque cette valeur te permet de publier et donc améliorer ton statut de chercheur).

Si l'hypothèse nulle est simple (dans la vie réelle, c'est difficile d'assumer une hypothèse simple, car tu as souvent des nuisances dans tes paramètres de distribution, donc l'hypothèse est généralement composée), la p-value est générée "uniformément". Traduis "uniformémemnt", ou "loi uniform", avec "aléatoire" ou "RNG". ;)

En cryptographie, ou même avec un algo de compression, tu as aussi cette hypothèse d'uniformité qui est utilisée. Un flux de bits « vraiment » aléatoire sort d’une source à entropie maximale et apparaît uniforme. Dans les tests de compression ou de pseudo-générateurs, on vérifie qu’aucune statistique simple (bits, blocs,…) ne s’écarte de ce uniforme. De même, en stat, la p-value mesure l’écart de tes données à ton hypothèse nulle.

Pour que cette p-value soit valide, il ne suffit pas de préciser le test et le seuil à l’avance, il faut aussi décrire a priori toutes les décisions possibles de traitement et d’analyse des données — codage, exclusions, transformations, choix de variables ou de sous-groupes, etc.

En pratique, si l’on n’a pas fixé à l’avance l’ensemble des analyses qu’on aurait pu faire pour chaque jeu de données hypothétique, on ne peut pas garantir que la p-value suit vraiment la loi Uniforme sous Hypothèse nulle. C’est ce qui rend la p-value si fragile, elle dépend non seulement des données observées, mais aussi de toutes les décisions non réalisées.

Et cette dernière phrase, très peu de chercheurs la comprennent. Donc sans surprises, presque aucun étudiant ne le comprend. Et je dis pas ça arrogament, car je sais que les premier responsables sont ceux qui ont construit le programme en réduisant la profondeur et la quantité de cours quanti, ne permettant pas aux professeurs de statistiques d'aller dans les détails pour expliquer les nuances que je viens d'essayer d'expliquer.

Pour y rémédier, et la raison pour laquelle j'ai fait un lien avec la théorie de l'information (cryptographie, compresseur, etc), c'est d'utiliser un "test martingale" (appelé aussi "safe anytime valid" test d'hypothèse), qui est issue du "minimum description length" en théorie de l'information. Ca n'est pas d'utiliser les intervals de confiance ou l'approche Bayésienne qui ne font que déplacer le problème, même si ça donne des infos intéressantes non négligeables, donc je suis pas "anti", juste que ça compense pas le problème.

Une fois que je démarre sur ce sujet je m'arrête plus et y a encore énormément à dire mais je te laisse checker google pour plus d'infos sur son application; ce pavé me fait mal aux doigts. :)
 
1er
OP
Totoleheros83

Totoleheros83

Petit chat
J'ai pas capté grand chose -je suis pas un matheux à la base, même si j'adore les sciences et je suis curieux- mais ça a l'air intéressant, je vais creuser ca.
De toutes façons les statistiques c'est toujours utile.
 
Haut