Les liens vers la chaîne :
Peertube : https://tube.kher.nl/video-channels/mangayoh_channel/videos
Youtube : https://www.youtube.com/channel/UCImVxjIl3rIEoQIqeDIvKfA/videos

La vidéo sur Peertube et Youtube :

– « La science, ou plus précisément la démarche scientifique, est un ensemble de méthodes visant à produire efficacement des connaissances sur le monde, notamment grâce à une constante remise en question qui lui permet d’évoluer et de progresser. »

Salut, et bienvenue dans cette vidéo ou on va parler de science, de méthodologie, de zététique, et autres mots de ce champ lexical.

Dans la prochaine vidéo, je vais vous présenter une petite expérience où l’on va étudier la question des chakras ! Et avant ça, il était important de faire un petit point sur les questions de méthodologies, parce que si l’on a envie d’avoir des connaissances fiables sur un sujet, il nous faut des outils pour pouvoir acquérir au mieux ces connaissances et trier les informations probablement vraies de celles probablement fausses.

Bon, cette vidéo est une introduction, on ne va pas aller en détail sur comment déterminer si une information est vraie ou pas, déjà parce que ce serait sacrément long, et qu’il y a pas mal d’autres chaînes qui le font, je vous en reparle à la fin et il y aura les liens en description.

Ce qu’on va faire ici, c’est d’abord de voir pourquoi il est peut-être préférable de croire à des choses vraies, est-ce que c’est vraiment grave de croire à des trucs faux ? Et dans un second temps, on va voir quelle attitude avoir pour éviter de se laisser influencer par notre propre cerveau qui n’est pas toujours optimal quand il s’agit d’être rationnel. Heureusement il y a quelques trucs bons à savoir pour réussir à changer d’avis quand on a tort et garder cet avis quand on a raison.

Bon, pourquoi c’est important d’avoir une méthode rigoureuse lorsqu’on fait des recherches ? On va prendre l’exemple avec la médecine, car c’est un sujet où il y a pas mal de fausses informations qui circulent un peu partout. Si notre but est de trouver un traitement qui soigne les gens efficacement, alors il nous faut savoir quel traitement est efficace ou pas.

Si l’on n’est pas dans une démarche d’honnêteté intellectuelle, donc qu’on n’accepte pas d’avoir tort s’ il se trouve que … bah on a tort, alors les conséquences sont qu’on va rester persuadé qu’un traitement est efficace alors qu’il ne l’est pas, ou l’inverse.

Dans un cas comme la médecine, ne pas être dans une démarche rationnelle de recherche de la connaissance, ça veut dire des soins moins efficaces, qui peuvent aller jusqu’à condamner des gens en leur donnant des traitements inefficaces voire dangereux, à la place de traitements qui auraient pu les soigner.

Donc, à une question « le traitement X est-il efficace pour traiter la maladie Y »

– La posture scientifique va chercher les différents éléments et preuves sur le sujet, puis conclure si oui ou non cette thérapie semble efficace.

– Et à l’inverse, la posture dogmatique va faire ce qu’on appelle du raisonnement motivé, elle va partir d’une conclusion déjà établie, si oui ou non le traitement marche, et va chercher uniquement des raisonnements qui vont conforter cette position. Donc là, si l’on a tort, il n’y a pas de possibilité de s’en rendre compte.

Là, j’ai pris l’exemple de sauver des gens, mais c’est le même raisonnement avec d’autres objectifs. Si votre but est de défendre le bonheur général, ou l’inverse, la maximisation de la souffrance, alors il sera logique de rejeter des idées qui ne vont pas dans ce sens, même si vous aimiez bien ces idées-là. Voilà pourquoi l’esprit critique et la remise en question sont très importants en politique, parce que sans ça on en vient à défendre bec et ongles des idées qui n’ont en fait pas de conséquences positives par rapport à nos propres objectifs. Ce qui est alors contradictoire.

Bon, ce que j’ai dit là ça peut sembler assez évident pour certains d’entre vous, mais ça me semblait important de le préciser avant de passer à la suite.

Soit on est dans une démarche où l’on n’est pas intéressé par la vérité, et dans ce cas, effectivement ça ne sert sert pas à grand chose de se questionner sur comment acquérir aux mieux des connaissances, soit on veut bel et bien avoir des connaissances vraies et éviter de croire à des choses fausses, et dans ce cas on accepte que parfois on sera amené à changer d’avis même si ça ne nous plaît pas toujours.

Et à partir de ce moment de la vidéo, je vais considérer que vous êtes dans la deuxième option. On a envie d’avoir des connaissances justes sur le monde, maintenant il faut voir comment on fait pour avoir ces connaissances, et éviter de croire à des choses fausses.

UNE CULTURE DE LA REMISE EN QUESTION

La science a évolué au cours du temps grâce à des remises en questions : parfois on se trompe, et c’est normal, l’important ensuite c’est d’accepter de s’être trompé et de comprendre pourquoi. De manière générale, on gagnerait à développer une culture du changement d’avis, où l’on valorise le fait d’admettre qu’on a eu tort, et que grâce à ça, on a appris des choses.

Donc idéalement il faut qu’on soit en mesure de changer d’avis si l’on a tort, mais on va voir que c’est pas toujours si simple, d’où l’intérêt des méthodologies scientifiques.

On a tous des croyances fausses, c’est pas grave. Maintenant, si on veut éviter de continuer à croire à ces choses fausses, surtout lorsque ça amène à des conséquences très négatives, c’est vraiment important d’admettre qu’il y a encore plein de choses qu’on ne sait pas et qu’on se trompe certainement sur tout un tas de sujets.

Donc un prérequis essentiel, c’est la remise en question, si je pense qu’une chose est vraie, mais qu’on me démontre l’inverse avec des preuves et des arguments solides, je dois pouvoir changer d’avis, sinon c’est une approche dogmatique, et le dogmatisme, par définition, ne peut pas nous aider à apprendre des choses, puisque si l’on a tort à un moment, eh bien on aura tort pour toujours. – Dans la démarche scientifique, c’est l’inverse du dogmatisme, si l’on a tort, on veut le savoir pour se remettre en question et changer d’avis.

Comment se forger une opinion sur un sujet, basée sur les preuves solides et des raisonnements logiques ? En premier temps, aussi bien dans un débat que dans des recherches personnelles, il nous faut suspendre notre jugement, c’est-à-dire, envisager que les connaissances qu’on avait jusqu’alors sont peut-être fausses, peut être qu’on avait raison, peut être qu’on avait tort, peut-être un peu des deux, on verra une fois les recherches effectuées. Il faut donc être prêts à accepter des arguments qui iront à l’encontre de ce qu’on croyait être vrai.

Et sans les outils méthodologiques, on peut facilement en arriver à croire des choses qui peuvent sembler vraies alors qu’elles ne le sont pas. Et une fois qu’on a des croyances fausses, c’est pas évident de les faire changer car notre cerveau est très bien câblé pour conserver les croyances qu’il a déjà.

Comme exemple de ça, on a déjà parlé dans les précédentes vidéos, du biais de confirmation, de la réactance, de la dissonance cognitive et des processus d’engagement, autant de processus psychiques qui nous rendent réticents à changer d’avis. Et je vous invite à regarder cette vidéo pour vous familiariser avec ces concepts d’engagement, de dissonance cognitive, etc.

Donc notre premier ennemi quand on va faire des recherches, c’est nous-mêmes et notre cerveau qui peuvent nous induire à des erreurs de raisonnements.

Avec par exemple les biais cognitifs, qui sont des raccourcis, des jugements simplifiés de notre cerveau, qui peuvent nous amener à des erreurs de logique ou des traitements de l’information pas très rationnels.

On a par exemple déjà évoqué le biais des coûts irrécupérables, où pour faire un choix, on prend en compte des coûts qui ont déjà été payés et qui ne devraient théoriquement plus être pris en compte. Il y a l’erreur fondamentale d’attribution qui nous fait davantage penser que les comportements des autres sont dûs à des causes internes en omettant le contexte, et aussi le biais de favoritisme pro-endogroupe où l’on va privilégier les intérêts de ce qu’on catégorise comme appartenant à notre groupe social. Et y a aussi le biais du statu quo, qui nous fait davantage faire les choix qui minimisent le changement.

Bon, et il y a le fameux biais de confirmation, qui va nous pousser à accepter plus facilement des informations qui confirment nos opinions, et à nous rendre plus méfiants face aux informations avec lesquelles on est en désaccord, donc forcément ça ne facilite pas la remise en question.

Des biais comme ça, il y en a pas mal, en psychologie on en a défini et catégorisé plus de… 200. Donc on ne va clairement pas tous les voir ici, mais je vous laisse quelques liens là-dessus en barre d’info si vous voulez creuser le sujet.

Et il faut bien se dire que ces biais concernent tout le monde, sans exception, et donc vous aussi ! Ce n’est pas du tout une question d’intelligence.

Connaître nos biais, c’est bien pour les limiter, mais ça ne les fait pas disparaître pour autant, et quand on pense qu’on est pas sujet à ces biais, c’est là qu’on y est d’autant plus vulnérables. Et d’ailleurs il y a même un biais cognitifs qui s’appelle « l’illusion de l’unique invulnérabilité », et qui désigne justement le fait de penser qu’on est moins sujet que les autres à ces biais cognitifs…

COMMENT S’ASSURER DE LA VÉRACITÉ D’UNE INFORMATION ?

Bon, maintenant qu’on est prêt à se faire un avis basé sur des preuves, il nous faut voir comment trier les informations probablement fausses de celles probablement vraies.

Tout d’abord on peut se demander d’où viennent les informations, est-ce que ça vient d’une anecdote personnelle, d’un média, d’une étude scientifique ?

Et évaluer ça en se basant par exemple sur une échelle de preuves telle que celle-ci (ou celle-ci). Une anecdote personnelle vaut généralement moins que l’avis d’un expert, lui-même valant moins que de multiples études scientifiques, elles-mêmes valant moins que les conclusions de méta-analyses ou qu’un consensus scientifique.

Après, il peut arriver que des anecdotes personnelles soient vraies, tout comme il arrive que des études affirment des choses qui sont ensuite démenties. Idéalement, si l’on a le temps, le meilleur moyen de se faire un avis sur un sujet, c’est de lire toutes les études qui ont été faites sur le sujet, et de les trier en fonction de leur solidité méthodologique. On fera moins confiance à une étude qui a beaucoup de biais, des échantillons faibles, etc. Du coup ça nécessite également de pouvoir lire et comprendre comment sont écrites les études scientifiques, et ça, ça s’apprend, j’essaierai d’y revenir dessus une prochaine fois.

Mais dans la pratique, pour la plupart des sujets, on ne peut tout simplement pas faire ça, on n’a pas forcément le temps, ni les compétences pour évaluer la qualité méthodologique de chaque article et en interpréter correctement les conclusions. Moi-même, sorti de la psychologie, si vous me demandez de lire des études de géologie ou de physique, je comprendrais pas grand-chose. Donc il nous faut des astuces pour se faire un avis même sur des sujets qu’on aura pas la possibilité de bien creuser.

Déjà, on peut alors se demander s’il y a un consensus entre les différents experts du domaine, ça peut être un bon indice qu’un certain modèle théorique est plus crédible qu’un autre. J’ai pris exprès l’exemple de la physique quantique parce que c’est un domaine qui est souvent utilisé par des personnes qui ne maîtrisent pas vraiment le sujet, et l’on fait dire à la physique quantique ce qu’elle ne dit pas du tout.

On peut s’habituer à un petit réflexe assez simple qu’on peut avoir pour voir s’il y a consensus sur un sujet, c’est par exemple d’aller lire des pages wikipédia (idéalement en anglais) et ensuite aller regarder la catégorie critique ou controverse. Si l’on voit par exemple qu’une théorie ou une personne sont discréditées par l’ensemble des experts du domaine, ça peut nous donner des raisons d’être d’autant plus vigilant sur cette personne ou cette théorie.

Et généralement, à part sur les sujets très spécifiques, wikipédia vous donnera un plutôt bon aperçu des connaissances actuelles sur un certain sujet, et c’est en tout cas beaucoup plus fiable que se baser sur des magazines, sur les réseaux sociaux ou n’importe quel média. – Je ne dis pas que tout ce qu’il y a sur les réseaux sociaux ou dans tous les médias sont faux, mais ça arrive suffisamment souvent pour qu’il faille être méfiant. Une astuce pour voir la fiabilité d’un article sur internet, ça peut être de commencer par regarder les sources. Sur quoi l’article se base ? Est-ce que les journalistes ont été lire des études, ou est-ce que ce sont des propos qui sortent de nulle part ? Et quand il y a des études citées, on peut vérifier que les études sont correctement comprises et décrites dans l’article. C’est assez courant qu’on ait une étude qui affirme une chose de manière modérée « il se pourrait que ceci ou cela » et que les médias la mettent en avant comme « une étude a dit ça » et hop ça devient la vérité absolue.

Et surtout il faut qu’on pense à croiser les sources, pour avoir une vue plus globale sur un sujet et pas juste un seul point de vue, parce que si jamais cet unique point de vue est faux, et bah on ne s’en rendra pas compte.

QUELQUES PRINCIPES MÉTHODOLOGIQUES ET RHÉTORIQUES :

Voyons voir quelques principes de bases importants à connaître.

Déjà des principes de logique :
sans entrer dans les détails, on peut généralement structurer un argument sous la forme de ce qu’on appelle un syllogisme, avec des prémisses, et une conclusion logique qui découle de ces prémisses. Je vous renvoie vers cette vidéo de mr.phi pour aller plus en détail là-dessus. (Précision : en parlant de syllogisme, je n’évoque ici que les raisonnement déductifs, et j’oublie donc les raisonnements inductifs et abductifs » Je vous renvoie vers cette vidéo de mr.sam qui explique les distinctions entre ces 3 types de raisonnements).

Le fait d’avoir ça en tête nous permettra de cibler pourquoi on est en désaccord sur un sujet donné. Est-ce qu’on est en désaccord sur les prémisses, ou alors sur le raisonnement ? Et si l’on se trompe sur un sujet, c’est forcément que soit l’une de nos prémisses est fausse, soit que notre raisonnement est illogique. Et si l’on est en désaccord sur les prémisses, alors il y a de grandes chances pour qu’on ne soit pas d’accord sur la conclusion.

Penser à ça peut nous éviter de se prendre la tête sur un sujet pour rien ; beaucoup de débats politiques n’ont pas de sens à cause de ça. Si l’on n’a pas le même but, donc pas les mêmes prémisses, ça ne sert à rien de débattre d’une idée politique précise, puisqu’on en n’attend pas les mêmes choses. (Précision : si les énoncés renvoient à des faits indépendants de nos désirs, alors ces prémisses ne renvoient pas nécessairement à des buts).

Pour vérifier les prémisses, on en revient donc aux questions de trier des faits selon leur véracité. Et pour ce qui est de raisonner correctement, on en vient d’une part au fait de ne pas se laisser avoir par les biais de notre cerveau, et d’autre part d’éviter l’usage des argument fallacieux tel que les paralogismes, qui sont des arguments ou raisonnement qui ont l’apparence de la logique mais qui sont en fait trompeurs, et là aussi il y en a pas mal.

Comme exemple de paralogisme, on a les attaques ad hominem, qui consiste à critiquer la personne au lieu des arguments. On a l’appel à la nature, malheureusement très commun dans les milieux écolos, qui revient à présupposer que « si c’est naturel, c’est mieux », alors qu’en fait il y a pas mal de contre-exemples : genre les champignons vénéneux ou le virus ebola.

Il y a d’autres paralogismes de ce genre, comme l’appel à la tradition : « On a toujours fait comme ça, donc c’est bien ». Ou l‘appel à l’autorité : «un prix Nobel a dit ça, donc c’est vrai ».

Encore d’autres exemples : on a tendance à penser que si un événement B est précédé d’un événement A, alors celui-ci est la cause du deuxième. On appelle ce paralogisme post hoc ergo propter hoc, qui veut dire en gros : « c’est à la suite de ça, donc c’est causé par ça », et c’est un paralogisme parce qu’en pratique, la succession de deux événements n’implique pas forcément que le premier cause le deuxième.

Et toujours dans l’idée d’attribuer des causes là où on n’a pas toujours les éléments nécessaires à ça, il y a la confusion entre corrélation et causalité : on a tendance à penser que si deux choses sont corrélés, alors l’une est la cause de l’autre, et pourtant il y a bien des cas de corrélation où il n’y a pas de relation causale. On a pas exemple une corrélation entre la consommation de chocolat et le nombre de prix Nobel, mais ça peut s’expliquer autrement que par un impact du chocolat sur l’intelligence. On peut l’expliquer par le taux de richesse des pays qui influe à la fois sur la consommation de chocolat, et sur le nombre de prix Nobel.

DISCUTER ET DÉBATTRE

Lorsqu’on échange avec d’autres personnes, si on veut éviter le gros cliché de « chacun défend sa position sans écouter l’autre, et personne change d’avis », il est bénéfique d’adopter une démarche scientifique et d’humilité. Pendant une discussion, ou débat, qu’importe, partons du principe que «peut-être on a tort, et que la personne en face dit des choses sensées, qu’elle a de bonnes raisons de penser ce qu’elle pense ». Partons aussi de l’idée que l’autre n’est pas malveillant, et que s’il ne défend pas la même position que nous, ce n’est peut-être pas dû au simple fait que ce soit un (BIP) ou n’importe quelle autre insulte. Ça ne veut pas dire que tout le monde est bien intentionné et que personne ne ment ou manipule les données dans son intérêt, mais attendons d’avoir des preuves de ça avant de faire de telles accusations.

Et c’est pour cette même raison que j’ai utilisé le terme de paralogisme et non de sophisme, parce que le paralogisme désigne une erreur que l’on fait involontairement, là où le sophisme désigne plutôt le fait de tromper intentionnellement.

Et quand la discussion part sur l’idée que l’autre n’est pas un abruti, qu’il n’est pas malveillant, et qu’on est tous prêts à changer d’avis si les arguments d’en face sont convaincants, ça part déjà plutôt bien et l’on va pouvoir avoir un échange constructif.

Lorsqu’on contredit une personne, on peut aussi s’assurer qu’on a bien compris ses propos, en reformulant pour être sûr de ne pas faire un homme de paille. Un homme de paille c’est un argument fallacieux où l’on critique non pas ce que dit l’autre personne, mais ce qu’on lui fait dire, et quand on lui fait dire quelque chose d’absurde, forcément c’est plus facile à contredire.

Et quand on est dans des situations où c’est difficile de débattre sereinement, on peut opter pour l’entretien épistémique, qui consiste à poser des questions sur ce que défend notre interlocuteur pour mieux comprendre sa position. Ça permet de faciliter la remise en question chez ceux qui posent les questions, mais aussi pour ceux qui y répondent, parce qu’ainsi on aura tendance à mieux voir les éléments contradictoires de nos raisonnements que lorsqu’on nous met directement face à la contradiction. En gros, ça limite l’effet de réactance qu’on peut avoir lorsqu’on est contredit. Et sur l’entretien épistémique je vous invite à aller voir cette super conférence de Mr.Sam sur le sujet.

Bon, il y aurait encore plein de choses à dire sur le sujet, je n’ai pas été exhaustif, et je vous renvoie vers le travail d’autres personnes qui font déjà du super boulot de vulgarisation sur les questions de méthodologie. Il y a notamment les superbes chaînes d’ Hygiène Mentale, de Par le Début. Il y a aussi les cours de zététique et autodéfense intellectuelle de Richard Monvoisin qui sont vraiment géniaux, et encore plein d’autres dont je vous mets les liens en description, avec quelques lectures aussi si vous préférez autre chose que des vidéos.Et pour mettre en lien l’esprit critique avec des sujet relatifs à la politique et à l’éthique, vu que c’est un peu le cœur de la chaîne, je vous renvoie vers le travail de Florence Dellerie et son site Questions Animalistes, qui traitent notamment des question sur l’éthique animale, et vers sa conférence « Véganisme et esprit critique » qui aborde problème méthodologique qu’on rencontre dans les débats sur ces questions, et aussi sa conférence sur les mythes de l’alimentation naturelle qui déconstruit pas mal d’idées reçues qu’on peut avoir à ce niveau.

——————————————————————————————————————

Sources et liens pour aller plus loin :

Script de la vidéo suivante sur les chakras :
https://mangayoh.kher.nl/scripts-videos/les-chakras-existent-ils-experience-de-zetetique-7/

Celle sur la théorie de l’engagement et la dissonance cognitive :
https://mangayoh.kher.nl/2021/12/09/theorie-de-lengagement-et-dissonance-cognitive/

Comment démontrer n’importe quoi | Monsieur Phi :
https://www.youtube.com/watch?v=2DOYvDWZWwo


>>>Définition :

Scepticisme et zététique | Épistémax : https://epistemax.com/scepticisme/zetetique/
Qu’est-ce que la zététique | Jean-Michel Abrassart – Scepticisme Scientifique : https://www.youtube.com/watch?v=sKnN9_SUDBs
Qu’est-ce que la zététique | Professeur Z : https://www.youtube.com/watch?v=VvBXaBaiWeg
La vidéo de Mr.Sam sur la distinction des types de raisonnements (déductions, inductions, abductions) : https://www.youtube.com/watch?v=O3uI2WN8bFs

>>>Lien de chaîne vulgarisation de méthodologie scientifique :

Hygiène Mentale : https://www.youtube.com/c/Hygi%C3%A8neMentale/videos
Par le début : https://www.youtube.com/c/ParLeD%C3%A9but/videos
La tronche en biais : https://www.youtube.com/c/TroncheEnBiais-Zetetique/videos
Les amis du doute : https://www.youtube.com/channel/UCXt1boPE6QyP8OxTGKhI3jA/videos
Mr sam : https://www.youtube.com/c/SamuelBuisseretMrSam/videos
Méta de choc : https://www.youtube.com/channel/UCeYerYR680Q56i4D1HJcF8Q
La mal biaisée : https://www.youtube.com/c/Lamalbiais%C3%A9e/videos
Apprenti sage : https://www.youtube.com/c/ApprentiSage/videos
Julia Galef (chaîne anglophone) : https://www.youtube.com/user/measureofdoubt/videos
Vlanx : https://www.youtube.com/channel/UCZ3-PmXGBBFv-lZ6yYDlUbQ
La super conférence de Mr.Sam sur l’entretien épistémique : https://www.youtube.com/watch?v=f3RNHlgsGf8

Les cours de zététique et autodéfense intellectuelle de Richard Monvoisin : https://www.youtube.com/watch?v=CGEmZaIeB2Q&list=PLsbx1DYyydS-ie6wXA3Qu5zHLPWhilejW
Les articles de Ce n’est qu’une théorie : https://cenestquunetheorie.wordpress.com/category/stats/

Le site de l’AFIS (Association Française pour l’Information Scientifique) : https://www.afis.org/?fbclid=IwAR2S5yqOCfWVZO_SCrKti94XBg0-6W0jk_QGDjFczZd_jsE-UrKhWI9s6wY
Le site d’hygiène mentale qui regroupe pas mal d’infos : http://laelith.fr/Zet/Articles/
Avec une liste de lien vers des contenus sceptiques : http://laelith.fr/Zet/Galaxie-Sceptique-Francophone/
Liste de travaux sceptiques de la part de femmes (qui sont souvent assez peu visible dans le milieu scientifique très masculin) : https://www.zsfblog.eu.org/scepticisme-zetetique-et-esprit-critique/

>>>Arguments fallacieux et Biais cognitifs :

Liste d’arguments fallacieux | fondation lamap :
https://www.fondation-lamap.org/sites/default/files/upload/media/minisites/ESEC/fiche_mauvais_arguments.pdf

Les corrélations hasardeuses de spurious correlation : https://www.tylervigen.com/spurious-correlations

Page wiki des biais cognitifs :
https://fr.wikipedia.org/wiki/Biais_cognitif

Et la liste des biais sur la page anglophone :
https://en.wikipedia.org/wiki/List_of_cognitive_biases

Les biais cognitifs sur Psychomedia :
http://www.psychomedia.qc.ca/psychologie/biais-cognitifs

Le biais de l’unique invulnérabilité | Cortecs :
https://cortecs.org/superieur/lillusion-de-lunique-invulnerabilite/

L’appel à la nature | La tronche en biais :
https://youtu.be/5lXIK_4tpDs

Le biais des coûts irrécupérables | Sciences étonnantes :
https://scienceetonnante.com/2016/07/08/les-couts-irrecuperables/
https://www.youtube.com/watch?v=GCmfXMMhRzk :

Le biais de confirmation | La tronche en biais :
https://www.youtube.com/watch?v=6cxEu-OP5mM :

L’erreur fondamentale d’attribution | Dans vos têtes :
https://www.youtube.com/watch?v=_KtglMt-zmI

>>>Livres :

Broch, H. (2008). L’art du doute ou Comment s’affranchir du prêt-à-penser, Book-e-book : https://www.book-e-book.com/livres/8-l-art-du-doute-9782915312119.html

Broch, H. (2008). Comment déjouer les pièges de l’information, ou les règles d’or de la zététique, Book-e-book :
https://halldulivre.com/livre/9782915312126-comment-dejouer-les-pieges-de-l-information-ou-les-regles-d-or-de-la-zetetique-henri-broch/

Durant, T. (2019). Quand est-ce qu’on biaise ? Éditions humensciences :
https://www.humensciences.com/livre/Quand-est-ce-qu%27on-biaise-%3F-/28

Baillargeon, N. (2005). Petit cours d’autodéfense intellectuelle. Éditions Lux.

Plantin, C. (2005). L’argumentation, PUF, collection Que sais-je ? https://www.puf.com/content/Largumentation_Histoire_th%C3%A9ories_et_perspectives

Galef, J. (2021). The Scout Mindset : Why Some People See Things Clearly and Others Don’t. Penguin Random House.

La collection “une chandelle dans les ténèbres” des éditions book-e-book consacré à l’esprit critique:
https://halldulivre.com/listeliv.php?base=allbooks&form_recherche_avancee=ok&editeur=Book-e-book&collection=Une%20Chandelle%20Dans%20Les%20Tenebres&fbclid=IwAR2kx683CMRaAl6JUB5Ax8JMoMTkmQ9i8sgLhsBnsYzsbFiHPt2upzV2XuU

>>>BD / Livre jeunesse :

L’esprit critique de Isabelle Gauthian et Gally:
https://www.editions-delcourt.fr/bd/series/serie-l-esprit-critique/album-l-esprit-critique

Livre jeunesse:
Zack et Zoé, zététiciens en herbe de Jean-Michel Abrassart et Marius Nottet : https://www.bedetheque.com/serie-72524-BD-Zack-Zoe-zeteticiens-en-herbe.html

>>>Travaux de Florence Dellerie :
Le site Question animaliste :
https://questionsanimalistes.com/
Fiche sur les biais cognitifs sur Question animaliste :
https://questionsanimalistes.com/les-biais-cognitifs/
Fiche sur les niveaux de preuves :
https://questionsanimalistes.com/les-niveaux-de-preuve/
Ses conférences sur « véganisme et esprit critique » sur ACTA Gironde :
https://www.youtube.com/watch?v=2R4OiQ9J1VY
et sur « l’alimentation naturelle » sur PEA :
https://www.youtube.com/watch?v=L2D8TLGZRxM

Pyramide des preuves traduite par Kairos, et issues de :
https://thelogicofscience.com/2016/01/12/the-hierarchy-of-evidence-is-the-studys-design-robust/

Le forum d’Altruisme Efficace (pour mêler l’éthique et l’esprit critique) (en anglais) :
https://forum.effectivealtruism.org/