vendredi 25 janvier 2019

Les deux dimensions de la cuisson de la viande


Il y a des cas simples où une cause provoque un effet et un seul : si j'appuie sur une sonnette, ça sonne ; ou si je fouette un blanc en neige, il mousse.
Mais il y a des cas plus compliqués où il y a plusieurs effets simultanés, et c'est le cas pour la cuisson de la viande.

Commençons par indiquer que la viande (pensons à un biceps, ou un quadriceps), c'est donc un morceau de chair, fait essentiellement de tissu musculaire. Cette matière est elle-même faite de "fibres musculaires", sorte de tubes très fins, alignés parallèlement, et groupés en "faisceaux" par du "tissu collagénique", lequel tissu fait d'ailleurs aussi la "peau" des fibres. A l'intérieur des fibres, de l'eau et des protéines, principalement.



Pour comprendre ce qui se passe quand on cuit, il faut avoir, de surcroît, l'information selon laquelle il existe des protéines qui coagulent à la chaleur (pensons au blanc d'oeuf), et d'autres qui ne coagulent pas.
Or l'intérieur des fibres musculaires comprend de l'eau et des protéines qui coagulent, comme le blanc d'oeuf, alors que le tissu collagénique est fait de protéines (le "collagène") qui ne coagulent pas ; en revanche, le tissu collagénique chauffé se défait, libérant dans un liquide environnant du collagène dégradé, que l'on nomme la gélatine. Ajoutons enfin qu'avant de se défaire, le tissu collagénique se contracte, ce qui explique que la viande chauffée perde du jus : du liquide de l'intérieur est expulsé lors de cette contraction.

Avec cela, nous voyons que quand on chauffe à haute température, il y a plusieurs effets :
- à court terme, la viande se contracte et perd du jus... tandis que l'intérieur des fibres coagule, donc durcit. La viande devient dure, donc perd sa tendreté ; simultanément elle perd de la jutosité
- à plus long terme, la chaleur dissocie le tissu collagénique, donc permet une dissociation des faisceaux, ce qui laisse croire que la viande est "attendrie". En réalité, elle l'est pour la pièce entière, mais pas pour chaque fibre indépendamment.

Rapporter un manuscrit scientifique ? Le summum de l'intelligence, c'est la bonté et la droiture


Rapporter un article ? Les scientifiques qui ont déjà publié des articles scientifiques sont ensuite souvent sollicités par des revues scientifiques pour être rapporteurs de manuscrits  : il s'agit... de quoi, au juste ?

La principale mission est de s'assurer que le manuscrit est digne de figurer dans le corpus des articles scientifiques publiés, à savoir des points solides de la pensée. Cela impose que le manuscrit soit rigoureux, bien fait, bien écrit, et, surtout, que le travail scientifique soit bon.
Un bon travail scientifique ? On aura raison de se reporter à la méthode des sciences de la nature, qui passent par cinq étapes essentielles, réunies ici sur la figure :




Le phénomène est-il bien, clairement, identifié ? Les caractérisations quantitatives sont-elles bien faites ? Les "ajustements" sont-ils rigoureux ? Les interprétations sont-elles prudentes ? Les expériences sont-elles validées ?
Pour chacune de ces questions, il y a mille points à vérifier, et, comme on peut se reporter aux règles des bonnes pratiques en science, je n'en prend qu'un  : la description des expériences (partie "Matériels et méthodes") est elle suffisante pour que l'on puisse refaire l'expérience ? Et chaque matériel, chaque opération sont-ils justifiés ? Là encore, on pourra s'aider des "DSR" que nous avons proposés.

Mais passons sur tout cela, pour revenir à une autre perspective : l'état d'esprit avec lequel l'évaluation du manuscrit soumis doit se faire. On n'aura pas de difficulté à admettre que le travail d'évaluation doit se faire avec un état d'esprit positif et rigoureux, mais avec pour objectif l'avancement des sciences.

J'ajoute que  je suis partisan d'une évaluation complètement anonyme. C'est une position personnelle, mais fondée sur l'expérience : quand un ami soumet un manuscrit,  on est trop indulgent si l'on sait que c'est un ami et que l'on a un a priori favorable (parce que, évidemment, nos amis sont de bons scientifiques) ; inversement, quand on reçoit un manuscrit de quelqu'un que l'on n'aime pas ou dont on sait qu'il fait souvent du travail médiocre, on a un a priori négatif, et l'on risque d'être trop sévère. D'autre part, je crois que l'anonymat inverse, des éditeurs vis-à-vis des auteurs, permet que l'on puisse dire les choses telles qu'elles doivent être dites.

D'autre part, dans ces évaluations, l'objectif n'est pas de "soumettre à des pairs", comme on le dit trop souvent dans une formule trop vague pour être utile, mais de soumettre à des pairs en vue d'une amélioration du travail finalement publié. Oui, j'insiste : les rapporteurs doivent aider les scientifiques à améliorer leurs manuscrits.
À une certaine époque, quand les revues scientifiques étaient submergées et qu'elle n'avaient pas la place de tout publier, les rapporteurs avaient pour consigne d'être sévères et de proposer des raisons de rejet des manuscrits ; et, quand cette consigne n'était pas données, les éditeurs eux-mêmes étaient chargés de répondre aux auteurs que le manuscrit était en dehors du champ d'intérêt de la revue. C'était terrible pour les auteurs, qui, ayant parfois soumis de bons manuscrits, se voyaient obligés d'aller de revue en revue, changeant le format (du travail inutile), pour arriver à être publié... et en recevant parfois des conseils contradictoires, des rapporteurs qui n'étaient ni toujours bons, ni toujours bienveillants. Je me souviens, personnellement, avoir eu le même manuscrit refusé deux fois, d'abord au motif qu'il était verbeux, puis au motif qu'il était trop concis !

Mais, aujourd'hui que nous avons des documents en ligne, la place n'est plus limitée que par la nécessaire concision de la publication scientifique, par la clarté, avec de surcroît la possibilité de fournir les données par ailleurs, en "matériel supplémentaire" ou sur des sites de "données ouvertes".

Reste donc la question de l'évaluation des manuscrits, pour ce qu'ils sont, et non plus en fonction de circonstances extérieures. L'expérience de la revue "Notes Académiques de l'Académie d'agriculture de France" (N3AF) m'a montré que les rapporteurs ont tout intérêt à être mesurés dans leurs propos, et à ne pas outrepasser leurs droits. On ne leur demande pas de juger, mais de rapporter, à savoir commenter ce qui est écrit en vue de l'amélioration. On ne leur demande plus d'être des bourreaux, mais, au contraire, d'aider les auteurs à améliorer leurs manuscrits jusqu'à ce que ces derniers soient de qualité scientifique, publiables.
L'arbitraire, le goût personnel, ne sont pas de mise. La question est de savoir si l'argumentation est solide, si le texte est clair, si les données sont bien produites, si les interprétations sont prudentes, si les résultats sont validés... Bref, si le travail scientifique a été bien fait.
Et j'ajoute que la relation, qui doit changer, doit encourager le dialogue scientifique anonyme, en vue, donc, de la publication de manuscrits améliorés par ce dialogue.

Une nouvelle ère s'ouvre !

jeudi 24 janvier 2019

> Bonnes pratiques : à propos des "points aberrants"

En sciences de la nature, il y a la question très compliquée des points aberrants, ce que l'on nomme en anglais des outlyers. De quoi s'agit-il ? Je propose de partir d'un exemple simple, puis de tirer les leçons de l'analyse de ce cas élémentaire.

Un exemple imaginaire

Imaginons le physicien allemand Georg Ohm qui met en série une pile et une résistance électrique.




Il applique une différence de potentiel (une "tension électrique") et mesure l'intensité du courant. Puis il applique une autre différence de potentiel, à l'aide d'une autre pile, et obtient une autre intensité électrique. Et il fait cela pour plusieurs différences de potentiel, mesurant chaque fois l'intensité électrique.
Ayant ces données, il trace un diagramme, où les deux mesures forment les coordonnées de points... et il observe que ces points semblent s'aligner, qu'il y a une proportionnalité entre l'intensité électrique et la différence de potentiel (quand on double la différence de potentiel, on double l'intensité, par exemple).



Jusque là, tout va bien... sauf que les points ne sont pas parfaitement alignés, en réalité. Mais comme les mesures sont (toujours) imprécises, il se dit que la "loi" de proportionnalité est valable, et il la publie.
Oui, mais imaginons qu'il y ait eu une circonstance quelconque qui, pour une mesure, fait une perturbation qui engendre un point de mesure très éloigné des autres. Que faire ?



Évidemment, la première chose à faire est de répéter l'expérience particulière qui étonne, et, alors, deux cas se présentent :
- soit on retrouve la valeur bizarre
- soit on trouve ensuite des valeurs qui correspondent mieux à la loi de proportionnalité qui semble s'imposer expérimentalement.

Le cas le plus simple est celui où l'on retrouve la valeur bizarre. Si cette valeurs apparaît expérimentalement plusieurs fois,  ce n'est pas à nous de dire que l'expérience est mauvaise et que la loi de proportionnalité s'impose; nous devons nous interroger sur la raison de cet écart à la proportionnalité, en imaginant soit que l'expérience particulière que nous avons faite ne permet pas de voir cette proportionnalité, soit que  la nature n'a pas mis là de proportionnalité.
Ainsi, au cours  de mes recherches, je me souviens avoir mesuré la viscosité d'un sirop de sucre à l'aide d'une bille que nous laissions tomber et dont nous mesurions la vitesse. La variation était régulière... mais quand le sirop était très visqueux, le comportement de la bille de venait bien différent de celui décrit par la loi classique, un peu comme pour le point aberrant indiqué ci-dessus. A l'analyse, il était facile de voir, pour ce cas très simple, que le récipient, étroit, ne permettait pas aux écoulements de se faire librement, ce qui modifiait le résultat.

Les valeurs bizarres sont en réalité très intéressantes, car il y a cet adage qui stipule que lorsqu'on fait une expérience et que l'on obtient le résultat qu'on attendait, on a une confirmation,  mais si l'on a un résultat que l'on n'attendait pas, alors on a peut-être une découverte.  

Considérons maintenant le cas où, répétant l'expérience, au moins celle particulière qui a fait apparaître le point aberrant,  on trouve une valeur qui correspond mieux à la loi de proportionnalité. Là, c'est ennuyeux, car on est en réalité face à deux valeurs tout aussi probables (même s'il y a cette présomption de proportionnalité qui semble donner plus de poids à une valeur bien alignée), de sorte que l'on doit faire une autre répétition.
Ici, il faut quand même que j'observe, pour ceux qui l'ignorent, que l'expérience décrite pour la mesure de l'intensité et du potentiel électrique se fait en quelques instants, mais que, souvent, la répétition d'une expérience ne se fait pas en un claquement de doigts : certaines expériences prennent des mois, voire des années, de sorte qu'il est essentiel de bien choisir la stratégie que l'on utilise. Pour des expériences comme la détection du boson de Higgs ou des ondes gravitationnelles,  il hors de question de décider légèrement de répéter une expérience, et l'on doit avoir une stratégie très intelligente -dans le cadre des bonnes pratiques-,  c'est-à-dire de ne pas céder à ses croyances ou à ses fantasmes. Admettons ainsi que deux mesures semblent correspondre, alors qu'une troisième valeur est bizarre ; il y a lieu de mettre en œuvre des statistiques et d'afficher des résultats avec des probabilités, pas plus
Et l'on retrouve ici cette idée que la science n'est pas en train de démontrer des théories, mais plutôt de les réfuter :  les valeurs bizarre que l'on ne retiendra pas doivent être conservées, et elles doivent notamment être signalées lors de la publication d'un résultat.


Un exemple

A titre d'exemple, le cas le pire  que nous ayons rencontré dans notre groupe était à propos de la dégradation d'un composé, dans des conditions particulières très rigoureusement définies :  nous utilisions des matériels très propres, des produits très purs, des conditions très exactement contrôlées. Lors d'une première expérience (3 semaines de travail), nous avons mesuré la vitesse de dégradation du composé. Puis, quand nous avons répété l'expérience (nous répétons toutes nos expériences au moins trois fois), nous avons obtenu une dégradation beaucoup plus lente.
Évidemment la première chose à faire était de répéter encore l'expérience et nous avons retrouvé la dégradation plus lente. Je répète que ce qui se dit ici en quelques mots correspond à des semaines de travail... pour donner à évaluer le sentiments des chercheurs face à ces points aberrants, que seuls les malhonnêtes occultent (la poussière sous le tapis).  Bref, nous n'avons jamais réussi à retrouver la première vitesse de dégradation, qui semble donc être aberrante, mais que faire, devant une telle situation ? On se doute que nous avons tout analysé en détail : repris les cahiers de laboratoire pour voir comment les choses avaient été faites, par exemple... mais rien. 

Dans un tel cas, la bonne pratique s'impose : valider les mesures ultérieures par une autre expérience, différente, ce qui correspond à des "validations". Mais, aussi, lors d'une publication du résultat, évoquer ce premier résultat qui peut découler de causes innombrables : n'a-t-on pas vu, au centre de recherches d'études des particules de Genève, une oscillation d'un signal électrique due au passage du TGV près de l'anneau de collision ?

mercredi 23 janvier 2019

Comment organiser des stages pour les étudiants ?

Comment les enseignants doivent-ils encadrer les stages  ? Depuis des décennies, je reçois en stage des étudiants qui, dans le meilleur des cas, reçoivent une vague feuille de papier où il est écrit en moins de 400 signes comment ils devront faire leur rapport de stage. Parfois ils ont eu une séance rapide pour leur décrire les stages, et nous les recevons le mieux que nous pouvons. Parfois aussi, un enseignant vient visiter de laboratoire   à mi-stage pour s'assurer que tout va bien. C'est un encadrement très insuffisant !

Je veux ici dénoncer ces pratiques que je trouve extrêmement médiocres, notamment quand je les compare à ce que je viens de voir,  pour un étudiant venu d'Australie. Cet étudiant, avant de venir,  m'interrogeait sur mille détails, et  je me réjouissais qu'il prenne tant intérêt à sa venue dans notre groupe de recherche, mais ce qui était mieux encore, c'est qu'il m'a communiqué un document, qui décrivait parfaitement le travail de l'étudiant en stage : des  dizaines de pages disent exactement ce qui lui est demandé,  en termes de qualité, en termes de sécurité, en termes de traçabilité, en termes de comportement, en termes de du travail lui-même, de la façon de le faire... Quelle différence ! Ne devrions-nous pas suivre cet excellent exemple ?