Affichage des articles dont le libellé est article. Afficher tous les articles
Affichage des articles dont le libellé est article. Afficher tous les articles

vendredi 25 janvier 2019

Rapporter un manuscrit scientifique ? Le summum de l'intelligence, c'est la bonté et la droiture


Rapporter un article ? Les scientifiques qui ont déjà publié des articles scientifiques sont ensuite souvent sollicités par des revues scientifiques pour être rapporteurs de manuscrits  : il s'agit... de quoi, au juste ?

La principale mission est de s'assurer que le manuscrit est digne de figurer dans le corpus des articles scientifiques publiés, à savoir des points solides de la pensée. Cela impose que le manuscrit soit rigoureux, bien fait, bien écrit, et, surtout, que le travail scientifique soit bon.
Un bon travail scientifique ? On aura raison de se reporter à la méthode des sciences de la nature, qui passent par cinq étapes essentielles, réunies ici sur la figure :




Le phénomène est-il bien, clairement, identifié ? Les caractérisations quantitatives sont-elles bien faites ? Les "ajustements" sont-ils rigoureux ? Les interprétations sont-elles prudentes ? Les expériences sont-elles validées ?
Pour chacune de ces questions, il y a mille points à vérifier, et, comme on peut se reporter aux règles des bonnes pratiques en science, je n'en prend qu'un  : la description des expériences (partie "Matériels et méthodes") est elle suffisante pour que l'on puisse refaire l'expérience ? Et chaque matériel, chaque opération sont-ils justifiés ? Là encore, on pourra s'aider des "DSR" que nous avons proposés.

Mais passons sur tout cela, pour revenir à une autre perspective : l'état d'esprit avec lequel l'évaluation du manuscrit soumis doit se faire. On n'aura pas de difficulté à admettre que le travail d'évaluation doit se faire avec un état d'esprit positif et rigoureux, mais avec pour objectif l'avancement des sciences.

J'ajoute que  je suis partisan d'une évaluation complètement anonyme. C'est une position personnelle, mais fondée sur l'expérience : quand un ami soumet un manuscrit,  on est trop indulgent si l'on sait que c'est un ami et que l'on a un a priori favorable (parce que, évidemment, nos amis sont de bons scientifiques) ; inversement, quand on reçoit un manuscrit de quelqu'un que l'on n'aime pas ou dont on sait qu'il fait souvent du travail médiocre, on a un a priori négatif, et l'on risque d'être trop sévère. D'autre part, je crois que l'anonymat inverse, des éditeurs vis-à-vis des auteurs, permet que l'on puisse dire les choses telles qu'elles doivent être dites.

D'autre part, dans ces évaluations, l'objectif n'est pas de "soumettre à des pairs", comme on le dit trop souvent dans une formule trop vague pour être utile, mais de soumettre à des pairs en vue d'une amélioration du travail finalement publié. Oui, j'insiste : les rapporteurs doivent aider les scientifiques à améliorer leurs manuscrits.
À une certaine époque, quand les revues scientifiques étaient submergées et qu'elle n'avaient pas la place de tout publier, les rapporteurs avaient pour consigne d'être sévères et de proposer des raisons de rejet des manuscrits ; et, quand cette consigne n'était pas données, les éditeurs eux-mêmes étaient chargés de répondre aux auteurs que le manuscrit était en dehors du champ d'intérêt de la revue. C'était terrible pour les auteurs, qui, ayant parfois soumis de bons manuscrits, se voyaient obligés d'aller de revue en revue, changeant le format (du travail inutile), pour arriver à être publié... et en recevant parfois des conseils contradictoires, des rapporteurs qui n'étaient ni toujours bons, ni toujours bienveillants. Je me souviens, personnellement, avoir eu le même manuscrit refusé deux fois, d'abord au motif qu'il était verbeux, puis au motif qu'il était trop concis !

Mais, aujourd'hui que nous avons des documents en ligne, la place n'est plus limitée que par la nécessaire concision de la publication scientifique, par la clarté, avec de surcroît la possibilité de fournir les données par ailleurs, en "matériel supplémentaire" ou sur des sites de "données ouvertes".

Reste donc la question de l'évaluation des manuscrits, pour ce qu'ils sont, et non plus en fonction de circonstances extérieures. L'expérience de la revue "Notes Académiques de l'Académie d'agriculture de France" (N3AF) m'a montré que les rapporteurs ont tout intérêt à être mesurés dans leurs propos, et à ne pas outrepasser leurs droits. On ne leur demande pas de juger, mais de rapporter, à savoir commenter ce qui est écrit en vue de l'amélioration. On ne leur demande plus d'être des bourreaux, mais, au contraire, d'aider les auteurs à améliorer leurs manuscrits jusqu'à ce que ces derniers soient de qualité scientifique, publiables.
L'arbitraire, le goût personnel, ne sont pas de mise. La question est de savoir si l'argumentation est solide, si le texte est clair, si les données sont bien produites, si les interprétations sont prudentes, si les résultats sont validés... Bref, si le travail scientifique a été bien fait.
Et j'ajoute que la relation, qui doit changer, doit encourager le dialogue scientifique anonyme, en vue, donc, de la publication de manuscrits améliorés par ce dialogue.

Une nouvelle ère s'ouvre !

vendredi 7 décembre 2018

 Il y a beaucoup de choses à dire sur la rédaction des manuscrits de thèse, et je commence par le petit bout de  la lorgnette, si l'on peut dire. Un détail, donc, pourrait-on penser, mais on verra progressivement que cette discussion initiale sera suivie par d'autres, sur d'autres points importants ou ... importants : tout compte, quand on veut faire bien, et ce que je nommais un détail n'en est donc pas un. Et l'on comprend le "1/N" du titre : à ce stade, je fais le premier billet, mais je n'ai aucune idée du nombre de textes que je ferai.

Commençons donc avec la question des légendes des figures.

Les légendes ? Il est courant d'y voir un court titre, la discussion de l'image étant reléguée dans le texte, pas toujours proche de l'image... ce qui ne facilite donc pas la lecture.
Comment comprendre l'image ? Il faut une explication. Reléguer celle ci loin de la figure est une mauvaise solution... et c'est précisément pour avoir l'explication des images que l'on fait des légendes !
Conclusion : la légende doit dire ce que l'on doit voir. Et elle doit le dire pour tout autre que l'auteur,  le doctorant qui sait bien, lui, pourquoi l'image est intéressante. Nous, les lecteurs, qui ne sont pas spécialistes de la chose, n'en avons aucune idée. Et si nous en avions idée, cela prouverait que l'image est inutile, puisqu'elle n'apporterait pas d'information nouvelle.

 Considérons un cas précis : un graphique tel celui ci :




Il y a mille choses à dire, en se limitant à "décrire" ce que l'on voit... et cela est utile, car toute caractéristique du diagramme méritera d'être interprétée, ensuite, dans le texte.
Commençons par la description : bien sûr, il est question de temps et de masse de composée, mais quelle est l'expérience effectuée, pendant laquelle la masse de glucose a varié (ou pas) ? D'autre part, pourquoi ce pointillé à 20 min, et cette droite à 80 min ? Et puis pourquoi cette droite pointillée à 0,04 g ? Il y a des données de mesure, représentées par des croix, mais si l'on suppose que l'auteur a suivi les règles de bonnes pratiques, les incertitudes ou l'écart-type des trois répétitions est-il plus petit ou plus grand que les croix rouges ? Et puis, comment les données de mesures se répartissent-elles ? Bref, on a besoin d'apprendre à lire.
Puis, une fois que l'on comprend l'image, soit le milieu scientifique y reconnaît de l'ancien, de l'établi, une confirmation, donc ; soit on y voit du nouveau, ce qui permettra de justifier ses apports personnes ou de se mettre sur la piste d'interprétations originales... et cela pourra venir avec de plus longs développements dans le corps du texte.
On voit que l'on est loin d'un simple titre !

 Un dernier mot, sur un autre plan : ainsi définie, la légende qui se contente de décrire ne semble pas être le meilleur moyen de montrer de l'intelligence, ce qui est quand même l'objectif de chaque phrase que l'on pose dans le manuscrit de thèse... de sorte qu'il y a une réflexion à avoir pour ne pas faire quelque chose de "plat". Oui, dans une simple légende, il faut beaucoup d'étincelles, et cela ne s'obtient qu'au prix de beaucoup  de travail. Mon motto : le génie est le fruit du labeur.

samedi 10 novembre 2018

Que faire d'un mauvais article scientifique ?

Il y a des questions lancinantes, surtout depuis que les scientifiques sont évalués au nombre d'articles qu'ils publient et que certains  (peu, heureusement) publient à toute vitesse, presque n'importe quoi, ce qui s'ajoute aux mauvais articles du passé, dus à des scientifiques médiocres (il y en a de bons, heureusement) : comment reconnaître un bon article, et que faire d'un mauvais article ?

Il faut dire que la communauté scientifique est consciente du problème, et la question est explicitement posée dans des réunions scientifiques ou pédagogiques. Oui,  le système d'évaluation par les pairs commence à être débordé, notamment depuis que des pays comme la Chine ont ouvert leurs frontières, submergeant les revues, les comités de lecture, les rapporteurs potentiels ;  et  c'est sans doute la brèche dans laquelle se sont engouffrées les revues "open", qui publient contre finances des textes que les auteurs ne parviennent pas à publier dans de bonnes revues. En corollaire, ce fléau pèse sur aussi les scientifiques qui font leurs recherches bibliographiques et doivent être particulièrement vigilant, quant à l'origine des données qu'ils conservent et utilisent.

Comment reconnaître un mauvais article ? Il y a des signes qui ne trompent pas. Par exemple :
- dès le début de l'article, des affirmations sans référence,
-  ou encore des informations vagues (depuis longtemps, un certain nombre...),
- des adjectifs ou des adverbes au lieu d'utiles quantifications
 - "essentiel" ou "important"   : fuyons ces arguments d'autorité...
- des informations accessoires, qui ne seront pas utilisées dans la discussion scientifique, ou qui sont de la simple culture générale : ce n'est pas le lieu !
- des nombres avec des chiffres qui ne sont manifestement pas significatifs : cela, c'est plus grave, parce que si nos auteurs font des comparaisons, elles seront vraisemblablement nulles et non avenues, alors même qu'elles sembleront "établies". Et le plus grave, c 'est que l'article, s'il a été publié, a donc été mal édité, par des éditeurs et des rapporteurs également médiocres, pour ne pas dire plus
- puis, dans les "Matériels et Méthodes", il y a tout une série de fautes possibles, qui vont de l'imprécision dans les descriptions
 - à la non justification des méthodes mises en oeuvre
- ou de méthodes qui n'ont pas été validées
- et, dans les résultats, la confusion entre les résultats et leur interprétation
- la publication de données sans évaluation d'une incertitude
- et des conclusions qui vont au delà de ce qui a été établi
Je m'arrête ici, parce que la liste est longue, et mériterait une collaboration de la communauté, afin d'aider les jeunes scientifiques à éviter ces erreurs.

Passons donc à la seconde question, qui est de savoir quoi faire des informations publiées dans un article qui a été reconnu mauvais ?
Par exemple, si les chiffres significatifs ne sont pas bien gérés, alors  les comparaisons qui auront été faites d'après ces chiffres n'ont pas lieu d'être. Dans un tel cas, la marche à suivre est donc simple :  on peut rien retenir des interprétations. Mais on pourrait aussi imaginer  de refaire les calculs, à partir des valeurs ramenées à leur affichage correct, et, d'ailleurs, rendre service à la communauté en publiant un erratum... qui nous vaudra de nous brouiller avec l'équipe qui a publié les résultats initiaux.
Cela suppose évidemment que les données soient justes, à défaut d'être correctement affichées ! Et là se pose la question des "Matériels et méthodes" : je milite pour que cette partie soit toujours avant les résultats, car pourquoi perdre son temps à considérer des résultats qui pourraient être nuls, en raison d'une mauvaise méthode ?

Finalement, je ne vois pas de règle générale à appliquer, pour répondre à cette seconde question, et je compte sur mes amis pour m'aider à en élaborer une.


samedi 2 juin 2018

Un article qui n'est publié qu'en grec

Ce matin, je reçois la revue Dekata, où j'ai publié un article... qui apparaît en grec. C'est au point que je ne sais donc pas ce que j'ai écrit. Sauf que j'ai (évidemment) la version en français, que voici : 





De quelques courants culinaires et des raisons historiques et artistiques qui les sous-tendent
Hervé This


Comment l'art culinaire évolue-t-il, depuis la dernière guerre mondiale ? Comment pourra-t-il évoluer, dans les prochaines décennies ? Pourquoi l'évolution passée de cet art, et pourquoi l'évolution future que nous décrirons plus loin est-elle probable, à défaut d'être certaine ? Ce questionnement sera l'occasion de contribuer à supprimer bien des confusions, des fantasmes, en même temps que nous éclaireront les amateurs d'art (culinaire).


L'art culinaire ? Avant de parler d'un objet, il est bon d'établir son existence : rien de pire que ces clercs du Moyen-Age qui voulaient compter les anges sur la tête d'une épingle, faute intellectuelle qui renvoie à la querelle de Platon et d'Aristote sur la réalité des idées. Or je me souviens que, il y a quelques décennies, des intellectuels contestaient ce statut.
Partons d'observations : l'être humain, comme ses ancêtres primates et comme ses ancêtres plus anciens, non humains, doit se nourrir pour se développer, puis se reproduire. Toutefois, contrairement à la plupart des espèces animales, qui se contentent des tissus végétaux ou animaux non préparés, notre espèce humaine a un comportement de nature toute culturelle -la préparation des aliments- qui engendre une différence entre les « ingrédients » et les « aliments ». Nous ne mangeons pas le porc sur pied, ni le poisson cru non écaillé, ni la carotte non lavée ; nous les « cuisinons ». Mieux, même, nous sélectionnons les espèces végétales et animales en vue d'en faire des ingrédients mieux adaptés aux transformations que nous leur faisons subir, transformations qu'il faut nommer « culinaires ».
La cuisine, donc, c'est bien la transformations d'ingrédients, le plus souvent inadmissibles en l'état pour des êtres humains, en aliments, conformément à des canons, des prescriptions, des habitudes, des coutumes.
Cela étant dit, nous devons aussi considérer que tous les cuisiniers/ères du monde ne se limitent pas à des gestes techniques, mais cherchent aussi à faire « bon ». Par exemple, le choix de la quantité de sel que l'on ajoute à une viande ou à un poisson que l'on cuit n'est pas un choix technique : qu'on en mette plus ou moins ne change généralement pas le résultat, du point de vue de la transformation qui s'opère. En revanche, ce choix détermine le fait que l'aliment soit jugé « bon » ou « mauvais ». Bon ? J'ai proposé dans un de mes livres que nous reconnaissions qu'il s'agit en réalité du « beau à manger ». Et, de ce fait, la cuisine ajoute une composante véritablement artistique à la composante technique. Cela a également comme conséquence de disqualifier des idées fautives comme cette théorie fallacieuse du « food pairing », qui se propage dans le milieu culinaire depuis qu'une société industrielle qui vend des préparations aromatisantes l'a promue : non, il n'y a pas plus d'associations culinaires entre du poisson et du vin blanc, ou entre de la viande de bœuf et du vin rouge, qu'il n'y a de nécessité à faire entendre un do avec un fa, en musique, ou à juxtaposer du rouge avec du vert en peinture. En matière d'art, ce qui « convient », c'est ce que l'artiste choisit, individuellement, et l'histoire de l'art montre à l'envi combien les « règles » ont toujours été abattues : que l'on souvienne de l'histoire de la perspective, en peinture… et le cubisme ; ou la peinture abstraite après la peinture réaliste. En cuisine, c'est pareil, et l'histoire de l'art culinaire le démontre amplement.
La cuisine se limite-t-elle à cela, de la technique et de l'art ? Je ne crois pas : le plat le mieux préparé techniquement et le plus artistiquement composé ne sera jamais bon s'il nous est jeté à la figure ou si nous mangeons en mauvaise compagnie. Inversement il a été mesuré que les plats sont mieux appréciés quand ils sont consommés en groupes, ce que la socialité de l'espèce humaine devait faire deviner. La cuisine, de ce fait, comporte une composante technique, une composante artistique, et une composante sociale. Mais pour en terminer avec l'art culinaire, il faut conclure qu'il existe vraiment, que, comme tout art, il a évolué et évoluera encore.

Pour bien comprendre, il faut savoir ce qu'est la gastronomie

Observons que l'étude de la cuisine, de son histoire, de sa géographie, de sa sociologie, mais aussi sa technologie et les sciences quantitatives qui la considèrent relèvent stricto sensu de la « gastronomie ». Bien sûr, le mot « gastronomie » est d'étymologie grecque, mais son acception moderne, en français puis dans toutes les langues du monde, remonte à Joseph Berchoux, qui l'utilisa en 1801 dans un poème intitulé L'Homme des champs à table, puis au juriste Jean-Anthelme Brillat-Savarin, qui publia en 1825 un livre encore publié aujourd'hui dans la plupart des langues du monde La physiologie du goût. C'est à Brillat-Savarin que revient d'avoir défini la gastronomie, à savoir « la connaissance raisonnée de tout ce qui se rapporte à l'être humain qui se nourrit ». L'historien de la cuisine, par exemple, fait de la gastronomie historique ; le géographe de la cuisine fait de la gastronomie géographique, et ainsi de suite… jusqu'à la science chimico-physique qui explore la cuisine, et qui a pour nom « gastronomie moléculaire ».
Un peu d'histoire s'impose pour bien comprendre ce qu'est cette gastronomie moléculaire, et en quoi elle se distingue de ce que j'ai nommé « cuisine moléculaire. En passant, nous verrons pourquoi  (1) la gastronomie moléculaire est appelée à se développer encore davantage dans le futur ; (2) la cuisine moléculaire va progressivement disparaître, après avoir été très en vogue dans les restaurants artistiquement les plus modernes du monde ; (3) un nouveau courant culinaire va apparaître, sous le nom de « cuisine note à note ».
Campons d'abord le tableau. Après la Seconde Guerre mondiale, quand les pays industrialisés ont retrouvé des niveaux d'approvisionnement alimentaire d'avant la guerre, la cuisine se faisait traditionnellement, avec une cuisine populaire, notamment très rurale, une cuisine bourgeoise, dans les villes, et une cuisine d'apparat. Pour la cuisine d'apparat, quelques artistes tels que Marie Antoine Carême (1784-1833) ou Auguste Escoffier (1846-1935), ou encore Edouard Nignon (1865-1934) avaient fait rayonner dans le monde la cuisine française, qui avait d'ailleurs toujours (disons au moins depuis le Moyen Age, selon les sources écrites) eu une particularité, à savoir que les mangeurs parlaient de ce qu'ils mangeaient.
C'est d'ailleurs ce qu'il faut comprendre quand on considère l'inscription au patrimoine immatériel de l'humanité, par l'Unesco, du repas gastronomique des Français : ce qui a été considéré comme original, c'est une régularité, dans le pays, d'une structure de repas, avec entrées, plats, garniture, fromage, dessert, boissons correspondantes, plus des ajouts éventuels, mais tout cela enchâssé dans une culture comparative, et avec une insistance générale dans le pays.
Puis, quand les douleurs de la Seconde Guerre mondiale se sont estompés, l'urbanisation s'est accompagnée d'une réduction des efforts physiques (donc de la nécessité d'une nourriture abondante et calorique), qui est allée parallèlement à un allégement de la cuisine. La « nouvelle cuisine », dont les figures de proue étaient Paul Bocuse, Michel Guérard, Alain Senderens, les frères Troisgros et quelques autres, a supprimé les sauces les plus lourdes, les plus beurrées, les plus chargées de farine, pour privilégier des jus, par exemple. Il est d'ailleurs tout à fait spectaculaire de comparer un plat d'un cuisinier triplement étoilé de la fin des années 1950 et un plat triplement étoilé des années 1970 : si demeurent des constantes (les viandes grillées, les pommes de terre frites ou allumettes, des haricots verts avec du beurre ou des asperges avec une sauce mousseline, les vol-au-vent emplis de sauce béchamel disparaissent, tandis que les assiettes reçoivent des quantités plus modérées de jus. Les cuissons aussi, changent : alors que les cuissons étaient très longues, on privilégie des légumes plus croquants (par exemple, pour la cuisson des haricots verts).
Puis, dans les années qui suivent, la cuisine s'internationalise, poursuivant le mouvement d'acclimatation qui avait commencé depuis longtemps en France : Carême, par exemple, avait été cuisinier du tsar de Russie, du roi d'Angleterre, etc, et il avait rapporté en France des plats étrangers qu'il avait adapté, selon les règles de la cuisine classique française.
Les débuts de la gastronomie moléculaire et de la cuisine moléculaire

Arrivent alors les années 1980. A cette époque, mon vieil ami Nicholas Kurti (1908-1998), professeur de physique à l'Université d'Oxford, était déjà actif pour ce qui concerne la promotion de méthodes physiques en cuisine : dans une conférence donnée à la Royal Institution de Londres, il avait dit (tout cela est écrit dans un article) que le transfert technologique de la chimie à la cuisine était fait, mais pas celui de la physique à la cuisine. Nicholas Kurti était spécialiste des très basses températures, des techniques du vide, du froid, et, en conséquence, il s'était demandé si l'on ne pouvait pas transférer ces techniques en cuisine.

De mon côté, à Paris, alors que j'ignorais tout de Nicholas Kurti et de ses propositions, j'avais fait une démarche analogue, mais en ce qui concerne la chimie, parce que je m'étonnais que la cuisine, qui avait les mêmes opérations que la cuisine, à savoir broyer, chauffer, etc. , utilise des ustensiles périmés et inefficaces, alors qu'il y avait dans les laboratoires de chimie de quoi faire bien mieux. Dans un article de la revue de la Société française de chimie, l'Actualité chimique, j'avais considéré un catalogue de fourniture pour laboratoire de chimie, et page après page, j'avais montré comment utiliser ces appareils pourraient rénover la composante technique de la cuisine: ampoules à décanter, évaporateurs rotatifs, sondes à ultrasons, etc.

Je n'étais donc pas d'accord avec Nicholas Kurti, et la proposition que je faisais démontrait que non, le transfert de la chimie à la cuisine n'avait pas été fait. D’ailleurs, la proposition ultérieure de la « cuisine note à note » a confirmé que ce transfert était loin d’être fait.
Mais n'anticipons pas.
Quand nous nous sommes rencontrés, en 1986, nous avons commencé à collaboré, parce que, indépendamment des propositions technologiques, nous étions intéressés de comprendre les phénomènes qui surviennent en cuisine. Par exemple, pourquoi les soufflés gonflent-ils ? Pourquoi la viande grillée brunit-elle ? Pourquoi la chair du poisson cuit devient-elle opaque ? Pourquoi la sauce mayonnaise rate-t-elle parfois ? Il s'agissait cette fois d'une activité strictement scientifique, et non technologique, parallèle à nos efforts de promotion des ustensiles modernes. Et c'est cette activité scientifique, pour des scientifiques et non pas pour des cuisiniers, que nous avons nommée initialement « gastronomie moléculaire et physique » (ce qui fut le titre de ma thèse de science), nom que j'ai ultérieurement abrégé en « gastronomie moléculaire ».
Et, en 1992, c'est avec une idée de recherche scientifique (chercher les mécanismes des phénomènes qui surviennent lors des transformations culinaires), que nous avons organisé le premier congrès international de gastronomie moléculaire et physique, en Italie. A l'époque, nous avions invité des cuisiniers, mais c'était surtout pour que nos explorations partent d'un corpus réaliste de phénomènes culinaires, et non pas de nos interprétations d'amateurs de cuisine. Hélas, une partie du monde culinaire et de la presse internationale a confondu l'activité technique (on fait quelque chose : par exemple, la cuisine), l'activité technologique (on améliore la cuisine) et l'activité scientifique : chercher des mécanismes par la méthode des sciences quantitatives). Cette confusion existe encore dans de nombreux pays, notamment de langue anglaise.
Puis, dans les années qui suivirent, nous avons poursuivi en parallèle les deux activités, scientifique et technologique. Pour cette dernière, on a vu que la rénovation technique que nous proposions concernait principalement les ustensiles, et l'on voyait manifestement la possibilité pour les cuisiniers de cuisinier différemment, d'un point de vue technique. Notre activité a conduit des cuisiniers de plus en plus nombreux à utiliser des techniques modernes, notamment avec un projet européen (Innicon), où nous avons réuni scientifiques, technologues et cuisiniers. Et c'est ainsi que, en 1999, très précisément lors d'une réunion à l'Ecole supérieure de la cuisine française, de la chambre de Commerce de paris, au Centre Jean Ferrandi, alors que nous étions avec les partenaires du programme européen Innicon, lequel était centré sur les applications techniques de la gastronomie moléculaire, le cuisinier anglais Heston Blumenthal déclara à une télévision qu'il faisait de la gastronomie moléculaire... et j'intervins aussitôt en disant que non, qu'il n’était pas scientifique, qu'il ne faisait pas de gastronomie moléculaire. Dans l'urgence de l'interview, j'eus le sentiment qu'il fallait donner un nom pour cette activité des cuisiniers qui s'inspiraient de la gastronomie moléculaire, et j'eus l'idée, sans doute mauvaise, de proposer « cuisine moléculaire ».

Ultérieurement, j'ai compris que ce nom était mal choisi, parce que le public fait mal la différence entre la gastronome et la cuisine. Mais il était mal choisi aussi parce qu'il y avait trop de proximité entre « gastronomie moléculaire » et « cuisine moléculaire » : ce fut une possibilité de confusion. Enfin ce nom était mal choisi du point de vue de la langue, car stricto sensu, l’expression est soit tautologique soit fausse : les cuisiniers qui utilisent les nouvelles techniques n'ont pas d'action moléculaire au sens des chimistes, et c'est seulement l'usage de nouveaux outils qui était concerné. D'ailleurs, il y eut bien quelques détracteurs idiots pour ironiser sur le fait que l'on irait bientôt proposer de la cuisine atomique, oubliant que « cuisine moléculaire » est une expression, qu'il ne faut pas prendre à la lettre. Non, la cuisine moléculaire est une expression à prendre en totalité, et dont la définition est « cuisiner avec des ustensiles « modernes » ». Là encore, les guillemets autour de  « moderne » signalent une difficulté : ce qui était moderne il y a trois siècle ne l'est évidemment plus aujourd'hui, et, d'ailleurs, l'histoire de la cuisine montre que l'on a utilisé plusieurs fois l'expression « cuisine moderne ».

Mais on ne refait pas l'histoire. La cuisine moléculaire, c'est donc cette forme de cuisine, proposée dans les années 1980, qui consiste à utiliser des ustensiles venus des laboratoires de chimie. Et si la révolution technique n'est pas terminé, elle a considérablement avancé. Au tout début, je me souviens que c'était un fait d'arme, pour les cuisiniers, que d'aller acheter un thermocirculateur dans les catalogues de matériels de chimistes, pour pratiquer la cuisson à basse température. Je me souviens avec émotion, et surtout avec joie, les essais des premiers cuisiniers avec les évaporateurs rotatifs. Pour d'autres ustensiles, je n'ai pas (encore) eu le même succès. Par exemple, je n'ai pas réussi à faire utiliser les sondes à ultrasons pour la confection des émulsions; je n'ai pas réussi à imposer les systèmes de filtration modernes pour la clarification des bouillons… Mais on a déjà beaucoup progressé, et je ne doute pas que l'on continuera.

Voilà pour la cuisine moléculaire, au sens de molecular cooking, la technique. Passons maintenant à la cuisine moléculaire, dite en anglais molecular cuisine, expression qui désigne un style de cuisine. Là, je dois avouer qu'il y a eu quelque chose d'imprévu : je n'imaginais pas que le développement de la cuisine moléculaire au sens de la technique conduirait à une style de cuisine reconnaissable, parce que la technique permet de produire différemment. Par exemple, les siphons font des mousses reconnaissables ; par exemple l'emploi d'azote liquide permet de faire des poudres d'huile ; par exemple, les cuisons basse température font des viandes reconnaissables.

Bref l'introduction de nouvelles techniques a conduit des cuisiniers inventifs à produire des éléments de plats que l'on a progressivement retrouvé dans de nombreux restaurants du monde. Dans la liste précédente, je n'ai pas évoqué les perles d'alginates et d'autres gels, ce qui me conduit à évoquer cet épisode étonnant de 1984. J'avais proposé à une association professionnelles de chefs français d'utiliser ces produits que l'industrie utilisait déjà parfois: agar-agar, xanthane caroube, alginates... Je me souviens très bien de ma déception quand on m'a répondu un « non » catégorique, en me disant que cela allait empoisonner les clients. En l'occurrence, pourquoi la gélatine aurait-elle été utilisé plutôt que ces gélifiants ? J'ai continué à proposer cet usage, et il s'est imposé, à cela près que je viens d'apprendre qu'une grande institution culinaire française venait d’interdire les siphons et l'agar-agar dans un concours qu'elle organise. Mais pourquoi, alors, n'interdirions nous pas les casseroles et les fourchettes ? Ou la gélatine et les œufs ? Il y a là une position réactionnaire, et je crois que nos jeunes cuisiniers méritent plus d'ouverture d'esprit de la part de leurs aînés un peu irresponsables

Mais voilà, il y a donc un style de cuisine, qui s'est introduit, tout comme s'était introduit la nouvelle cuisine dans les années, en 1970, un courant qui faisait suite à la cuisine bourgeoise, qui faisait suite à la cuisine classique, etc.
En français donc, l'expression « cuisine moléculaire » recouvre deux entités distinctes, alors qu'en anglais, pour ceux qui manient les mots subtilement, il y a deux expression différentes pour deux réalités différents.



Et pour le futur, il faut avoir des faits en tête

Pourquoi toutes ces explications ? Parce que l'on me les demande, mais aussi parce que je ne cesse de voir, sur internet, des journalistes de langue anglaise qui confondent tout : la gastronomie moléculaire et la cuisine moléculaire, qu'il s'agisse de technique ou de style. Évidemment le monde est le monde, et l'on serait Don Quichotte à vouloir le changer, mais il n'est pas proposer des éclaircissements, des explications, car il y aura bien quelques esprits attentifs et intelligents qui prendront l’information au vol et la feront peut être rayonner.

De toute façon aujourd'hui, ces histoires de cuisine moléculaire sont très largement dépassées par la « cuisine note à note ». J'ajoute immédiatement que, cette fois, il y a le risque que des individus un peu hâtifs et imprécis ne disent que la gastronomie moléculaire est dépassée. Elle ne l'est pas, car c'est une activité scientifique qui de développe dans le monde entier, avec la création périodique de nouveaux laboratoires.

Non, ce qui est dépassé, c'est la cuisine moléculaire : la rénovation technique est proposée depuis longtemps, elle est en partie faite, et il est largement temps de passer à autre chose, à savoir la cuisine note à note.
De quoi s'agit-il ?
En 1994, alors que je rédigeai la conclusion d'un article pour une grande revue scientifique, j'eus l'idée que, puisque j'utilisais personnellement des composés chimiques purs, pour agrémenter ma cuisine, comme on utilise des épices pour donner du goût, on pourrait faire le plats tout entiers à partir de composés. Sans fruits, sans légumes, sans œufs, sans viande, sans poisson. Rien que des composés pour construire la consistance, la couleur, la saveur, l'odeur, etc.
Quel intérêt ? Est-ce possible ? La faisabilité, tout d'abord, fut démontrée avec le cuisinier français Pierre Gagnaire, que j'ai aidé à construire le premier de cuisine note à note jamais réalisé (à Hong Kong en 2009), mais les explorations des pionniers sont maintenant déjà du passé, et je suis heureux de voir que, depuis avril 2017, le cuisinier franco-italien Andrea Camastra, à Varsovie, a entièrement fait basculer son restaurant pour servir de la cuisine note à note : les journalistes s'y ruent, comme ils le faisaient à la fin des années 1990 chez Ferran Adria, en Espagne, pour la cuisine moléculaire.
L'intérêt ? Il y a « des » intérêts : artistiques, techniques, sociaux, politiques, nutritionnels… et ce serait trop long de les évoquer tous.
L'intérêt artistique se comprend facilement, notamment par une comparaison avec la musique : il y a deux siècles, on jouait du violon, de la flûte, de la trompette, etc. Chacun de ces instruments produisait un son, et avec ces sons, on faisait de la musique. Puis, il y a environ un siècle, les physiciens ont appris, après les travaux du mathématicien Joseph Fourier (1768-1930) à analyser les sons, à les décomposer en ondes sonores pures : fondamental, harmoniques… Enfin, dans les années 1950, ce furent les pionniers de la musique électro-acoustique, qui a conduit à ce que, aujourd'hui, la majeure partie de la musique soit électronique.
Ne peut-on imaginer une évolution analogue pour la cuisine ? Après tout, dans le temps, on utilisait des tissus animaux et végétaux pour cuisiner. Puis, depuis un siècle environ, la chimie a analysé ces tissus et reconnu les composés purs qui les constituaient : celluloses, pectines, protéines, lipides… Ce qui conduit à des possibilités de composition à l'infini ! En réalité, la cuisine note à note est comme un continent nouveau de mets jamais réalisés, de goûts jamais dégustés, de consistances inédites… qui pourront d'ailleurs être facilement obtenues par l'emploi d'imprimantes 3D.
Mais c'est la question de la sécurité alimentaire qui motive surtout les explorations scientifiques ou technologiques de la cuisine note à note. Nous ne devons pas oublier que, en 2050, les prévisions internationales arrivent à des hypothèses de 10 milliards d'individus sur la Terre. Comment les nourrir ? La lutte contre le gaspillage a commencé à l'échelle internationale, et il faut observer que ce gaspillage découle surtout du fait que nous transportons des ingrédients frais (végétaux ou animaux) qui s'abiment dans les transports, sans compter que nous transportons inutilement de l'eau : une salade, c'est jusqu'à 99 pour cent d'eau ; une tomate 95 pour cent ; une viande 75 pour cent !
Bref, il y a lieu d'envisager des futurs possibles, sans que notre plaisir de manger soit tué par la nécessité, bien au contraire.
Et la gastronomie moléculaire, qui se développe dans des universités du monde entier, au point que nous avons créé en 2014 un « Centre international de gastronomie moléculaire AgroParisTech-Inra », vise notamment l'exploration des nouveaux « systèmes physico-chimiques » réalisables par cette nouvelle forme de cuisine, avec des libérations inédites des nutriments, des composés gustatifs, par des structures physiques nouvelles. Peut-on, par exemple, imaginer des plats où un goût apparaitrait en début de dégustation, disparaîtrait, puis serait remplacé par un autre goût, puis après quelques secondes par un troisième ? La réponse est oui : un travail récent, d'exploration des gels, a montré l'ensemble des possibilités réalisables. Il faut maintenant effectuer le transfert de la science à la technologie, puis à la technique, en même temps que les artistes explorent des voies nouvelles.


mercredi 6 décembre 2017

Il faut considérer que les rapporteurs ont toujours raison même quand ils ont tort


Le titre de ce billet est évidemment paradoxal, mais je suis certain que l'idée est juste. 


Lors de la soumission d'un manuscrit pour publication, l'auteur reçoit de l'éditeur en charge du texte un ou plusieurs rapports de rapporteurs, c'est-à-dire une série d'observations, remarques, questions posées par des « pairs ». Evidement les journaux cherchent des rapporteurs aussi compétents, intelligents, consciencieux que possible, mais il faut admettre que s'applique ici aussi la célèbre « Loi du petit Wolfgang », qui stipule que 90 pour cent  des échantillons d'un groupe sont médiocres. De même que les scientifiques ne sont pas tous exceptionnellement bons, les rapporteurs, qui sont un échantillon de ce premier groupe, n'ont pas de raison d'être particulièrement meilleurs, en proportion.
Il faut donc que les auteurs des manuscrits, qui ne sont pas particulirement meilleurs que les rapporteurs (en proportion), considèrent les observations des rapporteurs avec discernement, avec jugement.
Il se trouve que certaines des remarques, observations, critiques, propositions sont inappropriées, et cela cause, chez les auteurs, des frustrations, voire de la paranoïa. Et c'est ce qui conduit certains auteurs à refuser, butés, certaines remarques des rapporteurs et crée des tensions dans le monde scientifique. Certes, parfois, les observations sont hors de propos ; certaines  demandes faites par les rapporteurs sont injustifiées…
Mais, au fil des soumissions de manuscrits, les auteurs ont  vite fait de considérer qu'il n'y a pas lieu d'en tenir compte, et on les voit se raidir dans des postures de refus, qui, bien évidemment, conduiront les rapporteurs et les éditeurs à se raidir également… et à refuser les articles.

Tout cela me paraît bien improductif, et je propose plutôt de considérer l'idée essentielle suivante : si un rapporteur a buté à un moment particulier de sa lecture, c'est qu'il y a « quelque chose ». 

Je me fonde sur vingt ans d'édition d'articles de vulgarisation scientifique ou de publication d'ouvrages (dont j'étais soit auteur, soit éditeur), et sur l'observation empirique, mais régulière du fait que  toute partie de phrase, tout mot, tout paragraphe qui « coince » à une lecture donnée coincera régulièrement par la suite.
J'ai assez enseigné aux auteurs à penser que toute observation qui est leur est faite appelle une modification du texte initial. Pas nécessairement la modification particulière qui est réclamée par l'éditeur, le lecteur ou le rapporteur, mais il faut de l'auteur un travail supplémentaire qui permettra au manuscrit de monter d'un cran dans l'échelle de la qualité.

Ce qui vaut pour des traités assez généraux vaut également pour des manuscrits scientifiques, car, dans les deux cas, une clarté extrème s'impose. Certes, on ne doit pas pallier l'ignorance des lecteurs ou des rapporteurs, mais en tout cas, on doit être parfaitement clair. De sorte que même si une observation d'un rapporteur se fonde sur l'ignorance toute idiosyncratique de celui-ci, l'auteur a, avec l'observation qui a été faite, une invitation à faire mieux. Il ne faut pas répondre au rapporteur en lui donnant tout le pan de connaissances qu'il n'a pas, en palliant toute son ignorance éventuelle, mais profiter de l'observation pour chercher  à faire mieux.  Le rapporteur a peut être tort, mais on aura raison de tenir compte de son observation.

Car on ne doit pas oublier que l'évaluation par les pairs est surtout un moyen d'améliorer la qualité des manuscrits  jusqu'à  atteindre une qualité scientifique suffisiante pour passer à la publication. Il en va de même de nos travaux, quand ils sont évalués par d'autres : ces autres ne sont pas nécessairement dans le vrai, mais nous aurons intérêt à profiter des remarques pour nous améliorer.

mercredi 2 août 2017

Qui peut signer les articles scientifiques ?

 Je me souviens d'un billet que j'ai fait, à propos des signataires des articles scientifiques : qui peut signer ? qui ne doit pas signer. Mais la lecture du {Responsible Science} de l'Académie américaine des sciences me fait tomber sur une idées un peu différente, que je livre d'abord sans commentaires :

{Conferring or requesting authorship on the basis of a specialized service or contribution that is not significantly related to the research reported in the paper. }

 Il ne faut  donc pas faire signer, ou demander de faire signer des collègues sur la base d'un service ou d'une contribution qui n'est pas significativement reliée au travail rapporté dans l'article. Dans cet énoncé, il manque donc cet "accepter de faire signer" que j'avais discuté précédemment. Mais, surtout, tout tient dans le "significativement" : c'est là que s'introduit le diable.

Résultat de recherche d'images pour "diable bruegel"


Dans le travail scientifique, il y a en effet :
- l'identification des phénomènes que l'on explore  : évidemment, c'est une étape essentielle, puisque en découle tout le reste, et c'est donc "significatif". Bien sûr, il y a le cas où un phénomène est mal identifié, et l'on peut imaginer que quelqu'un vienne ensuite pour finir l'identification, et mettre le phénomène dans toute la lumière qui permet l'étude : là encore, j'ai l'impression que c'est significatif
- puis vient la caractérisation quantitative du phénomène, et il y a là un travail technique, qui se divise en
    - préparation de l'expérience
    - préparation des échantillons
    - analyse des échantillons
    - analyse des résultats
 Sans toutes  ces étapes, rien n'existe, de sorte que tout semble "significatif"... à cela près que, pour chaque étape, il peut y avoir une exécution complète, ou une partie d'exécution. Par exemple, pour la préparation des échantillons, il faudra avoir lavé la verrerie afin de faire des mesures "propres" : un simple travail de "plonge" est-il significatif ? Bien sûr, il est indispensable, car il détermine la qualité des résultats ; mais significatif ? Par exemple, la sauvegarde des fichiers de données est essentielle à l'activité du laboratoire, mais l'informaticien qui organise ces sauvegardes doit-il figurer parmi les auteurs ? Et le personnel administratif, sans lequel rien ne pourrait avoir lieu ?
A l'inverse, si l'on considère que la science est une activité intellectuelle, de création, on pourrait arguer que seuls les concepteurs de l'expérience, les créateurs de théorie, méritent de figurer parmi les auteurs... mais on tombe alors dans un excès inverse.
Décidément, les Grecs antiques avaient raison de prôner la modération en toute chose, et, dans ce débat des signataires d'un article, rien ne remplacera un peut de jugeotte... et d'honnêteté.

- le phénomène étant caractérisé quantitativement, il faut réunir les données en lois synthétiques : là, il est plus clair que le travail mérite signature

- puis peut s'élaborer une théorie, à partir des équations identifiées : c'est là que vient l'étape d'induction, parfaitement scientifique

- de la théorie, on déduit une conclusion testable : encore un travail sans ambiguïté

- puis on teste expérimentalement la prévision théorique : et là, on retrouve que ce que nous avons dit à propos de la caractérisation quantitative du phénomène.

On le voit : la question est grave. Et on ne la résout qu'au prix de beaucoup de réflexion, d'intelligence, d'honnêteté.

mercredi 12 juillet 2017

Qu'est-ce qu'un rapporteur ?


Il semble que j'ai été un peu vite, dans des billets précédents, car des correspondants m'interrogent : qu'est-ce qu'un rapporteur ?
La question est d'autant plus légitime que le Trésor de la langue française informatisé n'est pas bien clair. Expliquons donc, et notamment sur des exemples, que les commissions, les jurys sont composés de membres qui sont chargés de statuer, d'évaluer, de juger, de décider... Bien sûr, il y a des cas où chaque membre se fait individuellement une idée du dossier, après avoir fait lui-même la totalité de l'exploration, mais il y a aussi des cas où des membres sont mandatés pour faire un travail préparatoire, qui est alors exposé au groupe. Ces personnes sont des rapporteurs.

En science, on voit des rapporteurs d'abord pour les publications  scientifiques: l'éditeur en charge d'un manuscrit soumis par publication, afin de rester en position d'arbitrage impartial, envoie le manuscrit  à deux collègues, qui sont chargés d'en faire une analyse, suivie d'un rapport qui permettra  de prendre une décision. Les deux collègues sont des "rapporteurs", et ils ont pour mission de vérifier d'abord que le travail est nouveau, et ensuite qu'il est de bonne qualité. Je passe sur les détails de ce travail, mais je veux quand même signaler que les bons rapporteurs font un travail considérable, de lecture des références, de recherche bibliographique de novo, d'évaluations de chaque mot, de chaque phrase, de chaque calcul... Car l'enjeu est considérable : la publication équivaut à une sorte de "brevet de qualité" scientifique.
Un autre cas se rencontre lors des thèses : deux rapporteurs sont chargés de lire la thèse dans le plus grand des détails, afin de garantir la qualité académique.
Mais il y a aussi les évaluations des scientifiques, avec des dossiers (personnels, d'équipe, etc.) qui sont envoyés à des rapporteurs. Ou encore des discussions, auquel cas les rapporteurs comme comme les examinateurs des examens.

Je propose évidemment que nos amis qui endossent ces habits de rapporteurs soient bienveillants, qu'ils n'abusent pas de la position "d'autorité" qu'ils ont, se souvenant -sans céder sur la qualité des travaux, sans compromission- qu'ils seront également évalués à leur tour. Je crois que les rapporteurs doivent être donc bienveillants, et qu'ils se limitent à interroger, afin de s'assurer, a minima, que les collègues audités n'ont pas fait les choses au hasard, qu'ils ont des réponses rationnelles -et donc justes- à toutes les questions qu'on peut leur poser.