Affichage des articles dont le libellé est mesure. Afficher tous les articles
Affichage des articles dont le libellé est mesure. Afficher tous les articles

mardi 10 septembre 2024

Le sel dans les carottes que l'on cuit

Je m'aperçois que je n'ai jamais vraiment bien présenté les résultats de nos études sur le sodium dans les carottes que l'on cuit. 

 

La question découle du fait que, quand on cuit, on ajoute du sel dans l'eau et certains cuisiniers disent même que l'on ne parvient pas à saler correctement des carottes si l'on ajoute le sel ensuite. Est-ce vrai ? 

D'autre part, les agences sanitaires se préoccupent de la consommation excessive de sel par les individus. 


Pour avoir des idées sur la consommation de sel réelle, nous avons cuit des carottes soit dans de l'eau pure soit dans l'eau salée. Je vous épargne des détails mais faites-nous confiance : l'article a été publié après une évaluation soigneuse, qui a vérifié que les expériences avaient été très rigoureuses. Par exemple il ne s'agissait évidemment pas d'eau du robinet mais l'union parfaitement pure, sans ions, et ainsi de suite. 


Les résultats sont intéressants.

 

Par exemple, nous avons vu qu'il y a une très grande diversité de carottes :  avant cuisson, il y a certaines carottes qui contiennent beaucoup plus de sodium que d'autres et cela dans différentes parties : en haut, en bas, sur la partie externe, dans le cœur. 

 

D'autre part, quand on cuit une carotte dans l'eau pure, on voit son sel s'en échapper et plutôt par les bouts que par les parties latérales. 

 

Inversement, quand on cuit une carotte dans l'eau salée alors on voit le sel entrer en abondance dans les carottes par la parties supérieure ou par la partie inférieure, plutôt que par les flancs. Finalement, dans les extrémités, la concentration en sel   est presque celle de l'eau de cuisson après 30 minutes de cuisson. 

 Pour une carotte de plusieurs centimètres de long, alors on a une concentration un peu inférieure au milieu de la carotte mais pour des carottes plus petites, la concentration fait quasiment celle du bouillon partout. 

 

Bref, nos carottes cuites classiquement dans l'eau salée sont chargés de sel en proportion de la quantité de sel que l'on a mise   dans le bouillon. 

Pour en revenir à la question des cuisiniers, de savoir si l'on peut saler correctement des carottes en ajoutant un sel "discrétionnaire", c'est-à-dire à la fin de la cuisson, la réponse et que les carottes seront différemment salées puisque le sel restera à l'extérieur de la carotte qu'on mangera et non pas à l'intérieur de la carotte comme quand on cuit les carottes dans l'eau salée. 

dimanche 3 mars 2024

Jamais de mesure sans estimation de l'incertitude.

Dans la catégorie des bonnes pratiques en science, il y a des données élémentaires, et l'une d'entre elles est qu'une mesure doit toujours être assortie d'une estimation de sa qualité. 

 

Pour expliquer la chose, je propose de considérer l'exemple d'une balance de précision, que l'on utilise pour peser un objet, par exemple un principe actif pour la réalisation d'un médicament. Dans un tel cas, on comprend qu'il est hors de question de se tromper sur la mesure, car ces produits sont extraordinairement actifs, de sorte que la vie des patients en dépend. Nous avons donc à peser correctement ce principe actif, et voilà pourquoi nous utilisons une balance de précision. Évidemment cette balance aura été contrôlée, car il serait dramatique d'utiliser une balance fausse. Contrôlée ? Cela signifie qu'un contrôleur sera venu avec un étalon, et qu'il aura comparé la masse connue de l'étalon avec la masse affichée par la balance. Cela se pratique en général une fois par an, car ces contrôles sont coûteux. 

De sorte que, puisque l'intervalle entre deux contrôles est très long et qu'il peut se passer mille choses pendant un an (la foudre qui dérègle la balance, un choc qui la fausse...), on aura intérêt à contrôler soi-même ses balances à intervalles bien plus cours (un jour, une semaine au maximum), notamment à l'aide d'étalons secondaires, que l'on aura préparé la façon suivante : on prend un objet inusable, par exemple un bout de métal ou de verre que l'on conserve précieusement dans un bocal, sur un coton ou sur un papier afin qu'il ne puisse pas s’abîmer, et, et on le confronte à l'étalon primaire, le jour où le technicien contrôleur vient contrôler les balances. Sur la boîte qui contiendra cet étalon secondaire, on note la masse déterminée, et chaque matin ou chaque semaine, on sort l'étalon secondaire, que l'on conserve à côté de la balance, et on le pèse, afin de s'assurer que la balance donne une valeur juste. Soit donc une balance dont on connaît la fiabilité. On peut maintenant peser le principe actif. Je n'indique pas ici les bonnes pratique de la pesée... mais je signale qu'elles existent, et que peser ne se résume pas à simplement peser. Bref, on place l'objet à peser sur la balance et l'on obtient une valeur. Le problème des balances de précision, c'est qu'elles sont ... des balances de précision, à savoir des instruments extrêmement sensibles à leur environnement. Il y a les courants d'air d'inévitables, il y a le bruit électrique dans les circuits électroniques de la balance quand il s'agit d'une balance électronique, il y a les vibrations... Bref, il y a mille raisons d'être certain que la valeur donnée par la balance sera inexacte, et cela est une donnée du monde, inévitable. D'ailleurs, la balance affiche un certain nombre de chiffres significatifs, et comme la valeur exacte que l'on cherche n'a aucune raison de tomber exactement sur un des barreaux de l'échelle (en mathématiques, on dirait que la probabilité que cela survienne est nulle), on comprend que, au mieux, la valeur affichée ne peut pas être connue avec une précision qui soit meilleure que l'écart entre deux indications (graduations) de la balance. Puisqu'il est inévitable que la valeur mesurée soit imprécise, la question est de savoir quelle est cette imprécision. Imaginons que l'on pèse trois fois le même objet sur la même balance et que l'on obtienne trois fois la même valeur. Alors on pourra considérer que l'écart entre les graduations de la balance est une estimation de l'incertitude que l'on a sur la valeur affichée. Mais avec les balances de précision, il en va généralement autrement, à savoir que trois mesures successives donnent trois valeurs légèrement différentes, auquel cas on calcule un écart type, c'est-à-dire une estimation de la répartition des valeurs que peut donner la balance. Mais cela est une autre histoire qu'il faudra raconter une autre fois. Revenons donc à l'essence de la question : quand nous pesons un objet, nous devons donner une valeur et une estimation de la précision avec laquelle on connaît cettte valeur. Cette règle est absolument générale, en sciences de la nature. 

Pour toute expérience, pour toute mesure, nous devons afficher un résultat avec une estimation de sa qualité. Car, en réalité, on ne fait que très rarement des mesures pour des mesures, et l'on cherche surtout à comparer le résultat d'une mesure à un résultat d'une autre mesure ou bien à une valeur de référence. Par exemple, si l'on mesure la température dans un four, la mesure de la température sera généralement comparée à la valeur voulue de la température, ou à la température de consigne. La question très générale est donc de comparer. Commençons par le plus simple, c'est-à-dire la comparaison d'un résultat de mesure avec une valeur fixe. Par exemple, quand on fabrique des yaourt, si l'on affiche sur le pot une masse de 100 grammes, il est admis que la masse d'un yaourt particulier ne soit pas exactement égale à 100 grammes, mais qu'elle en diffère moins qu'une certaine quantité. Là, la question est simple, puisque l'écart doit être inférieur à la tolérance. Simple... en apparence, puisque la valeur mesurée n'est pas exactement connue ! Supposons que l'on ait mesuré 95 grammes avec une incertitude de 5 grammes. La masse exacte du yaourt pourrait être de 100 ou de 90 grammes. Si la tolérance est de 5 gramme, la masse de 100 grammes conviendrait, mais la masse de 90 grammes serait intolérable. 

Maintenant, si nous voulons savoir si deux objets ont la même masse, on sera conduit à peser chacun des objets et à obtenir deux valeurs, deux résultats de mesure assortis chacun d'une incertitude, et voilà pourquoi on enseigne dans les Grandes Ecoles d'ingénieurs et dans les université les calculs statistiques, qui permettent d'estimer si deux mesures sont ou non significativement différentes. Je ne vais pas faire dans un billet de blog la théorie de cette affaire, mais j'espère avoir indiqué correctement pourquoi, finalement, une mesure sans une estimation de l'incertitude sur cette mesure ne vaut rien. En particulier pour la comparaison de deux mesures, des statistiques nécessitent l'estimation de cette incertitude, laquelle donne une indication de la répartition des mesures que l'on pourrait faire d'un objet. Dans la vraie vie, dire que deux grandeurs sont différentes sous-entend toujours « significativement ». 

J'invite en conséquence tous les étudiants à se forger une espère de radar intellectuel qui les conduira à sursauter quand ils verront une valeur sans estimation de l'incertitude avec laquelle cette valeur est connue. Certes, parfois, dans des tables, dans des livres, dans des publications, on verra des données sans incertitudes. Si ces livres sont de bonne qualité, c'est que cette incertitude est exprimée par les chiffres qui sont affichés, et qui doivent donc tous être "significatifs". Un bon enseignement des sciences de la nature commence donc par une discussion de cette question : que sont des chiffres significatifs ? Que sont les règles d'affichage des données ? 

Ces règles ne sont pas absolument intuitives, et elle doivent donc être apprises... et retenues pendant toute la scolarité… et après ! Rien de tout cela n'est difficile, mais cela demande un peu de soin, d'attention, et un entraînement progressif qui conduit à bien internaliser des réflexes, en vue de bonnes pratiques scientifiques ou technologiques.

samedi 10 juillet 2021

A propos d'incertitudes

 

Hier, une question qui revient sans cesse à propos de mesures, d'incertitudes de mesure, et de répétition d'expériences.

Un ami  en stage au laboratoire fait une expérience et, faisant plusieurs mesures d'une même grandeur, obtient - c'est bien- des valeurs évidemment différentes,  puisque si l'instrument de mesure est  très précis, il est sensible aux mille perturbations environnantes.
Ayant ces différentes valeurs, il calcule donc légitimement une moyenne et un écart type,  afin de décrire les résultats, en tenant compte de la dispersion des mesures.
Puis il décide de répéter l'expérience, ce qui le  conduit à une autre moyenne,  assortie d'un autre écart-type.
Et il répète encore l'expérience plusieurs fois,  calculant chaque fois  une moyenne et un écart-type.
Il s'interroge maintenant sur l'incertitude de ses résultats complets : doit-il faire une moyenne des moyennes, ou bien la moyenne de tous les résultats ? Et quelle est l'incertitude pour les deux cas ?

Je crains d'être obligé de faire le calcul, qui est très simple : est-ce une bonne explication, si nos interlocuteurs ne savent pas ou n'aiment pas calculer ?
Commençons par les moyennes.
Nous nommerons
                           "m[i, j]"

 la j-ième mesure de la i-ième expérience. Nous considérons n expériences, et p mesures pour chacune.
Dans le cas "séparé". Pour chaque expérience, la moyenne est donnée simplement par :

              "M[i] = sum(m[i, j], j = 1 .. p)/p"

Et si l'on fait la moyenne de toutes les n moyennes, on a :
M = sum(M[i], i = 1 .. n)/n and sum(M[i], i = 1 .. n)/n = sum(sum(m[i, j], j = 1 .. p)/p, i = 1 .. n)/n and sum(sum(m[i, j], j = 1 .. p)/p, i = 1 .. n)/n = sum(sum(m[i, j], j = 1 .. p), i = 1 .. n)/(n*p);

Bref, c'est la moyenne de toutes les mesures.
Pour les incertitudes, de même, on retrouve le même résultat (heureusement !), à condition de savoir que le GUM du Bureau international des poids et mesures indique que pour, une variable composée, l'incertitude doit être prise égale à la racine carrée de la somme des carrés des dérivées partielles par le carré des incertitudes.

Surtout, notre ami a ainsi compris que l'incertitude diminue avec le nombre de mesures effectuées: plus on fait de mesures, plus la moyenne s'approche de la véritable valeur cherchée, et plus on caractérise la mesure, en quelque sorte.

jeudi 3 octobre 2019

Les moyens de la preuve

Je veux les moyens de la preuve !

De façon très élémentaire, je réclame absolument que toute mesure soit assortie d'une évaluation de l'incertitude. Soit on indique  la précision de l'appareil de mesure, soit on donne l'écart-type, c'est-à-dire une estimation de la dispersion de plusieurs mesures successives du même objet avec le même appareil et dans les mêmes conditions.

Prenons un exemple : si un thermomètre plongé dans de l'eau chaude affiche une température de 50,2463 degré Celsius, il faut quand même que je m'interroge sur la pertinence de tous ces chiffres après la virgule, car leur affichage est peut-être abusif (de même, il n'est pas légitime de se demander combien d'anges tiennent sur la tête d'une épingle si on n'a pas d'abord montré sur les anges existent). Bref, les chiffres doivent être "significatifs". En l'occurrence, avec un thermomètre à mercure des familles, ces chiffres après la virgule ne le seraient pas, et même le 0 devant la virgule n'est sans doute pas juste.

Cette question d'assortir les mesures d'une incertitude est un  tout petit minimum, en science,  mais ce billet veut dire que, ce cap élémentaire étant passé, il y a lieu de ne pas accepter une mesure dont on ne nous dit pas comment elle a été obtenue, ce que les publications scientifiques nomment les "matériels et méthodes", mais que l'on pourrait aussi nommer "les moyens de la preuve", sans que les deux objets ne soient strictement identiques (mais commençons par faire simple).

Par exemple, un appareil de mesure peut afficher des valeurs précises... mais fausses, et, pire, on peut n'avoir pas mesuré ce qu'il fallait. Je prends volontairement un exemple bien excessif : si on pose sur une balance un verre qui contient un liquide, la balance affiche une valeur qui est celle de la somme de la masse du liquide et de la somme de la masse du verre : il serait faux de penser que la masse affichée est seulement celle du liquide. Comme dit, cet exemple semble montrer une évidence, mais, en réalité, des erreurs s'introduisent pour une raison cachée du même type. Et c'est d'ailleurs une des raisons de la pratique des "validations" : on multiplie les mesures faites de façons différentes afin de s'assurer que l'on trouve bien le même résultat.
Evidemment, pour être compétent en science, il  faut s'être entraîné à cela : regarder, en détails, comment les résultats qu'on nous propose ont été obtenus, ne pas accepter des valeurs sans examen critique, réclamer sans cesse le détail des matériels utilisés pour faire les expérimentations, ainsi que des méthodes mises en oeuvre.

Insistons un peu : nous regardons les détails, les circonstances expérimentales non pas parce que nous nous défions de nos collègues, mais parce que, en science  au moins, le diable est caché partout.



Des chausses-trappes?

Des chausse-trappes ? Il n'y a que cela. Par exemple, je me souviens d'un thermomètre, dans un lycée hôtelier, qui marquait 110 degrés Celsius dans l'eau bouillante. Impossible : le thermomètre était faux... ainsi que toutes les mesures qui avaient été faites par d'autres, avant que je ne contrôle, en le plaçant d'abord dans de la glace fondante (0 degrés Celsius) et dans l'eau bouillante (100 degrés Celsius).
Plus subtil : avec une nouvelle méthode d'analyse par résonance magnétique nucléaire, nous avons découvert que nous dosions plus de sucre, dans des carottes, qu'il n'en était trouvé par les méthodes qui imposaient d'extraire d'abord les sucres, avant de les doser. Mais il est notoire que les méthodes d'extraction sont incomplètes !

Tiens, une idée : même si l'expérience est intransmissible, pourquoi ne ferions-nous pas une liste d'exemples d'erreurs dont nous avons connaissance, afin que nos successeurs puissent en avoir connaissance. Bien sûr, ils ne seront pas complètement immunisés, mais, au moins, ils seront mieux avertis que par une mise en garde générale, abstraite. Je commence :

Je me souviens d'une amie qui dosait les protéines dans des échantillons d'un matériaux qu'on lui avait dit être des "protéines" et  qui trouvait très peu de protéines... et pour cause :  cette matière n'était pas essentiellement constituée de protéines, mais de matière grasse.

Je me souviens d'un ami qui cherchait à doser les "lipides" dans de l'eau, oubliant que le mot "lipides" s'applique à des composés très variés ; il pensait en réalité aux triglycérides, qui sont parfaitement insolubles, de sorte que ses expériences étaient vouées à l'échec, sauf à considérer que ces composés étaient dispersés dans la solution aqueuse (émulsion)... auquel cas, le protocole devait être très particulier.

Je me souviens d'un ami qui voulait doser des acides aminés, alors que ses échantillons ne contenaient que des protéines : il avait omis ce fait que les protéines ne sont pas des assemblages d'acides aminés, mais des composés dont les molécules sont faites de "résidus" d'acides aminés, de sorte que les acides aminés n'existent pas en tant que tel, dans les protéines, et seuls leurs atomes restent organisés de façon identifiable par un chimiste.

J'attends vos exemples pour les ajouter à cette liste.

samedi 23 février 2019

Quand une information, une connaissance, est-elle intéressante ?

Quand une information, une connaissance, est-elle intéressante ?
Le sémiologue et écrivain Umberto Eco, s'étant demandé ce qu'est une information intéressante, avait conclu que savoir que Napoléon avait gagné telle bataille était sans intérêt, que ce qui comptait, c'est de savoir ce que signifie cette information, et dans quelles circonstances la bataille avait été gagnée. Combien y avait-il de soldat ? Combien de temps a duré la bataille ? Combien y a-t-il  eu de morts ? Ce qui compte, c'est la méthode plutôt que l'objet.



Mais je reprends la question. Qu'est-ce qu'une information intéressante ? Il y a d'abord le fait que "intéressant" est un adjectif qui ne vaut rien, parce qu'une information qui me paraît intéressante ici et maintenant ne le sera peut-être plus dans quelques temps, et ailleurs. Et une information intéressante pour autrui ne le sera peut-être pas pour moi. C'est comme de parler de beau ou de bon : il y a cette naïveté platonicienne, à croire que cela existe, alors qu'Aristote à bien réfuté l'idée, proposant plutôt de parler d'informations intéressantes.
Si l'objet n'existe pas, pourquoi s'y intéresser ? D'abord, parce que l'on évite de se fourvoyer, bien sûr, mais, aussi, parce que cela conduit à des catégorisations qui peuvent être utiles, au lieu que nous soyons hébétés devant une étiquette. Par exemple, on observera que l'information qui consiste à dire que le blanc d'oeuf est fait de 90 % d'eau et de 10 % de protéines n'a pas la même portée que la définition de l'énergie.

Mais là, je me vois embringué dans un mauvais devoir de français, et je dois bien vite revenir à des questions scientifiques. Dans notre laboratoire, nous avons une règle qui est de remplacer tout adjectif et tout adverbe par la réponse à la question "combien". Rouge : combien ? Grand  : combien Intéressante ? Je vois qu'il ne faut éviter de répondre à la question que je posais et plutôt mesurer à l'aide d'un appareil qui déterminera un indice. Mais c'est indice, évidemment, devra être déterminé d'après un objectif, de sorte que nous sommes ramenés à  la vieille question : de quoi s'agit-il ?

jeudi 24 janvier 2019

> Bonnes pratiques : à propos des "points aberrants"

En sciences de la nature, il y a la question très compliquée des points aberrants, ce que l'on nomme en anglais des outlyers. De quoi s'agit-il ? Je propose de partir d'un exemple simple, puis de tirer les leçons de l'analyse de ce cas élémentaire.

Un exemple imaginaire

Imaginons le physicien allemand Georg Ohm qui met en série une pile et une résistance électrique.




Il applique une différence de potentiel (une "tension électrique") et mesure l'intensité du courant. Puis il applique une autre différence de potentiel, à l'aide d'une autre pile, et obtient une autre intensité électrique. Et il fait cela pour plusieurs différences de potentiel, mesurant chaque fois l'intensité électrique.
Ayant ces données, il trace un diagramme, où les deux mesures forment les coordonnées de points... et il observe que ces points semblent s'aligner, qu'il y a une proportionnalité entre l'intensité électrique et la différence de potentiel (quand on double la différence de potentiel, on double l'intensité, par exemple).



Jusque là, tout va bien... sauf que les points ne sont pas parfaitement alignés, en réalité. Mais comme les mesures sont (toujours) imprécises, il se dit que la "loi" de proportionnalité est valable, et il la publie.
Oui, mais imaginons qu'il y ait eu une circonstance quelconque qui, pour une mesure, fait une perturbation qui engendre un point de mesure très éloigné des autres. Que faire ?



Évidemment, la première chose à faire est de répéter l'expérience particulière qui étonne, et, alors, deux cas se présentent :
- soit on retrouve la valeur bizarre
- soit on trouve ensuite des valeurs qui correspondent mieux à la loi de proportionnalité qui semble s'imposer expérimentalement.

Le cas le plus simple est celui où l'on retrouve la valeur bizarre. Si cette valeurs apparaît expérimentalement plusieurs fois,  ce n'est pas à nous de dire que l'expérience est mauvaise et que la loi de proportionnalité s'impose; nous devons nous interroger sur la raison de cet écart à la proportionnalité, en imaginant soit que l'expérience particulière que nous avons faite ne permet pas de voir cette proportionnalité, soit que  la nature n'a pas mis là de proportionnalité.
Ainsi, au cours  de mes recherches, je me souviens avoir mesuré la viscosité d'un sirop de sucre à l'aide d'une bille que nous laissions tomber et dont nous mesurions la vitesse. La variation était régulière... mais quand le sirop était très visqueux, le comportement de la bille de venait bien différent de celui décrit par la loi classique, un peu comme pour le point aberrant indiqué ci-dessus. A l'analyse, il était facile de voir, pour ce cas très simple, que le récipient, étroit, ne permettait pas aux écoulements de se faire librement, ce qui modifiait le résultat.

Les valeurs bizarres sont en réalité très intéressantes, car il y a cet adage qui stipule que lorsqu'on fait une expérience et que l'on obtient le résultat qu'on attendait, on a une confirmation,  mais si l'on a un résultat que l'on n'attendait pas, alors on a peut-être une découverte.  

Considérons maintenant le cas où, répétant l'expérience, au moins celle particulière qui a fait apparaître le point aberrant,  on trouve une valeur qui correspond mieux à la loi de proportionnalité. Là, c'est ennuyeux, car on est en réalité face à deux valeurs tout aussi probables (même s'il y a cette présomption de proportionnalité qui semble donner plus de poids à une valeur bien alignée), de sorte que l'on doit faire une autre répétition.
Ici, il faut quand même que j'observe, pour ceux qui l'ignorent, que l'expérience décrite pour la mesure de l'intensité et du potentiel électrique se fait en quelques instants, mais que, souvent, la répétition d'une expérience ne se fait pas en un claquement de doigts : certaines expériences prennent des mois, voire des années, de sorte qu'il est essentiel de bien choisir la stratégie que l'on utilise. Pour des expériences comme la détection du boson de Higgs ou des ondes gravitationnelles,  il hors de question de décider légèrement de répéter une expérience, et l'on doit avoir une stratégie très intelligente -dans le cadre des bonnes pratiques-,  c'est-à-dire de ne pas céder à ses croyances ou à ses fantasmes. Admettons ainsi que deux mesures semblent correspondre, alors qu'une troisième valeur est bizarre ; il y a lieu de mettre en œuvre des statistiques et d'afficher des résultats avec des probabilités, pas plus
Et l'on retrouve ici cette idée que la science n'est pas en train de démontrer des théories, mais plutôt de les réfuter :  les valeurs bizarre que l'on ne retiendra pas doivent être conservées, et elles doivent notamment être signalées lors de la publication d'un résultat.


Un exemple

A titre d'exemple, le cas le pire  que nous ayons rencontré dans notre groupe était à propos de la dégradation d'un composé, dans des conditions particulières très rigoureusement définies :  nous utilisions des matériels très propres, des produits très purs, des conditions très exactement contrôlées. Lors d'une première expérience (3 semaines de travail), nous avons mesuré la vitesse de dégradation du composé. Puis, quand nous avons répété l'expérience (nous répétons toutes nos expériences au moins trois fois), nous avons obtenu une dégradation beaucoup plus lente.
Évidemment la première chose à faire était de répéter encore l'expérience et nous avons retrouvé la dégradation plus lente. Je répète que ce qui se dit ici en quelques mots correspond à des semaines de travail... pour donner à évaluer le sentiments des chercheurs face à ces points aberrants, que seuls les malhonnêtes occultent (la poussière sous le tapis).  Bref, nous n'avons jamais réussi à retrouver la première vitesse de dégradation, qui semble donc être aberrante, mais que faire, devant une telle situation ? On se doute que nous avons tout analysé en détail : repris les cahiers de laboratoire pour voir comment les choses avaient été faites, par exemple... mais rien. 

Dans un tel cas, la bonne pratique s'impose : valider les mesures ultérieures par une autre expérience, différente, ce qui correspond à des "validations". Mais, aussi, lors d'une publication du résultat, évoquer ce premier résultat qui peut découler de causes innombrables : n'a-t-on pas vu, au centre de recherches d'études des particules de Genève, une oscillation d'un signal électrique due au passage du TGV près de l'anneau de collision ?

vendredi 29 juillet 2016

Tu sais quelque chose ? Quelle est ta méthode ? Fais-le, et, en plus, fais-en la théorisation.

Le titre de ce billet est affiché sur les murs de notre laboratoire. Pourquoi ? Pour répondre, il convient d’abord d’évoquer les documents que nous nommons les « Comment faire ? », et qui sont une façon d’améliorer la qualité de nos recherches. Il convient également d’évoquer la méthode que nous mettons en œuvre pour notre travail scientifique.

La suite sur http://www.agroparistech.fr/Tu-sais-quelque-chose-Quelle-est-ta-methode-Fais-le-et-en-plus-fais-en-la.html

Bonne lecture !

samedi 19 mars 2016

Si le résultat d'une expérience est ce que l'on attendait, on a fait une mesure ; sinon, on a (peut-être) fait une découverte !

Cette phrase est du chimiste Frank Westheimer (https://en.wikipedia.org/wiki/Frank_Westheimer).
Je ne suis pas certain que le « peut-être » soit de lui, et, d'autre part, je n'ai pas l'origine de la citation, qui m'a été donnée par mon ami Jean-Marie Lehn. Mais la phrase a beaucoup d'intérêt scientifique, parce qu'elle résonne avec toutes les parties du travail scientifique.
# Par exemple, quand on fait une expérience pour tester une conséquence d'une théorie, on espère...

La suite sur http://www.agroparistech.fr/Si-le-resultat-d-une-experience-est-ce-que-l-on-attendait-on-a-fait-une-mesure.html

jeudi 7 janvier 2016

Par email, par courrier, par téléphone, par sms, je reçois de très nombreux messages d'étudiants intéressés par la gastronomie moléculaire ou par la cuisine moléculaire, voire la cuisine note à note, ce qui me réjouit évidemment, car cela prouve que je réussis à partager ma passion pour la connaissance et ses applications.

Pourtant j'ai souvent peur que  nos amis soient déçus, notamment quand il s'agit d'étudiants qui me demandent s'ils peuvent venir faire un stage dans notre équipe de recherche. Par exemple, ce matin, une étudiante anglaise me disait s'être amusée beaucoup à faire des chocolats chantilly, des berzélius, des gibbs…  La semaine dernière, c'était un correspondant autrichien qui  faisait un dirac et un gibbs.  Je ne parle pas de ceux qui font des perles d' alginate ou qui utilisent des siphons, car il s'agit là de cuisine moléculaire, telle que je l'ai proposée il y a 35 ans, et ma réponse est alors qu'ils feraient mieux de s'intéresser à la cuisine note à note.
Ce qui me trouble, c'est que mes interlocuteurs me parlent souvent de cuisine, quand je parle moi de gastronomie moléculaire,  et je veux profiter d'un message reçu il y a  quelques instants pour donner deux exemples des travaux que nous faisons au laboratoire afin de donner des explications pour le futur.

Nos jeunes amis sont de deux types principaux : il y a les cuisiniers, et les étudiants en science et en technologie, mais invariablement, je réponds  à tous que, dans notre groupe de recherche, notre travail quotidien consiste à mettre en oeuvre des méthodes d'analyse, telle la spectroscopie de résonance magnétique nucléaire, la fluorimétrie, l'électrophorèse capillaire, la chromatographie en phase gazeuse avec spectrométrie de masse, ou bien,  pour la partie théorique, nous cherchons à résoudre des équations différentielles ou des  équations aux dérivées partielles. Je donne maintenant un exemple de chaque cas.


Voir la suite sur http://www.agroparistech.fr/Ce-que-nous-faisons-au-laboratoire-de-la-gastronomie-moleculaire-pas-de-la.html