mercredi 26 juin 2013

Vendredi 28 juin 2013. Vive les sciences quantitatives. La troisième étape en de la méthode scientifique, la réunion des données en lois.



La troisième étape de la méthode des sciences quantitatives consiste à faire bon usage de ces innombrables données qui ont été réunies lors de la deuxième étape, à savoir la quantification du ou des phénomènes sélectionnés initialement.
Nous avons vu que la deuxième étape consistait à caractériser quantitativement les phénomènes. Les mesures ont conduit à des données nombreuses, généralement, et il faut imaginer avoir devant soi d'immenses tableaux de nombres. C'est immangeable ! Comment faire ? Les « lois » en sont des choses merveilleuses, puisqu'elles résument, qu'elle synthétisent, de très nombreux résultats de mesures, de résultats expérimentaux.
Par exemple, nous avons vu que, à propos d'électricité, le physicien allemand Georg Simon Ohm s'était illustré en mesurant la différence de potentiel électrique et l'intensité du courant qui passe dans un fil conducteur. Il fit de nombreuses mesures, pour de nombreux conducteurs particuliers, mesurant chaque fois la différence de potentiel appliquée et l'intensité du courant, et il découvrit que le rapport de ces deux grandeurs est constant, pour un conducteur donné : c'est la résistance électrique. Dans un tel cas, on a une égalité toute simple entre dans la différence de potentiel, d'une part, et le produit de la résistance du conducteur par l'intensité du courant, d'autre part. C'est une loi, une relation que l'on établit à partir des données d'expérience, de mesures, et dont on propose une généralisation. On clame au monde, en quelque sorte, que cette loi reste vraie même pour des valeurs particulières des paramètres qui n'ont pas été mesurées ; on propose de penser que cette loi est vraie en tous temps et en tous lieux (sauf indication du contraire, bien sûr). Les lois sont d'une puissance inimaginable, d'une audace extraordinaire, puisqu'on leur prête la capacité de s'appliquer à des cas qu'on n'a pas envisagés en pratique.
Bien sûr, la loi d'Ohm n'est qu'un des exemples les plus simples, simpliste même, et il y aurait lieu d'examiner plus en détail des exemples plus complexes. Toutefois cela ferait un gros traité, et je propose plutôt de considérer le livre La science et l'hypothèse du mathématicien Henri Poincaré pour comprendre que derrière tout le travail d'établissement des lois, il y a toujours de l'induction, plutôt que de la déduction. Autrement dit, comme pour la première étape de la méthode des sciences quantitatives, comme pour la deuxième étape de la méthode des sciences quantitatives, il faut beaucoup d'intelligence pour mener à bien la troisième étape des sciences quantitatives.

Jeudi 27 juin 2013. Vive les sciences quantitatives, qui quantifient !



Dans la méthode des sciences quantitatives, la deuxième étape est une quantification des phénomènes sélectionnés, des phénomènes que l'on a décidé d'explorer, des phénomènes dont on a décidé de chercher des mécanismes. Cette deuxième étape découle de la définition même des sciences quantitatives : quantifier, nombrer comme disait Bacon, mesurée. Autrement dit, il s'agit de caractériser quantitativement les divers aspects des phénomènes considérés. Là, le travail peut évidemment être infini. Pensons un soufflé qui gonfle, par exemple : on peut mesurer la température en ses différents points, la pression, la couleur et ses changements, la composition chimique, la structure physique... Il y a donc lieu de travailler judicieusement et de sélectionner intelligemment les paramètres que l'on veut mesurer, l'identification que l'on veut faire. Dans le cas du soufflé, puisque le gonflement résulte d'un échauffement, il semble raisonnable de s'intéresser à la température, au volume, à des caractéristiques macroscopiques. De même, pour comprendre pourquoi une montagne se dresse, on a lieu d'utiliser les connaissances préalablement établies, notamment sur la dérive des continents, laquelle conduit à la surrection des montagnes. Toutefois on peut aussi se demander si cette montagne n'est pas plutôt dans un volcan, auquel cas le mécanisme de formation est différent.
Bref, en science quantitative, se pose la question difficile de la sélection des quantifications à faire. Une question bien difficile et qui, à ma connaissance, n'a guère été considérée par les épistémologues, les philosophes des sciences. On ne fait pas de sciences bêtement, automatiquement, et il y a lieu de mettre en oeuvre toutes les ressources de notre intelligence pour parvenir à des résultats dignes de notre ambition.

Vive les sciences quantitatives : l'identification d'un phénomène


Vive les sciences quantitatives : l'identification d'un phénomène
Dans la méthode des sciences quantitatives, la première étape est la sélection d'un phénomène. L'existence d'une montagne, le bleu du ciel, le vert du feuillage, le gonflement des soufflé... Ce sont là des phénomènes courants, quotidiens, manifestes, mais il en existe de plus cachés, qui ne se révèlent que lors d'expérimentation : par exemple la déviation d'un faisceau d'atomes d'argent, dans le vide, lorsque l'on applique un champ magnétique ; par exemple, l'effet photoélectrique, déjà considéré dans un précédent billet ; par exemple, le fait que les réactions dites d'addition, en chimie, ne se fassent pas pour ce composé étrange qu'est le benzène...
Quel phénomène est-il judicieux de sélectionner ? Les phénomènes, les particularités du monde, sont en nombre infini, et les scientifiques ont évidemment intérê à apprendre à n'en sélectionner que quelques-uns. Lesquels ? Selon quels critères ? Il semble logique de penser que les critères de sélection doivent être appropriés à l'objectif général de la science, c'est-à-dire trouver les mécanismes des phénomènes. Toutefois, on voit que, pour les exemples précédemment considérés, de simples observations ne suffisent pas à définir un vrai critère. Il semble admis, il est peut-être justifiable, que les phénomènes les plus « fréquents » soient ceux que les scientifiques ont intérêt à sélectionner, puisque l'élucidation du mécanisme s'appliquera à un grand nombre de cas. Le gonflement de soufflés ? On peut le voir comme un phénomène particulier relevant de la catégorie du gonflement des produits alimentaires. On peut le voir aussi comme un cas particulier du gonflement de systèmes colloïdaux, alimentaires ou non ; par exemple une mousse non alimentaire que l'on chauffe... Toutefois, nous avons des raisons de craindre que les explorations expérimentales et scientifiques qui seront consacrés à un tel phénomène ne conduiront qu'à des mécanismes déjà connus, auxquels car le travail scientifique est un peu inutile. Il ne conduira pas à un changement de paradigme, à une rénovation générale du savoir sur la nature.
C'est la raison pour laquelle de nombreux physiciens du XXIe siècle se consacrent plutôt à l'exploration des particules subatomiques, à la recherche d'objets tels que le boson de Higgs, dans ces gigantesques accélérateurs de particules que l'on construit dans quelques rares endroits du monde, tel le CERN, à Genève.
Doit-on penser qu'il n'y a point de salut scientifique hors de ces recherches coûteuses ? Le prix Nobel qui fut attribué à Pierre Gilles de Gennes il y a moins de dix ans était, au contraire, la reconnaissance, par le comité du prix Nobel, de la possibilité d'explorations de systèmes physico-chimiques à notre portée, et c'est ainsi que grandit l'exploration de la « matière molle ». Il n'est pas inutile de rappeler que Pierre Gilles de Gennes avait également étudié les cristaux liquides, objets également à notre portée, la supraconduction, qui concernent des matériaux que l'on fabrique avec de simples poudres minérales...
Il y a donc lieu en de ne pas baisser les bras si nous travaillons ailleurs que dans un centre de physique des particules. Il y a lieu de s'étonner du moindre phénomène, et de faire du travail scientifique une oeuvre d'une intelligence telle qu'elle puisse être sans rougir mise en regard de celle de Pierre Gilles de Gennes.

mardi 25 juin 2013

Mardi 25 juin 2013. La connaissance par la lorgnette de la gourmandise. La gastronomie moléculaire concerne tous les pays, toutes les cultures.




La gastronomie moléculaire ne concerne-t-elle que la cuisine française ? Non, bien sûr !
Une partie de cette discipline scientifique vise à étudier les « précisions culinaires », c'est-à-dire les trucs, astuces, tours de main... Par exemple, les blancs neiges montent-ils mieux  quand ils sont vieux ? Obtient-on un résultat différent quand on cuit un poisson sur son arête ? Les questions se posent par dizaines de milliers, pour la seule cuisine française, la seule que j'ai examinée un peu correctement.
Toutefois les questions abondent aussi pour les autres pays, pour les autres cultures. Par exemple, allons au Brésil  : avant le repas, on nous offre un apéritif (la caipirinha) fait de  citron vert, de sirop de sucre de canne et de cachasa. Si l'on interroge les cuisiniers ou les barman qui préparent cet apéritif, on les entend nous dire qu'il faut absolument enlever la peau du citron sur la partie centrale. Pourquoi ? Ils répondent que cela donne l'amertume. Pourquoi pas... mais faisons l'expérience. Et l'expérience, à ce jour, n'a montré aucune différence d'amertume.
Je ne doute pas que toutes les cultures du monde, toutes les cuisines du monde ont leurs propres précisions culinaires : dictons, tours de mains, trucs, astuces, proverbes... Et je crois que la science nommée gastronomie moléculaire a bien des raisons de s'intéresser à ces objets culturels. Premièrement les personnes qui détiennent ces savoirs populaires vont mourir, et l'on risque de perdre avec elles  une foule d'information, d'idées, justes ou fausses peu importe, qui concernent cette activité merveilleuse qu'est la cuisine. D'autre part, il y a question de l'enseignement : peut-on imaginer de transmettre des données fausses à nos successeurs ? Non : alors il faut faire les tests expérimentaux de ces idées, ne transmettre que les bonnes, mettre les autres au musée, bien conservées ; il faudra essayer de comprendre, aussi, comment les idées justes sont apparues, comment les idées fausses aussi sont apparues. Pourquoi ?
Et puis il y a des raisons scientifiques et techniques : parfois, les praticiens ont fait des observations remarquables, merveilleuses, incomprises de la science ; là, il faudra comprendre, faire des travaux scientifiques pour explorer les phénomènes, identifier leurs mécanismes...

Et c'est ainsi que la gastronomie culinaire est une science éblouissante, merveilleuse, remarquable, amusante, passionnante, à la portée de tous, au moins pour les tests expérimentaux.

lundi 24 juin 2013

Mer isch was mer mocht

Lundi, jour du "Nous sommes ce que nous faisons". En alsacien, il y a une phrase bien connue pour le dire... preuve (;-)) que l'idée est importante.

Bref, cette semaine, le ralentissement du monde extérieur commence, et il n'y aura plus que du travail de laboratoire ou des réunions. Les conférences ne sont pas arrêtées, mais moins nombreuses.

Et puis, dans les réunions, il y en a de stratégiques. Par exemple, demain matin, formation de chefs étoilés à la cuisine note à note. Une formation gratuite, privée, où je prends de mon temps précieux (j'ai de la science à faire, et je suis payé pour cela) pour aller leur montrer des produits nouveaux, de nouvelles façons de faire.

Et c'est ainsi que la cuisine note à note ne s'introduira pas immédiatement, mais le terrain sera préparé, pour quand l'énergie aura augmenté, que la crise de l'eau frappera, que la population augmentera jusqu'à avoir faim.

vendredi 21 juin 2013

Vendredi 21 juin 2013. Des questions : Comment perfectionner la vulgarisation ?



Pour expliquer pourquoi la vulgarisation ne fait pas parfaitement son travail, prenons un exemple : la loi d'Ohm. Au XIXe siècle, le physicien allemand Georg Simon Ohm mesure des différences de potentiel associé des intensités de courant, en faisant passer divers courants dans un même conducteur, et il découvre que le rapport, le quotient, de la différence de potentiel par l'intensité du courant est constant, pour un même conducteur : c'est la résistance électrique de ce conducteur particulier.
Jusque là, la vulgarisation-récit se tient. Et puis, pour expliquer la découverte, il a suffi d'imposer aux interlocuteurs une simple division.
Pourquoi la loi d'Ohm ? Pour arriver aux mécanismes qui sont derrière la loi, il faut maintenant discuter la notion d'électrons et leur propagation dans les conducteurs. Présenter des électrons ? On pourra encore recourir à une expérience : celle d'un tube de Crookes, par exemple, un tube où l'on fait le vide, et où l'on met une différence de potentiel électrique entre deux électrodes, placées aux extrémités du tube. Un récit. Et pour décrire le propagation des électrons dans un conducteur ? n pourra sans doute se limiter à une description en mots.

Toutefois, qui nous prouve que ces récits sont exacts ? Que ce ne sont pas de fantasmagoriques élucubrations, comme le sont les récits des pseudo-sciences ? Les sciences quantitatives ont cela de merveilleux que ce sont pas des récits au hasard, que ce ne sont pas des divagations : parmi l'ensemble des possibilités de mécanisme, c'est l'adéquation des mesures à la théorie qui conduit à la sélection d'un ou de plusieurs mécanismes admissibles.

Passons au second exemple : l'effet photoélectrique, étudié par Albert Einstein. On place deux plaques métalliques en vis-à-vis, à l'intérieur d'un tube en verre où l'on a fait le vide, et l'on applique une différence de potentiel modérée entre les deux plaques. Rien ne se passe.
Puis on éclaire une des plaques, à l'aide d'une lumière de longueur particulière, par exemple du rouge. Rien ne se passe. On augmente l'intensité de la lumière, ce qui correspond à une énergie de plus en plus grande, et rien ne se passe. Puis on change de longueur d'onde de la lumière, passant du rouge au bleu, par exemple et soudain, pour une longueur de particulière, le courant se met à passer.
Jusque là, on a expliqué le phénomène, par un recours à l'expérience, mais comment expliquer le phénomène ? Le calcul, dans ce cas n'est pas difficile ; il est à la portée d'un étudiant de baccalauréat. Mais c'est le calcul qui dit tout ! Bien sur on aurait pu « expliquer » que la lumière est faite de « grains » nommés photons, chacun porteur d'une énergie particulière. Mais comment expliquer l'effet photoélectrique ? Seul le calcul en donne une explication, et ce n'est pas la transcription du calcul avec des mots du langage naturel qui aide à comprendre, au contraire même : les phrases deviennent très longues, les notions s'enchaînent les unes aux autres, et l'on découvre à cette occasion que le calcul formel, où des idées comme l'énergie, la masse... sont remplacés par les lettres, M, E..., est bien est bien plus efficace pour la compréhension que la description avec des mots.
La description avec des mots ne donne pas de compréhension des phénomènes, et seul le calcul - très simple- permet de comprendre combien le travail d'Albert Einstein, dans ces circonstances, était mervielleux. La vraie tâche de la vulgarisation, c'est donc, dans ces cas-là, d'expliquer les calculs !
Comment la vulgarisation s'y prendra-t-elle pour s'améliorer ?

jeudi 20 juin 2013

Jeudi 20 juin 2013 : Les beautés de la RMN



Dans un billet précédent, nous avons examiné la nécessité de mesurer les fréquences de résonance, pour avoir une vue précise. La spectroscopie de résonance magnétique nucléaire est précisément une méthode précise, parce qu'elle met l'idée en oeuvre.
Lisons les mots : il s'agit de résonance magnétique nucléaire. Résonance, nous savons ce dont il s'agit. Magnétique, maintenant : c'est effectivement une méthode utilise un aimant très puissant pour aligner les aimants microscopiques que sont certaines particules subatomiques. Nucléaire : cette fois, nous ne craignons pas les isotopes radioactifs, car il n'en est pas fait usage ici ; non, ici, le mot « nucléaire » se rapporte au noyau des atomes, car les particules subatomiques, c'est-à-dire plus petites que les atomes, sont les particules du noyau des atomes, d'où le mot "nucléaire ».
En gros, dans la RMN (en abrégé), il s'agit donc d'utiliser un champ magnétique puissant pour commander le mouvement de ces minuscules aimants que ce sont les noyaux de certains atomes. Par exemple, le noyau de l'atome d'hydrogène, lequel se réduit à un proton.
En gros, la méthode aligne tous les protons d'un échantillon de matière, par exemple de l'eau : puisque les noyaux des atomes d'hydrogène se comportent comme de petits aimants, en les plaçant au contact d'un gros aimant, ces petits aimants s'alignent. Ensuite, on utilise un autre aimant pour les les perturber, ce qui est l'analogue de pousser une balançoire, et l'on observe à quelle fréquence ces petits aimants nucléaires reviennent à leur position initiale. On mesure une fréquence : il y a donc une grande précision.
Ce qui est surtout extraordinaire, dans cette méthode, c'est que les ingrédients techniques sont réduits à un gros aimant et à un aimant perpendiculaire au premier. Bien sûr, il faut un ordinateur pour enregistrer et traiter les signaux. Ainsi, des fréquences enregistrées, on déduit la façon dont les atomes sont liés entre eux dans les molécules. Oui ! Un aimant, de l'intelligence, et l'on voit apparaître sur un écran d'ordinateur (qui fait tous les calculs) un spectre, où des singaux particuliers révèlent la constitution atomique des molécules. Quelle technique extraordinaire !