Viv(r)e la recherche se propose de rassembler des témoignages, réflexions et propositions sur la recherche, le développement, l'innovation et la culture



Rechercher dans ce blog

vendredi 28 décembre 2012

Monopole et Innovation : un lien nécessaire



Réponse à une économiste libérale

Madame,
J’ai bien apprécié votre conférence Amphis de l’AJEF , vivante et instructive. Vous nous avez présenté et commenté avec un certain lyrisme cette courbe classique des prix en fonction de la demande, et l’existence de ce fameux  triangle maléfique, triangle des Bermudes où disparaît l’argent des contribuables et/ou des consommateurs au profit des monopoles ou oligopoles qui bénéficient de bénéfices exorbitants en raison de leur contrôle du marché. Il semble que, comme nombre d’économistes, vous jugiez souhaitable de supprimer ou réduire a minima ce fameux triangle.
Cela m’a quelque peu inquiété, car, chercheur dans le secteur privé, j’avoue que je me demande si, par hasard, ce ne serait pas ce fameux triangle qui me permet de vivre intelligemment et à peu près décemment.
Vous avez mentionné fort justement qu’il existe un lien évident entre innovation et monopole – qui est le système du brevet. Un brevet assure un monopole temporaire en échange d’une innovation, sans monopole, pas d’innovation. (Il est d’ailleurs intéressant de se plonger dans les polémiques qui ont opposé chercheurs et industriels lorsque le système du brevet s’est imposé, notamment entre Benjamin Thompson, Comte Rumford, adversaire du brevet et fondateur de la Royal institution et James Watt).

Des exemples probants : Bell, IBM, CNET

Mais la problématique de l’innovation  va, je crois, bien au-delà de cela. Il fut un temps béni où existait par exemple, aux USA une firme comme Bell. Dans les laboratoires de Bell téléphone, en tentant de battre un record de sensibilité d’antenne, deux chercheurs, Penzias et Wilson, ont découvert qu’il existait un bruit résiduel qu’aucun réglage ne parvenait à éliminer, ils ont compris que ce bruit constituait ce que nous appelons maintenant le bruit de fond cosmologique,  la signature de l’organisation la plus primitive de l’univers. Ils ont obtenu pour cela le prix Nobel. C’est aussi dans les laboratoires Bell qu’ont été découverts le transistor, le langage UNIX, le laser à CO2, les caméras CCD, découvertes plus en rapport avec l’objet de leur activité et qui sont à l’origine d’innovations capitales et de secteurs industriels entiers.
Les laboratoires Bell ont été sacrifiés sur l’autel du culte de la concurrence libre et non-faussée, démembrés en plusieurs Baby Bells qui  n’ont pas marqué et vraisemblablement, ne marqueront pas, l’histoire des sciences et des techniques.
Dans les laboratoires d’IBM, au temps béni où cette firme possédait encore un quasi-monopole, ont été notamment inventé le langage Fortran, l’architecture RISC, les bases de données relationnelles... Gerd Binnig et Heinrich Rohrer, en 1981, ont inventé le microscope à effet tunnel, instrument de recherche fondamental aux immenses applications, de l’électronique à la biologie, pour lequel ils ont reçu le Prix Nobel. En 1986, Johannes Bednorz et Karl Müller ont découvert un nouveau type de supraconductivité à une température de 35 K : deux autres Prix Nobel pour IBM. Je n’ai pas l’impression que les actions anti-trust menées contre IBM et l’intensification de la concurrence permettront de maintenir une recherche de ce niveau.

Le CNET était un instrument de recherche formidable où ont été mis au point les systèmes de transmission de données Transpac et Numéris, le Minitel, le Télétexte,  la technique ATM de transmission à très hauts débits, les premiers écrans plats à matrice active, les  premières transmission par fibre optique. Il est facile de citer quelques chercheurs de très haut niveau qui ont travaillé au CNET ; je doute qu’il sortira un jour un Prix Nobel de Bouygues, Free, ou SFR.
D’ailleurs, selon les données de l’Arcep (Agence de régulation des communications électroniques et postes),  l’investissement moyen dans le secteur des Telecom est passé de 21.2% du chiffre d’affaire 1995,  à 11.3% en 2004, et 14% en 2007, soit une baisse d’un tiers. En ce qui concerne la part du chiffre d’affaire de France Télécom consacrée à la R et D, la chute est encore plus brutale, de 3.7 à 1.3 %. Par contre, les dépenses de communication ont explosé. Vive la concurrence libre et presque parfaite ?

Les monopoles contre le déclin technologique

Ou vive le monopole ? On peut légitimement se demander si les structures de monopoles et d’oligopoles, ne sont pas les seules à pouvoir imaginer, concevoir, financer des innovations de ruptures, innovations faisant appel à la fois à des avancées fondamentales et à la science appliquée et que les Etats et la recherche publique ne parviennent pas à engendrer, faute d’une vision et d'une expérience industrielles. Du moins lorsqu’il s’agît de monopoles naturels, reposant sur la construction d’une barrière technologique forte – et d’ailleurs, les plus conséquents d’entre les libéraux - Hayek par exemple – contestent même l’intérêt d’agir contre ce type de monopoles et dénient à l’Etat le droit de le faire. Avec l’idéologie de la concurrence libre et parfaite, avec la lutte artificielle, volontariste, bureaucratique contre les monopoles naturels risquent alors fort de disparaître les grandes innovations ou  inventions. Nous devrions rapidement voir, c’est peut-être déjà le cas, s’enclencher un relatif déclin technologique, un ralentissement de l'innovation.
Oui, mais les monopoles sont peu incités à développer leurs innovations ? C’est là un autre problème, pour lequel il existe des solutions ; mais c’est un problème subalterne, car enfin, on n’a jamais vu développer une invention qui n’a pas été faite.


mardi 18 décembre 2012

Les Pôles de compétitivité jouent-ils bien leur rôle ?


Les Pôles de compétitivité jouent-ils bien leur rôle ?


Une réflexion territoriale

Les Pôles de compétitivité ont été créés en 2005, à partir d’une réflexion sur l’innovation et l’aménagement du territoire initiée sous l’égide de la Caisse des Dépôts. Elle est née de la constatation de l’efficacité des clusters (Californie, Nord de l’Italie…) regroupant sur une base géographique des industries et centres de recherche actifs dans un même domaine industriel, à la fois éventuellement concurrents et partenaires, et du manque en France de grosses PME innovantes et exportatrices, ancrées dans les Régions. La structure en clusters permet de s’unir pour capitaliser les expériences, le savoir-faire, de s’associer pour répondre à des défis ou à des appels d’offre complexes, de stimuler l’innovation.
Pour faire simple, prenons une multinationale A possédant dans une région française un centre de recherche et de production A1, et un autre centre A2 en Asie, et une PME possédant dans la même région un centre B, travaillant dans le même domaine. Du point de vue des sociétés, A1 et A2 sont concurrent de B ; du point de vue du territoire, A1 et B sont partenaires naturels, et concurrents de A2.
L’idée des pôles de compétitivité est donc basée sur une logique territoriale. Elle vise à :
- accroître l’innovation par la mise en réseau, le développement de synergies et de collaborations entre entreprises, instituts de recherche et organismes de formation sur des territoires donnés, soutenir le maintien et le développement d’activités innovantes, créatrices
d’emplois et de valeur ajoutée sur les territoires concernés ;
- améliorer l’attractivité de ces territoires et, plus globalement, la compétitivité industrielle française
71 pôles de compétitivité ont été créés (par exemple Cap digital (numérique) et Medicen (médical) en Île de France, Aerospace Valley et  Canceropole à Toulouse, Minalogic (microélectronique) à Grenoble…) Un  rapport d’évaluation de ces pôles a été remis au gouvernement en novembre 2012, aux ministères les plus impliqués : redressement industriel (Arnaud Montebourg), PME, innovation, économie numérique (Fleur Pellerin) (rapport Technopolis)
L’évaluation globale est plutôt positive, néanmoins les auteurs signalent, (parfois préconisent) des évolutions inquiétantes pouvant conduire à manquer le but poursuivi en raison principalement  d’un saupoudrage inefficace- spécialité française-, et d’un manque de focalisation sur le but principal, le développement régional basé sur des clusters d’entreprises innovantes.

Fonctionnement des Pôles de compétitivité

Le budget moyen des pôles s’élève à 1,09 M€ en 2011. La part d’autofinancement, constituée des seules cotisations et prestations, est de 28%.  5,7 Mrds d’euros ont été investis dans les projets de R&D labellisés par les pôles de compétitivité en 4 ans ce qui correspond à 4,5% des dépenses nationales de R&D sur la période.
En moyenne, l’équipe d’animation d’un pôle comporte 11 personnes, 8 ayant un statut de salarié.      
Les deux tiers des entreprises déclarent avoir créé des emplois et 84% déclarent en avoir maintenu du fait de leur adhésion aux pôles. Un tiers des entreprises adhérentes déclare que leur adhésion leur a permis d’augmenter leur chiffre d’affaires et d’améliorer leur capacité à exporter. Plus de la moitié des entreprises adhérentes déclarent avoir augmenté leurs investissements et leurs effectifs de R&D ; près de 60% des entreprises adhérentes déclarent avoir mis en place de nouveaux partenariats. 93 start-ups sont issues directement des pôles de compétitivité. Autre point positif : l’implication des PME qui représentent plus de la moitié des adhérents.

Les problèmes

Un interventionnisme étatique brouillon et pesant : « les pôles disposent d’un nombre élevé d’interlocuteurs représentant l’État…Cette multiplicité d’acteurs nuit à la lisibilité et à l’efficacité du dispositif. » « Le processus de labellisation, d’expertise et de sélection des projets présentés au FUI (Fonds Unique interministériel) est complexe et long ». Ajoutons que le temps des arbitrages interministériels n’est pas celui des start-up et conduit à des échecs.
Une gouvernance insatisfaisante : Même si une très grande majorité d’adhérents sont satisfaits du fonctionnement, les auteurs du rapport notent que « Les PME sont deux fois moins représentées dans les instances de gouvernance que leurs poids dans les adhésions. Les organismes de formation et de recherche sont, eux, inversement surreprésentés par rapport au nombre d’adhésions avec 29% des membres des instances de gouvernance.
S’il est satisfaisant de voir les Universités fortement impliquées, leur rôle dans la gouvernance laisse penser que les pôles de compétitivité sont en partie utilisés pour pallier à un financement insuffisant de la recherche universitaire plutôt qu’au développement de nouveaux produits ou services industriels,  ce qui semble aussi confirmer par les remarques suivantes.
Un développement insuffisant des projets, un manque de résultats industriels : « Les innovations de services, d’organisation et de marketing qui offrent des gisements de croissance importants pour l’ensemble des entreprises » sont insuffisant développés, au profit sans doute d’une recherche plus fondamentale.
« L’action des pôles s’est portée davantage sur l’émergence et la structuration des projets de R&D que sur leur accompagnement et le suivi des résultats et des innovations produites… Les dernières étapes du cycle d’innovation avant la mise sur le marché ne sont pas bien couvertes par les instruments publics de financement et insuffisamment accompagnées par les pôles »
Traduction libre : les projets restent trop encore au stades de projets, les start-up, au stade de start-up, les prototypes au stade de prototypes. Les Pôles n’ont ni la motivation, ni les compétences, ni les moyens d’un développement industriel, même à petite échelle.
Cette interprétation est confortée par deux autres remarques : « Les projets de R&D de taille intermédiaire (généralement entre 250 et 750 k€), en particulier portés par des PME, ont du mal à obtenir des financements publics ».
« Les acteurs de l’écosystème fédérés par les pôles doivent désormais accroître leurs efforts pour obtenir encore davantage de résultats commercialisables, à travers une vision complète du cycle du projet. Pour ce faire, il est nécessaire de mettre en place un instrument d’observation efficace et fiable concernant les « résultats » finaux des projets de R&D des pôles, ainsi que de toutes leurs actions susceptibles de déboucher sur des innovations (quel
que soit leur type) ; d’envisager les mesures à même d’assurer leur commercialisation dans les
meilleures conditions : mobilisation d’instruments d’ingénierie financière au niveau de la démonstration et de la commercialisation. 

Une inégalité territoriale persistante : « Les financements sont concentrés géographiquement. L’Île-de-France bénéficie de 28% des financements au titre des projets de R&D, devant la région Rhône-Alpes (22%). Cinq régions reçoivent 70% des financements »


Pas orientés suffisamment vers l’industrialisation !

L’ensemble de ces remarques pointe à mon avis vers une conclusion qui n’est pas suffisamment soulignée par les rapporteurs, (qui recommandent une classification assez absconse et dangereuse en pôles de compétitivité internationaux et pôles d’innovation régionaux) : les pôles de compétitivité ne sont pas assez fidèles à leur mission première, le développement industriel local par la synergie d’intervenants locaux ( grandes sociétés, PME, organismes de recherche et de formation, mise en valeur de ressources ou produits locaux). Ils ont peut-être trop orienté vers la recherche, pas assez vers l’innovation industrielle.
Les Pôles de compétitivité réussiront et constitueront un atout formidable s’ils se refocalisent sur cette mission
Les Pôles de compétitivité échoueront s’ils dispersent leurs efforts. Ils échoueront  si l’on veut leur faire jouer un rôle de substitution de l’Etat dans le financement de la recherche publique.
Les Pôles de compétitivité échoueront si l’on veut qu’ils remplacent l’AII, l’ex agence pour l’innovation industrielle, dissoute et jamais remplacée dans son rôle d’identification, de soutient et financement d’ « innovations de rupture », un rôle ambitieux et indispensable, mais dont ils n’ont, et de beaucoup, ni les compétences, ni les moyens – même les pôles internationaux prônés par les rapporteurs.
Pour cela, il est indispensable de renforcer le rôle régional dans le pilotage des pôles et de diminuer le rôle national, et d’augmenter la réactivité des décisions. Cela devrait être le cas si le troisième acte de la décentralisation, prévu en 2013 clarifie les rôles et implique davantage les régions dans le pilotage de l’innovation, comme l’affirme une source de Bercy (Le Monde, 27 nov 2012). Mais il est vrai que la même source précise : « Rien n’est encore écrit…). Il va de soi que le rôle des Régions devrait aussi être accru dans la Banque publique d’investissement. Deux combats portés  entre autres élus locaux  par Ségolène Royal, très impliquée dans les politiques régionales d’innovation..
Enfin, les rapporteurs affirment que « la différence entre un bon et un mauvais pôle…dépend beaucoup de la personnalité et de l’expertise des équipes ». Les pôles de compétitivité, pour réussir, nécessiteront un renforcement de leur encadrement, particulièrement en personnes ayant une expérience de recherche et développement industrielle significative.

jeudi 6 décembre 2012

Formations médicales_Arrêter le moins disant et la dérégulation !


 Deux absurdités : le numerus clausus et les directives européennes sur les équivalences

27 % des médecins exerçant en 2012  en France ont obtenu leur diplôme à l’étranger. : 17% en Algérie, 16.8 % en Roumanie, 9.9 % en Belgique,  6% de Syrie, 6 % en Maroc. Et il s’agit des médecins installés, la situation sera encore bien pire quand les étudiants actuellement en formation exerceront. En ce qui concerne la Belgique et la Roumanie, ce sont clairement très majoritairement des stratégies permettant de contourner  les  concours français, plus sélectifs. L’afflux d‘étudiants français en médecine, mais aussi infirmiers, kinésithérapeutes, vétérinaires… en Belgique a conduit les autorités belges à introduire ou durcir un système de quota pour limiter les inscriptions étrangères.
23% des dentistes installés en France en 2012 on étudiés hors de France : 52% viennent de Roumanie, 13% d’Espagne, 7% en Belgique, 5 % en Espagne.
Clairement, la directive européenne sur les équivalences est en train d’aboutir à un moins-disant généralisé en matière de formation, et, en matière de formation médicale, c’est sans doute encore moins acceptable qu’ailleurs. Nous en voilà ramené, grâce à la politique européenne, à ce qu’était la France avant la Révolution et l’Empire, où des étudiants en médecine recalés à Paris étaient fort bien accueillis, moyennant finance, par la faculté de Dijon, laquelle leur délivrait un diplôme qui leur permettait d’exercer partout en France…sauf  dans la région dijonnaise. L’Europe, ou la marche arrière toute !
La situation risque encore d’empirer et le moins disant prend des proportions alarmantes avec des démarches comme celle de l’Université privée portugaise Fernando Pessoa. Elle vient d’installer en France même , à Toulon, une antenne, où pourront être formés des dentistes, des pharmaciens, des orthophonistes, sans passer le moindre concours, la période des inscriptions étant en plus astucieusement décalée pour recueillir les étudiants ayant échoués aux premiers partiels des concours français…Leurs diplômes devront ensuite être reconnus, grâce au système d’équivalence européenne. (Le Monde, 06 décembre 2012)
C’est évidemment un détournement complet des concours, une dérégulation totale de la formation des professions de santé. L’Union Nationale des Etudiants en Chirurgie Dentaire a protesté, sera-t-elle entendue ? Face à une situation identique, l’Etat Italien  a révoqué l’autorisation d’ouverture d’une antenne de l’Université Pessoa, en affirmant son droit à garder sous son autorité les études médicales, en tant que partie intégrante de la politique de santé. L’Espagne est confrontée au même problème, et abuse de l’inerte bureaucratique pour différer sa décision quant à l’ouverture d’une Université privée Pessoa aux Canaries. Vraisemblablement, l’affaire remontera jusqu’à la Cour de Justice européenne.
La France est particulièrement menacée en raison d’un système déraisonnable de quota, absurdement mal géré par les Ordres professionnels ; et même pas en faveur des professionnels installés, puisque ceux-ci peinent à trouver des successeurs pour racheter leurs cabinets. Mais c’est un autre problème, connexe, mais différent.
La dérégulation des professions de santé, l’absence de garantie des Etats nationaux, le moins disant généralisé en matière de formation sont des conséquences logiques et inévitables de la politique européenne de reconnaissance automatique des diplômes. Cette politique marche cul par-dessus tête, en mettant en place une reconnaissance sans tenir compte des cursus et niveaux.
En ce qui concerne les études médicales, la France doit se joindre à l’Italie et aux pays qui le souhaiteront, pour faire reconnaître que les formations médicales sont partie intégrantes des politiques de santé, et donc à responsabilité nationale


samedi 1 décembre 2012

Expertise et démocratie _ les règles du débat

La démocratie ne peut plus vivre sans devenir participative, sans instaurer un trialogue continu entre l’opinion publique, les experts et les gouvernants, trialogue qui suppose un débat de qualité. Entre expertise et démocratie, le lien n’est pas simple ; du moins quelques affaires récentes permettent, si l’on en tire les leçons, d’éviter des erreurs dommageables à la démocratie et à la société.

Abeilles ; la faillite de l’évaluation des pesticides

C’est sous ce titre que Le Monde du 10 juillet 2012 publie un article analysant la raison pour laquelle des insecticides comme le Gaucho, le Régent, le Cruiser- les néonicotinoïdes- ont pu être utilisés pendant vingt ans. Pendant vingt ans, les apiculteurs ont vu dépérir massivement leurs ruches, ils ont très vite mis en cause ces insecticides, et pendant vingt ans ils n’ont pu se faire entendre des industriels et des agences publiques.
Il est apparu que les protocoles pour évaluer la toxicité de ces insecticides n’étaient pas pertinents, qu’ils ne prenaient pas en compte l’effet d’exposition prolongées, comme c’est le cas avec les semences enrobées, ou les expositions sublètales ( on peut tuer une abeille en lui faisant perdre le sens de l’orientation sans que cela se manifeste par une toxicité immédiate), ou encore des effets de synergie. Les choses ont commencé à changer lorsque des apiculteurs membres de la Coordination apicole européenne se sont rendu à Bucarest en 2008 à une réunion de la commission internationale chargée de la standardisation des tests d’évaluation. Ils n’ont pas été mal accueilli, mais se sont aperçu que les discussions ne prenaient pas du tout en compte leur problème ; ainsi, un produit pouvait être considéré à bas risque s’il ne tuait que 50% des abeilles ! (« Nous étions dans une ambiance très cordiale, avec des gens très avenants, qui proposaient des choses tout à fait inacceptables »). En dehors même du fait que les experts étaient tous subventionnés par l’industrie phytosanitaire, ils ne se rendaient simplement pas compte de ce qu’ils entérinaient !
D’où une première leçon : l’expertise et le débat ne peuvent se faire entre experts, en  l’absence des parties prenantes.

Le Mediator

Interview intéressante d’Irène Frachon, la cardiologue qui s’est battue avec acharnement  pour faire reconnaître la responsabilité du Mediator dans les valvulopathies apparues chez les patients traités par ce produit. Alors que les attaques contre les experts, notamment de l’ex agence du médicament, se sont multipliées, au point de créer un climat nauséabond et des refus en série de médecins d’assurer des taches d’expertise, Mme Frachon rappelle qu’il est impossible de trouver des experts indépendants et compétents, et que d’ailleurs, ce n’est pas parce qu’un expert a vu son laboratoire financé pour effectuer une étude qu’il sera malhonnête – et il vaut d’ailleurs mieux qu’il ait effectué de nombreuses études pour des partenaires divers.
Aucun débat ne peut s’instaurer avec la suspicion générale à l’encontre des experts. Il n’existe pas d’experts indépendants, mais il peut et doit exister une évaluation indépendante, car totalement transparente. Chaque expert doit faire connaître en totalité ses collaborations et conflits potentiels d’intérêt. Chacune des interventions doit être tracée dans un document synthétique et consultable.

L’affaire Seralini et les «cinquante pour cent de médicaments inutiles » des Pr Debré et Even

Par deux fois, le professeur Seralini a annoncé à grand renfort de publicité des résultats  prétendant prouver la toxicité des OGM, en utilisant des protocoles expérimentaux dont les experts ont unanimement réfuté la validité, d’abord sur des cellules placées en état de stress, puis sur des rats Sprague Dawley pendant deux ans. La dernière étude s’est accompagnée d’une véritable manipulation de l’opinion publique, à grand renfort d’images de tumeurs spectaculaires,  avec embargo sur les résultats pour éviter que des experts puissent être consultés avant publication, et sortie simultanée d’un livre et d’un film. La publication d’un véritable pamphlet anti-médicament par deux professeurs retraités, Debré et Even, qui affirme l’inutilité de 50% des médicaments, et a été dénoncé, chapitre par chapitre, par spécialistes et médecins traitants désespérés de voir des patients tentés d’arrêter leurs traitements est tout aussi inadmissible. Ces attitudes ne sont pas des contributions utiles, bien au contraire, à quelque débat que ce soit. Lorsqu’une vérité scientifique positive peut être énoncée, l’entretien du doute est une stratégie de mauvaise foi qui dissimule bien souvent des intérêts particuliers et doit être dénoncée par les instances compétentes (Académies, société savantes…). Si une bonne science n’est pas forcément éthique, aucune éthique ne peut prétendre reposer sur une mauvaise science.

Le débat sur l’énergie

La France commence en novembre 2012 un débat indispensable sur la politique énergétique. Ce débat devra notamment faire connaître à l’opinion les ordres de grandeurs physiques, qui fixeront ce qui est possible ou pas, préciser les coûts et conséquences des différents scenarios envisagés etc. Deux associations, Greenpeace et les Amis de la Terre ont refusé la présence dans le Comité de Pilotage d’un ancien patron du Commissariat à l’énergie atomique, M. Pascal Colombani, désigné par Mme la Ministre de l’Environnement. Cette récusation d’experts utiles est inacceptable ; on n’attend pas d’un expert qu’il soit neutre entre la vérité et le mensonge, on attend qu’il donne sa vérité, appuyée sur son savoir et son expérience, en toute transparence, et qu’il accepte d’en débattre. De plus, malgré la démission de M. Colombani, ces deux associations continuent à boycotter le débat.
Aucun débat n’est possible avec ceux qui manient ainsi l’exclusive, le soupçon systématique, la disqualification, voire l’insulte et la diffamation de leurs contradicteurs. Ils refusent l’échange et la discussion d’arguments rationnels, préférant l’affirmation de prétendues valeurs. Ils ignorent le débat, la démocratie doit les ignorer ; non pas les réprimer, mais cesser leur donner une parole qu’ils veulent proférer sans la soumettre à la critique.


lundi 19 novembre 2012

Debré, Even, cent pour cent inutiles et dangereux

Les professeurs Debré (urologue) et Even (pneumologue) viennent à grand bruit médiatique de publier un livre dans lequel ils affirment l’inutilité ou la dangerosité d’un médicament sur deux. C’est en fait leur pamphlet qui est 100% inutile et dangereux.
Une certaine responsabilité médiatique est aussi en cause. Compte tenu de ce qu’est l’invention puis l’évaluation d’un médicament, du nombre d’experts différents qu’elles requièrent, qui peut croire un seul instant qu’un duo de praticiens retraités puisse avoir un avis pertinent sur 4000 médicaments, en dehors de leur domaine de compétence, en opposition avec les spécialistes concernés, en opposition avec les agences de sécurité sanitaire du monde entier ?
Le Pr Even est surtout connu pour une conférence de presse dans laquelle il prétendit avoir mis en évidence l’efficacité de la cyclosporine dans le Sida, et pour ses dénégations des dégâts du tabagisme passif. Tout le monde peut se tromper, mais persevere diabolicum ! –
Le Pr Debré, s’il se passionne pour l’évaluation médicale, devrait s’intéresser à la manière dont les urologues usent et abusent de l’opération souvent invalidante de la prostate- et parfois même de manière criminelle, cf. le procès des urologues de Toulouse accusés d’avoir faussé des examens pour augmenter le chiffre d’affaire de leur clinique.

Reprenons point par point :

Debré et Even sont-ils diabétologues ? Ils affirment l’inefficacité et la dangerosité des traitements nouveaux( glitazones, gliptines, glinide) pour recommander les médicaments des années 50, sulfamides et la metformine – certes efficaces puisque les sulfamides peuvent induire des comas hypoglycémiques !, mais dangereux et dont l’efficacité décroît au cours du temps, conduisant à une impasse thérapeutique. Pour le diabète de type I, ils prônent un traitement immunosuppressif , dont il est démontré depuis plus de trente ans qu’il n’a que des effets transitoires. Pour le Pr Marre, président de l’association française du diabète, « ce livre est scandaleux et dangereux. Il risque de provoquer des morts et repose sur des affirmations dénuées de preuves…des erreurs de raisonnement, l’ignorance de connaissances élémentaires ».

Debré et Even sont-ils cardiologues ?

En ce qui concerne le cholestérol, ils affirment que les statines «ne servent à rien chez 90 % de ceux à qui on les donne» et remettent même en cause le cholestérol comme facteur de risque. Réponse du Pr. Eric Bruckert (La Pitié-Salpétrière) : « la lecture du chapitre sur le cholestérol montre une impressionnante méconnaissance de ce qu’est un facteur de risque. Les auteurs sortent de leur chapeau une valeur normale bien à eux, qu’ils estiment être dangereuse. Il n’y a aucune justification scientifique à cette norme ». Pour le Pr Helft (La Pitié-Salpétrière) les statines sont des  médicaments importants qui permettent de diminuer significativement la survenue des maladies cardio-vasculaires, la mortalité coronaire et la mortalité totale…Des méta-analyses ayant colligé le résultat de plusieurs dizaines d'études portant au total sur près de 200 000 patients donnent des résultats non contestables).

En ce qui concerne l’hypertension, Debré et Even jugent justifié à partir d'une pression systolique supérieure à 16, dénoncent le gtand nombre de médicaments équivalents (mee-too), affiremnt que toutes les molécules se valent, prônent l’utilisation des médicaments les plus anciens, diurétiques et bêtabloquants et souhaitent le retrait des 39 spécialités associant plusieurs antihypertenseurs dans une même pilule. ? « Aujourd'hui, à partir d'une pression de 14, une prise en charge se justifie. 16, c'est quand j'étais étudiant, relève le Pr Danchin (George Pompidou). De plus, les diurétiques et les bêtabloquants ne sont pas les médicaments les mieux tolérés ». Tous les cardiologues savent bien que les patients ne répondent pas de la même façon à un même médicament, ou que les effets secondaires n’en sont pas les mêmes-ce qui est important pour des traitements à long cours comme celui de l’hypertension. Certains, par exemple, ne supportent pas les inhibiteurs de l’enzyme de conversion qui peut déclencher des crises de toux insupportables – heureusement que l’industrie  développé des antagonistes de l’angiotensine. Les associations se justifient par leur efficacité et pour faciliter l’observance du traitement. L’hypertension, c’est le « tueur silencieux » dénoncé par les cardiologues, car elle peut n’entraîner aucune manifestation jusqu’au jour où se produit un accident vasculaire cérébral. Là encore, le message du duo Debré Even est néfaste et leurs préconisations dangereuses

Debré et Even sont-ils allergologues ? Certes non, car là c’est toute une profession qu’ils dénoncent en  traitant ceux qui utilisent la désensibilisation de “gourous, charlatans, marchands d'illusion”. Réponse du Pr Daniel Vervloet (Marseille) : « En ce qui concerne la désensibilisation en cas d'asthme, même s'il existe des querelles d'experts parfaitement légitimes, toutes les méta-analyses mettent en évidence un effet thérapeutique favorable, même si tous les patients n'en tirent pas bénéfice. Aujourd'hui, les allergologues sauvent des vies chaque année en mettant en œuvre des stratégies de désensibilisation aux venins de guêpes et d'abeilles. Pour ce qui est des allergies alimentaires et en particulier de l'allergie à l'œuf, une grande étude dans le New England Journal of Medicine vient de montrer que la désensibilisation par voie orale, permettait de guérir une telle allergie, de manière à ce que la réintroduction alimentaire ne soit suivie d'aucune réaction. On peut se demander si les propos inexacts tenus dans le livre tiennent au manque de connaissance ou à la mauvaise foi». La fédération française d'allergologie  a décidé de porter plainte devant le Conseil de l'ordre.

Debré et Even sont-ils gynécologues ? Ils jugent que les pilules de troisième et quatrième génération, plus faiblement dosées en oestrogènes ne servent à rien. Eh bien, ce n’est pas l’avis de la majorité des jeunes femmes qui les demandent et des gynécologues qui les prescrivent. Ce n’est pas non plus  l’avis du Pr Maraninchi, directeur général de l'agence de Sécurité Sanitaire estime que « l'existence d'un grand nombre de pilules constitue un bien pour de nombreuses femmes. Il est important qu'elles aient accès à la diversité…certaines associations hormonales ne conviennent pas à certaines femmes ».

Debré et Even  sont-il cancérologues ? Ils affirment que l'avastin, un nouveau médicament qui bloque la formation de vaisseaux sanguins dans les tumeurs, est « inutile et potentiellement dangereux » ; « Dans les cancers colorectaux, ce traitement a apporté des progrès importants, et sa toxicité reste relativement modeste par rapport à d'autres molécules », souligne François Chast (Hotel-Dieu)

On pourrait continuer la liste.
Ainsi, impunément, « deux professeurs retraités peuvent lancer une fatwa contre les médecins irresponsables, les patients inconscients, les agences de surveillance incompétentes et l'industrie pharmaceutique diabolique? » (Elise Soli). Pour la Fédération française d’allergologie,  «non contents d’être diffamatoires, ils sont irresponsables car ils jettent la suspicion sur toute une profession (praticiens, chercheurs, enseignants) et méprisants à l’égard des malades sans considération aucune pour leur santé ». L’UNOF (Union nationale des omnipraticiens français) dénonce les « dangereux raccourcis scientifiques » de ce « pamphlet anti-médicament ». « Votre intervention n’a fait que semer le trouble dans l’esprit de ceux que vous voudriez protéger et que nous devons à nouveau convaincre de l’utilité de leur traitement ». Pour le Pr Maraninchi, directeur de l’agence de Sécurité sanitaire  française, «Ce qui est dangereux dans ce livre, c'est de faire peur à certains malades qui prennent des médicaments qui leur sont utiles ».
Et il a fallu que Mme la Ministre de la Santé  rappelle que les médicaments soignent. S’il doit y avoir une utilité à ce débat, ce serait de rappeler que les médicaments soignent en effet, que c’est parce qu’ils sont actifs qu’ils peuvent être parfois dangereux, et que certains traitements doivent être suivi par les spécialistes concernés, même lorsqu’on se croit guéri.
N’empêche que le mal causé par deux professeurs retraités, qui n’ont guère marqué leur époque, en mal de notoriété, est considérable ;  leur oeuvre leur rapportera beaucoup d’argent, mais causera beaucoup de problèmes aux médecins et à leurs patients.

Les Académies et Sociétés savantes doivent jouer leur rôle et condamner fermement le livre et ses auteurs et leur ôter tout crédit scientifique.



mercredi 31 octobre 2012

La Chine éveillée ne parle pas forcément américain !

Santé publique, système public !

Intéressante interview dans La Recherche d’octobre 2012 du Ministre de la Santé de la République Populaire de Chine. Le Dr Chen Zhu est un hématologue qui a obtenu son doctorat en France, à l’hôpital Saint-Louis. L’épidémie de Syndrome respiratoire aigu, le SRAS, en 2003, a créé un électrochoc en matière de santé publique. Son premier effet a été une rupture radicale avec les habitudes de dissimulation des problèmes de la bureaucratie communiste, et la mise en place d’un système d’alerte transparent, rapide, efficace. Avec un réseau sentinelle de cinq cents hôpitaux dans tous le pays, l’immense et populeuse Chine est maintenant au meilleur niveau en ce qui concerne la surveillance de maladies épidémiques émergentes. Avec la rapidité des transports et l’accroissement des échanges, c’était une nécessité pour la santé, bien public mondial ; la Chine assume sa part du travail
Lors de la première phase de libéralisation de l’économie, de nombreux paysans et ouvriers d’Etat ont perdu leur assurance maladie- dans les campagnes, 80% de la population n’était plus couverte. Les hôpitaux devaient fonctionner comme des entreprises et équilibrer leurs budgets, ils sont donc devenus inaccessibles à la plus grande partie de la population et la corruption a prospéré. Depuis 2007, une nouvelle politique a été poursuivie, visant à la mise en place d’un système public de santé, notamment financement public des hôpitaux pour remédier aux dérives observées, et d’une assurance maladie publique couvrant les besoins essentiels. Un système plus proche du système français que du système américain !

Les relations scientifiques franco-chinoises

La Chine assume aussi maintenant sa part dans la recherche thérapeutique. En matière de médicament, l’un des grands succès chinois a été la découverte de l’antipaludéen le plus efficace, l’artémisine, isolé à partir de remèdes  traditionnels. La Chine se dote aussi de moyens considérables en matières de biobanques (banques de cellules diverses utiles pour la recherche et éventuellement les thérapies cellulaires), de bioinformatiques, de recherche translationnelle (permettant d’établir des liens solides  entre effet clinique et recherche pharmacologique fondamentale.
Dans la domaine de la médecine et des maladies émergents, l’Institut Pasteur de ShangHai, collaboration entre les Instituts Pasteur et l 'Académie des Sciences de Chine constitue une réalisation remarquable, ainsi que, dans le domaine de l’informatique et de l’automatique, le laboratoire mixte INRIA/Académie des Sciences de Chine (LIAMA) de Pékin.
Près de 30.000 étudiants chinois sont en France. Grâce à l’action d’hommes comme M. Vallat, l’ancien proviseur de Louis-Le-Grand, qui a lancé des filières de recrutement en Chine (et en Inde) pour les classes préparatoires, grâce aussi à des initiatives comme l’Ecole Centrale de Pékin, grâce aux collaborations, notamment avec l’ingénierie d’EDF et d’AREVA dans le domaine du nucléaire, la Chine connaît et apprécie le modèle généraliste et original de formation des ingénieurs à la française.
En matière de science, de technique, de modèle de société, la Chine ne s’inspire pas que des USA. Et la collaboration franco-chinoise a de beaux jours devant elle.

Eric Sartori, (Histoire des Grands Scientifiques Français, tempus 2012)

dimanche 28 octobre 2012

Affaire Séralini : rebâtir sur les ruines

Sanctionner le Pr Seralini ?

Après examen des données, les agences de sécurité sanitaires européennes, allemandes, néerlandaises, l’agence de sécurité sanitaire française et le Haut comité des biotechnologies ont conclu à la nullité de l’étude du Pr Séralini sur la toxicité du maïs OGM résistant au round-up et de l’herbicide associé : «  interprétations spéculatives des résultats », « absence d’analyse statistique des données concernant les informations », « conclusions insuffisamment soutenues par les observations », « présentation des résultats utilisés pour échafauder des hypothèses physiopathologiques non fondées ». Auparavant, les six académies scientifiques françaises (médecine, science, pharmacie, vétérinaire, agriculture et technologie) avaient aussi condamnées « un travail qui ne permet aucune conclusion fiable ». Menée sur une durée trop longue sur des souches de rats développant spontanément des tumeurs, cette coûteuse étude était mal conçue dès le départ et les spectaculaires tumeurs exhibées en première page de plusieurs journaux ne constituent que la preuve d’une volonté de manipulation de l’opinion.
Cette affaire s’est déroulée dans un climat extrêmement malsain et détestable, intolérable : manipulation des media par un embargo ne permettant une évaluation sérieuse de l’étude, disqualification a priori des experts qui, selon les méthodes reconnues, avaient conclu à l’absence de toxicité, et du maïs OGM, et de l’herbicide, intimidation vis-à-vis des journalistes exprimant des doutes[1] (il faut ici saluer notamment le travail et le courage notamment des journalistes du Monde et de Marianne).
Ce n’est pas la première fois que Séralini est fortement critiqué ; en 2008, son étude déjà très médiatisée sur la toxicité cellulaire du glyphosate reposait sur l’emploi de lignées cellulaires non pertinentes placées dans des états de stress (pH notamment) aberrantes.
Aucune éthique ne peut se fonder sur une mauvaise science, et plus encore, sur une manipulation éhontée des peurs, et plus encore, lorsque les manipulateurs en tirent profit. Ces affaires portent atteintes à la science, au débat démocratique, à la possibilité même de ce débat et à l’action publique (l’utilisation de la mauvaise science pour conforter des choix idéologiques semble devenir  la règle au gouvernement, note le journaliste de Marianne Jean-Claude Jaillette).
 Si les libertés académiques  et d’expression doivent être évidemment respectées, on peut et on doit se poser la question de la position du Pr Séralini et des moyens qui doivent lui être alloués.

Que faire ? De la recherche !

L’ANSES, peut-être par crainte de l’opinion, ou par charité confraternelle, concède que la démarche de Séralini est « ambitieuse » et qu’elle « soulève des questions originales ». Même pas, a-t-on envie de répondre. Rien dans la connaissance de la molécule de glyphosate ne permet de suspecter une toxicité inconnue ; rien dans la conception de l’OGM NK603 ne laisse suspecter un danger quelconque pour la santé[2]. Aucune des méthodes actuellement reconnues n’a permis de mettre en évidence un problème éventuel. L’emploi massif de l’herbicide et de l’OGM là où ils sont autorisés depuis des années n’a entraîné aucune conséquence sanitaire néfaste – et sans doute est-il même bénéfique, en réduisant l’emploi d’herbicides toxiques.
C’est probablement une erreur de croire, comme le laissent entendre certains qu’il faudrait recommencer l’étude du Pr Séralini, avec d’autres moyens, des durées plus longues, des animaux plus nombreux ou différents.  En revanche, oui, il faut urgemment mettre en place un meilleur suivi de la santé professionnelle des agriculteurs, avec des registres de déclaration obligatoire, notamment pour les maladies neurodégénératives.

Le programme toxome

Le problème est qu’il n’existe sans doute pas actuellement de protocoles, de méthodes scientifiques permettant d’arriver à une meilleure prédiction de la toxicité, et c’est un problème général, pour la pharmacie, l’agrochimie, la chimie, les nanomatériaux, le processus Reach …L’évaluation de la toxicité sur des animaux ( et même sur deux espèces d’animaux, rongeurs et non-rongeurs telle que requise pour l’autorisation de nouveaux médicaments), ne règle pas tous les problèmes : comme l’explique le biochimiste Claude Reiss, nous ne sommes pas des rats de 70kg. La solution passe par le développement d’un programme de recherche intensif sur la toxicogénétique, qui permette d’arriver à tester les composés sur des cellules humaines, à observer les effets produits, et surtout à les évaluer de manière pertinente. Cela suppose à son tour le développement des connaissances sur toutes les voise biochimiques de toxicité (le « toxome », par analogie au génome, ensemble des gênes). C’est là un programme scientifique utile, nécessaire, d’une ampleur quant aux moyens nécessaires et à la durée supérieure à celle du programme de génome humain. Ainsi, les effets des bisphénols ont été probablement longtemps sous-évalués ; et, par contre, des médicaments aussi utiles que l’aspirine ou les beta-bloqueurs ne pourraient plus aujourd’hui être mis sur leur marché, car ils montrent chez l’animal des toxicités inexistantes au même niveau chez l’homme.
Des efforts dispersés en ce sens existent déjà : Tox21 à l’Agence Américaine de l’environnement, le Human Toxome project en Europe, le Human Toxicology Project Consortium formé par un groupe d’industriels de la pharmacie, de la cosmétique, de l’agro-alimentaire. Plutôt que de mener un combat douteux sur le maïs transgénique, le gouvernement français ferait mieux de soutenir en France et en Europe, un programme mobilisateur et un effort conséquent de recherche en ce domaine.
Si  l’étude du toxome pouvait surgir des ruines de l’affaire Séralini, tout n’aura pas été perdu.


[1] Il faut saluer notamment le travail et le courage notamment des journalistes du Monde et de Marianne, notamment Stéphene Foucart et Jean-Claude Jaillette )
[2] Permet-il la réduction de l’emploi d’herbicides, est-il bénéfique à long ou même à moyen terme pour l’agriculture et moins néfaste pour l’environnement que les techniques alternatives sont sans doute des questions plus pertinentes..


samedi 27 octobre 2012

Hydroélectricité : une décision avisée et courageuse

Hydroélectricité : une décision avisée et courageuse

Delphine Batho a étonné en déclarant son opposition  à la libéralisation en cours  des barrages hydroélectriques, imposée par la Commission européenne, plus précisément la Direction de la concurrence dans le cadre de l’ouverture du marché de l’électricité. Celle-ci imposerait à EDF de céder 20% de son parc hydraulique, soit 49 barrages, à la concurrence. La Ministre de l’Ecologie a indiqué qu’ « il y a le problème de délai de licence sur le renouvellement qui semble devoir passer par une mise à la concurrence…, un enjeu de valorisation du patrimoine français en matière d'hydroélectricité, de valorisation environnementale… Moi je ne souhaite pas une nouvelle libéralisation.»
Il était en effet de temps de remettre en cause des décisions basées sur une idéologie de la concurrence qui a largement démontré sa nocivité. Dans des domaines où l’investissement de départ, où la recherche sont importants, celle-ci ne fonctionne simplement pas, comme cela a été largement démontrée par la privatisation de l’électricité aux USA, celle des transports publics en Angleterre. Lorsque qu’un monopole naturel est remplacé par un oligopole, les firmes qui le constituent n’ont aucun intérêt à investir et peuvent très bien se contenter de laisser la pénurie s’installer et les prix augmenter. Dans le secteur des télécommunications, la libéralisation s’est accompagnée d’une baisse d’un tiers des investissements en recherche ; conséquence,  en France, on se demande qui investira dans le développement des réseaux haut débit, l’appel à la bonne volonté de Free étant d’un effet incertain.
Dans ces secteurs, la libéralisation, c’est l’explosion des dépenses de communications et l’effondrement des dépenses de recherche ! – et il n’est donc pas étonnant que la libéralisation trouve de nombreux communicants pour la défendre.
Dans le secteur de la production d’énergie, la libéralisation, la concurrence libre et entière ne fonctionne pas. Face aux délires de la Commission européenne, comme d’habitude l’Allemagne fait le gros dos, en affirmant que sa constitution fédérale et la division de son réseau rendent sans objets les préconisations de la Commission, l’Italie commence par voter en urgence la prolongation pour quinze ans de son monopole avant d’affirmer son obéissance parfaite à la Commission, et, comme d’habitude, avec les gouvernements précédents, la France se préparait à agir en bonne élève, suivant exactement les préconisations de la Commission de la concurrence dans les délais impartis.
Eh bien, il était temps que cela change, et qu’on prenne le temps de réfléchir vraiment aux avantages et inconvénients de la libéralisation, domaine par domaine, qu’on pense stratégie industrielle, production, recherche, et pas simplement intérêt – et encore immédiat - du consommateur…Et qu’on ait enfin le courage, si besoin est, de résister aux ukases de la Commission Européenne.

vendredi 26 octobre 2012

Serge Haroche : le Prix Nobel, la Physique quantique et l’organisation de la recherche

Serge Haroche : le Prix Nobel, la Physique quantique et l’organisation de la recherche

La Recherche française a encore été à l’honneur cette année, avec le Prix Nobel de physique accordé à Serge Haroche. Formé à l’Ecole Normale Supérieure, entré au CNRS à 23ans, il a enseigné à Polytechnique, à Harvard, à Yale, au Collège de France, et a dirigé le laboratoire de Physique de l’Ecole Normale Supérieure, pépinière de Prix Nobel avec Claude Cohen-Tannoudji et Alfred Kastler, une filiation d’excellence.

La physique quantique, ses paradoxes, et comment l’enseigner.

Serge Haroche a été récompensé pour ses travaux en physique quantique, en particulier pour des expériences – des tours de force technologiques - portant sur des atomes ou photons isolés, permettant d’une part une meilleure compréhension des principes contre-intuitifs de cette science, et d’autre part, d’envisager des instruments de mesure et des ordinateurs incomparablement plus puissants et plus précis que ceux existants.
La physique quantique est née en 1906 avec l’explication par Einstein de l’effet photoélectrique, l’émission d’électrons sous l’influence de la lumière ; celle-ci ne se produit que pour certaines longueurs d’ondes (énergies) précises dans un matériau donné. Cela ne pouvait s’expliquer par la conception ondulatoire de la lumière, qui avait triomphé depuis la compréhension des phénomènes d’interférences et a conduit à une conception particulaire rénovée (les photons, particules de lumière).
Alors est apparue progressivement  une nouvelle physique, s’appliquant à des dimensions très petites, qu’Einstein a en partie refusée « Dieu ne joue pas aux dés ! »), tant elle est contraire à nos intuitions du monde physique et bouleverse nos manières de raisonner.
Ainsi, parmi les principaux paradoxes ou principes contre-intuitifs de la physique quantique :
- Le principe d’indétermination : nous ne pouvons pas connaître simultanément, avec une précision totale, certaines quantités, par exemple la vitesse et la position d’une particule – si ce mot a encore un sens ; plus on connaît précisément l’une, plus l’imprécision est grande sur l’autre
- L’implication de l’observateur et la dualité onde particule : l’expérimentateur  influe sur le résultat de l’expérience (la physique quantique n’est pas « réelle », il n’ y a que des observations) ; ainsi la lumière peut apparaître sous forme de photon (particule) ou sous forme d’onde, suivant la manière dont on l’observe, et parfois, dans la même expérience, successivement sous l’une ou l’autre de ces formes. Inversement, l’atome  (la matière) peut aussi se manifester sous forme d’onde…
- La non-localité : des particules ayant interagi dans la passé restent en interaction, et une mesure effectuée sur l’une a un effet immédiat sur les autres,  même si aucune information ne peut être transmise de l’une à l’autre.
- La quantification de certaines variables, notamment l’énergie. L’énergie, par exemple celle d’un électron dans un métal, est discontinue, elle ne peut prendre que certaines valeurs multiples d’une valeur fondamentale. C’est l’explication de l’effet photoélectrique, et l’existence de « grains », des « quantas » d’énergie a donné son nom à la théorie.
- Le déterminisme est aussi remis en question par la physique quantique ; ainsi, dans l’expérience de pensée née d’une discussion entre Einstein et Schrödinger, un chat est enfermé dans un cage hermétique où du cyanure peut être libéré – ou pas - à tout moment de manière aléatoire. Tant qu’un observateur n’a pas ouvert la cage pour constater l’état du chat, celui-ci, dans la conception quantique, n’est ni mort, ni vivant, mais dans un état de superposition mort-vivant…

Physique quantique et culture générale

Reste à savoir comment l’on passe de ce monde quantique des particules au monde physique que nous connaissons, et cette question – la décohérence quantique – reste un sujet de recherche.
L’un de ses plus prestigieux spécialistes, Richard Feynman, a pu déclarer : « Personne ne comprend vraiment la physique quantique », tant celle-ci est contre-intuitive. L’interprétation peut-être la plus rassurante est une interprétation positiviste, défendue notamment par Niels Bohr et Stephen Hawking, qui consiste à dire que la physique quantique n’a pas la prétention de représenter la réalité, si même ce concept a un sens, mais qu’elle permet simplement de relier des observations entre elles. C’est en effet l’esprit même du positivisme comtien, qui s’interdit la considération de causes premières ou de fins ultimes pour se contenter de relier des phénomènes à l’aide de lois, et qui, d’autre part, considère que la science, c’est l’interprétation du monde par l’homme- une synthèse subjective.
Dans l’enseignement français, on considère généralement que la physique quantique ne peut être enseignée qu’à des étudiants ayant déjà atteint un très bon niveau scientifique. Il est vrai qu’elle exige la maîtrise de mathématiques élaborées, et surtout une solide culture scientifique et physique. Un esprit critique aussi, car la physique quantique se prête en effet à nombre de dérives mystiques douteuses, d’entreprises malhonnêtes de détournement dans lesquelles les concepts quantiques servent la confusion, le jargon et l’intimidation, telles que dénoncées pat l’ article canular de Sokal et Bricmont prétendant fonder la sociologie sur des concepts quantiques.
Pourtant, une vulgarisation intelligente de la physique quantique est possible, comme l’ont prouvé George Gamow puis Russel Stannard, avec les Aventures de M. Tomkins. Alors, faut-il enseigner la physique quantique dans le secondaire ?  Des sondages régulièrement commandés par la revue La Recherche montrent que la science continue à bénéficier d’une forte aura, mais que les Français connaissent peu les chercheurs, et les pratiques réelles de la recherche et ses enjeux. L’enseignement secondaire devrait donner à tous, scientifiques, mais aussi littéraires, au moins une idée générale des principales méthodes, résultats et problématiques des différentes sciences, bref donner une culture scientifique solide et générale, qui pourrait passer par le biais d’un enseignement de l’histoire des sciences.

Serge Haroche et l’organisation de la recherche

Comme ses prédécesseurs des dernières années, Albert Fert et Jules Hoffmann, Serge Haroche insiste sur l’importance de la recherche fondamentale, « socle sur lequel tout le reste est possible », et s’inquiète d’une dérive, d’un curseur poussé trop loin vers une recherche pilotée par ses applications potentielles, avec une volonté néfaste et impossible de planification et un incroyable alourdissement bureaucratique entraîné par la recherche de financements finalisés, la complexité et l’intrication non pas quantique mais bureaucratique des diverses agences françaises et européennes. Il défend aussi la qualité et l’intérêt des grands organismes de recherches (CNRS, CEA, INSERM) que certains voulaient déposséder de leur rôle dans le pilotage de la recherche pour les transformer en agences de moyens au service des Universités. Ce système, cet environnement, ainsi que cela est reconnu même par les plus grands chercheurs étrangers, a permis à nombre de jeunes scientifiques de se développer avec une liberté importante, la possibilité de travailler avec «des salaires décents au départ, et des perspectives de carrière et de promotion décentes », qui permettent de « consacrer son esprit aux choses qui vous passionnent sans avoir à lutter pour avoir des moyens ». Ce n’est plus le cas aujourd’hui, et c’est le défi principal du gouvernement que de recréer les conditions qui ont permis à la France d’engranger aujourd’hui de réels et prestigieux succès scientifique.


dimanche 21 octobre 2012

Biocitech -Romainville en danger ?

Un site prestigieux

Ce fut d’abord la première usine, puis centre de recherche de Roussel-Uclaf, fondé en 1928,à la place des écuries des omnibus parisiens – pas tout à fait un hasard, car le médicament vedette de la jeune firme pharmaceutique était alors l’hémostyl, extrait de sérum de cheval ; puis ce fut l’épopée de la chimie de stéroïdes dont Roussel devint le champion mondial, avec l’ergocalciférol (vitamine D contre le rachitisme), l’estrone, la testostérone, la progestérone, les corticoïdes Hydrocortisone et Cortancyl,  - ce dernier sera un succès considérable et aussi le premier sulfamide français (Rubiazol), des antibiotiques comme le Claforan et des dérivés d’Erythromycine. Durant la grande période de Roussel-Uclaf, le centre de Romainville regroupa plus de deux mille chercheurs, techniciens et ouvriers, et assurait près des trois quarts de la production mondiale de corticoïdes.
Puis ce furent le décès brutal de Jean-Claude Roussel, et une succession de fusions (Hoechst, Aventis, Sanofi-Aventis) mal maîtrisées, dans lesquelles le gouvernement français fut incapable de préserver un immense patrimoine scientifique français et une industrie stratégique. La dernière grande invention de Roussel-Uclaf, bien dan sa tradition, fut le RU486 (la pilule du lendemain), qui fut l’objet d’un bras de fer avec l’actionnaire principal Hoechts qui ne voulait pas le développer.

Le Parc scientifique Biocitech : des atouts gaspillés

En 2003, Sanofi-Aventis décidé l’abandon du site de Romainville et le transforme en « Bioparck» destiné à l’accueil d’entreprises dans le domaine de la chimie, de la biologie et de la santé.
Le site est particulièrement bien adapté à l’implantation de laboratoires de recherches, de développement, voire de production légères, chimiques et biologiques, avec un immobilier et des services techniques et scientifiques efficaces et adaptés. Il est de plus très bien situé, en Seine Saint-Denis, mais aux portes de Paris et desservi par le métro (pourquoi persiste-t-on à vouloir exiler les scientifiques sur les plateaux glacés et mal desservis de Saclay ou de  Palaiseau ?)
Or Biocitech est loin d’être le succès initialement prévu, et nombre d’entreprises ont disparu (soit parce qu’elles échouaient, soit parce qu’elles ont réussi et ont été rachetées) ou sont parties, au point de mettre en danger le parc scientifique, le phénomène s’amplifiant en boule de neige puisque les charges s’accroissent pour les entreprises restantes, au point de devenir dissuasives.
Le principal problème de Biocitech est qu’il n’est pas géré, qu’il n’existe aucune politique volontariste de développement. Légalement, le parc appartient toujours à Sanofi, qui s’en moque totalement ; il existait un projet de cession à la Caisse des Dépôts, dont l’un des rôles est effectivement d’assurer le développement de structures de recherches scientifiques, notamment en liaison avec les pôles de compétitivité. De façon significative et désespérante, ce transfert ne s’est pas fait parce que Sanofi aurait dissimulé à la Caisse des Dépôts le départ imminent du site d’une société parmi les plus importantes.

Pourtant, Biocitech aurait dû, devrait encore avoir un bel avenir. La Région Parisienne est le première région européenne, devant le Grand Londres, pour le domaine pharmaceutique, et la troisième région européenne dans les biotechnologies ( et regroupe 50% des entreprises françaises de biotechnologie), son réseau d’hôpitaux, grâce à l’APHP, est le premier d’Europe. Biocitech, en Seine-Saint-Denis, mais proche de Paris a tout pour devenir un atout essentiel pour l’île de France, et pour la France dans le domaine de la recherche et de l’innovation pour la Chimie et des Sciences de la Santé. Encore faudrait-il que ce parc d’Activité ne soit plus géré par Sanofi, qui l’a complètement abandonné, et soit repris par une structure qui veuille le développer. Un défi pour le Ministère du redressement industriel et pour la Banque publique d’investissement ?


mercredi 3 octobre 2012

Etude OGM/NK603 : Les doutes de la communauté scientifique

Etude OGM/NK603 : Les doutes de la communauté scientifique

Sérieux Doutes

Qui n’a pas été choqué par les photos en gros plans de rats rendus difformes par de gigantesques tumeurs ? Pourtant l’image ne prouve rien et l’étude portant sur la toxicité du maïs MK603 (maïs transgénique résistant au round-up – glyphosate) réalisée par le Pr Séralini suscite de nombreux doutes. Tout d’abord, elle est en contradiction avec le savoir acquis. Depuis plus de quinze ans, des millions d’animaux de par le monde ont été nourris par des produits OGM, sans qu’ aucune maladie ou même signe clinique particulier n’ait été signalé, même chez des reproducteurs âgés. Si les études réglementaires sont menées sur 90 jours, des études avec des OGM sur des durées supérieures ont été réalisées (plus de 24, selon un article du Monde du 26 septembre de Stéphane Foucart), dont deux études avec le maïs résistant au round-up de plus de cent semaines, l’une sur la souris, l’autre sur le rat, sans effets secondaires significatifs.
L’étude du Pr Séralini n’était donc pas sans précédents, et la contradiction avec l’ensemble des connaissances existantes (ainsi qu’avec l’absence de toxicité du glyphosate, principe actif du round-up, l’un des herbicides les plus sûrs, spécifique d’une enzyme végétale et aux produits de dégradation bien connus) aurait dû imposer une élémentaire prudence.
D’autant plus que les experts ont déjà pointé une, voire deux  erreurs méthodologiques majeures ; la souche de rat utilisée pour l’expérience, Sprague-Dawley, n’est jamais utilisée pour des études de cancérogenèse parce que cette souche fragile présente des apparitions spontanées de tumeurs pouvant aller jusqu’à 45%. Sa durée de vie et d’environ deux ans – la durée de l’étude-, ce qui fait qu’il est quasiment impossible d’obtenir des effets significatifs avec les effectifs utilisés dans cette étude ; les normes en vigueur imposent l’emploi de groupes d’au moins cinquante animaux, cinq fois plus que ceux utilisés dans l’étude (soit un millier de rongeurs au lieu de deux cents pour la totalité de l’étude. Enfin, il est nécessaire de vérifier soigneusement l’absence de contamination de la nourriture par des dérivés de types aflatoxines.
Le plus probable est que cette étude représente une contribution … à la biologie du Sprague-Dawley agé ; et que les photos publiées, pour spectaculaires qu’elles soient, ne prouvent rien. Les experts des instances officielles françaises et européennes trancheront.


Et malaise !

L’équipe du Pr Séralini n’en est pas, si l’on peut dire, à son coup d’essai. En 2008, elle avait publié une étude sur la toxicité cellulaire du glyphosate qui avait été sévèrement critiquée par l’AFFSSA, dont les experts ont mis en évidence trois erreurs méthodologiques majeures : l'utilisation de lignées de cellules cancéreuses ou transformées pour les essais, peu représentatives d'une cellule normale, des cellules soumises à un pH 5,8 sans solution tampon pendant 24h, « ce qui permet non pas d'observer l'effet du glyphosate, mais plus vraisemblablement l'effet d'une solution acide et hypotonique sur des cellules », et une extrapolation totalement abusive de toxicité cellulaire à l’organisme entier.
A cela s’ajoute une véritable stratégie de communication, plus exactement de manipulation de l’opinion publique. Avant publication, l’étude a été divulguée lors d’une conférence de presse sur invitation, à des journalistes ayant signé un « embargo », donc ne pouvant en discuter préalablement et contradictoirement avec des experts scientifiques – et ceci alors que deux livres et un film écrits par des auteurs ou commanditaires de l’enquête paraissaient la même semaine.
Ce n‘est pas tout.  Certains media – Le Nouvel Obs- se sont prêtés à ce qu’il faut bien qualifier d’exploitation éhontée de la peur ; mais lorsque des journalistes comme Stéphane Foucart, du Monde se sont efforcés de faire leur métier, on a cherché à les discréditer.  Corinne Lepage (qui représente la Crigen) lui a rappelé lors d’un débat sur France-Inter que « Le Monde faisait campagne en faveur des gaz de schistes » ?!. Les experts qui émettent la moindre réserve se font systématiquement suspecter de malhonnêteté, de parti-pris en faveur des lobbies industriels et agricoles. Ce n’est pas admissible.
Un point mineur, mais significatifs : Mme Lepage et le Crif dénigrent souvent les études « payées par les fabricants d’ OGM » ; ils font semblant d’ignorer que ces études sont réalisées par des prestataires de service indépendants, dans des conditions reconnues dites bonnes pratiques de laboratoire et étroitement contrôlés, et dont la qualité et l’intégrité conditionnent la survie.
Après s’être engagés à publier toutes les données de l’étude, le Pr Séralini et Mme Lepage ont fait marche arrière. Mme Lepage ne veut plus les communiquer à des experts qui ont travaillé pour les fabricants d’OGM  ; ou bien, ils ne seront communiqués que si sont aussi rendues publiques  les données de toutes les études réalisées sur ce sujet. Pourquoi pas ?, mais il existe deux moyens de cacher une information, ne pas la divulguer, ou la noyer dans un bruit de fonds.
Ce qui serait plus intéressant, c’est de rendre public les débats des experts, ainsi bien sûr que les conclusions, éventuellement contradictoires. Et il est à peu près sûr que cela ne sera pas favorable au Crigen, à Mme Lepage et au Pr Séralini. Dèjà, dans Marianne (29sept2012), des chercheurs réputés du monde entier ont publié une tribune dénonçant « une démarche, qui n’est pas une démarche scientifique éthiquement correcte ». Et ils rappelaient une conclusion de Sylvestre Huet, de Libération : « cette opération est un désastre pour le débat public, sa qualité, sa capacité à générer de la décision politique et démocratique »