jeudi 17 juin 2010

Informatique en Terminal S: formation des profs

Si ça vous a échappé, allez voir le programme proposé par Jean-Pierre Archambault, Gérard Berry, Gilles Dowek et Maurice Nivat.

Il présente parfois une vision un peu française du domaine, mais on ne cachera pas notre plaisir. Un programme ambitieux et intéressant qui a d'abord le mérite d'exister.

Pas mal d'info sur le site de l'Association Enseignement Public & Informatique, EPI: http://www.epi.asso.fr

mercredi 12 mai 2010

Mégalo campus - suite

Si vous avez comme moi un avis réservé sur le mégalo campus Cassoulet, allez lire:

La cité scientifique de Tsukuba gagnée par l’obsolescence

[Tôgo Tsukahara et Hironori Ayabé, Annales de la Recherche Urbaine]

Ca parle de Tsukuba (le mégalo campus Sushi?) et des problemes d'urbanisme notamment. Un morceau choisi:

Actuellement, Tsukuba est confrontée à tant de problèmes qu’on ne peut tous les énumérer. Citons seulement le grand nombre de terrains inutilisés, le retard dans l’ancrage de la population, la faible propension à accueillir des étrangers et la pauvreté du réseau de transports en commun. Aujourd’hui, on espère beaucoup du train express Tsukuba de la compagnie JR, qui relira dès août 2005 Tsukuba au centre de Tokyo.

Les mauvaises langues vont dire que c'est ce que sera le mégalo campus dans 20 ans.

lundi 3 mai 2010

NoSQL. La fin d'un mythe ?

Comme pas mal d'autres chercheurs en bases de données, j'ai développé avec le temps une schizophrénie certaine. J'enseigne les bases de données relationnelles et je parle aux élèves de la beauté du calcul relationnel (First-order logic, les petits!), de l'algèbre relationnelle, et de notre standard SQL. Et à coté, j'aligné la recherche sur des données N1NF, des données déductives, des données objet, des données semistructurées; autant d'agressions contre le dogme relationnel. Et si on trouvait toujours quelqu'un pour nous dire que ça ne servait rien, que le monde était relationnel, ça ne nous a jamais empêché de vivre.

Et puis est arrivé XML qui est devenu un standard pour les données, plus standard que le standard relationnel. A l'occasion, on en a profité pour réaliser que maintenant que tout le monde programmait en objet, les bases de données objets s'imposaient sans combat. Même la déduction qui revevait à la mode! Mais elle était où la mode?

Une rumeur venue des US: Le monde devient NoSQL!

Késako NoSQL? Pour les prudents: cela veut dire "not only SQL". Donc c'est juste une platitude car tout le monde sait qu'il n'y a pas que des tableaux à deux dimensions dans la vie. Alors du pipeau? Non! C'est comme Web 2.0, c'est scientifiquement indéfinissable, mais c'est un état d'esprit, un mouvement, presqu'un art de vivre (ouf: je vais me faire chambrer). En tous cas, NoSQL ça doit être cool car même Mike Stonebraker se met tirer à dessus.

Bienvenue dans le monde fascinant de la gestion de données à l'échelle du Web avec ses DHT, ses map-reduce, et ses annotations sémantiques! Enfin de la techno qui décoiffe. [Voir le livre là-dessus "Web Data Management and Distribution", Pub (*).]

Un avis personnel, on peut voir dans NoSQL deux aspects principaux :

  • On peut faire de la gestion de données avec un opérateur scan, un index clé/valeur et basta!
  • On peut faire de la gestion de données en utilisant massivement la distribution.
Tout ça, c'est ce qu'on gagne: la simplicité et le passage à l'échelle. Le prix à payer: on zappe la gestion stricte de la concurrence, style ACID, et les requêtes compliquées, genre plein de jointures.

D'un point de vue logiciel, ça conduit à plein de logiciels souvent libres. (NoSQL, c'est un peu "A bas les serveurs relationnels d'Oracle, IBM et Microsoft".) Notamment:

  • Des systèmes autour de Map-Reduce comme Hadoop.
  • Des bases de données objet comme db4o.
  • Des bases de données XML comme eXist.
  • Des systèmes de stockage massif de documents.
  • Des systèmes de clé/valeur autour d'une DHT comme Dynamo.
(*) SA, Ioana Manolescu, Philippe Rigaux, Marie-Christine Rousset, Pierre Senellart. Version alpha à http://webdam.inria.fr/textbook/ - écrivez moi si vous voulez les login et passwd. Sortie cette année chez un éditeur. Stay tuned!

lundi 5 avril 2010

Libérez les données publiques !

Excuses : cet article est trop long. Mais c’était un long weekend, le temps était pourri et le sujet me tient à cœur.

Vous vous êtes sûrement déjà révoltés contre des organismes publics qui se refusaient à publier leurs informations. Vous vous êtes énervés sur d’autres qui les cachaient dans des labyrinthes de pages Web indigestes. Pas vous ? Moi si ! C’est de l’information publique payée par nos impôts, qu’on cache dans des armoires, qu’on planque au fond du Web. Les nouvelles technologies, ce ne sont pas juste des trucs pour que l’Etat puisse mieux fliquer. Cela doit aussi permettre d’ouvrir vraiment la vie politique au plus grand nombre, de mieux contrôler l’Etat. On va dire (et désolé pour les gros mots) que l’ouverture des données publiques est à la base de la démocratie moderne.

Longue digression sur des sujets liés : Le livre électronique et le patrimoine de la BNF. Qu’est-ce qu’on n’a pas entendu comme bêtise récemment :
  1. Le livre électronique allait tuer la lecture (comme le papyrus ou l’imprimerie l’avaient fait il y a belle lurette ; c’est bien connu).
  2. On allait perdre le plaisir de la lecture : la bonne odeur du papier (ma préférée), le bonheur de feuilleter les encyclopédies en vingt volumes (tout le monde a ça chez soi), l’enchantement de vivre entouré des milliers de livres de sa bibliothèque personnelle (à la portée de tous les prolos bien sûr).
  3. On allait tuer les libraires et les éditeurs. Il est vrai que ces métiers risquent de disparaître au moins comme on les connait aujourd’hui. Mais un préalable : l’objectif sociétal est de garantir l’accès à la lecture (pas aux livres papiers) pour tous au meilleur prix, et pas de sauver l’édition ou la librairie. Si ces métiers doivent changer, désolé, qu’ils changent !
  4. On allait brader notre patrimoine. On revient sur le sujet. Le patrimoine de la BNF (même si ce n’est pas vraiment de ça qu’on parle), c’est des données publiques. On a eu droit au match de boxe, BNF contre Google. Du Grand-Guignol. Des gens très savants nous ont expliqué les horreurs d’une indexation moderne impérialiste et inculte. Est-il nécessaire de le préciser ? L’indexation et les annotations sémantiques ne sont ni de gauche ni de droite, ni intelligentes, ni anti-intelligence. Elles sont ce que vous en faites. Google ne va pas voler notre culture et la transformer en parc d’attraction. Soyons sérieux ! La techno de Google est loin d’être parfaite. Elle n’est pas compliquée à reproduire. Par contre, le patrimoine de la BNF est unique. N’ayons pas peur ! Ces informations représentent de la valeur et l’Etat est bien placé pour imposer ses règles. Négociez ! Imposez des règles !
Pourquoi cette longue digression ? Parce que pour les données publiques aussi, la nouveauté fait peur. Pour les données publiques, l’argument principal va sans doute être le risque de détournements que l’on pourrait faire de toutes ces données si elles étaient disponibles sur le Web. Il ne faut pas être naïf, ces risques existent. OK. Mettez des règles !

C’est vrai qu’on peut imaginer une véritable révolution. On ne sait pas très bien ce que c’est les données publiques : des budgets, des statistiques, des formulaires, des règlements, etc. Les détails du chômage, de l’exclusion, du racisme ? La réalité du mal-logement ? Les performances des hôpitaux ? La criminalité près de chez vous ? Les accidents de la route dans votre ville ? Le travail ou pas de vos élus ? Les prix de l’immobilier ? Que feraient les citoyens s’ils savaient vraiment ce qui se passe ? C’est la vérité qui fait peur ? Pourtant, elle seule permet d’attaquer les problèmes.

A l’étranger, ça déménage ! Avec data.gov, les US d’Obama sont volontaristes. D’autres pays s’y mettent, comme les anglais avec data.gov.uk conseillés par Sir Tim Berners-Lee. Depuis peu, Google Data Explorer (encore le méchant loup) facilite l’exploration et la visualisation de données publiques américaines. C’est encore limité mais ça vaut le coût d’aller voir.

Et la France ? Je nous croyais en retard comme on l’est en général dans le domaine de l’e-démocratie. Mais un copain, François Bancilhon, m’a convaincu que ce n’était pas totalement vrai. Ça bouge. Des villes comme Rennes sont pionnières dans ce domaine. (Vive les bretons !) Une fondation, la FING (Fondation Internet Nouvelle Génération), lance des expérimentations sur la réutilisation des informations publiques territoriales au service de l’innovation et de la proximité. Un petit groupe, Libertic, milite pour la promotion de la libération des données publiques. Et d’autres.

Et l’Etat ? On a depuis peu l’Agence du Patrimoine Immatériel de l’Etat (Si vous savez pourquoi ils sont en https, merci de m’expliquer.) Je cite Wikipedia : « l’APIE est un service à compétence nationale français en charge du patrimoine tels que brevets, licences, fréquences radioélectriques, marques, images, bases de données ou tout autre patrimoine ou propriété immatérielle appartenant à l'Etat français… L’APIE doit répondre à 3 objectifs :
  • optimiser l’impact de la gestion du patrimoine immatériel sur l’économie ;
  • tirer parti d’une meilleure valorisation des actifs pour moderniser les services publics, soutenir la conduite des politiques publiques au profit des usagers et contribuer au désendettement ;
  • prémunir l’État et les usagers contre d’éventuels risques de détournement. »
Ça fout la trouille. Avec des mots comme gestion, actifs ou valorisation, on a peur qu’il s’agisse surtout de faire payer l’usager pour des trucs qu’il a déjà payé avec ses impôts. Il faut militer pour que son objectif premier devienne simplement : « rendre accessible gratuitement et facilement au citoyen, toutes les informations dont disposent l’État et les collectivités locales. »

Peut-être que pour rendre publique les données publiques en France, on pourrait faire moins étatique, faire participer des associations, des fondations, des entreprises privées. Le privé ? Pourquoi pas, si les règles sont claires et si on n’oublie pas que l’objectif est de « rendre accessible gratuitement et facilement au citoyen, toutes les informations dont disposent l’État et les collectivités locales. » N’ayons pas peur ! Ces informations représentent de la valeur et l’État est bien placé pour imposer ses règles. Négociez ! Imposez des règles !

Je finirais par Data Publica, un projet conduit par trois startups françaises : Araok, Nexedi et Talend. Pour faire simple, l’objectif de leur projet est de mettre en place et opérer une place de marché sur laquelle ceux qui possèdent des données viendront publier leurs méta-données ou leurs API. Je n’en sais pas beaucoup plus, mais c’est prometteur. François est impliqué dans data publica, qui organise en 2010 une conférence sur le sujet avec l’INRIA et Cap digital. Si vous êtes intéressés, stay tuned !

samedi 3 avril 2010

Please, arrêtez les conneries !

Une des phrases peut-être les plus antiscientifiques qui soient, est "il ne faut pas travailler sur tel sujet." La plupart des scientifiques se battraient pour défendre le droit de chacun de soutenir quelque thèse scientifique que ce soit. Donc, Messieurs Allègre et Courtillot ont le droit de penser ce qu'ils veulent. Ils ont le droit de faire la recherche qu'ils veulent.

Venons en au vrai sujet : ils ont la liberté des sciences mais ils en ont aussi les devoirs.

Je ne suis pas climatologue (eux non plus d'ailleurs), donc je ne peux pas vérifier leurs affirmations. Mais il suffit d'écouter les spécialistes à la radio, de lire les journaux. Leurs écrits, surtout ceux d'Allègre, semblent scientifiquement bourrés d'erreurs. Ils ont oublié que si le scientifique a une liberté scientifique totale, il a aussi un devoir de rigueur scientifique.

Par désir d'exister, de passer à la radio, de vendre des livres, il semble avoir plongé dans une spirale médiatique, jouant sur la tendance naturelle des journalistes de vendre du sensationnel simpliste, plutôt que des idées complexes. Notre devoir de scientifique est d'éclairer le débat public de nos connaissances. Il n'est pas de l'obscurcir avec des faux messages comme les avions renifleurs, le créationnisme, la négation du réchauffement climatique.

Bon! Des scientifiques qui se trompent, des théorèmes faux, des chiffres erronés, ce n'est pas rare. Pourquoi en faire un plat ici ? Parce que la polémique soulevée par Allègre et Courtillot est particulièrement néfaste. Face au réchauffement climatique, nous avons peu de temps pour agir. Des lobbys comme ceux des pétroliers et de l'automobile font déjà tout pour empêcher des mesures efficaces qui iraient à l'encontre de leurs intérêts. Les politiques les yeux braqués sur le quotidien et les sondages, s'ils peuvent à l'occasion surfer sur une vague écolo, hésitent souvent à prendre des mesures difficiles portant sur le long terme.

Donc : Please, arrêtez de dire des conneries!

Signé: Un chercheur (*) qui ne connait rien à la climatologie, mais qui s'inquiète du réchauffement climatique généré par l'activité humaine (**)

(*) Allègre et Courtillot sont tous les deux académiciens. C'est d'ailleurs à l'origine de l'écriture de cet article. Un copain m'a demandé s'ils exprimaient le point de vue de l'académie ? Non! Leur point de vue n'est pas celui de l'académie des sciences. Voir la déclaration commune des Académies des sciences sur
la réponse globale au changement climatique
.

(**) Je me suis demandé si j'avais le droit d'exprimer cette dernière affirmation moi qui ne connait rien au sujet. Voilà où ce genre de polémiques conduit. J'ai décidé que oui, car je m'appuie sur les affirmations des spécialistes. (Voir la lettre de quatre cent spécialistes .) De la même façon, un climatologue a le droit de déclarer qu'il existe certaines fonctions qui ne sont pas calculables même s'il ne comprend rien à la théorie de la calculabilité.

vendredi 12 mars 2010

Chatroulette

On vit une époque incroyable. J'ai cru pendant longtemps que le Web était la plus grande invention depuis Gutenberg. Mais le Web avait un coté incomplet. Je pouvais lire les textes de quelqu'un à l'autre bout du monde, dont je ne soupçonnais pas même l'existence. Il pouvait lire les miens. So what? Je ne lisais pas les siens. Il ne lisait pas les miens. Et puis est arrivé l'invention la plus stupéfiante : chatroulette. On vous met en contact webcam de manière aléatoire avec un autre internaute. Enfin quelque chose de nouveau, de révolutionnaire, qui allait détruire le communautarisme. Oublié votre petit cercle étroit sur Facebook. Mieux que Meetic qui essayait péniblement de vous trouver une âme sœur. On allait enfin parler au monde.

Avant d'y aller, j'ai surfé un peu pour me mettre dans l'ambiance. Et là, stupeur et désespoir, les commentaires sont unanimes: "You see more dicks than humanly possible." Les pervers se sont appropriés l'invention. Ne jouons pas les personnes-la-vertue, Minitel et le Web ont aussi démarré avec plein de cul.

On va nous en remettre avec des études sociologiques, nous dire que cela montre l'abîme des relations humaines aujourd'hui. Bon, je parie que s'ils avaient eu chatroulette au moyen âge, ils auraient plongé eux aussi. Et aujourd'hui, si ca fait plaisir aux exhibitionnistes...

Faites une pause et allez écouter John Stewart

En tous cas, pas la peine de vous fatiguer à protéger vos enfants de chatroulette. C'est un truc de vieux. Eux, ils ont WoW depuis longtemps. A ma connaissance, ils s'y font des potes et ils s'amusent avec un système qui est techniquement bien plus intéressant que chatroulette. Mais peut-être y-a-t-il aussi une planète d'Azeroth où on se téléporte au hasard pour y voir des hommes montrer leurs queues. Je ne connais rien à WoW. Mais j'ai peut-être plus envie de connaître que chatroulette.

dimanche 21 février 2010

Mégalo campus ou cassoulet de Shanghai ?

En s’appuyant sur la riche tradition scientifique locale, malgré des distances qui ne favorisent pas les échanges, le campus du plateau de Saclay s’est mis en place depuis des années avec ses réseaux thématiques Digiteo ou Triangle de physique, le PRES Universud Paris, des structures comme Soleil, Neurospin ou le pôle de compétitivité System@Tic. Un plan Campus a été lancé par le gouvernement en 2008 pour faire émerger des pôles universitaires d’excellence capables de rivaliser avec le reste du monde. On voyait bien que les mêmes millions étaient affichés plusieurs fois mais on voyait aussi à peu près où on allait. Et puis le projet a dérapé. Il est devenu d’intérêt national. Il s’est s’installé dans la démesure sans vraie discussion, sans débat démocratique. On s’est retrouvé dans le Grand Paris de Christian Blanc. Les décideurs ont décidé. Vous avez intérêt à être pour si vous voulez des crédits.

Je ne sais pas quand tout s’est emballé mais j’ai vu des Powerpoint qui font peur. Je vous passe « le futur plus grand campus pluridisciplinaire d’Europe » avec ses je-ne-sais-pas-combien de dizaines de milliers d’étudiants « plus que dans les plus grands campus américains ». On est passé dans l’irrationnel, dans une mégalomanie franchouillarde. Est-ce qu’on réfléchit encore à ce qu’on fait ? Est-ce que quelqu’un pilote le projet ?

Résumons la vision, le grand dessein du campus du plateau de Saclay : mettre dans une casserole des régionaux de l’étape, l’Université Paris-Sud 11, l’Ecole Polytechnique soi-même, Supélec, et des transmigrants, l’ENS de Cachan, les Mines de Paris, Télécom Paris et Sud-Paris, Centrale, l’ENSTA, Agro, l’ENSAE, HEC, assaisonnés de CNRS, d’INRIA, d’INRA, de CEA, d’ONERA, et j’en oublie pour sûr. Et vous obtenez le fin du fin de la cuisine française, le cassoulet sauce Shanghai.

Autour de moi, j’entends des copains qui sont contre. Des télécoms Paris qui veulent rester Parisiens. Des Cachanais qui ne veulent pas changer de département. Et bien d’autres. On sait que l’universitaire de base n’aime pas le changement. Ca râle dans les labos mais on a l’habitude. Et finalement, on trouve assez peu de critiques sur le fond. Ou alors c’est que je ne sors pas assez. Une exception quand même, j’ai entendu Marc Lipinski, vice-président de la région Île-de-France, un camarade Verts, questionner le projet.

Ca sert à quoi un immense campus ? On ne vante en général pas un campus pour sa taille mais pour la qualité de sa recherche et de son enseignement. C’est une bonne idée le mégalo campus ?

Des arguments pour : la taille critique et Shanghai.
Même si on vous jure que ce n’est pas pour ça, on voit bien l’avant Shanghai, décentralisation et saupoudrage partout, et l’après, concentration et taille critique. Il est vrai que certains labos (en informatique au moins) sont petits et gagneraient à des regroupements. Ca permettrait de mieux bosser, de partager des ressources. Ca permettrait aussi d’offrir aux étudiants de meilleurs cours en partageant les filières. Mais on pouvait sûrement rester à taille humaine en se basant sur moins de doctrine et plus de pragmatisme. Peut être même en demandant leur avis aux chercheurs. (My God ! Un révolutionnaire qui veut demander l’avis des chercheurs.) On pouvait aussi améliorer les scores à moindre frais en signant nos articles de façon moins baroque, en rattachant les écoles d’ingénieurs à des facs, etc.

Des raisons d’être dubitatif
On nous dit qu’on fait ça pour l’ « effet cafétéria ». On pourrait croire qu’à l’heure d’Internet, on bossait sur Skype et SVN. Pas du tout ma bonne dame, tout se passe devant un caoua comme au bon vieux temps. Mais elle est où la cafétéria du campus ? A Orsay ? A Saclay ? A Palaiseau ? Ailleurs ? Ils ont dû la voir sur un Powerpoint ? Regardez les distances entre la zone du Moulon, la zone Polytechnique, le CEA ? Vous faites ça à pied ? J’ai essayé un séminaire en commun (entre Paris XI et Polytechnique). Les chercheurs ne se sont pas déplacés. Pas de transports en commun.

On nous dit qu’on va nous construire un campus de rêve. A Orsay, même si les bâtiments sont vétustes, on est près de la ville, on a le RER, des résidences pour les étudiants. On va recréer tout ça en mieux sur le plateau ? Baladez vous au Parc Club d’Orsay qui existe depuis des années ! Cherchez les cafés, les commerces, les services ! Pas un flipper ! La zone ! Juste une gendarmerie. Avec ses bâtiments perdus au milieu de nulle part, dans l’absence de lieu de vie, dans l’absence de logement, dans l’absence de transports en commun, qui prendra plaisir à vivre sur un plateau balayé par les vents ?

Des raisons contre : les coûts
Tout ça va dévorer des crédits de la recherche et de l’enseignement supérieur déjà bien maigres si on compare aux autres pays développés. Est-ce que cela a un sens quand les dettes du pays explosent, de dépenser une fortune pour déplacer des écoles et des universités pour une opération à l’intérêt pour le moins discutable ? Est-ce que cela a un sens de focaliser toutes les énergies sur un projet douteux quand il y a tant à faire pour améliorer la recherche, et répondre aux grands défis comme le réchauffement climatique ?

Des raisons contre : L’écologie.
Le Plateau de Saclay accueille les terres agricoles les plus riches de la région. Des projets locaux existent pour aider à la transformation d’une agriculture céréalière en agriculture nourricière, respectueuse de l’environnement, créatrice d’emplois non délocalisables, utile socialement. Quand il faudrait les encourager, quand il faudrait arrêter la progression de la ville et soutenir l’agriculture de proximité, on bousille des centaines d’hectares de terres cultivées et on force à fermer des exploitations du plateau. Des constructions massives vont imperméabiliser encore plus les sols à proximité des vallées de la Bièvre et de l’Yvette, déjà bien stressées. En concentrant des milliers de chercheurs et d’étudiants sur un territoire vide de tout transports en commun (mais Monsieur Blanc a promis une station de son super métro dans…20 ans… peut être), c’est la bagnole que l’on va encore encourager.

PS : Pour Paris où ça a l'air bien compliqué, ils ont Bernard Larrouturou qui essaie de donner du sens. Et nous ?

PPS: Pourquoi avoir choisi le cassoulet ? A cause d’une blague pourrie trouvée sur le Web et un peu aménagée : La droite Cassoulet c’est une petite saucisse avec des fayots autour et le résultat du vent, du vent ! Le vent qui souffle sur le plateau de Saclay bien sûr.

jeudi 4 février 2010

L'ère d'Internet - Pour la Science

A regarder, un numéro spécial de Pour la Science sur Internet.

Pas mal d'articles intéressants.

vendredi 29 janvier 2010

Open Access par Michel.Beaudouin-Lafon

Un article sur les publications Open Access dans CACM de février.

Michel Beaudoin-Lafon écrit: "J'ai écrit cet article en réaction à ce qui me semble être une part d'angélisme ou de naïveté de la part de nombreux défenseurs de l'Open Access. La rubrique "Viewpoints" où il est pubié a pour but de provoquer la discussion - et je pense que nous sommes tous concernés par les évolutions des pratiques de publication scientifique."

L'article de MBL

NB: je fais partie des naïfs et je l'assume :-)

Je crois vraiment qu'on peut trouver un modèle qui combine (i) un accès libre et gratuit sous license Creative Commons, (ii) des coûts pour les labos qui ne soient que marginaux. Dans l'article super intéressant de MBL, je questionnerai un seul point: ça coûte cher! Je pense que nous sommes dans des produits virtuels et les prix calculés aujourd'hui n'ont que peu de sens. (Les seules choses concretes, ce sont le sang, la sueur et les larmes des chercheurs qui ont fait le travail, écrit et édité l'article, écrit les rapports.) Donc il n'est pas simple de chiffrer combien ça coûte. Le même service (relativement proche) de gestion de site Web était très couteux, et cela ne coûte presque plus rien maintenant. De plus, on parle beaucoup de l'aspect "pérennité". Mais il faudrait dire que c'est légalement le rôle d'organismes comme la BNF en France, la Library of Congres, etc. Ce n'est pas à nous de payer pour cela.

Ce qui conduit à un tout autre sujet, la multiplication des journaux et conférences qui tiennent plus du pourriel (aka spamming) que de la science...

samedi 23 janvier 2010

Pub pour Gérard Berry

Vous trouverez des liens vers ses cours au Collège de France sur sa page Web

Ecoutez aussi la tête au carré.

Enfin, on parle de l'informatique!

vendredi 15 janvier 2010

Un nouveau boss au CNRS

J'ai lu dans Lemonde.fr:

"Ce chimiste a été préféré au mathématicien Antoine Petit, directeur du centre de recherche de l'Inria-Paris, et au spécialiste de la cryptologie Jacques Stern... "

Et ça leur arracherait la plume de dire qu'Antoine et Jacques sont des informaticiens, entre autres passés par les labos d'informatique des ENS Cachan et Ülm?

Serge, chercheur en informatique

PS: Félicitations à Alain Fuchs, même s'il n'est que chimiste.

mardi 5 janvier 2010

Informatique : la France peut mieux faire

Des efforts insuffisants en matière d'enseignement, une organisation trop complexe de la recherche et un manque d'ambition gouvernementale empêchent l'informatique française de réaliser tout son potentiel.

On l'a assez répété : l'économie française ne se développera qu'avec les hautes technologies. Or leur point commun est de s'appuyer sur l'informatique. Mais qu'est-ce que l'informatique ? Il ne s'agit pas de « science des ordinateurs » (computer science en anglais), expression trop restrictive, mais d'une science qui englobe le traitement de l'information par des programmes et inclut la robotique, l'automatique les télécommunications modernes, etc.

En France, on confond trop souvent informatique et science des ordinateurs, d'où l'invention de termes tels que « sciences et technologies de l'information et des communications (stic) » ou « sciences du numérique ». L'absence d'un terme clair pour désigner un concept ouvre la porte à la confusion. On finit ainsi par entendre que la France n'a que peu d'industrie informatique. C'est vrai dans un sens étroit : on n'y construit pas beaucoup d'ordinateurs et on n'y est pas à la pointe pour l'édition de logiciels à destination du grand public. Mais pour ce qui est de l'informatique au sens large, le reproche est stupide. La France est en très bonne position pour d'autres matériels informatiques (tels les composants pour systèmes embarqués) et dans de grands domaines de l'informatique au sens large (télécommunications, multimédia, jeux vidéo, etc.), essentiels à nos industries de pointe (aéronautique, pharmaceutique, transport, etc.).

Cette réussite n'est pas surprenante. La France a une école mathématique d'exception, et l'informatique est d'abord une histoire de mathématiques. Les classes préparatoires aux Grandes écoles forment des étudiants avec un excellent niveau scientifique. La recherche française en informatique se porte bien, comme l'illustre le prix Turing 2007 de Joseph Sifakis, et a comblé une partie de l'important retard sur les États-Unis constaté...


Pour la science, Décembre 2009

mercredi 30 décembre 2009

La fabrique















C'est un petit coin du Val de Seine, une de ses dernières usines. L'association La fabrique est arrivée à bloquer sa démolition et milite pour la transformer en espace culturel.

Le site de l'association: La fabrique

Quelques photos que j'ai prises récemment: Album

jeudi 17 décembre 2009

Interview dans Specif

Interview pour Specif réalisée par Bruno Defude, Hervé Martin et Florence Sèdes ci après désignés par Specif.

Specif : Peux-tu nous retracer ton parcours professionnel. Le statut souple de l'INRIA t'a permis un séjour de 2 ans au sein de l'université de Stanford ainsi qu'une implication forte dans une startup comme Xylème : n'as tu jamais eu envie de changer pour une carrière universitaire ou d'industriel ?

SA : J'ai fait une thèse à USC, Los Angeles. Puis j'ai été embauché à l'INRIA en 1982. J'ai passé deux ans à Stanford de 95 à 97. En 2000, j'ai fondé une start-up, Xyleme, avec Sophie Cluet et d'autres amis. Nous avons été super bien aidé par l'INRIA, par des gens comme Jean-Pierre Banâtre ou Laurent Kott. J'ai bien été un moment tenté par l'industrie. Mais ce n'est pas pour moi. Dans la recherche, quand on se lasse d'un sujet, on passe à un autre. Dans l'industrie, il faut au contraire essayer de rester sur le même créneau, de faire le plus possible la même vente. Et puis, quand la boite a grossi, j'ai trouvé que les nouvelles idées mettaient trop longtemps à arriver dans le produit. Ceci dit, j'ai une expérience trop limitée de l'industrie pour pouvoir en parler. Quand à une carrière universitaire, je suis dans un labo universitaire et j'enseigne mais pas trop. C'est idéal. Non ?

Specif : Tu as travaillé aux USA et en France. Comment se comparent selon toi leurs systèmes d'enseignement supérieur et de recherche ?

SA : Aux Etats-Unis, ils arrivent à attirer les meilleurs étudiants et des professeurs du monde entier. Pourquoi pas nous ? On peut trouver beaucoup de raisons. Les plus importantes à mon avis. Dans leurs meilleures facs, ils proposent des tas de bourses de doctorats quand nous demandons aux étudiants étrangers de suivre des cours en français avant de pouvoir leur proposer… peut-être une bourse plus tard. Ils offrent de gros salaires à leurs jeunes professeurs quand nous offrons des salaires très bas à nos maitres de conférences. (J'ai un jour indiqué ce salaire à une amie d'un grand groupe industriel ; elle n'a pas voulu me croire.) Enfin, ils leurs donnent des cadres de travail exceptionnels quand le fonctionnement de nos labos de recherche est très lourd. Nous perdons énormément de temps en bureaucratie, avec des règles idiotes et vexantes. Notre système est compliqué, souvent illogique et peu efficace, avec sa séparation entre universités et grandes école, entre chercheurs plein temps et enseignants-chercheurs. Cela dit, je connais surtout les endroits de prestige comme Stanford. La situation n'est pas du tout la même dans les petites facs paumées.
Pour ce qui est de l'enseignement de l'informatique en France. Il s'est beaucoup amélioré en s'alignant sur les curriculums des Etats-Unis. Aux Etats-Unis, on assiste maintenant à une remise en question de cet enseignement par des gens comme Janet Wing. Je n'y connais pas grand chose, mais c'est un sujet passionnant.

Specif : Tu fais maintenant partie du petit groupe d'informaticiens membres de l'académie des sciences. Peux-tu nous décrire plus précisément le rôle d'un académicien et quel est le regard des autres académiciens sur l'informatique ?

SA : L'académie donne des avis sur des sujets divers. Elle décerne des prix. Sans langue de bois, je ne trouve pas qu'on soit hyper utiles. C'est plutôt un truc de prestige. Evidemment, on peut essayer d'utiliser ce prestige pour le bien de la science en général, et de l'informatique en particulier.
Les autres académiciens des sciences que j'ai rencontrés se sont montrés plutôt respectueux de l'informatique. C'est peut-être juste de la politesse pour certains. Mais je crois aussi que Gilles Kahn, notre premier académicien informaticien, maintenant décédé, a fait beaucoup pour convaincre. Et ceux qui ont suivi ont enfoncé le clou. Par contre, ce n'est pas simple. Nous faisons partie d'une section qui s'appelle Mécanique et Informatique et qui couvre aussi des aspects de maths appliquées. Il y a des frictions pour le partage du gâteau. C'est structurel.

Specif : Il y a aujourd'hui de grands débats en France sur le statut de l'informatique : Est-ce une science et si oui comment la définir. Quel est ton point de vue sur le sujet ?

SA : C'est dingue qu'on ait encore besoin d'expliquer que c'est une science. Bien sûr, c'en est une :

  • parce qu'elle a développé tout un pan de connaissances nouvelles.
  • parce qu'elle a développé des outils qui transforment notre monde.
  • parce qu'elle exerce une énorme influence sur les autres sciences.
  • et surtout parce qu'un grand nombre de scientifiques se réclament de ce drapeau.

C'était la partie facile de la question. Comment définir notre domaine ? Pas en allant au rayon informatique de la Fnac ou dans une bibliothèque de quartier. On y trouve surtout comment apprendre à utiliser Word, Excel ou Windows. C'est autant de la science informatique qu'apprendre à faire du vélo participe de la science mécanique. Ensuite il faut oublier le terme anglais : computer science ou science des ordinateurs, c'est hyper réducteur. Notre domaine, c'est le traitement automatique de l'information, donc les algorithmes, le calcul, le raisonnement. On parle d'une nouvelle branche des mathématiques parce que l'informatique tient d'univers immatériels au contraire de la physique, la chimie ou la biologie. Mais ce n'est pas si simple. Le Web par exemple devient un objet physique complexe qu'on peut étudier avec des méthodes statistiques, un peu comme on peut étudie des turbulences dans un plasma. Et l'ADN, c'est aussi de la programmation.

Specif : Le CNRS vient de redéfinir son organisation en se structurant en instituts. Après de longs débats et plusieurs rapports, un institut des sciences informatiques et de leurs interactions vient d'être créé. Que penses-tu de l'émergence d'un tel institut et des frontières qui ont été choisies à ce jour

SA : La création d'un Institut d'Informatique me paraissait indispensable pour assurer une vrai place à notre domaine, longtemps parent pauvre du CNRS. J'ai fait partie de la commission Cousineau qui préconisait cela. J'aurais personnellement imaginé d'autres frontières que ce que je crois comprendre des plans du CNRS qui tient d'une vision étroite de notre domaine. D'ailleurs, j'aurais laissé les labos se positionner plutôt que de couper sur des lignes Maginot difficilement défendables.

Le débat qui a eu lieu m'a laissé perplexe. Je sais pour avoir participé à la création d'INRIA Futurs (Lille-Bordeaux-Saclay) tout le temps et l'énergie perdus à cause de la multiplication des tutelles. J'étais séduit par l'idée d'un seul institut sous la houlette du CNRS pour simplifier et rationaliser les fonctionnements, améliorer la visibilité des laboratoires universitaires. Et puis des gens très biens, des copains, qui connaissent le système bien mieux que moi, m'ont expliqué que j'étais naïf et que c'était ni souhaitable ni même réalisable. Bon. On a déjà un institut d'informatique au CNRS. J'espère que ce n'est qu'un début.

Specif : Il y a aujourd'hui une certaine désaffection des jeunes et particulièrement des filles pour les sciences. Cela se traduit par une baisse sensible de nos effectifs d'étudiants y compris dans les formations à la recherche (doctorat compris). Qu'est ce qui peut expliquer ce phénomène selon toi et comment peux t'on essayer d'y remédier ?

SA : Je pourrais en profiter pour me défouler et dire c'est la faute de très hauts dirigeants politiques qui disent que la recherche française est mauvaise ou la faute de responsables scientifiques qui passent plus de temps à bétonner leurs territoires qu'à draguer les jeunes. Mais le problème me parait bien plus sérieux. C'est un fait de société profond. Les jeunes choisissent des carrières plus " faciles ", qui leurs paraissent plus lucratives. On doit essayer de les convaincre du plaisir de faire des sciences, de la richesse des carrières scientifiques qui s'offrent à eux. Pour ce qui est des filles, c'est consternant ! Chercher uniquement nos scientifiques parmi les garçons des milieux favorisés, c'est se couper de la plus grande partie des talents. Il faut des actions volontaristes pour attirer les filles, les jeunes de tous les milieux, convaincre les parents, convaincre les profs, convaincre les décideurs, convaincre les employeurs, établir des quotas, offrir des bourses, etc. Je ne sais pas. Mais il faut faire…

Specif : Tu contribues régulièrement dans des journaux à destination du grand public. Qu'est ce que cela t'apporte et penses tu que les informaticiens devraient davantage faire œuvre de vulgarisation ?

SA : J'ai été pas mal sollicité récemment. J'ai accepté car c'est agréable de pouvoir écrire autre chose, de ne pas avoir à donner de preuve formelle. Cela dit, il y a sans doute un effet élection à l'académie. Ça va se calmer.

La vulgarisation des sciences est essentielle si on veut attirer des jeunes. Pour l'instant, en informatique, on n'est pas très bon. On trouve des tas de reportages à la télé, dans les radios, dans les journaux, pour la découverte de quelques os en Afrique ou celle d'une nouvelle exo-planète. Pas grand chose sur l'informatique qui est pourtant la science qui change le monde depuis cinquante ans. Ca n'intéresse pas de comprendre comment le moteur de recherche de Google fonctionne, comment un jeu vidéo représente les scènes, quels sont les risques du vote électronique. Il faudrait qu'on se bouge plus.

Specif : Une proposition de définition d'un enseignement d'informatique au lycée a été menée récemment mais n'a pas semble t'il été reprise dans la réforme en cours des lycées. Qu'en penses-tu ?

SA : C'est une catastrophe nationale et je pèse mes mots. Que dire d'autre ? On attendait cela depuis des années et le programme était à mon avis plutôt intéressant. On est en train de pénaliser sérieusement les générations à venir d'ingénieurs et de scientifiques français.

Specif : Tu es récemment intervenu à TELECOM Paris Tech pour y parler de l'enseignement de l'informatique. Quelle est ta vision sur ce point ?

SA : En simplifiant, il faudrait que les élèves ingénieurs bossent plus, qu'ils fassent plus d'informatique. Il faut aussi tordre le cou à cette idée idiote que nos meilleurs ingénieurs sont si brillants qu'ils peuvent apprendre en trois ans ce qu'on met deux fois plus de temps à apprendre ailleurs. Il faut qu'ils fassent comme les meilleurs partout ailleurs, des thèses !

Specif : Des débats viennent régulièrement animer la communauté sur informatique théorique vs informatique " appliquée ". Tu as prouvé que l'on peut contribuer sur ses deux dimensions, quel regard portes-tu sur ce débat ?

SA : Je me suis encore engueulé récemment avec un ponte de mon domaine, qui faisait du " theory bashing ". Cela me parait une dispute du siècle dernier. L'informatique sans la théorie n'a pas de sens. Les systèmes sont devenus trop complexes, les problèmes trop difficiles. Les solutions géniales bricolées, c'était le bon vieux temps, mais c'est révolu. Mais, l'informatique sans les systèmes, ça n'a pas de sens non plus. En France, on a plutôt tendance à avoir ce travers là, à penser qu'une recherche sans théorème, c'est pipeau. L'informatique ne serait pas ce qu'elle est avec les seuls théoriciens. Personnellement, j'ai essayé de concilier les deux. Cela présente peut-être le risque de n'être à fond ni d'un coté, ni de l'autre, et je ne propose surtout pas cela comme modèle. Je pense qu'il faut le maximum de diversité.

Specif : Tu as récemment obtenu un ERC Advanced Grant sur "Fondations of Web Data Management " et tu as intitulé ton discours d'entrée à l'académie des sciences " gestion de données distribuées ". Peux-tu nous décrire plus précisément l'objectif de ses recherches.

SA : Je travaille depuis toujours sur la gestion de données. Depuis une quinzaine d'années, je m'intéresse aux données sur le Web et à la distribution de données en général. Le domaine des bases de données s'est développé depuis les années soixante-dix en développant en parallèle des systèmes qui ont été des succès industriels (comme les SGBD d'IBM ou Oracle) et une théorie qui a fleuri parfois très proche des systèmes, parfois à la frontière d'autres domaines comme la théorie des modèles finis en logique ou la théorie de la complexité en informatique théorique. J'ai pas mal enseigné les bases de données relationnelles, et c'est un cours comme je les aime : de la théorie, des algorithmes, du système. Mais les données consistaient en des tableaux à deux dimensions sur des serveurs centralisées. Avec le Web, tout a changé. A Stanford, j'ai enseigné la gestion de données distribuées. Le sujet est passionnant mais j'ai réalisé que mon cours ressemblait à une suite de recettes de cuisine. Le but de l'ERC Webdam sur les Fondements de la gestion de données du Web, est de participer à développer les fondements de ce domaine. Ma thèse est que les systèmes que l'on envisage sont si complexes que l'on n'y arrivera pas sans de tels fondements. On en a besoin pour comprendre ce qu'on fait, pour le faire mieux, plus efficacement, plus sûrement, pour pouvoir l'enseigner.

Specif : Parmi l'ensemble des résultats que tu as obtenu durant ta riche carrière, quels sont ceux dont tu es le plus fier ?

SA : C'est difficile de choisir. Il y en a plusieurs qui me tiennent à cœur parce qu'ils ont représentés des efforts, des aventures. Mais je vais en choisir deux. Un résultat théorique avec Victor Vianu. On essayait de comprendre ce qu'on pouvait calculer avec le calcul des prédicats du premier ordre et un point fixe et on bloquait. Le nœud du problème est l'absence d'ordre sur les données. Un jour, on a trouvé le bon outil, des classes d'équivalences particulières qu'on arrivait à calculer et ordonner avec l'opérateur de point fixe. Ce qui est resté, c'est un résultat qui dit que PTIME = PSPACE si deux logiques de point fixe ont le même pouvoir d'expression. Mais ce qui est cool, c'est la caractérisation avec les classes d'équivalences. L'autre résultat appliqué est avec deux étudiants, Gregory Cobena et Mihai Preda. Nous avons développé un algorithme pour calculer le PageRank de Google de manière dynamique, sans même avoir à stocker la matrice du Web. L'algorithme est marrant et en plus on a crawlé des centaines de millions de pages du Web et on les a classées avec. Une expérience !

lundi 14 décembre 2009

Le contre-appel des scientifiques incultes

J'ai trouvé tout à fait surréaliste le déchaînement médiatique pour la défense de l'histoire géo en terminale S. On n'a pas entendu les mêmes critiquer les absences dans les programmes du bac pro ou l'abandon du cours d'informatique pour tous en seconde...

Pour remettre les pendules à l'heure : lire ce contre-appel

mardi 8 décembre 2009

La disparition du Q

Qui oublie son cul, perd son âme (proverbe indien)

Pendant quelques heures (quelques jours ?), la vieille dame de Rocquencourt en passant de

http://www-rocq.inria.fr, à http://www-roc.inria.fr

en a perdu son Q. C’était peu de choses, juste une disparition qui aurait plu à Perrec. Dans une tendance générale à organiser la recherche à la traine d’indicateurs plus ou moins glauques, on restait sur le cul devant la prise de position oulipienne, abandon résolu d’années de référencement et de Pagerank, pour une histoire de Q sans importance.

Mais ça n’a pas duré. L’état était instable et la vieille dame est devenue http://www.inria.fr/rocquencourt/. Tout ça pour ça?

La WayBack Machine d’Internet Archive nous ramène le 2 février 97 pour www-rocq.inria. Ne manquez pas d’aller admirer ce passé si loin et finalement si récent. Nostalgie : cette adresse n’est plus.

Et on se prend à imaginer de prochaines disparitions :
  • Le désuet WouaWouaWoua du début,
  • Le N pour replonger vers le passé et l’IRIA, un Institut en attente d’être nationalisé.
  • Et pourquoi pas, le A pour devenir INRI.

lundi 23 novembre 2009

La barbe !

Un grand moment que celui des roulements de tambour ! Le groupe d’action féministe La Barbe a investi la coupole de l’Institut de France à l’occasion de la séance solennelle de rentrée des 5 académies. Et j'ai raté ça...


Voir le blog de Plafond de Verre


Je dois dire que cela a été une de mes surprises en arrivant à l'académie des sciences, la sous représentation féminine.

Vive les barbues!

vendredi 6 novembre 2009

Un interview dans Science et Vie, novembre 2009

Qu’est-ce qui vous a déjà fait changer d’avis ?



Je participais à un groupe de travail à Stanford en 1995 et deux jeunes doctorants nous ont présenté un projet de moteur de recherche pour le Web. Notre première réaction a été de penser que cela ne pouvait pas marcher. Nous étions convaincus que leur moteur exigerait les ressources de calcul trop importantes, car il fallait traiter des téraoctets de données. Ils nous ont expliqué au tableau, comment on pouvait faire. Ils n’avaient pas encore écrit une ligne de code et n’avaient pas grand-chose sur leur compte en banque. C’étaient les deux fondateurs de Google. Ils nous ont montré qu’il s agissait juste de penser différemment, d’utiliser plus de machines et plus de mémoire, certaines idées récentes issues de labos de recherche, et des algorithmes brillants, dont le fameux « PageRank ». En informatique peut-être
encore plus qu’ailleurs dans la recherche, il faut en permanence remettre en cause
ce qu’on croit savoir, explorer de nouvelles pistes, en un mot, inventer.

Qu’est-ce qui vous semble important et dont on ne parle jamais ?



Les gens voient dans l’informatique des circuits, des machines, des objets physiques, et pas les modèles mathématiques. On ne dit pas assez qu’un logiciel est guidé par des modèles mathématiques, conçus par des êtres humains. Au départ, il y a les algorithmes, des suites d’étapes logiques organisées pour résoudre un problème ; ça n’est pas encore un programme écrit en code informatique. Un exemple : pour commander un voyage sur le site web d’un voyagiste, vous spécifiez la destination, le prix maximum, les dates de départ… Ces spécifications vont former votre requête, un objet mathématique qui va être traduit en un programme effectué sur les données de la base. Le calcul, qui permet au système informatique de trouver les voyages correspondant à vos critères, s’appuie sur un formalisme mathématique appelé prédicats du premier ordre. C est un formalisme propre au langage des mathématiques, introduit au 19ème siècle, bien avant l’invention des ordinateurs !

De quoi êtes-vous sûr sans qu’il soit possible de le démontrer ?



Je suis persuadé qu’un jour personne ne dira plus : « L’informatique, ce n est pas pour moi. » Les machines se configureront toutes seules, s’auto-corrigeront, s’adapteront aux utilisateurs (et pas le contraire). On observe déjà cette évolution. Il y a une vingtaine d’années, l’installation de certains logiciels nécessitait de faire appel à des spécialistes. Aujourd’hui, on réalise des installations beaucoup plus compliquées. en quelques clics. Les développeurs ont bien compris qu’il était indispensable, pour que les gens adoptent un logiciel, de rendre faciles son installation et son usage. C’est vrai pour le grand public comme pour les industriels. Oracle, par exemple, travaille depuis plus de vingt ans au développement de systèmes de bases de données qui s’administrent tout seuls. Je pense que, de plus en plus, les systèmes accompagneront les utilisateurs dans des taches comme la mémoire ou le raisonnement en leur permettant d’aller plus loin dans la création, l’imagination. Evidemment, cela ne rend que plus essentiel l’accès universel à l’informatique. La réduction de la fracture numérique est donc bien un des challenges les plus importants de notre société.

Science et Vie, novembre 09

samedi 24 octobre 2009

Réception à l'acédémie des sciences

Si à ses débuts l’informatique servait à « calculer », on a vite compris que c’était aussi un outil fantastique pour gérer de l’information. Cela a conduit aux systèmes de gestion de bases de données relationnels, développées dans la seconde moitié du 20ème siècle, qui ont rendu possible le traitement de gros volumes d’information. Cette technologie est le fruit d’une recherche fondamentale qui s’est développée en lien étroit avec une industrie florissante. Elle est fondée sur des bases mathématiques rigoureuses et a développé notamment des ponts entre la théorie des modèles finis en logique mathématiques et la théorie de la complexité en informatique. C'est dans ce cadre que j'ai débuté ma vie de chercheur. Par exemple, un de mes résultats avec Victor Vianu établit que deux logiques de point fixe ont exactement la même puissance d’expression si et seulement si les programmes en temps polynomial et ceux en espace polynomial expriment les mêmes fonctions.

On commençait à peine à maîtriser la gestion de gros volumes de données sur des serveurs centralisés, que le web débarquait. En une vingtaine d’années à peine, il a révolutionné nos modes de travail et notre vie sociale. Du catalogue de vente d’Amazon, aux photos de Flickr ou l’encyclopédie Wikipedia, les bases de données sont au cœur des systèmes du web, avec des problèmes d'échelle étonnants, comme les milliards de pages indexées par Google ou les centaines de millions d'utilisateurs de Facebook.

Le monde de la gestion de données a profondément changé au delà même de ces problèmes d'échelle. Il a changé d’abord par la nature de l’information que l’on manipule, des structures plus riches comme les arbres XML et surtout moins rigides, plus dynamiques. Il s'est transformé surtout parce que l'information est de moins en moins centralisée ; chacun à sa mesure peut contribuer à l'édition d'information sur le web, à leur diffusion, à leur exploitation.
La gestion de données distribuées a longtemps constitué un problème difficile à résoudre du fait de l’hétérogénéité des machines, des systèmes d’exploitation, des modèles de données, des langages utilisés par les applications. Le web et ses standards ont changé la donne. On dispose en particulier maintenant d’un protocole de communication entre machines, les « services web », qui permet de transformer facilement des données personnelles en des ressources accessibles partout. Cela a conduit en particulier aux systèmes peer-to-peer, pair-à-pair en français.
A la base, un système P2P est constitué de machines autonomes, parfois en très grand nombre, qui coopèrent pour réaliser une tâche. Ce sont des pairs, égaux en droits, tour à tour clients et serveurs pour d’autres pairs. Le P2P est surtout célèbre pour le téléchargement plus ou moins légal de musique ou de film. Mais ses applications vont bien au-delà. Ses avantages sont considérables. D’un point de vue technique, en disposant de nombreuses machines (de leurs processeurs, de leurs mémoires, de leurs disques), on peut offrir de meilleures performances et une meilleure disponibilité. Surtout, de tels systèmes permettent d’utiliser les ressources innombrables disponibles sur le réseau, et de se libérer des serveurs commerciaux qui stockaient nos données. Il devient possible de reprendre le contrôle sur sa propre information.

Les bases de données relationnelles disposaient de fondements mathématiques solides. Ma recherche actuelle participe au développement de fondements semblables pour les données distribuées. Cela devrait permettre de mieux comprendre les systèmes que nous utilisons, de les rendre plus performants, de mieux les contrôler.

Que peut-on attendre de ce domaine ? Toujours plus d'innovation ! En déplaçant l'information vers le réseau, les avancées scientifiques et technologiques du web ont radicalement étendu l'univers du possible. Elles peuvent aider à résoudre nos problèmes les plus graves, comme celui du développement durable. Elles s'accompagnent bien-sûr aussi d’écueils, et pour n'en citer qu'un, la fracture numérique qui prive une partie de l'humanité de l'accès à l'information. Nous devons apprendre à en maîtriser les effets pervers mais sans en restreindre les possibilités extraordinaires.

Je voudrais maintenant conclure par une pensée pour les collègues et étudiants avec qui j’ai eu tant de plaisir à travailler et sans lesquels je ne serais pas ici. Je les remercie et je vous remercie pour votre attention.

Réception à l'académie des Sciences, juin 2009

La prime d'excellence scientifique (PES)



Les réactions contre la PES se multiplient, parfois un peu surréalistes, souvent assez inventives.

Préliminaires

Le problème principal à l'INRIA pour ce qui est des rémunérations des chercheurs, est le très faible niveau des salaires à l'embauche. Je ne dis pas que les salaires les plus hauts sont trop hauts: Les écarts entre les bas et les hauts salaires sont beaucoup plus étroits que la norme ailleurs, même si on peut encore les trouver trop importants. Mais, en gros, le fait de faire un des plus beaux métiers du monde compense le manque à gagner, seulement quand le salaire passe un certain seuil, disons au passage DR. Donc la priorité serait à mon avis de relever les rémunérations des CR. C'est la priorité et on nous balance dans les pattes une PES mal ficelée.

[Les chiffres que j'ai lus: Il y a une trentaine d'année, le salaire d'un jeune chercheur (n'ayant pas obligatoirement sa thèse) était de 4 fois le smic. Aujourd'hui il faut le plus souvent un post doc. Lesalaire est 1,5 fois le smic.]

C'est devenu une habitude. On déplace le débat sur des sujets annexes. Le vrai sujet reste la rémunérations des débutants. On n'en parle pas. S'il faut parler de la PES.

Contre la PES?

C'est vrai qu'on comprend qu'avec la PES nous aurions 80% de médiocres à l'INRIA. Ça refroidit! On ne peut pas l'accepter. C'est simple. Non à la PES telle qu'elle est proposée!

Depuis le temps que plein de fonctionnaires ont des primes et pas nous, on ne va quand même pas refuser? Est-ce qu'il est possible de faire évoluer la manière dont elle est distribuée? Oui à une PES qui serait bien faite. Est-ce qu'on sait ce qu'on veut? Est-ce qu'on parle tous de la même chose?

A contre courant

La recherche est un grand privilège. On a un des plus beau métier du monde. Donc cela se paie. Notre responsabilité est de rendre le système le plus efficace possible. Des primes d'excellence scientifique pourraient permettre d'attirer à la recherche les meilleurs jeunes, de les garder, de rendre le métier plus attractif aux meilleurs qu'on veut faire venir.

Les chercheurs choisissent leur vie. Certains font beaucoup de consulting et ça parait normal. Certains sont promus plus rapidement et ça parait normal. Donc l'idée de l'égalité de rémunérations entre chercheurs est une illusion.

Et pour contredire quelques idées lues ici ou là:

Ça va démoraliser de voir des gens avoir la prime quand d'autres ne l'ont pas: Arrêtez! On est habitué à voir des gens plus brillants que soi, des gens qui savent prouver des trucs qui nous ont arrêté. Ça nous pousse au contraire à essayer de nous dépasser.

Ça va introduire de la compétition, une mauvaise ambiance à l'intérieur des équipes. Arrêtez! On est habitué à la compétition. Et sauf à être looser, on a compris que nos meilleurs alliés étaient nos proches. C'est ensemble avec des collègues, qu'on apprend à réussir.

Ce n'est pas un jury "interne" qui saura nous évaluer. Il y a un peu de vérité là dedans. Donc il faut se battre pour que l'évaluation soit faites convenablement avec plein d'extérieurs. Et puis, on accepte bien l'évaluation à l'embauche et aux promotions. Ça change quoi?



Après pas mal d'hésitation, j'ai choisi de ne pas signer la pétition