Warning: Cannot modify header information - headers already sent by (output started at /home/gillesbld/www/weblog/inc/config.php:41) in /home/gillesbld/www/weblog/inc/clearbricks/common/lib.http.php on line 222

Warning: Cannot modify header information - headers already sent by (output started at /home/gillesbld/www/weblog/inc/config.php:41) in /home/gillesbld/www/weblog/inc/clearbricks/common/lib.http.php on line 224

Warning: Cannot modify header information - headers already sent by (output started at /home/gillesbld/www/weblog/inc/config.php:41) in /home/gillesbld/www/weblog/inc/public/lib.urlhandlers.php on line 65

Warning: Cannot modify header information - headers already sent by (output started at /home/gillesbld/www/weblog/inc/config.php:41) in /home/gillesbld/www/weblog/inc/clearbricks/common/lib.http.php on line 247
Embedded weblog

Embedded weblog

Aller au contenu | Aller au menu | Aller à la recherche

dimanche, décembre 15 2013

Des problèmes de trains

Voici qu'une partie de mes galères de train va bientôt s'évanouir : la très proche banlieue est enfin mieux desservie. Du moins le matin, et dans le sens qui m'arrange, c'est-à-dire celui des départs de la ville le matin, et celui des retours le soir — en réalité, j'utilise à présent fort peu le train à ces heures-là, puisque la plupart du temps je travaille chez moi. Il y a beaucoup à dire et à penser sur cela.

Il y a un grand mystère que j'espère un jour résoudre, c'est celui de la conception des horaires de trains. Je me demande parfois si cela n'est pas calculé à la main, ou alors (cela revient presque au même), par un algorithme très simple de placement, type glouton, qui ajoute les lignes au fur et à mesure. Ceci expliquerait cela. Le RER A, sous la responsabilité de la RATP, a des fréquences assez élevées en heure de pointe (de l'ordre de 2 minutes) parce que la division de la ligne sur ses extrémités lointaines est assez faible et que les rames ont toutes la même longueur. Sur le RER C, c'est en revanche le pire cas possible : les rames sont de longueurs différentes, il y a des trains de voyageurs sur les mêmes voies de temps à autre (avec des longueurs et vitesses différentes), et des trains de marchandises sur des voies parallèles, sachant qu'apparemment, pour faire simple et le plus sécurisé possible, il faut considérer les pires cas, c'est-à-dire raisonner comme si tous les trains avaient la longueur maximale, et en déduire ainsi les distances de sécurité — c'est-à-dire la vitesse et la fréquence.

Mais surtout, le RER C me fait penser aux programmes abominablement mal architecturés que je rencontre fréquemment chez mes clients/prospects non-informaticiens : ils sont issus de cette étrange pensée technicienne que l'on peut opérer convenablement des systèmes extrêmement complexes. Alors même que la complexité ne marche jamais, elle est source de problèmes permanents, car elle ne peut pas gérer convenablement l'imprévu (qui arrive en réalité tout le temps, mais dont on ne saurait prédire où ni comment ni quand). En réalité, il n'y a qu'une seule manière de se sortir de la complexité : il faut diviser ! Comme on divise le travail (cf le taylorisme), il faut savoir diviser le système complexe pour le rendre somme de systèmes (plus) simples. Le RER C fait 187km pour 140 millions de voyageurs, on y compte cinq points de divisions, c'est un vrai pasta monster. La ligne a plusieurs fois été remaniée, un ami m'a par exemple fourni des billets allant à Fontainebleau ; j'ai pour ma part connu les rames allant à Argenteuil, tronçon depuis rattaché plus intelligemment à St-Lazare ; j'espère qu'un jour les lignes pour Étampes ou Dourdan ne seront plus qu'un mauvais souvenir : voyez où cela se trouve sur une carte !

Forcément, quand on ajoute un arrêt sur la ligne, ajoutant de fait une ou deux minutes de plus sur le trajet total, les usagers de Dourdan protestent fortement. Mais ils se trouvent à 40 km du centre de Paris, le problème n'est pas tant d'ajouter un arrêt que d'être sur cette ligne ! Par exemple, on pourrait relier Dourdan à Rambouillet (assez proche, via les champs...), qui dispose d'un semi-direct passant par Versailles-Chantier et reliant Montparnasse : ce serait bien plus rapide, et beaucoup moins absurde que de prendre un train reliant Dourdan (au sud lointain) à Versailles (au sud-ouest aussi), en passant par Paris (au nord) via le Sud-Est... On peut aussi se demander s'il est légitime à la fois de vouloir habiter dans une campagne profonde, et d'être mécontent de ne pas avoir de solution miracle pour relier la civilisation : il y a comme un air d'individualisme hérité des périodes des années 70-80, où le pouvoir technocratique en place avait trouvé intelligent de vouloir désengorger Paris vers la lointaine banlieue, y compris en produisant des villes hors-sol (ma petite cousine, qui habite derrière Marne-la-Vallée dans une de ces villes nouvelles, a découvert Paris la semaine dernière, à 14 ans passés : quel intérêt dès lors d'habiter près de Paris, pour le climat ?). Cette idée profondément stupide est de celles qui plombent à présent le pays et avec lesquelles il faut se démerder en souriant (enfin, surtout si on n'est pas trop directement concerné et qu'on a la foi). Le RER B est le pire dans le genre (j'ai déjà raté un avion et failli un Eurostar à cause de cette saleté encombrée), suivi de près par le RER A...

Cependant, le problème habituel, quand on découpe, c'est l'interfaçage. Pour reprendre l'exemple du taylorisme, l'effet pervers a été la perte de sens par les travailleurs et donc la vision d'ensemble des processus, menant à des erreurs et à de la contre-productivité — surtout sur les métiers plus intellectuels que le serrage de boulon, mais même pour eux, il a fallu que Toyota repense tout pour en arriver au lean management. Pour nos trains, cela signifie des changements, c'est-à-dire qu'il faudrait des trains qui soient stockés sur des voies, faisant des allers-retours simples (au lieu de parcourir une centaine de kilomètres avec des engorgements aux points de jonction et sur la double voie unique du centre de Paris, surtout le long de la Seine), et des voyageurs qui changent de trains quand ils veulent continuer leur voyage plus loin — comme c'est déjà le cas avec les métros à l'intérieur de Paris, ou même avec le RER C lui-même lorsque d'Ivry je veux relier Versailles (autochangement à l'intérieur de Paris, avec des temps d'attente totalement imprévisibles). Cela signifie aussi qu'il faut synchroniser les trains sur plusieurs points de ralliement, et que ces temps d'attente, perdus en apparence, compensent la complexité actuelle (qui échoue lamentablement, pour rappel).

Le problème est donc extrêmement complexe à résoudre, avec plusieurs hypothèses possibles, suivant des capacités physiques des gares et des lignes à définir et modéliser. Je ne vois qu'un seul moyen de régler cela : utiliser de la simulation numérique et des résolutions par métaheuristique. Je doute qu'actuellement la SNCF ait expérimenté de telles méthodes. Et l'organisation interne de l'entreprise est tellement complexe que je me demande même à qui l'on pourrait proposer un tel projet (qui nécessite des compétences extrêmement fortes, mais on est parfois surpris de trouver des gens fort compétents et sous-employés dans ce genre d'organisations tentaculaires où personne n'a de visibilité — mon paternel est de la maison, vous pensez bien que j'ai déjà abordé le sujet). Dans un algorithme de ce type, il faut trouver une base de jugement (ou notation) à maximiser. C'est-à-dire qu'il faut pouvoir exprimer par une formule de calcul, entre deux hypothèses, laquelle est la meilleure. Il faut pour cela découper le problème (encore ! Diviser, c'est régner), et attribuer des poids à chaque sous-problématique résolue plus ou moins correctement. On peut penser au nombre de voyageurs dont la desserte est assurée en un certain temps moyen, pondéré par le temps maximal du trajet (lui-même pondéré par le nombre de voyageurs de ce pire cas qui sont impactés), mais aussi pondéré par le ressenti des voyageurs face à la complexité (régularité et prévisibilité des arrêts, nombre de changements).

On trouve là un cas de chaînes de Markov et plus spécifiquement de files d'attente, de ce qu'on retrouve par exemple (et en simplifiant) dans les caisses de supermarché : si tout le monde attend à des caisses non spécialisées, une personne avec seulement un article attendra a priori autant de temps qu'une personne avec un caddie rempli à ras bord (en considérant le temps total d'attente de tout le monde, peu importe l'ordre de passage, c'est la vision du caissier en somme). Si l'on fait passer d'abord la personne à caddie (temps de passage = 5), puis celle à un article (temps = 1), on a un temps d'attente moyen de : (5 + (5 + 1)) / 2 = 5,5. En revanche, si l'on fait l'inverse, en donnant la priorité à la personne à un seul article, on a : (1 + (1 + 5)) = 3,5. On voit le gain ! Maintenant, imaginons six personnes avec un article (temps = 6 x 1) et une personne avec caddie bien rempli (temps = 4). Premier cas : (4 + (4 + 1) + (4 + 1 + 1) + (4 + 1 + 1 + 1) + (4 + 1 + 1 + 1 + 1) + (4 + 1 + 1 + 1 + 1 + 1) + (4 + 1 + 1 + 1 + 1 + 1 + 1)) / 2 = (4 + 5 + 6 + 7 + 8 + 9 + 10) / 2 = 24,5. Inversement, caddie en dernier, cela donne : (1 + (1 + 1) + (1 + 1 + 1) + (1 + 1 + 1 + 1) + (1 + 1 + 1 + 1 + 1) + (1 + 1 + 1 + 1 + 1 + 1) + (1 + 1 + 1 + 1 + 1 + 1 + 4)) / 2 = (1 + 2 + 3 + 4 + 5 + 6 + 10) / 2 = 15,5. Rien à voir ! Voilà pourquoi, après bien des années à s'entêter dans une organisation soviétique de la file d'attente unique égalitaire aux guichets communs, la poste a enfin ouvert des guichets séparés (sous la forme d'îlots) pour discriminer les opérations longues (dépôts et retraits d'argent, envois d'argent, opérations sur compte) et les opérations courtes (retrait d'un recommandé ou d'un colis), pour le bien général, quitte à avoir parfois des ressources temporairement inoccupées (guichet sans file d'attente). C'est l'idée des caisses "moins de dix articles" aux supermarchés (où quand on a onze articles dans les mains, on pleure... Ou on en sacrifie un, ce qui est assez idiot d'un point de vue de l'optimisation générale recherchée).

Cet algorithme consistant à faire passer le plus court d'abord est à rapprocher d'un algorithme d'ordonnancement des tâches dans les noyaux temps réel, appelé EDF, earliest deadline first, qui est le plus optimisé que l'on puisse avoir. La différence est cependant que dans ce cas informatique, une tâche peut être découpée (un peu comme si on pouvait faire passer des "morceaux" de caddies, et de temps en temps des personnes avec un article seulement à acheter), et qu'il faut absolument respecter certaines échéances (d'où la notion de temps réel). La deuxième hypothèse est extrêmement forte, et ne peut être respectée que si l'on connaît absolument tout ce qui va se passer sur le système (sous peine de risquer la fatale "inversion de priorité", de celle qui vous bloque un robot sur Mars, et vous oblige à le reflasher à distance — ça fait cher le roaming) ; c'est la raison pour laquelle je déconseille assez souvent à mes clients de mettre du temps réel dans leurs systèmes connectés, sur lesquels il peut se passer tout et n'importe quoi (en fait, ils confondent le temps réel dur et une latence de réponse faible, des systèmes temps réel "mous"). Dans un système d'exploitation classique, sur bureau, les problématiques sont tout autres encore : par exemple, la lecture d'un fichier MP3 nécessite une fréquence de décodage telle que le son n'est pas hachuré, et pour l'utilisateur, cela est plus important que d'attendre 100ms de plus que sa page web se charge.

En revanche, un algorithme simple qui privilégierait toujours les tâches nécessitant peu de temps, et oublierait les grosses tâches (surtout sur un système non préemptible où l'on ne peut pas décider du découpage de la tâche en tranches), risque la famine, c'est-à-dire qu'une tâche ne tourne jamais, car toujours préemptée par des tâches plus prioritaires. C'est ce qu'il m'est arrivé une fois au Grand Palais : la file d'attente prioritaire de billets coupe-file achetés sur le web (et une autre encore plus prioritaire pour les cartes Sésames, tellement chères à l'année qu'un nombre négligeable est concerné cette fois, donc facilement absorbé) préemptait en permanence la file standard, ce que l'on ne pouvait prévoir en tant que simple visiteur, n'ayant pas l'information du nombre de billets coupe-file vendus pour ce jour-là (sinon je n'aurais pas cramé une RTT !). Pour du Picasso (que je n'aime pas beaucoup), il m'a ainsi fallu attendre plus de 6 heures avant de pouvoir entrer (un vendredi d'hiver à 0°C ! À 10€ le billet pour 1h30 de visite ! 15 minutes pour décongeler, une fois dedans). En informatique, pour éviter cela, on utilise la méthode du vieillissement : plus on attend et plus on gagne en priorité, jusqu'à devenir plus prioritaire que les petits nouveaux normalement prioritaires. Autrement dit, il faut parfois mettre un train direct pour la grande banlieue plutôt que de multiplier les omnibus (la ligne passant par Melun et Fontainebleau décrochée de la ligne D et rattachée en surface à gare de Lyon, par exemple).

Autre soucis encore du multitâche en informatique : la race condition. C'est ce qui arrive lorsque les tâches sont dépendantes les unes des autres, et que celle qui devait arriver avant tarde trop. J'ai une fois été appelé en urgence pour un problème de débogage où l'ajout de "printf" pour afficher des messages nécessaires pour trouver un problème ralentissait la tâche, et entraînait d'autres problèmes un peu partout, parce que les autres tâches étaient mal synchronisées, ou dépendaient d'interruptions extérieures non contrôlables (en l'occurrence, pour une Set Top Box, difficile de ralentir le flux vidéo extérieur à décoder !). Si nous revenons à nos trains, c'est ce qui se passe dès qu'il y a un retard sur la ligne. Pour un métro, linéaire (coopératif, dirait-on en informatique), cela ralentit l'ensemble de la ligne, et les seuls problèmes sont le retard des voyageurs (décalage du départ) et l'engorgement (en somme on crée une file d'attente sur une ressource plus rare). Mais sur notre RER C, l'impact est bien plus fort, car il y a des trains omnibus et des trains semi-directs qui doublent les premiers, sachant que tous doivent ensuite respecter les mesures de sécurité de la SNCF (un train toutes les quatre minutes, si je ne m'abuse) une fois dans Paris intra-muros, sur la même voie pour un sens donné (le problème est essentiellement sur les gares de St-Michel, Pont de l'Alma et Tour Eiffel, car toutes les autres disposent de plusieurs voies dans les deux sens). Dans ce genre de cas, mieux vaudrait rapidement recalculer le meilleur moyen de contenter tout le monde en générant de nouveau totalement l'agenda des trains — actuellement, le système de pénalités du STIF est d'une idiotie sans nom, puisqu'il vaut mieux supprimer un train, et donc libérer de la ressource-voie au détriment d'une attente beaucoup plus longue pour les usagers laissés à quai, que de payer pour les minutes de retard (calculées par rapport aux horaires de passages théoriques, donc inflexibles) engrangées sur toutes les trop nombreuses stations du parcours. Pour cela, il faut des algorithmes d'ordonnancement très puissants et rapides, dont nous avons vu que leur existence paraît assez théorique à la SNCF... Il y a aussi un problème politique à régler auprès du STIF pour qu’elle change ses mesures de qualités (on dirait de la mauvaise KPI de managers fous modernes).

Autre exemple d'ordonnancement : lorsqu'il y a une grève (ou certains travaux lourds, ce qui revient à peu près au même du point de vue des usagers). Il vaut mieux alors rendre un maximum de trains omnibus, ce qui certes retarde la personne qui doit aller en bout de ligne (minoritaire) mais fait gagner beaucoup de temps à celles qui sont sur les premières stations (extrêmement majoritaires), ce qui ferait beaucoup baisser le temps d'attente moyen — et c'est bien lui seul qui compte, modulo le fait de ne pas rendre totalement insupportable l'attente aux "sacrifiés" pour le bien commun, sachant par ailleurs qu'une partie bénéficierait aussi de trains omnibus et non demi-service qui leur permettraient certains trajets de banlieue à banlieue. C'est quelque chose qui est parfois mis en place, mais très (trop !) tardivement lorsque cela arrive, manifestement parce que c'est complexe à calculer avec le système actuel (outre qu'en gare, c'est-à-dire sur le terrain, les agents SNCF sont parfaitement idiots à ce sujet, ayant pu m'entretenir avec certains à ce propos).

Donc, pour notre arrêt supplémentaire à Ivry-sur-Seine, où les quais sont bondés le matin et le soir (la ville étant limitrophe, elle se développe énormément ces dix dernières années, et pourrait rattraper Issy, Puteaux ou St-Denis), l'ajout d'un train supplémentaire dans la beaucoup trop longue tranche de 15 minutes qui est la fréquence actuelle (alors qu'il faut moins de trois minutes pour arriver à Bibliothèque François Mitterrand, qui grâce à la 14 permet de traverser Paris vers St-Lazare en dix minutes seulement !) va faire baisser le temps moyen de transport des voyageurs de bien belle façon, faisant augmenter cependant un peu le temps de transport des banlieusards plus lointain. C'est une forme de répartition démocratique (dictature de la majorité), mais il n'y a qu'à lire le blog du RER C pour s'apercevoir à quel point cela est déjà extrêmement mal perçu : le problème de la liaison banlieue-Paris (et ne parlons pas de la liaison banlieue-banlieue, qui est en réalité LE plus gros problème catastrophique qui se cache derrière) est hautement politique et source des plus hautes tensions.

Pour résumer, je ne vois donc que deux solutions à mettre en oeuvre simultanément :
    _ découper la ligne en tranches autonomes et articulées seulement dans des gares-relais comme Massy, Chantiers ou Juvisy (Choisy aussi, on peut en trouver d'autres) ;
    _ écrire un logiciel de simulation de toutes les lignes concernées, qui peut calculer les horaires idéaux en fonctions de tous les paramètres possibles (notamment le nombre de voyageurs le matin, et de fait les temps d'attente dans chaque gare pour laisser descendre et monter les voyageurs, ceci étant dépendant en outre de la fréquence même des trains), et qui soit écrit avec des méthodes métaheuristiques permettant rapidement de tout recalculer en cas d'imprévu (rame en panne et voyageurs à récupérer dans le train suivant ou un train "détourné", problèmes divers sur la ligne tels que la signalisation ou un passage à niveau déficients, retards pour cause de portes bloquées ou de signal d'alarme, etc.), ce qui arrive très régulièrement et me paraît pour le moment géré à la main (donc forcément mal étant donné la complexité du problème !).

La moralité est qu'un informaticien éclairé vaut mieux que tout un tas de politiques de la région négociant au STIF leurs bouts de chandelles — pendant que les citoyens-usagers souffrent énormément — et que des cheminots dépassés qui gèrent avec des moyens assez dérisoires (je n'avais pas fait de compte-rendu de ma très sympathique visite du Centre opération Transilien RER C à Montparnasse, en novembre 2012, mais c'était fort intéressant !), dans la hâte permanente, des problèmes extrêmement trop complexes pour eux (qui ne relèvent pas de leur champ de compétence, surtout, et il n'y aucune honte à cela : faire passer des trains sans aucun incident fatal dans ces conditions est tout de même un sacré challenge ! On râle, mais on arrive entier à destination, c'est le principal faut-il rappeler). Surtout que l'on voit qu'un vote à la région en février sur les nouveaux horaires trouve sa traduction sur le terrain en décembre. Niveau agilité, on repassera... À ce rythme-là, on trouvera la solution idéale en 2042. Peut-être.

Je n'ai plus qu'à espérer que ce billet titillera les bonnes personnes et ouvrira un nouveau champ de réflexion... À votre disposition !  :)

vendredi, septembre 14 2012

de l'option informatique au lycée

Le besoin d'un nombre de caractères supérieur à 140 sort ce blog du frigo.

J'ai commencé l'informatique très tôt, à 7 ans (comme un certain nombre de geeks), sur Atari ST, avec du Basic (petite pensée pour Dijkstra). Je n'ai pas fait grand chose, à vrai dire, ma vraie passion était ailleurs, dans l'électronique et la robotique. Au collège, dans le cours de techno, divisé en plusieurs activités durant l'année (la période électronique où l'on construit l'amplificateur sonore, la période de dessin où l'on se demande ce que l'on fiche... Et la période d'informatique), le professeur de techno (quand j'y pense, j'en ai eu quatre, mais une seule année m'a vraiment marqué, à ce niveau) s'est entrepris de nous former à l'informatique. Il y avait les vieux PC dans une salle dédiée mais standard, et des PC neufs dans une salle coffre-fort ; les premiers équipés de DOS, les seconds de Win3.1 — à l'époque, je ne comprenais pas pourquoi on travaillait déjà sur ces vieilles bouses alors que mon Atari était largement supérieur. Le cours ? Je me souviens avoir passé 1h30 à recopier un programme en Basic (encore !... Du Qbasic cette fois, il me semble), pour faire une bannière rotative. On ne nous avait pas vraiment expliqué comment "ça marchait", ni l'algorithmique. L'ennui total.

En revanche, lorsque je fus en 4ème, à la maison, on changea l'Atari pour un PC, 2Ghz, 2Go de disque dur, 32Mo de RAM (quoique, je crois qu'au début il devait y en avoir 16, on l'a boosté plus tard, pour que Win98 puisse fonctionner). Une bête de course, un truc de fou. C'est l'époque où tout les gens de la classe moyenne "éclairée" (pas ceux qui se demandaient encore à quoi pouvait bien servir un tel engin) commençaient sérieusement à s'équiper. Et mon paternel passa à VB3, ce sur quoi je suivi, avant de migrer vers VB6 assez rapidement — moi aussi (en revanche, il passa aussi rapidement au C, mais là, moi non : le lycée, beaucoup de boulot, le livre pour apprendre le Borland qui devenait très, très gros). J'ai donc fait du Visual Basic durant plusieurs années, et j'ai appris par moi-même, avec l'aide Microsoft fournie (il faut imaginer que VB3, c'était quelque chose comme 21 disquettes pour l'installation), et un bouquin sur VB5 (on n'avait pas pu trouver mieux, même à Marseille, il fallait faire 10km pour le trouver).

Alors au lycée (lycée Thiers de Marseille, je précise — élèves sur-sélectionnés), quand j'ai vu l'option informatique, naturellement, je l'ai prise. J'avais d'autres options, en plus de la section européenne, et notamment la TSA (je ne sais plus comment ça s'appelle à présent, ces Techniques des Systèmes Automatisés, l'électrotechnique en somme). Déception, cependant : loin de programmer, nous avons appris à manier Word, puis Excel. Ça m'a bien resservi, mais c'était un mode d'apprentissage de secrétaire, pas d'informaticien. La programmation, c'était par soi-même sur la calculatrice, la TI-85 (puis la 89, ah, quelle puissance !). Cependant, en 1ère, les choses ont changé : de la programmation, enfin ! Un cours de deux heures par semaine, en deux fois une heure. La première le lundi de 17h30 à 18h30 (soit après les trois à quatre heures de cours de l'après-midi, et les quatre à cinq du matin), parce qu'horaire commun à toutes les 1ères, une quarantaine de personnes, ensuite divisées en deux groupes, entre midi et deux cette fois, pour les TPs — alors que l'autre heure était pour la théorie. Programmation en Pascal. À la fin de l'année, j'ai pu faire un serpent et d'autres trucs amusants. En VB, j'étais pourtant allé beaucoup plus loin question résultat, mais on ne manipule pas de tableaux, en VB (c'est possible, évidemment, mais on n'y est pas vraiment encouragé, on peut largement s'en passer par les truchements du langage). C'était un prof de maths reconverti qui enseignait, je crois, mais il ne devait faire que ça dans le lycée, d'ailleurs il me semble que c'était un autre prof de maths qui faisait faire les TPs (les deux ayant la quarantaine).

C'est cet autre prof de maths qui s'occupait de l'option informatique en Terminale. Et puis on nous a obligé choisir au bout de quelques semaines : soit informatique, soit TI (technologie industrielle, la suite de la TSA en changeant le nom à partir de la 1ère) ; avec le même horaire du mardi de 17h00 à 19h00 (plus un mercredi aprem entier de temps à autre pour la TI, puisque c'était censé être 3 heures par semaine), pour rendre les deux options impossible à cumuler. Nous étions deux à avoir gardé les deux options. Nous avons tous les deux choisi de garder la TI et d'abandonner l'informatique. Je me souviens très bien des raisons de ce choix : on apprenait au final mieux par nous-même à programmer, alors qu'en TI, on s'éclatait, on apprenait un nombre démentiel de choses.

En informatique, le prof de maths ne nous a jamais expliqué comment marche une machine. En TI, les profs étaient des ingénieurs reconvertis, ils savaient de quoi ils parlaient, ils avaient une approche pratique forte, on avait envie d'apprendre le métier d'ingénieur. Pour suivre le cours de TI, il fallait avoir choisi l'option dès la 2nde et ne jamais avoir lâché (on était 120 en 2nde, plus que 20 en Terminale — et en section européenne, de 80 on était passé à 15) ; en informatique, on pouvait commencer l'option en Terminale (même s'il valait bien mieux avoir déjà pris l'option en 1ère), ce qui impliquait que le prof devait recommencer par les bases. En informatique, il fallait rendre un projet franchement simple noté par le prof, et les bonnes notes pleuvaient assez gratuitement ; en TI, il y avait une vraie épreuve écrite de trois heures sur des problématiques d'ingénieur, c'était du costaud (et j'ai tout de même eu 20).

En prépa, le problème s'est de nouveau posé : nous avons tous commencé par la SI (Sciences de l'ingénieur), et on nous a ensuite donné le choix, au bout de quelques semaines (peut-être un trimestre), de basculer sur l'option informatique (choix à faire pour les deux ans, aucun retour en arrière possible, un seul cours de test en info pour se décider). Cette option étant dispensée par mon prof de maths à l'ensemble des trois classes MPSI et trois MP, en transversal, ce qui collectait une quarantaine d'élèves au final de chaque niveau (sur 150). En SI, c'était un ingénieur, formé en école d'ingénieur et devenu spécialement prof de SI pour les prépas, qui dispensait le cours. Mais j'en ai eu un peu marre, ayant déjà fait une partie — la plus intéressante — en TI, et la matière étant assez pourrie de calculs encore plus approximatifs qu'en cours de physique (ce n'est pas peu dire...). J'ai donc opté pour l'informatique, et j'y ai fait des choses assez passionnantes, comme reconstruire la logique avec trois états, pour une application à l'informatique quantique, et ce en DS de quatre heures. On y a appris le CamL et on a fait du Mapple — j'ai très largement préféré le CamL. J'ai même poussé la logique jusqu'au bout en prenant le TIPE d'informatique, ce que seule une quinzaine de personnes ont fait. J'ai mené un projet de deux ans sur les algorithmes génétiques, et j'ai codé un voyageur du commerce. En CamL ? Non, en VB6. En deux ans, deux fois deux heures de cours par semaine, nous n'avons jamais fait de OCamL, ni géré d'affichage graphique. Ça laisse rêveur l'ingénieur informatique que je suis devenu par la suite...

Choisir l'informatique comme option puis en TIPE, c'était se fermer des écoles, notamment Centrale et les Mines, nous avait-on prévenu. Tout simplement parce que les quotas sur ces épreuves ne reflétaient pas la proportion d'étudiants partagés entre informatique et SI — et pourtant, il n'y avait pas grand monde en informatique, ce truc un peu nouveau dont un ne savait pas trop quoi faire (en 2002 : l'ordinateur n'existant que depuis 50 ans, il faut comprendre, n'est-ce pas ? Pendant ce temps-là, au MIT et à Berkeley...). Certaines écoles faisaient clairement de la discrimination négative forte envers ceux qui avaient choisi de se spécialiser en informatique. Ayant royalement raté ma prépa, j'ai même poussé le vice encore plus loin : j'ai fait l'EPITA, l'école des geeks, encore malaimée à l'époque (on lui refusait la CTI avec une force assez démentielle : les romanichels, vous savez ?).

Et pour la première fois de ma vie, j'ai eu des profs d'informatique spécialisés en informatique, des vrais informaticiens, pas des recyclés. Au début, on m'a demandé de faire la pré-rentrée, et je n'ai pas compris pourquoi, ayant fait tellement de spécialisation et de bidouillage par moi-même ; c'était finalement loin d'être inutile. À la rentrée et dans les 15 jours qui ont suivi (la fameuse piscine...), j'ai pris conscience du gouffre démentiel qui me séparait de la vraie maîtrise de l'outil informatique. Les 15 jours suivant, j'en ai appris plus que durant toute ma vie jusque-là.

Alors quand je vois qu'on réinvente une option informatique au lycée, pour les Terminale S pour le moment, avec quelques heures (deux par semaine), où les professeurs sont des matheux, des biologistes ou des physiciens qu'on a formé le temps d'un été à l'INRIA, eh bien je suis TRÈS partagé. C'est bien, il y a un effort, dans la réinvention de cette option qui existait DÉJÀ il y a 10 ans, et que l'on avait sauvagement et injustement supprimé (il faut dire qu'il n'y avait pas grand monde, en France, qui la proposait, et que personne n'y comprenait rien...). Mais on revient à la case départ, celle dont je suis issu. Et on l'aura compris, à la lumière de mon parcours, je suis très sceptique.

Les professeurs de TI et de SI sont de vrais ingénieurs, pas des reconvertis. Mais l'informatique est toujours considéré d'une telle manière qu'elle n'accède pas au statut de matière, c'est une activité qu'on peut confier à des gens qui bidouillent le week-end et que l'on va former durant 24 heures par un chercheur dans son laboratoire (certes, c'est l'INRIA, mais quand même). On va parler d'éthique sur Facebook et de programmation objet, de neutralité des réseaux et d'allocation mémoire (non, en vrai d'algorithmie pour faire des additions, j'en suis tout excité). Le tout en 70 heures au mieux dans l'année (et en tout, puisque pour terminales uniquement), dans un lycée sur cinq, parce que surprise !, on n'a pas trouvé assez de profs volontaires à recycler. Du bon sentiment, il y en a. C'est mieux ficelé qu'avant, il y a même un manuel (mais on utilisait très bien un très bon bouquin sur Pascal à l'époque, ou "l'option informatique en classe prépa" aussi). Mais franchement, je suis dubitatif. Ce n'est pas avec de l'enthousiasme qu'on réussit les choses : c'est nécessaire, mais loin d'être suffisant.

Je suis professeur en informatique depuis maintenant cinq ans. J'ai été étudiant pendant trois. Il y a une énorme différence en école d'ingénieur par rapport à la prépa et la fac (hormis les sections "professionnalisante" — les autres sont des sections à chômeurs, a contrario, ou à docteurs-pour-la-fac, ce qui revient assez souvent au même) : en école d'ingénieur, les cours "pratiques" (et ils sont nombreux) sont dispensés par des professionnels, et souvent pas n'importe qui, parce que pour s'adapter aux agendas en journée il vaut mieux être indépendant, ce qui implique d'avoir les épaules très solides pour trouver du boulot par sa seule réputation dans le milieu. Et je peux vous dire que les écoles d'ingénieur ne paient pas beaucoup (dans l'absolu, ce n'est pas mauvais, mais une fois que l'on prend en compte le déplacement pour quelques heures à peine, la préparation parce que le nombre d'heures et le niveau des étudiants n'est jamais le même d'une école à l'autre, la remise à jour des slides pour cause d'évolution de la matière, et la correction de copies au mieux payées au lance pierre, c'est tout à coup beaucoup moins bien...). Eh bien on le fait parce qu'on aime ça, parce qu'on aime former (et potentiellement pour étoffer son propre réseau, petit piou-piou deviendra grand).

Je suis prêt, par amour et dévotion à l'informatique, à aller me faire payer au lance-pierre (mais pas trop non plus, faut pas déconner, et merci de défiscaliser) dans un lycée pas trop éloigné de chez moi, pour filer deux ou trois heures de cours par semaine (si ça peut prendre une journée, c'est mieux pour la facturation). Je suis certain que l'on peut trouver des professeurs d'écoles d'ingénieur qui bossent dans des labos pour les dépêcher une journée en lycée. Ou des vieux informaticiens qui ont tout vu dans leur vie et qui pourraient finir leurs carrières à transmettre leur savoir et leur expérience (ce sont mes préférés, j'en connais un bon nombre, je les adore, les écoles d'ingénieurs savent très bien les récupérer d'ailleurs).

Je suis persuadé qu'il y a de meilleures solutions que de recycler de gentils professeurs qui ne doivent même pas imaginer les efforts colossaux qu'il faut faire pour être un informaticien brillant (et ce même si je sais très bien que RMS était prof de physique à la base). On demande un niveau bac+4 dans une discipline pour y enseigner, après avoir passé le CAPES, ou mieux, l'Agreg. On embauche déjà des ingénieurs pour dispenser des cours de TI/SI. Mais en informatique, non. Certes on manque d'informaticiens, mais c'est un problème de poule et d'oeuf, à force d'avoir considéré la discipline comme celle de pestiférés, de sous-ingénieurs, voilà où nous en sommes arrivé. Il faut donc investir, et d'ici cinq à sept ans (le temps de terminer le bac+5), on verra des résultats qui viendront nourrir naturellement la machine. Ça, ce serait un vrai effort !

À la place, on va prendre de gentils amateurs, saupoudrer un peu de tout et n'importe quoi, pour faire les mêmes erreurs qu'il y a dix ans. Alors je vais regarder mon art être encore une fois bafoué (avec de bons sentiments, cette fois), et très probablement échouer dans la mission annoncée. Et on pleurera encore.

Disclaimer : je suis une Cassandre assez efficace.

lundi, juillet 9 2012

de la rhétorique méthodiste, de la complexité des choses et du miroir

Il fut un temps, il y a quatre ans, où j'écrivis un billet à propos de l'agilité et du développement logiciel. J'avais peur d'avoir dit des choses atroces sur lesquelles j'étais sans doute revenu dans mon propre ouvrage Linux embarqué : comprendre, développer, réussir, où je m'étends assez largement sur le management de projet. Mais que nenni : c'est bien de développement (et plus spécifiquement de XP) dont j'avais parlé sur le blog, alors que je parle de gestion de projet dans mon livre lorsque je fais l'éloge de l'Agile, et apporte bon nombre de nuances lorsqu'il s'agit de développement effectif (qui est d'ailleurs principalement de l'intégration, et non du codage). Tant mieux pour ma schizophrénie (déjà que je dois faire des Assemblées générales avec moi-même qui doit voter à l'unanimité, je ne peux pas me permettre d'embaucher une nouvelle personnalité multiple).

En gestion de projet informatique, il n'y a pas que l'Agile qui soit apparu sur le devant de la scène : il y a aussi le lean. Je me suis donc penché sur le sujet, il y a quelques temps. Et c'est très intéressant. Prenons donc un ouvrage écrit par la JMAC — apôtres/prophètes du lean (je choisis mon vocabulaire) —, très complet et synthétique à la fois. Une première chose frappe : ce n'est, a priori, pas du tout adapté à autre chose que la fabrication en usine — et à ce niveau, mieux vaut avoir une idée de comment ça fonctionne, une usine ; ou mieux, de savoir ce qu'est le travail ouvrier, et même si le consultant insiste sur le fait de devoir connaître intimement le métier (ont-ils [bien] lu Henry Mintzberg, eux aussi ?), je doute quelque peu que McKinsey, Bain ou plus modestement JMAC aillent embaucher des ouvriers comme consultants (ça fait penser aux fameux "stages ouvrier" d'école d'ingénieur... Et Marie-Antoinette fut bergère). Passons.

Nous touchons là un premier problème : la notion "d'industrie" appliquée au logiciel. C'est à mon avis un très gros écueil. Il y a, en France, un culte de l'industrie. À l'ENA, à l'X et encore plus dans le corps des Mines, on parle de l'Industrie comme d'un joyaux merveilleux. Peu importe la réalité (le débat économique est toujours ouvert, ce serait trop long à traiter, tout au plus peut-on s'amuser d'un Jean-Louis Beffa — La France doit choisir — qui vante le modèle industriel américain florissant en citant Microsoft et Facebook, après avoir dénigré les services qui ne génèrent que des CA peu élevés — en fait non, c'est plutôt agaçant), le fait est que pour séduire le politique, même le Syntec numérique, même le Conseil national du numérique doivent communiquer sur ce registre. "L'industrie du logiciel". C'est dangereux, parce que cela donne des billes à ceux qui n'ont toujours pas compris que le logiciel ne se "fabrique" pas sur une chaine de montage, et dénigrent l'essence artisanale du développement (malgré des indices comme le régime juridique applicable, je n'arrête pas de le répéter). On vend peut-être notre âme au diable.

Récemment, j'ai dû discuter de l'emploi du terme "usine" pour un ensemble d'équipes de développement matériel et logiciel (le problème de l'embarqué, aussi, est qu'il est à la frontière de deux mondes, mais qu'il vient avant tout du hardware industriel). Évidemment, celui-ci est employé de manière positive, mais sa réception par les équipes de développement était négative — travail à la chaine, sans valeur ajoutée propre, horaires inconfortables, manutention, les idées associées sont forcément péjoratives dans l'esprit du cadre. La question est alors de savoir si l'on peut remarketer pour faire passer le fond de la pensée, ou si l'acte de langage (conscient/inconscient, en tout cas en réception passive intégrée) est le plus fort. Mais au-delà de ça, la notion de "software factory", vieille notion vivotant et réapparaissant régulièrement, a déjà été discutée (de manière extensive en 1997 !), pour montrer l'inadéquation avec le développement logiciel en général, tandis qu'il s'agit plutôt là d'une confusion entre les différents métiers du logiciel (en l'occurrence, l'assemblage — assez utopique à un certain degré — de briques génériques pour créer un nouveau logiciel répondant à une attente d'un client ; plus généralement, je conviens que la TMA n'est pas vraiment de l'artisanat comme le développement "pur").

Ainsi en irait-il du lean en milieu logiciel ; la différence fondamentale est que le management est peu connu et considéré par les développeurs (c'est une tragédie, réellement), et qui n'ont donc pas d'a priori à son encontre. On aura compris, pour ce qui nous intéresse, que le lean ne doit pas être considéré dans ce qu'il met en place concrètement pour la fabrication (du moins dans ce qu'il préconise) mais dans les processus et dans son esprit — même si l'on peut chercher à adapter certaines idées d'optimisation de l'environnement de travail ou de tâches répétitives, quoique ces dernières correspondent plus à d'autres branches de l'informatique comme le réseau ou la DSI. Le "petit" problème, à ce niveau, est que si je prends l'évangile selon JMAC (oui, oui, je choisis toujours mon vocabulaire), ce qui va m'intéresser est... la préface. Pas beaucoup plus. C'est un peu gênant. Mais au moins, je suis tout à fait d'accord avec elle, c'est déjà ça. On peut tirer d'excellentes et pertinentes choses de ces préceptes généraux — la question étant "peut-on toujours appeler cela du lean ?".

Ce qui m'a dérangé, très profondément, dans la lecture du livre de la JMAC, est l'aspect prophétique de conversion. Mais cela ne m'a pas vraiment surpris : j'avais avalé du Pierre Legendre avant. Le discours est donc de type "techno-science-économie", totalement assumé, avec même des formules mathématiques complexes qui fournissent un indice en nombre de containers (?) que l'on ne sait pourtant pas interpréter, ou des diagrammes au format particulier, pour modéliser des actions, ou encore des techniques de mesures "intelligentes". Et toute une démonstration sur la nécessité de l'optimisation, du calcul, de l'agencement, de la performance, de la réflexion. Ce, sous l'égide du marché qui pousse toujours plus loin, plus haut, plus fort (on le rappelle d'ailleurs dans la préface, en ces temps de crise — ce n'est pas sans saveur puisque l'on fait référence, paradoxalement, aux années de disette du Japon où ce système a donc eu toutes les vertus...). Pour aller même encore plus loin (et c'est tout un sujet de tension), on y dit même de ne point rejeter l'Organisation scientifique du travail de Taylor, bien au contraire.

Mais l'avant-dernière phrase du livre fait tomber le masque : "Pour aboutir à une transformation lean, il faut y croire !". Quel médecin pourrait dire "si vous voulez que votre jambe cassée guérisse, il faut y croire !" ; quel physicien dirait "pour que la lumière se réfracte, il faut y croire !" ; quel chimiste dirait "pour que cette solution réagisse, il faut y croire !". On quitte bien le domaine de la science, du prédictible, de la causalité. Quel est la part d'effet placebo ? Je m'amuse, pour ma part, à relever que l'on entre dans le domaine de la foi, celle qui fait des miracles. Le miracle, c'est le changement, pour un monde meilleur, celui qui rend heureux, à la fois l'ouvrier "optimisé" et l'actionnaire (rassemblons-nous en rond et célébrons la fin de l'affrontement des classes).

L'autre indice, et celui-ci est absolument criant par le vide laissé, est la totale absence d'auto-critique. Rien. Tout se passe pour le mieux dans le meilleur des mondes. On pourrait au moins avoir des mises en garde : "attention, si vous ne faites pas correctement ceci, ça va mal se passer". Je ne me souviens que d'un seul passage de ce type, où l'on insiste sur l'attitude à adopter pour faire accepter à l'ouvrier de se faire mesurer par un chronomètre juste à côté de lui (ce moment m'a d'ailleurs fortement fait penser à Surveiller et punir... Le tout avec moult bonnes intentions déclarées, comme dans tout bon pavage). À un moment, on nous dit bien que c'est tout de même très japonais que tout cela, et qu'il faut faire attention à la culture locale (assez savoureux aussi, mais je risque de beaucoup m'étendre : en résumé, le Japon a avalé la culture occidentale qui lui a été imposée, et l'a remodelé en fonction de ses traditions ancestrales, pour un résultat qui fascine à présent ceux-là même qui avaient mené la conquête de la pensée). Je romps le suspense : la critique existe ! Ailleurs.

Lorsque j'ai dit "lean", une fois sur Twitter, j'ai eu une réaction de Pierre Denier (qui n'est pas le dernier des débarqués et qui n'est pas non plus un idéologue), de type "oulah !" ; j'ai demandé pourquoi : parce que ça a fait bien plus de mal que de bien. Benoitement, je demande : mais les préceptes ont-ils été bien suivis ? Aïe. Ça veut bien dire, au mieux du mieux, une chose : le lean peut être assez ambigu pour générer exactement l'inverse de ce qui est attendu (du moins pour l'ouvrier, mais comme je suis marxiste par intermittence, le capitaliste en souffrira forcément par ricochet). Ce n'est pas rien ! Allez, pire encore, en images : ce reportage de France 3 (dont le titre assez idéologique trahit un certain parti-pris, c'est dommage : La mise à mort du travail), qui montre la mise en place du lean dans une usine, et au final... on a remplacé un mal par un autre mal (au lieu de parcourir des kilomètres, les ouvriers piétinent, ils ont des cadences beaucoup plus fortes qu'ils ont du mal à assumer sur le long terme, ils ressentent des douleurs, etc.).

Pour en revenir à la médecine (et à la philosophie), on tient là un pharmakon : tout médicament est un poison en puissance, tout dépend du savant dosage. Et ça, c'est le meilleur des cas (le pire : ça n'a jamais marché et tout n'est qu'écran de fumée — on me dira "Toyota", je répondrai que l'on a vu quelques soucis de leur côté qui n'étaient pas des moindres, ces dernières années). Voilà au moins un avertissement majeur qui aurait mérité de figurer dans notre cantique ! Mais la seule parade semble être d'opposer qu'un échec suivant la mise en place du lean est que l'on a mal compris, tout comme on a mal compris la bible quand les catholiques se sont laissés aller à des pratiques regrettables. Pirouette.

Où est l'homme dans cet étalage méthodologique qui dit ne pas en être un (mais suffisamment pour avoir son vocabulaire, ses techniques, ses livres, ses apôtres, ses écoles... et même un nom !), dans cette théorie détaillée qui nous assure que tout est dans la pratique ? Nous sommes ici aux confins du management tel que Pierre Legendre le dissèque dans Dominium Mundi : l'Empire du management (mais aussi dans La Fabrique de l'Homme occidental, avec une brève référence aux études du toyotisme, comme succession aux études théologiques). Le lean est un aboutissement car il prétend remettre l'homme au centre, dans une rhétorique élaborée. Le reportage suscité (La mise à mort du travail) est extrêmement acerbe : ce n'est que tromperie de la pire espèce ; au moins, le taylorisme était plus clair sur l'utilisation de l'homme comme force de travail (bref : la lutte des classes et l'exploitation du travailleur, au moins c'est clair, on n'essaie pas de nous enfumer). Est-ce réellement le cas ? La question est pertinente, mais j'ai bien peur que le débat soit saboté à la base pour qu'il n'y ait l'espoir d'une quelconque réponse.

Prenons un autre exemple, encore plus criant. Le Six Sigma est aussi un sujet très à la mode. J'ai donc sélectionné un ouvrage (la librairie de l'ESCP est une merveille et son libraire absolument remarquable), paru à l'AFNOR (je ne savais pas qu'ils avaient une maison d'édition interne, c'est en tout cas amusant de relever un nombre très important de coquilles dans un livre qui parle de qualité et d'erreurs inférieures à 3,4 par millions d'opportunités... Ils donnent en tout cas des formations "certifiantes") : Six Sigmas, la force du changement en période de crise. On commence par nous dire qu'il n'y a pas de miracle ni de solution miraculeuse. Mais tout à coup, on assiste à un déferlement de calculs, d'indicateurs chiffrés, de références sociologiques trop vite interprétées (dans le meilleur des cas, car il y a aussi des conclusions importantes tirées à partir de mémoires de MBA lambdas...), le tout dans un magma rhétorique entièrement dynamisé dans le sens de l'auteur, qui fait un usage très abusif du mot "donc". Qualité, excellence et changement forment le triptyque d’une idéologie masquée par un vernis scientifico-technique.

L'excellence est également un thème très fort dans le lean, qui recoupe beaucoup celui de la qualité, aussi central dans le lean (ce n'est pas pour rien que les deux ont pu se marier pour donner le "Lean Six Sigma"), qualité directement associée à la satisfaction client, ce qui est un grand raccourci. Je vous propose de regarder le trailer de mon ami Hugo Jacomet pour le Corthay Excellence Run, où l'on parle d'excellence et de qualité. Il s'agit d'artisanat, y compris dans les voitures. Ici, pas d'effet de manche : il s'agit véritablement de purs métiers manuels d'expertise, autour d'arts décoratifs profondément ancrés (dans l'histoire, la tradition, la culture), au service de la beauté et d'un fonctionnement parfait, par les meilleurs artisans. Le lean et le Six Sigma oublient quelque chose : tout est affaire de compromis. La population, dans sa consommation de masse (je ne parle pas de comportements particuliers, tels que le mien) n'est pas prête au luxe, déjà pour une question de moyens (mais cela mériterait de s'attarder sur les problématiques économiques, et notamment de la pression vers le bas des prix des biens qui ont poussé à la mondialisation, pour à présent des taux de chômage élevés dans les professions peu qualifiées — et je ne suis pas un protectionniste !), mais surtout parce que ce n'est pas ce qu'elle désire. Ce que le client veut, de nos jours, c'est la nouveauté, ce qui implique des couts peu élevés et des changements réguliers. Dans leur immense majorité, les hommes préfèrent acheter régulièrement des chaussures de mauvaise qualité pour 100€ plutôt que de s'offrir une paire de Corthay à 1000€ qui durera 50 ans (je ne parle pas des femmes : c'est tellement maladif qu'une offre de chaussures de qualité n'existe même pas !). Cela recoupe exactement le mythe de l'obsolescence programmée (dès qu'il y a une théorie du complot, on peut être certain de faire fausse route).

Le Six Sigma, qui fait donc ses gorges chaudes de la qualité ultime sans parler du cout que cela engendre et de la pertinence au regard du cout répercuté sur le client final, est donc complètement à côté de la plaque. Cela n'empêche pas de trouver de bonnes et même de très bonnes idées dans le livre et la méthode, mais il faut savoir faire la part des choses, et avoir les idées claires pour cela. Or, lorsqu'on y voit clair, on voit aussi tous les autres trous noirs sophistes de la pensée. Le moins grave (et le plus partagé !) est de parler de culture d'entreprise comme si cela était quelque chose d'évident, alors même qu'après recherches, j'ai trouvé que la sociologie s'était penché sur le sujet, à bien des reprises, sans rien trouver de probant. Le plus étrange est cette folie du changement, paré de toutes les vertus, où l'aspiration naturelle de l'homme à la stabilité est péjorativement qualifiée de "frein", en tout point similaire à la réformite de l'État français (ce n'est plus un moyen mais une fin en soi) ; où l'on a envie de rappeler, à force, qu'une révolution, c'est tourner sur soi-même ("Se vogliamo che tutto rimanga come è, bisogna che tutto cambi !", comme on dit). Mais ce qui interpelle le plus est encore une fois du côté de l'homme. Où est-il ? Page 19, accrochez vos ceintures (noires ou vertes) : "On s'aperçoit donc que l'organisation est également un système constitué d'hommes et de femmes, sans lesquels aucun résultat ne pourra être obtenu". No comment.

L'homme est folklorisé. Le management moderne a compris qu'il faut un théâtre et des rites à l'homme, sans comprendre que c'est une inscription qui donne du sens à sa vie. L'usage de la théâtralisation artificielle se voit par exemple dans une longue séquence du séminaire du groupe Otis dans L' Empire du Management. À présent, c'est le quotidien qui est visé, au-delà d'un évènement annuel unique s'apparentant à la grand-messe et au pèlerinage. Pour le Six Sigma, il s'agit des yellow belt, green belt, black belt, champion et autres rôles attribués : il s'agit d'une réduction de la vie à un jeu de rôle codifié, rationalisé, prédictible. C'est une nouvelle mode, que l'on retrouve peu ou prou un peu partout (le Scrum master, par exemple). Page 73, l'auteur répond aux oppositions sur ce vocabulaire étrange(r) : c'est un moyen efficace (selon quelle mesure scientifique ?) pour changer le référentiel et donc la pensée des individus, afin de les rendre malléables en vue du changement. La révolution culturelle ou le rêve soviétique, en somme (l'entreprise comme organisation totale tendrait-elle à devenir totalitaire, dans cette optique ?). Notons au passage que le vocabulaire n'était qu'une part de critique acerbe de James Téboul (INSEAD, décidément !), et en fait la moins pire...

Enfin, une dernière remarque pour la route : d'où vient le chiffre 6 de Six Sigma (Sigma comme l'écart-type), dans cet univers scientifisé ? Après tout, tout le monde reconnaît que 3 ou 4 sigma est déjà pas mal à atteindre. Cinq serait extraordinaire. Pire encore : tout dépend des indicateurs utilisés ! (Et dès lors que l'on s'attaque à des processus de services, autant dire que ça peut être tout et n'importe quoi...) La réponse est avancée page 44 : "Saint-Augustin d'Hippone (354-430) clamait dans son livre La Cité de Dieu que le nombre 'sénaire exprime la perfection de l'ouvrage divin'. Il ajoutait que le 'le chiffre 6 est parmi tous les nombres, le premier qui se compose de ses parties, je veux dire du sixième, du tiers et de la moitié de lui-même ; en effet le sixième de six est un, le tiers est deux et la moitié est trois ; or un, deux et trois font six'. On perçoit dès lors l'objectif de l'approche. Cette perception est corroborée par la lettre grecque qui suit." (Note : j'ai modifié les erreurs de typo au passage). C'est délicieux ! Bien plus qu'une vulgaire couverture recyclant la chapelle sixtine (coïncidence ?).

Au final, quel sens à donner à tout cela ? Le livre d'Emmanuel Pascart sur Six Sigma est sorti en 2009, ce qui nous permet de prendre un peu de recul. Parmi les entreprises citées en exemple (et parfois américanisées à tort, comme Nokia !), on peut se rendre compte que la malédiction du Prix de l'excellence a encore frappé (ce livre mythique est d'ailleurs cité tel quel dans notre ouvrage, tout comme on voit cette néo-bible déposée à un moment sur un bureau dans La mise à mort du travail — serait-ce de là que vient d'ailleurs ce fétichisme de l'excellence ?). Pour rappel, dans l'ouvrage de McKinsey, on citait un certain nombre d'entreprises modèles, telle qu'Atari ; la plupart d'entre elles ont coulé dans les quatre ans qui ont suivi la parution du livre (ce qui fait beaucoup rire les sociologues et économistes). Eh bien, pour Six Sigma, nous avons : Nokia, Polaroid (qui a aussi fait tiquer James Téboul, cf. son commentaire précédemment cité), Xerox, ou encore Sony, soit une entreprise sur deux citées qui va vraiment mal (les autres ayant quelques difficultés ou rien de bien remarquable, y compris chez Motorola, dépositaire de la marque Six Sigma, qui s'est dernièrement scindée en deux avec revente de la mobilité à Google) ; plus amusant encore, pour la France, carton plein avec Air France, Axa, la SG. Bref, pas de miracle, non : le hasard paraît tout aussi efficace.

On a donc fait le tour de la rhétorique et des effets de manche déployés dans la liturgie managériale, celle où l'on décrit un monde où tout un chacun peut être le meilleur, ce qui est pourtant simultanément impossible par définition, dans une guerre économique où les consultants sont les mercenaires du camp qui les paiera (d'où le très grand secret des grands cabinets autour de l'identité de leurs clients ! En effet, on peut les supposer concurrents...). Pourtant, que l'on ne s'y trompe pas : pour ma part, je considère que le management est un art extrêmement subtil (ce qui ne rentre donc pas dans les méthodes pré-cuisinées, du moins pas de manière brute), nécessitant une expérience et une maturité certaine pour être bien mené. J'ai rencontré extrêmement peu de bons managers, beaucoup de mythes (celui du leader, celui qui consiste à mélanger hiérarchie et management, etc.). J'ai surtout pu constater le massacre qui résulte d'un mauvais management, d'un contre-management, du non-management. C'est pourquoi j'ai décidé d'étudier la question ; ça ne veut pas forcément dire accepter le formatage d'esprit, au contraire. Cependant, arrive toujours la question : l'OST, le lean ou tout autre management d'organisation est-il respectueux du travailleur ?

Et pourquoi ne pas assumer, après tout ? Moi-même, je suis fort heureux du confort apporté par les révolutions industrielles, et donc aussi (et principalement) par l'OST. Je ne vais pas cracher dans la soupe par crise de moraline (ou alors, je deviens cynique et vais élever des chèvres dans le Larzac, s'il faut rester cohérent). Si l'on peut faire mieux, que cela profite à tout le monde dans un compromis de production, grand bien en soit-il ; sinon tant pis. Mais en fait cela ne rompt-il pas le charme si l'on explique à l'ouvrier que grâce au lean, dans lequel il est impliqué (notamment par la suggestion d'idées d'amélioration, à cadence industrielle), on va produire plus avec moins, c'est-à-dire supprimer des emplois ? (Et donc se tirer une balle dans le pied si Marx et Keynes ont raison face à Schumpeter/Solow ? — ce qui est plutôt mon avis, d'après la théorie "les arbres ne montent pas jusqu'au ciel" et "l'homme est à dimension finie", tout autant que devant les simplifications affreuses des néoclassiques, les chantres absolus de techno-science couvrant une idéologie pourtant très claire)

Quel abyme ! Et pas même le bon : le sens de la vie ne s'y trouve pas. Les nouveaux dogmes ont ce défaut fondamental, faut-il dire (lisez Legendre !).

Quel est alors mon métier, dans ce fatras de pensée ? Le reportage La mise à mort du travail donne à voir des consultants, dans des séquences absolument extraordinaires. On les voit distiller, par des méthodes passablement grossières pour tout esprit éclairé, leur idéologie dans un aveuglement qui ne connaît pas le questionnement. La théologie du management en est encore à ses balbutiements (elle tourne beaucoup en rond), et dans un très grand paradoxe : nos esprits cartésiens avides de rationalisation (là où il y a l'homme et son mystère !) oublient le fondement (augustinien) du discours de la méthode : le doute. Comme dans toute bonne religion, le doute est banni : croyez, agissez, convertissez. Libérez votre esprit. Quelle promesse séduisante ! Comment lutter ?

Je proposerais donc autre chose. L'auditeur d'une organisation est tel le psychanalyste face à son patient (petite note au passage : on sait par ailleurs tout le débat constant qui règne autour de cette discipline,pourtant indispensable, même pour ceux qui qualifient bon nombre de ses membres de charlatans — à juste titre bien souvent). Le rôle du consultant-auditeur doit être celui du miroir. Ce n'est pas une tâche facile, d'autant qu'un miroir ne peut refléter que ce qu'on lui donne à voir, sans déformer, mais que pour être meilleur encore, il doit au contraire correctement déformer pour compenser la vision de celui qui souhaite se connaître. C'est quelque chose qui m'a interpellé dans une interview d'Alain Minc (que je considère nuisible dès qu'il s'agit d'émettre la moindre idée conduisant à une action, mais dont les diagnostics sociaux sont corrects et dans une franchise déconcertante) : contrairement aux courtisans (ministres et conseillers), il montrait au Président, dans l'ombre, ce que celui-ci ne voyait pas de son action (problème de l'acteur/spectateur), par reflet/réflexion. C'est l'inverse de cabinets qui embauchent de jeunes gens tout juste sortis de l'ENS ou de l'ENA (au mieux de MBA, au pire de grandes écoles d'ingénieur), tel que McKinsey, au sujet duquel j'ai mené mon enquête, tant dans la littérature que parmi mes amis qui y avaient eu recours : leur art est de savoir parler au middle-management (donc de le flatter), par des techniques standardisées, des solutions-miracles qui tiennent au doigt mouillé éclairé, des méthodes pré-mâchées prêtes à appliquer. Leurs 7S sont typiquement de ce cru ; Le prix de l'excellence, écrit par deux de leurs consultants, en est l'émanation même (notons qu'il y a une 2e édition, qui avoue à propos de l'édition de 1982 : "certaines des entreprises présentées en exemples n'ont pas tenu leurs promesses"... Ne nous démontons pas !).

Le vrai métier du consultant, à mon sens, est au contraire de mettre le doigt sur les angoisses et autres refoulements, et d'en faire prendre conscience subtilement, sans brusquer, en respectant ce qu'est le client/patient, sa manière de fonctionner, son identité, en s'inscrivant dans son mouvement pour l'aider à résoudre ses tracas, à lever le malaise qui l'encombre (notons que je parle de fait, a priori, d'organisations qui auraient déjà un problème, et non d'organisations où tout va bien mais où l'on souhaite devenir encore meilleur : avez-vous remarqué qu'en France, on va voir un médecin lorsqu'on est malade, tandis qu'en Chine la consultation est préventive ? Ce n'est pas pour rien que nos méthodes parlent plus de changement — radical chez Six Sigma — que d'optimisation en soi). C'est un exercice d'équilibre qui demande de la patience, de la dextérité, de l'expérience, de l'écoute, une certaine empathie tout en restant objectif (éviter le transfert !), une grande maturité, et beaucoup de réflexion. Ce serait mentir que de claironner y être arrivé : cependant, telle est la voie que j'ai choisie (on aura compris que ce long billet s'inscrit dans ce travail). Dernière (ou presque...) qualité dont il faut faire montre : la capacité de synthèse. C'est quelque chose de particulièrement difficile pour moi (comment ça, ce billet le prouve ?), mais à force d'exercice (écrire un livre aide beaucoup !), ayant pu mener quelques audits ces derniers temps, c'est quelque chose que j'arrive à présent à réaliser ; il s'agit à la fois d'être pertinent, sélectif, efficace et clair. La meilleure méthode, à mon sens, est de faire comprendre avec sensibilité ce qui va et ne va pas : il faut montrer le chemin (et le baliser un minimum, sans pour autant imposer sa vision, ses méthodes, ses fantasmes), mais c'est au client de l'emprunter, car lui seul sait, et lui seul peut agir.

Être un miroir est donc plus complexe qu'offrir une simple réflexion : il faut y mêler toute une analyse pour fouiller discrètement, recouper, et restituer l'image qui convient, celle qui ne s'arrête pas à la surface des choses, celle qui est enfouie. C'est alors que les ouvrages peuvent s'avérer utiles, pour augmenter sa base de données de connaissances, comme un accélérateur d'expérience, comme les épaules d'un géant (parfois de type troll) sur lequel se tenir. Cependant, il faut faire bien attention à la subjectivité et aux idéologies. Ma conclusion est de se fonder prioritairement sur des travaux au cachet scientifique plus éprouvé, ceux de la sociologie (et de l'économie comportementale). Nul besoin de pseudo-théorisation à coup de méthodes pour retrouver le "bon sens" (qui n'en est toujours jamais trop un... Ce serait trop simple !) d'importance du client, de l'horizontalité et du décloisonnement, etc. : tout cela peut, par exemple, se trouver dans le livre de François Dupuy, Lost in management, études sociologiques de cas concrets à l'appui ! On est alors bien loin de la rhétorique habituelle du management (et la franchise est rafraichissante : "on a laissé filer le client", le "sous-travail", etc.). J'irais même jusqu'à dire qu'un très bon livre se reconnaît à ce qu'il pose plus de questions qu'il ne donne de réponses.

La sociologie des organisations est une matière hautement passionnante, dont le travail est toujours en cours. Dans l'excellentissime Les Organisations aux éditions Sciences Humaines (2e édition), qui compile de manière synthétique, sous forme d'articles ou d'interviews, les principales explorations théoriques afférentes aux organisations, on est frappé par le simplisme des approches purement managériales encore enseignées (et appliquées !) dans les écoles de type MBA, dès qu'on arrive à la lecture des théories économiques et sociologiques bien plus poussées — mais le simplisme a pour avantage de pouvoir être packagé et vendu au kilogramme par les cabinets de consultants. Exemple type : la théorie de l'agence. On note là une grande différence, qui fait toute la valeur de cet ouvrage : il s'auto-critique ! (Et la théorie de l'agence, en l'occurrence, s'en prend pour son grade ; il est ensuite amusant d'entendre des consultants diplômés de [E]MBA en parler comme l'alpha et l'oméga de la compréhension des organisations)

C'est aussi le cas de Sociologie des organisations, de Claudette Lafaye (recommandée par un ami sociologue dont c'était la directrice de mémoire, dont il m'a vanté son extraordinaire capacité à tirer du sens de travaux les plus épars), qui fait le point sur la discipline dans la collection 128 d'Armand Colin ("128" comme le nombre de pages, m'a appris ma bienaimée qui en a édité quelques uns). Tandis que le précédent ouvrage a une approche thématique, par fiches pourrait-on dire, celui-ci reprend le fil de l'évolution des théories (uniquement sociales, pas économiques), en pointant leurs filiations historiques, leurs forces, leurs limites, leurs influences, etc. Notons aussi que dans son ouvrage, Claudette Lafaye observe que la discipline managériale louche fortement sur les travaux sociologiques, sans vraiment faire la part des choses, et sans l'approche intellectuelle rigoureuse qui devrait aller de pair. Il faut aussi remarquer que l'on parle toujours là d'organisations, ce qui implique une certaine taille (atteinte par bien peu d'entreprises, si l'on s'aventure sur ce terrain !) ; à ce titre, je ne comprends pas très bien pourquoi on verrait dans le livre d'Eric Ries, à propos des start-ups, quoi que ce soit d'applicable à une bureaucratie hautement peuplée.

Cela étant dit, rien n'interdit, après tout, avec toutes les précautions que l'on aura pu tirer de ces avertissements, d'aller puiser partout de quoi s'inspirer, pour faire germer des idées. Bien au contraire ! Un travail de synthèse permet de se tailler sa propre solution sur-mesure, étoffée, riche. Et c'est ainsi que l'on en revient à notre lean software (rappelez-vous, c'était au début de ce billet...), avec un beau billet chez Yves. Au-delà du vocabulaire (le kaizen, les 5S, j'en passe) et du formatage (quoique j'aime bien les bullet points, c'est lisible :)  ), je suis totalement en accord avec les conclusions, mais en certaine inadéquation avec le cadre retenu. L'important, c'est le fond ; cependant, j'émets une réserve, parce que la forme importe aussi beaucoup : c'est l'emballage, la première approche, celle sur laquelle se fonde le premier jugement. Sur l'esprit, j'ai bien saisi, et je ne suis en désaccord que sur certains points (comme ce terme d'usine, on l'aura compris) ; mais tel quel, je ne pense pas que la perception immédiate soit celle que l'on a voulue, alors que c'est cela qui va faire sens pour le récepteur (il n'est pas non plus à exclure que je me trompe sur ce point). Cependant, je ne pense pas non plus qu'il faille présenter telles quelles les choses : tout le monde (euphémisme) n'a pas l'esprit aussi structuré et boulimique qu'Yves ; on en revient à la capacité de synthèse et de présentation (nos blogs respectifs doivent dont être considérés comme des cuisines, que l'on montre par souci de transparence et de partage, mais les exercices de conceptualisation auxquels nous nous livrons ne sauraient être proposés comme plat final — je tiens à rassurer les lecteurs et éventuels clients qui seraient arrivés à lire jusqu'ici).

En fait, tout comme en politique, on peut choisir de raconter des âneries populistes (café du commerce) ou de faire appel à l'intelligence de ses interlocuteurs-citoyens ; cependant, dans le second cas, il faut garder à l'esprit que la bande-passante, les capacités d'absorption et de compréhension, les intérêts de chacun sont différents. Tout un art, qui va bien plus loin que le simpliste leadership très à la mode de ces derniers temps (surtout pour des gens amenés à être des administrateurs de grosses structures après leur MBA, pas des Napoléon !... Cette rhétorique actuelle des hommes-providentiels/messies est même plutôt néfaste, je trouve). Je me réserve cela, à titre personnel, pour mon propre futur (mon plan de conquête du monde en trois parties et trois sous-parties — je ne me suis toujours pas fait au plan juridique en deux parties). En attendant, je veux bien jouer le rôle modeste d'assistant (mon TJM est raisonnable, engagez-moi !), celui qui dira de faire très attention, et qui, sans tourner au cynisme, en évitant l'immobilisme, en contrebalançant son propre pessimisme naturel (quoique je suis une Cassandre assez efficace), participera à l'action en ayant conscience que les responsabilités entraînent toujours des désagréments qu'il s'agira aussi d'assumer. Être celui qui mettra au service ses talents pour jeter un autre regard.

Un regard franc sur la complexité des choses, pour servir de miroir.



Addendum : Yves écrit à la fin de son billet "Code that grows iteratively needs to be re-factored regularly (iteration yields accumulation); like a garden, it needs constant care and attention." Non seulement je suis entièrement d'accord avec cette brillante formulation, mais j'ajouterai même qu'il en va de même des organisations. Je pense que nous partageons cette vision, en cherchant à "planter des graines" (le "geste fertile" cher à Pierre Legendre, dans un certain sens). Cette métaphore du jardin est même particulièrement riche (la start-up serait un bonzaï ; jardin à la française vs jardin à l'anglaise ; exercice de débroussaillage ; bouture/transplantation de la fusion-acquisition ou du rattachement de service ; j'en passe...). Peut-être vient-on enfin de comprendre le vrai sens de l'expression "culture d'entreprise" !

lundi, juillet 2 2012

résurrection semestrielle

Il y a pas mal de temps déjà, j'ai tenté Google+ : l'expérience confirme que le format convient très bien aux petites incursions communicatives. De fait, j'ai encore une fois abandonné ce blog. Bref, on peut surtout me retrouver sur Google+.

Mais force est de constater que cela fait pas mal de temps que je n'ai pas écrit quelque chose de copieux par ici. C'est que je compilais pas mal d'infos (et que j'avais quelques dissert' en droit à écrire, aussi). Il est temps d'en faire une restitution...

mercredi, janvier 18 2012

Linux embarqué : comprendre, développer, réussir

Un projet de deux ans ! Tout remonte à une conférence que j'avais donné en novembre 2009, pour l'APRIL, chez Eyrolles. La librairie-maison d'édition cherchait justement quelqu'un. Au début, pour remettre à jour le Ficheux, dont il était clair que la seconde édition avait vécu. J'ai décliné cette proposition : le Ficheux, c'est le travail, l'approche pédagogique de Pierre, et non seulement c'est à lui de continuer son travail, mais en plus, je suis bien incapable d'avoir le même style, clair, synthétique, mais en même temps, arrivant à faire fi des absences, des trous dans l'exposition des techniques. J'ai donc expliqué que j'étais du genre universaliste, et surtout, que je voulais faire autre chose, quelque chose de différent de ce qui était en fait déjà publié en anglais (parce que ça revient au même, que ce soit en français ou en anglais, pour un Français).

J'avais identifié ceci : aucun ouvrage de la littérature ne permettait de commencer un projet Linux embarqué, ni de le mener à bien. Par où commencer ? Quels sont les obstacles ? Où met-on les pieds ? Comment arriver à bon port ? Un exemple simple : comment fait-on un firmware ? Pas un seul ouvrage pour nous le dire ! (en fait, il y avait un livre que je ne connaissais pas et qui a à peu près cet angle, mais il n'a jamais percé, sans que je comprenne trop pourquoi étant donné sa qualité)

L'idée a été acceptée, et alors que je m'étais toujours dit que je ne me mettrai jamais dans une telle galère, j'ai donc débuté la rédaction. Mon éditrice de l'époque m'avait demandé un sommaire, pour commencer. C'est là que j'ai déterminé une division selon la progression d'un projet : étude de marché, spécifications, réalisation, intégration. Et puis les sous-parties, qui n'ont quasiment pas bougé depuis. J'ai commencé à en rédiger des bouts, que j'avais en tête (par exemple la paravirtualisation), en attendant le go de l'éditrice. Qui, à mon grand désespoir, trouvait toujours quelque chose à redire : il ne faut pas numéroter comme ceci, pas aligner comme cela... Au bout de trois mois (!!) à comprendre la nomenclature locale et le jargon inconnu (local lui aussi...), le sommaire n'était toujours pas jugé satisfaisant : libellés pas super, organisation pas top. Ah. Aucune indication de ce qui ne va pas. Je fais donc intervenir mon ex (vous saurez tout sur ce bouquin...), ancienne de l'édition, avec qui je parle du projet depuis un bout de temps : on discute du projet, et puis on passe un grand coup de neuf sur le sommaire, avec des intitulés "démagos", comme elle dit ("osons parler du droit", par exemple).

Je soumets... Et n'ai aucune nouvelle. En fait, j'apprends plus tard que mon éditrice était déjà partie en congé maternité ; après ça, elle a carrément quitté la boîte. Heureusement, je n'ai pas attendu  — et n'avais pas signé quoi que ce soit. J'en étais arrivé à une conclusion, à force : ce que je voulais faire était un OVNI, un livre comme il n'y en a jamais eu dans l'informatique, transverse, universel, réfléchi, bourré de références vers l'extérieur, une porte d'entrée, en somme. Or, chez Eyrolles, la politique éditoriale est la suivante : le livre doit se suffire à lui-même. Ça veut dire extrêmement peu de liens extérieurs et une impression donnée au lecteur qu'il a fait le tour complet du sujet en lisant le seul ouvrage. Peu importe que ce soit mensonger. Évidemment, ce n'est pas du tout ma façon de penser ; en fait, à la fin de la période de rédaction, mon livre comptait plus de 600 notes de bas de page. Oui, 600. Avec des "infra" et des "supra" ; monté comme une thèse ou un livre de droit.

Juin 2010, j'ai aussi appris que Pierre Ficheux avait entrepris la mise à jour de son propre ouvrage ; Eyrolles avait donc initié les deux projets simultanément, mais sans le dire à aucun de nous deux (ce qui m'a confirmé dans mon choix de m'en détacher, à vrai dire — au final, la troisième édition de Pierre est extrêmement didactique, et un miroir total de mon livre, aucune concurrence entre les deux à mon sens). C'est à partir de là que j'ai réellement commencé l'écriture : jusqu'alors, il devait y avoir une quarantaine de pages écrites, tout au plus. Bien loin des 250 pages que devait faire au final le document ODT (et non LaTeX, pour rester compatible avec la feuille de style Eyrolles que je n'ai jamais utilisée — le poids de l'histoire ; il aura fallu migrer en .DOC, plus tard : les éditeurs vivent à l'âge de pierre sans outils adaptés, de toute façon, et il est vrai que Word est plus puissant que OOo pour gérer les notes sur le texte).

L'écriture d'un livre pareil, ça veut dire travailler tous les jours jusqu'à deux heures du matin, et tous les weekend. Jamais au boulot, pas même entre midi et deux — j'avais donc un système à travers Google notes pour mettre de côté des liens, des idées à développer, des oublis à combler, que je reprenais le soir. Chez les clients ou en formation, il m'est aussi arrivé de noter des points particuliers à inclure ou à étoffer — d'où les remerciements pour mes "cobayes tous désignés". J'ai fouillé les aspects économiques, sociologiques, comportementaux, méthodologiques, tout ce qui était périphérique à la réalisation, tout ce qui est le projet lui-même, en réalité. Et côté réalisation, j'ai essayé le plus possible de parler de ce qui manquait sur le net et dans les livres, de ce qui n'est jamais trop clair ; ça m'a pris un temps fou à faire des recherches, parfois quatre heures pour dix lignes d'écriture ! J'ai donc écrit en désordre, au fil des trouvailles, par complétion, ce qui nécessite d'avoir le schéma global en tête, et prend encore plus de temps (pour éviter de mal classer l'information ou de la doubler extensivement). Mais ça permet aussi de brasser le plus possible, de repenser à ce qui a été écrit, d'agir par couche successives, comme le peintre à l'huile (j'adore cette métaphore). Parfois, j'ai repensé à la correspondance des compositeurs du XIXe, un peu perdus, qui ont l'impression d'avancer en terre inconnue, de créer quelque chose de grand, de novateur, peut-être de révolutionnaire, mais de douter affreusement en même temps : l'échec n'est jamais loin.

Et c'est ainsi qu'en avril 2011, j'avais quasiment fini la rédaction du livre, à l'exception des sections sur le boot du noyau (avec les logs commentés, quelque chose qui n'avait jamais été fait non plus) et les traces. C'est à ce moment-là que j'ai cherché un éditeur.

Soyons clair : la France est extrêmement pauvre en édition informatique. Et chacun se place sur un terrain particulier : ENI est plutôt pour les débutants (et leur qualité de publication est assez bof), Eyrolles pour les étudiants et pros, Dunod pour l'universitaire, et Pearson. Pearson, c'est un peu compliqué, on ne les voit pas beaucoup, mais c'est tout de même Tanenbaum (si je regarde ma très fournie bibliogeek, ce n'est même que ça, un livre sur Matlab et un autre sur LaTeX). Le geek moyen n'a que faire de la maison d'édition, mais personnellement, féru de détails, j'ai toujours associé Pearson à une qualité d'édition certaine, de belles couvertures grises, un beau papier, et un prix un peu trop élevé (mais on paie la qualité, après tout).

Il se trouve que chez Lina, la femme d'un (nouveau) collègue était traductrice, notamment pour Pearson : j'ai donc eu un contact direct. Par manque de chance, mon projet sortant des clous, il a fallu un bon mois et quatre fois les mêmes explications pour me faire ré-aiguiller vers le service "pro", différent du service "étudiant" — c'est pourquoi je n'ai pas de couverture grise... Pearson France (puisque le groupe est international), c'est un peu l'aventure... En tout, il aura fallu trois mois, pour que je sois fixé sur le sort de mon tapuscrit. J'ai même un peu perdu patience, à un moment, et suis allé taper à la porte de Dunod, voir ce qu'ils en pensaient (pour la petite histoire, l'éditeur de la section informatique est un homonyme parfait de mon paternel). J'ai découvert le monde étrange de l'édition. Où chacun vous raconte totalement l'opposé de son concurrent, tout en clamant posséder la vérité universelle (sur le fait que l'auteur doit faire ses schémas lui-même — vous savez pourquoi à présent les schémas chez Dunod ne sont jamais bien propres —, par exemple). Bref, chez Dunod, on adorait l'idée, mais on ne comprenait pas la construction du livre (par exemple, on me reprochait de ne pas assez prendre la parole. Heu ?) ; chez Pearson, on adorait le tout (même si quelques maux de crâne), mais il fallait justifier en long, large et travers pourquoi c'était très bien d'écrire comme ça (ceci dit, il aura fallu se battre un peu pour garder les prises de parole personnelles...).

J'ai ainsi compris quelque chose : les éditeurs ne savent ABSOLUMENT PAS à qui ils s'adressent. C'est dramatique. Dans la catégorie abscons, on m'a demandé chez Dunod qui pourrait écrire ma préface, dans le monde universitaire : sérieusement, est-ce qu'un seul professionnel de l'informatique en général et de l'embarqué en particulier connait une "référence universitaire" et lui accorderait un crédit quelconque ? Et pour Pearson, j'ai donc dû monter un dossier, pour estimer à la louche combien de lecteurs potentiels cela pourrait toucher, pour estimer les ventes. Oui, Linux embarqué, l'OS qui concerne 50% du marché de l'embarqué dans le monde ! Quand on pense que des manuels sur BSD sont publiés, je ne m'y attendais pas... Autre problème : quel est le public visé ? Personnellement, je m'en contre-fiche : chacun trouve ce qu'il y veut ! Eh bien non : chez les éditeurs, tu choisis entre béotien (ce qui a l'air aussi de comprendre l'amateur, fut-il éclairé), étudiant ou professionnel, un seul exclusivement, et tu t'y tiens (à noter que le chef de projet n'est pas même considéré : le pro est l'ingénieur, point). Penser que la même personne peut être successivement tout ça ? Que l'ingénieur et son chef pourrait avoir la même base mais prendre des bouts différents ? (tout en apprenant l'un sur l'autre au passage) Oulah ! Idem, longues tractations, et en réalité, c'est passé parce que j'ai joué l'usure et la désorganisation interne (les éditeurs sont aussi débordés que démunis de bonne gestion — il y a toujours un lien entre les deux), plus que par réelles convictions... À noter qu'en fait, aucun éditeur n'a jamais vraiment investi un salon, interviewé des ingénieurs, notamment sur leurs usages des ouvrages... Aucune étude de marché, même basique, en somme. Heureusement, j'ai eu des soutiens extérieurs pour me conforter dans mon choix de rupture.

En parallèle, j'avais tout de même lancé les relectures. J'ai ciblé plusieurs types de lecteurs : les béotiens, les clients, les ingénieurs non-experts en la matière (merci les amis de l'EPITA promo 2006 !) et évidemment, les experts pouvant corriger les erreurs éventuelles (à ce niveau, les deux meilleurs ont été Chritian Charreyre pour la première moitié, et mon ami Patrick Foubet pour la seconde — l'un des très rares en France à pouvoir relire entièrement cette partie technique, que je ne prétendrais pas moi-même entièrement maitriser !). Bref, j'ai cité tout le monde dans la rubrique remerciements. J'avais aussi lancé Denis Bodor, rédacteur en chef de Linux mag et OpenSilicium, sur l'écriture de la préface (j'avais auparavant proposé cela à Pierre, dont le Linux embarqué 3e édition venait de sortir, mais devant l'absence de réponse, j'avais considéré que c'était quelque peu un refus) ; finalement, sa réponse n'est venu qu'en septembre ou octobre, mais la réception de ses lignes a été l'un des plus beaux cadeaux qui soit. Bref, en attendant la réponse de l'éditeur, j'en ai profité pour corriger le document dans les détails. Essentiellement pour des désambigüisation, ou encore pour des ajouts de précisions (plus quelques erreurs, mais rien de bien sérieux, ouf — ceci dit, l'erreur est ma hantise absolue, travers de perfectionniste au dernier degré). C'est aussi en juillet que j'ai enfin pu trouver le titre de l'ouvrage, non sans l'aide d'une amie complètement étrangère à ces considérations. Je voulais faire ressortir le côté "libre embarqué", mais ça ne sonne pas bien, et ce n'est pas commercial ; en revanche le sous-titre insiste bien sur l'aspect progression et projet.

Il était clair aussi que le style ampoulé de rédaction, avec des parenthèses à volonté (je ne sais pas si vous avez remarqué, mais j'ai une tendance naturelle à l'aparté et à la pensée en arborescence — je ne crois pas que ça se soigne), rendait le tout difficile d'accès, si ce n'est indigeste. Accessoirement, l'ingénieur moyen ne lit pas d'ouvrages universitaires, et se trouve aussi désemparé qu'une poule devant un couteau dès qu'il rencontre une note de bas de page... Bref, travail de l'éditeur absolument obligatoire, auto-publication pas même concevable.

Juillet 2011, Pearson réapparaît : c'est accepté ! Là recommencent... les galères. Déjà, il a fallu arrêter le texte, que je devais mettre à jour en attendant (et comme par hasard, beaucoup de choses ont bougé à ce moment-là !), en plus des corrections. Ensuite, j'ai connu la douleur partagée de tous les auteurs : l'édition. Je reviendrai sur ce sujet dans un billet séparé : l'édition est le métier le plus bordélique que je n'ai jamais croisé (et pourtant, l'informatique a mis très haut la barre !). La nouvelle qui m'a fait le plus plaisir a été de savoir que c'était Dominique Buraud, anciennement O'Reilly France, qui allait s'occuper de mon livre (on m'avait annoncé dès le début que ce serait une éditrice externe qui serait compétente dessus — oui, chez Pearson, maison monstrueusement grande, on manque de personnel...). Il se trouve que j'avais hésité à présenter mon ouvrage à digit books, car je crois dur comme fer à l'édition numérique. Mais deux paramètres ont orienté mon choix : d'abord, le marché auquel s'adresse mon livre est celui de l'industriel, qui en est encore au papier (combien n'ont même pas Internet au travail !) ; ensuite, Pearson est extrêmement connu pour la qualité intellectuelle de ses ouvrages (autant que Dunod, mais l'aspect international en plus), et il se trouve que c'est eux qui font aussi passer le GMAT (c'est donc très stratégique) (il y a aussi un aspect "famille" quand on partage un même éditeur, et en l'occurrence des auteurs d'économie ou de stratégie m'intéressant particulièrement ; mais tout ça, c'est du long terme).

8 %. C'est ce que je touche sur chaque livre vendu. Ça fait autour de 3,50 € avant imposition. Sur les 43€ que coute le bouquin — il devait faire 42 €, au début, je suis sûr que nous perdrons des ventes, étant donné le prix plus élevé de 4 € par rapport à la norme du marché (+12 % !), alors que 42 nous aurait motivé les geeks (mais je crains que les commerciaux de la maison ne sachent vraiment pas où ils mettent les pieds, le prix du numérique est aussi trop élevé, de 10 € à mon sens — pour information, l'auteur ne choisit rien, il subit, même la couverture, mais je reparlerai de tout ça à part).

La vie éditoriale fut donc longue et difficile. D'autant que la consigne a été d'éliminer deux choses : les notes de bas de page et le style universitaire. Côté notes, peu ont survécu en tant que telles, l'écrasante majorité est devenue des encadrés, une petite partie a été sacrifié — quelques petites blagues, notamment (par exemple pour souligner le jeu de mot entre "patent" et les brevets) —ou encore censurée ("vous ne pouvez pas dire ça" — mais heu !!). Il y a aussi l'anglais (comment traumatiser un éditeur ? Oui mais voilà, notre matière parle en anglais ou en franglais, c'est un fait, il n'y a pas le choix ! — débOguer, ce n'est donc pas de moi, hein) ; et les prises de position avec du "je" dedans — ça aussi, ça choque le Français, alors que c'est la norme ailleurs ! Combien de fois n'ai-je pas regretté d'avoir écrit mon livre en anglais ? (d'un autre côté, quand je parle spécifiquement du marché de l'industrie française, ça aurait étrange) Tractations, réécritures, épuisant pour nous deux. Et encore, je n'ai fait ça qu'une seule fois (Dominique, c'est toute l'année, mais je ne sais pas trop si je ne suis pas un client un peu spécial, quand même... Et c'est pour cela que les éditeurs aiment accompagner un livre dès le début — ce qui pour moi, comme je le disais aurait été vécu comme un carcan empêchant l'innovation). Qui plus est, il a aussi fallu, en parallèle, remettre à jour l'ouvrage au fil des sorties, déplacer des morceaux, rajouter des découvertes que j'avais faites entretemps ou encore rajouter des bouts qui se sont avérés manquants à l'usage, comme la section sur la gestion de projet par la méthode Agile. Tout le mois d'octobre, je ne suis sorti de chez moi que pour aller au concert ou à l'opéra ; le reste du temps, la nuit, le weekend, je bossais le livre ; j'ai raté un tas de films au ciné... (et il y a des amies qui me boudent, maintenant...) Au passage, je maudis donc la renumérotation du noyau et la mort clinique de MeeGo...

Bref, après un repoussage de sortie (suite à une gueulante de ma part : certes je veux un résultat parfait, mais là, ce n'était pas même médiocre, la foire à la coquille — un peu quand vous livrez un super-logiciel mais qu'il n'y a pas eu de phase de test, et que ça plante d'entrée de jeu), l'impression a été lancée en novembre, pour une sortie le 9 décembre.

Et c'est ainsi que naquit mon livre. On le trouve sur le site de Pearson, sur la FNAC, sur Amazon, en numérique aussi (PDF uniquement : j'ai demandé SANS DRM, du coup... il y a du watermarking, ce qui n'est pas possible en ePub — c'est d'une stupidité incommensurable, cette non-décision, étonnez-vous que la France soit à la ramasse en numérique !). Et bon, 43€, je m'en excuse (c'est 5% moins cher sur le net — tout en restant supérieur au seuil psychologique de 39€, je vous jure...). Il n'y a pas encore de critique sur le site des vendeurs en ligne : n'hésitez pas à louer mon travail !  :)

Depuis, j'ai eu droit à des revues de presse : ElectroniqueS (édito par le rédacteur en chef François Gauthier), OpenSilicium de janvier-mars 2012 (actuellement en kiosque, une page écrite par Denis Bodor), un petit encart ridicule sur Planète Linux (mais merci quand même), et paraît-il bientôt quelque chose dans un magazine OpenSource qui sera distribué sur Solutions Linux. C'est aussi une fierté. Tellement de travail... qu'il va falloir mettre à jour à présent !

dimanche, janvier 15 2012

Linacs

Et voilà, j'ai effectivement quitté Linagora. C'est acté depuis le 1er janvier : une nouvelle page qui se tourne. Et je fonde donc ma propre société : Linacs (ou encore Linacs consulting, ça dépend de mon humeur). Les statuts ne sont pas encore déposés, mais la marque, elle, est bien enregistrée depuis deux mois environ — je suis donc protégé pour 10 ans. En fait, pour les attentifs, la nouvelle était quelque peu spoilée par la 4e de couv' de mon bouquin (voir le prochain billet) : à cause d'un problème de désynchronisation (merci l'administration française®...), l'annonce "indirecte" de création de ma société a donc fuité, puisque le livre était déjà sous presse.

Linacs, ça va être moi et moi-même. J'ai mis longtemps, à me demander si oui ou non je ferai ça. J'avais d'autres projets, en fait, mais quelques aléas repoussent de trois à quatre ans, peut-être sous une autre forme. J'ai cherché des postes de management, on m'a fait une super-offre dans une jeune SSII qui est devenue un très bon partenaire (une SSII de gens honnêtes, si si !), mais voilà : je n'ai plus envie de salariat. Tout simplement. Et je veux lancer quelque chose de nouveau, où j'aie les coudées franches. Et je veux pouvoir dire : ok, je suis fatigué, là (ou j'ai un partiel à réviser... Parce que je suis étudiant en droit, aussi, à présent), hop, une semaine off. Et je veux pouvoir dire aussi : "weekend, deux heures du mat' ? Parfait pour bosser" (il est de notoriété commune que je vis beaucoup mieux la nuit que le jour, surtout le matin — qui devrait être illégal —, et que ma période de sur-productivité est entre 23h et 3h du mat' — malheureusement assez incompatible avec la vie en société).

Bref, tout cela n'explique pas vraiment la désertion de ces lieux (ou du moins de l'ancien, le blog Lina). En fait, c'est tout bête : on me l'a demandé. "On", c'est l'inspection du travail : ils sont frileux, ces braves gens, mais ils trouvaient que ma liberté de ton pouvait nuire à mon statut de DP et secrétaire du CE. C'est très bête, et ma direction ne m'a jamais embêté sur ce point (vraiment pas !) ; il n'empêche que j'ai obtempéré, question politique, en somme.

Voilà donc comment je n'ai pas tenu de compte-rendu du salon RTS ; mais Yoann Suclo en avait fait un très bon compte-rendu, notamment de ma conférence (j'avais aussi modéré celle de l'après-midi). Je n'avais rien reporté non plus de Solutions Linux, où il n'y avait en fait pas grand chose pour l'embarqué. Il y a environ 3 mois, le nouveau salon Mobile-IT était plus intéressant, déjà (je trainais du côté du stand des amis de GenyMobile). Plus récemment, il y a eu les 4e assises de l'embarqué, où j'ai pu prendre beaucoup de notes, ça ferait un compte-rendu fleuve. J'ai aussi assisté à un tas de conf' sur le numérique, mais aucun rapport avec l'embarqué. En décembre, c'était l'Arm European Technical Conference, parfait pour le réseautage, revoir du monde, se tenir au courant des dernières technos sur le marché.

Bref, reprenons les bonnes habitudes. Il y a beaucoup à construire. Et comme le but de ma société va être de conseiller autour des projets faisant intervenir Linux embarqué, ce blog pourrait bien me servir à publier des articles un peu complexes, travaillés, fouillés, et surtout originaux. Un mélange entre prise de parole personnelle et contenu éditorial, en somme.

Encore un défi !

samedi, décembre 24 2011

nouveau départ

Avec la fermeture de l'ancienne adresse, ne pensez pas que j'aie abandonné le blogage professionnel. Même si plus rien n'avait paru ici depuis bien longtemps, pour des raisons que j'expliquerai certainement dans les prochains billets (d'ici une ou deux semaines). Dans tout le cas, ce qu'il faut retenir c'est : mettez à jour vos fils RSS, c'est reparti !

vendredi, février 11 2011

Nokia schizophrène

On me demande souvent "mais que fait Nokia ?". Bonne question : après avoir inventé la tablette internet, par le N770, quatre ans avant que Apple révolutionne le marché avec un produit sur le même secteur (en faisant évidemment semblant, comme à l'accoutumé, d'avoir inventé le bidule, d'ailleurs ils ont tout inventé sur Terre -- à moins que ce ne soit Xerox), après avoir sorti l'année dernière le N900, Nokia était victime de managerialite (aussi appelé : "dérive bureaucratique"). C'est une maladie courante dans les grandes entreprises : à force de stagner, tout un chacun est promu manager, peu importe en réalité ses compétences. Or, un mauvais manager, qui se reconnait au fait qu'il a le leadership d'une huître, ne prend pas de risque : résultat, les merveilles des techno-geeks de folie de Nokia finissaient entre geeks, bien loin du mass market. Et pendant ce temps, comme tout bon gros bourgeois assis sur ses lingots d'or, Nokia vivait sur ses rentes, c'est-à-dire son énorme part de marché sur la téléphonie classique, et même sur la téléphonie smartphone (au sens large, 44% tout de même, mais si technologiquement Symbian reste bien éloigné de l'iPhone et Android, le comptage n'est pas bien discriminant).

Évidemment, une telle situation ne dure jamais, surtout sur un marché où le renouvellement se fait à présent en deux ou trois ans (un an chez les iPhone fans, qui s'achètent en permanence les nouveaux modèles, comme si la crise n'existait pas). Et ça, l'actionnaire, il le sait. Exit donc le vieux CEO de Nokia, et bienvenu au nouveau. C'était en septembre dernier, le NY times nous analysait alors finement la situation (contrairement au Figaro). Le nouveau, donc : Stephen Elop, canadien (Nokia avait toujours été dirigé par un finlandais !), et... ancien de chez M$. Ah ! À l'époque, je me disais : oui, bon, p'têtre bien que, sait-on jamais, il doit en connaître un rayon en marketting. Sauf que ce n'était pas par là que Nokia péchait (leurs publicités, même pour le N900, sont toujours au top -- comparez avec Blackberry ou Phone7, qui laisse pantois devant tant d'aberration anti-communicante). Ni trop en terme de stratégie de développement : Nokia a racheté Trolltech il y a deux ans, c'était exactement ce qu'il fallait faire. Non, définitivement, le problème était purement managerial ET stratégique, pour être plus précis, il fallait donner une ligne claire, des objectifs clairs, et que tout le monde suive la même direction (au lieu de laisser les excellents projets dans des quasi-placards -- il fallait compter deux mois d'attente pour espérer un N900 l'année dernière, absurde !). À l'époque, on pouvait ainsi lire que Stephen Elop était the wrong guy.

He bien, il s'avère que le gus est effectivement bien mauvais. Déjà, il pousse une gueulante comme un putois en s'apercevant que 4 mois après sa prise de poste, rien ne va : ça, mon gus, c'était justement ton boulot. Outre que c'est exactement ce qu'il ne faut pas faire (ça avance à quoi, hein ? Tes chefs pépères vont le rester, tes geeks motivés le sont bien moins), il fustige le fait que MeeGo ne sera pas prêt avant un an : le drame. Parce que franchement, on ne va pas me faire croire qu'il n'a pas les moyens de faire mieux. Et les moyens, on se les donne.

Sa technique fulgurante : signer un accord avec M$ (et avec Ballmer en personne, qu'il ne devait rencontrer qu'une fois l'an lorsqu'il était son N+X) pour mettre du Phone7 sur les terminaux Nokia. Ah ça c'est sûr, ça fait baisser le TTM. Je suis moins sûr que cette stratégie puisse être qualifiée d'intelligente ; je vous la refais sans litote : c'est absolument, profondément, crétin.

Je vous laisse apprécier les commentaires en dessous de l'article précédent. Tout le monde attendait Nokia sur des technos innovantes. À la place, on aura du la dernière mouture de WinCE, qui aurait pu être la dernière avant abandon du marché si cela n'avait pas pris. À la télévision, c'est Microsoft qui assure la publicité de son OS, sans présenter aucun terminal : en fait, il en existe quelques uns, certainement pour éviter les procès sur Android, et supportés par des opérateurs (comme Orange) qui ne supportent plus les détournements d'Android (google talk qui ne fait pas payer la messagerie instantanée, le partage de connexion 3G sur PC fourni de base, etc). Côté ventes, c'est mystère et magouille de chiffres.

Nokia, avec sa population d'ingénieurs formés à Symbian (libéré) et Linux, va donc devoir s'adapter à un nouveau produit dont elle ne connaît rien, et abandonner en rase campagne des équipes qui bossent sur des technos autrement plus innovantes, et libres, sur lesquelles elle avait la main de A à Z. Et cela dans le but de séduire un marché qui n'a que faire de cette technologie, arrivée trop tard et qui véhicule une image déjà dépassée (tandis que Blackberry attaque déjà le mass market et madame Michu, rachetant au passage QNX, ce qui est autrement plus malin). Et alors même qu'une communauté geek est très forte du côté Maemo/Meego. On y croit très fort.

Nokia vient de passer la vitesse supérieure, c'est certain. Vers le mur.

jeudi, janvier 20 2011

inepties du web

Je me demande comment la RATP arrive à ne pas rediriger "ratp.fr" vers "www.ratp.fr". Même moi j'y arrive sur mon site web, ce n'est qu'une pauvre directive Apache ! De la même manière, j'ai essayé d'accéder au site web de la banque en ligne ING : "ing-direct.com" n'est pas déposé, il faut bien rentrer "ing-direct.fr" ! Et ce genre de cas, pour l'un comme l'autre, n'est pas rare. C'est à se demander à quoi pensent les prestataires informatiques ! (surtout à une époque où l'on se rend enfin compte que le système d'URL est un non-sens pour l'utilisateur lambda, avec une ambiguïté accrue depuis que Firefox a mis en place un raccourci vers Google "j'ai de la chance" dans sa barre d'adresse)

Pour rappel, Linagora fait aussi (et presque surtout, ces temps-ci) du Web : je vous promets (d'autant que ça ne m'engage à rien, en tant que membre d'une équipe totalement disjointe du LinStudio) de fouetter personnellement mes gentils collègues s'il s'avère qu'ils ont mis en place un site ficelé à moitié de la sorte.

Parce qu'avant même de penser beau et pratique (déjà, quand ça y pense... Il faut voir le site web de l'opéra de Paris pour comprendre comment on peut flamber quelques centaines de milliers d'Euros pour rien...), il faut déjà penser à ce que ce soit... accessible !

Le bon sens : je devrais mettre ça en qualité première distinctive sur mon CV, tiens (avant l'orthographe).



PS: il doit être vendredi dans une partie du monde, je m'arroge donc le droit de troller par anticipation

jeudi, janvier 13 2011

marchés publics et ouverture aux offres libres obligatoire

Un appel d'offre pour marché public excluant, par une clause imposant l'emploi d'une base de donnée propriétaire, les réponses faisant appels à des solutions libres, vient d'être annulée.

C'est une excellente nouvelle !

vendredi, décembre 24 2010

revue de presse annuelle

2010: The year open source went invisible, avec de vrais morceaux d'embarqué dedans, mais clairement plus business oriented et mass market ; 2010, c'est clairement l'année Android.

À l'année prochaine !

jeudi, décembre 23 2010

Arbeit macht frei

Il paraît que l'on compare Foxconn à un camp de concentration. "Vous ne verrez plus votre iPhone comme avant". Il est clair, lorsque l'on voit ces images, que l'on peut se poser des questions quant à la viabilité du modèle chinois. Si ce genre de pratiques est ancré dans leur histoire, la mondialisation finira forcément pas assimiler les comportements (un seul syndicat ferait l'affaire... surtout s'il est communiste !). Apparemment, les grilles aux fenêtres des cités-dortoirs sont déjà là pour empêcher les suicides...

Je reste donc fort circonspect, d'autant que c'est le mini-capitaliste taïwannais, via HTC, qui concentre l'intelligence sur les smartphones... en sous-traitant aux français, rachetés en juin (ce qui permettra certainement de concentrer les efforts sur leurs produits, comprendre couper les pattes à m$). En bref, la fuite de l'intelligence d'étude des smartphones, je n'y crois que moyennement ; à moins qu'un décalage ne s'opère ("si le Bangladesh augmente son coût du travail, on délocalisera en Indonésie... Ce type de rencontre rendrait gauchiste 90% des parlementaires français...", dirait une Boutin avec son rapport inutile sur son site web introuvable) : les Chinois feraient du soft, les Indonésiens le matériel. J'y crois assez peu : 300.000 personnes d'une usine-ville à recycler, ça ne se fait pas en deux coups de cuiller à pot.


addendum: amusant, juste après avoir publié, je tombe sur cet article du Financial Times, "China’s growth model labelled ‘unsustainable’" :

In his editorial, Mr Yu described a lack of innovation and creativity as the Chinese economy’s “Achilles heel” and lamented the inefficient use of capital, as reflected by the country’s investment rate of more than 50 per cent.

lundi, décembre 20 2010

ordonnancement des requêtes

Victime de son succès, la Cour européenne des droits de l’homme (CEDH) a été amenée à repenser la procédure de traitement des requêtes qui lui parviennent (v., à propos du Protocole 14, Dalloz Actu Étudiant 15 juin 2010). En juin 2009, elle a modifié l’article 41 de son règlement, et défini une nouvelle politique de « prioritisation » des affaires.

Dans quel ordre et suivant quelle logique les requêtes déposées à Strasbourg sont-elles traitées ? C’est ce que précise la Cour européenne dans une communication du 9 novembre relative à sa politique de prioritisation des affaires, exprimée dans l’article 41 de son règlement, tel que modifié en juin 2009. La Cour y indique qu’elle tient désormais compte de l’importance et de l’urgence des questions soulevées par chaque affaire pour déterminer l'ordre de traitement des requêtes. Auparavant, celles-ci étaient instruites et jugées principalement par ordre chronologique, suivant l'ordre dans lequel elles se trouvaient en état.

Quand j'ai lu ça, je me suis dit que boudiou, ça sent la famine... Il est vrai que la CEDH croule sous les interruptions système : malgré un cache, les requêtes pertinentes sont trop nombreuses, et le temps de latence se compte en années. Ces derniers temps, les traitements avec cinq années post-événement remettent même tout le système en cause. Normalement, on devrait changer les systèmes fautifs qui sont à l'origine d'autant de requêtes. Las, on ne choisit pas toujours, et ce n'est pas dans les compétences de la CEDH (qui interprète la Convention des droits de l'Homme sur des cas d'espèce particuliers, mais ne légifère évidemment pas dans les États), celle-ci ne pouvant que patcher au fur et à mesure (je passe sur les sources du droit et la création jurisprudencielle). Comme apparemment, l'autre solution consistant à booster la Cour, en lui permettant de gérer plus de requêtes (upgrade matérielle), n'est pas possible non plus (certainement une question de budget, plus que d'impossibilité de parallélisation), c'est une solution hybride qui est choisie.

La Cour précise qu'en principe, une affaire appartenant à une catégorie d'importance élevée a priorité sur une affaire classée dans une catégorie moindre [...], le but étant de « faire en sorte que les affaires les plus graves ou révélant l'existence de problèmes à grande échelle de nature à générer un grand nombre de requêtes supplémentaires soient traitées plus rapidement ».

Donc pour l'instant, l'idée est de gérer des FIQ et des IRQ avec sept niveaux de priorisation (six en fait : la septième est un rejet au niveau de la couche de cache -- c'est un peu de la paravirtualisation à la AdeOS, la chambre de la CEDH). Le plus prioritaire est déclaré si cela touche à la vie humaine (comme sur un ABS, c'est toujours prioritaire sur l'ensemble du système, normal). L'idée étant d'écoper les interruptions par lots en patchant les logiciels étatiques défaillants qui génèrent autant d'interruptions, sachant qu'ensuite pour toutes les interruptions de même type déjà enregistrées, on appliquera le même traitement à la chaîne, soit la priorité 5, "affaires « répétitives » (questions déjà traitées dans un arrêt pilote / de principe)" (ce qui est tout de même un peu gênant s'il s'agit de la garde à vue en terme de baisse de priorité, celle-ci étant de type 3 -- atteinte à l'article 5 -- voire 2 -- question d'intérêt général à forte répercussion sur un système juridique)

[en fait, ce sont les États qui doivent se patcher, mais par un savant mélange instable de common law et de droit romain : on peut opposer une jurisprudence (les conclusions d'une affaire similaire, où la Cour a souvent développé son interprétation d'un point de droit) au tribunal d'un État du conseil de l'Europe, mais on va déborder un peu sur notre analogie]

Bref, c'est bien beau, mais qui nous dit qu'une affaire de classe 6 (la moins prioritaire) sera un jour traitée si notre système CEDH croule en permanence sous les demandes des systèmes hautement défaillants, soit l'Italie, la Russie, la France et la Turquie ? (ouais, la Turquie est toujours pire que la France, mais on vaincra pour avoir le record de violation des droits de l'homme !!) La garantie est en fait assez faible et basée... sur une inversion de priorité manuelle !

« Pour déterminer l’ordre dans lequel les affaires doivent être traitées, la Cour tient compte de l’importance et de l’urgence des questions soulevées, sur la base de critères définis par elle. La chambre et son président peuvent toutefois déroger à ces critères et réserver un traitement prioritaire à une requête particulière. »

On a paumé des satellites pour moins que ça... Alors que la solution est bien connue, de nous autres : il faut un système de vieillissement qui augmente la priorité d'une affaire avec le temps, de telle sorte qu'une affaire de priorité 6 prenne la priorité 1 au bout de 5 ans, par exemple (chaque année, on décrémente donc le niveau de 1).

[Bon, en réalité, la priorité 1 arrive très rarement, étant donné qu'il faut avoir épuisé tous les recours possibles, ce qui prend facilement 5 ans]

Comme quoi, l'informatique temps-réel, ça peut vraiment servir à quelque chose dans la Vraie Vie®. La prochaine fois, on se penchera sur l'application des chaînes de Markov à la poste ou à la SNCF : ou comment la poste commence à progresser (ça aurait été difficile de régresser, remarquez) tandis que la SNCF reste toujours fidèle à sa réputation d'inorganisation décérébrée.

jeudi, décembre 16 2010

le micro-USB : gloire et décadence

Après l'article 3, insérer un article additionnel ainsi rédigé :

À compter du 1er juin 2011, tout téléphone portable mis en vente sur le marché est équipé d'une prise standard pour sa recharge.

Un décret précise la norme technique européenne retenue.

Objet

Le chargeur d'un téléphone portable est un bien durable qui doit pouvoir être réutilisé. Cet amendement vise ainsi à éviter le gâchis que tout le monde constate aujourd'hui du fait de l'impossibilité de réutiliser son chargeur lors de l'acquisition d'un nouveau téléphone portable. L'amendement prévoit qu'un décret précise la norme technique européenne retenue. Il pourrait s'agir de la norme micro‑USB comme le préconise l'UCS (universel charging solution).

Cet amendement socialiste m'a rappelé à mon devoir de blogueur : cela fait un bout de temps que je devais vous parler de la norme micro-USB sur les téléphones portables. L'informatique libre promeut les standards des formats ouverts. Dans le même esprit, le matériel doit aussi répondre à cette problématique des formats propriétaires omniprésents dans l'embarqué. Au niveau des microprocesseurs, par exemple, nous savons bien que l'obscurantisme recule, et que ARM ou TI font des efforts remarquables et louables. Mais au niveau des intégrateurs, c'est tout autre chose. N'avez-vous jamais assisté à cette scène d'un collègue de bureau affolé cherchant partout un chargeur pour son téléphone, avec sa fiche bien spécifique, dans l'espoir de pouvoir recharger à temps pour recevoir LE coup de fil ultra-important d'un client ?

Nokia, BlackBerry, Motorola, Alcatel, tous avaient jusqu'à il y a peu des formats de chargeurs différents (plats ou ronds), et parfois même entre deux terminaux du même constructeur (courant avec les Nokia), les fiches s'avéraient incompatibles. Et puis la situation a changé : il y a trois ans, mon Motorola V9 avait déjà du micro-USB ; à présent, mon HTC Desire aussi. Tous les constructeurs se sont mis d'accord, la situation ne pouvait plus perdurer : à l'usage, elle est totalement absurde ; pire, économiquement, c'est contre-productif ! Tous ? Non, évidemment, BlackBerry (à confirmer) et surtout, surtout, les rois de l'incompatibilité totale, Apple résistent toujours.

Cet été, de retour de vacances, je me suis aperçu que j'avais oublié mon chargeur micro-USB, en fait composé d'un adaptateur (que j'avais laissé chez moi, c'est déjà ça) sur lequel vient se ficher le câble USB/micro-USB (que j'avais donc oublié ; ayant simultanément, pas de chance, laissé mon ancien chargeur pour Motorola et son câble de communication à ma mômon). Le drame, au bout de 48h : plus de batterie. Je pars donc en quête d'un câble standardisé, USB/micro-USB, tout ce qu'il y a de plus bête...

Quel ne fut pas mon désarrois en constatant que cela relève de la quête du Saint-Graal ! Version Monty Python absurde : Orange, SFR, la FNAC, je fais le tour de la Défense, jusqu'au Chinois planqué à côté d'Auchan (j'espère qu'on a pensé à castrer l'architecte du Quatre Temps, ce centre commercial est une insulte à l'intelligence), rien de rien, ils ont tous le même fournisseur (me dit-on à la FNAC du CNIT), aucun n'a plus de câble depuis un bon mois (deux mois, selon certains). Les vendeurs mettent aussi beaucoup de temps à comprendre de quoi il en retourne : les chargeurs de portable avec fiches propriétaires (essentiellement : Apple, BB, Samsung), ça ils ont, pas de problème. Mais le standard correspondant à au moins 3/4 des téléphones vendus depuis deux ans, ils n'ont pas... Au final, claquant 35€ pour un chargeur simple (donc pas de câble de communication), j'ai dû me résigner à me faire voler, d'autant qu'il ne restait plus que 2 exemplaires planqués dans une boutique SFR (30 minutes pour arriver à trouver le bestiaux, heureusement la vendeuse était jolie).

Alors, comment diable en arrive-t-on là ? Mystère... En tout cas, le législateur a effectivement une occasion de forcer un standard, éviter du gâchis (très à la mode, où le numérique et l'environnement se rejoignent, un coup à revoir NKM) et rendre la situation enfin rationnelle. Finalement, cet amendement a été retiré (pas pu trouver pourquoi). C'est bien dommage.

jeudi, décembre 9 2010

ARM European Technical Conference 2010

Avec un bon mois et demi de retard ("tout vient à point à qui sait attendre"), il était peut-être grand temps que je m'atèle au compte-rendu de la demi-journée passée à l'ARM European Technical Conference 2010 du 21 octobre, toujours au même CAP15, où je ne suis arrivé en RER C qu'en début d'après-midi. Pas avant parce que boulot, boulot -- qui accessoirement explique aussi le délai de rédaction du présent billet. Pas après parce que les Anglais savent sous-traiter ce qu'ils ne savent pas bien faire : la bouffe (je plaisante, on mange très bien à Londres, seulement jamais pour moins de 30€ -- alors que là, c'est gratuit). Cette année a signé d'ailleurs le retour de la fontaine de chocolat, et ça, il faut carrément le signaler. ARM is great.

Plaisanterie mise à part, c'est déjà l'occasion de retrouver des acteurs d'Anticyp et de former des liens avec des instituts de formation cherchant des compétences logicielles. Si vous êtes un hardeux en quête d'un formateur de qualité, jeune et dynamique, contactez-moi, j'organiserai immédiatement une rencontre avec Marie-Léona Charpentier du service formation (d'autant qu'elle commence à être formée à l'exercice, on a un bon taux de demande pour les formations en embarqué ces temps-ci). Spécialité Linux, cela va sans dire.

Les petits stands sont à peu près stables d'une année à l'autre, mais force est de constater, tout de même, un recul du logiciel ; notamment du côté de la paravirtualisation, absente du paysage. Peut-être un effet anti-boule-de-neige (ça n'aurait pas été un comble, il faisait certes froid mais encore beau, en ce temps-là), puisque dès lors qu'un concurrent n'est pas présent, pourquoi venir ? Et du côté des conf' programmées, à vrai dire, c'était un peu pareil...

Première conférence logicielle : "Making Open Source Development Easier and Faster". Comprendre : Linaro, projet poussé par ARM en consortium pour accélérer l'intégration de Linux en embarqué. J'étais curieux de savoir ce que cela donnait, en vrai, outre l'exceptionnel très-beau site web (tellement rare...) : eh bien, c'est du très sérieux ! 90 ingénieurs, une véritable organisation, issue d'une association de fondeurs regroupés autour de ARM, qui vont s'occuper de gérer kernel, chaîne de compilation et d'autres sujets immédiatement afférents (conso mémoire, debug, etc -- mais le nombre de thèmes considérés est pour l'instant limité, on ne disperse pas inutilement les ressources) pour assurer un support ARM le plus complet possible, et mettre fin aux problèmes de portabilité. En d'autres mots, ils s'occupent de la couche horizontale pour reverticaliser le marché. Une sortie tous les six mois, une ouverture complète sur les travaux menés, mais une structure de type entreprise assez figée tout de même ; pas vraiment communautaire, donc, mais fort utile par exemple pour sous-traiter l'intégration de patch de support hardware dans le noyau (opération qui prend tout de même six mois : on propose, on négocie, on repropose, c'est testé, c'est à reprendre, et finalement, c'est enfin poussé dans l'arbre, travail de longue halène, pas vrai Google ?). Donc, depuis tout ce temps, la première mouture est sortie, avec un beau gcc (avec gdb), un beau noyau et un bel u-boot. Ça promet, et c'était important.

La seconde conférence à laquelle j'ai assisté était sur Android. En fait, ça a rapidement dérivé sur une implémentation native pour faire du hack atroce (mode Frankenstein), avec le nouvel IDE tout-en-un de ARM, DS-5. Ils sont fous ces hardeux.

Mais revenons-en aux stands : plusieurs me disent qu'ils me lisent avec grand plaisir (notamment le CR de l'année dernière), même avec mes manies de name-dropping (mais je me soigne, regardez ce billet) et de longueur indécente. C'est très plaisant, ma jauge de narcissisme monte (je ne dis pas "remonte", puisqu'elle n'a jamais baissé). Bientôt je signerai des autographes. J'interroge à droite, à gauche, pour prendre le poul : ça pousse beaucoup du côté d'Android, mais ça regarde tout de même du côté de Meego (à mon avis, il vaut mieux, parce que le modèle Google a de sérieuses limites), le pauvre WinCE7 ressemble un peu à un chant du cygne : un dernier essai de Microsoft avant de considérer l'abandon du marché, si ça échoue (z'avez vu les pubs pour les téléphones sous Phone7 qui insultent la concurrence ? On n'y fait pas mention de terminal, hum...), mais ne tirons pas sur l'ambulance. On m'a demandé plusieurs fois si nous considérions donner des formations Android, ou si l'on développait dessus : oui, on développe, et bientôt-oui, une formation est en cours de rédaction ; le problème essentiel est surtout de savoir à quel niveau on se place, applicatif/Java/API ou bas-niveau/conférence ARM/attaque au burin.

Je passe d'agréables moments, notamment avec TI (qui a disséminé ses nouvelles Beagleboard sans flash -- cette manie, je ne comprends pas, rendez-moi ma flash !) et ENEA (on parle tourisme économique entre Suède et pays de l'Est sous-traitants -- on n'y fait pas du pr0n, là-bas, mais de plus en plus d'embarqué, pour de "pures raisons techniques", mais il faudra un jour que j'écrive un pamphlet à ce sujet, promis). Comme chaque année, je ne gagne aucun lot au tirage au sort (ce qui est très dommage, puisque cette année j'ai pensé rendre mon bulletin avant le tirage). Par soucis de préservation de la planète, j'ai ramené peu de documentation (ce bon karma amènera certainement quantité de contrat sur plusieurs réincarnations), les slides étant cette année en ligne (à condition de s'enregistrer, tâche hautement pénible quand on reçoit déjà en double les mails sur des boîtes pro et perso, et qu'on voudrait utiliser encore une nouvelle adresse mail...).

lundi, octobre 4 2010

joyeux nanniversaire

Aujourd'hui, ce sont les 25 ans de la FSF. Eh oui, déjà...

mardi, septembre 7 2010

M2M, domotique, drogue

Chers lecteurs, je vous ai délaissé. Alors pour me faire pardonner, voici un article, publié en décembre 2009, qui vaut son pesant de noix de coco. Un article qui mêle M2M, domotique, réseaux sociaux. Un article qui prouve qu'il vaut mieux rien dire que de raconter des conneries -- quoique, ça fait bien rire. Du vrai bullshit. Je demande "le rôle des objets et le rôle des hommes". Extraits choisis :

l’une des premières manifestations de l’”internet des objets” est la multiplication de “connecteurs”, qui prennent des signaux venus des capteurs tels qu’ils sont, hétérogènes, et les envoie vers le réseau. Ces connecteurs font le lien entre le monde analogique, ou le monde très spécifique des capteurs industriels, et les protocoles communs des réseaux d’aujourd’hui. Le monde devient du coup plus bavard. C’est ainsi que se construit l’internet des objets.

Des créatures rejoignent l’internet.

Ce que montrent ces projets, c’est qu’ils émergent d’initiatives très décentralisées. Comme l’internet social, l’internet des objets peut déplacer les centres de pouvoir.

Les choses sont nos amies.

Il faut toujours concevoir les choses en regardant leurs conséquences

Autre changement notable à prendre en considération avec l’arrivée de l’internet des objets, c’est que tout objet va devenir adressable, cherchable, “scriptable”, c’est-à-dire capable de supporter des scripts, des instructions et devenir commande. Nos villes vont devenir des réseaux temps réels qui vont nous offrir d’innombrables nouvelles possibilités.

“Le fait de rendre nos activités, nos localisations, nos intentions visibles dans l’espace urbain n’est pas neutre, c’est problématique”

toute extension est aussi une amputation

Oui, ça laisse songeur sur les ravages des champignons.


(merci à l'université Paris 3 pour avoir proposé hier, lors du concours de sélection du master édition, ce collier de perles ; je leur indique par ailleurs que trouver la source originelle et citer le nom de l'auteur quand on recopie l'intégralité d'un article est un minimum : ce n'est pas "LeMonde" -- qui plus est dans sa version web --, mais Internet Actu, et les auteurs de l'article, et donc de certaines de ces citations mémorables, sont Hubert Guillaud et Daniel Kaplan)

vendredi, juin 25 2010

cours de kernel Linux en ligne

L'annonce (sur linkedIn) de ces quelques articles de début de cours sur la programmation kernel Linux me fait rappeler que des slides de formation peuvent aussi être trouvés sur le web : chez FreeElectron, et bien entendu, chez Linagora !

Bonne lecture !  :)

lundi, juin 7 2010

ouverture extrême

Src-non-oss

Dépôts des RPMs source non OSS. Pour les utilisateurs avancés uniquement.

OpenSUSE est vraiment la distribution ultime : la preuve, si l'on consulte la liste des dépôts standards possibles, on en a un pour les sources des logiciels non-opensource....

mardi, juin 1 2010

Apple sentirait-il le vent tourner ?

C'est ce que l'on peut se poser comme question au regard de la sortie de l'arme nucléaire juridique : les brevets logiciels. Pour rappel, les brevets logiciels ne sont valables qu'aux USA et autres pays de ce goût-là (le Japon, par exemple), mais heureusement pas en Europe (malgré la poussée de lobbies mal intentionnés). La situation est la suivante : les grands groupes possèdent des porte-feuilles entiers de brevets validés par un bureau peu regardant (le double-clic pour Microsoft, l'achat en un clic pour Amazon, etc), et se mènent une guerre... froide. Équilibre des forces. Les nouveaux arrivants, eux, se font bouffer tout crus : avant de pouvoir s'acquitter de la liste des brevets à payer pour faire quoi que ce soit, ils ont déjà entamé tout leur capital. Nouveaux arrivants qui ne sont pas (forcément) de petites entreprises à croissance potentielle exponentielle (celles-là sont obligées de conquérir de nouveaux marchés, Internet dans les années 90-2000 par exemple) ; on pense en fait plutôt aux asiatiques ; ou aux grandes sociétés voulant s'étendre sur un secteur où elles étaient absentes.

Et c'est ainsi que Google marcha sur les plate-bandes d'un arrivant pas beaucoup plus ancien dans l'histoire de l'embarqué (ni de la téléphonie portable) : Apple. Pour rappel, l'iPhone a certes très bien marché, mais pas aussi bien dans le reste du monde qu'en France (il y a un syndrome certainement nombriliste français d'induction forte ; un peu comme lorsqu'on croit que MSN s'est imposé partout : en fait, c'est juste totalement faux -- j'accorde un phénomène de sur-visibilité dû à l'unicité de forme des produits, tout au plus) ;et même sur le marché spécifique des smartphones le leader de très loin reste Nokia (44%), suivi de BlackBerry (19%). Il n'empêche : l'iPhone possède (entre autres) le multi-touch. Mais la dernière mouture d'Android aussi. Et donc le Desire, le Nexus (seul commercialisé sous la marque Google mais en réalité sous-traité) ou les prochains téléphones de HTC de même. Apple attaque violemment sur le terrain de la propriété intellectuelle HTC, le Taïwanais qui pèse bien moins (presque dix fois moins) lourd qu'eux en bourse -- mais après tout, Apple ne valait plus grand chose il y a 10 ans. En réalité, c'est à Google que s'adresse Apple ; avoir le courage de les affronter n'est cependant pas au programme (allez savoir pourquoi, n'est-ce pas ?).

Si l'honneur de personne ne sort jamais grandie de ce genre d'affaires, il est en tout cas assez cocasse de voir ainsi Apple, qui a débuté en piratant le réseau téléphonique de AT&T, et qui a piqué bon nombre de ses idées "novatrices" de ses débuts à Xerox (l'interface graphique et la souris, entre autres), Apple qui est en train de nous faire croire qu'ils ont inventé la tablette Internet tactile là où le N770 existe depuis 2005, jouer aux vierges effarouchées dès qu'il s'agit de défendre son bout de gras. Tous les coups sont permis. HTC contre-attaque déjà, avec les mêmes armes. Une bataille de longue haleine s'engage.

Avec 5 millions d'appareils vendus sous Android (et 4 autres millions sous d'autres systèmes Linux), les parts de marché de Apple  se voient menacées : c'est bien sur le même segment que ce situe la bataille. RIM pourrait aussi en pâtir lourdement ; je l'ai déjà écrit, Microsoft sent la partie lui échapper. Les prévisions que l'on pensait très optimistes pour 2012 (et qui avaient été formulé en 2008) de l'impact de Linux dans le marché de la téléphonie sembleraient à présent... sous-estimées ! Car avec l'abandon programmé de Symbian pour du MeeGo, le renouvellement du parc d'ici deux ans, via un levier Nokia qui possède 44% du marché des OS de smartphones (et 35% du marché de la téléphonie), va être certainement très impressionnant.

Mais Google ne s'arrêtera pas là : les tablet PC vont venir chatouiller l'iPad, et on compte déjà Archos, ASUS (Eee Pad), Dell (Streak, Mini 5), Samsung (S-Pad), Notion Ink (Adam). On verra si Apple néglige toujours le port USB (comme ils avaient négligé la 3G sur le premier iPhone, quand on y pense). Deux philosophies vont s'affronter : l'ouverture (évidemment, il y a la problématique du Market, mais elle est justifiable d'un point de vue de la sécurité) vs la fermeture totale du business model à la pomme.

Et un nouveau marché semble encore à conquérir : la télévision numérique. Dans un marché sclérosé et fortement concentré aux mains de quelques monopoles, certes entamés par les opérateurs triple-play (qui découvrent le métier sur le tas), ça pourrait faire mal : pour peu que les opérateurs découvrent que l'on peut faire beaucoup mieux avec beaucoup moins cher et beaucoup moins complexe, ça risque de faire mal. Un peu comme lorsque Apple a mis un coup de pied dans la fourmilière des smartphones : car s'il faut bien leur reconnaître un mérite, un seul, c'est bien celui-là. La bataille ne se joue plus sur le software en lui-même : elle se joue sur le contenu, sur la valeur ajoutée intrinsèque. À ce niveau-là, Android a la portabilité et donc la diffusion de masse sur des secteurs variés, ramenant autant de développeurs nouveaux que possible, de son côté. Un avantage qui pourra s'avérer rapidement décisif.

- page 1 de 5